JP6780661B2 - 画像処理装置および方法、プログラム、並びに画像処理システム - Google Patents

画像処理装置および方法、プログラム、並びに画像処理システム Download PDF

Info

Publication number
JP6780661B2
JP6780661B2 JP2017561586A JP2017561586A JP6780661B2 JP 6780661 B2 JP6780661 B2 JP 6780661B2 JP 2017561586 A JP2017561586 A JP 2017561586A JP 2017561586 A JP2017561586 A JP 2017561586A JP 6780661 B2 JP6780661 B2 JP 6780661B2
Authority
JP
Japan
Prior art keywords
camera
line segment
vehicle
unit
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017561586A
Other languages
English (en)
Other versions
JPWO2017122552A1 (ja
Inventor
英史 大場
英史 大場
大久保 貴裕
貴裕 大久保
卓也 山口
卓也 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017122552A1 publication Critical patent/JPWO2017122552A1/ja
Application granted granted Critical
Publication of JP6780661B2 publication Critical patent/JP6780661B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/114Yaw movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/047
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本開示は、画像処理装置および方法、プログラム、並びに画像処理システムに関し、特に、走行中にカメラの位置・方向ズレを検出することができるようにした画像処理装置および方法、プログラム、並びに画像処理システムに関する。
従来、車両周辺を車両の上から見下ろした表示をする、いわゆるトップ・ビューやサラウンド・ビュー・システムと呼ばれるシステムでは、車両の外周囲に取り付けたカメラで路面を斜め横から撮影し、路面平面の位置(カメラに対する高さと向き)を仮定し、撮像した画像から該当路面を平らな平面と仮定した像投影として、それぞれのカメラの画像を貼りあわせて車両外周全体の路面像を実現している。
実際の取り付けなどによる理想設計値から製造取り付けに起因するズレなどが発生するため、車両の製造段階においては、これらの取り付け誤差を吸収して、複数位置に取り付けられた各カメラの合成した画像が理想的な連続表示となるように、各カメラの内部パラメータ(カメラの焦点距離、歪量、光軸ズレ)と外部パラメータ(路面からの設置高さ、路面に対する光軸の向き/ピッチ・ヨー角、路面に対する回転/ローテンション)を較正(キャリブレーション)している。
ただし、路面に対するシステムを構成するカメラの車両上の取り付け高さや向きは理想設計値からズレを一度較正したとしても、車両へ搭載荷重やバランス、物理的衝撃などの色々な要因で、路面との相対的位置関係の変動が起こり、変わってしまうことがある。
これら、取り付け高さや向き、カメラの固有特性ズレは、車両製造時や完成車両のメンテナンスを担う専用の場所でかつ専用のキャリブレーション・チャートを車両周辺に配置して、それらチャート上のターゲットパターンなどを用いて変動要因のパラメータ較正のためのキャリブレーションを行っていた。
例えば、特許文献1には、前後の一対のカメラで画像ズレを検出する点が記載されている。また、特許文献2には、消失点を用いてフロントカメラのキャリブレーションを行う点が記載されている。
他方で、車両の積載量や路面と傾斜や段差があると、統合俯瞰変換画像で、カメラ間で理想路面投影画像を作っても、その固有状態でのズレがあり、その状況が変動すると路画面が変わってしまうため、ズレが生じた状態でその都度メンテナンスの実施時のように、製造元やサービスステーションで較正することは現実的ではなかった。
特開2014−195170号公報 特開2011−185753号公報
以上のことから、車両搭載荷重が加わった場合など、その固有な状態でダイナミックなパラメータ較正ができることが望ましい。
本開示は、このような状況に鑑みてなされたものであり、走行中にカメラの位置・方向ズレを検出することができるものである。
本開示の一側面の画像処理装置は、車の直進状態を検出する車状態検出部と、第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分を検出する線分検出部と、走行背景における無限点を検出する無限点検出部と、前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と車両の進行方向を検出する進行方向検出部とを備え、前記第1の補正量算出部は、前記進行方向検出部により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理を禁止する。
本技術の他の側面の画像処理システムは、車の車体に配置され、画像を撮像する撮像部と、前記撮像部により撮像された画像を送信する送信部とを備える第1のカメラ、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラ、および前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラと、前記車の直進状態を検出する車状態検出部と、前記第1のカメラ、前記第2のカメラ、および前記第3のカメラにより撮像されたそれぞれの画像から線分を検出する線分検出部と、走行背景における無限点を検出する無限点検出部と、前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と、車両の進行方向を検出する進行方向検出部とを備え、前記第1の補正量算出部は、前記進行方向検出部により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理を禁止する画像処理装置とからなる。
本開示の一側面においては、車の直進状態が検出され、第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分が検出され」、走行背景におまた、算出された第1のカメラの補正量と検出された線分に基づいて、前記第3のカメラの補正量が算出され、前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理が実行され、車両の進行方向が検出される。そして、検出された進行方向に変化がない場合、検出された線分の車両進行に伴う時系列変化から、検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理が禁止される。
本技術の他の側面においては、車の車体に配置された第1のカメラ、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラ、および前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより、それぞれの画像が撮像され、撮像された画像が送信される。そして、画像処理装置により、前記車の直進状態が検出され、複数のカメラにより受信された画像から線分が検出され、走行背景における無限点が検出され、検出された無限点に応じて、第1のカメラの補正量が算出され、算出された第1のカメラの補正量と検出された線分に基づいて、前記第1のカメラの逆方向以外の異なる位置に配置された第2のカメラの補正量が算出され、前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理が実行され、車両の進行方向が検出される。そして、検出された進行方向に変化がない場合、検出された線分の車両進行に伴う時系列変化から、検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理が禁止される。
本技術によれば、走行中にカメラの位置・方向ズレを検出することができる。
なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術を適用した複数カメラによる較正処理の概要を説明する図である。 本技術を適用したカメラ較正システムの構成例を示すブロック図である。 図2のカメラ較正システムの処理を説明するフローチャートである。 カメラ較正システムの詳細な構成例を示すブロック図である。 カメラおよび画像処理ICの詳細な構成例を示すブロック図である。 カメラ較正システムの車両周辺俯瞰表示処理を説明するフローチャートである。 図6のステップS61のカメラ間の同期処理について説明するフローチャートである。 較正値による歪み補正処理部の構成例を示すブロック図である。 車両の移動前におけるカメラで捉えた検出線分とカメラ画像上の検出線分を説明する図である。 車両の移動後における前方カメラで捉えた検出線分とカメラ画像上の検出線分とを示す図である。 前方カメラの向きが車両進行方向に対して角度Δθだけ横にずれている場合のカメラ画像の角度のズレ量の算出方法について説明する図である。 走行非平行成分の収束点が、偽消失点である例を示す図である。 車両が道路に対して角度θ傾いて走行を行う場合について説明する図である。 車両が道路に対して角度θ傾いて走行を行う場合について説明する図である。 車体の前のめりについて詳細を説明する図である。 車体の前のめりについて詳細を説明する図である。 車体の右前のめりについて詳細を説明する図である。 図6のステップS64の較正処理について説明するフローチャートである。 本技術の効果例を説明する図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 パーソナルコンピュータの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(概要)
2.第2の実施の形態(システム)
3.第3の実施の形態(応用例)
4.第4の実施の形態(パーソナルコンピュータ)
<1.第1の実施の形態(概要)>
[本技術の概要]
まず、図1を参照して、本技術を適用した複数カメラによる較正処理(キャリブレーション)の概要について説明する。図1のAは、左から順に、理想位置状態、車体前側沈み状態、車体右側沈み状態のカメラ画像を示す図である。図1のBは、左から順に、理想位置状態、車体前側沈み状態、車体右側沈み状態の俯瞰画像を示す図である。
車両においては、走行中や乗車人数の変化、荷物の搭載、車両の加減速による慣性力の影響、車両が上り坂や下り坂を走行する際の車両の傾きなどにより、車体が前後に沈んだり、左右に沈んだり、車体の高さが変わってしまい、カメラの有効画角に影響を及ぼすことになる。これに対して、本技術は、走行中であっても、カメラ位置ズレを検出し、補正を行うようにしたものである。
図1のAのカメラ画像においては、各状態の車体1の前方部分と、2本の車線L、走行背景消失点(無限点)Pが示されている。ここで、消失点とは、透視変換によって三次元空間中の平行線を画像平面上に投影した場合に、それら平行線に対応する画面平面上の直線が収束する点のことである。すなわち、消失点とは、実際は奥行を有している空間が投影された平面画像上において、「無限に遠い点」であり、奥行方向に平行な線の延長線が交わる点や、奥行方向に伸びる面の延長が無限遠法に収束する点として認識されるものである。したがって、消失点は、無限遠点、無限点とも呼ばれ、以下、適宜、無限遠点、無限点とも称する。
図1のAの例においては、理想位置状態に対して、車体1が前側に沈むと、2本の車線Lの収束点(交差点)が無限点Pから上にずれている。また、理想位置状態に対して、車体1が右側に沈むと、車体が時計回りに回転するために画像として検出される線分はその回転量に応じて反時計回りに回転する。さらに、車体ヨー方向への向きズレがあれば無限点はそのヨー角に応じてずれているため、車線Lの収束点は、無限点Pからさらに左に水平移動する。なお、車体1が前側に沈む「前のめり」についての詳細は、図15以降に後述される。
図示されないが、同様に、理想位置状態に対して、車体1が後ろ側に沈むと、車線Lが回転してヨーの向きが変われば、その収束点は、無限点Pから下にずれ、理想位置状態に対して、車体1が左側に沈むと、車線Lの収束点は、無限点Pから右にずれてしまう。なお、通常車載積載量で直進時に車体のロール向きはあまり変わることはなく、横風を受けたり、前後のめり状態にさらに回転したりする特殊な条件と考えてよい。
図1のBの俯瞰画像においては、各状態の車体1と、車線Lが示されている。この例の場合、車体1の前方部分には、カメラ11−1(第1のカメラ)が配置され、車体1の左サイドミラー付近には、カメラ11−2(第3のカメラ)が配置され、車体1の後方部分には、カメラ11−3(第2のカメラ)が配置され、車体1の右サイドミラー付近には、カメラ11−4(第3のカメラ)が配置されている。以下、前方に配置されるカメラを前方カメラ、後方に配置されるカメラを後方カメラ、右、左に配置されるカメラを、右カメラ、左カメラともそれぞれ称する。また、右カメラ、左カメラを、左右カメラと適宜総称し、前方カメラ、後方カメラを、前後カメラとも適宜称する。
図1のBの例においては、車体1が前側に沈むと、俯瞰変換した画像であるので、車線Lが平行である理想位置状態に対して、車線Lが車体1の前方向に広がってしまっている。また、車体1が右側に沈むと、車線Lが平行である理想位置状態に対して、車線Lが平行状態のまま右にずれている。
図示されないが、同様に、車体1が後ろ側に沈むと、車線Lが平行である理想位置状態に対して、車線Lが車体1の後ろ方向に広がってしまい、車体1が左側に沈むと、車線Lが平行である理想位置状態に対して、車線Lが平行状態のまま左にずれてしまう。なお、例えば、前のカメラ11−1が前に所定量傾き、後ろのカメラ11−3が後ろにその所定量傾いている場合は、カメラがずれているのではなく、車体1が傾いていると判定される。
そこで、本技術においては、前後のカメラ11−1および11−3により、直進道路上で撮像画面投影上の無限点Pと車線Lの位置関係により傾きを検出して補正が行われる。ここで、直進状態は、例えば、車からのハンドル角度情報(ステアリングホイール情報)より得ることができる。または、車両に搭載されているヨーレートセンサからのヨーレート情報や、左右タイヤの回転速度差情報や、GPSによる車両の位置情報などから直進状態を判定することも可能である。また、すべての車線Lは、平地において平行車線に並進して走行している理想位置状態においては、消失点Pで収束(交差)するので、カメラ画像よりズレ量を検出して補正することが可能である。
さらに、本技術においては、左右のカメラ11−2および11−4により、図1のBの俯瞰画像で、前後のカメラ11−1および11−3と重なる画像部分(四隅のハッチング部分)Eのマッチングにより補正が行われる。ここでは、補正済みの前後のカメラ11−1および11−3のカメラ画像が基準とされる。
より具体的には、まず、前後カメラのぞれぞれの向きズレ確認と必要に応じたズレの較正が行われる。
カメラの向きズレは、進行方向の縦方向ズレと横方向ズレと回転がある。また、前後カメラのうち、縦方向のピッチズレと、横方向のヨーズレは、走行中の進行方向で検出される平行線延長交差点が画面上の進行方向と一致することが知られているので、車両が特定の回転方向に曲がり続けることがない想定をして、その経時的安定中心を基に、パラメータ較正を行うことができる。ただし、本経時的安定中心は、テストコースのような一定方向に回り込む周回走行をするサーキット走行などでは当てはまらないため、適宜除外処理を行うこととする。
他方でカメラの車両進行方向に対する回転(ロール)成分と車両高さパラメータは、共に無限点からの垂線と検出線分Lとがなす角度θの変化として現れ、走行中の自車進行方向における平行線分検出した画面上の方角からだけでは、ズレ量の検出はできない。
そこで、検出白線などの道路平行線分の線分延長複数カメラ同時検出の有無判定をした上で、隣接同時刻の同期画像で車両進行方向に2台以上カメラで認識道路白線が連続単調接続(線分の2次微分が0で急激な曲率不連続接続がない)に重なるようにする。
かつ、一般的に俯瞰変換を実現する場合、魚眼のレンズとして歪がある画像から歪を補正処理して、疑似的レクティリニア投影画像(中心射影変換画像、すなわち、歪みのない画像)の俯瞰画像として推定路面に投影面がある仮定で歪補正変換が実施される。元の魚眼光軸中心の推定中心がずれている場合では、カメラ内部パラメータのズレで、平面上の直線線分が直線線分に投影されないことになる。車体左右に取り付けられた左右カメラのパラメータ較正の際には、本来直線線分が直線上に乗らない状況にある場合、このレンズズレが起きているため、カメラ11の光軸較正をする内部パラメータの補正が行われる。ただし、通常車体姿勢のみできまるのは、カメラ11と路面との間の関係を決定する補正パラメータであり、カメラ内部パラメータが、当該補正パラメータを用いて補正される。
また、特定取り込み路面上の任意形状認識パターンの車両進行方向位置が、上述した同期画像で一致するように左右カメラの位置補正が行われる。具体的には、特定取り込み路面上の任意形状認識パターンの車両進行方向位置が、上述した同期画像で一致したタイミングで取り込みができるようにタイミング調整が行われる。仮に進行方向移動にともなう取り込みタイミングのズレを有するような状況の画像なら、車速に応じて路面画像の位置補正を行い、進行方向へ移動分の補正が行われる。
さらに、前方カメラで車線幅を検出でき、かつ、後続カメラで車線幅を追従検出できる場合、前方カメラで検出された車線幅と後続カメラで検出された車線幅とを一致する補正が行われる。また、同時刻で、前後カメラで同時車線幅検出できないため、前方カメラで検出された車線幅を車両通過後の予測通過時刻に検出の車線幅と一定する補正が行われる。ここで、車線幅とは、車両と検出白線を隔てる進行方向に直角方向の距離成分をさす。
以上のようにすることで、本技術によれば、車両積載状況などにより旅程の都度で変化する走行中の車両姿勢に伴うカメラ位置パラメータの較正ずれの補正を行うことができる。
また、従来、静止した状態の較正であったことから、カメラ間同期を行う必要がなかったが、上記の走行中のカメラ位置ずれ補正を実現するために、カメラ11間で同じタイミングで取り込んだ画像同士の比較が必要になる。そこで、図2を参照して、本技術を適用した複数カメラによる較正の概要について説明する。
[カメラ較正システム]
図2の例においては、本技術を適用したカメラ較正システムが示されている。カメラ較正システム21は、カメラ11−1乃至11−4と画像信号処理装置31を含むように構成されている。なお、図2の例においては、カメラが4台からなる例が示されているが、カメラの台数は、複数であれば何台でもよい。
カメラ11−1乃至11−4は、例えば、独立発信振動で動作しているカメラであり、視野角で150°以上であり、かつ、対称光学系の後軸が水平より30°以上に下方向にあり、図1のBに示された車体1のそれぞれの位置に配置されている。また、カメラ11−1乃至11−4は、例えば、装着車両の直進走行進行方向の方角が、カメラの光軸周辺において30°以上の像高に位置している。カメラ11−1乃至11−4は、撮像を行い、それぞれ撮像した画像信号を、映像信号線で、画像信号処理装置31に送ってくる。以下、カメラ11−1乃至11−4を特に区別する必要がない場合、カメラ11と総称する。
カメラ11は、画像信号処理装置31からのコマンド(同期ズレ量)を受信し、受信された同期ズレ量に基づいて、次のフレームまたは次の次のフレームなどの垂直ブランキングを制御し、その後、画像信号を、画像信号処理装置31に出力する。次の次のフレームの垂直ブランキングを制御する場合とは、積分蓄積調整をする必要がある場合である。
画像信号処理装置31は、画像信号から、例えばフレーム開始パルスを抽出することで、同期ズレ量を検出し、検出した同期ズレ量を、コマンドとして、映像信号線に重畳下り通信を介して、カメラ11に制御コマンド信号として送信する。
[カメラ較正システムの処理]
次に、図3のフローチャートを参照して、図2のカメラ較正システムの処理について説明する。
カメラ11は、撮像を行い、ステップS11において、映像信号線を介して、画像信号処理装置31に対して映像信号を出力する。画像信号処理装置31は、ステップS31において、フレーム開始パルスを抽出し、ステップS32において、同期ズレ量を検出する。ステップS33において、画像信号処理装置31は、ステップS33において、検出された同期ズレ量を、コマンドとして、映像信号線に重畳される下り通信を介して、カメラ11に送信する。その後、処理は、ステップS31に戻り、それ以降の処理が繰り返される。
カメラ11は、ステップS12において、同期ズレ量を受信し、ステップS13において、次のフレームの垂直ブランキングを制御する。その後、処理は、ステップS11に戻って、それ以降の処理が繰り返される。なお、当該較正処理は、毎フレームに行うことは必須ではなく、遅延量が所定の閾値を超えた場合に実行されてもよい。このように閾値を設定することで、処理量を低減することができる。
以上のようにして、本技術においては、独立発信振動で動作している各カメラに対し、遅延などが発生した場合、映像信号線に重畳下り通信を介して、遅延情報を引き渡し、コマンドで、タイミング是正をして継続して動作される。
したがって、本技術によれば、カメラ間で同じタイミングで撮像が可能となり、取り込んだ画像同士の比較が可能になる。これにより、走行中でもカメラ位置ズレ補正を行うことができるようになる。
以下、これらの技術について、さらに具体的に説明していく。
<2.第2の実施の形態(システム)>
[本技術のカメラ較正システムの詳細な構成例]
図4は、本技術を適用した画像処理システムとしてのカメラ較正システムの詳細な構成例を示すブロック図である。このカメラ較正システム21は、車に搭載されるシステムである。
図4の例において、カメラ較正システム21は、図2のカメラ11−1乃至11−4と画像信号処理装置31の他に、さらに、表示部41、通信ネットワーク42、駆動系制御ユニット43、車外情報検出ユニット44、および環境センサ45を含むように構成されている。
カメラ11−1乃至11−4は、それぞれ、イメージセンサ51−1乃至51−4および通信部52−1乃至52−4で構成されている。カメラ11−1乃至11−4は、それぞれ、イメージセンサ51−1乃至51−4で取得した画像に対応する画像信号を、画像信号処理装置31に出力したり、画像信号処理装置31より受信したコマンド(同期ズレ量を含む)に基づいて、次のフレームの垂直ブランキングを制御することで、カメラ11−1乃至11−4の間で同期を行う。
イメージセンサ51−1乃至51−4は、例えば、CMOS撮像装置などで構成され、フォトダイオードなどで取得された画像に対応する画像信号に、所定のカメラ信号処理を行い、通信部52−1乃至52−4に出力する。
通信部52−1乃至52−4は、イメージセンサ51−1乃至51−4からの画像信号を、画像信号処理装置31に送信する。また、通信部52−1乃至52−4は、画像信号処理装置31から送られてきたコマンドを受信する。
画像信号処理装置31は、通信部61−1乃至61−4、画像処理IC62、表示制御部63、メモリ64、制御マイクロコンピュータ65、メモリ66、並びにセンシングチップ67により構成されている。画像信号処理装置31は、カメラ11−1乃至11−4から取得された画像信号からフレーム開始パルスを抽出することで、同期ズレ量を検出し、検出した同期ズレ量を、コマンドとして、映像信号線に重畳下り通信を介して、カメラ11に送信する。
通信部61−1乃至61−4は、カメラ11−1乃至11−4から取得された画像信号を受信し、画像処理IC62に供給する。通信部61−1乃至61−4は、検出された同期ズレ量を、コマンドとして、映像信号線に重畳下り通信を介して、カメラ11に送信する。
画像処理IC62は、通信部61−1乃至61−4からの画像信号を用いて、カメラからの同期ズレ量を検出し、検出した同期ズレ量を、コマンドとして、通信部61−1乃至61−4に出力する。
また、画像処理IC62は、通信部61−1乃至61−4からの画像信号より得られる情報、センシングチップ67からのセンシング情報、制御マイクロコンピュータ65からの駆動系制御ユニット43などから検出される情報と、通信部61−1乃至61−4からの画像信号とを用いて、カメラ11−1乃至11−4の較正処理を行う。例えば、画像処理IC62は、走行背景の無限点に基づいて、少なくとも前後に配置されたカメラ11−1および11−3の向きを較正し、向き較正された補正値を用いて各カメラの俯瞰画像を生成し、生成された俯瞰画像が用いられて、隣接カメラでの線分の連続性を確保し、線分の進行方向に対する一次微分の連続性を確認することで、少なくとも左右に配置されたカメラ11−2および11−4の較正を行う。以上により、カメラ11−1乃至11−4の較正が行われる。画像処理IC62は、較正された画像信号を合成し、表示制御部63に出力する。
なお、車体の剛性がある仮定で、上記の2つの拘束条件とは別に、車両の進行方向を軸として回転する角、いわゆるロール角は進行方向に配置された前後カメラ11−1および11−3で互いに逆方向へほぼ統一回転特性を示す。
表示制御部63は、画像処理IC62により較正され、各カメラ11の内部パラメータ、外部パラメータに基づき、俯瞰変換および画像合成され、合成された画像信号に対応する画像を、表示部41に表示させる。メモリ64は、画像処理IC62の一時的なデータを保存する。
制御マイクロコンピュータ65は、車の駆動系制御ユニット43、車外情報検出ユニット44、および環境センサ45からの情報を、通信ネットワーク42を介して受信し、画像処理IC62に供給する。メモリ66は、センシングチップ67が得たセンシング情報を一時的に記憶する。センシングチップ67は、例えば、測距センサなどからなり、GPS(Global Positioning System)衛星からのGPS信号を用いて測距を行った結果やGPSデータを画像処理IC62に供給する。
表示部41は、車に搭載されるLCDなどであり、表示制御部63からの画像信号に対応する画像を表示する。
駆動系制御ユニット43は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御し、車両の駆動系に関連する装置から得られる情報(例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、サスペンションの沈み量、ピッチセンサからの情報、エンジン回転数又は車輪の回転速度等を検出するためのセンサなど)を、通信ネットワーク42を介して、制御マイクロコンピュータ65に送信する。例えば、サスペンションの沈み量により車回転のときの沈み量がわかるので、必要に応じて更新処理などを行うようにしてもよい。
車外情報検出ユニット44は、車両の外部の情報(例えば、路面以外の路肩の障害物やガードレールなど)を検出し、通信ネットワーク42を介して、制御マイクロコンピュータ65に送信する。
環境センサ45は、車外において検出されるセンサ情報(例えば、雨センサや雪センサ)などを、通信ネットワーク42を介して、制御マイクロコンピュータ65に送信する。
なお、図4の例においては、通信ネットワーク42には、車の駆動系制御ユニット43、車外情報検出ユニット44、および環境センサ45しか示されていないが、実際には、車を構成する他のユニットも接続されている。
[カメラおよび画像処理ICの構成例]
図5は、カメラおよび画像処理ICの詳細な構成例を示す機能ブロック図である。
図5の例において、カメラ11は、イメージセンサ51、画像処理部81、コマンド受信部82、および制御部83を含むように構成される。イメージセンサ51からの画像信号は、画像処理部81に入力される。画像処理部81は、画像信号に対して、所定の信号処理を行い、信号処理が行われた画像信号を、コマンド受信部82に出力する。
コマンド受信部82は、画像処理部81からの画像信号を、映像信号線を介して、画像処理IC62に送信する。また、コマンド受信部82は、画像処理IC62からのコマンドを受信し、受信したコマンドを制御部83に供給する。
制御部83は、コマンド受信部82からのコマンドに応じて、イメージセンサ51の蓄積をリセットしたり、または、読み出しタイミングを制御する。すなわち、制御部83は、コマンド受信部82がマスタブロードキャストコマンドを受信すると、そのタイミングに対して、一定の遅延となるように、イメージセンサ51の次フレームタイミングの早遅延処理をして、次のフレームでの同期ズレを規定値以下にする。このブロードキャスト方式で一定のマスタタイミングをすべてのカメラに共通通知する使用方法の場合は、遅延量を個別にカメラ毎に送らなくてよい。
画像処理IC62は、コマンド送信部91、カメラ同期マスタ信号管理部92、差分管理部93、カメラ制御部94、較正値による歪み補正処理部95、および画像合成部96を含むように構成される。
コマンド送信部91は、映像信号線を介して、カメラ11からの画像信号を受信するとともに、映像信号線に重畳される下り通信を介して、差分管理部93からのコマンドを遅延量に応じて個別に差分情報として当該カメラ11に送信する。コマンド送信部91は、受信した画像信号から、カメラ同期マスタ信号管理部92および差分管理部93に、そのタイミングを出力する。
カメラ同期マスタ信号管理部92は、各カメラ11の画像信号に含まれる同期信号を解析して、あるカメラ11またはそれに基づく基準マスタを設定し、設定したマスタの情報を、差分管理部93に供給する。
その際に、同期のブロードキャストコマンドや個別同期コマンドは、優先処理として、画像受信およびコマンド送信部(Rxデバイス)91で同期コマンドキューを優先送信とする。
差分管理部93は、カメラ同期マスタ信号管理部92により設定されたマスタに応じて、各カメラ11の同期信号を解析して、または、解析せずにダミーを用いて、マスタとの差分やカメラ11毎の同期ズレを管理するフレームレートでのブランキング信号を生成して、各カメラに一斉に定期的にブロードキャストするように、基準同期コマンドをコマンド送信部91に供給する。例えば、例えば、表示タイミングが検出され、差分管理部93においては、表示タイミングの差分が検出される。また、差分管理部93は、各カメラ11に対するフィードバックを生成し、それを、コマンド送信部91に送信する。差分管理部93は、カメラ11からの画像信号を、較正値による歪み補正処理部95に送信する。
カメラ制御部94は、必要に応じて、カメラ11の制御をするためのコマンドを、コマンド送信部91に供給する。
較正値による歪み補正処理部95は、カメラ11の画像信号を用いて、カメラ11の設置パラメータに応じて、つまり想定路面との相対位置関係の較正値に基づき歪補正処理を行い、その結果得られる俯瞰画像を、画像合成部96に供給する。画像合成部96は、較正値による歪み補正処理部95からの各カメラ11の俯瞰画像を合成し、合成した俯瞰画像を表示部41に出力する。
[カメラ較正システムの処理]
次に、図6のフローチャートを参照して、カメラ較正システム21の車両周辺俯瞰表示処理について説明する。
ステップS61において、カメラ較正システム21は、カメラ11間の同期処理を行う。このカメラ11間の同期処理の詳細は、図7を参照して後述されるが、ステップS61の処理により、車体1の前方部分に配置されたカメラ11−1、車体1の左サイドミラー付近に配置されたカメラ11−2、車体1の後方部分に配置されたカメラ11−3、車体1の右サイドミラー付近に配置されたカメラ11−4の同期をとることができる。
ステップS62において、制御マイクロコンピュータ65は、駆動系制御ユニット43から得られる情報(ヨーレートセンサ、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角など)に基づいて、車が走行中であるか否かを判定する。このとき、まっすぐな道を走行中のときだけ判定するようにしてもよい。なお、走行中であるか否か、走行が直線軌道に乗っているか否かは、上述したヨーレートセンサ、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、GNSS(全地球航法衛星システム)、GPSデータや認識画像から得られる周辺環境情報、あるいは地図データ、検出線分の交点変動のいずれか1つ、または、その組み合わせのデータ情報から判定するようにしてもよい。ステップS62において、車が走行中であると判定された場合、処理は、ステップS63に進む。
ステップS63において、制御マイクロコンピュータ65は、さらに、駆動系制御ユニット43から得られる情報に基づいて、車の車体姿勢変更があったか否かを判定する。または、図示はしていないが、検出白線の無限点のシフト有無、隣接カメラ間での同一線分の非連続性発生や進行軸に対する線図の2次微分値増大(実空間で折曲がっていないが、俯瞰変換合成時に折曲がりが発生)などから車体姿勢変更を判定してもよい。ステップS63において、車の車体姿勢変更があったと判定された場合、処理は、ステップS64に進む。
なお、例えば、車の加速度が所定以下か否か(車速が安定しているか否か)が判定されて、較正処理が行われるようにしてもよい。車の加速度が所定以上の場合は、車両が加減速する際に車体が前のめりになったりする一時的な変動であり、その値で較正を実施してしまうのは好ましくなく、変動パラメータの較正は適用しないことが好ましい。
ステップS64において、画像処理IC62の較正値による歪み補正処理部95は、カメラの較正処理を行う。このカメラの較正処理については、図8を参照して後述する。この処理により、走行背景の無限点に基づいて、少なくともカメラ11−1および11−3の向きが較正され、向き較正された補正値を用いて各カメラの俯瞰画像が生成され、生成された俯瞰画像が用いられて、隣接カメラでの線分の連続性が確保され、線分の進行方向に対する一次微分の連続性が確認され、少なくともカメラ11−2およびカメラ11−4の較正が行われる。このようにすることで、カメラ11−1乃至11−4の較正が行われる。
ステップS62において、車が走行中ではないと判定された場合、ステップS63およびS64はスキップされ、処理は、ステップS65に進む。ステップS63において、車の車体姿勢変更がないと判定された場合、ステップS64はスキップされ、ステップS65に進む。ステップS65において、画像処理IC62の画像合成部96は、カメラの内部パラメータメモリ130に保存保管されている較正値を基にカメラ11−1乃至11−4の俯瞰画像を合成し、表示制御部63に出力する。
ステップS66において、表示制御部63は、合成された俯瞰画像を表示部41に表示する。
画像処理IC62は、ステップS67において、車両のイグニッションがオフされたか否かを判定する。ステップS67において、オフされていないと判定された場合、つまり、車両が走行状態を維持していると判定された場合、車両の積載ステータスの検出処理を適時実施し、ステップS61に戻り、それ以降の処理が繰り返される。
画像処理IC62は、ステップS67において、オフされたと判定された場合、カメラ較正システム21の車両周辺俯瞰表示処理は終了される。なお、空転を検出したら、このカメラ較正システム21の車両周辺俯瞰表示処理が終了されるようにしてもよい。
なお、図6においては、走行中に車体姿勢変更があった場合のみ較正処理を行う例を説明したが、ステップS63をスキップし、走行中であれば較正処理を行うようにしてもよい。また、較正処理は、荷物を載せ降ろしの後、または、ドアを閉めたあとに行われるようにしてもよいし、車両電源オンで行われるようにしてもよい。つまり、一度イグニッションをオン状態にし、荷物の積載や乗員の乗り降りが完了した後で、次に乗員や積載量変動が発生するまでの間は路面に対する車体のサスペンション沈み込みなどが大きく変動しないことから、ドアの開け閉めなどを判断材料に較正値の更新を行わないようにしてもよい。
[同期処理]
次に、図7のフローチャートを参照して、図6のステップS61のカメラ間の同期処理について説明する。なお、この処理は、カメラ11間のクロックのタイミングのズレがあまりないのであれば一定以上の位相ズレを検出するまでの非定期で行ってもよいし、または定期的に行われるようにしてもよいし、較正処理をより正確に行う為にその前の処理として行われるようにしてもよい。
カメラ11−1乃至カメラ11−4は、撮像を行い、それぞれ撮像した画像信号を、映像信号線で、画像信号処理装置31に送ってくる。ステップS111において、コマンド送信部91は、各カメラ11からの画像信号を受信し、受信した画像信号を、カメラ同期マスタ信号管理部92および差分管理部93に出力する。
ステップS112において、カメラ同期マスタ信号管理部92は、複数のカメラ11からマスタタイミングを決め、差分管理部93は、各カメラ11の同期信号を解析して、カメラ同期マスタ信号管理部92により決められたマスタタイミングに基づいて、各カメラ11へフレームのタイミング差分情報を算出する。
ステップS113において、差分管理部93は、マスタに対する差分閾値超えのカメラがあるか否かを判定する。ステップS113において、マスタに対する差分閾値超えのカメラがあると判定された場合、処理は、ステップS114に進む。
ステップS114において、差分管理部93は、差分閾値超えのカメラ11に、対する補正早遅延レジスタを設定する。ステップS115において、早遅延カメラ(差分閾値超えのカメラ)11に対するタイミング補正コマンドを発行する。コマンド送信部91は、タイミング補正コマンドを、カメラ11に向けて送信する。
これに対応して、カメラ11において、コマンド受信部82が送信コマンドを受信すると、制御部83は、そのタイミングに対して、一定の遅延で、イメージセンサ51の次フレームタイミングの早遅延処理をして、次のフレームでの同期ズレを規定値以下にする。
なお、他方で、マスタ信号管理部92が一定の基準同期信号を一斉に全てのカメラに統一ブロードキャストする駆動較正の場合、制御部83は、基準同期信号と自己のフレーム駆動との遅延を独自判別して、カメラ11は実判別を行い、一定の早遅延に応じてタイミングの調整を行い、クロック変動による同期信号のドリフトを相殺するタイミング較正処理を行う。図7の例においては、代表例として、1つのカメラ11にタイミング補正コマンドを送信する前者の場合について以下説明する。
ステップS116において、差分管理部93は、カメラ11間の同期行うための同期モードまたは前動作を終了するか否かを判定する。ステップS116において、カメラ11間の同期行うための同期モードまたは前動作を終了しないと判定された場合、処理は、ステップS111に戻り、それ以降の処理が繰り返される。
一方、ステップS113において、マスタに対する差分閾値超えのカメラ11がないと判定された場合、または、ステップS116において、カメラ11間の同期を行うための同期モードまたは前動作を終了し、カメラ間同期処理は終了される。
[較正値による歪み補正処理部の構成例]
図8は、図5の較正値による歪み補正処理部の構成例を示すブロック図である。
図8の例において、較正値による歪み補正処理部95は、ヨー角直線判定部111、パラメータ算出部112、パラメータ制御部113、およびパラメータ最適化部114を含むように構成される。
ヨー角直線判定部111には、制御マイクロコンピュータ65を介して、ヨーレートセンサやステアリングホイールの情報などから得られるヨー角が入力される。ヨー角直線判定部111は、ヨー角に基づいて、車の状態を検出する。具体的には、ヨー角直線判定部111は、ヨー角に基づいて、車が直線運転しているか否かを判定し、判定結果を、パラメータ算出部112の無限点のオフセット算出部129に供給する。
パラメータ算出部112は、カメラ毎に、カメラ11の画像から検出される情報から、回転較正のための較正パラメータを算出し、カメラ毎の無限点ズレを較正する。これにより、縦のピッチズレと、横のヨーズレが較正される。なお、較正の対象としては、前後カメラは必須であるが、左右カメラも行われることで、より正確さを求めることが可能である。左右カメラを較正の対象とする場合、左右カメラの視野角に平行併走線と無限点が含まれる場合は、両者の関係から較正パラメータを算出する。無限点が含まれなくとも、その平行併走線から(無限点は必ずしも画面撮像内に含まれる必要性はない)較正パラメータを推定してもよい。
パラメータ算出部112は、線分検出部121、線分曲線推定部122、ハフフィルタ123、無限点探索機124、平行線分判定部125、オプティカルフローフィルタ126、無限点統計演算器127、ヨー角推定部128、および無限点のオフセット算出部129を含むように構成されている。パラメータ算出部112は、また、カメラ毎の内部パラメータメモリ130、無限点算出部131、カメラ毎の外部パラメータメモリ132、カメラ毎の更新外部パラメータメモリ133、カメラ外部パラメータのオフセット値仮記録メモリ134を含むように構成されている。さらに、パラメータ算出部112は、俯瞰画像変換部135、検出線分のラベリングと曲率判定部136、路面上線分判定部137、画角ズレ換算部138を含むように構成されている。
線分検出部121乃至カメラ外部パラメータのオフセット値仮記録メモリ134は、前に配置されたカメラ11−1乃至11−4(特に、前後に配置されたカメラ11)の画像から、進行方向無限点の統計安定点を算出する。
具体的には、線分検出部121は、カメラ11の画像から線分を検出し、検出した線分の情報を線分曲線推定部122に供給する。線分曲線推定部122は、線分の情報から、直線以外の曲線を推定し、推定した線分曲線の情報を、無限点のオフセット算出部129に出力する。なお、線分検出は、狭義の意味で実際に道路境界を定める道路標識線としての線分を主とするが、広義の意味で、道路の車線を定める境界線の意味で用いられる。その意味で、実際には、路肩縁石(ショルダ)で構成される線分、キャッツアイと呼ばれるチャッターバーや北米加州であれば(Botts' dots)や(Turtle)と呼ばれる非実線の点状の車線境界域定義線を定めた境界を結ぶスプライン線も線分に含まれる。
ハフフィルタ(Hough Filter)123は、画像に、Hough変換を行うことで、画像から直線(センターラインなど)を検出し、検出した直線を無限点探索機124に供給する。無限点探索機124は、ハフフィルタ123からの直線から、無限点を探索する。無限点探索機124は、探索された無限点を、平行線分判定部125に出力する。
平行線分判定部125は、検出された直線が平行線分であるか否かを判定し、その判定結果と、直線の情報、無限点の情報を、無限点のオフセット算出部129に供給する。
オプティカルフローフィルタ(Optical Flow Filter)126は、被写体上の 特定多数の点が各々時系列画像フレーム間で移動する速度を検出し、検出した速度の情報を、無限点統計演算器127に供給する。無限点統計演算器127は、その速度ベクトルの画面内集合で直線運動の際に速度が0となる無限点統計演算を行い、無限点を検出する。例えば、搭載カメラから見た水平線の上方に検出される特徴点は、特徴点の接近に従い、上方へ流れ、また水平線の下なら特徴点の接近に従い下方へ流れ、車両搭載カメラ進行方向左側は、検出された特徴点が車両進行に従い左へ流れ、その逆に右はその右へと流れる。この流れをオプティカルフローと呼ぶ。つまり、無限点とは、これらオプティカルフローのベクトル画面内分布でオプティカルフローのベクトルが0となる座標位置であり、無限点統計演算器127は、検出オプティカルフローの統計演算により検出した無限点の情報を、無限点のオフセット算出部129に供給する。
無限点のオフセット算出部129は、以下の線分曲線推定部122により推定された無限点、無限点探索機124により探索された無限点、無限点統計演算器127により演算された無限点のうちの1つまたは何れの複数の方法から求められた無限点と、無限点算出部131により算出された無限点を用いて、カメラ(特に、前後カメラ)11毎に、検出無限点と保存デフォルトパラメータによる無限点のオフセットズレ量(更新パラメータ)の算出を行う。また、無限点のオフセット算出部129は、進行方向における実無限点とカメラ11の想定無限点との間で較正を行う。進行方向を光軸の中心と中心射影投影との投影画像のズレ量は、その画角ズレ量をθ、カメラの焦点距離をfとしてf*tan(θ)で算出できる。なお、その詳細については、図13および図14を参照して後述される。
無限点のオフセット算出部129は、較正を行った更新パラメータを、俯瞰画像変換部135、および検出線分のラベリングと曲率判定部136に供給するとともに、カメラ外部パラメータのオフセット値仮記録メモリ134に仮記録する。ここで、オフセット値を一時仮記録に留めて直接外部パラメータ132に恒久的書換えを行わないのは、検出状態でのオフセット値は車体の一時的積載特有値の可能性があり、定常状態での較正値ではない可能性が大きく、通常、書換えは適さないためである。
なお、このとき、検出線に対して車両が併走走行をする場合、かつ、同一車線延長成分を後方カメラ11−3でも検出している場合、該当線分は連続しているため、走行中に後続カメラで追従検出し、その車両と検出線までの幅(ここでは車線幅と呼ぶ)は、前後のカメラ11で一致するので、その拘束条件を元にカメラ11の外部パラメータ較正を行う。また、無限点のオフセット算出部129は、同時刻で、前後カメラで同時車幅検出できない状況においては、前方カメラ11−1で検出された車線幅通過後の予測通過時刻に検出の車線幅と一致させる補正を行う。すなわち、前方カメラ11−1で検出された車線幅を、後方カメラ11−3のカメラ視野が通過後の予測通過時刻に検出した車線幅と一致させる補正が行われる。
カメラ毎の内部パラメータメモリ130は、カメラ11毎の内部パラメータ(例えば、カメラの焦点距離、歪量、光学系の光軸ズレなど)のデフォルト値を記憶している。
無限点算出部131は、カメラ毎の内部パラメータメモリ130から、カメラ11毎の内部パラメータのデフォルト値を読み出し、カメラ11毎の外部パラメータのデフォルト値を読み出し、カメラ11毎の外部パラメータの更新値を読み出し、読み出したパラメータを用いて、パラメータに基づいて、無限点の算出を行う。無限点算出部131は、算出した無限点の情報を、無限点のオフセット算出部129に供給する。
カメラ毎の外部パラメータメモリ132は、カメラ11毎の外部パラメータ(例えば、路面からの設置高さ、路面に対する光軸の向き/ピッチ、ヨー角、路面に対する回転/ローテーションなど)のデフォルト値を記憶している。カメラ毎の更新外部パラメータメモリ133は、パラメータ制御部113の制御のもと、カメラ11毎の外部パラメータの更新値を記憶している。
カメラ外部パラメータのオフセット値仮記録メモリ134は、向きの較正が行われた更新パラメータを、一時的なデータとして仮記録する。一時的な状態であるので、置き換え記録ではなく仮記録をする。これにより、前の状態のパラメータに戻すことも可能となる。前の状態のパラメータに戻すタイミングとしては、例えばドアの開閉が行われた際が望ましい。これは、ドアの開閉により、乗員の乗り降りや積載物の載せ降ろしが行われる可能性があるためである。ドアの開閉を検出するセンサが検出したドア開閉動作に応じて、オフセット値仮記録メモリ134は、一時的に記録された較正パラメータがリセットされ、新たな較正パラメータが記録される。なお、較正パラメータのリセットはドアの開閉に時に限らず、例えば、着座センサにより乗員の着座位置が変わった際などに実行されるようにしてもよい。
俯瞰画像変換部135は、向きの較正が行われた画像を変換し、俯瞰画像を生成する。俯瞰画像変換部135は、生成した俯瞰画像を、パラメータ最適化部114に出力する。
線分ラベリングと曲率判定部136は、舵角(ヨー角)情報も併用して、路上の検出マーカの直線線分、区間判別などを行い、前に配置されたカメラ11−1で得られた画像情報より、線分へ較正用マーカとして適正有無のラベリングを行う。また、線分ラベリングと曲率判定部136は、直線判定マーカ線分が、前後に配置されたカメラ11で連続性があるか否かを判定する。このとき、少なくとも2つ以上のカメラ11の検出線分の画像情報が比較利用される。
なお、以降のことは、図9乃至図11を参照に後述されるが、このとき、(前後カメラ11でとらえた)線分の車両進行に伴う時系列変化から、走行車両の進行方向に対して平行な線分は車両が進行してもその線分境界部は相対的に常に一定であるために変化しない。一方、線分に関して検出線分のうち、その法線方向成分を有するシフトが発生する線分は、車両進行と平行でないことを示すため、較正利用から除外される。また、線分の時系列変化と車両のヨー角情報が併用されて、走行車両の進行方向に変化がないとき、すなわち、線分に関して検出線分のうち、その法線方向成分を有するシフトが発生する線分は、較正利用から除外される。さらに、走行車両の進行方向に変化がないとき、検出された線分の車両進行に伴う時系列変化から、検出された複数線分の線分交点が時系列変動した際、前記線分が較正利用から除外される。すなわち、較正利用から除外される線分の収束点は、偽消失点となるために、較正利用から除外される。なお、走行車両の進行方向に変化があるか否かは、上述したヨー角情報だけでなく、操舵角センサからの操舵角情報やタイヤ切れ角センサからのタイヤ切れ角情報を用いて判定するようにしてもよい。
線分ラベリングと曲率判定部136は、直線判定マーカ線分が、連続性があると判定した場合、ラベリング後の較正パラメータを、路面上線分判別部137および画角ズレ換算部138に出力する。路面上線分判別部137は、直線判定マーカ線分が路面上にあるものであるか否かを判別する。その際、高さ判別も行い、高さ方向に延びる線分、例えば、縁石などが除外される。その理由は、俯瞰変化の際に斜め横から撮像した画像で路面の実際の高さが異なるからである。路面上線分判別部137は、判別結果をパラメータ制御部113に供給する。
画角ズレ換算部138は、位置ズレ(オフセット)を画角ズレに換算して、換算した画角ズレの値を、パラメータ制御部113に供給する。画角ズレ換算値の情報で保存することで、歪みのある部分であっても誤差が生じることを抑制することができる。なお、画角ズレ換算部138により換算されたものが、カメラ外部パラメータのオフセット値仮記録メモリ134に仮記録されるようにしてもよい。画角ズレは、進行方向無限遠点を光軸として中心射影された像であれば、f*tan(θ)で得られるが、歪のある魚眼画像の場合、固有特有のルックアップテーブルから参照換算するなどしてもよい。
パラメータ制御部113は、例えば、CPUなどで構成され、パラメータ算出部112により算出された較正パラメータおよびパラメータ最適化部114により最適化されたパラメータの使用や各メモリへの記録を制御する。
パラメータ最適化部114は、例えば、CPUなどで構成され、パラメータ算出部112からの各カメラ11の検出路面分の画像(俯瞰画像であってもよいし、なくてもよい)に対して、パラメータ制御部113からの較正パラメータを用いて、隣接カメラ11間で、隣接カメラ11での線分の連続性の確保と線分の進行方向を変数軸とした一次微分値の連続性の確保を行うために、各パラメータを最適化する。この最適化により、左右カメラ11の較正が行われ、回転ズレの較正が行われる。
すなわち、パラメータ最適化部114は、特定取り込み路面上の任意形状認識パターンの車両進行方向が、隣接カメラ11の同期画像で一致するように、左右カメラ11の位置補正を行う。また、パラメータ最適化部114は、検出線分の進行方向を軸としてその一次微分が、隣接画像間で一致するようにパラメータを補正する。線分が隣接画像間で折曲がらず、連続的な線分となるようにする。または、パラメータ最適化部114は、検出線分の進行方向を軸として、進行に伴い検出される同一線分の実空間投影画像(俯瞰変換画像のうちの線分)の一次微分が、異なるカメラ画像で一致するようにパラメータを補正する。
なお、パラメータ最適化部114においては、カメラ11を含む回転パラメータは、3つ以上の装置で算出され、そのうち2つ以上の変動量が最小である場合で、特定カメラのみの変動が大きい場合は、その特定カメラが衝突などの何等かの外的要因により取り付けが変わり、外部パラメータの影響を受けている可能性が大きいと判定される。そのパラメータに合わせて他のカメラパラメータを変更することは適切ではなく、その場合は、特定カメラのパラメータ較正値の較正をし、その他変動量の微小なカメラは事前値を基本保持する。
また、パラメータ算出部112において、図8に示される点線で示される各部は、互いに補完する機能であり、必ずしもすべての実施を要する必要はなく、また、機能を省略されてもよい。
ここで、検出道路白線と平行して車両が走行し、その一部で走行に非平行な線分の中心射影の取り込み画像の時系列挙動は、該当線分のみが、同線分と直角方向へ平行移動してとらえることができる。そこで、この特性を利用し、時系列画像で検出線分がこの直角方向への移動が認められた場合は、その線分と他線分との交点を進行方向の無限点とはみなさない。
このことについて、図9および図10を参照して説明する。
図9は、車両の移動前におけるカメラ(例えば、カメラ11−1とする)で捉えた検出線分とカメラ画像上の検出線分とを示す図である。図9のAは、車両を上から見たときの検出線分を示す図である。図9のBは、車両を横から見たときの検出線分と、カメラ画像における検出線分を示す図である。
なお、図9の例において、車両中央位置からの左側の検出道路白線までの距離lwとし、車両中央からの右側の検出道路白線までの距離rwとする。また、カメラ画像201においてカメラ仮想進行方向の無限点設定点(仮無限点)P(ずれていない場合)の位置から、左側の検出道路白線までの距離LWとし、右側の検出道路白線までの距離RWとすると、lw:rw = LW:RWである。図10は、車両の移動後におけるカメラ(例えば、カメラ11−1)で捉えた検出線分とカメラ画像上の検出線分とを示す図である。
図9のAおよび図9のBに示されるように、一点鎖線で示す(車体1を有する)車両の前方方向の直進方向に、カメラ11−1で捉えた車両進行方向と平行でない線分m2-m3は、車両が進行方向に進むと、例えば、図10に示す位置まで進む際に、線分m1-m2や線分m3-m4のように、同一線分上には保たれずに、カメラ画像201上の該当線分が元線分n2-n3からシフトする。ここで、元線分n2-n3は、図9のAおよび図9のBに示される移動前に、線分m2-m3がカメラ画像201上に捉えられた位置である。
カメラ画像201から得られる直線線分が交叉する収束点Qとなるが、移動に伴う時系列画像で線分のシフトが発生するため、車両進行方向に対する非平行線が含まれることとなり、収束点Qは、偽消失点となる。
つまり、自車両の進行方向平行線分と平行でない線分は、このような線分がその法線方向成分を有するシフトが発生するか否かで判別を行うことができる。
また、車両は、例えば、インフラ環境から得られた線分情報で車両進行平行線の収束点が得られる状況にあって、前方カメラ(カメラ11−1)の向きが車両進行方向に対して角度Δθだけ横にずれている場合、その際の撮像画像は、図11に示されるように、角度のズレ量をカメラの焦点距離fによりf*tan(θ)として知ることができる。
一点鎖線で示す過去のカメラ較正値に基づく車両進行方向の仮無限点Pと現走行状態での検出車両の平行線分の収束点Qの不一致、つまり、そのズレ量がf*tan(θ)となることから、傾き角Δθを得ることができる。これに対して、図10を参照して上述したが、図12に示されるように、走行非平行成分の収束点Qは、偽消失点であるため、この点をΔθの算出に用いてはならない。したがって、車両においては、図8を参照して上述した線分の除外処理(使用禁止処理)を行う必要がある。
次に、図13および図14を参照して、車両が道路に対して角度θ傾いて走行を行う場合について説明する。
図13に示されるように、車両が道路などの周辺認識環境における平行線分(周辺平行線分と称する)に対して一定の角度θで進むと、該当車両に搭載しているカメラ(例えば、前方カメラ)の進行方向無限点Pは、その前方カメラの焦点距離に応じて周辺平行線分の交点となる平行線分収束点Qから、f*tan(θ)だけ横ズレする。
車両が周辺検出される複数の平行線とのなす角θだけ傾いて走行する場合、該当車両の搭載カメラの無限点と該当検出複数線分の収束点(交点)Qと角度θに相当する画面上とf*tan(θ)だけずれるはずである。
そこで、図14に示されるように、車両搭載カメラの車両隣接時系列画像から車両進行方向に対する横ズレと前進の距離情報から角度θだけずれた場合、その角度θが、道路などのインフラ平行線に対しての角度θであるとき、そのズレ量は、撮像画像としてf*tan(θ+Δθ)だけずれて検出されるため、進んだ距離の伴う車両の横ズレで得られるθの値からΔθを得ることもできる。なお、前進の距離情報として、進んだ距離v*Δtは、車速や車輪回転情報から取得でき、隣接カメラ画像から、平行線の進行方向に対する車両の横シフト量が検出される。そのタンジェントから、角度θを得ることができる。
次に、図15乃至図17を参照して、図1を参照して上述した車体1の前のめりについて詳細を説明する。
図15の例においては、俯瞰画像211と、車体1の前方カメラ(カメラ11−1)の画角を表す長方錐221、前のめり状態の撮像路面222、工場出荷時の路面想定223などが示されている。図15に示されるように、サラウンドビュの俯瞰画像211は、広角のカメラ11−1から路面上の、例えば、長方形領域となる領域の視野画像を変換して得られる。
車体1が荷物のバランスなどで前のめりになると、カメラ11−1の撮像路面222が、工場出荷時の路面想定223よりも近づくため、カメラ11−1が捉える同じ撮像領域は、同じ画角画面内で対象路面像が外に広がる(見かけ、拡大される)。なお、カメラ11−1で説明しているが、カメラは、前方のカメラ11−1に限らない。
実際には、無限遠点も含む広角画像のカメラを用いるが、図16に示されるように、通常の投影面224で投影し、工場出荷時の路面想定223に映し出される俯瞰画像211Aは、例えば、路面の長方形を含む中心射影像とした場合、車両左右の平行線は、台形左右線として捉えられ、無限遠点を画面内に含む場合は、その交点がいわゆる無限点となっている。
これは、平行移動で近くなるのであれば、拡大率のみが変わることになるが、前のめりに車体1の前方が沈むと、前のめりの撮像路面222は、通常工場出荷時の路面想定223よりもカメラ11−1に接近し、前方がより多くの接近する結果、同じ画角を捉えている画面上では、該当の派に、その画角を決めている長方錐221の外側に広がって見えるようになる。つまり、前のめりの際のカメラ11−1の俯瞰変換画像221Bは、通常の投影面224での俯瞰変換画像221Aよりも、前方がより広がる。
さらに、図17は、右側に沈んだ状態の車体1が正面向きに示されている。図17に示されるように、車体1が(正面から見て)右側に沈むと、車体1が時計回りに回転するために画像として検出される線分は、その回転量(すなわち、ロール角θ)に応じて反時計回りに回転することがわかる。
[較正処理例]
次に、図18のフローチャートを参照して、図6のステップS64の較正処理について説明する。なお、ステップS131乃至S136は、カメラ11毎(特に前後カメラ)に行われる較正処理であり、ステップS137以降は、ステップS131乃至S136で求められた結果を用いて、隣接カメラ間で行われる左右カメラ11の較正処理である。
ステップS131において、線分検出部121乃至カメラ外部パラメータのオフセット値仮記録メモリ134は、前に配置されたカメラ11−1乃至11−4(特に、前後に配置されたカメラ11)の画像から、進行方向無限点の統計安定点を算出する。
すなわち、さまざまな方法で求められた無限点の情報(線分曲線推定部122からの無限点、無限点探索機124からの無限点、無限点統計演算器127からの無限点、無限点算出部131からの無限点の情報)が入力される。無限点のオフセット算出部129は、これらの無限点を用いて、検出無限点と保存デフォルトパラメータによる無限点のオフセット(更新パラメータ)の算出を行う。
なお、ここで、算出された無限点のオフセットが、パラメータのデフォルト値または累計直近走行値と差分がない場合、次のステップS132はスキップされ、車両前後配置のカメラピッチおよびヨー角の較正変更は行われない。
ステップS132において、無限点のオフセット算出部129は、進行方向の無限画角と光軸画角の較正を行う。無限点のオフセット算出部129は、較正を行った更新パラメータを、俯瞰画像変換部135、および検出線分のラベリングと曲率判定部136に供給するとともに、カメラ外部パラメータのオフセット値仮記録メモリ134に仮記録する。
なお、ここで較正される縦のピッチズレと、横のヨーズレ、すなわち、カメラ光軸または仮想光軸と無限点は、画角ズレ換算値の情報または同等換算が可能なパラメータとして較正される。
ステップS133において、俯瞰画像変換部135は、回転の較正が行われた画像を変換し、俯瞰画像を生成する。俯瞰画像変換部135は、生成した俯瞰画像を、パラメータ最適化部114に出力する。なお、この後のステップS134以降の処理は、俯瞰画像に変換しなくても実施可能な処理であるので、俯瞰画像の生成は、ステップS139の後に行われるようにしてもよい。
ステップS134において、線分ラベリングと曲率判定部136は、舵角(ヨー角)情報も併用して、路上の検出マーカの直線線分、区間判別などを行い、前に配置されたカメラ11−1で得られた画像情報より、線分へ較正用マーカとして適正有無のラベリングを行う。ここでラベリングを行う目的は、走行に伴い、前方のカメラ11−1で直線区間と判別できた線分に対して、後方のカメラ11−3の視野角に入り追従検出をした際に、事前に、前方のカメラ11−1で直線部と判別がついていることで、該当ラベリングされたときの線分との同一性確認、つまり、その該当線分とのズレ差分検出のマッチングをとるためである。
ステップS135において、線分ラベリングと曲率判定部136は、直線判定マーカ線分が、前後に配置されたカメラでラベリング線分を参照して、連続性があるか否かを判定する。ステップS135において、直線判定マーカ線分が、前後に配置されたカメラで連続性がないと判定された場合、処理は、ステップS131に戻り、それ以降の処理が繰り返される。
ステップS135において、直線判定マーカ線分が、前後に配置されたカメラ11で連続性があると判定された場合、処理は、ステップS136に進む。ステップS136において、路面上線分判別部137は、直線判定マーカ線分が路面上にあるものであるか否かを判定する。なお、このとき、高さ判別も行い、高さ線分、例えば、縁石などは俯瞰変換の際の投影面が縁石の高さだけ横にシフトしてずれてしまうため処理から除外される。
ステップS136において、直線判定マーカ線分が路面上にあるものではないと判定された場合、処理は、ステップS131に戻り、検出されるほかの線全部に関してもそれ以降の処理が繰り返される。なお、遠方の線分や路面外の道路平行周辺建築物などの不要な不確定線分は不要なので、該当処理は有限近傍台形範囲などの路面想定範囲に限ってもよい。さらに、その際に、車両最接近線分が最も精度の高い情報を含むため、車体からの距離に応じて線分の信頼度の重み付けを行ってもよい。
パラメータ制御部113は、カメラ外部パラメータのオフセット値メモリ134に仮記録されたパラメータと画角ズレ換算部138により換算された画角ズレの情報を、パラメータ最適化部114に供給する。ステップS137において、パラメータ最適化部114は、供給されたパラメータに基づいて、隣接カメラ11間において、位置ズレがある場合、車体高さ、車体ローテーションを補正して連続性を確保する。
ステップS138において、パラメータ最適化部114は、隣接カメラ11間の重なり領域(図1のE)で、上述した検出マーカ線分の進行方向に対する1次微分(傾き)の連続性を確認する。
ステップS139において、パラメータ最適化部114は、これら拘束条件(線分の信頼度)を元にすべての周辺配置カメラ間で滑らかに連続接続された線分となるようにパラメータ算出を行うが、必ずしも完全合致はできないため、隣接カメラ11間でのそのズレの差分が最小化されるように、残差差分の二乗和最小化することでパラメータを最終的に決定する。この決定されたパラメータに基づいて、パラメータ制御部113は、カメラ毎の更新外部パラメータメモリ133を更新する。そして、カメラ毎の更新外部パラメータメモリ133は、次の処理に用いられる。
ただし、特定カメラの、例えば無限較正値が履歴情報と大きく異なっている場合は、カメラ自体の外的要因による設置向きの傾きなど通常の車体姿勢ズレを超えた範囲に及ぶこともあるため、その場合は異常として処理を行い、残りの整合がとれるカメラ間の較正に留めたパラメータ調整とする。
以上のように、本技術においては、前後のカメラ11−1および11−3により、直進道路上で無限点(消失点)と車線の位置関係により傾きを検出して位置ズレの補正が行われる。
また、本技術においては、左右のカメラ11−2および11−4により、俯瞰画像において、前後のカメラ11−1および11−3と重なる画像部分のマッチングにより回転ズレの補正が行われる。
以上により、本技術によれば、走行中にカメラの位置ずれを検出することができる。
[本技術の効果例]
図19のAの例においては、4つのカメラ11−1乃至11−4の合成画像で、各カメラ11の較正がずれた場合の画像が疑似的に示されている。
図19のBの例においては、本技術により、車両前後に配置されたカメラ11−1および11−3で撮像される線分の延設方向を進行方向に合わせた上で、車両左右に配置されたカメラ11−2および11−4の平行較正を行った場合の画像が示されている。
この例においては、座標合致と進行方向一次微分値の連続性を確保する手順の4隅(図1のE)での整合がとられること、または、最小2乗法による誤差最小化によりパラメータが確定されることで、車両周辺画像をすべて滑らかに繋がるようにする。また、この例においては、一致点検出は、近傍的テキスチュアマッチングまたはハリスコーナフィルタなど特徴検出をして、一致点検出をすることで精度よい画像の境界合成を行ってもよい。
なお、図19のAに示されるように俯瞰変換画像が、前に狭くなっているのは、地面から遠ざかっている場合である。一方、俯瞰変換画像が、広がるのは、カメラが向きを変えずに下がった場合であり、進行方向側のみが広がるのは、視野角の手前距離を一定にして前方側が回転して下がる場合である。
<3.第3の実施の形態(応用例)>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車などのいずれかの種類の車両に搭載される装置として実現されてもよい。
[車両制御システムの構成例]
図20は、本開示に係る技術が適用され得る車両制御システム2000の概略的な構成の一例を示すブロック図である。車両制御システム2000は、通信ネットワーク2010を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム2000は、駆動系制御ユニット2100、ボディ系制御ユニット2200、バッテリ制御ユニット2300、車外情報検出装置2400、車内情報検出装置2500、及び統合制御ユニット2600を備える。これらの複数の制御ユニットを接続する通信ネットワーク2010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク2010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図20では、統合制御ユニット2600の機能構成として、マイクロコンピュータ2610、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660、音声画像出力部2670、車載ネットワークI/F2680及び記憶部2690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット2100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット2100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット2100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット2100には、車両状態検出部2110が接続される。車両状態検出部2110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット2100は、車両状態検出部2110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット2200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット2200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット2200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット2200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット2300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池2310を制御する。例えば、バッテリ制御ユニット2300には、二次電池2310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット2300は、これらの信号を用いて演算処理を行い、二次電池2310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出装置2400は、車両制御システム2000を搭載した車両の外部の情報を検出する。例えば、車外情報検出装置2400には、撮像部2410及び車外情報検出部2420のうちの少なくとも一方が接続される。撮像部2410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部2420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム2000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部2410及び車外情報検出部2420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
[撮像部および車外情報検出部の設置位置の例]
ここで、図21は、撮像部2410及び車外情報検出部2420の設置位置の例を示す。撮像部2910,2912,2914,2916,2918は、例えば、車両2900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として車両2900の前方の画像を取得する。サイドミラーに備えられる撮像部2912,2914は、主として車両2900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部2916は、主として車両2900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部2918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図21には、それぞれの撮像部2910,2912,2914,2916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部2912,2914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部2916の撮像範囲を示す。例えば、撮像部2910,2912,2914,2916で撮像された画像データが重ね合わせられることにより、車両2900を上方から見た俯瞰画像が得られる。
車両2900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2922,2924,2926,2928,2930は、例えば超音波センサ又はレーダ装置であってよい。車両2900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2926,2930は、例えばLIDAR装置であってよい。これらの車外情報検出部2920乃至2930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図20に戻って説明を続ける。車外情報検出装置2400は、撮像部2410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出装置2400は、接続されている車外情報検出部2420から検出情報を受信する。車外情報検出部2420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出装置2400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出装置2400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出装置2400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出装置2400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出装置2400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出装置2400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部2410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出装置2400は、異なる撮像部2410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出装置2500は、車内の情報を検出する。車内情報検出装置2500には、例えば、運転者の状態を検出する運転者状態検出部2510が接続される。運転者状態検出部2510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出装置2500は、運転者状態検出部2510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出装置2500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット2600は、各種プログラムにしたがって車両制御システム2000内の動作全般を制御する。統合制御ユニット2600には、入力部2800が接続されている。入力部2800は、例えば、タッチパネル、ボタン、マイクロホン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。入力部2800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム2000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部2800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。さらに、入力部2800は、例えば、上記の入力部2800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット2600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部2800を操作することにより、車両制御システム2000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部2690は、マイクロコンピュータにより実行される各種プログラムを記憶するRAM(Random Access Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するROM(Read Only Memory)を含んでいてもよい。また、記憶部2690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F2620は、外部環境2750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F2620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE‐A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi‐Fi(登録商標)ともいう)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F2620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F2620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F2630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F2630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、又はDSRC(Dedicated Short Range Communications)といった標準プロトコルを実装してよい。専用通信I/F2630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部2640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部2640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部2650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部2650の機能は、上述した専用通信I/F2630に含まれてもよい。
車内機器I/F2660は、マイクロコンピュータ2610と車内に存在する様々な機器との間の接続を仲介する通信インタフェースである。車内機器I/F2660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F2660は、図示しない接続端子(及び、必要であればケーブル)を介して有線接続を確立してもよい。車内機器I/F2660は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F2680は、マイクロコンピュータ2610と通信ネットワーク2010との間の通信を仲介するインタフェースである。車載ネットワークI/F2680は、通信ネットワーク2010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット2600のマイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム2000を制御する。例えば、マイクロコンピュータ2610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット2100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ2610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ2610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部2670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ2710、表示部2720及びインストルメントパネル2730が例示されている。表示部2720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部2720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ2610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図20に示した例において、通信ネットワーク2010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム2000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク2010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク2010を介して相互に検出情報を送受信してもよい。
以上説明した車両制御システム2000において、図4を用いて説明した本実施形態に係る画像信号処理装置31は、図20に示した応用例の統合制御ユニット2600に適用することができる。例えば、画像信号処理装置31の画像処理IC62、メモリ64、制御マイクロコンピュータ65は、統合制御ユニット2600のマイクロコンピュータ2610、記憶部2690、車載ネットワークI/F2680に相当する。例えば、統合制御ユニット2600が、複数のカメラを同期させるようにしたので、位置ズレを検出することができる。これにより、統合制御ユニット2600は、前後のカメラにより、直進道路上で無限点(消失点)と車線の位置関係により傾きを検出して位置ズレの補正を行い、左右のカメラ11−2および11−4により、俯瞰画像において、前後のカメラ11−1および11−3と重なる画像部分のマッチングにより回転ズレの補正が行うことにより、走行中に向きズレを較正することができる。
また、図4を用いて説明した画像信号処理装置31の少なくとも一部の構成要素は、図11に示した統合制御ユニット2600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図4を用いて説明した画像信号処理装置31が、図20に示した車両制御システム2000の複数の制御ユニットによって実現されてもよい。
なお、図4を用いて説明した画像信号処理装置31の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<4.第4の実施の形態(パーソナルコンピュータ)>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
[パーソナルコンピュータの構成例]
図22は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータのハードウエアの構成例を示すブロック図である。
パーソナルコンピュータ3000において、CPU(Central Processing Unit)3001、ROM(Read Only Memory)3002、RAM(Random Access Memory)3003は、バス3004により相互に接続されている。
バス3004には、さらに、入出力インタフェース3005が接続されている。入出力インタフェース3005には、入力部3006、出力部3007、記憶部3008、通信部3009、及びドライブ3010が接続されている。
入力部3006は、キーボード、マウス、マイクロホンなどよりなる。出力部3007は、ディスプレイ、スピーカなどよりなる。記憶部3008は、ハードディスクや不揮発性のメモリなどよりなる。通信部3009は、ネットワークインタフェースなどよりなる。ドライブ3010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア3011を駆動する。
以上のように構成されるパーソナルコンピュータ3000では、CPU3001が、例えば、記憶部3008に記憶されているプログラムを、入出力インタフェース3005及びバス3004を介して、RAM3003にロードして実行する。これにより、上述した一連の処理が行われる。
コンピュータ(CPU3001)が実行するプログラムは、リムーバブルメディア3011に記録して提供することができる。リムーバブルメディア3011は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディア等である。また、あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータにおいて、プログラムは、リムーバブルメディア3011をドライブ3010に装着することにより、入出力インタフェース3005を介して、記憶部3008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部3009で受信し、記憶部3008にインストールすることができる。その他、プログラムは、ROM3002や記憶部3008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
さらに、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
なお、本開示における実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有するのであれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例また修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) 車の直進状態を検出する車状態検出部と、
第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分を検出する線分検出部と、
走行背景における無限点を検出する無限点検出部と、
前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、
前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、
前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と
を備える画像処理装置。
(2) 前記無限点検出部により検出された無限点と、前記線分検出部により検出された線分の収束点とが一致しない場合、前記第1のカメラの補正量である画角の不整合量をカメラ光軸と車両進行方向のズレ角として保存する保存部を
さらに備える前記(1)に記載の画像処理装置。
(3) 前記第1の補正量算出部は、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された線分のうち、その法線方向成分を有するシフトが発生しない線分を用いて、前記第1のカメラの補正量を算出し、その法線方向成分を有するシフトが発生する線分を用いての前記第1のカメラの補正量の算出処理を禁止する
前記(1)または(2)に記載の画像処理装置。
(4) 車両の進行方向を検出する進行方向検出部を
さらに備え、
前記第1の補正量算出部は、前記進行方向検出により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された線分のうち、その法線方向成分を有するシフトが発生しない線分を用いて、前記第1のカメラの補正量を算出し、その法線方向成分を有するシフトが発生する線分を用いての前記第1のカメラの補正量の算出処理を禁止する
前記(1)または(2)に記載の画像処理装置。
(5) 車両の進行方向を検出する進行方向検出部を
さらに備え、
前記第1の補正量算出部は、前記進行方向検出により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された複数線分の線分交点が時系列変動した際、前記線分を補正処理から除外する
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(6) 前記進行方向検出部は、車両のヨー角を検出することで、車両の進行方向を検出する
前記(4)または(5)に記載の画像処理装置。
(7) 前記第2の補正量算出部は、前記線分検出部により検出された線分の進行方向を軸として、進行に伴い検出される同一線分の俯瞰変換画像のうちの線分の一次微分が、異なるカメラ画像で一致するように前記第2のカメラの補正量を算出する
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記第2の補正量算出部は、前記線分検出部により検出された線分の進行方向を軸として、その一次微分が、俯瞰画像または魚眼投影からの歪みのない画像にした投影で一致するように前記第2のカメラの補正量を算出する
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記第2の補正量算出部は、撮像された路面上の認識パターンに基づいて、各カメラが特定する車両進行方向位置が、前記第1のカメラにより撮像された画像と前記第3のカメラにより撮像された画像で一致するように、前記第3のカメラの位置補正の算出を行う
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10) 前記第1の補正量算出部は、前記無限点検出部により検出された無限点と前記線分検出部により検出された線分の傾きに応じて、第1のカメラの補正量と、前記第2のカメラの補正量を算出し、
前記第2の補正量算出部は、前記第1および第2のカメラの補正量と、前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量と、前記第3のカメラと対向する位置に配置される第4のカメラの補正量を算出する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11) 前記第1の補正処理部は、前記第1および第2のカメラで車線幅を検出する場合、車線幅を一致させる補正を行う
前記(10)に記載の画像処理装置。
(12) 前記第1の補正処理部は、同時刻で前記第1および第2のカメラで車線幅を検出できない場合、前記第1のカメラで検出された車線幅を前記第2のカメラのカメラ視野が通過後の予測通過時刻に検出した車幅と一致させる補正を行う
前記(10)に記載の画像処理装置。
(13) 前記第1、第2、および第3のカメラのタイミングの差分を検出する差分検出部と、
前記差分検出部により検出された差分に基づいて、信号線を介して、各カメラに同期コマンドを送信するコマンド送信部と
をさらに備える
前記(1)乃至(12)のいずれかに記載の画像処理装置。
(14) 前記同期コマンドは、基準カメラの同期タイミングを参照に遅延量を算出して、算出された遅延量に比例した時間情報を有し、
前記コマンド送信部は、前記同期コマンドを送信する
前記(13)に記載の画像処理装置。
(15) 前記第1、第2、および第3のカメラは、視野角で150°以上であり、かつ、対称光学系の後軸が水平より30°以上に下方向にあり、装着車両の直進走行進行方向の方角が、各カメラの光軸周辺において30°以上の像高に位置している
前記(1)乃至(14)のいずれかに記載の画像処理装置。
(16) 前記車状態検出部は、GNSS(全地球航法衛星システム)、GPS(Global Positioning System)データ、ヨーレートセンサ、ステアリング操舵角、検出線分の交点変動のいずれか1つ、またはその組み合わせのデータ情報から前記車の直進状態を判定する
前記(1)乃至(15)のいずれかに記載の画像処理装置。
(17) 画像処理装置が、
車の直進状態を検出し、
第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分を検出し、
走行背景における無限点を検出し、
検出された無限点に応じて、第1のカメラの補正量を算出し、
算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出し、
前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する
画像処理方法。
(18) 車の直進状態を検出する車状態検出部と、
第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分を検出する線分検出部と、
走行背景における無限点を検出する無限点検出部と、
前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、
前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、
前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と
して、コンピュータを機能させるプログラム。
(19) 車の車体に配置され、
画像を撮像する撮像部と、
前記撮像部により撮像された画像を送信する送信部と
を備える第1のカメラ、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラ、および前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラと、
前記車の直進状態を検出する車状態検出部と、
前記第1のカメラ、前記第2のカメラ、および前記第3のカメラにより撮像されたそれぞれの画像から線分を検出する線分検出部と、
走行背景における無限点を検出する無限点検出部と、
前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、
前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、
前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と
を備える画像処理装置と
からなる画像処理システム。
1 車体, 11,11−1乃至11−4 カメラ, 21 カメラ較正システム, 31 画像信号処理装置, 41 表示部,42 通信ネットワーク, 43 駆動系制御ユニット, 44 車外情報検出ユニット, 45 環境センサ, 51−1乃至51−4 イメージセンサ, 52−1乃至52−4 通信部, 61−1乃至61−4 通信部, 62 画像処理IC, 63 表示制御部, 64 メモリ, 65 制御マイクロコンピュータ, 66 メモリ, 67 センシングチップ, 81 画像処理部, 82 コマンド受信部, 83 制御部, 91 コマンド送信部, 92 カメラ同期マスタ信号管理部, 93 差分管理部, 94 カメラ制御部, 95 較正値による歪み補正処理部, 96 画像合成部, 111 ヨー角直線判定部, 112 パラメータ算出部, 113 パラメータ制御部, 114 パラメータ最適化部, 121 線分検出部, 122 線分曲線推定部, 123 ハフフィルタ, 124 無限点探索機, 125 平行線分判定部, 126 オプティカルフローフィルタ, 127 無限点統計演算器, 128 ヨー角推定部, 129 無限点のオフセット算出部, 130 カメラ毎の内部パラメータメモリ, 131 無限点算出部, 132 カメラ毎の外部パラメータメモリ, 133 カメラ毎の更新外部パラメータメモリ, 134 カメラ外部パラメータのオフセット値仮記録メモリ, 135 俯瞰画像変換部, 136 検出線分のラベリングと曲率判定部, 137 路面上線分判定部, 138 画角ズレ換算部, 2000 車両制御システム, 3000 パーソナルコンピュータ

Claims (18)

  1. 車の直進状態を検出する車状態検出部と、
    第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分を検出する線分検出部と、
    走行背景における無限点を検出する無限点検出部と、
    前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、
    前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、
    前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と
    車両の進行方向を検出する進行方向検出部と
    を備え、
    前記第1の補正量算出部は、前記進行方向検出部により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理を禁止する
    画像処理装置。
  2. 前記無限点検出部により検出された無限点と、前記線分検出部により検出された線分の収束点とが一致しない場合、前記第1のカメラの補正量である画角の不整合量をカメラ光軸と車両進行方向のズレ角として保存する保存部を
    さらに備える請求項1に記載の画像処理装置。
  3. 前記第1の補正量算出部は、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された線分のうち、その法線方向成分を有するシフトが発生しない線分を用いて、前記第1のカメラの補正量を算出し、その法線方向成分を有するシフトが発生する線分を用いての前記第1のカメラの補正量の算出処理を禁止する
    請求項1に記載の画像処理装置。
  4. 前記第1の補正量算出部は、前記進行方向検出部により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された線分のうち、その法線方向成分を有するシフトが発生しない線分を用いて、前記第1のカメラの補正量を算出し、その法線方向成分を有するシフトが発生する線分を用いての前記第1のカメラの補正量の算出処理を禁止する
    請求項1に記載の画像処理装置。
  5. 前記進行方向検出部は、車両のヨー角を検出することで、車両の進行方向を検出する
    請求項4に記載の画像処理装置。
  6. 前記第2の補正量算出部は、前記線分検出部により検出された線分の進行方向を軸として、進行に伴い検出される同一線分の俯瞰変換画像のうちの線分の一次微分が、異なるカメラ画像で一致するように前記第2のカメラの補正量を算出する
    請求項1に記載の画像処理装置。
  7. 前記第2の補正量算出部は、前記線分検出部により検出された線分の進行方向を軸として、その一次微分が、俯瞰画像または魚眼投影からの歪みのない画像にした投影で一致するように前記第2のカメラの補正量を算出する
    請求項1に記載の画像処理装置。
  8. 前記第2の補正量算出部は、撮像された路面上の認識パターンに基づいて、各カメラが特定する車両進行方向位置が、前記第1のカメラにより撮像された画像と前記第3のカメラにより撮像された画像で一致するように、前記第3のカメラの位置補正の算出を行う
    請求項1の記載の画像処理装置。
  9. 前記第1の補正量算出部は、前記無限点検出部により検出された無限点と前記線分検出部により検出された線分の傾きに応じて、第1のカメラの補正量と、前記第2のカメラの補正量を算出し、
    前記第2の補正量算出部は、前記第1および第2のカメラの補正量と、前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量と、前記第3のカメラと対向する位置に配置される第4のカメラの補正量を算出する
    請求項1に記載の画像処理装置。
  10. 前記補正処理部は、前記第1および第2のカメラで車線幅を検出する場合、車線幅を一致させる補正を行う
    請求項9の記載の画像処理装置。
  11. 前記補正処理部は、同時刻で前記第1および第2のカメラで車線幅を検出できない場合、前記第1のカメラで検出された車線幅を前記第2のカメラのカメラ視野が通過後の予測通過時刻に検出した車幅と一致させる補正を行う
    請求項9の記載の画像処理装置。
  12. 前記第1、第2、および第3のカメラのタイミングの差分を検出する差分検出部と、
    前記差分検出部により検出された差分に基づいて、信号線を介して、各カメラに同期コマンドを送信するコマンド送信部と
    をさらに備える請求項1に記載の画像処理装置。
  13. 前記同期コマンドは、基準カメラの同期タイミングを参照に遅延量を算出して、算出された遅延量に比例した時間情報を有し、
    前記コマンド送信部は、前記同期コマンドを送信する
    請求項12の記載の画像処理装置。
  14. 前記第1、第2、および第3のカメラは、視野角で150°以上であり、かつ、対称光学系の後軸が水平より30°以上に下方向にあり、装着車両の直進走行進行方向の方角が、各カメラの光軸周辺において30°以上の像高に位置している
    請求項1の記載の画像処理装置。
  15. 前記車状態検出部は、GNSS(全地球航法衛星システム)、GPS(Global Positioning System)データ、ヨーレートセンサ、ステアリング操舵角、検出線分の交点変動のいずれか1つ、またはその組み合わせのデータ情報から前記車の直進状態を判定する
    請求項1に記載の画像処理装置。
  16. 画像処理装置が、
    車の直進状態を検出し、
    第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分を検出し、
    走行背景における無限点を検出し、
    検出された無限点に応じて、第1のカメラの補正量を算出し、
    算出された第1のカメラの補正量と検出された線分に基づいて、前記第3のカメラの補正量を算出し、
    前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行し、
    車両の進行方向を検出し、
    検出された進行方向に変化がない場合、検出された線分の車両進行に伴う時系列変化から、検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理を禁止する
    画像処理方法。
  17. 車の直進状態を検出する車状態検出部と、
    第1のカメラにより撮像された画像と、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラにより撮像された画像と、前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラにより撮像された画像とのぞれぞれの画像から線分を検出する線分検出部と、
    走行背景における無限点を検出する無限点検出部と、
    前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、
    前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、
    前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と、
    車両の進行方向を検出する進行方向検出部と
    して、コンピュータを機能させ、
    前記第1の補正量算出部は、前記進行方向検出部により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理を禁止する
    プログラム。
  18. 車の車体に配置され、
    画像を撮像する撮像部と、
    前記撮像部により撮像された画像を送信する送信部と
    を備える第1のカメラ、前記車に対して前記第1のカメラと対向する位置に配置される第2のカメラ、および前記第1のカメラおよび前記第2のカメラのいずれとも異なる第3のカメラと、
    前記車の直進状態を検出する車状態検出部と、
    前記第1のカメラ、前記第2のカメラ、および前記第3のカメラにより撮像されたそれぞれの画像から線分を検出する線分検出部と、
    走行背景における無限点を検出する無限点検出部と、
    前記無限点検出部により検出された無限点に応じて、第1のカメラの補正量を算出する第1の補正量算出部と、
    前記第1の補正量算出部により算出された第1のカメラの補正量と前記線分検出部により検出された線分に基づいて、前記第3のカメラの補正量を算出する第2の補正量算出部と、
    前記第1のカメラの補正量に基づいて、前記第1のカメラの画角の補正処理を実行する補正処理部と、
    車両の進行方向を検出する進行方向検出部と
    を備え、
    前記第1の補正量算出部は、前記進行方向検出部により検出された進行方向に変化がない場合、前記線分検出部により検出された線分の車両進行に伴う時系列変化から、前記線分検出部により検出された複数線分の線分交点が時系列変動した際、前記線分を用いての前記第1のカメラの補正量の算出処理を禁止する画像処理装置と
    からなる画像処理システム。
JP2017561586A 2016-01-15 2017-01-04 画像処理装置および方法、プログラム、並びに画像処理システム Active JP6780661B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016006003 2016-01-15
JP2016006003 2016-01-15
PCT/JP2017/000010 WO2017122552A1 (ja) 2016-01-15 2017-01-04 画像処理装置および方法、プログラム、並びに画像処理システム

Publications (2)

Publication Number Publication Date
JPWO2017122552A1 JPWO2017122552A1 (ja) 2018-11-08
JP6780661B2 true JP6780661B2 (ja) 2020-11-04

Family

ID=59310955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017561586A Active JP6780661B2 (ja) 2016-01-15 2017-01-04 画像処理装置および方法、プログラム、並びに画像処理システム

Country Status (3)

Country Link
US (1) US10565736B2 (ja)
JP (1) JP6780661B2 (ja)
WO (1) WO2017122552A1 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6511406B2 (ja) * 2016-02-10 2019-05-15 クラリオン株式会社 キャリブレーションシステム、キャリブレーション装置
JP6882455B2 (ja) * 2016-09-08 2021-06-02 クノル−ブレムゼ ジステーメ フューア ヌッツファールツォイゲ ゲゼルシャフト ミット ベシュレンクテル ハフツングKnorr−Bremse Systeme fuer Nutzfahrzeuge GmbH 車両用電気系統
JP6930120B2 (ja) * 2017-02-02 2021-09-01 株式会社リコー 表示装置、移動体装置及び表示方法。
WO2018179281A1 (ja) * 2017-03-30 2018-10-04 三菱電機株式会社 物体検出装置及び車両
US11521395B2 (en) * 2017-05-30 2022-12-06 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and program
US11044463B2 (en) * 2017-06-27 2021-06-22 Sony Corporation Image processing device and image processing method
JP6776202B2 (ja) * 2017-07-28 2020-10-28 クラリオン株式会社 車載カメラのキャリブレーション装置及び方法
JP6944308B2 (ja) * 2017-08-18 2021-10-06 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御システム、および制御方法
CN107578012B (zh) * 2017-09-05 2020-10-27 大连海事大学 一种基于聚类算法选择敏感区域的驾驶辅助系统
US11158088B2 (en) 2017-09-11 2021-10-26 Tusimple, Inc. Vanishing point computation and online alignment system and method for image guided stereo camera optical axes alignment
US11089288B2 (en) * 2017-09-11 2021-08-10 Tusimple, Inc. Corner point extraction system and method for image guided stereo camera optical axes alignment
US11554727B2 (en) * 2017-11-06 2023-01-17 Magna Electronics Inc. Multi-camera vehicle vision system with data synchronization
KR102470298B1 (ko) * 2017-12-01 2022-11-25 엘지이노텍 주식회사 카메라 보정 방법 및 장치
KR102552490B1 (ko) * 2018-01-03 2023-07-06 현대자동차주식회사 차량용 영상 처리 장치 및 방법
US10605897B2 (en) * 2018-03-06 2020-03-31 Veoneer Us, Inc. Vehicle lane alignment correction improvements
KR102024834B1 (ko) * 2018-04-23 2019-09-24 주식회사 이알랩 차량에 설치된 카메라의 보정 장치 및 방법
KR102071418B1 (ko) * 2018-05-17 2020-01-30 에스케이텔레콤 주식회사 차량용 카메라 캘리브레이션 장치 및 방법
DE102018210079A1 (de) * 2018-06-21 2019-12-24 Robert Bosch Gmbh Verfahren zum initialen Kalibrieren eines Sensors für ein Fahrerassistenzsystem eines Fahrzeugs
JP7006527B2 (ja) * 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
US20200027241A1 (en) * 2018-07-19 2020-01-23 GM Global Technology Operations LLC Auto-calibration for vehicle cameras
JP2020036166A (ja) * 2018-08-29 2020-03-05 アルパイン株式会社 画像表示装置、画像表示方法
JP7208356B2 (ja) * 2018-09-26 2023-01-18 コーヒレント・ロジックス・インコーポレーテッド 任意の世界ビューの生成
JP6744374B2 (ja) * 2018-09-27 2020-08-19 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
CN109389650B (zh) * 2018-09-30 2021-01-12 京东方科技集团股份有限公司 一种车载相机的标定方法、装置、车辆和存储介质
US11055541B2 (en) * 2018-10-12 2021-07-06 Volvo Car Corporation Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping
DE102018218745B4 (de) * 2018-11-01 2021-06-17 Elektrobit Automotive Gmbh Kameravorrichtung, Fahrerassistenzsystem und Fahrzeug
DE102018220406A1 (de) * 2018-11-28 2020-05-28 Zf Friedrichshafen Ag Vorrichtung zum Lokalisieren einer Landmaschine basierend auf Sensordaten und Bildsegmentierung
JP7236849B2 (ja) * 2018-11-29 2023-03-10 日立Astemo株式会社 外界認識装置
JP7211047B2 (ja) * 2018-12-04 2023-01-24 株式会社アイシン 路面検出装置および路面検出プログラム
GB2579843A (en) 2018-12-18 2020-07-08 Continental Automotive Gmbh Method and apparatus for calibrating the extrinsic parameter of an image sensor
EP3899642A1 (en) 2018-12-20 2021-10-27 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
US11195028B2 (en) * 2019-01-04 2021-12-07 Qualcomm Incorporated Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries
KR102034316B1 (ko) * 2019-01-29 2019-11-08 주식회사 만도 차량 위치 보정 시스템 및 방법, 그리고 카메라
CN113646769A (zh) * 2019-02-15 2021-11-12 丰田自动车欧洲公司 用于图像归一化的系统和方法
KR102268094B1 (ko) * 2019-03-09 2021-06-22 코어포토닉스 리미티드 동적 입체 캘리브레이션을 위한 시스템 및 방법
JP7217577B2 (ja) * 2019-03-20 2023-02-03 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
KR102274026B1 (ko) * 2019-05-22 2021-07-09 (주)베이다스 차량용 카메라 캘리브레이션 장치 및 그 방법
US11227167B2 (en) * 2019-06-28 2022-01-18 Baidu Usa Llc Determining vanishing points based on lane lines
US10965931B1 (en) * 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
CN113091757B (zh) * 2019-12-23 2022-09-27 百度在线网络技术(北京)有限公司 地图生成方法和装置
CN111901515B (zh) * 2019-12-25 2021-08-10 上海弈山实业有限公司 定向场景数据实时判断系统
US11294760B2 (en) 2019-12-30 2022-04-05 Semiconductor Components Industries, Llc Methods and apparatus for a temporal synchronization unit
US11272144B2 (en) * 2020-01-15 2022-03-08 George Gorgees Large vehicle backup camera apparatus
US11341683B2 (en) * 2020-09-22 2022-05-24 AiFi Corp Smart self calibrating camera system
US11910092B2 (en) * 2020-10-01 2024-02-20 Black Sesame Technologies Inc. Panoramic look-around view generation method, in-vehicle device and in-vehicle system
CN112308768B (zh) * 2020-10-19 2023-09-08 武汉中科通达高新技术股份有限公司 一种数据处理方法、装置、电子设备以及存储介质
CN112529966B (zh) * 2020-12-17 2023-09-15 豪威科技(武汉)有限公司 一种车载环视系统的在线标定方法及其车载环视系统
JP2022126066A (ja) * 2021-02-18 2022-08-30 トヨタ自動車株式会社 車載センサシステム、及び車載センサシステムのデータ生成方法
JP2022149731A (ja) 2021-03-25 2022-10-07 本田技研工業株式会社 制御装置、制御装置の動作方法及びプログラム
JP2022150828A (ja) * 2021-03-26 2022-10-07 本田技研工業株式会社 制御装置、制御装置の動作方法及びプログラム
CN117837137A (zh) * 2021-08-24 2024-04-05 索尼半导体解决方案公司 信号处理设备、信号处理系统、信号处理方法和程序
JP2023046965A (ja) * 2021-09-24 2023-04-05 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
TWI776741B (zh) * 2021-11-26 2022-09-01 荷蘭商荷蘭移動驅動器公司 車載相機之控制方法及車載裝置
US11887338B2 (en) * 2022-06-16 2024-01-30 Motional Ad Llc Maintaining calibration of an IBIS camera
US11967112B2 (en) * 2022-09-07 2024-04-23 AitronX Inc. Method and apparatus for detecting calibration requirement for image sensors in vehicles

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243906A (ja) * 1996-03-05 1997-09-19 Eastman Kodak Japan Kk 自動焦点合わせ装置および自動焦点合わせ方法
JP3752510B2 (ja) * 1996-04-15 2006-03-08 イーストマン コダック カンパニー 画像の自動被写体検出方法
JP4573977B2 (ja) * 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
JP4697101B2 (ja) * 2006-09-07 2011-06-08 株式会社デンソー 車両検出装置、およびライト制御装置
JP5208147B2 (ja) 2010-03-09 2013-06-12 三菱電機株式会社 車載カメラのカメラキャリブレーション装置
JP5455124B2 (ja) * 2010-04-01 2014-03-26 国立大学法人鳥取大学 カメラ姿勢パラメータ推定装置
JP5444139B2 (ja) * 2010-06-29 2014-03-19 クラリオン株式会社 画像のキャリブレーション方法および装置
JP5663352B2 (ja) 2011-03-03 2015-02-04 日本電産エレシス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP5580233B2 (ja) * 2011-03-22 2014-08-27 富士重工業株式会社 車外監視装置および車外監視方法
JP5898475B2 (ja) * 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム
JP5971939B2 (ja) * 2011-12-21 2016-08-17 アルパイン株式会社 画像表示装置、画像表示装置における撮像カメラのキャリブレーション方法およびキャリブレーションプログラム
JP6085212B2 (ja) 2013-03-28 2017-02-22 本田技研工業株式会社 運転支援装置
JP6194819B2 (ja) * 2014-03-03 2017-09-13 Smk株式会社 画像処理システム
US20180108150A1 (en) * 2016-10-17 2018-04-19 Dsi Assignments, Llc Systems and methods for in-field stereocamera calibration

Also Published As

Publication number Publication date
US20180365859A1 (en) 2018-12-20
WO2017122552A1 (ja) 2017-07-20
JPWO2017122552A1 (ja) 2018-11-08
US10565736B2 (en) 2020-02-18

Similar Documents

Publication Publication Date Title
JP6780661B2 (ja) 画像処理装置および方法、プログラム、並びに画像処理システム
JP6834964B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN109313018B (zh) 成像控制装置和方法、以及车辆
US11076141B2 (en) Image processing device, image processing method, and vehicle
WO2017057044A1 (ja) 情報処理装置及び情報処理方法
JP6764573B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2017212927A1 (ja) 撮像制御装置および方法、並びに車両
CN110574357B (zh) 成像控制设备、用于控制成像控制设备的方法以及移动体
WO2020116206A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US11585898B2 (en) Signal processing device, signal processing method, and program
CN111587572A (zh) 图像处理装置、图像处理方法和程序
US20230370709A1 (en) Imaging device, information processing device, imaging system, and imaging method
WO2021256411A1 (ja) 信号処理装置、調光制御方法、信号処理プログラム、及び調光システム
WO2016203989A1 (ja) 画像処理装置および画像処理方法
US20240056694A1 (en) Imaging device, image processing method, and image processing program
US11436706B2 (en) Image processing apparatus and image processing method for improving quality of images by removing weather elements
US20220165066A1 (en) Information processing apparatus, information processing method, and program
WO2022196316A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20220148283A1 (en) Information processing apparatus, information processing method, and program
WO2020255589A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR20230000567A (ko) 센서를 이용한 차량의 각도 계산 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200928

R151 Written notification of patent or utility model registration

Ref document number: 6780661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151