JP7308227B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP7308227B2
JP7308227B2 JP2020558293A JP2020558293A JP7308227B2 JP 7308227 B2 JP7308227 B2 JP 7308227B2 JP 2020558293 A JP2020558293 A JP 2020558293A JP 2020558293 A JP2020558293 A JP 2020558293A JP 7308227 B2 JP7308227 B2 JP 7308227B2
Authority
JP
Japan
Prior art keywords
image
camera
depression angle
angle
object distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020558293A
Other languages
English (en)
Other versions
JPWO2020105499A1 (ja
Inventor
清 東原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2020105499A1 publication Critical patent/JPWO2020105499A1/ja
Application granted granted Critical
Publication of JP7308227B2 publication Critical patent/JP7308227B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G06T3/047
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees

Description

本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。具体的には例えば車両に取り付けたカメラの撮影画像から被写体距離を算出する処理を実行する画像処理装置、および画像処理方法、並びにプログラムに関する。
車の直前や側面、あるいは後方など、車の進行方向の様子を運転席から直接、視認できない場合、進行方向にある隠れた障害物に車をぶつけてしまう危険がある。このような危険を回避するシステムとして、車の前後や側面にカメラを装着して、カメラの撮影画像を運転席のモニタに表示するカメラシステムがある。
このようなカメラシステムにおける問題点として、車両へのカメラ取り付け時に取り付け誤差が生じるという問題がある。取り付け誤差が生じると、その取り付け誤差に応じて、カメラの実際の撮影領域と、本来の正しい撮影領域との間にズレが生じることになる。
運転席において運転者が見るモニタには、カメラ撮影画像と合わせて、目安線や進路予想線等、補助的なラインが重畳されて表示する場合がある。カメラの取り付け誤差に起因する撮影領域のズレがあると、カメラ撮影画像に対する目安線や進路予想線が実際の位置とはずれた位置に表示されてしまうことになる。
また、近年では、車載カメラは、運転者がモニタを見て監視する目的のみならず、車両システムが障害物や歩行者を検出するためにも用いられる。車両システムがカメラ撮影画像に基づいて障害物や歩行者を検出し、さらに距離を推定し、その結果を車両側のユニットに送り、車両側ではその結果をもとに、運転者に対する警告通知や、自動ブレーキを動作させるといった制御を行うものである。
このような車両システムの処理、すなわち運転者に対する警告通知や、自動ブレーキの動作を実行する場合、物体までの距離測定の精度が重要となる。
この距離測定値は、カメラの取り付け角度のズレや車両の姿勢の設計値からのズレの影響を受け、カメラが所定の設計通り、誤差なく取り付けられていない場合、正確な距離が測定できないという問題が発生する。
カメラの取り付け誤差を検出する方法として、例えば校正用チャートの撮影画像を用いる方法が知られている。
車両に取り付けたカメラによって校正用チャートを撮影して、その撮影画像と、誤差無く取り付けられたカメラによって撮影された理想画像とのズレを算出してズレを小さくするようにカメラの取り付け位置や角度を調整する方法である。
あるいは車両に取り付けた斜め下方向を向けたカメラによって、路面上に描いた平行線や直行するチャートを撮影し、この撮影画像を真上からの撮影画像に変換する俯瞰変換を行い、この俯瞰変換画像内の平行線や直行するチャートの状態を解析して、カメラ取り付け誤差を検出する方法も知られている。
なお、これらのカメラ取り付け誤差の補正方法を開示した従来技術として、例えば特許文献1(特許第5173551号公報)や、特許文献2(特許第5923422号公報)がある。
特許第5173551号公報 特許第5923422号公報
上述した従来技術では、カメラ取り付け誤差を検出するために、予め校正用のチャートを準備することが必要となる。また、俯瞰変換画像を用いて、撮影画像内の平行線や格子の平行度や直行性から取り付け誤差を求める場合には、その車両のカメラ取り付け状態に合わせた俯瞰変換の画像変換マップを予め準備することが必要となる。
このように、従来のカメラ取り付け誤差補正方法では、校正用チャートや画像変換マップ等、補正のための事前準備データが必要であるという問題がある。
本開示は、このような事前準備データを用いることなく、カメラの取り付け誤差が存在しても、被写体距離を正確に算出することを可能とした画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
本開示の第1の側面は、
広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成する補正画像生成部と、
実世界上の垂直オブジェクトの前記補正画像における傾きを算出する垂直オブジェクト傾き算出部と、
前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出するカメラ俯角ズレ算出部と、
前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成するオブジェクト距離算出用画像生成部と、
前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出するオブジェクト距離算出部を有する画像処理装置にある。
さらに、本開示の第2の側面は、
画像処理装置において実行する画像処理方法であり、
補正画像生成部が、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成するステップと、
垂直オブジェクト傾き算出部が、実世界上の垂直オブジェクトの前記補正画像における傾きを算出するステップと、
カメラ俯角ズレ算出部が、前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出するステップと、
オブジェクト距離算出用画像生成部が、前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成するステップと、
オブジェクト距離算出部が、前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出するステップを実行する画像処理方法にある。
さらに、本開示の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
補正画像生成部に、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成させるステップと、
垂直オブジェクト傾き算出部に、実世界上の垂直オブジェクトの前記補正画像における傾きを算出させるステップと、
カメラ俯角ズレ算出部に、前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出させるステップと、
オブジェクト距離算出用画像生成部に、前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成させるステップと、
オブジェクト距離算出部に、前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出させるステップを実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、カメラの取り付け角度にズレがある場合においても、カメラ撮影画像に基づいて正確な被写体距離を算出可能とする構成が実現される。
具体的には、例えば、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成する。さらに、実世界上の垂直オブジェクトの補正画像における傾きを算出し、垂直オブジェクトの傾きに基づいて、カメラのカメラ俯角のズレ角を算出し、カメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成して、オブジェクト距離算出用画像からカメラの撮影画像に含まれるオブジェクトの距離を算出する。カメラ俯角ズレ角が規定しきい値以下でない場合は、カメラ俯角ズレを考慮した俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像を生成する。
これらの構成により、カメラの取り付け角度にズレがある場合においても、カメラ撮影画像に基づいて正確な被写体距離を算出可能とする構成が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の画像処理装置を搭載した車両の構成例について説明する図である。 広角レンズを用いて撮影される画像の歪みについて説明するための撮影環境例について説明する図である。 広角レンズを用いて撮影される画像の補正によって生成される補正画像と、各画像の画素位置の対応関係について説明する図である。 正常な取り付けがなされたカメラの撮影画像の補正画像と、取り付け角度にズレがあるカメラの撮影画像の補正画像について説明する図である。 本開示の画像処理装置の実行する処理について説明する図である。 本開示の画像処理装置の実行する処理について説明する図である。 正常なカメラ俯角(θ)を持つカメラの撮影画像を用いたオブジェクト距離の算出処理例について説明する図である。 カメラ俯角ズレ(Δθ)を有して取り付けられたカメラの撮影画像を用いて誤ったオブジェクト距離を算出する例について説明する図である。 カメラ俯角ズレ(Δθ)を有して取り付けられたカメラの撮影画像を用いて正確なオブジェクト距離を算出する例について説明する図である。 本開示の画像処理装置の構成例について説明する図である。 本開示の画像処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 画像処理装置のハードウェア構成例について説明する図である。
以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
1.カメラ撮影画像の変換処理の概要について
2.本開示の画像処理装置の実行する処理について
2-(1)カメラ俯角のズレ角(Δθ)の算出処理について
2-(2)カメラ俯角のズレ角(Δθ)を考慮した被写体距離(オブジェクト距離)の算出処理について
2-(2)-(A)正常なカメラ俯角(θ)を持つカメラの撮影画像を用いたオブジェクト距離の算出処理例について
2-(2)-(B1)取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(不正確な距離算出例)について
2-(2)-(B2)取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(正確な距離算出例)について
3.本開示の画像処理装置の構成と画像処理シーケンスについて
4.本開示の画像処理装置のハードウェア構成例について
5.本開示の構成のまとめ
[1.カメラ撮影画像の変換処理の概要について]
まず、図1以下を参照してカメラ撮影画像の変換処理の概要について説明する。
図1には本開示の画像処理装置を搭載した車両10を示している。車両10にはカメラ11が搭載されている。
カメラ11は、車両10の後方を撮影するカメラである。
カメラ11は、例えば魚眼レンズ等の広角レンズを備えた広角レンズカメラであり、車両後方の広い領域の画像を撮影することができる。
図に示す例では、カメラ11は、車両10の後方の路面20上の垂直ポール30や人40を撮影する。この撮影画像が車両10内の画像処理装置に入力され、画像処理装置において画像補正処理が実行され、肉眼で見たと同様の補正画像が運転席のモニタに表示される。
また、画像処理装置は、撮影画像に基づいて車両10から垂直ポール30や人40までの距離(オブジェクト距離)の算出を行う。例えばオブジェクト距離が予め規定されたしきい値以下の距離になると、運転者に対する警告の通知などが行われる。
図に示すように、カメラ11は、車両10後部の近傍も撮影範囲とするため、やや下方向にカメラ光軸が向けられる。
運転席のモニタに表示する画像は、カメラ11のカメラ光軸方向、すなわち、撮影方向の画像そのままではなく、カメラ11の撮影画像を路面20に平行な車両後方の方向の画像に変換した画像とする。このモニタ表示画像の視点方向を仮想視点方向とする。
仮想視点方向を路面20に平行な車両後方の方向とすると、仮想視点方向とカメラ光軸のなす角がカメラの傾きを示すカメラ俯角となる。
なお、前述したように、カメラ11は、例えば魚眼レンズ等の広角レンズを備えた広角レンズカメラであり、車両後方の広い領域の画像を撮影することができる。
ただし、広角レンズを用いて撮影される画像には歪みが発生する。
具体的な歪みの例について図2以下を参照して説明する。
図2に示すように、格子状の線が描かれた路面上の車両10後方に多数の垂直ポール30が林立した状態をカメラ11が撮影するものとする。垂直ポール30は、図1に示す垂直ポール30と同様のポールであり、路面20に対して垂直に立てられたポールである。
これら多数の垂直ポール30が林立した車両10後方の画像を、広角レンズを備えたカメラ11が撮影する。
図3(1)が、撮影画像である。図3(1)に示すように、撮影画像上の路面の格子パターンは湾曲した歪みを有する。また、垂直ポール30は、画像の周辺に近づくほど傾いて見える。
これは、広角レンズを用いた撮影によって発生する画像の歪みである。
図3(2)は、図3(1)の画像に対する歪み補正と、視点変換を行って生成した補正画像である。
垂直ポール30が垂直になるように歪み補正を行い、視点方向が、路面に平行となる方向、すなわち、図1に示す仮想視点方向となるように視点変換を行なった補正画像の例である。この補正画像が運転席のモニタに表示される。
図3(1)撮影画像から、図3(2)補正画像へ変換する画像変換処理は、カメラ俯角とカメラのレンズ歪情報に基づいて、例えば円筒状に投影する歪み補正と画像変換処理によって行われる。
図3(a1),(a2)を参照して画像変換におけるマッピング処理、すなわち、図3(1)撮影画像を図3(2)補正画像に変換する際に実行する画素位置のマッピング処理例について説明する。
図3(a1)は画像変換前の画像であり、これはカメラ位置(X,Y,Z)、光軸向き(ヨー、ピッチ、ロール)、及びレンズ歪データ、センササイズ情報により、三次元空間の任意の点、例えば世界座標の任意点(x,y,z)が、画像上のどの位置(画素位置)(H,V)になるかを一意に決定できる。
図3(a2)が、図3(a1)の画像変換後の画像例である。この図3(a2)に示す画像は路面に平行となる方向、すなわち、図1に示す仮想視点方向となるように視点変換を行ない、撮影画像を円筒状に投影する画像変換を行うことで生成される。
この画像変換は、変換前の画像(撮影画像)の画素位置P0(H0,V0)に対応する変換後の画像(補正画像)の画素位置P1(H1,V1)を登録した対応画素位置登録データであるマッピングデータ(補正画像生成用マッピングデータ)を利用することで実行することができる。
なお、各画像において、画像の左上端を(H,V)=(0,0)とし、水平右方向をH軸、垂直下方向をV軸として、各画素位置は座標(H.V)によって表現される。
マッピングデータを用いれば、変換前の画像上の画素位置P0(H0,V0)から、変換後の画像上の画素位置P1(H1,V1)を算出することができる。
また、逆に変換後の画像上の画素位置P1(H1,V1)から、変換前の画像上の画素位置P0(H0,V0)を算出可能である。
さらに、後述するオブジェクト距離算出用画像(俯瞰画像)を用いることで、実世界における三次元空間の位置、すなわち世界座標における位置(x,y,z)や、オブジェクト距離(カメラ(車両)からオブジェクト(被写体)までの距離)も算出することができる。
このように、画像の変換前と変換後の画素位置の対応データである補正画像生成用マッピングデータを用いることで、広角レンズを用いた撮影画像を所定の視点方向(図1に示す仮想視点方向)から見た通常のカメラ撮影画像(補正画像(変換画像))に変換することが可能となる。
しかし、この補正画像生成用マッピングデータを用いて、正常な補正画像が得られるのは、カメラ11が正常な取り付け位置に正常な取り付け角度で装着されている場合に限られる。例えば、カメラ11が正常な取り付け角度で装着されていない場合には、予め生成されたマッピングデータを利用した画素位置変換を行っても所定の視点方向(図1に示す仮想視点方向)から見た通常のカメラ撮影画像に変換することができない。
図4は、正常な取り付けがなされたカメラの撮影画像の補正画像と、取り付け角度にズレがあるカメラの撮影画像の補正画像を並べて示した図である。
(a)は、正常な取り付けがなされたカメラの撮影画像の補正画像であり、
(b)は、取り付け角度にズレがあるカメラの撮影画像の補正画像である。
(a)は、カメラ11が、予め設定された正常なカメラ俯角(仮想視点方向と光軸のなす角)で取り付けられている。すなわちカメラ俯角=θとなるように取り付けられている。
一方、(b)のカメラ11は、カメラ俯角=θ+Δθであり、カメラ俯角が規定角度(θ)からΔθずれている。すなわち、カメラ光軸が正常な取り付け角度からΔθだけ下に設定されている。
このように、カメラ11の取り付け角度にズレが発生すると、同一物体の画像上での表示位置が異なり、結果として、同一の補正画像生成用マッピングデータを用いて生成した補正画像におけるオブジェクト表示位置や表示態様が変化してしまう。
図4に示す2つの補正画像(a),(b)を比較して理解されるように、(a)では垂直ポールが補正画像上で垂直に表示されているのに対して、(b)では、垂直ポールが、画像中心から左右に離れるに従って傾きを持って表示される。
これは、同じ補正画像生成用マッビングデータを利用した画像変換によって生じるものである。すなわち、正常な取り付け角度のカメラの撮影画像の変換用の1つの補正画像生成用マッビングデータを利用したことに起因する。
[2.本開示の画像処理装置の実行する処理について]
次に、図5以下を参照して本開示の画像処理装置の実行する処理について説明する。
本開示の画像処理装置は、正常な取り付け角度でないカメラの撮影画像であっても、正確な被写体までの距離(オブジェクト距離)を算出することを可能としたものである。
先に図4を参照して説明したように、取り付け角度にズレがあるカメラの撮影画像の補正画像、すなわち、図4(b)に示す補正画像では、垂直ポールが、画像中心から左右に離れるに従って傾きを持って表示される。
本開示の画像処理装置は、路面に垂直なオブジェクトの補正画像における傾き(α)を検出して、この傾き(α)に基づいて、カメラ俯角のズレ角(Δθ)を算出する。
さらに、算出したカメラ俯角のズレ角(Δθ)を考慮して被写体位置や被写体距離を算出するためのオブジェクト距離算出用画像(俯瞰画像)を生成し、生成したオブジェクト距離算出用画像(俯瞰画像)を用いて被写体距離(オブジェクト距離)の算出を実行する。
この処理を行うことで、規定のカメラ俯角(θ)からズレて取り付けられたカメラの撮影画像からも正しい被写体距離を算出することが可能となる。
以下、本開示の画像処理装置が実行する処理の具体例について、以下の各項目順に説明する。
(1)カメラ俯角のズレ角(Δθ)の算出処理について
(2)カメラ俯角のズレ角(Δθ)を考慮した被写体距離(オブジェクト距離)の算出処理について
[2-(1)カメラ俯角のズレ角(Δθ)の算出処理について]
まず、カメラ俯角のズレ角(Δθ)の算出処理について説明する。
図5を参照して、取り付け角度(カメラ俯角(θ))にズレがあるカメラの撮影画像の補正画像に発生する傾き、すなわち、実世界で路面に垂直に立つ垂直ポール30等の垂直オブジェクトの傾きについて説明する。
先に図4を参照して説明したように、カメラ俯角が規定角度(θ)ではないカメラ俯角=θ+Δθであるカメラの撮影画像を、カメラ俯角=θのカメラ撮影画像用のマッピングデータを利用して変換すると、その変換画像(補正画像)は、予定された視点方向(図1の仮想視点方向)から見た正しい補正画像とはならない。
例えば、実世界の垂直オブジェクトは、画像の左右中心位置から左右に離れるにつれて傾いて表示される。
例えば図5に示す例において、4つの垂直ポール31~34の画像の左右中心位置からの距離(h1~h4)と傾き(α1~α4)は以下の関係となる。
4つの垂直ポール31~34の画像の左右中心位置からの距離(h1~h4)は以下の関係である。
h1<h2<h3<h4
このとき、4つの垂直ポール31~34の傾き(α1~α4)は以下の関係となる。
α1<α2<α3<α4
このように、実世界で路面に垂直に立つ垂直オブジェクトは、補正画像の左右中心位置から左右に離れるにつれて傾きが大きくなる。
図6に示すように、補正画像の左右中心位置からの距離=haの垂直オブジェクトの傾きαとの比率(α/ha)は、以下の(式1)によって示される。
α/ha=αmax/hmax・・・(式1)
上記(式1)において、
hmaxは、補正画像の左右中心位置から左右の画像端部までの距離、
αmaxは、左右の画像端部における実世界の垂直オブジェクトの傾き、
である。
このように、カメラ俯角=θの正常な取り付け角度のカメラ対応の補正画像生成用マッピングデータを利用して、カメラ俯角=θ+Δθのカメラ俯角ズレ(Δθ)を有するカメラの撮影画像の変換を行うと、カメラ俯角ズレ(Δθ)に応じて、垂直オブジェクトに傾き(α)が発生する。
変換処理によって生成される補正画像のアスペクト比(垂直/水平)をAとしたとき、
カメラ俯角ズレ(Δθ)と、補正画像のアスペクト比(垂直/水平)Aと、補正画像の左右画像端部における実世界の垂直オブジェクトの傾きαmaxとの関係は、以下の(式2)によって示される。
Δθ=A×αmax・・・(式2)
上記(式2)と先に説明した(式1)に基づいて、以下の(式3)の関係式が得られる。
Δθ=A×α×hmax/ha・・・(式3)
上記(式3)に示すように、カメラ俯角ズレ(Δθ)は、
補正画像のアスペクト比(垂直/水平)Aと、
補正画像の左右中心位置から左右の画像端部までの距離hmaxと、
補正画像の左右中心位置から任意距離haの垂直オブジェクトの傾きα、
これらの値を用いて算出することができる。
このように、カメラの撮影領域に路面に垂直に立つオブジェクト、例えばポールや、標識、あるいは人などが検出できれば、そのオブジェクトの補正画像における左右中心位置からの距離haと傾きαを画像から求め、上記(式3)を用いてカメラ俯角ズレ(Δθ)を算出することができる。
なお、カメラ撮影画像中に複数(n個)の垂直オブジェクトが検出され、それぞれの垂直オブジェクト(1~n)について個別の傾き(α1~αn)が検出された場合は、個々のオブジェクト対応の傾き(α1~αn)に基づいて上記(式3)に従ってn個のカメラ俯角ズレ(Δθ1~Δθn)を算出し、このn個の算出値の平均、あるいは中間値を算出して算出値をカメラ俯角ズレ(Δθ)とするという処理を行ってもよい。
[2-(2)カメラ俯角のズレ角(Δθ)を考慮した被写体距離(オブジェクト距離)の算出処理について]
次に、カメラ俯角のズレ角(Δθ)を考慮した被写体距離(オブジェクト距離)の算出処理について説明する。
具体的な被写体距離(オブジェクト距離)の算出処理例として、以下の3種類の処理例について説明する。
(A)正常なカメラ俯角(θ)を持つカメラの撮影画像を用いたオブジェクト距離の算出処理例
(B1)取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(不正確な距離算出例)
(B2)取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(正確な距離算出例)
なお、本開示の画像処理装置は、上記の(A)や(B2)の処理を実行する。すなわち、カメラが、正常なカメラ俯角(θ)で取り付けられている場合でも、取り付け誤差のあるカメラ俯角(θ+Δθ)で取り付けられている場合でも、被写体距離を正しく算出することができる。
(2-(2)-(A)正常なカメラ俯角(θ)を持つカメラの撮影画像を用いたオブジェクト距離の算出処理例について)
まず、図7を参照して、正常なカメラ俯角(θ)を持つカメラの撮影画像を用いたオブジェクト距離の算出処理例について説明する。
すなわち、正常な取り付けがなされたカメラの撮影画像の変換処理によって生成した補正画像を用いたオブジェクト距離の算出処理例について説明する。
図7の(1)撮影画像は、予め設定された正常なカメラ俯角(仮想視点方向と光軸のなす角)、すなわちカメラ俯角=θとなるように取り付けられたカメラによる撮影画像である。
(2)補正画像は、(1)の撮影画像に対して、前述した補正画像生成用マッピングデータ、すなわち、正常な取り付け角度で取り付けられたカメラの撮影画像の変換のために生成された補正画像生成用マッビングデータを利用して生成した補正画像である。
この補正画像は、所定の視点方向(図1に示す仮想視点方向)から見た通常のカメラ撮影画像(補正画像(変換画像))に変換した補正画像である。
図7(3)はオブジェクト距離算出用画像であり、図1に示す車両10のカメラ11の取り付け位置からさらに上の位置から車両の後方斜め下方向を観察した俯瞰画像である。この俯瞰画像は、図7(1)の撮影画像に対して、俯瞰画像生成用のマッピングデータ、すなわち、正常な取り付け角度で取り付けられたカメラの撮影画像の変換のために生成された俯瞰画像生成用マッビングデータを利用して生成することができる。
この3つの画像を用いて、オブジェクト距離を算出する。ここでは、図7(2)補正画像中の1つの垂直ポール81までの距離を算出する例について説明する。
図7(2)補正画像中の1つの垂直ポール81と路面の交点の画素位置、すなわち補正画像中の画素位置を(Ha,Va)とする。
図7(1)に示す撮影画像と、図7(2)に示す補正画像の対応画素位置を登録したマップである補正画像生成用マッピングデータを参照して、撮影画像中の対応画素位置を示す座標(H0,V0)を求めることができる。
さらに、図7(1)に示す撮影画像と、図7(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置を登録したマップである俯瞰画像生成用マッビングデータを参照して、撮影画像中の画素位置を示す座標(H0,V0)の図7(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置(Hb,Vb)が得られる。
このオブジェクト距離算出用画像(俯瞰画像)の対応画素位置(Hb,Vb)は、図7(2)補正画像中の1つの垂直ポール81と路面の交点の画素位置、すなわち補正画像中の画素位置を(Ha,Va)の対応画素位置である。
図7(3)に示すオブジェクト距離算出用画像(俯瞰画像)は路面上を等縮尺した変換画像、すなわち、実世界の位置を反映した俯瞰画像であるので、オブジェクト距離算出用画像(俯瞰画像)の画素位置(Hb,Vb)から、実世界の位置を示す座標が求まる。この例では、カメラから左側に3m、奥行側に3mの位置が垂直ポール81と路面の交点の位置である。
カメラ11が車両10の後面中央位置にあるとすれば、垂直ポール81は、車両の後方3m、車両幅中央から左側に3mの位置に垂直に立っているオブジェクトであることが解析できる。
(2-(2)-(B1)取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(不正確な距離算出例)について]
次に、取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(不正確な距離算出例)について説明する。
なお、本開示の画像処理装置は、この処理は実行しない。本開示の画像処理装置の実行する処理の説明の前に、取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理において正確な距離が算出できない例を説明する。
図7を参照して説明したオブジェクト距離解析処理例は、カメラが予め規定されたカメラ俯角=θで正しく取り付けられたカメラの撮影画像を用いた処理例である。
図8を参照して、カメラが予め規定されたカメラ俯角=θで正しく取り付けられていない場合、すなわち、カメラ俯角ズレ(Δθ)を有して取り付けられたカメラの撮影画像を用いてオブジェクト距離を算出する場合に正しい距離算出ができない例について説明する。
図8の(1)撮影画像は、予め設定された正常なカメラ俯角(仮想視点方向と光軸のなす角)、すなわちカメラ俯角=θと異なるカメラ俯角ズレ(Δθ)を有して取り付けられたカメラ、すなわちカメラ俯角=θ+Δθを有するカメラによる撮影画像である。
図8(2)補正画像は、(1)の撮影画像に対して、前述した補正画像生成用マッピングデータ、すなわち、正常な取り付け角度で取り付けられたカメラの撮影画像の変換のために生成された補正画像生成用マッビングデータを利用して生成した補正画像である。
この補正画像は、所定の視点方向(図1に示す仮想視点方向)から見た通常のカメラ撮影画像(補正画像(変換画像))に変換した補正画像である。
図8(1)の撮影画像は、正常なカメラ俯角=θと異なるカメラ俯角ズレ(Δθ)を有し、カメラ俯角=θ+Δθを有するカメラによる撮影画像であるため、正常な取り付け角度のカメラ撮影画像用の補正画像生成用マッビングデータを用いると、正しい変換がなされない。結果として、図8(2)補正画像中の垂直ポールは、画像の左右中心から画像左右方向に離れるに従って傾きが大きくなるように表示される。
図8(3)はオブジェクト距離算出用画像であり、図1に示す車両10のカメラ11の取り付け位置からさらに上の位置から車両の後方斜め下方向を観察した俯瞰画像である。この俯瞰画像も、正常な取り付け角度(カメラ俯角=θ)で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータを利用して生成した画像である。
すなわち、図8(3)に示す俯瞰画像は、カメラ俯角のズレ(Δθ)が考慮されていない俯瞰画像である。
この3つの画像を用いて、オブジェクト距離を算出すると正しいオブジェクト距離の算出ができない。
図7と同様、図8(2)補正画像中の1つの垂直ポール81までの距離を算出する例について説明する。
図8(2)補正画像中の1つの垂直ポール81と路面の交点の画素位置、すなわち補正画像中の画素位置を(Ha2,Va2)とする。
補正画像生成用マッピングデータを参照して、撮影画像中の対応画素位置を示す座標(H02,V02)を求めることができる。
さらに、図8(1)に示す撮影画像と、図8(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置を登録したマップである俯瞰画像生成用マッビングデータを参照して、撮影画像中の画素位置を示す座標(H02,V02)の図8(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置(Hb2,Vb2)が得られる。
ただし、ここで用いる俯瞰画像生成用マッビングデータは、正常な取り付け角度(カメラ俯角=θ)で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータである。
従って、オブジェクト距離算出用画像(俯瞰画像)の対応画素位置(Hb2,Vb2)は、実際の正しいオブジェクト距離を示すものとはならない。
図8(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置(Hb2,Vb2)は、カメラから左側に4m、奥行側に4mの位置を示している。これは、実際の垂直ポール81の位置とは異なる。すなわち、先に図7を参照して説明したカメラから左側に3m、奥行側に3mの位置とは異なり、横1m奥行1mの測距ズレが発生してしまう。
これは、カメラが予め規定されたカメラ俯角=θで正しく取り付けられていないからである。
(2-(2)-(B2)取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(正確な距離算出例)について]
次に、取り付け誤差のあるカメラ俯角(θ+Δθ)を持つカメラの撮影画像を用いたオブジェクト距離算出処理例(正確な距離算出例)について説明する。
図9を参照して、カメラが予め規定されたカメラ俯角=θで正しく取り付けられていない場合でも距離ズレの発生しない正しいオブジェクト距離算出処理を可能とした処理例について説明する。
図9は、図8と同様、カメラが予め規定されたカメラ俯角=θで正しく取り付けられていない場合、すなわち、カメラ俯角ズレ(Δθ)を有して取り付けられたカメラの撮影画像を用いた処理例である。
図9の(1)撮影画像は、図8(1)の撮影画像と同様、予め設定された正常なカメラ俯角(仮想視点方向と光軸のなす角)、すなわちカメラ俯角=θと異なるカメラ俯角ズレ(Δθ)を有して取り付けられたカメラ、すなわちカメラ俯角=θ+Δθを有するカメラによる撮影画像である。
図9(2)補正画像は、図8(2)の補正画像と同様の補正画像である。すなわち、図9(1)の撮影画像に対して、前述した補正画像生成用マッピングデータ、すなわち、正常な取り付け角度で取り付けられたカメラの撮影画像の変換のために生成された補正画像生成用マッビングデータを利用して生成した補正画像である。
この補正画像は、所定の視点方向(図1に示す仮想視点方向)から見た通常のカメラ撮影画像(補正画像(変換画像))に変換した補正画像である。
図9(1)の撮影画像は、正常なカメラ俯角=θと異なるカメラ俯角ズレ(Δθ)を有し、カメラ俯角=θ+Δθを有するカメラによる撮影画像であるため、正常な取り付け角度のカメラ撮影画像用の補正画像生成用マッビングデータを用いると、正しい変換がなされない。結果として、図9(2)補正画像中の垂直ポールは、画像の左右中心から画像左右方向に離れるに従って傾きが大きくなるように表示される。
図9(3)はオブジェクト距離算出用画像であり、図1に示す車両10のカメラ11の取り付け位置からさらに上の位置から車両の後方斜め下方向を観察した俯瞰画像である。この俯瞰画像も、正常な取り付け角度(カメラ俯角=θ)で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータを利用して生成した画像である。
すなわち、図9(3)に示す俯瞰画像は、カメラ俯角のズレ(Δθ)を考慮して生成した俯瞰画像である。
この3つの画像を用いて、オブジェクト距離を算出すると正しいオブジェクト距離の算出が可能となる。
すなわち、カメラ俯角のズレ(Δθ)を考慮して図9(3)に示すオブジェクト距離算出用画像を生成して、この画像を用いてオブジェクト距離算出を行うことで、正しいオブジェクト距離算出が可能となる。
図7、図8と同様、図9(2)補正画像中の1つの垂直ポール81までの距離を算出する例について説明する。
図9(2)補正画像中の1つの垂直ポール81と路面の交点の画素位置、すなわち補正画像中の画素位置を(Ha3,Va3)とする。
補正画像生成用マッピングデータを参照して、撮影画像中の対応画素位置を示す座標(H03,V03)を求めることができる。
さらに、図9(1)に示す撮影画像と、図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置を登録したマップである俯瞰画像生成用マッビングデータを参照して、撮影画像中の画素位置を示す座標(H03,V03)の図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置(Hb3,Vb3)が得られる。
ここで用いる俯瞰画像生成用マッビングデータは、正常な取り付け角度(カメラ俯角=θ)で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータではない。図9(1)撮影画像を撮影した実際のカメラのカメラ俯角ズレ(Δθ)を考慮した俯瞰画像生成用マッビングデータである。すなわち、カメラ俯角=θ+Δθで取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータである。
この図9(1)撮影画像を撮影した実際のカメラのカメラ俯角ズレ(Δθ)を考慮した俯瞰画像生成用マッビングデータ用いて、図9(1)に示す撮影画像と、図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置を算出して、図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)を生成する。
この結果、図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)における図9(1)撮影画像中の座標(H03,V03)の対応画素位置(Hb3,Vb3)は、実際の正しいオブジェクト距離を示すものとなる。
図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)の対応画素位置(Hb3,Vb3)は、カメラから左側に3m、奥行側に3mの位置を示している。これは、実際の垂直ポール81の位置となる。すなわち、先に図7を参照して説明したカメラから左側に3m、奥行側に3mの位置に一致する正しいオブジェクト距離となる。
このように、カメラ俯角のズレ(Δθ)を考慮して図9(3)に示すオブジェクト距離算出用画像を生成して、この画像を用いてオブジェクト距離算出を行うことで、正しいオブジェクト距離算出が可能となる。
[3.本開示の画像処理装置の構成と画像処理シーケンスについて]
次に、本開示の画像処理装置の構成と画像処理シーケンスについて説明する。
まず、図10を参照して本開示の画像処理装置の構成について説明する。
図10は、本開示の画像処理装置100の一構成例を示すブロック図である。
図10に示すように、本開示の画像処理装置100は、撮像部(カメラ)101、補正画像生成部102、垂直オブジェクト傾き算出部103、カメラ俯角ズレ算出部104、オブジェクト距離算出用画像生成部105、オブジェクト距離算出部106を有する。
なお、撮像部(カメラ)101は画像処理装置100の構成要素であることは必須ではなく、画像処理装置100が撮像部(カメラ)101を有さず、外部から入力した画像の画像処理を行う構成としてもよい。
以下、図1に示す画像処理装置100の各構成要素の実行する処理について説明する。
撮像部(カメラ)101は、画像を撮影する。図1に示す車両10に搭載されたカメラ11に相当する。
撮像部(カメラ)101は、魚眼レンズ等の広角レンズを備えたカメラである。
撮像部(カメラ)101の撮影画像は、補正画像生成部102に入力される。
補正画像生成部102は、撮像部(カメラ)101の撮影画像に対する補正処理を実行して補正画像を生成する。
具体的には、撮像部(カメラ)101の撮影画像に対する歪み補正と、視点変換を実行した補正画像を生成する。
先に図7~図9を参照して説明した(1)撮影画像から(2)補正画像を生成する処理である。
前述したように、(1)撮影画像から、(2)補正画像へ変換する画像変換処理は、カメラ俯角とカメラのレンズ歪情報に基づいて、例えば円筒状に投影する歪み補正と画像変換処理によって行われる。具体的な処理としては、対応画素位置のマッピング処理によって補正画像が生成される。
すなわち、変換前の画像(撮影画像)の画素位置P0(H0,V0)に対応する変換後の画像(補正画像)の画素位置P1(H1,V1)を登録した対応画素位置登録データであるマッピングデータ(補正画像生成用マッピングデータ)を利用して補正画像を生成する。
なお、ここで利用する補正画像生成用マッピングデータは、正しいカメラ俯角=θに設定された規定の正しい取り付けがなされたカメラのカメラ撮影画像用のマッピングデータであり、画像処理装置100の記憶部に予め格納されているデータである。
補正画像生成部102の生成する補正画像は、視点方向が路面に平行となる方向、すなわち、図1に示す仮想視点方向となるように視点変換がなされた画像であり、この補正画像が運転席のモニタに表示される。
補正画像生成部102の生成した補正画像は、垂直オブジェクト傾き算出部103に入力される。
垂直オブジェクト傾き算出部103は、補正画像生成部102の生成した補正画像から、実世界で路面に垂直に立つ垂直オブジェクトを抽出し、この垂直オブジェクトの傾き(α)を算出する。
なお、実世界で路面に垂直に立つ垂直オブジェクトとは、例えば、道路上の標識や、信号、電柱その他のポール、あるいは人など、様々な被写体から選択可能である。
垂直オブジェクト傾き算出部103は、補正画像生成部102内の垂直オブジェクトの傾き(α)を算出する。
先に説明したように、カメラ俯角が規定角度(θ)であるカメラの撮影画像を、カメラ俯角=θのカメラ撮影画像用の補正画像生成用マッピングデータを利用して変換すると、実世界の垂直オブジェクトは補正画像上でも垂直に表示される。
しかし、カメラ俯角が規定角度(θ)ではないカメラ俯角=θ+Δθであるカメラの撮影画像を、カメラ俯角=θのカメラ撮影画像用のマッピングデータを利用して変換すると、実世界の垂直オブジェクトは、画像の左右中心位置から左右に離れるにつれて傾いて表示される。
垂直オブジェクト傾き算出部103は、補正画像生成部102の生成した補正画像から、実世界で路面に垂直に立つ垂直オブジェクトを抽出し、この垂直オブジェクトの傾き(α)を算出する。
垂直オブジェクト傾き算出部103の算出した垂直オブジェクトの傾き(α)は、カメラ俯角ズレ算出部104に入力される。
カメラ俯角ズレ算出部104は、垂直オブジェクト傾き算出部103の算出した垂直オブジェクトの傾き(α)を利用して、撮像部(カメラ)101の俯角の基準角度(θ)からのズレ角(Δθ)を算出する。
カメラ俯角ズレ算出部104は、先に説明した以下の(式3)に従って撮像部(カメラ)101のカメラ俯角のズレ角(Δθ)を算出する。
Δθ=A×α×hmax/ha・・・(式3)
上記(式3)において、
Aは、補正画像のアスペクト比(垂直/水平)、
hmaxは、補正画像の左右中心位置から左右の画像端部までの距離(画像の長さ、または画素数)、
αは、垂直オブジェクトの傾き、
haは、垂直オブジェクトの補正画像の左右中心位置からの距離ha(画像の長さ、または画素数)、
である。
なお、前述したように、カメラ撮影画像中に複数(n個)の垂直オブジェクトが検出され、それぞれの垂直オブジェクト(1~n)について個別の傾き(α1~αn)が検出された場合は、個々のオブジェクト対応の傾き(α1~αn)に基づいて上記(式3)に従ってn個のカメラ俯角ズレ(Δθ1~Δθn)を算出し、このn個の算出値の平均、あるいは中間値を算出して算出値をカメラ俯角ズレ(Δθ)とするという処理を行ってもよい。
なお、撮像部(カメラ)101が規定のカメラ俯角(θ)で正常に取り付けられている場合は、カメラ俯角ズレ算出部104の算出するカメラ俯角ズレ(Δθ)は0、Δθ=0となる。
カメラ俯角ズレ算出部104の算出したカメラ俯角ズレ(Δθ)は、オブジェクト距離算出用画像(俯瞰画像)生成部105に入力される。
オブジェクト距離算出用画像(俯瞰画像)生成部105は、カメラ俯角ズレ算出部104の算出したカメラ俯角のズレ角(Δθ)を考慮して、オブジェクト距離算出用画像(俯瞰画像)を生成する。
この処理は、例えば先に図9を参照して説明した図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)の生成処理である。
オブジェクト距離算出用画像(俯瞰画像)生成部105は、俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像(俯瞰画像)を生成する。
ここで用いる俯瞰画像生成用マッビングデータは、撮像部(カメラ)101のカメラ俯角ズレ(Δθ)を考慮した俯瞰画像生成用マッビングデータである。すなわち、カメラ俯角=θ+Δθで取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータである。
なお、カメラ俯角ズレ算出部104の算出したカメラ俯角ズレΔθ=0の場合、すなわち撮像部(カメラ)101が規定のカメラ俯角(θ)で正常に取り付けられている場合は、カメラ俯角ズレ算出部104から入力するカメラ俯角のズレ角:Δθ=0である。
この場合は、オブジェクト距離算出用画像(俯瞰画像)生成部105は、正常な取り付け角度(カメラ俯角=θ)で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像(俯瞰画像)を生成する。
このオブジェクト距離算出用画像(俯瞰画像)は、先に図7(3)を参照して説明したオブジェクト距離算出用画像(俯瞰画像)である。
なお、俯瞰画像生成用マッビングデータは、画像処理装置100の記憶部に予め格納されている。例えば、所定範囲のカメラ俯角ズレΔθに対応した複数のデータが格納されている。具体的には、例えばΔθ=-5°+5°の範囲の複数のマッピングデータが記憶部に格納されている。
あるいは、記憶部には1つのΔθ=0マッピングデータのみを格納し、さらに、このマッピングデータをΔθ=-5°+5°の範囲のマッピングデータに変換するパラメータを併せて記憶した構成としてもよい。
このように、オブジェクト距離算出用画像(俯瞰画像)生成部105は、以下の2種類の処理のいずれかを選択的に実行する。
(処理1)カメラ俯角ズレ算出部104の算出したカメラ俯角ズレΔθ=0の場合は、正常な取り付け角度(カメラ俯角=θ)で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像(俯瞰画像)を生成する。
(処理2)カメラ俯角ズレ算出部104の算出したカメラ俯角ズレΔθ≠0の場合は、撮像部(カメラ)101のカメラ俯角ズレ(Δθ)を考慮した俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像(俯瞰画像)を生成する。
上記(処理1)は、先に図7を参照して説明した処理に対応し、(処理2)は、図9を参照して説明した処理に対応する。
オブジェクト距離算出用画像(俯瞰画像)生成部105の生成したオブジェクト距離算出用画像(俯瞰画像)は、オブジェクト距離算出部106に入力される。
オブジェクト距離算出部106は、オブジェクト距離算出用画像(俯瞰画像)生成部105の生成したオブジェクト距離算出用画像(俯瞰画像)を用いて、撮像部(カメラ)101の撮影画像に含まれる様々な被写体(オブジェクト)の距離を算出する。
先に図7等を参照して説明したように、オブジェクト距離算出用画像(俯瞰画像)は路面上を等縮尺した変換画像であるので、オブジェクト距離算出用画像(俯瞰画像)の画素位置から、実世界の位置を示す座標が求めることができる。実世界の位置を示す座標からカメラ(=車両)からの距離、すなわち被写体距離(オブジェクト距離)を算出することができる。
次に、図11に示すフローチャートを参照して本開示の画像処理装置100が実行する画像処理、具体的にはカメラ撮影画像に基づく被写体距離の算出シーケンスについて説明する。
なお、図11に示すフローチャートに従った処理は、画像処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を有するCPU等を備えたデータ処理部の制御の下で実行可能である。
以下、図11に示すフローの各ステップの処理について、順次、説明する。
(ステップS101)
まず、ステップS101において、撮像部(カメラ)101が画像を撮影する。図1に示す車両10に搭載されたカメラ11に相当する撮像部(カメラ)101が画像を撮影する。
なお、撮像部(カメラ)101は、魚眼レンズ等の広角レンズを備えたカメラであり、例えば図7(1)や図9(1)に示す撮影画像を撮影する。
(ステップS102)
次に、ステップS102において、ステップS101で撮像部(カメラ)101が撮影した画像に対する画像変換処理(補正処理)を実行して補正画像を生成する。
この処理は、図10に示す補正画像生成部102が実行する処理である。
補正画像生成部102は、撮像部(カメラ)101の撮影画像に対する歪み補正と、視点変換を実行した補正画像を生成する。具体的には、変換前の画像(撮影画像)の画素位置P0(H0,V0)に対応する変換後の画像(補正画像)の画素位置P1(H1,V1)を登録した対応画素位置登録データであるマッピングデータ(補正画像生成用マッピングデータ)を利用して補正画像を生成する。
なお、ここで利用する補正画像生成用マッピングデータは、正しいカメラ俯角=θに設定された規定の正しい取り付けがなされたカメラのカメラ撮影画像用のマッピングデータである。
ステップS102で生成する補正画像は、視点方向が路面に平行となる方向、すなわち、図1に示す仮想視点方向となるように視点変換がなされた画像であり、この補正画像が運転席のモニタに表示される。
(ステップS103)
次に、ステップS103において、ステップS102で生成された補正画像から、実世界で路面に垂直に立つ垂直オブジェクトを抽出し、この垂直オブジェクトの傾き(α)を算出する。垂直オブジェクトとは、例えば、道路上の標識や、信号、電柱その他のポール、あるいは人など、様々な被写体から選択可能である。
先に説明したように、カメラ俯角が規定角度(θ)であるカメラの撮影画像を、カメラ俯角=θのカメラ撮影画像用の補正画像生成用マッピングデータを利用して変換すると、実世界の垂直オブジェクトは補正画像上でも垂直に表示される。
しかし、カメラ俯角が規定角度(θ)ではないカメラ俯角=θ+Δθであるカメラの撮影画像を、カメラ俯角=θのカメラ撮影画像用のマッピングデータを利用して変換すると、実世界の垂直オブジェクトは、画像の左右中心位置から左右に離れるにつれて傾いて表示される。
垂直オブジェクト傾き算出部103は、ステップS103において、補正画像生成部102の生成した補正画像から、実世界で路面に垂直に立つ垂直オブジェクトを抽出し、この垂直オブジェクトの傾き(α)を算出する。
(ステップS104)
次に、ステップS104において、ステップS103で検出した垂直オブジェクトの傾き(α)を利用して、撮像部(カメラ)101の俯角の基準角度(θ)からのズレ角(Δθ)を算出する。
この処理は、図10に示すカメラ俯角ズレ算出部104が実行する処理である。
カメラ俯角ズレ算出部104は、先に説明した以下の(式3)に従って撮像部(カメラ)101のカメラ俯角のズレ角(Δθ)を算出する。
Δθ=A×α×hmax/ha・・・(式3)
上記(式3)において、
Aは、補正画像のアスペクト比(垂直/水平)、
hmaxは、補正画像の左右中心位置から左右の画像端部までの距離(画像の長さ、または画素数)、
αは、垂直オブジェクトの傾き、
haは、垂直オブジェクトの補正画像の左右中心位置からの距離ha(画像の長さ、または画素数)、
である。
なお、前述したように、カメラ撮影画像中に複数(n個)の垂直オブジェクトが検出され、それぞれの垂直オブジェクト(1~n)について個別の傾き(α1~αn)が検出された場合は、個々のオブジェクト対応の傾き(α1~αn)に基づいて上記(式3)に従ってn個のカメラ俯角ズレ(Δθ1~Δθn)を算出し、このn個の算出値の平均、あるいは中間値を算出して算出値をカメラ俯角ズレ(Δθ)とするという処理を行ってもよい。
なお、撮像部(カメラ)101が規定のカメラ俯角(θ)で正常に取り付けられている場合は、カメラ俯角ズレ算出部104の算出するカメラ俯角ズレ(Δθ)は0、Δθ=0となる。
(ステップS105)
ステップS105~S107の処理は、図10に示すオブジェクト距離算出用画像(俯瞰画像)生成部105が実行する処理である。
オブジェクト距離算出用画像(俯瞰画像)生成部105は、カメラ俯角ズレ算出部104の算出したカメラ俯角のズレ角(Δθ)を考慮して、オブジェクト距離算出用画像(俯瞰画像)を生成する。
オブジェクト距離算出用画像(俯瞰画像)生成部105は、まず、ステップS105において、ステップS104でカメラ俯角ズレ算出部104が算出したカメラ俯角ズレΔθが予め規定したしきい値Th以下であるか否かを判定する。
カメラ俯角ズレΔθが予め規定したしきい値Th以下であると判定した場合は、ステップS106に進む。
一方、カメラ俯角ズレΔθが予め規定したしきい値Th以下でないと判定した場合は、ステップS107に進む。
(ステップS106)
ステップS105において、カメラ俯角ズレΔθが予め規定したしきい値Th以下であると判定した場合は、ステップS106の処理を実行する。
カメラ俯角ズレΔθが予め規定したしきい値Th以下である場合は、撮像部(カメラ)101が、ほぼ正常な取り付け角度(カメラ俯角=θ)で取り付けられていることを意味する。
この場合は、ステップS106において、正常な取り付け角度(カメラ俯角=θ)で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像(俯瞰画像)を生成する。
この処理は、先に図7を参照して説明した図7(3)に示すオブジェクト距離算出用画像(俯瞰画像)の生成処理である。
(ステップS107)
一方、ステップS105において、カメラ俯角ズレΔθが予め規定したしきい値Th以下でないと判定した場合は、ステップS107の処理を実行する。
カメラ俯角ズレΔθが予め規定したしきい値Th以下でない場合は、撮像部(カメラ)101が、ほぼ正常な取り付け角度(カメラ俯角=θ)で取り付けられていないことを意味する。
撮像部(カメラ)101のカメラ俯角は、ズレ(Δθ)を有し、カメラ俯角=θ+Δθである。
この場合は、ステップS107において、撮像部(カメラ)101のカメラ俯角ズレ(Δθ)を考慮した俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像(俯瞰画像)を生成する。
この処理は、先に図9を参照して説明した図9(3)に示すオブジェクト距離算出用画像(俯瞰画像)の生成処理である。
(ステップS108)
最後に、ステップS108において、ステップS106,S107でオブジェクト距離算出用画像(俯瞰画像)生成部105が生成したオブジェクト距離算出用画像(俯瞰画像)を用いて、被写体距離(オブジェクト距離)を算出する。
この処理は、図10に示すオブジェクト距離算出部106が実行する。
オブジェクト距離算出部106は、ステップS108において、ステップS106,S107でオブジェクト距離算出用画像(俯瞰画像)生成部105が生成したオブジェクト距離算出用画像(俯瞰画像)を用いて、撮像部(カメラ)101の撮影画像に含まれる様々な被写体(オブジェクト)の距離を算出する。
先に説明したように、オブジェクト距離算出用画像(俯瞰画像)は路面上を等縮尺した変換画像であるので、オブジェクト距離算出用画像(俯瞰画像)の画素位置から、実世界の位置を示す座標が求めることができる。実世界の位置を示す座標からカメラ(=車体)からの距離、すなわち被写体距離(オブジェクト距離)を算出することができる。
このように、本開示の画像処理装置は、正常な取り付け角度であるカメラの撮影画像であっても、正常な取り付け角度でないカメラの撮影画像であっても、いずれの場合にも被写体までの距離(オブジェクト距離)を正確に算出することができる。
[4.本開示の画像処理装置のハードウェア構成例について]
次に、上述した実施例において説明した画像処理装置100のハードウェア構成例について、図12を参照して説明する。
図12は、本開示の処理を実行する画像処理装置のハードウェア構成例を示す図である。
CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、撮像部321の撮影画像の入力を行うとともに、ユーザ入力可能な各種スイッチ、キーボード、マウス、マイクロフォンなどよりなる入力部306、表示部322やスピーカなどに対するデータ出力を実行する出力部307が接続されている。CPU301は、入力部306から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部307に出力する。
入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
[5.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成する補正画像生成部と、
実世界上の垂直オブジェクトの前記補正画像における傾きを算出する垂直オブジェクト傾き算出部と、
前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出するカメラ俯角ズレ算出部と、
前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成するオブジェクト距離算出用画像生成部と、
前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出するオブジェクト距離算出部を有する画像処理装置。
(2) 前記補正画像生成部は、
規定のカメラ俯角を有するカメラの撮影画像を、予め規定した視点方向からの画像に変換するための画素位置を対応付けた補正画像生成用マッピングデータを利用して前記補正画像を生成する(1)に記載の画像処理装置。
(3) 前記カメラ俯角ズレ算出部は、
前記カメラの光軸方向と、前記補正画像の視点方向とのなす角であるカメラ俯角の規定角度からのズレ角を算出する(1)または(2)に記載の画像処理装置。
(4) 前記カメラ俯角ズレ算出部は、
前記補正画像のアスペクト比(垂直/水平)Aと、
前記補正画像の左右中心位置から左右の画像端部までの距離hmaxと、
前記補正画像の左右中心位置から任意距離haの垂直オブジェクトの傾きα、
これらの値を用いて、前記カメラのカメラ俯角のズレ角Δθを、
Δθ=A×α×hmax/ha
上記式に従って算出する(1)~(3)いずれかに記載の画像処理装置。
(5) 前記カメラ俯角ズレ算出部は、
前記カメラの撮影画像内の複数(n個)の垂直オブジェクト各々に対応する複数の傾き(α1~αn)に基づいて、n個のカメラ俯角ズレ(Δθ1~Δθn)を算出し、算出したn個のカメラ俯角ズレ(Δθ1~Δθn)の平均、あるいは中間値を最終的なカメラ俯角ズレ(Δθ)として算出する(1)~(4)いずれかに記載の画像処理装置。
(6) 前記オブジェクト距離算出用画像生成部は、
オブジェクト距離算出用画像として、実世界の位置を反映した俯瞰画像を生成する(1)~(5)いずれかに記載の画像処理装置。
(7) 前記オブジェクト距離算出用画像生成部は、
前記カメラのカメラ俯角ズレ角が規定しきい値以下である場合は、正常な取り付け角度で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータを利用して前記オブジェクト距離算出用画像を生成する(1)~(6)いずれかに記載の画像処理装置。
(8) 前記オブジェクト距離算出用画像生成部は、
前記カメラのカメラ俯角ズレ角が規定しきい値以下でない場合は、前記カメラのカメラ俯角ズレを考慮した俯瞰画像生成用マッビングデータを利用して前記オブジェクト距離算出用画像を生成する(1)~(7)いずれかに記載の画像処理装置。
(9) 画像処理装置において実行する画像処理方法であり、
補正画像生成部が、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成するステップと、
垂直オブジェクト傾き算出部が、実世界上の垂直オブジェクトの前記補正画像における傾きを算出するステップと、
カメラ俯角ズレ算出部が、前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出するステップと、
オブジェクト距離算出用画像生成部が、前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成するステップと、
オブジェクト距離算出部が、前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出するステップを実行する画像処理方法。
(10) 画像処理装置において画像処理を実行させるプログラムであり、
補正画像生成部に、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成させるステップと、
垂直オブジェクト傾き算出部に、実世界上の垂直オブジェクトの前記補正画像における傾きを算出させるステップと、
カメラ俯角ズレ算出部に、前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出させるステップと、
オブジェクト距離算出用画像生成部に、前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成させるステップと、
オブジェクト距離算出部に、前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出させるステップを実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、カメラの取り付け角度にズレがある場合においても、カメラ撮影画像に基づいて正確な被写体距離を算出可能とする構成が実現される。
具体的には、例えば、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成する。さらに、実世界上の垂直オブジェクトの補正画像における傾きを算出し、垂直オブジェクトの傾きに基づいて、カメラのカメラ俯角のズレ角を算出し、カメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成して、オブジェクト距離算出用画像からカメラの撮影画像に含まれるオブジェクトの距離を算出する。カメラ俯角ズレ角が規定しきい値以下でない場合は、カメラ俯角ズレを考慮した俯瞰画像生成用マッビングデータを利用してオブジェクト距離算出用画像を生成する。
これらの構成により、カメラの取り付け角度にズレがある場合においても、カメラ撮影画像に基づいて正確な被写体距離を算出可能とする構成が実現される。
10 車両
11 カメラ
20 路面
30 垂直ポール
40 人
81 垂直ポール
100 画像処理装置
101 撮像部(カメラ)
102 補正画像生成部
103 垂直オブジェクト傾き算出部
104 カメラ俯角ズレ算出部
105 オブジェクト距離算出用画像生成部
106 オブジェクト距離算出部
301 CPU
302 ROM
303 RAM
304 バス
305 入出力インタフェース
306 入力部
307 出力部
308 記憶部
309 通信部
310 ドライブ
311 リムーバブルメディア
321 撮像部
322 表示部

Claims (10)

  1. 広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成する補正画像生成部と、
    実世界上の垂直オブジェクトの前記補正画像における傾きを算出する垂直オブジェクト傾き算出部と、
    前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出するカメラ俯角ズレ算出部と、
    前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成するオブジェクト距離算出用画像生成部と、
    前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出するオブジェクト距離算出部を有する画像処理装置。
  2. 前記補正画像生成部は、
    規定のカメラ俯角を有するカメラの撮影画像を、予め規定した視点方向からの画像に変換するための画素位置を対応付けた補正画像生成用マッピングデータを利用して前記補正画像を生成する請求項1に記載の画像処理装置。
  3. 前記カメラ俯角ズレ算出部は、
    前記カメラの光軸方向と、前記補正画像の視点方向とのなす角であるカメラ俯角の規定角度からのズレ角を算出する請求項1に記載の画像処理装置。
  4. 前記カメラ俯角ズレ算出部は、
    前記補正画像のアスペクト比(垂直/水平)Aと、
    前記補正画像の左右中心位置から左右の画像端部までの距離hmaxと、
    前記補正画像の左右中心位置から任意距離haの垂直オブジェクトの傾きα、
    これらの値を用いて、前記カメラのカメラ俯角のズレ角Δθを、
    Δθ=A×α×hmax/ha
    上記式に従って算出する請求項1に記載の画像処理装置。
  5. 前記カメラ俯角ズレ算出部は、
    前記カメラの撮影画像内の複数(n個)の垂直オブジェクト各々に対応する複数の傾き(α1~αn)に基づいて、n個のカメラ俯角ズレ(Δθ1~Δθn)を算出し、算出したn個のカメラ俯角ズレ(Δθ1~Δθn)の平均、あるいは中間値を最終的なカメラ俯角ズレ(Δθ)として算出する請求項1に記載の画像処理装置。
  6. 前記オブジェクト距離算出用画像生成部は、
    オブジェクト距離算出用画像として、実世界の位置を反映した俯瞰画像を生成する請求項1に記載の画像処理装置。
  7. 前記オブジェクト距離算出用画像生成部は、
    前記カメラのカメラ俯角ズレ角が規定しきい値以下である場合は、正常な取り付け角度で取り付けられたカメラの撮影画像から俯瞰画像を生成する俯瞰画像生成用マッビングデータを利用して前記オブジェクト距離算出用画像を生成する請求項1に記載の画像処理装置。
  8. 前記オブジェクト距離算出用画像生成部は、
    前記カメラのカメラ俯角ズレ角が規定しきい値以下でない場合は、前記カメラのカメラ俯角ズレを考慮した俯瞰画像生成用マッビングデータを利用して前記オブジェクト距離算出用画像を生成する請求項1に記載の画像処理装置。
  9. 画像処理装置において実行する画像処理方法であり、
    補正画像生成部が、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成するステップと、
    垂直オブジェクト傾き算出部が、実世界上の垂直オブジェクトの前記補正画像における傾きを算出するステップと、
    カメラ俯角ズレ算出部が、前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出するステップと、
    オブジェクト距離算出用画像生成部が、前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成するステップと、
    オブジェクト距離算出部が、前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出するステップを実行する画像処理方法。
  10. 画像処理装置において画像処理を実行させるプログラムであり、
    補正画像生成部に、広角レンズを有するカメラの撮影画像を入力して歪み補正を行い、補正画像を生成させるステップと、
    垂直オブジェクト傾き算出部に、実世界上の垂直オブジェクトの前記補正画像における傾きを算出させるステップと、
    カメラ俯角ズレ算出部に、前記垂直オブジェクトの傾きに基づいて、前記カメラのカメラ俯角のズレ角を算出させるステップと、
    オブジェクト距離算出用画像生成部に、前記カメラのカメラ俯角ズレ角を考慮したオブジェクト距離算出用画像を生成させるステップと、
    オブジェクト距離算出部に、前記オブジェクト距離算出用画像を参照して、前記カメラの撮影画像に含まれるオブジェクトの距離を算出させるステップを実行させるプログラム。
JP2020558293A 2018-11-20 2019-11-11 画像処理装置、および画像処理方法、並びにプログラム Active JP7308227B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018217023 2018-11-20
JP2018217023 2018-11-20
PCT/JP2019/044181 WO2020105499A1 (ja) 2018-11-20 2019-11-11 画像処理装置、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2020105499A1 JPWO2020105499A1 (ja) 2021-10-14
JP7308227B2 true JP7308227B2 (ja) 2023-07-13

Family

ID=70773431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558293A Active JP7308227B2 (ja) 2018-11-20 2019-11-11 画像処理装置、および画像処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US11836945B2 (ja)
EP (1) EP3885701A4 (ja)
JP (1) JP7308227B2 (ja)
KR (1) KR20210091146A (ja)
CN (1) CN113015884B (ja)
WO (1) WO2020105499A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7208356B2 (ja) * 2018-09-26 2023-01-18 コーヒレント・ロジックス・インコーポレーテッド 任意の世界ビューの生成
KR102615479B1 (ko) * 2021-11-24 2023-12-19 현대모비스 주식회사 램프 및 그것의 동작 방법, 차량

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116008A (ja) 2000-10-11 2002-04-19 Fujitsu Ltd 距離測定装置及び映像監視装置
WO2016189878A1 (ja) 2015-05-27 2016-12-01 京セラ株式会社 演算装置、カメラ装置、車両及びキャリブレーション方法
WO2017179722A1 (ja) 2016-04-15 2017-10-19 パナソニックIpマネジメント株式会社 画像処理装置及び撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5923422B2 (ja) 1979-11-26 1984-06-01 松下電子工業株式会社 メタルハライドランプ
JP4104631B2 (ja) * 2006-03-27 2008-06-18 三洋電機株式会社 運転支援装置
JP5173551B2 (ja) 2008-04-23 2013-04-03 アルパイン株式会社 車両周辺監視装置およびこれに適用されるカメラ取り付け位置・姿勢情報の設定修正方法
JP5481337B2 (ja) 2010-09-24 2014-04-23 株式会社東芝 画像処理装置
JP5923422B2 (ja) 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置
CN109313021B (zh) 2016-06-08 2021-10-29 索尼公司 成像控制装置和方法、以及车辆
US10420397B2 (en) * 2016-12-14 2019-09-24 Black Brass, Inc. Foot measuring and sizing application

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116008A (ja) 2000-10-11 2002-04-19 Fujitsu Ltd 距離測定装置及び映像監視装置
WO2016189878A1 (ja) 2015-05-27 2016-12-01 京セラ株式会社 演算装置、カメラ装置、車両及びキャリブレーション方法
WO2017179722A1 (ja) 2016-04-15 2017-10-19 パナソニックIpマネジメント株式会社 画像処理装置及び撮像装置

Also Published As

Publication number Publication date
KR20210091146A (ko) 2021-07-21
CN113015884A (zh) 2021-06-22
CN113015884B (zh) 2023-10-10
EP3885701A1 (en) 2021-09-29
EP3885701A4 (en) 2022-01-26
US11836945B2 (en) 2023-12-05
US20220051435A1 (en) 2022-02-17
JPWO2020105499A1 (ja) 2021-10-14
WO2020105499A1 (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
US20190089888A1 (en) Image distortion correction of a camera with a rolling shutter
JP4193886B2 (ja) 画像表示装置
WO2017135081A1 (ja) 車載カメラ用校正システム
JP5804185B2 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
JP2018026143A (ja) 道路の垂直輪郭検出
EP2597614A1 (en) Automotive camera system and its calibration method and calibration program
KR102538592B1 (ko) 탑-뷰 영상 생성 장치 및 그 방법
US8350909B2 (en) Method and in-vehicle device for correcting alignment information representative of the alignment of an in-vehicle camera
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP6392693B2 (ja) 車両周辺監視装置、車両周辺監視方法、及びプログラム
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
US10110822B2 (en) Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera
JP7308227B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2018235300A1 (ja) 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
JP5228614B2 (ja) パラメータ計算装置、パラメータ計算システムおよびプログラム
US11295478B2 (en) Stereo camera calibration method and image processing device for stereo camera
JP2013024712A (ja) 複数カメラの校正方法及び校正システム
WO2019058729A1 (ja) ステレオカメラ
TWI424259B (zh) 相機擺置角度校正法
JP7405710B2 (ja) 処理装置及び車載カメラ装置
JP6734136B2 (ja) 画像処理装置
JP2014127834A (ja) 車載カメラ用キャリブレーションシステム
JP5580062B2 (ja) 障害物検知警報装置
JP2012122734A (ja) 移動体位置推定装置及び移動体位置推定方法
KR102055276B1 (ko) 사람계수 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7308227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150