JP3968375B2 - 周辺監視装置および周辺監視方法 - Google Patents

周辺監視装置および周辺監視方法 Download PDF

Info

Publication number
JP3968375B2
JP3968375B2 JP2006519031A JP2006519031A JP3968375B2 JP 3968375 B2 JP3968375 B2 JP 3968375B2 JP 2006519031 A JP2006519031 A JP 2006519031A JP 2006519031 A JP2006519031 A JP 2006519031A JP 3968375 B2 JP3968375 B2 JP 3968375B2
Authority
JP
Japan
Prior art keywords
image
parameter
coordinate conversion
camera
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006519031A
Other languages
English (en)
Other versions
JPWO2006087993A1 (ja
Inventor
一生 登
政喜 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3968375B2 publication Critical patent/JP3968375B2/ja
Publication of JPWO2006087993A1 publication Critical patent/JPWO2006087993A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/0875Registering performance data using magnetic data carriers
    • G07C5/0891Video recorder in combination with video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、カメラで撮像された画像を用いて周辺画像を生成する周辺監視装置に関するものである。
従来、カメラで撮像した画像を変形加工し、あたかも仮想的な視点から撮像されたかのような合成画像や、複数のカメラで撮像した画像を接合した合成画像を生成する画像合成技術を用いた周辺監視装置がある。
このような周辺監視装置の例として、複数台のカメラによって車両周辺を撮像し、撮像された画像を変形加工して自車両周辺を上方から見た画像を合成する周辺監視装置が開示されている(例えば、特許文献1〜3参照)。
図1は、特許文献2に記載された従来の周辺監視装置の構成図と合成画像の例を示す図である。図1(a)に示す従来の周辺監視装置では、画像メモリ7−1〜7−8はカメラで撮像された撮像画像を一時的に記憶し、アドレスカウンター13−1、垂直アドレスルックアップテーブル(LUT)13−2、水平アドレスLUT13−3、メモリセレクタ用LUT13−4の組み合わせによって、合成画像の各画素に対応する撮像画像の画像座標、すなわち画像メモリ中のアドレスを生成し、メモリセレクタ13−5によって画像メモリの画像を読み出す。この周辺監視装置を用いると、複数のカメラで撮像された画像から、図1(b)のようにあたかも車両の上方から撮像したかのような合成画像を生成することができる。このような周辺監視装置を用いて車両周辺を観察した場合、運転席からは直接見ることができない死角領域を画面上で確認することができるので、周辺物との衝突の防止や、運転操作を容易にできるという利点がある。特に、上記したルックアップテーブルによって構成した周辺監視装置は、撮像画像と合成画像との座標の対応関係をあらかじめ計算してルックアップテーブルに記憶しておき、実行時にはルックアップテーブルの参照によって画像を合成できるため、実行時の計算負荷が小さいという利点がある。
しかしながら、前記従来の構成では、設計上のカメラ取り付け位置を基準にルックアップテーブルを作成した後に車両へのカメラ取り付け位置に設計値との誤差が生じた場合や、カメラ取り付け後に測定されたカメラ位置を基準としてルックアップテーブルを作成した後に車両へのカメラの取り付け位置や車両の姿勢が変動した場合、ルックアップテーブル作成時のカメラ位置とはカメラの位置(向きも含む)がずれた撮像画像が入力されることとなる。その結果、合成画像中の路面や他車両などの周辺物の位置が、ルックアップテーブル作成時の合成画像に対して位置がずれたり、合成画像のカメラ間の接合部が不連続になるなどのように、合成画像が歪むという課題がある。特に、周辺物の位置がずれた合成画像に、自車両の位置や距離の基準となる図形を重畳した場合、周辺物と自車両との位置関係を誤解してしまう可能性があるため好ましくない。以降の説明のため、ルックアップテーブル作成時のカメラ位置を「基準カメラ位置」、基準カメラ位置に基づいて生成されたルックアップテーブルなどの画像合成パラメタを「基準画像合成パラメタ」、基準カメラ位置での撮像画像と基準画像合成パラメタとを用いて合成された画像を「基準合成画像」と呼ぶ。
このようなカメラの位置ずれによる合成画像の歪みを補正する方法として、カメラ取り付け後のカメラの位置や内部パラメタなどを計測する、いわゆるカメラ・キャリブレーション方法が知られている。(例えば非特許文献1参照)。
カメラの取り付け位置の変動があった場合でも、このカメラ・キャリブレーション方法を用いてカメラの取り付け位置を計測し、ルックアップテーブルを再計算することで、基準合成画像との位置ずれがほとんど無い合成画像を合成することが可能になる。
特開昭58−110334号公報 特開平11−78692号公報 特許第3286306号公報 "An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision", Roger Y. Tsai, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, 1986, pages 364-374.
しかしながら、カメラ・キャリブレーションのためには、大きさが既知の被写体が必要である上、カメラ位置を算出するための計算やルックアップテーブルの再計算のための計算負荷が大きいという別の課題がある。
例えば、車両の組み立て工場においてカメラを車両に取り付ける際、同じ車種の車両であってもオプション装備の有無による車両重量の差や、タイヤのサイズの違いなどによっても車高や車両の傾きが変わる。そのため、同一車種で共通の基準カメラ位置とルックアップテーブルを用いた場合、カメラが車両に設計通りに取り付けられたとしても、周辺物に対するカメラの位置にずれが発生する。このため、1台ずつ例えばカメラ・キャリブレーション等の方法によってずれを調整しなければならないので、この調整に時間を要することになる。
また、車両の姿勢変動をセンサなどで計測した上で、ルックアップテーブルを再計算するという別の方法も考えられるが、同様に計算負荷が大きいという別の課題がある。特に、ルックアップテーブルを用いて構成した従来の周辺監視装置は、実行時の計算負荷が小さいことが利点であるため、補正のために計算負荷が大きくなることはその利点を損なう。
また、カメラの位置ずれによる合成画像の歪みを補正する別の方法としては、カメラの位置ずれ量に応じたルックアップテーブルを複数用意しておき、実行時に複数のルックアップテーブルから選択するという方法も考えられるが、ルックアップテーブルを記憶するためのメモリ量が膨大になるという別の課題がある。さらには、補正の方法によっては、合成画像での誤差が大きくなるという別の課題もある。
そこで、本発明は上記の事情に鑑みてなされたものであり、ルックアップテーブルなどの画像合成のためのパラメタ算出に用いた基準カメラ位置に対して、カメラの位置ずれが発生した場合に、カメラの位置ずれに伴って生じる表示画像上の歪みを低減することができる周辺監視装置および周辺監視方法を提供することを目的とする。
上記目的を達成するため、本発明に係る周辺監視装置は、カメラによって撮像された撮像画像を用いて周辺画像を生成する周辺監視装置であって、前記カメラの位置変動に関する情報である位置ずれ情報を取得する位置ずれ情報取得部と、前記位置ずれ情報取得部によって取得された前記位置ずれ情報に基づいて、前記位置変動に伴う前記周辺画像の歪みを補正するための座標変換パラメタを取得する座標変換パラメタ取得部と、前記撮像画像を用いて前記周辺画像を生成するための、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報を含む基準画像合成パラメタを取得する画像合成パラメタ取得部と、前記画像合成パラメタ取得部によって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得部によって取得された前記座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する座標変換部と、前記撮像画像に対して前記変換画像合成パラメタを用いて、前記周辺画像を生成して出力する画像合成部とを備え、前記基準画像合成パラメタは、ルックアップテーブルを作成する際のカメラ位置に基づいて生成されたルックアップテーブルを含み、前記ルックアップテーブルは、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報であることを特徴とする。
本発明に係る周辺監視装置および周辺監視方法によれば、カメラの位置ずれがある撮像画像を用いた場合であっても、カメラの位置ずれに伴って生じる周辺画像上の歪みを簡単に低減することができる。
本発明の実施の形態に係る周辺監視装置は、カメラによって撮像された撮像画像を用いて周辺画像を生成する周辺監視装置であって、前記カメラの位置変動に関する情報である位置ずれ情報を取得する位置ずれ情報取得部と、前記位置ずれ情報取得部によって取得された前記位置ずれ情報に基づいて、前記位置変動に伴う前記周辺画像の歪みを補正するための座標変換パラメタを取得する座標変換パラメタ取得部と、前記撮像画像を用いて前記周辺画像を生成するための、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報を含む基準画像合成パラメタを取得する画像合成パラメタ取得部と、前記画像合成パラメタ取得部によって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得部によって取得された前記座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する座標変換部と、前記撮像画像に対して前記変換画像合成パラメタを用いて、前記周辺画像を生成して出力する画像合成部とを備えることを特徴とする。
これによって、カメラの位置ずれがある撮像画像を用いた場合であっても、カメラの位置ずれに伴って生じる周辺画像上の歪みを簡単に低減することができる。また、これによって、周辺画像の生成に用いる基準画像合成パラメタは、位置ずれ情報に基づいて座標変換されるので、カメラの位置ずれがある撮像画像を用いた場合であっても、カメラの位置ずれに伴って生じる周辺画像上の歪みを低減することができる。また、カメラの位置ずれ量に応じた基準画像合成パラメタのテーブルを複数用意しておく必要がないので、メモリ量が膨大になることを防ぐことができる。
また、前記周辺監視装置は、さらに、前記画像合成部によって生成された前記周辺画像に図形を重畳合成して出力する図形合成部を備え、前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された前記位置ずれ情報、および前記図形合成部によって重畳合成される前記図形に基づいて、前記座標変換パラメタを取得してもよい。
これによって、周辺画像に重畳合成される図形に応じて座標変換を行うことができ、図形と周辺画像のずれを少なくすることができる。
また、前記画像合成パラメタ取得部は、少なくとも1つの基準画像合成パラメタをあらかじめ記憶している画像合成パラメタ記憶部と、少なくとも1つの前記基準画像合成パラメタから1つの基準画像合成パラメタを選択する画像合成パラメタ選択部とを備えてもよい。
ここで、前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された前記位置ずれ情報、および前記画像合成パラメタ選択部によって選択された前記基準画像合成パラメタに基づいて、前記座標変換パラメタを取得してもよい。
これによって、周辺画像の生成に用いる基準画像合成パラメタに応じて、すなわち周辺画像の構図に応じて座標変換されるので、カメラの位置ずれがある撮像画像を用いた場合であっても、カメラの位置ずれに伴って生じる周辺画像上の歪みを低減することができる。
また、前記基準画像合成パラメタは、複数のカメラによって撮像された複数の前記撮像画像を用いて前記周辺画像を生成するための、複数の前記撮像画像の画像座標の情報を含み、前記位置ずれ情報取得部は、複数の前記カメラの位置変動に関する情報である複数の位置ずれ情報を取得し、前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された複数の前記位置ずれ情報に基づいて、複数の前記座標変換パラメタを取得し、前記座標変換部は、前記画像合成パラメタ取得部によって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得部によって取得された複数の前記座標変換パラメタを用いて座標変換し、前記変換画像合成パラメタとして出力し、前記画像合成部は、複数の前記撮像画像に対して前記座標変換パラメタ取得部によって取得された複数の前記座標変換パラメタを用いて、前記周辺画像を生成してもよい。
これによって、周辺画像の生成に用いる基準画像合成パラメタに応じて、すなわち周辺画像の構図に応じて座標変換されるので、カメラの位置ずれがある撮像画像を用いた場合であっても、周辺画像上での複数の撮像画像のずれを少なくすることができる。
また、前記画像合成パラメタ取得部は、前記撮像画像の範囲外の画像座標の情報を含む前記基準画像合成パラメタを取得してもよい。
これによって、基準画像合成パラメタに含まれる画像座標が撮像画像の範囲外であっても、その画像座標を座標変換して得た画像座標は撮像画像の範囲内になる場合があるため、結果として変換画像合成パラメタに含まれる撮像画像の範囲内である画像座標を増やす、すなわち周辺画像上の有効な画素を増やすことができる。
なお、本発明は、このような周辺監視装置として実現することができるだけでなく、このような周辺監視装置が備える特徴的な部をステップとする周辺監視方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
以下、本発明の各実施の形態について、それぞれ図面を参照しながら説明する。
(実施の形態1)
図2は本発明の実施の形態1に係る周辺監視装置の構成を示すブロック図である。
周辺監視装置は、例えば自動車等の移動体に搭載され、カメラで撮像された撮像画像を変形加工して合成画像(周辺画像)を生成するための装置であり、図2に示すようにカメラ101、A/D変換機102、フレームメモリ103、画像合成部104、図形合成部105、D/A変換器106、ディスプレイ107、位置ずれ情報取得部108、移動体状態検出部109、座標変換パラメタ取得部120、座標変換部112、および画像合成パラメタ取得部121を備えている。
カメラ101は周辺を撮像して動画像を出力する。A/D変換器102はアナログ信号である動画像をデジタル化する。フレームメモリ103はデジタル化された動画像を一時的に保持する。なお、カメラ101、A/D変換機102、およびフレームメモリ103は、少なくとも1つ以上あればよい。また、フレームメモリ103は、カメラ101から出力される動画像を連続して読み込むと同時に、少なくとも1フレーム以上の画像データを一時的に保持する、いわゆるダブルバッファ構成のフレームメモリである。また、フレームメモリ103は、画像合成部104からの読み出し要求に応じて、保持された1フレーム分の画像の任意の画素データの読み出しが可能なように構成されている。
位置ずれ情報取得部108では、各カメラの位置ずれ量をユーザーのスイッチ操作によって受け付け、受け付けられた各カメラの位置ずれ量をカメラ位置ずれ情報として出力する。なお、本実施の形態1では、各カメラの位置ずれ量をユーザーより受け付けているが、これに限られるものではない。例えば、センサ等によって各カメラの位置ずれ量を検出し、検出された各カメラの位置ずれ量をカメラ位置ずれ情報として出力しても構わない。
移動体状態検出部109は、車両速度、シフトレバー、舵角を検出し、移動体状態として出力する。なお、本実施の形態1では、車両速度、シフトレバー、舵角を検出しているが、これに限られるものではない。例えば、移動体状態検出部109は、イグニッションキー、シフトレバー、ウィンカーなどのユーザーが操作するスイッチ類、または、車両の速度、移動方向を検出する車速センサや舵角センサなどのセンサ類のうち、いずれか1つ、または複数の検出結果を、移動体状態として出力すればよい。
座標変換パラメタ取得部120は、座標変換パラメタ選択部110、および座標変換パラメタ記憶部111を備えている。座標変換パラメタ記憶部111は、複数の座標変換パラメタをあらかじめ記憶している。座標変換パラメタ選択部110は、カメラ位置ずれ情報に応じて、座標変換パラメタ記憶部111に記憶された複数の座標変換パラメタの中から1つを選択して出力する。
画像合成パラメタ取得部121は、画像合成パラメタ選択部113、および画像合成パラメタ記憶部114を備えている。画像合成パラメタ記憶部114は少なくとも1つ以上の基準画像合成パラメタと、少なくとも1つ以上の図形パラメタをあらかじめ記憶している。画像合成パラメタ選択部113は、移動体状態に応じて画像合成パラメタ記憶部114に記憶された基準画像合成パラメタおよび図形パラメタの中から1つを選択して出力する。
座標変換部112は、画像合成パラメタ選択部113から出力された基準画像合成パラメタに含まれる撮像画像の画像座標を、座標変換パラメタ選択部110から出力された座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する。
画像合成部104は、座標変換部112から出力された変換画像合成パラメタに応じて、フレームメモリ103から画像を順次読み出して、合成画像を生成して出力する。図形合成部105は、画像合成部104から出力された合成画像に画像合成パラメタ選択部113から出力された図形パラメタに応じた図形を重畳し、図形付き合成画像として出力する。D/A変換器106は、図形付き合成画像をアナログ信号に変換する。ディスプレイ107は、アナログ信号に変換された図形付き合成画像を表示する。
本実施の形態1では、周辺監視装置が車両Aに搭載され、カメラ101は3台である場合について説明する。図3はこの場合の設置例を示す図である。図2における複数のカメラ101は、図3におけるカメラ101a〜101c(カメラ1〜3)に対応しており、各カメラは車両の周辺を撮像するように車両に設置されている。また、ディスプレイ107は、車両内の運転者から見える位置に、その他の処理部は車両の内部に、それぞれ設置されているものとする。なお、カメラ101の台数およびその設置位置については、図3に限定するものではないし、各処理部についても同様にその設置位置を限定するものではない。
上記のように構成された周辺監視装置について、以下、その動作を説明する。図4は周辺監視装置の動作の流れを示すフローチャートである。
まず、初期状態として、カメラの位置ずれが無い場合の周辺監視装置の動作を説明した上で、補正状態として、カメラの位置ずれが生じた場合の周辺監視装置の動作を説明する。
カメラ101は車両周辺を撮像して映像信号を出力し、A/D変換器102は映像信号をデジタル化した画像出力し、フレームメモリ103はデジタル化された画像を一時的に記憶する(ステップS101)。フレームメモリ103の画像の記憶、更新は、カメラ101から出力される映像信号に同期して連続的に行う。
カメラ101a〜101cの3台のカメラは、図3に示すようにそれぞれ車両の後側面、左側面、右側面にそれぞれ後方、左側方、右側方を撮像するように車両に設置されている。また、図3では、車両の右斜め後方の車両後端から約3mの位置に、立方体の障害物Bが置かれている。図5は、図3の撮像状況においてカメラ101a〜101cで撮像された画像の例を示す図であり、(a)カメラ101aで後方が、(b)カメラ101bで左側方が、(c)カメラ101cで右側方が、撮像された画像の例を示す図である。フレームメモリ103には、図5に示す画像がデジタル化されて記憶される。
位置ずれ情報取得部108は、各カメラの位置ずれを取得し、カメラ位置ずれ情報として出力する(ステップS102)。以下、カメラの位置ずれの具体例を説明する。
図6は、カメラ座標系(Xe,Ye,Ze)、車両座標系(Xc,Yc,Zc)、世界座標系(Xw,Yw,Zw)の配置を示す図である。カメラは車両に固定されていることから、車両周辺の被写体とカメラの位置は、世界座標系に対する車両座標系の位置と、車両座標系に対するカメラ座標系の位置との2つの位置関係で決まり、前者を車両の姿勢、後者をカメラの設置位置と呼ぶものとする。また、カメラの位置ずれは、基準画像合成パラメタを生成した際の車両姿勢とカメラの設置位置とを基準位置とした場合の、基準位置との差であり、車両の姿勢ずれとカメラの設置位置ずれとによって生じる。カメラ位置ずれをE、車両の姿勢ずれをEc、カメラの設置位置ずれをEeとし、それぞれを3次元の回転と平行移動である4×4の行列で表した場合、E=Ee×Ecの関係式が成り立つ。
カメラの設置位置ずれEeは、3次元の並行移動と回転の6つのパラメタ(ex,ey,ez,ewx,ewy,ewz)で表すことができ、k番目のカメラの設置位置ずれEekは、(exk,eyk,ezk,ewxk,ewyk,ewzk)と表す。車両は世界座標系に対してXZ平面(路面)での移動とY軸中心の回転は自由であるものとし、車両の姿勢ずれEcは、(eyc,ewxc,ewzc)の3つのパラメタで表す。k台分のカメラの位置ずれEkをまとめてカメラ位置ずれ情報と呼ぶものとする。
なお、本実施の形態1では、説明を簡単にするために、カメラの位置ずれEは車両座標系に対するカメラ座標系のY軸回転のずれ(ewy)の1パラメタのみで表されるものとする。
このように、位置ずれ情報取得部108は、各カメラの位置ずれの値をユーザーのスイッチ操作によって受け付け、入力されたk台分カメラの位置ずれEkをカメラ位置ずれ情報として出力する。初期状態では、ユーザーのスイッチ操作は無いものとし、初期値としてカメラの位置ずれ量ewyk=0を出力するものとする。
移動体状態検出部109は、車両速度、シフトレバー、舵角を検出し、移動体状態として出力する(ステップS103)。ここでは、移動体状態検出部109は、「車両は停止、シフトレバーはリバース(R)、舵角は中立」を移動体状態として出力するものとする。
次に、画像合成パラメタ選択部113は、移動体状態検出部109より出力された移動体状態に応じて、画像合成パラメタ記憶部114に記憶された基準画像合成パラメタおよび図形パラメタの中から1つを選択して出力する(ステップS104)。以下、画像合成パラメタ記憶部114に記憶されている各パラメタと、画像合成パラメタ選択部113の動作について詳しく説明する。
図7は、画像合成パラメタ記憶部114に記憶された基準画像合成パラメタについて説明するための図あり、(a)撮像画像、(b)合成画像、(c)撮像画像から合成画像を生成する場合の基準画像合成パラメタ、の例を示す図である。図7(c)の基準画像合成パラメタは、合成画像の各画素に1対1に対応した2次元配列として表現することができる。2次元配列の各要素は、合成画像の画素に対応する、撮像画像のカメラ番号、画素座標(本実施の形態ではX座標、Y座標)で構成される。図7の例では、基準画像合成パラメタの座標( xo, yo )には、「カメラ番号=1、座標( xi, yi )」という情報が格納されている。これは合成画像の座標( xo, yo )の画素は、カメラ1の撮像画像の( xi, yi )、 の画素を用いることを示している。この図7に示すような構造の標準合成画像パラメタを用いることで、合成画像と複数の撮像画像との対応関係を記述することができる。
図8は、複数の基準画像合成パラメタを用いて生成される複数の合成画像の例を示す図である。ここでは、図3の撮像状況において図5に示す撮像画像が撮像された場合に、各基準画像合成パラメタを用いて生成した合成画像を示している。同一の撮像画像に対しても、カメラ番号および撮像画像座標値の異なる基準画像合成パラメタを用いることで、構図の異なる合成画像を生成することができる。図8(a)は、基準画像合成パラメタ1で生成される合成画像の例であり、基準画像合成パラメタ1はカメラ101aの撮像画像と車両の上方から見た構図の合成画像との対応関係を表す。図8(b)は、標準合成画像パラメタ2で生成される合成画像の例であり、標準合成画像パラメタ2は、カメラ101aの撮像画像と同じ構図の合成画像との対応関係を表す。図8(c)は、基準画像合成パラメタ3を用いて生成される合成画像の例であり、基準画像合成パラメタ3は、カメラ101a〜101cの撮像画像と、車両の側方と後方の広い範囲を車両の上方から見た構図の合成画像との対応関係を表す。基準画像合成パラメタを作成する方法については、前述した特許文献3などに詳しく記載されているため、ここでは詳細の説明を省く。
図9は、図形パラメタを用いて合成される図形の例を示す図である。図形パラメタは、合成画像と同一サイズの画像ファイルとして記憶されているものとする。図9(a)に示す図形を合成する図形パラメタ1は基準画像合成パラメタ1と、図9(b)〜(d)に示す図形を合成する図形パラメタ2−1〜2−3は基準画像合成パラメタ2と、図9(e)に示す図形を合成する図形パラメタ3は基準画像合成パラメタ3と、それぞれ対応している。また、図9中の各破線は、自車両を基準にしたあらかじめ定められた特定の距離を示す図形である。例えば、図9(a)(c)における破線は、自車両の幅の延長線と自車両後方3mの距離の直線とで囲まれる領域の境界であり、図9(b)(d)における破線は、ある舵角における予測進路上の車両の幅と進行方向に3m移動した直線とで囲まれる領域の境界を示す図形である。したがって、図形パラメタによって合成される図形は、自車両との距離や位置の基準となる情報を含むこととなる。このような図形は、前述した基準画像合成パラメタを作成する際に、路面平面上での位置、または撮像画像上での位置と、合成画像上での位置とを対応付けることであらかじめ生成することができる。
図10は、画像合成パラメタ選択部113における基準画像合成パラメタの選択方法の例を示す図である。画像合成パラメタ選択部113は、図10に示すように移動体状態として入力される、車両速度、シフトレバー、舵角の組み合わせに応じて、基準画像合成パラメタと図形パラメタをそれぞれ選択する。例えば、「車が移動しており、シフトレバーはR、舵角が中立」である時、「基準画像合成パラメタ2、図形パラメタ2−2」が選択されることとなる。
ここで、移動体状態は「車両は停止、シフトレバーはリバース(R)、舵角は中立」であることから、このとき画像合成パラメタ選択部113は、基準画像合成パラメタ1と図形パラメタ1をそれぞれ選択して出力する。
次に、座標変換パラメタ選択部110は、カメラ位置ずれ情報に応じて、座標変換パラメタ記憶部111に記憶された複数の座標変換パラメタの中から1つを選択して出力する(ステップS105)。次に、座標変換部112は、画像合成パラメタ選択部113から出力された基準画像合成パラメタに含まれる撮像画像の画像座標を、座標変換パラメタ選択部110から出力された座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する(ステップS106)。
本実施の形態1では、座標変換部112で行う座標変換は射影変換であり、座標変換パラメタ記憶部111に記憶される座標変換パラメタは、カメラごとの射影変換の係数の組であるものとする。
以下、座標変換パラメタの具体例と、座標変換パラメタ選択部110、座標変換部112の動作について詳しく説明する。
座標変換部112は、次に示す(式1)を用いて射影変換によって座標変換を行う。
Figure 0003968375
(式1)において、射影変換の8個の係数(a,b,c,d,e,f,g,h)を座標変換パラメタと呼ぶ。( xi, yi )は、基準画像合成パラメタに含まれる撮像画像の画像座標であり、( xi’, yi’ )は、変換画像合成パラメタに含まれる撮像画像の画像座標である。
座標変換パラメタ記憶部111で記憶されている座標変換パラメタとは、カメラ位置ずれEとカメラ番号kの値に対応した複数の座標変換パラメタPのことである。座標変換パラメタPは、カメラ位置ずれEとカメラ番号kに依存するため、P(E,k)と表す。本実施の形態では、カメラの位置ずれEはカメラの設置位置ずれewyのみであり、その値は、−10度〜+10度の範囲を1度刻みに21段階の値をとるものとして、各角度に対応する21個の座標変換パラメタを、各カメラ番号ごとにあらかじめ計算して記憶しておくものとする。
以下、k番目のカメラのカメラ位置ずれEに応じた座標変換パラメタP(E,k)を計算する方法の例を説明する。ここで、基準となるカメラ位置で撮像された撮像画像が図11(a)であり、カメラ位置ずれがEである場合の撮像画像が図11(b)であるとする。そして、カメラの位置ずれのない撮像画像上の点の画像座標を(xi,yi)、位置ずれのある撮像画像上の画像座標を( xi’, yi’ )とし、それぞれの画像座標の間に(式1)の関係があるとする。このとき画像上の4点以上の対応点を与えることで、(式1)において2乗誤差最小となるように座標変換パラメタを算出することができる。このような4点以上の対応点から射影変換のパラメタを算出する方法については、広く知られた方法であるので、詳細の説明は省略する。以上のことから、基準となるカメラ位置の撮像画像に対して、あり得る全てのカメラの位置ずれがEの撮像画像とを用いて、座標変換パラメタP(E,k)をあらかじめ計算しておくことができる。ここでカメラの位置ずれEが回転のみである場合、または、画像中の被写体が一つの平面上に存在する場合、対応する点の画像座標の関係は、(式1)で表すことができることは、「画像理解」(金谷健一著、森北出版)などに記載され、広く知られている。したがって、例えば撮像画像中多くが路面平面で占められているような場合、カメラ位置ずれのある画像を射影変換することで、路面についてはカメラ位置ずれがない場合の画像に変換することができる。
座標変換パラメタ選択部110では、カメラ位置ずれ情報におけるカメラごとのカメラ位置ずれEに応じて、座標変換パラメタ記憶部111から座標変換パラメタを選択して出力するものとする。図12は、カメラ番号kとカメラの位置ずれEに対応する座標変換パラメタP(E,k)の例を示す図である。初期状態では、カメラ位置ずれ情報は全てのカメラにおいてewy=0であることから、これに対応する座標変換パラメタP(E,k)として、(a,b,c,d,e,f,g,h)=(1,0,0,0,1,0,0,0)が選択される。
次に、座標変換部112は、基準画像合成パラメタとカメラごとの座標変換パラメタを入力し、基準画像合成パラメタの各要素である、カメラ番号と撮像画像の画像座標( xi, yi )に対して、カメラ番号に対応した座標変換パラメタを用いた(式1)の座標変換によって( xi’, yi’ )を算出する。そして、座標変換部112は、基準画像合成パラメタ中の撮像画像の各画像座標( xi, yi )を、算出した画像座標( xi’, yi’ )によって置き換えた変換画像合成パラメタを出力する。
初期状態では、座標変換パラメタP(E,k)は(a,b,c,d,e,f,g,h)=(1,0,0,0,1,0,0,0)であることから、出力される変換画像合成パラメタは、基準画像合成パラメタ1と同じものが出力されることとなる。
次に、画像合成部104は、座標変換選択部112で生成された変換画像合成パラメタを用いて、変換画像合成パラメタの各要素に対応する撮像画像をフレームメモリ103から順次読み出し、合成画像として出力する(ステップS107)。
初期状態では、変換画像合成パラメタとして、基準画像合成パラメタ1と同じものが出力されるため、撮像画像が例えば図5の場合、図8(a)の合成画像が出力される。
次に、図形合成部105は、画像合成部104で生成された合成画像上に、画像合成パラメタ選択部113で選択された図形パラメタに応じた図形を重畳描画する(ステップS108)。ここでは、画像合成パラメタ選択部113によって図形パラメタ1が選択されているので、図9(a)の図形が合成画像に重畳され、図形つき合成画像として出力される。
D/A変換器106は、移動物検出部105から出力された合成表示画像を映像信号に変換して出力し、ディスプレイ107は、映像信号を表示する(ステップS109)。
上記した各処理部の動作により、初期状態における図形つき合成画像が生成されて、ディスプレイ107に表示されることとなる。
図13は、初期状態における動作により生成される画像の例を示す図である。図13(a)はカメラ101aによって撮像された撮像画像であり、図13(b)は画像合成部104より出力される合成画像の例であり、図13(c)は図形合成部105から出力され、ディスプレイ107に表示される図形つき合成画像の例である。図13(c)の図形つき合成画像を運転者が観察した場合、位置の参照となる破線が重畳されているために、破線と障害物の位置関係を容易に把握することが可能になる。
次に、補正状態として、初期状態からカメラの位置ずれが生じた場合の例について説明する。
図14は、カメラ101aに位置ずれが生じた場合の撮像画像の例を示す図である。図14(a)は、ずれの無い場合の撮像画像であり、図14(b)は、カメラの設置位置が垂直軸を中心とした右方向への回転で5度ずれた場合の撮像画像の例である。図15は、図14を撮像画像として、前述した初期状態の動作によって生成される図形つき合成画像の例を示す図である。図15(a)は、撮像画像が図14(a)の場合の図形つき合成画像であり、図15(b)は、撮像画像が図14(b)の場合の図形つき合成画像である。図15(a)と図15(b)に示すように、撮像画像中の被写体はカメラの位置ずれにより合成画像中での位置が変化しているのに対して、図形の位置は変化しないため、図形と被写体の位置関係にずれが生じている。例えば、破線に対する障害物(立方体)B位置が、図15(a)と図15(b)では異なっている。そこで、以降に説明する補正状態の処理では、カメラの位置ずれがある図14(b)の撮像画像が入力された場合でも、図15(a)と同じ、またはより近い画像を生成することを目的とする。
次に、補正状態での各処理部の動作について説明する。
本実施の形態1では、ユーザーがカメラ位置ずれを補正することを目的として、本周辺監視装置へ情報を入力する場合の例を説明する。
図16(a)は、カメラの設置位置が垂直軸を中心とした右方向への回転で5度ずれた場合の撮像画像の例であり、図16(b)は、座標変換しない場合の図形つき合成画像であり、図16(c)は、座標変換した場合の図形つき合成画像である。
上述したように、カメラに位置ずれが生じた場合、図16(a)の撮像画像が入力され、図16(b)の図形つき合成画像が生成されてディスプレイ107に表示される(図16(a)と図14(b)、図16(b)と図15(b)はそれぞれ同じ画像)。
ここで、ユーザーのスイッチ操作によって、任意のカメラ位置ずれEkが入力され、位置ずれ情報取得部108が、カメラの位置ずれEkを受け付けるものとする。例えば、カメラの設置位置ずれewykとして、−10度〜+10度の範囲を1度刻みに順次入力してゆき、撮像状況と合成画像が最も一致した場合にスイッチ操作を止めるものとする。このとき、ユーザーが設定したカメラの位置ずれと、実際のカメラ位置ずれが等しい場合、図16(c)のようになる。
以上のように本実施の形態1によれば、ユーザーの指示によってカメラの位置ずれに対応して座標変換された変換画像合成パラメタを用いて合成画像が生成されるため、カメラの位置ずれがある撮像画像を用いた場合であっても、合成画像の被写体と図形のずれを低減することができるという効果がある。また、本実施の形態1によれば、カメラの位置ずれが発生した場合であっても、基準画像合成パラメタ、変換画像合成パラメタ、図形パラメタなどの再計算が不要であり、実行時の計算負荷が小さいという効果もある。
なお、本実施の形態1の説明において、ユーザーは、図3のシーンにおいて図16のような画像を観察しながら、カメラ位置ずれEを入力するものとした。しかしながら、図3のような車両からの相対位置の基準となる図形や物体などの無いシーンにおいて、カメラの位置ずれEをユーザーが選択するのは困難な場合がある。そこで、例えば図17(a)のような、カメラ位置ずれの基準となる簡単な図形を路面上に描画しておき、図17(b)のように図形上の特定の位置に車両を駐車したうえで画像を観測することで、位置ずれEを容易にユーザーが指定することが可能になる。例えば、図18(a)は、カメラの位置ずれの無い場合に、図17(b)の撮影状況においてカメラ1で撮像される画像の例である。図18(b)は、図17の路面上の図形と同じ図形を図形合成部105によって合成した場合の例であり、カメラの位置ずれが無い場合は、合成された図形(破線で示す)は撮影画像の路面上の図形と一致する。これに対して、カメラの位置ずれがある場合は図18(c)のような路面上の図形と合成された図形とがずれた画像となり、この画像をユーザーが観測することで、カメラが右向きにずれている事を容易に把握することができ、その結果、カメラ位置ずれEをユーザーが選択することが容易になる。
しかしながら、上述した手法では、例えばユーザーは車両の購入者であり、車両購入後に発生したカメラの位置ずれを補正する場合に、図17(a)のような位置ずれ補正用の図形が必要であるという課題が発生する。そこで、位置ずれ補正用の図形を用いる代わりに、図形合成部105は、前述した処理に加えて、ユーザーからの操作に応じて、画像合成部104から入力した合成画像を記録する処理と、記録された合成画像を画像合成部104から入力した合成画像に重畳合成して出力する処理を、選択的に行うとしても良い。そして、ユーザーは例えば車両を購入直後に、駐車場などで例えば図19(a)のような合成画像を図形合成部105に記録しておく。その後、カメラの位置ずれが発生した場合は、図19(b)のような合成画像が生成されることになる。このような場合に、図形合成部105に記録された合成画像を、図19(b)の合成画像に重畳合成して図19(c)のような画像を表示することで、ユーザーのカメラ位置ずれEの選択が容易になる。
また、本実施の形態1において、カメラ位置ずれEは、説明を簡単にするためにカメラの設置位置ずれのうちの1つのパラメタであるewyのみで構成され、ユーザーが入力するものとしたが、カメラ設置位置ずれEeの6パラメタ(ex,ey,ez,ewx,ewy,ewz)と、車両の姿勢ずれEcの3パラメタ(eyc,ewxc,ewzc)の全て、またはいずれかの組み合わせを用いても良い。さらに、車両の姿勢ずれEcは、車両の姿勢を検出する加速度センサや角加速度センサなどを組み合わせた検出部などによって取得するものとしてもよい。
また、本実施の形態1において、ユーザーは任意のカメラ位置ずれEを位置ずれ情報取得部108へ入力しながら、合成画像を観測することで最適なカメラ位置ずれEを設定するものとしたが、この方法に限定するものではない。例えば、カメラ・キャリブレーションを行うことでカメラ位置ずれを算出し、その値を入力するとしても良い。
また、本実施の形態1では、座標変換パラメタ取得部120は、座標変換パラメタ選択部110および座標変換パラメタ記憶部111を備え、座標変換パラメタ選択部110が、カメラ位置ずれ情報に応じて、座標変換パラメタ記憶部111に記憶された複数の座標変換パラメタの中から1つを選択するとしているが、これに限られるものではない。例えば、座標変換パラメタ取得部120が、カメラ位置ずれ情報に基づいて座標変換パラメタを生成しても構わない。
また、本実施の形態1において、座標変換部112は射影変換を用いるものとしたが、座標変換の方法を射影変換に限定するものではなく、カメラ位置ずれを補正する効果のある座標変換であれば、どのような変換を用いても良い。
(実施の形態2)
図20は本発明の実施の形態2に係る周辺監視装置の構成を示すブロック図である。
本実施の形態において、実施の形態1と異なる点は、座標変換パラメタ記憶部212に記憶されている座標変換パラメタPの内容と、座標変換パラメタ選択部211および座標変換部201の動作である。
以下、各部の動作を説明する。
本実施の形態2の座標変換部201は、次に示す(式2)を用いてアフィン変換によって、画像合成パラメタ選択部221から出力された基準画像合成パラメタに含まれる撮像画像の画像座標を、座標変換パラメタ選択部212から出力された座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する。
Figure 0003968375
(式2)における6つの係数(a,b,c,d,e,f)で座標変換パラメタが構成される。
座標変換パラメタ記憶部212に記憶されている座標変換パラメタは、カメラの位置ずれE、基準画像合成パラメタの番号q、図形パラメタの番号r、カメラ番号kに応じて、あらかじめ算出された座標変換パラメタP(E,q,r,k)である。
座標変換パラメタ選択部211は、カメラ位置ずれ情報に含まれる各カメラの位置ずれEとカメラ番号k、および、画像合成パラメタ選択部221で選択された基準画像合成パラメタの番号pと図形パラメタの番号rに応じた座標変換パラメタP(E,q,r,k)を選択して出力する。基準画像合成パラメタの番号pおよび図形パラメタの番号rは、移動体状態検出部109から入力された移動体状態に基づいて、図10に示した選択方法によって得るものとする。
以下、座標変換パラメタP(E,q,r,k)を算出する方法の例について説明する。実施の形態1において射影変換での座標変換パラメタを求めた方法と同様に、位置ずれのない撮像画像とある位置ずれEの撮像画像との複数の対応点座標から、座標変換パラメタを算出する。実施の形態1と異なる点は、カメラ番号k、基準画像合成パラメタの番号p、図形パラメタの番号rに応じて、異なる対応点を用いて座標変換パラメタを算出する点である。
基準となるカメラ位置で撮像された撮像画像が図21(a)であり、カメラ位置ずれがEである場合の撮像画像が図21(b)であるとする。そして、カメラの位置ずれのない撮像画像上の点の画像座標を(xi,yi)、位置ずれのある撮像画像上の画像座標を( xi’, yi’ )とし、それぞれの画像座標の間に(式2)の関係があるとする。このとき画像上の3点以上の対応点を与えることで、(式2)において2乗誤差最小となるように座標変換パラメタを算出することができる。
図21(a)(b)中の「×印」および「○印」は、それぞれ4点の対応点の組を示しており、図9(c)に示す図形を合成する図形パラメタ2−2と、図9(b)に示す図形を合成する図形パラメタ2−1とにおける、合成画像の破線上にある撮像画像上の点として与える。そして、各対応点の組ごとに座標変換パラメタを算出する。
ここで「×印」の対応点と「○印」の対応点とは、それぞれ図形パラメタ2−2と図形パラメタ2−1とに対応する撮像画像上の点である。また、図形パラメタ2−1、図形パラメタ2−2は、図10の選択方法によって選択されることから、「×印」の対応点を用いて算出した座標変換パラメタは、「カメラ位置ずれE、基準画像合成パラメタ2、図形パラメタ2−2、カメラ1」の場合の座標変換パラメタP(E,2,2−2,1)であり、「○印」の対応点を用いて算出した座標変換パラメタは、「カメラ位置ずれE、基準画像合成パラメタ2、図形パラメタ2−1、カメラ1」の場合の座標変換パラメタP(E,2,2−2,1)であるものとする。
図21(c)(d)は、図21(b)のカメラ位置ずれがある撮像画像を用いて、上記の2つの座標変換パラメタを用いて座標変換して生成した合成画像の例である。アフィン変換では、カメラの位置ずれがカメラのZ軸中心の回転である場合に限り、撮像画像のずれを完全に補正することができるが、それ以外の回転や平行移動を含むカメラ位置ずれに対しては、位置ずれが残ってしまう。この位置ずれの影響は、前述した座標変換パラメタの算出の際に用いた対応点の位置では小さくなることが期待できる。つまり、図21(c)(d)の合成画像では、それぞれ「×印」の対応点と「○印」の対応点の位置において、カメラ位置ずれに起因する合成画像のずれが少ない画像となっている。
上記の方法によって生成した座標変換パラメタを用い、上記した座標変換パラメタ選択部211、座標変換部201、および各処理部の動作によって生成される画像の例を示す。
図22は、図2の撮像状況において、移動体状態が「車両速度は移動、シフトレバーはR、舵角は中立」、ユーザーからのカメラ位置ずれEの入力が初期値であるewyk=0の図形つき合成画像の例である。図22(a)は、カメラの位置ずれがない場合の図形つき合成画像であり、図22(b)は、カメラの位置ずれがある場合の図形つき合成画像である。図23(a)は、実施の形態1と同様なユーザーの操作により好適なカメラ位置ずれEが入力された場合、すなわち前述した座標変換パラメタP(E,2,2−2,1)によって座標変換された、図形つき合成画像の例である。図22(b)では、被写体(特に障害物)と図形との位置関係がずれているのに対して、図23(a)ではずれが低減されている。さらに、ユーザーの操作により、移動体状態が「車両速度は移動、シフトレバーはR、舵角は右」となった場合、図形合成部105では図形パラメタ2、座標変換部112では座標変換パラメタP(E,2,2−1,1)がそれぞれ用いられ、図23(b)の図形つき合成画像が生成される。
前述したように座標変換部201でアフィン変換を用いる場合、座標変換パラメタを算出する際に用いた対応点の近傍の誤差が小さくなる。すなわち、図23(a)(b)の図形つき合成画像では、それぞれ図形中の破線の位置において座標変換後の位置ずれが最も小さくなる合成画像が生成されることとなる。このような合成画像をユーザーが観測した場合、例えば、合成画像中の障害物と位置基準となる破線や自車両の図形などのように、位置関係が重要となる箇所において位置ずれが少ないため、より正確な位置関係の把握が可能になる。
以上のように本実施の形態2によれば、座標変換パラメタ取得部210は図形合成部105で重畳合成される図形に応じて座標変換パラメタを生成することで、合成画像に重畳合成される図形に応じて基準画像合成パラメタが座標変換されるため、図形と合成画像のずれの少ない画像を表示することができるという効果がある。
また、本実施の形態2では、座標変換部201はアフィン変換を用いて座標変換を行うため、射影変換を用いた場合に比べて計算負荷が小さいという効果もある。
なお、本実施の形態2において、図形パラメタに応じて異なる座標変換パラメタを用いる場合について説明したが、カメラの位置ずれ、基準画像合成パラメタ、図形パラメタ、カメラ番号の組み合わせであれば、どのような組み合わせであってもよく、基準画像合成パラメタに応じて異なる座標変換パラメタを用いるとしても良い。例えば、図8(a) に示す合成画像を生成する標準合成画像パラメタ1と図8(b)に示す合成画像を生成する基準画像合成パラメタ2では、同じカメラ1の撮像画像を用いた合成画像であっても、画像合成として用いる撮像画像の範囲が異なる。そのため、例えば、座標変換パラメタを求める際に撮像画像の範囲に応じて対応点を与えることで、基準画像合成パラメタの構図に応じた位置ずれが小さい合成画像の生成が可能になるという効果がある。
また、図8(c)に示す合成画像を生成する基準画像合成パラメタ3のように、3つの撮像画像を合成した構図では、1つのカメラで位置ずれが起こると、図24(a)のような合成画像におけるカメラ境界部Dが不連続となった違和感のある画像となる。そこで、複数の撮像画像を接続した構図の基準画像合成パラメタに対応する座標変換パラメタを算出する際には、カメラ境界部Dでの位置ずれが小さくなるように、すなわち、座標変換パラメタの算出に用いる対応点として、合成画像のカメラ境界部Dに対応する撮像画像の位置に対応点与えるものとする。このようにして求めた座標変換パラメタを用いると、図24(b)のようにカメラ境界部Dでの位置ずれが小さい合成画像を生成でき、ユーザーにとってより違和感の少ない合成画像の生成が可能になるという効果がある。
なお、本実施の形態2において、座標変換部201はアフィン変換を用いて座標変換を行うものとしたが、座標変換の方法をアフィン変換に限定するものではなく、カメラ位置ずれを補正する効果のある座標変換であれば、どのような変換を用いても良い。例えば、射影変換を用いる場合であっても、カメラで撮像される撮像画像にレンズ歪みを含む場合や、カメラの位置ずれに平行移動成分を含む場合は、座標変換した合成画像での位置ずれが残る。このとき、合成画像上での位置ずれは、座標変換パラメタの算出に用いる対応点の位置において小さくなるため、本実施の形態2と同様に、図形に応じた座標変換パラメタを用いることで、合成画像上の位置ずれの影響が少ない合成画像を生成することが可能となる。
(実施の形態3)
本実施の形態3において、その構成、動作は実施の形態2と同じであり、実施の形態2と異なる点は、カメラ101はレンズ歪を含む画像を出力するカメラであり、そのレンズ歪みの量は、あらかじめ定められたカメラ位置ずれの範囲と、基準画像合成パラメタの範囲における、座標変換後の位置誤差が最小となるようなレンズ歪みのカメラ101を用いる点である。
図25は、レンズ歪みつき撮像画像の例と、実施の形態2と同様の動作により生成した合成画像の例を示す図である。図25(a)は、カメラ101がレンズ歪みつき画像を出力する場合の撮像画像の例であり、図25(b)は、カメラの位置がずれた場合の撮像画像の例である。本実施の形態3では、実施の形態2と同様に、カメラの位置ずれのない撮像画像と、とりうるカメラの位置ずれEの範囲において得られる複数のカメラ位置ずれのある撮像画像から、あらかじめ座標変換パラメタを求めておき、これを用いて座標変換を行うことで、図25(c)のような合成画像を生成する。
このとき、座標変換パラメタの算出の際に用いる、カメラ位置ずれ、基準画像合成パラメタ、図形パラメタ、カメラ番号が全て同じ条件において、レンズ歪みの程度が変わると、座標変換後の合成画像の位置ずれの量も変わるということが、本発明の発明者の実験により確認された。図26は、レンズ歪みつき画像を座標変換した場合の平均誤差とレンズ歪みk1との対応関係を示す図であり、(a)アフィン変換を用いた場合、(b)射影変換を用いた場合、である。これは、2次のレンズ歪みk1を持つ撮像画像に対して、基準画像合成パラメタ2における図形パラメタ2−2の破線上に対応する撮像画像の対応点を基準に座標変換パラメタを算出し、座標変換後の合成画像について、図形パラメタ2−2の破線上を基準位置とした位置ずれの平均誤差を算出したものである。
図26に示すように、射影変換の場合では、レンズ歪みの増加にともなって平均誤差が大きくなるのに対して、アフィン変換の場合は、レンズ歪み係数が0.4〜0.5で、平均誤差が最小となっている。つまり、図26の算出条件となった、レンズ位置ずれ、基準画像合成パラメタ、図形パラメタ、カメラ番号においては、レンズ歪み係数が0.4〜0.5のカメラを用いると、座標変換後の合成画像上での位置ずれの平均が最も小さくなることを示している。したがって、とり得るカメラ位置ずれの範囲において、同様な計算によって算出した合成画像の位置ずれの平均が最小となるようなレンズ歪を算出し、そのレンズ歪みのカメラを用いるものとすることで、合成画像の位置ずれがより小さい合成画像を生成することができるという効果がある。
以上のように本実施の形態3によれば、あらかじめ定められた1つ以上の基準画像合成パラメタと、あらかじめ定められた1つ以上の座標変換パラメタによって生成される合成画像における誤差が、最も小さくなるレンズ歪パラメタを持つ撮像画像を用いることで、合成画像の位置ずれがより小さい合成画像を生成することができるという効果がある。
なお、各実施の形態において、基準画像合成パラメタは、合成画像の画像座標に対応する撮像画像の画像座標値で構成されるものとしたが、撮像画像の範囲外の画像座標値を設定するとしても良い。基準画像合成パラメタにおいて、撮像画像の範囲外の画像座標値が含まれる場合であっても、座標変換部で座標変換された変換画像合成パラメタにおいては、撮像画像の範囲内の座標値に置き換えられ、合成画像として表示される画像の範囲が広がる場合があるという効果がある。
また同様に、図8(c)のように複数の撮像画像を用いる基準画像合成パラメタにおいて、合成画像上でカメラ境界部の近傍では、合成画像の1つの画像座標に対して、2つ以上の撮像画像座標を参照するように構成し、座標変換部では、座標変換後の画像座標が撮像画像の範囲であるどちらか一方の画像座標を残した変換画像合成パラメタとして出力するとしても良い。このとき、合成画像として表示される画像の範囲が広がる場合があるという効果がある。
また、各実施の形態において、移動体状態検出部108および画像合成パラメタ選択部113は、移動体状態として車両速度、シフトレバー、および、舵角を用いるとしたが、移動体状態の種類やパラメタの選択方法を限定するものではなく、合成画像の構図と対応関係がある移動体状態であれば、どのような情報を用いてもよい。例えば、GPS(Global Positioning System)装置により取得された車両の位置情報から道路状況を取得し、この道路状況に基づいて車両姿勢を推定し、この車両姿勢に応じて基準画像合成パラメタおよび座標変換パラメタを選択しても構わない。
また、各実施の形態において、画像合成パラメタ選択部113は、図10の選択方法により基準画像合成パラメタを選択するものとしたが、選択方法を限定するものではなく、どのような選択方法であってもよい。
また、各実施の形態において、カメラは3台であり、その設置位置および撮像範囲は、図3に示すようなものとしたが、カメラ台数、設置位置、撮像範囲をこの範囲に限定するものではない。
また、各実施の形態において、複数のカメラおよび周辺監視装置が設置される車両は、4輪の乗用車であるとして説明したが、車両の形態を制限するものではなく、2輪や3輪の車両やロボットなどの移動体であっても良い。さらに、複数のカメラおよび周辺監視装置を設置する場所は、移動体に限られるものではなく、例えば駅やビル等に固定されて設置しても構わない。また、複数のカメラおよび周辺監視装置は、同じ移動体や場所に設置する必要はなく、カメラと周辺監視装置とを別の場所に設置しても構わない。
また、本発明の実施の形態では、個別の処理部は個別のハードウェアによって実現されるものとして説明したが、1つのICなどに収まっているものであっても良いし、図27のような画像の入出力部を備えたコンピュータを用いて、各処理部はコンピュータ(CPU1004,ROM1005,RAM1006など)で実行されるソフトウェアによって実現するものとしても良く、本発明の実施の形態と同様の効果を得ることができる。
本発明に係る周辺監視装置は、カメラの位置ずれに伴って生じる表示画像中の歪みを補正することができ、車両の運転やロボットの遠隔操作など、移動体の操作の補助となる周辺監視装置として有用である。特に、複数のカメラで撮像した画像を用いて仮想的な視点から撮像された画像を合成した提示する周辺監視装置として有用である。またセキュリティを目的とした監視装置や、映像作成を目的とした画像合成装置などにも応用できる。
図1は、従来の技術による周辺監視装置の例を示す図である。 図2は、本発明の実施の形態1における周辺監視装置の構成を示すブロック図である。 図3は、本発明の実施の形態1における撮像状況の例を示す図である。 図4は、本発明の実施の形態1における周辺監視装置の動作を示すフローチャートである。 図5は、本発明の実施の形態1における撮像画像の例を示す図である。 図6は、本発明の実施の形態1における座標系の例を示す図である。 図7は、本発明の実施の形態1における基準画像合成パラメタの例を示す図である。 図8は、本発明の実施の形態1における合成画像の例を示す図である。 図9は、本発明の実施の形態1における図形合成部で重畳合成される図形の例を示す図である。 図10は、本発明の実施の形態1における画像合成パラメタ選択部での選択方法の例を示す図である。 図11は、本発明の実施の形態1における座標変換パラメタの算出に用いる対応点の例を示す図である。 図12は、本発明の実施の形態1における座標変換パラメタの例を示す図である。 図13は、本発明の実施の形態1における動作の過程で生成画像の例を示す図である。 図14は、本発明の実施の形態1におけるカメラ位置がずれた場合の撮像画像の例を示す図である。 図15は、本発明の実施の形態1におけるカメラ位置がずれた場合の合成画像の例を示す図である。 図16は、本発明の実施の形態1における座標変換の有無による合成画像の違いを示す例を示す図である。 図17は、本発明の実施の形態1における基準図形を用いる場合の使用状況の例を示す図である。 図18は、本発明の実施の形態1における基準図形を用いる場合の撮像画像の例を示す図である。 図19は、本発明の実施の形態1における合成画像の記録処理を行う場合の撮像画像の例を示す図である。 図20は、本発明の実施の形態2における周辺監視装置の構成を示すブロック図である。 図21は、本発明の実施の形態2における座標変換にアフィン変換を用いた場合の合成画像の例を示す図である。 図22は、本発明の実施の形態2におけるカメラ位置がずれた場合の合成画像の例を示す図である。 図23は、本発明の実施の形態2における図形を重畳した合成画像の例を示す図である。 図24は、本発明の実施の形態2における複数カメラを用いた合成画像の例を示す図である。 図25は、本発明の実施の形態3における撮像画像がレンズ歪みつきの場合の合成画像の例を示す図である。 図26は、本発明の実施の形態3におけるレンズ歪みつき画像を座標変換した場合の合成画像上での位置誤差を示すグラフである。 図27は、本発明に係る周辺監視装置をコンピュータにより構成した場合の構成を示すブロック図である。
符号の説明
101 カメラ
102 A/D(アナログ・デジタル変換器)
103 フレームメモリ
104 画像合成部
105 図形合成部
106 D/A(デジタル・アナログ変換器)
107 ディスプレイ
108 位置ずれ情報取得部
109 移動体状態検出部
110、211 座標変換パラメタ選択部
111、212 座標変換パラメタ記憶部
112、201 座標変換部
113 画像合成パラメタ選択部
114 画像合成パラメタ記憶部
120、210 座標変換パラメタ取得部
121 画像合成パラメタ取得部

Claims (21)

  1. カメラによって撮像された撮像画像を用いて周辺画像を生成する周辺監視装置であって、
    前記カメラの位置変動に関する情報である位置ずれ情報を取得する位置ずれ情報取得部と、
    前記位置ずれ情報取得部によって取得された前記位置ずれ情報に基づいて、前記位置変動に伴う前記周辺画像の歪みを補正するための座標変換パラメタを取得する座標変換パラメタ取得部と、
    前記撮像画像を用いて前記周辺画像を生成するための、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報を含む基準画像合成パラメタを取得する画像合成パラメタ取得部と、
    前記画像合成パラメタ取得部によって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得部によって取得された前記座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する座標変換部と、
    前記撮像画像に対して前記変換画像合成パラメタを用いて、前記周辺画像を生成して出力する画像合成部とを備え、
    前記基準画像合成パラメタは、ルックアップテーブルを作成する際のカメラ位置に基づいて生成されたルックアップテーブルを含み、前記ルックアップテーブルは、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報である
    ことを特徴とする周辺監視装置。
  2. 前記ルックアップテーブルは、あらかじめ定められた設計上のカメラ位置、または、取り付け後のカメラ位置に基づいて生成される
    ことを特徴とする請求項1記載の周辺監視装置。
  3. 前記座標変換パラメタ取得部は、
    少なくとも1つの座標変換パラメタをあらかじめ記憶している座標変換パラメタ記憶部と、
    前記位置ずれ情報取得部によって取得された前記位置ずれ情報に基づいて、少なくとも1つの前記座標変換パラメタから1つの座標変換パラメタを選択する座標変換パラメタ選択部とを備える
    ことを特徴とする請求項1記載の周辺監視装置。
  4. 前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された前記位置ずれ情報に基づいて、前記座標変換パラメタを生成する
    ことを特徴とする請求項1記載の周辺監視装置。
  5. 前記周辺監視装置は、さらに、
    前記画像合成部によって生成された前記周辺画像に図形を重畳合成して出力する図形合成部を備え、
    前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された前記位置ずれ情報、および前記図形合成部によって重畳合成される前記図形に基づいて、前記座標変換パラメタを取得する
    ことを特徴とする請求項1記載の周辺監視装置。
  6. 前記座標変換パラメタ取得部は、前記図形合成部によって重畳合成される前記図形の所定の位置において、座標変換後の周辺画像の位置誤差が最小となる座標変換パラメタを取得する
    ことを特徴とする請求項5記載の周辺監視装置。
  7. 前記画像合成パラメタ取得部は、
    少なくとも1つの基準画像合成パラメタをあらかじめ記憶している画像合成パラメタ記憶部と、
    少なくとも1つの前記基準画像合成パラメタから1つの基準画像合成パラメタを選択する画像合成パラメタ選択手段とを備える
    ことを特徴とする請求項1記載の周辺監視装置。
  8. 前記周辺監視装置は、さらに、
    前記周辺監視装置を搭載する移動体の姿勢に関する情報を含む移動体の状態を検出する状態検出部を備え、
    前記画像合成パラメタ選択部は、前記状態検出部によって検出された前記移動体の状態に基づいて1つの前記基準画像合成パラメタを選択する
    ことを特徴とする請求項7記載の周辺監視装置。
  9. 前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された前記位置ずれ情報、および前記画像合成パラメタ選択部によって選択された前記基準画像合成パラメタに基づいて、前記座標変換パラメタを取得する
    ことを特徴とする請求項7記載の周辺監視装置。
  10. 前記基準画像合成パラメタは、前記周辺画像に対応する前記撮像画像の一部分の画像座標の情報を含み、
    前記座標変換パラメタ取得部は、前記撮像画像の一部分の所定の位置において、座標変換後の周辺画像の位置誤差が最小となる座標変換パラメタを取得する
    ことを特徴とする請求項1記載の周辺監視装置。
  11. 前記基準画像合成パラメタは、複数のカメラによって撮像された複数の前記撮像画像を用いて前記周辺画像を生成するための、複数の前記撮像画像の画像座標の情報を含み、
    前記位置ずれ情報取得部は、複数の前記カメラの位置変動に関する情報である複数の位置ずれ情報を取得し、
    前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された複数の前記位置ずれ情報に基づいて、複数の前記座標変換パラメタを取得し、
    前記座標変換部は、前記画像合成パラメタ取得部によって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得部によって取得された複数の前記座標変換パラメタを用いて座標変換し、前記変換画像合成パラメタとして出力し、
    前記画像合成部は、複数の前記撮像画像に対して前記座標変換パラメタ取得部によって取得された複数の前記座標変換パラメタを用いて、前記周辺画像を生成する
    ことを特徴とする請求項1記載の周辺監視装置。
  12. 前記基準画像合成パラメタは、前記周辺画像の各画素に対応する、複数の撮像画像の中から撮像画像を特定する情報および当該撮像画像上の画素位置を示す画像座標の情報を含む
    ことを特徴とする請求項11記載の周辺監視装置。
  13. 前記座標変換パラメタ取得部は、前記基準画像合成パラメタに含まれる複数の撮像画像の境界位置において、座標変換後の周辺画像の位置誤差が最小となる座標変換パラメタを取得する
    ことを特徴とする請求項11記載の周辺監視装置。
  14. 前記画像合成パラメタ取得部は、前記撮像画像の範囲外の画像座標の情報を含む前記基準画像合成パラメタを取得する
    ことを特徴とする請求項1記載の周辺監視装置。
  15. 前記画像合成パラメタ取得部は、前記周辺画像の1画素に対して前記撮像画像上の2画素以上の画素位置を示す画像座標の情報を含む前記基準画像合成パラメタを取得し、
    前記座標変換部は、前記画像合成パラメタ取得部によって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得部によって取得された前記座標変換パラメタを用いて座標変換した後に、一つの画素を選択し、前記変換画像合成パラメタとして出力する
    ことを特徴とする請求項1記載の周辺監視装置。
  16. 前記撮像画像は、レンズ歪を含む画像であり、
    前記画像合成部は、あらかじめ定められた1つ以上の前記基準画像合成パラメタと、あらかじめ定められた1つ以上の前記座標変換パラメタによって生成される前記周辺画像における誤差が、最も小さくなるレンズ歪パラメタを持つ前記撮像画像を用いて、前記周辺画像を生成する
    ことを特徴とする請求項1記載の周辺監視装置。
  17. 前記周辺監視装置は、さらに、
    前記周辺監視装置を搭載する移動体の姿勢に関する情報を含む移動体の状態を検出する状態検出部を備え、
    前記座標変換パラメタ取得部は、前記位置ずれ情報取得部によって取得された前記位置ずれ情報、および前記状態検出部によって検出された前記移動体の状態に基づいて、前記座標変換パラメタを取得する
    ことを特徴とする請求項1記載の周辺監視装置。
  18. 前記周辺監視装置は、さらに、
    ユーザーから補正量を受け付ける受付部を備え、
    前記位置ずれ情報取得部は、前記受付部によって受け付けられた前記補正量を前記位置ずれ情報として取得する
    ことを特徴とする請求項1記載の周辺監視装置。
  19. 前記周辺監視装置は、さらに、
    前記カメラの位置ずれ量を検出する位置ずれ量検出部を備え、
    前記位置ずれ情報取得部は、前記位置ずれ量検出部によって検出された前記位置ずれ量を前記位置ずれ情報として取得する
    ことを特徴とする請求項1記載の周辺監視装置。
  20. カメラによって撮像された撮像画像を用いて周辺画像を生成する周辺監視方法であって、
    前記カメラの位置変動に関する情報である位置ずれ情報を取得する位置ずれ情報取得ステップと、
    前記位置ずれ情報取得ステップによって取得された前記位置ずれ情報に基づいて、前記位置変動に伴う前記周辺画像の歪みを補正するための座標変換パラメタを取得する座標変換パラメタ取得ステップと、
    前記撮像画像を用いて前記周辺画像を生成するための、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報を含む基準画像合成パラメタを取得する画像合成パラメタ取得ステップと、
    前記画像合成パラメタ取得ステップによって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得ステップによって取得された前記座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する座標変換ステップと、
    前記撮像画像に対して前記変換画像合成パラメタを用いて、前記周辺画像を生成して出力する画像合成ステップとを含み、
    前記基準画像合成パラメタは、ルックアップテーブルを作成する際のカメラ位置に基づいて生成されたルックアップテーブルを含み、前記ルックアップテーブルは、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報である
    ことを特徴とする周辺監視方法。
  21. カメラによって撮像された撮像画像を用いて周辺画像を生成するためのプログラムであって、
    前記カメラの位置変動に関する情報である位置ずれ情報を取得する位置ずれ情報取得ステップと、
    前記位置ずれ情報取得ステップによって取得された前記位置ずれ情報に基づいて、前記位置変動に伴う前記周辺画像の歪みを補正するための座標変換パラメタを取得する座標変換パラメタ取得ステップと、
    前記撮像画像を用いて前記周辺画像を生成するための、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報を含む基準画像合成パラメタを取得する画像合成パラメタ取得ステップと、
    前記画像合成パラメタ取得ステップによって取得された前記基準画像合成パラメタに含まれる画像座標を、前記座標変換パラメタ取得ステップによって取得された前記座標変換パラメタを用いて座標変換し、変換画像合成パラメタとして出力する座標変換ステップと、
    前記撮像画像に対して前記変換画像合成パラメタを用いて、前記周辺画像を生成して出力する画像合成ステップとをコンピュータに実行させ、
    前記基準画像合成パラメタは、ルックアップテーブルを作成する際のカメラ位置に基づいて生成されたルックアップテーブルを含み、前記ルックアップテーブルは、前記周辺画像の各画素に対応する前記撮像画像上の画素位置を示す画像座標の情報である
    ことを特徴とするプログラム。
JP2006519031A 2005-02-15 2006-02-13 周辺監視装置および周辺監視方法 Active JP3968375B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005038295 2005-02-15
JP2005038295 2005-02-15
PCT/JP2006/302478 WO2006087993A1 (ja) 2005-02-15 2006-02-13 周辺監視装置および周辺監視方法

Publications (2)

Publication Number Publication Date
JP3968375B2 true JP3968375B2 (ja) 2007-08-29
JPWO2006087993A1 JPWO2006087993A1 (ja) 2008-07-03

Family

ID=36916399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006519031A Active JP3968375B2 (ja) 2005-02-15 2006-02-13 周辺監視装置および周辺監視方法

Country Status (5)

Country Link
US (1) US8139114B2 (ja)
EP (1) EP1850595B1 (ja)
JP (1) JP3968375B2 (ja)
CN (1) CN100566406C (ja)
WO (1) WO2006087993A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019107835A1 (de) 2018-03-30 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. Bildkombiniervorrichtung, Verfahren zum Kombinieren von Bildern und Programm
JP2021002790A (ja) * 2019-06-24 2021-01-07 株式会社デンソーテン カメラパラメータ設定装置、カメラパラメータ設定方法、及びカメラパラメータ設定プログラム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101008917B1 (ko) * 2006-09-14 2011-01-17 후지쯔 가부시끼가이샤 화상 처리 방법 및 장치와 그 프로그램을 기록한 기록 매체
JP4859652B2 (ja) 2006-12-15 2012-01-25 アルパイン株式会社 画像表示装置
JP4879031B2 (ja) * 2007-01-11 2012-02-15 三洋電機株式会社 運転支援システム、画像処理装置及びずれ検出方法
US7961945B2 (en) * 2007-02-13 2011-06-14 Technische Universität München System and method for on-the-fly segmentations for image deformations
JP5298507B2 (ja) * 2007-11-12 2013-09-25 セイコーエプソン株式会社 画像表示装置及び画像表示方法
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
JP4874280B2 (ja) * 2008-03-19 2012-02-15 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
JP2009253571A (ja) * 2008-04-04 2009-10-29 Clarion Co Ltd 車両用モニタ映像生成装置
JP4555876B2 (ja) * 2008-05-30 2010-10-06 株式会社日本自動車部品総合研究所 車載カメラのキャリブレーション方法
DE102008034594B4 (de) * 2008-07-25 2021-06-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren sowie Informationssystem zur Information eines Insassen eines Fahrzeuges
ITBO20080506A1 (it) * 2008-08-05 2010-02-06 Spal Automotive Srl Sistema di visualizzazione per veicoli.
US9279882B2 (en) * 2008-09-19 2016-03-08 Caterpillar Inc. Machine sensor calibration system
JP5182042B2 (ja) 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5168601B2 (ja) * 2010-03-31 2013-03-21 アイシン・エィ・ダブリュ株式会社 自車位置認識システム
JP5444139B2 (ja) * 2010-06-29 2014-03-19 クラリオン株式会社 画像のキャリブレーション方法および装置
WO2012007993A1 (ja) * 2010-07-14 2012-01-19 三菱電機株式会社 画像合成装置
CN102438153B (zh) * 2010-09-29 2015-11-25 华为终端有限公司 多摄像机图像校正方法和设备
WO2012075250A1 (en) * 2010-12-01 2012-06-07 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
EP2469467A1 (en) * 2010-12-23 2012-06-27 Alcatel Lucent An integrated method for camera planning and positioning
EP2511137B1 (en) * 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
JP5709675B2 (ja) * 2011-07-07 2015-04-30 クラリオン株式会社 車両周囲画像撮像システム
WO2013016409A1 (en) 2011-07-26 2013-01-31 Magna Electronics Inc. Vision system for vehicle
JP2013186245A (ja) * 2012-03-07 2013-09-19 Denso Corp 車両周辺監視装置
US9466215B2 (en) * 2012-03-26 2016-10-11 Robert Bosch Gmbh Multi-surface model-based tracking
US9338439B2 (en) 2012-04-02 2016-05-10 Intel Corporation Systems, methods, and computer program products for runtime adjustment of image warping parameters in a multi-camera system
CN102653260B (zh) * 2012-05-09 2014-08-13 邝君 汽车定点定位引导系统
WO2014073282A1 (ja) * 2012-11-08 2014-05-15 住友重機械工業株式会社 舗装機械用画像生成装置及び舗装機械用操作支援システム
JP6153318B2 (ja) * 2012-11-30 2017-06-28 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6048189B2 (ja) * 2013-02-08 2016-12-21 株式会社リコー 投影システム、画像生成プログラム、情報処理装置及び画像生成方法
EP2804144A1 (en) * 2013-05-16 2014-11-19 SMR Patents S.à.r.l. Method and device for processing input image data
KR102092625B1 (ko) * 2013-10-15 2020-04-14 현대모비스 주식회사 차량 상태 경보 방법 및 이를 위한 장치
US9426365B2 (en) * 2013-11-01 2016-08-23 The Lightco Inc. Image stabilization related methods and apparatus
US9986173B2 (en) * 2014-05-16 2018-05-29 GM Global Technology Operations LLC Surround-view camera system (VPM) online calibration
US9940694B2 (en) * 2014-05-23 2018-04-10 Synopsys, Inc. Resolution enhancement techniques based on holographic imaging technology
JP6439287B2 (ja) * 2014-06-18 2018-12-19 株式会社デンソー 運転支援装置、運転支援方法、画像補正装置、画像補正方法
CN104020751B (zh) * 2014-06-23 2016-08-24 河海大学常州校区 基于物联网的校园安全监测方法
KR102268641B1 (ko) * 2014-07-10 2021-06-23 현대모비스 주식회사 어라운드 뷰 시스템 및 그 동작방법
KR101566912B1 (ko) 2014-08-04 2015-11-13 현대모비스 주식회사 Avm 장치 및 방법
KR102227850B1 (ko) * 2014-10-29 2021-03-15 현대모비스 주식회사 차량용 후방 카메라의 영상 보정 방법
CN104385987B (zh) * 2014-11-14 2017-01-11 东风汽车有限公司 一种汽车监控方法及系统
CN104442569B (zh) * 2014-11-14 2016-11-02 东风汽车有限公司 一种汽车监控影像生成方法及系统
US10127463B2 (en) 2014-11-21 2018-11-13 Magna Electronics Inc. Vehicle vision system with multiple cameras
JP2016225865A (ja) * 2015-06-01 2016-12-28 東芝アルパイン・オートモティブテクノロジー株式会社 俯瞰画像生成装置
JP6413974B2 (ja) * 2015-08-05 2018-10-31 株式会社デンソー キャリブレーション装置、キャリブレーション方法、及びプログラム
US10187590B2 (en) 2015-10-27 2019-01-22 Magna Electronics Inc. Multi-camera vehicle vision system with image gap fill
JP6091586B1 (ja) * 2015-11-12 2017-03-08 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム
WO2018008085A1 (ja) * 2016-07-05 2018-01-11 三菱電機株式会社 認知領域推定装置、認知領域推定方法および認知領域推定プログラム
JP6724834B2 (ja) * 2017-03-23 2020-07-15 日産自動車株式会社 表示装置の制御方法および表示装置
WO2019034916A1 (en) * 2017-08-17 2019-02-21 Harman International Industries, Incorporated SYSTEM AND METHOD FOR PRESENTING AND CONTROLLING VIRTUAL CAMERA IMAGE FOR A VEHICLE
JP2019102907A (ja) * 2017-11-30 2019-06-24 キヤノン株式会社 設定装置、設定方法、及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58110334A (ja) 1981-12-23 1983-06-30 Hino Motors Ltd 路面視界表示装置
JPH1178692A (ja) 1997-09-03 1999-03-23 Nissan Motor Co Ltd 車両用映像提示装置
JP2002135765A (ja) 1998-07-31 2002-05-10 Matsushita Electric Ind Co Ltd カメラキャリブレーション指示装置及びカメラキャリブレーション装置
EP2259220A3 (en) * 1998-07-31 2012-09-26 Panasonic Corporation Method and apparatus for displaying image
WO2000020257A1 (fr) 1998-10-08 2000-04-13 Matsushita Electric Industrial Co., Ltd. Dispositif d'assistance a la conduite et support enregistre
JP3445197B2 (ja) 1998-10-08 2003-09-08 松下電器産業株式会社 運転操作補助装置
EP1179958B1 (en) 1999-04-16 2012-08-08 Panasonic Corporation Image processing device and monitoring system
EP1150252B1 (en) * 2000-04-28 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Synthesis of image from a plurality of camera views
JP4512293B2 (ja) * 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
JP2003346189A (ja) 2002-05-24 2003-12-05 Nissan Motor Co Ltd 車両用映像表示装置
US7583826B2 (en) 2002-07-31 2009-09-01 Casio Computer Co., Ltd. Image reading apparatus and its driving method
JP4161363B2 (ja) 2002-07-31 2008-10-08 カシオ計算機株式会社 接触検知装置及びその検知方法並びに該接触検知装置を適用した画像読取装置
JP4414661B2 (ja) * 2003-02-25 2010-02-10 オリンパス株式会社 ステレオアダプタ及びそれを用いた距離画像入力装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019107835A1 (de) 2018-03-30 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. Bildkombiniervorrichtung, Verfahren zum Kombinieren von Bildern und Programm
JP2021002790A (ja) * 2019-06-24 2021-01-07 株式会社デンソーテン カメラパラメータ設定装置、カメラパラメータ設定方法、及びカメラパラメータ設定プログラム

Also Published As

Publication number Publication date
CN1943236A (zh) 2007-04-04
EP1850595A4 (en) 2014-08-06
JPWO2006087993A1 (ja) 2008-07-03
US20070041659A1 (en) 2007-02-22
CN100566406C (zh) 2009-12-02
WO2006087993A1 (ja) 2006-08-24
EP1850595A1 (en) 2007-10-31
EP1850595B1 (en) 2016-07-13
US8139114B2 (en) 2012-03-20

Similar Documents

Publication Publication Date Title
JP3968375B2 (ja) 周辺監視装置および周辺監視方法
JP7245295B2 (ja) 車両・被牽引車両コンビの周辺シーンを表示するための方法、並びに、装置
JP4863791B2 (ja) 車両周辺画像生成装置および画像切替方法
JP6603094B2 (ja) キャリブレーション装置、キャリブレーション方法、及び、キャリブレーションプログラム
US8817079B2 (en) Image processing apparatus and computer-readable recording medium
JP5072576B2 (ja) 画像表示方法および画像表示装置
JP4596978B2 (ja) 運転支援システム
JP5013773B2 (ja) 車載画像処理装置及びその視点変換情報生成方法
JP4803449B2 (ja) 車載カメラの校正装置、校正方法、並びにこの校正方法を用いた車両の生産方法
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
WO2012032809A1 (ja) 運転支援装置
JP2018531530A5 (ja)
JP2004297808A (ja) 移動体周辺監視装置
JP2011182236A (ja) カメラキャリブレーション装置
JP2008271308A (ja) 画像処理装置及び方法並びに車両
WO2001058164A1 (fr) Ecran de proximite pour vehicule automobile
JP2010103730A (ja) 車載カメラのキャリブレーション装置およびキャリブレーション方法
JP2006268076A (ja) 運転支援システム
JP3301421B2 (ja) 車両周囲状況提示装置
JP2005269010A (ja) 画像生成装置、画像生成プログラム、及び画像生成方法
JP2008034964A (ja) 画像表示装置
JP2003346189A (ja) 車両用映像表示装置
JP4945315B2 (ja) 運転支援システム及び車両
WO2010007960A1 (ja) 車載用カメラの視点変換映像システム及び視点変換映像取得方法
JP2002293196A (ja) 車載カメラの画像表示方法及びその装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3968375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100608

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110608

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120608

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120608

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130608

Year of fee payment: 6