JP3300334B2 - Image processing device and monitoring system - Google Patents

Image processing device and monitoring system

Info

Publication number
JP3300334B2
JP3300334B2 JP2000613188A JP2000613188A JP3300334B2 JP 3300334 B2 JP3300334 B2 JP 3300334B2 JP 2000613188 A JP2000613188 A JP 2000613188A JP 2000613188 A JP2000613188 A JP 2000613188A JP 3300334 B2 JP3300334 B2 JP 3300334B2
Authority
JP
Japan
Prior art keywords
image
image processing
vehicle
camera
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000613188A
Other languages
Japanese (ja)
Inventor
修作 岡本
雅通 中川
一生 登
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2000613188A priority Critical patent/JP3300334B2/en
Priority claimed from PCT/JP2000/002474 external-priority patent/WO2000064175A1/en
Application granted granted Critical
Publication of JP3300334B2 publication Critical patent/JP3300334B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】技術分野 本発明は、複数のカメラによって撮像された画像を用い
て合成画像を生成する画像処理技術に関するものであ
り、特に、車両運転の際の安全確認の補助などに利用さ
れる監視システムに有効な技術に属する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique for generating a composite image using images captured by a plurality of cameras, and more particularly to a monitoring method used for assisting safety confirmation when driving a vehicle. Belongs to the technology effective for the system

【0002】背景技術 従来の一般的な監視システムでは、監視対象となる部分
を1台または複数台の監視カメラで撮影し、その画像を
モニタに表示する構成が一般的である。この場合、通常
は、設置されたカメラの台数に応じて、モニタを準備す
る。
2. Description of the Related Art In a conventional general monitoring system, a part to be monitored is photographed by one or a plurality of monitoring cameras, and the image is displayed on a monitor. In this case, usually, monitors are prepared according to the number of installed cameras.

【0003】また、従来の車両用の安全監視システムと
しては、例えば、車両の周囲を撮影するカメラを設置
し、カメラで撮影した画像を運転席近くに設置したモニ
ターに表示させるものがある。このシステムにより、運
転者は、車両後方のような、目視やミラーでは安全確認
が困難な場所を、モニタで確認することができる。
As a conventional safety monitoring system for a vehicle, for example, there is a system in which a camera for photographing the periphery of the vehicle is installed and an image photographed by the camera is displayed on a monitor installed near a driver's seat. With this system, the driver can confirm on the monitor a place, such as the rear of the vehicle, where it is difficult to visually confirm the safety with a mirror or a mirror.

【0004】さらに、日本国特許公報第2696516
号では、ギアや車速に応じて、モニタ画面の分割表示を
行う構成が開示されている。具体的には、車両が停止・
微速状態にあると判定したときは、モニタ画面を3分割
して、車両の左右および下方に配置された3個のカメラ
の撮像画像を合成して再生し、車両が前方走行状態にあ
ると判定したときは、モニタ画面を2分割して、車両の
左右に配置された2個のカメラの撮像画像を合成して再
生する。
Further, Japanese Patent Publication No. 2696516
Discloses a configuration in which a monitor screen is divided and displayed according to a gear and a vehicle speed. Specifically, the vehicle stops
When it is determined that the vehicle is in the low-speed state, the monitor screen is divided into three, images captured by the three cameras arranged on the left, right, and below the vehicle are synthesized and reproduced, and it is determined that the vehicle is in a forward running state. In this case, the monitor screen is divided into two, and the images captured by the two cameras arranged on the left and right sides of the vehicle are synthesized and reproduced.

【0005】また、日本国特許公開公報 特開平11−
78692号では、車両用映像提示装置として、遭遇し
た場面毎に的確な映像を合成・表示する構成が開示され
ている。具体的には、後退車庫入れ状態か、前進車庫入
れ状態か、縦列駐車状態か、あるいは見通しの悪い交差
点に進入した状態か等の車両の運転状態に応じて、カメ
ラ画像の変形・合成を行う。
Further, Japanese Patent Laid-Open Publication No.
No. 78692 discloses an arrangement for synthesizing and displaying an accurate image for each scene encountered as a vehicle image presentation device. Specifically, the camera image is deformed and synthesized according to the driving state of the vehicle such as a backward garage state, a forward garage state, a parallel parking state, or a state of entering an intersection with poor visibility. .

【0006】しかしながら、このような従来の構成は、
車両の運転者などのようなユーザにとって、必ずしも利
用しやすいシステムであるとはいえない。
However, such a conventional configuration is
The system is not always easy to use for a user such as a vehicle driver.

【0007】発明の開示 本発明は、画像処理装置または監視システムとして、車
両の運転者などのユーザの利便性を、従来よりもさらに
向上させることを目的とする。
DISCLOSURE OF THE INVENTION An object of the present invention is to improve the convenience of a user such as a driver of a vehicle as an image processing apparatus or a monitoring system more than before.

【0008】具体的には、本発明は、画像処理装置とし
て、車両の周囲を撮影する複数のカメラの撮像画像を入
力とし、これらのカメラ画像から、仮想視点から見た合
成画像を生成する画像処理部を備え、前記画像処理部
は、前記仮想視点の位置、視線の向きおよび焦点距離の
うちの少なくともいずれか1つを、前記車両の走行状態
に応じて変更するものである。
[0008] More specifically, the present invention provides an image processing apparatus which receives, as input, images taken by a plurality of cameras for photographing the periphery of a vehicle, and uses these camera images to generate a composite image viewed from a virtual viewpoint. A processing unit, wherein the image processing unit changes at least one of a position of the virtual viewpoint, a direction of a line of sight, and a focal length according to a traveling state of the vehicle.

【0009】そして、前記画像処理部は、前記仮想視点
の位置、視線の向きおよび焦点距離のうちの少なくとも
いずれか1つを、前記車両の走行速度に応じて変更する
のが好ましい。
It is preferable that the image processing section changes at least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length according to the running speed of the vehicle.

【0010】また、前記画像処理部は、仮想視点の位
置、視線の向き、および焦点距離のうちの少なくともい
ずれか1つの変更とともに、変更後の仮想視点の視野範
囲外画像の取込の制御を行うのが好ましい。さらに、変
更後の仮想視点の視野範囲外画像の取込の制御を、画像
合成のためのモデルを変更することによって行うのが好
ましい。
The image processing unit controls at least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length, and controls the capture of the image outside the visual field of the changed virtual viewpoint. It is preferred to do so. Furthermore, it is preferable to control the capture of the image outside the visual field range of the virtual viewpoint after the change by changing a model for image synthesis.

【0011】また、前記画像処理部は、前記仮想視点の
位置、視線の向きおよび焦点距離のうちの少なくともい
ずれか1つを、前記車両の舵角に応じて変更するのが好
ましい。
It is preferable that the image processing section changes at least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length in accordance with the steering angle of the vehicle.

【0012】また、前記画像処理部は、前記仮想視点の
位置、視線の向きおよび焦点距離のうちの少なくともい
ずれか1つを、前記車両が備えている物体検出センサに
よる検出結果に応じて変更するのが好ましい。
The image processing unit changes at least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length in accordance with the detection result of the object detection sensor provided in the vehicle. Is preferred.

【0013】また、前記画像処理部は、原マッピングテ
ーブルを有し、この原マッピングテーブルから切り出し
たマッピングテーブルを用いて合成画像の生成を行うも
のであり、かつ、前記原マッピングテーブルから切り出
すマッピングテーブルを変更することによって、仮想視
点の位置、視線の向き、および焦点距離のうちの少なく
ともいずれか1つの変更を行うのが好ましい。
The image processing section has an original mapping table, generates a composite image using the mapping table cut out from the original mapping table, and generates a composite image using the mapping table cut out from the original mapping table. Is preferably changed at least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length.

【0014】また、本発明は、画像処理装置として、車
両の周囲を撮影する複数のカメラの撮像画像を入力と
し、これらのカメラ画像から、仮想視点から見た合成画
像を生成する画像処理部を備え、前記画像処理部は、前
記車両の走行状態に応じて、前記仮想視点の視野範囲外
画像の取込の制御を行うものである。
According to the present invention, there is provided an image processing unit as an image processing device, which receives, as input, images taken by a plurality of cameras for photographing the periphery of a vehicle, and generates a composite image viewed from a virtual viewpoint from these camera images. The image processing unit controls acquisition of an image outside the visual field of view of the virtual viewpoint according to a traveling state of the vehicle.

【0015】また、本発明は、監視システムとして、車
両の周囲を撮影する複数のカメラと、前記複数のカメラ
の撮像画像を入力とし、これらのカメラ画像から、仮想
視点から見た合成画像を生成する画像処理部と、前記合
成画像を表示する表示部とを備え、前記画像処理部は、
前記仮想視点の位置、視線の向きおよび焦点距離のうち
の少なくともいずれか1つを、前記車両の走行状態に応
じて変更するものである。
According to the present invention, as a surveillance system, a plurality of cameras for photographing the periphery of a vehicle and images taken by the plurality of cameras are input, and a synthetic image viewed from a virtual viewpoint is generated from these camera images. An image processing unit, and a display unit for displaying the composite image, the image processing unit,
At least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length is changed according to the running state of the vehicle.

【0016】また、具体的には本発明は、画像処理装置
として、車両の周囲を撮影する複数のカメラの撮像画像
を入力とし、これらのカメラ画像から合成画像を生成す
る画像処理部を備え、前記画像処理部は、仮想視点から
見た第1の画像と、前記第1の画像の仮想視点と位置、
視線の向きおよび焦点距離のうちの少なくともいずれか
1つが異なる視点から見た、または前記第1の画像とモ
デルが異なる第2の画像とを含む画像を、前記合成画像
として生成するものである。
More specifically, the present invention includes, as an image processing device, an image processing unit that receives images captured by a plurality of cameras that capture the surroundings of a vehicle and generates a composite image from these camera images. The image processing unit includes: a first image viewed from a virtual viewpoint; a virtual viewpoint and a position of the first image;
An image viewed from a viewpoint in which at least one of the line-of-sight direction and the focal length is different, or an image including the first image and a second image having a different model is generated as the composite image.

【0017】そして、前記第2の画像は、前記カメラ画
像の少なくとも1つであるのが好ましい。
[0017] Preferably, the second image is at least one of the camera images.

【0018】また、前記第1の画像は、自車およびその
周辺を示す近傍画像であり、前記第2の画像は、前記近
傍画像が示す自車の周辺領域よりも遠方の領域を示す遠
方画像であるのが好ましい。そして、前記画像処理部
は、前記合成画像において、前記近傍画像の周囲に前記
遠方画像を配置するのが好ましい。さらには、前記遠方
画像は、前記近傍画像と連続性を有する画像であるのが
好ましい。
Further, the first image is a nearby image showing the own vehicle and its surroundings, and the second image is a far image showing a region farther than the surrounding area of the own vehicle shown by the nearby image. It is preferred that And it is preferable that the said image processing part arrange | positions the said distant image around the said vicinity image in the said composite image. Furthermore, it is preferable that the far image is an image having continuity with the near image.

【0019】また、前記第1の画像は、自車両の少なく
とも一部と自車両の周囲の少なくとも一部とを示す画像
であり、前記第2の画像は、前記第1の画像が示す領域
の少なくとも一部を拡大した画像であるのが好ましい。
Further, the first image is an image showing at least a part of the own vehicle and at least a part around the own vehicle, and the second image is an image of an area indicated by the first image. It is preferable that the image is at least partially enlarged.

【0020】また、本発明は、監視システムとして、車
両の周囲を撮影する複数のカメラと、前記複数のカメラ
の撮像画像を入力とし、これらのカメラ画像から合成画
像を生成する画像処理部と、前記合成画像を表示する表
示部とを備え、前記画像処理部は、仮想視点から見た第
1の画像と、前記第1の画像の仮想視点と位置、視線の
向きおよび焦点距離のうちの少なくともいずれか1つが
異なる視点から見た、または前記第1の画像とモデルが
異なる第2の画像とを含む画像を、前記合成画像として
生成するものである。
The present invention also provides, as a monitoring system, a plurality of cameras for photographing the periphery of a vehicle, an image processing unit which receives images taken by the plurality of cameras, and generates a composite image from these camera images. A display unit that displays the composite image, wherein the image processing unit includes a first image viewed from a virtual viewpoint, and at least one of a virtual viewpoint and a position of the first image, a line-of-sight direction, and a focal length. Any one of which is viewed from a different viewpoint or an image including the first image and a second image having a different model is generated as the composite image.

【0021】また、具体的には本発明は、車両の周囲を
撮影する複数のカメラの撮像画像を入力とし、これらの
カメラ画像から合成画像を生成する画像処理部を備え、
前記画像処理部は、前記合成画像において、自車両が存
在する車両領域の少なくとも一部と、自車両の周囲の少
なくとも一部を示し、いずれのカメラからも撮影されな
い車両周囲の死角領域の少なくとも一部である注意喚起
領域とを表示するものである。
More specifically, the present invention includes an image processing unit which receives images taken by a plurality of cameras for photographing the periphery of a vehicle and generates a composite image from these camera images.
The image processing unit indicates at least a part of a vehicle area where the own vehicle is present and at least a part of the surrounding area of the own vehicle in the composite image, and includes at least one of a blind spot area around the vehicle that is not photographed by any camera. A warning area, which is a part, is displayed.

【0022】そして、前記合成画像は、前記車両の上方
に設定された仮想視点から見た画像であるのが好まし
い。
Preferably, the composite image is an image viewed from a virtual viewpoint set above the vehicle.

【0023】また、前記画像処理部は、前記車両領域
に、自車両のイラスト画像または実画像を表示するのが
好ましい。
Further, it is preferable that the image processing section displays an illustration image or an actual image of the own vehicle in the vehicle area.

【0024】また、前記画像処理部は、各カメラ画像に
おける自車両の映り込み領域を示す領域データを用い
て、前記死角領域および車両領域を合わせた領域の範囲
を決定するのが好ましい。
It is preferable that the image processing section determines a range of an area in which the blind spot area and the vehicle area are combined, using area data indicating a reflection area of the own vehicle in each camera image.

【0025】また、本発明は、監視システムとして、車
両の周囲を撮影する複数のカメラと、前記複数のカメラ
の撮像画像を入力とし、これらのカメラ画像から合成画
像を生成する画像処理部と、前記合成画像を表示する表
示部とを備え、前記画像処理部は、前記合成画像におい
て、自車両が存在する車両領域の少なくとも一部と、自
車両の周囲の少なくとも一部を示しいずれのカメラから
も撮影されない車両周囲の死角領域の少なくとも一部で
ある注意喚起領域とを表示するものである。
The present invention also provides, as a monitoring system, a plurality of cameras for photographing the periphery of a vehicle, an image processing unit which receives images taken by the plurality of cameras and generates a composite image from these camera images, A display unit that displays the composite image, wherein the image processing unit indicates at least a part of a vehicle area where the host vehicle is present in the composite image, and at least a part of a surrounding area of the host vehicle, from any camera. And a warning area which is at least a part of a blind spot area around the vehicle which is not photographed.

【0026】また、具体的には本発明は、画像処理装置
として、車両の周囲を撮影する複数のカメラの撮影画像
を入力とし、これらのカメラ画像から合成画像を生成す
る画像処理部を備え、前記画像処理部は、合成画像の画
素とカメラ画像の画素との対応関係を記述する第1のマ
ッピングデータと、合成画像の画素とカメラ画像以外の
画素データとが対応することを示す識別子を記述する第
2のマッピングデータとを有するマッピングテーブルを
用いて、前記合成画像を生成するものである。
More specifically, the present invention includes, as an image processing apparatus, an image processing unit which receives images taken by a plurality of cameras for photographing the periphery of a vehicle and generates a composite image from these camera images. The image processing unit describes first mapping data describing a correspondence relationship between pixels of a composite image and pixels of a camera image, and describes an identifier indicating that the pixels of the composite image correspond to pixel data other than the camera image. The composite image is generated using a mapping table having second mapping data.

【0027】そして、前記カメラ画像以外の画素データ
は、前記車両または、前記車両の周囲の少なくとも一部
にある死角領域を示すものであるのが好ましい。
Preferably, the pixel data other than the camera image indicates the blind spot area in the vehicle or at least a part of the periphery of the vehicle.

【0028】また、前記画像処理部はカメラ画像以外の
所定の画像を記憶しており、前記第2のマッピングデー
タは、合成画像の画素に対し、当該画素に対応する,記
憶された前記所定の画像における座標値を記述するもの
であるのが好ましい。
Further, the image processing section stores a predetermined image other than a camera image, and the second mapping data stores, for a pixel of the composite image, the stored predetermined predetermined image corresponding to the pixel. It is preferable to describe coordinate values in an image.

【0029】また、前記第2のマッピングデータは、合
成画像の画素に対応する画素データを記述するものであ
るのが好ましい。
[0029] Preferably, the second mapping data describes pixel data corresponding to pixels of a composite image.

【0030】また、本発明は、画像処理装置として、車
両の周囲を撮影する複数のカメラの撮像画像を入力と
し、これらのカメラ画像から合成画像を生成する画像処
理部を備え、前記画像処理部は、合成画像の画素と、カ
メラ画像の画素データおよびカメラ画像以外の画素デー
タのうちの一方または両方からなる複数の画素データと
の対応関係を記述し、かつ、各画素データに対してそれ
ぞれ必要度を記述したマッピングデータを用い、各画素
データに対して必要度に応じた重み付けを行い、前記合
成画像の画素の画素データを生成するものである。
According to the present invention, there is provided an image processing device, comprising: an image processing unit that receives captured images of a plurality of cameras that capture the surroundings of a vehicle and generates a composite image from these camera images; Describes the correspondence between the pixels of the composite image and a plurality of pixel data consisting of one or both of the pixel data of the camera image and the pixel data other than the camera image. Using the mapping data describing the degrees, weighting is performed on each pixel data according to the degree of necessity, and pixel data of the pixels of the composite image is generated.

【0031】また、本発明は、画像処理装置として、車
両の周囲を撮影する複数のカメラの撮像画像を入力と
し、これらのカメラ画像から合成画像を生成する画像処
理部を備え、前記画像処理部は、原マッピングテーブル
を有し、この原マッピングテーブルから、合成画像の画
素とカメラ画像の画素との対応関係を記述するマッピン
グテーブルを切り出し、切り出したマッピングテーブル
を用いて、合成画像を生成するものである。
According to the present invention, there is provided an image processing apparatus, comprising: an image processing unit which receives images taken by a plurality of cameras for photographing the periphery of a vehicle and generates a composite image from these camera images; Has an original mapping table, cuts out a mapping table describing the correspondence between pixels of the composite image and pixels of the camera image from the original mapping table, and generates a composite image using the cut-out mapping table. It is.

【0032】発明を実施するための最良の形態 図1は本発明に係る監視システムの概念図である。図1
に示す監視システムにおいて、画像処理部2は、撮像部
1から出力された複数のカメラ画像を入力とし、これら
を合成して、仮想視点から見たときの合成画像を生成す
る。この合成画像は、例えば液晶ディスプレイのような
表示部3によって表示される。画像処理部2によって、
本発明に係る画像処理装置が構成される。
BEST MODE FOR CARRYING OUT THE INVENTION FIG. 1 is a conceptual diagram of a monitoring system according to the present invention. FIG.
In the monitoring system shown in (1), the image processing unit 2 receives a plurality of camera images output from the imaging unit 1 and combines them to generate a combined image when viewed from a virtual viewpoint. The composite image is displayed by the display unit 3 such as a liquid crystal display. By the image processing unit 2,
An image processing apparatus according to the present invention is configured.

【0033】ここでの説明では、本監視システムは、車
両に搭載されるものとし、駐車の際のアシストなどを用
途として用いられるものとする。
In this description, it is assumed that the monitoring system is mounted on a vehicle and is used for assisting parking and the like.

【0034】図2はカメラ配置の例、図3は図2のよう
に配置された各カメラの撮像画像の例である。図2に示
すように、ここでは5台のカメラが、車両のドアミラー
付近、後方ピラー付近および後部トランク上に、それぞ
れ配置されている。画像処理部2は、図3に示す5枚の
カメラ画像から、仮想視点から見たときの合成画像を生
成する。
FIG. 2 shows an example of camera arrangement, and FIG. 3 shows an example of an image picked up by each camera arranged as shown in FIG. As shown in FIG. 2, here, five cameras are arranged near the vehicle door mirror, near the rear pillar, and on the rear trunk. The image processing unit 2 generates a composite image when viewed from a virtual viewpoint from the five camera images illustrated in FIG.

【0035】仮想視点は、コンピュータグラフィックス
の映像生成におけるカメラ配置の場合と同様に、3次元
空間の任意の位置に、任意の方向に向けて、設定するこ
とができる。仮想視点を決定するパラメータは、3次元
空間での仮想視点の位置を表す座標(X座標,Y座標,
Z座標)と、その向きを表す3つの角度すなわち方位角
(水平回転)、仰角(傾き)およびTwist (光軸周りの
回転)と、視野範囲を決める焦点距離とからなる。焦点
距離は、仮想視点と合成画像を生成する投影面との距離
であり、小さいときは広角の画像になり、大きいときは
望遠の画像になる。実際のカメラなどでは、投影面のフ
ィルムのサイズ(35mm)に換算したときの距離(m
m)で表すことが多いが、本明細書では、合成画像のサ
イズを画素で表しているので、焦点距離も画素で考え
る。
The virtual viewpoint can be set at an arbitrary position in a three-dimensional space and in an arbitrary direction, similarly to the case of the camera arrangement in the image generation of computer graphics. The parameters for determining the virtual viewpoint are coordinates (X coordinate, Y coordinate,
Z coordinate), three angles representing its orientation, namely, azimuth (horizontal rotation), elevation (tilt) and Twist (rotation around the optical axis), and a focal length that determines the field of view. The focal length is the distance between the virtual viewpoint and the projection plane for generating the composite image. When the focal length is small, the image becomes a wide-angle image, and when it is large, the image becomes a telephoto image. In an actual camera or the like, the distance (m) when converted to the size of the film on the projection surface (35 mm)
m), but in this specification, since the size of the composite image is represented by pixels, the focal length is also considered by pixels.

【0036】この仮想視点の位置、向きおよび焦点距離
を状況に応じて選択することによって、適切な合成画像
を生成することが可能になる。
By selecting the position, orientation, and focal length of the virtual viewpoint according to the situation, it is possible to generate an appropriate composite image.

【0037】図4は仮想視点と実カメラとの関係を概念
的に示す図である。図4では、仮想視点は車両の上方に
設定されている。図5は生成された合成画像の例であ
り、図4に示す仮想視点から見た、自車およびその近辺
を示す画像が生成されている。
FIG. 4 is a diagram conceptually showing the relationship between the virtual viewpoint and the real camera. In FIG. 4, the virtual viewpoint is set above the vehicle. FIG. 5 is an example of the generated composite image, and an image showing the own vehicle and its vicinity viewed from the virtual viewpoint shown in FIG. 4 is generated.

【0038】本実施形態では、画像処理部2は、複数の
カメラ画像から合成画像を生成するために、マッピング
テーブル4を用いる。ここで、「マッピングテーブル」
とは、合成画像の画素と、各カメラ画像の画素データと
の対応関係が記述されたテーブルのことをいう。なお、
後述するように、マッピングテーブルには、合成画像の
画素とカメラ画像以外の画素データとの対応関係も記述
可能である。
In the present embodiment, the image processing section 2 uses the mapping table 4 to generate a composite image from a plurality of camera images. Here, "mapping table"
Is a table in which the correspondence between the pixels of the composite image and the pixel data of each camera image is described. In addition,
As will be described later, the mapping table can also describe the correspondence between pixels of the composite image and pixel data other than the camera image.

【0039】<マッピングテーブルの原理説明> 以下、マッピングテーブルを用いて、複数のカメラ画像
から合成画像を生成する動作について、説明する。
<Description of Principle of Mapping Table> The operation of generating a composite image from a plurality of camera images using the mapping table will be described below.

【0040】図6はこの動作の概要を説明するための図
である。図6(a)〜(c)は、互いに異なる位置に取
り付けられた3台のカメラ(図2におけるカメラ3,カ
メラ1およびカメラ2にそれぞれ対応する)の撮像画像
である。図6(d)は、図6(a)〜(c)の各カメラ
画像から合成画像を生成するために用いるマッピングテ
ーブルである。画像処理部2は、図6(a)〜(c)の
3枚のカメラ画像から、図6(d)のマッピングテーブ
ルの情報を基にして、図6(e)に示す1枚の合成画像
を生成するものとする。
FIG. 6 is a diagram for explaining the outline of this operation. FIGS. 6A to 6C show captured images of three cameras (corresponding to camera 3, camera 1 and camera 2 in FIG. 2, respectively) attached to different positions. FIG. 6D is a mapping table used to generate a composite image from each camera image of FIGS. 6A to 6C. The image processing unit 2 converts one camera image shown in FIG. 6E from the three camera images shown in FIGS. 6A to 6C based on the information in the mapping table shown in FIG. 6D. Is generated.

【0041】図6(d)に示すマッピングテーブルは、
図6(e)に示す合成画像の各画素について、それぞれ
マッピングデータを有している。各マッピングデータ
は、対応する合成画像の画素が、どのカメラ画像の画素
によって生成されるか、という情報を記述する。
The mapping table shown in FIG.
Each pixel of the composite image shown in FIG. 6E has mapping data. Each mapping data describes information indicating which camera image pixel generates a corresponding composite image pixel.

【0042】合成画像を生成する、ということは、合成
画像の全ての画素の値を決定するということである。こ
こでは、画像処理部2は左上から順次、ラスター順に合
成画像の画素の値を決定するものとし、その途中で画素
P1の値を決定する場合を例にとって、その動作を説明
する。
Generating a composite image means determining the values of all pixels in the composite image. Here, it is assumed that the image processing unit 2 determines the values of the pixels of the composite image sequentially in the raster order from the upper left, and the operation will be described with an example of determining the value of the pixel P1 in the middle.

【0043】まず、合成画像の画素P1に対応するマッ
ピングテーブルMP1を参照する。マッピングデータM
P1には、対応するカメラ番号と、そのカメラ画像の対
応する画素の座標とが記述されている。いまマッピング
データMP1には、カメラ番号として「1」、X座標と
して「340」、Y座標として「121」が記述されて
いる。
First, reference is made to the mapping table MP1 corresponding to the pixel P1 of the composite image. Mapping data M
In P1, the corresponding camera number and the coordinates of the corresponding pixel of the camera image are described. Now, in the mapping data MP1, "1" is described as the camera number, "340" as the X coordinate, and "121" as the Y coordinate.

【0044】画像処理部2は、マッピングデータMP1
の記述内容に従って、図6(b)に示すカメラ1の撮像
画像の座標(340,121)の画素データC1を参照
し、画素データC1の値から、合成画像の画素P1の値
を決定する。ここでは、最も簡単な決定方法として、画
素データC1の値をそのまま画素P1の値とする。同様
の方法によって、合成画像の各画素について値を決定す
ることによって、図6(e)に示すような合成画像が生
成される。
The image processing section 2 has the mapping data MP1
The pixel data C1 at the coordinates (340, 121) of the image captured by the camera 1 shown in FIG. Here, as the simplest determination method, the value of the pixel data C1 is directly used as the value of the pixel P1. By determining a value for each pixel of the composite image in a similar manner, a composite image as shown in FIG. 6E is generated.

【0045】例えば、合成画像の画素P2に対応するマ
ッピングデータMP2は、図6(c)に示すカメラ2の
撮像画像の画素データC2を示しているので、画素P2
の値として画素データC2の値が与えられる。同様に、
合成画像の画素P3に対応するマッピングデータMP3
は、図6(a)に示すカメラ3の撮像画像の画素データ
C3を示しているので、画素P3の値として画素データ
C3の値が与えられる。図6(d)のマッピングテーブ
ルにおいて、領域R1はカメラ1に対応し、領域R2は
カメラ2に対応し、領域R3はカメラ3に対応する。
For example, the mapping data MP2 corresponding to the pixel P2 of the composite image indicates the pixel data C2 of the image captured by the camera 2 shown in FIG.
Is given the value of the pixel data C2. Similarly,
Mapping data MP3 corresponding to pixel P3 of the composite image
Indicates the pixel data C3 of the image captured by the camera 3 shown in FIG. 6A, so that the value of the pixel data C3 is given as the value of the pixel P3. In the mapping table of FIG. 6D, the region R1 corresponds to the camera 1, the region R2 corresponds to the camera 2, and the region R3 corresponds to the camera 3.

【0046】各カメラに対応する3つの領域R1〜R3
以外の領域R4は、各カメラの撮影領域以外であった
り、自車両によって隠されている死角であったりするこ
とによって、対応するカメラ画像が存在しない領域であ
る。例えば合成画像の画素P4は、そのような領域R4
の画素である。この場合、画素P4に対応するマッピン
グデータMP4のカメラ番号には、対応するカメラ画像
が存在しないことを示す特定のカメラ番号(ここでは
「−1」とする)を記述しておく。そして、カメラ番号
「−1」のとき、対応する画素P4には、撮影領域外や
死角であることを示す所定の画素データを設定する。こ
こでは、所定の画素データとして黒色を設定する。
Three regions R1 to R3 corresponding to each camera
The other region R4 is a region where there is no corresponding camera image due to a region other than the photographing region of each camera or a blind spot hidden by the own vehicle. For example, the pixel P4 of the composite image has such a region R4
Pixel. In this case, in the camera number of the mapping data MP4 corresponding to the pixel P4, a specific camera number (here, “−1”) indicating that there is no corresponding camera image is described. When the camera number is “−1”, the corresponding pixel P4 is set with predetermined pixel data indicating that the pixel is outside the shooting area or a blind spot. Here, black is set as the predetermined pixel data.

【0047】図6の例では、マッピングテーブルは、車
両上方の仮想視点から車両の周囲を見下ろすような合成
画像が生成可能なように構成されている。このようなマ
ッピングテーブルは、後述するように、いわゆる路面平
面モデルを前提とした幾何変換を用いて作成することが
可能である。あるいは、合成画像を見ながら、試行錯誤
しながら作成してもかまわない。
In the example of FIG. 6, the mapping table is configured to generate a composite image that looks down around the vehicle from a virtual viewpoint above the vehicle. As will be described later, such a mapping table can be created by using a geometric transformation on the premise of a so-called road surface plane model. Alternatively, it may be created by trial and error while viewing the composite image.

【0048】実際には、マッピングテーブルを用いるこ
とによって、合成画像とカメラ画像の画素データとの対
応関係を、用途に応じて、自由に設定することができ
る。例えば、カメラ画像の任意の領域を拡大または縮小
してカメラ画像の一部に合成したり、複数のカメラ画像
を並べて合成するなど、任意の合成画像を生成すること
ができる。
Actually, by using the mapping table, the correspondence between the composite image and the pixel data of the camera image can be freely set according to the application. For example, an arbitrary synthesized image can be generated by enlarging or reducing an arbitrary region of the camera image and synthesizing it with a part of the camera image, or by arranging and synthesizing a plurality of camera images.

【0049】そして、いかなる合成画像を生成するマッ
ピングテーブルであっても、画像処理部2は、合成画像
各画素について、マッピングデータの参照、指定された
カメラ画像の画素データの参照、合成画像の画素値の設
定を行うステップを実行するだけですむので、その処理
量は、画像合成をその都度演算によって実行する場合に
比べて格段に小さくなる。このため、本方式は、合成画
像の種類にかかわらず処理量が一定になり、かつ、高速
処理が可能であるので、リアルタイムに一定時間で処理
を終える必要のある監視や運転補助などの用途に対し
て、特に適している。
Regardless of the mapping table for generating any composite image, the image processing unit 2 refers to the mapping data, refers to the pixel data of the designated camera image, Since it is only necessary to execute the step of setting the value, the processing amount is much smaller than in the case where the image synthesis is executed by calculation each time. For this reason, this system has a constant processing amount regardless of the type of synthesized image and can perform high-speed processing, so it is used for monitoring and driving assistance, etc., which need to finish processing in a fixed time in real time. In particular, they are particularly suitable.

【0050】(合成画像生成動作の第1例) 図7は本実施形態に係る監視システムの構成例を示す図
である。図7において、画像処理部2は、画像合成部2
00、表示パターン記憶部210および表示パターン設
定部220を備えている。表示パターン記憶部210
は、上述したようなマッピングテーブルを複数個記憶す
るマッピングテーブル記憶部211を有している。表示
パターン設定部220は、マッピングテーブル記憶部2
11に格納されたマッピングテーブルから、生成する合
成画像の表示パターンに応じて1個のマッピングテーブ
ルMPTを選択し、画像合成部200のマッピングテー
ブル参照部202に設定する。
(First Example of Synthesized Image Generation Operation) FIG. 7 is a diagram showing a configuration example of a monitoring system according to the present embodiment. In FIG. 7, an image processing unit 2 includes an image synthesizing unit 2
00, a display pattern storage unit 210 and a display pattern setting unit 220. Display pattern storage unit 210
Has a mapping table storage unit 211 for storing a plurality of mapping tables as described above. The display pattern setting unit 220 stores the mapping table storage unit 2
One mapping table MPT is selected from the mapping tables stored in 11 according to the display pattern of the synthesized image to be generated, and set in the mapping table reference unit 202 of the image synthesis unit 200.

【0051】また、表示パターン記憶部210は、様々
なイラスト画像を記憶するイラスト記憶部212を有し
ている。表示パターン設定部220は、合成画像の生成
に必要となるイラスト画像をイラスト画像記憶部212
から読み出し、画像合成部200のイラスト参照部20
3に設定する。ここでは、自車両を示すイラスト画像が
設定されるものとする。
The display pattern storage section 210 has an illustration storage section 212 for storing various illustration images. The display pattern setting unit 220 stores an illustration image necessary for generating a composite image in the illustration image storage unit 212.
From the image synthesizing unit 200.
Set to 3. Here, it is assumed that an illustration image indicating the own vehicle is set.

【0052】画像合成部200は、マッピングテーブル
参照部202に設定されたマッピングテーブルMPTに
従って、撮像部1から出力されたカメラ画像を用いて、
合成画像を生成する。タイミング生成部205は、合成
画像の動画系列を生成するためのタイミング信号を生成
する。
The image synthesizing unit 200 uses the camera image output from the imaging unit 1 in accordance with the mapping table MPT set in the mapping table reference unit 202.
Generate a composite image. The timing generation unit 205 generates a timing signal for generating a moving image sequence of a composite image.

【0053】各カメラ101には、一対のフレームメモ
リ102a,102bが設けられている。ここでは各カ
メラ101はCCDタイプであるものとする。カメラが
CMOSタイプの場合には、カメラにフレームメモリの
機能を持たせることも可能であり、この場合はフレーム
メモリを省くことができる。
Each camera 101 is provided with a pair of frame memories 102a and 102b. Here, it is assumed that each camera 101 is a CCD type. When the camera is a CMOS type, the camera can have a function of a frame memory. In this case, the frame memory can be omitted.

【0054】図8は合成画像の1フレームを生成すると
きの画像合成部200の動作を示すフローチャートであ
る。
FIG. 8 is a flowchart showing the operation of the image synthesizing unit 200 when generating one frame of the synthesized image.

【0055】まず、タイミング生成部205から出力さ
れたフレーム開始のタイミング信号に応じて、撮像部1
は、各カメラ101が撮影した画像を書き込むフレーム
メモリ102aと、画像合成部200から参照されるフ
レームメモリ102bとを切り替える(ステップS1
1)。ここで、各カメラ101に対してフレームメモリ
を2個設けて切り替えを行うようにしたのは、後述する
ように、画像合成部200はカメラ画像の画素データ
を、カメラ101からの書き込みの順序とは関係無く、
マッピングテーブルMPTに応じて飛び飛びに参照する
ので、書き込みと参照とが互いに干渉しないようにする
ためである。
First, in response to the frame start timing signal output from the timing generation unit 205, the imaging unit 1
Switches between a frame memory 102a for writing an image captured by each camera 101 and a frame memory 102b referred to by the image synthesis unit 200 (step S1).
1). Here, the reason why two frame memories are provided for each camera 101 to perform the switching is that the image synthesizing unit 200 writes the pixel data of the camera image according to the order of writing from the camera 101 as described later. Does not matter
This is because writing and reference do not interfere with each other because the reference is made in a discrete manner according to the mapping table MPT.

【0056】次に、タイミング生成部205は、合成処
理を行う画素をマッピングテーブル参照部202に指定
するためのタイミング信号を生成する(ステップS1
2)。マッピングテーブル参照部202はマッピングテ
ーブルMPTから、指定された画素に対応するマッピン
グデータを読み出し、画素合成部201に出力する(ス
テップS13)。
Next, the timing generation section 205 generates a timing signal for designating a pixel to be subjected to the synthesis processing to the mapping table reference section 202 (step S1).
2). The mapping table reference unit 202 reads mapping data corresponding to the designated pixel from the mapping table MPT, and outputs the data to the pixel synthesizing unit 201 (step S13).

【0057】画素合成部201は、入力されたマッピン
グデータの内容に応じて、フレームメモリ102に格納
された各カメラ画像の画素データや、イラスト参照部2
03に格納されたイラスト画像の画素データなどを用い
て、指定された合成画像の画素の値を生成し、映像信号
生成部204に出力する(ステップS14)。このステ
ップS14の処理は、後に詳述する。
The pixel synthesizing unit 201 outputs the pixel data of each camera image stored in the frame memory 102 and the illustration referring unit 2 according to the contents of the input mapping data.
The pixel value of the designated composite image is generated using the pixel data of the illustration image stored in the image data 03, and is output to the video signal generation unit 204 (step S14). The processing in step S14 will be described later in detail.

【0058】映像信号生成部204は、タイミング生成
部205から出力されたタイミング信号に応じて、入力
された合成画像の画素値を映像信号に変換し、表示部3
に出力する(ステップS15)。
The video signal generation unit 204 converts the pixel value of the input composite image into a video signal according to the timing signal output from the timing generation unit 205, and
(Step S15).

【0059】画像合成部200はフレームの全画素につ
いて、ステップS12〜S15の処理を実行する(ステ
ップS16,S17)。タイミング生成部205は、フ
レームの最終画素の処理が終わると、次のフレームの処
理を開始する。
The image synthesizing section 200 executes the processing of steps S12 to S15 for all the pixels of the frame (steps S16 and S17). When the processing of the last pixel of the frame ends, the timing generation unit 205 starts the processing of the next frame.

【0060】なお、フィールド単位でも、同様の処理を
実行することができる。
The same processing can be executed on a field basis.

【0061】図9はマッピングテーブルの構成の例を示
す図である。図9に示すマッピングテーブルは、4種類
のマッピングデータMP11〜MP14を有している。
各マッピングデータの構成は基本的には図6に示すマッ
ピングデータと同様であるが、カメラ番号およびx,y
座標に加えて、その画素値の必要度が記述されている。
ここでは、「必要度」は0から1までの値によって表さ
れており、値が大きいほど、その画素値の必要度は高い
ものとする。
FIG. 9 is a diagram showing an example of the configuration of the mapping table. The mapping table shown in FIG. 9 has four types of mapping data MP11 to MP14.
The configuration of each mapping data is basically the same as the mapping data shown in FIG. 6, but the camera number and x, y
In addition to the coordinates, the necessity of the pixel value is described.
Here, the “necessity” is represented by a value from 0 to 1, and the larger the value, the higher the necessity of the pixel value.

【0062】マッピングデータMP11は、合成画像の
画素と、1個のカメラ画像の画素データとの対応関係を
記述したものである。この場合は、必要度は「1」とな
る。また、マッピングデータMP12は、合成画像の画
素と、複数のカメラ画像の画素データとの対応関係を記
述したものである。この場合は、合成画像の画素値は、
カメラ画像の画素データに対し、その必要度に応じた重
み付けを行った上で、生成する。
The mapping data MP11 describes the correspondence between the pixels of the composite image and the pixel data of one camera image. In this case, the necessity is “1”. The mapping data MP12 describes the correspondence between pixels of the composite image and pixel data of a plurality of camera images. In this case, the pixel value of the composite image is
The pixel data of the camera image is generated after being weighted according to the necessity.

【0063】マッピングデータMP13は、合成画像の
画素に、イラスト画像の画素データを貼り付けるために
用いられるものである。すなわち、イラスト参照部20
3に格納されたイラスト画像が認識できるように、イラ
スト参照部203にカメラ番号として、いずれの実カメ
ラにも対応しない番号(ここでは「99」)を割り当て
る。
The mapping data MP13 is used for pasting pixel data of an illustration image to pixels of a composite image. That is, the illustration reference unit 20
A number (here, “99”) that does not correspond to any real camera is assigned to the illustration reference unit 203 so that the illustration image stored in No. 3 can be recognized.

【0064】マッピングデータMP14は、合成画像の
画素が、いわゆる死角領域に当たることを示すものであ
る。すなわち、マッピングテーブルを生成する際に、合
成画像の画素を生成するために参照するカメラ画像の画
素の座標値を計算した結果、その座標値の画素が、例え
ば車両自体を撮している場合には、その合成画像の画素
は、車両領域と死角領域とを合わせた領域に当たる。こ
の領域から車両領域を除いたものが、死角領域になる。
このため、例えばカメラ番号やx,y座標に実在しない
値を与えることによって、死角領域であることを表す。
ここでは、カメラ番号として「−1」を与えるものとす
る。
The mapping data MP14 indicates that the pixels of the composite image correspond to a so-called blind spot area. That is, when generating the mapping table, as a result of calculating the coordinate value of the pixel of the camera image to be referred to generate the pixel of the composite image, if the pixel of the coordinate value is, for example, taking a picture of the vehicle itself Means that the pixel of the composite image corresponds to the combined area of the vehicle area and the blind spot area. The area excluding the vehicle area from this area is a blind spot area.
For this reason, for example, a non-existent value is given to the camera number or the x, y coordinates to indicate that the area is a blind spot area.
Here, “−1” is given as the camera number.

【0065】図10は画素合成ステップS14の詳細な
処理の流れを示すフローチャートである。
FIG. 10 is a flowchart showing the detailed processing flow of the pixel synthesizing step S14.

【0066】まず、合成する画素の値を「0」に初期化
する(ステップS21)。
First, the value of the pixel to be synthesized is initialized to "0" (step S21).

【0067】次に、合成する画素に対応するマッピング
データから、カメラ番号、x,y座標および必要度を読
み出す(ステップS22)。
Next, the camera number, the x and y coordinates and the necessity are read from the mapping data corresponding to the pixel to be synthesized (step S22).

【0068】ステップS22において、読み出したカメ
ラ番号がイラスト画像を示す識別番号「99」であると
き(すなわちマッピングデータMP13の場合)、ステ
ップS24にすすみ、イラスト参照部203に格納され
たイラスト画像の、指定されたx,y座標の画素データ
を読み出し、保持する。そして、ステップS28にすす
む。一方、カメラ番号が「99」でないときは、ステッ
プS25にすすむ。
In step S22, when the read camera number is the identification number “99” indicating the illustration image (that is, in the case of the mapping data MP13), the process proceeds to step S24, where the illustration image stored in the illustration reference unit 203 is deleted. The pixel data of the designated x, y coordinates is read and held. Then, the process proceeds to step S28. On the other hand, if the camera number is not "99", the flow proceeds to step S25.

【0069】ステップS25において、読み出したカメ
ラ番号が死角領域を示す識別番号「−1」であるとき
(すなわちマッピングデータMP14の場合)、ステッ
プS26にすすみ、予め設定された死角領域を表す画素
データを保持する。そして、ステップS28にすすむ。
一方、カメラ番号が「−1」でないときは、ステップS
27にすすむ。
In step S25, when the read camera number is the identification number "-1" indicating the blind spot area (that is, in the case of the mapping data MP14), the process proceeds to step S26, where the pixel data representing the blind spot area set in advance is stored. Hold. Then, the process proceeds to step S28.
On the other hand, if the camera number is not “−1”, the step S
Proceed to 27.

【0070】ステップS27において、カメラ番号が
「99」「−1」以外の場合、すなわちイラスト画像を
貼る領域でも死角領域でもないと判断される場合は、こ
のカメラ番号は実際のカメラを示す番号であるとして、
対応するカメラ番号のフレームメモリ102に格納され
たカメラ画像から、指定されたx、y座標の画素データ
を読み出し、保持する。
In step S27, if the camera number is other than "99" or "-1", that is, if it is determined that the area is not the area where the illustration image is to be pasted or the blind spot area, this camera number is the number indicating the actual camera. As there are
From the camera image stored in the frame memory 102 of the corresponding camera number, the pixel data of the designated x and y coordinates is read and held.

【0071】ステップS28において、保持した画素デ
ータに、その必要度に応じて重み付けを行い、合成画像
の画素値に加算する。マッピングデータに記述された全
てのカメラ番号について、ステップS22〜S28の処
理を繰り返す(ステップS29,S30)。全てのカメ
ラ番号について処理が終了すると、画素合成部201は
合成する画素の値を出力する(ステップS31)。
In step S28, the held pixel data is weighted according to its necessity, and added to the pixel value of the composite image. The processing of steps S22 to S28 is repeated for all camera numbers described in the mapping data (steps S29 and S30). When the processing is completed for all camera numbers, the pixel synthesizing unit 201 outputs the values of the pixels to be synthesized (step S31).

【0072】例えば図9に示すマッピングデータMP1
2の場合には、合成画像の画素値は、次の式によって求
められる。
For example, the mapping data MP1 shown in FIG.
In the case of 2, the pixel value of the composite image is obtained by the following equation.

【0073】 合成画像の画素値=(カメラ2の座標(10,10) の画素値×0.3 +カメラ3の座標(56,80) の画素値×0.5)/(0.3+0.5) ここで、必要度の和(0.3+0.5)によって除する
のは、画素値を正規化するためである。
Pixel value of composite image = (pixel value of coordinates (10,10) of camera 2 × 0.3 + pixel value of coordinates (56,80) of camera 3 × 0.5) / (0.3 + 0. 5) Here, the reason for dividing by the sum of the necessity (0.3 + 0.5) is to normalize the pixel value.

【0074】以上のような動作によって、複数のカメラ
画像を混合した合成画像や、イラスト画像を含む合成画
像を、容易に生成することができる。また、カメラ画像
とイラスト画像とを必要度に応じて重み付けすることに
よって、実画像の上にイラスト画像を半透明で表示する
合成画像も生成することができる。あるいは、カメラ画
像以外の画素データ同士を必要度に応じて重み付けする
ことによって、イラスト画像同士を半透明で表示するよ
うな合成画像も生成することができる。
By the above operations, a composite image obtained by mixing a plurality of camera images and a composite image including an illustration image can be easily generated. By weighting the camera image and the illustration image according to the degree of necessity, it is also possible to generate a composite image that displays the illustration image translucently on the real image. Alternatively, it is also possible to generate a composite image in which the illustration images are displayed translucently by weighting pixel data other than the camera image according to necessity.

【0075】また、イラスト画像としては、自車のイラ
ストや画像以外にも、例えば、画像のスケールや指標な
どのような画面上で固定の形状を持つものを与えること
が可能である。
As the illustration image, in addition to the illustration and the image of the own vehicle, for example, an image having a fixed shape on the screen, such as an image scale or an index, can be given.

【0076】なお、ここでの説明では、イラスト画像を
参照するためのカメラ番号(「99」)と、死角領域で
あることを示すカメラ番号(「−1」)とを個別に設定
するものとしたが、死角領域を表す画像をイラスト参照
部203に格納しておけば、イラスト画像を参照する場
合と死角領域を示す場合とで、同じカメラ番号(「9
9」)を用いることが可能になる。この場合には、例え
ば、車両を表すイラスト画像と死角領域を表す画像とを
合わせて、イラスト参照部203に格納しておくことも
可能になる。
In this description, the camera number (“99”) for referring to the illustration image and the camera number (“−1”) indicating the blind spot area are individually set. However, if an image representing the blind spot area is stored in the illustration reference unit 203, the same camera number (“9
9 "). In this case, for example, it is also possible to store the illustration image representing the vehicle and the image representing the blind spot area together in the illustration reference section 203.

【0077】また、表示パターン設定部220は、表示
モードの指定に応じて表示パターンを変更する場合に
は、新たな表示パターンに応じたマッピングテーブル
を、マッピングテーブル記憶部211から読み出して、
マッピングテーブル参照部202に設定すればよい。あ
るいは、複数のマッピングテーブルを合成し、新たなマ
ッピングテーブルを生成してもよい。
When changing the display pattern in accordance with the designation of the display mode, the display pattern setting section 220 reads a mapping table corresponding to the new display pattern from the mapping table storage section 211, and
What is necessary is just to set it in the mapping table reference part 202. Alternatively, a plurality of mapping tables may be combined to generate a new mapping table.

【0078】またここでは、図9に示すマッピングデー
タMP13のように、イラスト画像を表示するためにイ
ラスト参照部203のX,Y座標値を記述するものとし
たが、この代わりに、イラスト画像の画素データ自体を
マッピングデータに記述することも可能である。
In this case, the X and Y coordinate values of the illustration reference unit 203 are described to display the illustration image, as in the mapping data MP13 shown in FIG. The pixel data itself can be described in the mapping data.

【0079】図11はこのような場合のマッピングデー
タの一例である。図11のマッピングデータMP15
は、カメラ番号が「99」のとき、すなわちイラスト画
像を表示させるとき、X座標、Y座標を記憶する領域
に、イラスト画像の画素データ自体をそのまま赤
(R)、緑(G)、青(B)の値で記憶する。
FIG. 11 shows an example of the mapping data in such a case. Mapping data MP15 in FIG.
When the camera number is “99”, that is, when an illustration image is displayed, the pixel data itself of the illustration image is directly stored in the area for storing the X coordinate and the Y coordinate in red (R), green (G), and blue ( B) is stored.

【0080】例えば、X座標、Y座標をそれぞれ16ビ
ットで表現するものとすると、その領域は32ビットの
サイズになる。一方、イラスト画像の画像データをR,
G,B各色8ビットで表現するものとすると全部で24
ビットになるので、その上位8ビットに“0”を付加し
32ビットのデータとして、座標領域に記憶する。この
場合、図10のステップS24では、イラスト参照部2
03を参照する代わりに、マッピングデータMP15に
記述されたR,G,B値を読み出し保持する。
For example, if the X coordinate and the Y coordinate are each represented by 16 bits, the area has a size of 32 bits. On the other hand, the image data of the illustration image is R,
Assuming that each color of G and B is represented by 8 bits, a total of 24
Therefore, "0" is added to the upper 8 bits, and the data is stored in the coordinate area as 32-bit data. In this case, in step S24 of FIG.
Instead, R, G, and B values described in the mapping data MP15 are read out and held.

【0081】この場合には、マッピングテーブルとイラ
スト画像とは一体のものとなり、イラスト参照部203
は不要になる。また、マッピングデータからX,Y座標
値を読み出して対応するイラスト画像の画素データを読
み出すのではなく、マッピングデータから直接R,G,
B値を読み出すので、処理の手順が1つ省けることにな
る。
In this case, the mapping table and the illustration image are integrated, and the illustration reference unit 203
Becomes unnecessary. Also, instead of reading out the X and Y coordinate values from the mapping data and reading out the pixel data of the corresponding illustration image, R, G,
Since the B value is read, one processing procedure can be omitted.

【0082】また、自車両のイラスト画像を表示するな
どの場合には、通常は必要度を1.0にすることが多い
が、図11の例のように、イラスト画像の必要度を1.
0よりも小さい値にして他のカメラ画像と合成すること
によって、合成画像の上に、スケールや指標を半透明で
表示することが可能になる。
In the case of displaying an illustration image of the own vehicle, the necessity is usually set to 1.0, but as shown in the example of FIG.
By making the value smaller than 0 and combining with another camera image, it becomes possible to display the scale and the index in a translucent manner on the combined image.

【0083】<基本的な合成画像の例> マッピングテーブルは、大きく、単独マップと複合マッ
プの2つに分けることができる。「単独マップ」とは、
所定の空間モデル(詳細は後述する)を用いて、カメラ
画像と仮想視点画像とを画素レベルで対応づけたもので
ある。「複合マップ」については後述する。
<Example of Basic Synthetic Image> The mapping table is large and can be divided into a single map and a composite map. "Single map"
The camera image and the virtual viewpoint image are associated at a pixel level using a predetermined space model (details will be described later). The “composite map” will be described later.

【0084】画像合成部200にどのマッピングテーブ
ルが設定されるかによって、画像処理部2の表示モード
が決定される。この表示モードは、手動によって、また
は自動的に切り換えることができる。
The display mode of the image processing unit 2 is determined depending on which mapping table is set in the image synthesizing unit 200. This display mode can be switched manually or automatically.

【0085】代表的な単独マップと、それを用いた合成
画像例を、以下に示す。
A typical single map and an example of a composite image using the same are shown below.

【0086】・ 鉛直見下ろし(図12〜図14) 空間モデルとしては、路面平面モデルを用いる。仮想視
点の位置は、自車の上方であり、視線の向きは真下であ
る。距離感が一目で分かることを特徴とし、主たる用途
としては駐車(直角、縦列)等が考えられる。図12は
8個のカメラ画像を利用したもの、図13は4個のカメ
ラ画像を利用したもの、図14は2個のカメラ画像を利
用したものである。
Vertical looking down (FIGS. 12 to 14) As a spatial model, a road plane model is used. The position of the virtual viewpoint is above the own vehicle, and the direction of the line of sight is directly below. The feature is that the sense of distance can be understood at a glance, and parking (right angle, parallel) or the like is considered as a main use. FIG. 12 shows an example using eight camera images, FIG. 13 shows an example using four camera images, and FIG. 14 shows an example using two camera images.

【0087】・ 斜め見下ろし(図15) 空間モデルとしては、路面平面モデルを用いる。仮想視
点の位置は、自車の上方であり、視線の向きは斜め後を
向きである。視線の角度を調整することによって、視野
を自由に変換することができる。このモードでは、自車
後方が、正しい位置関係で見渡すように一望できる。主
たる用途としては、通常走行時のリアビューモニタとし
て、あるいは、駐車動作開始時のような低速後退時の確
認などが考えられる。低速走行時には、速度に応じて視
野や向きを切り替えるようにしてもよい。
Looking down obliquely (FIG. 15) As a space model, a road surface plane model is used. The position of the virtual viewpoint is above the own vehicle, and the direction of the line of sight is obliquely rearward. The field of view can be freely changed by adjusting the angle of the line of sight. In this mode, it is possible to overlook the rear of the vehicle with a correct positional relationship. As a main use, it can be considered as a rear-view monitor during normal running, or confirmation at low-speed retreat such as at the start of a parking operation. When traveling at low speed, the field of view and direction may be switched according to the speed.

【0088】・ パノラマ(図16,図17) 空間モデルとしては、円筒モデルを用いる。図16は前
方パノラマモードであり、仮想視点の位置は、自車の先
端部であり、視線の向きは真正面である。このモードで
は、走行方向前方の様子が分かるので、ブラインドコー
ナービューモニタとしての利用が考えられる。すなわ
ち、狭い路地から広い通りに出るとき、このモードによ
って広い通りの様子を一目で認識することができる。
Panorama (FIGS. 16 and 17) A cylindrical model is used as a space model. FIG. 16 shows the front panorama mode, in which the position of the virtual viewpoint is the front end of the vehicle and the direction of the line of sight is directly in front. In this mode, it is possible to know the state in front of the traveling direction, so that it can be used as a blind corner view monitor. That is, when the vehicle goes out from a narrow alley to a wide street, the mode of the wide street can be recognized at a glance by this mode.

【0089】図17は後方パノラマモードであり、仮想
視点の位置は、自車の後端部であり、視線の向きは真後
ろである。このモードでは、自車後方部分がパノラマ1
80度画像として見渡すように一望できる。主たる用途
としては、走行時(特に高速走行時)のリアビューモニ
タとしての利用が考えられる。
FIG. 17 shows the rear panorama mode, in which the position of the virtual viewpoint is the rear end of the vehicle and the direction of the line of sight is right behind. In this mode, the panorama 1
You can overlook it as an 80-degree image. As a main use, it can be used as a rear view monitor during traveling (particularly at high speed traveling).

【0090】・ 斜め見下ろし+パノラマ(図18) 空間モデルとしては、路面平面モデルと円筒モデルとを
用いる。すなわち、図18に示すように、自車後方の直
近は、路面平面モデルを用いた斜め見下ろしモードで表
示し、自車後方遠方は、円筒モデルを用いたパノラマモ
ードで表示する。したがって、このモードは、斜め見下
ろしモードとパノラマモードの両方の用途に対応してい
る。
Obliquely looking down + panorama (FIG. 18) As the space model, a road surface plane model and a cylindrical model are used. In other words, as shown in FIG. 18, the area immediately behind the host vehicle is displayed in an oblique looking down mode using a road surface plane model, and the area far behind the host vehicle is displayed in a panoramic mode using a cylindrical model. Therefore, this mode is compatible with both the oblique looking down mode and the panoramic mode.

【0091】<表示自動切替> 本監視システムは、これまで例示したマッピングテーブ
ルを、様々な運転場面に応じて適宜切り換えることによ
って、より安全で快適な運転をサポートすることが可能
となる。また、一つの運転操作においても、逐次変わり
ゆく自車周囲状況に応じてマッピングテーブルを切り換
えることは、運転者にとって必要不可欠な機能となる。
<Automatic Display Switching> The present monitoring system can support safer and more comfortable driving by appropriately switching the mapping tables exemplified so far according to various driving situations. In addition, even in one driving operation, switching the mapping table according to the situation of the surroundings of the own vehicle that changes sequentially is an essential function for the driver.

【0092】すなわち、合成画像の仮想視点の位置、視
線の向きおよび焦点距離の少なくともいずれか1つを、
車両の走行状態に応じて変更することによって、運転者
の利便性を向上させることができる。
That is, at least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length of the composite image is
By changing according to the traveling state of the vehicle, the convenience for the driver can be improved.

【0093】図19は車両の走行状態に応じて、合成画
像の仮想視点の高さを変更した場合の例を示す図であ
る。図19(a)〜(f)に示す各画像は、下に行くに
つれて仮想視点の高さが徐々に高くなっており、車両を
含めた表示領域が次第に広くなっている。すなわち、仮
想視点の高さを下げることによってズームアップが実現
され、仮想視点の高さを上げることによってズームダウ
ンが実現される。なお、仮想視点の焦点距離を変更した
場合でも、図19と同様に合成画像を変化させることが
できる。
FIG. 19 is a diagram showing an example in which the height of the virtual viewpoint of the composite image is changed according to the running state of the vehicle. In each of the images shown in FIGS. 19A to 19F, the height of the virtual viewpoint gradually increases toward the bottom, and the display area including the vehicle gradually increases. That is, zoom-in is realized by lowering the height of the virtual viewpoint, and zoom-down is realized by raising the height of the virtual viewpoint. Even when the focal length of the virtual viewpoint is changed, the composite image can be changed in the same manner as in FIG.

【0094】仮想視点の高さを切り替えるトリガーとし
ては、まず、車両の走行速度が考えられる。例えば、車
両の走行速度が上昇するにつれて、広い領域が表示され
るよう仮想視点を高くする一方、低下するにつれて、狭
い領域が表示されるよう仮想視点を低くすればよい。あ
るいは、車両が、自車と障害物との距離を測定する物体
検出センサを備えているときは、その物体検出センサの
出力信号を切替のトリガーとして用いてもよい。例え
ば、検出された障害物との距離が、近くなるにつれて、
狭い領域が表示されるよう仮想視点を低くする一方、遠
くなるにつれて、広い領域が表示されるよう仮想視点を
高くすればよい。さらには、切替スイッチを設けておい
て、運転手または他の乗員がそのスイッチを介して拡大
・縮小を指定できるようにしてもよい。
As a trigger for switching the height of the virtual viewpoint, first, the traveling speed of the vehicle can be considered. For example, as the traveling speed of the vehicle increases, the virtual viewpoint may be raised so that a wider area is displayed, and as the vehicle speed decreases, the virtual viewpoint may be lowered so that a narrower area is displayed. Alternatively, when the vehicle includes an object detection sensor that measures the distance between the vehicle and the obstacle, the output signal of the object detection sensor may be used as a switching trigger. For example, as the distance to the detected obstacle decreases,
The virtual viewpoint may be lowered so that a narrow area is displayed, and the virtual viewpoint may be raised so that a wider area is displayed as the distance increases. Furthermore, a changeover switch may be provided so that the driver or another occupant can specify enlargement / reduction via the switch.

【0095】図20は車両の走行状態に応じて、合成画
像の仮想視点の視線の向きを変更した場合の例を示す図
である。図20(a)〜(d)に示す各画像は、下に行
くにつれて、仮想視点の視線の向きが、斜め後方から徐
々に鉛直下方に変化している。また、視線の向きととも
に、合成画像を生成するためのモデルも変化している。
すなわち、視線の向きが斜めに傾くほど、疑似円筒モデ
ルの合成画像の領域が大きくなっており、より遠方が見
やすくなっている。
FIG. 20 is a diagram showing an example in which the direction of the line of sight of the virtual viewpoint of the composite image is changed according to the running state of the vehicle. In each of the images shown in FIGS. 20A to 20D, the direction of the line of sight of the virtual viewpoint gradually changes from diagonally backward to vertically downward as going downward. Also, the model for generating the composite image changes along with the direction of the line of sight.
That is, as the direction of the line of sight is inclined obliquely, the area of the composite image of the pseudo cylinder model becomes larger, and it becomes easier to see far away.

【0096】図20では、仮想視点の視線の向きの変更
とともに、変更後の仮想視点の視野範囲外画像の取込が
制御されている、といえる。すなわち、疑似円筒モデル
を用いることによって、仮想視点の視野範囲外の画像が
合成画像に取り込まれている。そして、車両の走行状態
に応じて、仮想視点の視野範囲外画像の取込の有無、そ
のサイズ、および、その撮像範囲が制御されている。
In FIG. 20, it can be said that the change of the direction of the line of sight of the virtual viewpoint and the capture of the image outside the visual field range of the changed virtual viewpoint are controlled. That is, by using the pseudo-cylindrical model, an image outside the visual field range of the virtual viewpoint is captured in the composite image. The presence / absence of an image outside the visual field of view of the virtual viewpoint, its size, and its imaging range are controlled in accordance with the traveling state of the vehicle.

【0097】仮想視点の視線の向きを切り替えるトリガ
ーとしては、仮想視点の高さを切り替える場合と同様
に、車両の走行速度、スイッチ入力などが想定される。
例えば、車両の走行速度が低いときは、視線の向きを真
下にしておき、走行速度が上昇するにつれて、視線の向
きを傾けて、より後方が表示されるようにすればよい。
As the trigger for switching the direction of the line of sight of the virtual viewpoint, the traveling speed of the vehicle, switch input, and the like are assumed as in the case of switching the height of the virtual viewpoint.
For example, when the traveling speed of the vehicle is low, the direction of the line of sight may be set directly below, and as the traveling speed increases, the direction of the line of sight may be tilted so as to display a more rearward direction.

【0098】図21は車両の舵角に応じて、合成画像の
仮想視点の視線の向きを変更した例を示す図である。図
21の例では、舵角に応じて、仮想視点を光軸周りに回
転させている。(a)はギアがバックでハンドルが真っ
直ぐの場合の合成画像である。この場合は車両が後方に
直進するので、後方の領域が見やすくなるように、合成
画像中の自車両が真っ直ぐになり、自車両の左右の領域
が均等に表示されるように、仮想視点を設定する。一
方、(b)はギアがバックでハンドルを左に切った場合
の合成画像である。この場合は車両の左後方に進むの
で、そのときに車が移動する領域すなわち自車両の右
側、右後方および後方が見やすくなるように、仮想視点
を光軸周りに回転させる。これにより、安全性が高ま
る。
FIG. 21 is a diagram showing an example in which the direction of the line of sight of the virtual viewpoint of the composite image is changed according to the steering angle of the vehicle. In the example of FIG. 21, the virtual viewpoint is rotated around the optical axis according to the steering angle. (A) is a composite image in the case where the gear is reverse and the steering wheel is straight. In this case, since the vehicle goes straight backward, the virtual viewpoint is set so that the own vehicle in the composite image is straight and the left and right regions of the own vehicle are displayed evenly so that the rear area is easy to see. I do. On the other hand, (b) is a composite image when the steering wheel is turned to the left with the gear in reverse. In this case, since the vehicle travels to the rear left of the vehicle, the virtual viewpoint is rotated around the optical axis so that the region where the vehicle moves at that time, that is, the right side, the rear right side, and the rear side of the own vehicle becomes easy to see. This increases safety.

【0099】図22は物体検出センサの出力信号に応じ
た画像切替の例を示す図である。同図中、(a)は物体
検出センサが自車両に近接した障害物を検出する前の画
面である。物体検出センサが自車両に近接した他の車両
を検出したとき、画面は図22(b)のように切り替わ
る。すなわち、検出した障害物との距離がより認識でき
るように、画像を拡大して表示する。
FIG. 22 is a diagram showing an example of image switching according to the output signal of the object detection sensor. In the figure, (a) is a screen before the object detection sensor detects an obstacle approaching the own vehicle. When the object detection sensor detects another vehicle close to the own vehicle, the screen switches as shown in FIG. That is, the image is enlarged and displayed so that the distance to the detected obstacle can be more recognized.

【0100】このように、物体検出センサが障害物を検
出したとき、画像を、障害物との距離に応じて、段階的
または連続的に拡大/縮小/回転などして表示すること
によって、障害物に対して、乗員の注意を喚起すること
ができる。また、障害物が存在する位置に応じて、仮想
視点の位置を変更してもよい。
As described above, when the object detection sensor detects an obstacle, the image is displayed in an enlarged or reduced / rotated manner in a stepwise or continuous manner according to the distance to the obstacle, thereby displaying the obstacle. The occupants can be alerted to things. Further, the position of the virtual viewpoint may be changed according to the position where the obstacle exists.

【0101】さらに、図23に示すように、障害物が存
在する領域を拡大して表示するとともに、その領域を枠
で囲んで表示してもかまわない。あるいは、枠を点滅さ
せたり、枠内の色を反転させてもよい。このようにすれ
ば、乗員の注意をさらに確実に喚起することができる。
もちろん、画像を拡大せずに単に枠で囲んで表示するだ
けであっても、乗員の注意を喚起することはできること
はいうまでもない。また、画面表示の変更とともに、警
告音によって、障害物の存在を知らせるようにしてもか
まわない。
Further, as shown in FIG. 23, an area where an obstacle is present may be enlarged and displayed, and the area may be surrounded and displayed. Alternatively, the frame may blink, or the color in the frame may be inverted. In this way, the occupant's attention can be more reliably raised.
Of course, it is needless to say that the occupant can be alerted even if the image is simply displayed in a frame without being enlarged. In addition, the presence of an obstacle may be notified by a warning sound along with the change of the screen display.

【0102】図24は物体検出センサの検出結果に応じ
た画像切替の他の例を示す図である。図24では、車両
後方に障害物を検知したとき、仮想視点の視線の向き
を、真下からやや後ろ向きに変更している。これによ
り、車両後方の障害物がより見やすくなっている。ま
た、検出した障害物が合成画像の中心にくるように、仮
想視点を平行移動させてもよい。
FIG. 24 is a diagram showing another example of image switching according to the detection result of the object detection sensor. In FIG. 24, when an obstacle is detected behind the vehicle, the direction of the line of sight of the virtual viewpoint is changed from directly below to slightly backward. This makes it easier to see obstacles behind the vehicle. Further, the virtual viewpoint may be translated so that the detected obstacle is at the center of the composite image.

【0103】なお、図19〜図24では、仮想視点が車
両の上方にある場合の合成画像を例にとって示したが、
仮想視点が他の位置にある場合であっても、車両の走行
状態に応じて仮想視点の位置、視線の向きおよび焦点距
離のうちの少なくとも1つを変更することによって、運
転者の利便性を向上させることができる。仮想視点の位
置の他の例としては、リアトランクの位置や、運転者の
頭の位置などが考えられる。
Although FIGS. 19 to 24 show an example of a composite image in the case where the virtual viewpoint is above the vehicle, FIGS.
Even when the virtual viewpoint is at another position, the convenience of the driver is improved by changing at least one of the position of the virtual viewpoint, the direction of the line of sight, and the focal length according to the traveling state of the vehicle. Can be improved. Other examples of the position of the virtual viewpoint include the position of the rear trunk and the position of the driver's head.

【0104】また、図20では、仮想視点の視線の向き
の変更とともに、その視野範囲外画像の取込を制御して
いるが、仮想視点の位置や焦点距離の変更とともに、そ
の視野範囲外画像の取込を制御してもよい。また、モデ
ルを用いないで、仮想視点の視野範囲外画像を取り込ん
でもかまわない。さらに、仮想視点を変えないで、仮想
視点の視野範囲外画像の取込の制御のみを、車両の走行
状態に応じて、行ってもかまわない。
In FIG. 20, the capture of the image outside the visual field range is controlled together with the change in the direction of the line of sight of the virtual viewpoint. May be controlled. Further, an image outside the visual field of the virtual viewpoint may be captured without using a model. Furthermore, without changing the virtual viewpoint, only the control of capturing the image outside the visual field range of the virtual viewpoint may be performed according to the traveling state of the vehicle.

【0105】(合成画像生成動作の第2例) 表示画像の切替は、用いるマッピングテーブルを適宜変
更することによって、容易に実現することができる。と
ころがこの場合、表示画像の切替を連続的に行うために
は、多数のマッピングテーブルを準備しておくことが必
要になる。このため、装置に膨大な記憶容量を有する記
憶部を設けることが必要になるので、好ましくない。
(Second Example of Synthetic Image Generation Operation) Switching of the display image can be easily realized by appropriately changing the mapping table used. However, in this case, in order to continuously switch the display images, it is necessary to prepare a large number of mapping tables. For this reason, it is necessary to provide a storage unit having a huge storage capacity in the apparatus, which is not preferable.

【0106】ここでは、合成画像よりも大きい原マッピ
ングテーブルを設けておき、この原マッピングテーブル
から切り出したマッピングテーブルを用いて、合成画像
の生成を行うものとする。この場合には、切り出すマッ
ピングテーブルを適宜変更することによって、表示画像
の連続的な切替を容易に実現することができる。
Here, it is assumed that an original mapping table larger than the synthesized image is provided, and a synthesized image is generated using the mapping table cut out from the original mapping table. In this case, by appropriately changing the mapping table to be cut out, continuous switching of display images can be easily realized.

【0107】図25は本例に係る監視システムの構成を
示す図である。図7に示す構成と異なるのは、マップ領
域設定部302が、タイミング生成部205から出力さ
れた合成画像の画素の座標と、表示パターン設定部22
0Aによって設定されたマッピングテーブルの領域指定
情報とに基づいて、対応するマッピングテーブルの要素
を生成し、マッピングテーブル参照部202に出力する
点である。マッピングテーブル参照部202には、表示
パターン記憶部210Aが有する原マッピングテーブル
記憶部301に記憶された原マッピングテーブルが、表
示パターン設定部220Aによって設定されている。
FIG. 25 is a diagram showing the configuration of a monitoring system according to this example. 7 is different from the configuration illustrated in FIG. 7 in that the map area setting unit 302 determines the coordinates of the pixels of the composite image output from the timing generation unit 205 and the display pattern setting unit 22.
The point is that a corresponding mapping table element is generated based on the mapping table area designation information set by 0A and output to the mapping table reference unit 202. In the mapping table reference section 202, the original mapping table stored in the original mapping table storage section 301 of the display pattern storage section 210A is set by the display pattern setting section 220A.

【0108】すなわち、上述した第1例では、図8に示
すステップS13において、タイミング生成部205に
よって設定された現在出力すべき合成画像の画素に対
し、この画素と同一位置にあるマッピングデータを読み
出すものとしたが、本例では、原マッピングテーブル上
で、利用するマッピングテーブルの領域を設定した後
に、合成画像の画素に対応するマッピングデータの読み
出しを行う。
That is, in the first example described above, in step S13 shown in FIG. 8, for the pixel of the composite image to be currently output set by the timing generation unit 205, the mapping data at the same position as this pixel is read out. However, in this example, after setting the area of the mapping table to be used on the original mapping table, the mapping data corresponding to the pixels of the composite image is read.

【0109】本例におけるマッピングデータの読み出し
方法について説明する。図26および図27は本例にお
ける合成画像と原マッピングテーブルとの関係を模式的
に表したものである。図26の例では、原マッピングテ
ーブルから切り出す領域のサイズを合成画像と同一のサ
イズに固定し、オフセット値を変えることによって、合
成画像の平行移動を実現する。図27の例では、原マッ
ピングテーブルから切り出す領域のサイズおよび要素の
読み出しステップを変えることによって、合成画像の拡
大・縮小を実現する。
A method of reading mapping data in this example will be described. FIG. 26 and FIG. 27 schematically show the relationship between the composite image and the original mapping table in this example. In the example of FIG. 26, the size of the region to be cut out from the original mapping table is fixed to the same size as the composite image, and the offset value is changed to realize the parallel movement of the composite image. In the example of FIG. 27, enlargement / reduction of the synthesized image is realized by changing the size of the region cut out from the original mapping table and the step of reading the elements.

【0110】まず、合成画像の平行移動を行う場合につ
いて、図26を参照して説明する。
First, the case of performing parallel movement of a composite image will be described with reference to FIG.

【0111】図26(a)に示す合成画像は幅W_DI
SP,高さH_DISPのサイズを持ち、図26(b)
に示す原マッピングテーブルは幅W_MAP、高さH_
DISPのサイズを持つものとする。ここでは、原マッ
ピングテーブルとして、車の上空の仮想視点から車の周
囲の広い範囲を見下ろしたような画像を作るものを考え
る。これは、前述した第1例において、焦点距離が一定
であるとすると、仮想視点と投影面の距離が一定のま
ま、投影面のサイズが(W_DISP,H_DISP)
から(W_MAP,H_MAP)に拡大したと考えて、
原マッピングテーブルを構成すればよい。投影面の拡大
によって、原マッピングテーブルには、より広範囲の領
域に関する情報が含まれる。図26(d)はこのような
マッピングテーブルの各要素を、対応するカメラ画像お
よびイラスト画像に置き換えた画像である。
The composite image shown in FIG. 26A has a width W_DI
It has the size of SP and height H_DISP, and FIG. 26 (b)
Is a width W_MAP, a height H_
It has the size of DISP. Here, as an original mapping table, a table that creates an image as if looking down a wide area around the vehicle from a virtual viewpoint above the vehicle. This is because, in the first example described above, if the focal length is constant, the size of the projection plane is (W_DISP, H_DISP) while the distance between the virtual viewpoint and the projection plane is constant.
From (W_MAP, H_MAP)
An original mapping table may be configured. Due to the enlargement of the projection plane, the original mapping table contains information on a wider area. FIG. 26D is an image in which each element of such a mapping table is replaced with a corresponding camera image and illustration image.

【0112】次に、表示パターン設定部220Aは、原
マッピングテーブル上で、合成画像生成のためのマッピ
ングテーブルとして用いる領域を、原点(0,0)から
のオフセット(off_x,off_y)によって指定
する。点(off_x,off_y)を開始点とした大
きさ(W_DISP,H_DISP)の領域MPTが、
画像合成のために用いられるマッピングテーブルとな
る。合成画像をラスター走査して得られた画素のX、Y
座標にこのオフセット(off_x,off_y)を加
算した位置のマッピングデータが、マッピングテーブル
参照部202から読み出され、画素合成部201に入力
される。画素の合成処理は、第1例と同様に、図10の
フローチャートに従って行われる。図26(c)は、図
26(b)に示すマッピングテーブルMPTを用いて得
られた合成画像である。
Next, the display pattern setting section 220A specifies, on the original mapping table, an area to be used as a mapping table for generating a composite image by using an offset (off_x, off_y) from the origin (0, 0). An area MPT of a size (W_DISP, H_DISP) starting from the point (off_x, off_y) is
This is a mapping table used for image synthesis. X, Y of pixels obtained by raster-scanning the synthesized image
The mapping data at the position obtained by adding the offset (off_x, off_y) to the coordinates is read from the mapping table reference unit 202 and input to the pixel synthesizing unit 201. The pixel synthesizing process is performed according to the flowchart of FIG. 10 as in the first example. FIG. 26 (c) is a composite image obtained using the mapping table MPT shown in FIG. 26 (b).

【0113】オフセットを加えた座標が原マッピングテ
ーブルの範囲を超えた場合は、画素合成部201に通知
し、予め設定した色(例えば黒)などを画素の値とする
など領域が判るような表示を行う。
When the coordinates to which the offset has been added exceed the range of the original mapping table, the pixel synthesizing unit 201 is notified and a display such that a predetermined color (for example, black) or the like is used as a pixel value so that the area can be recognized. I do.

【0114】本例によると、仮想視点を車両上方から路
面を垂直に見下ろすように配置し、路面平面モデルを用
いた場合に、仮想視点を路面と平行に移動させたときの
合成画像を、マッピングテーブルを増やすことなく、生
成することが可能になる。すなわち、上述した第1例で
は、平行移動した仮想視点のそれぞれに対応するマッピ
ングテーブルが必要であったが、本例では1つの原マッ
ピングテーブルのみで済む。例えばスムーズな視点移動
を行うために1画素ずつ仮想視点を移動するような場
合、上述した第1例では、移動ステップの全部に対応す
る多数のマッピングテーブルが必要になるが、本例で
は、広範囲の1つの原マッピングテーブルにおいて、マ
ッピングテーブルを切り出す開始位置(off_x,o
ff_y)を変化させるだけで実現可能である。また本
例では、例えばダイアルなどを回して仮想視点の位置を
変更したり、障害物検出センサの出力の大きさに比例し
て障害物の方向へ仮想視点の位置を変更したりする場合
に、細かいステップで仮想視点の位置が変更できるた
め、状況に応じた合成画像を容易に生成できる。
According to this example, the virtual viewpoint is arranged so as to vertically look down on the road surface from above the vehicle, and when a road surface plane model is used, the composite image obtained when the virtual viewpoint is moved in parallel with the road surface is mapped. Generation can be performed without increasing the number of tables. That is, in the above-described first example, a mapping table corresponding to each of the virtual viewpoints that have been translated is required, but in this example, only one original mapping table is required. For example, when the virtual viewpoint is moved one pixel at a time in order to perform a smooth viewpoint movement, a large number of mapping tables corresponding to all the movement steps are required in the first example described above. Start position (off_x, o) for cutting out the mapping table in one original mapping table
ff_y) can be realized. In this example, for example, to change the position of the virtual viewpoint by turning a dial, or to change the position of the virtual viewpoint in the direction of the obstacle in proportion to the magnitude of the output of the obstacle detection sensor, Since the position of the virtual viewpoint can be changed in fine steps, a composite image according to the situation can be easily generated.

【0115】本例では、仮想視点を細かなステップで平
行移動するために多数のマッピングテーブルを用いる必
要がないので、マッピングテーブルを記憶するためのメ
モリは1個の原マッピングテーブルを記憶可能な容量が
あればよい。また、第1例では、マッピングテーブルの
切換や設定に時間がかかるのに対し、本例ではオフセッ
トの設定のみで済むので、処理の高速化を図ることがで
きる。
In this example, since it is not necessary to use a large number of mapping tables to translate the virtual viewpoint in fine steps in parallel, the memory for storing the mapping tables has a capacity capable of storing one original mapping table. If there is. Further, in the first example, it takes time to switch and set the mapping table, whereas in the present example, only the setting of the offset is required, so that the processing can be speeded up.

【0116】次に、同様の方法を用いて合成画像の拡大
・縮小を行う場合について、図27を参照して説明す
る。
Next, a case of enlarging / reducing a composite image using the same method will be described with reference to FIG.

【0117】図27において、タイミング生成部205
は(a)に示す合成画像の画素P1の座標(x,y)を
指定したとする。表示パターン設定部220Aは、領域
の開始位置(off_x,off_y)とともに、要素
の読み出しステップ(step_x,step_y)を
指定する。このとき、画素P1に対応するマッピングデ
ータMDの座標を(u,v)とすると、座標(u,v)
は次の式によって求められる。
In FIG. 27, timing generation section 205
Is assumed to designate the coordinates (x, y) of the pixel P1 of the composite image shown in FIG. The display pattern setting unit 220A specifies the element reading step (step_x, step_y) together with the area start position (off_x, off_y). At this time, if the coordinates of the mapping data MD corresponding to the pixel P1 are (u, v), the coordinates (u, v)
Is determined by the following equation.

【0118】 u=step_x*x+off_x v=step_y*y+off_y 読み出しステップ(step_x,step_y)の値
を変えることによって、合成画像を滑らかに拡大・縮小
することが可能になる。原マッピングテーブルから切り
出されるマッピングテーブルの領域が、読み出しステッ
プ(step_x,step_y)の変化に応じてMP
T1,MPT2,MPT3,MPT4と変化したとき、
合成画像は(d),(e),(f),(g)のように変
化する。
U = step_x * x + off_x v = step_y * y + off_y By changing the value of the reading step (step_x, step_y), it is possible to smoothly enlarge / reduce the synthesized image. The area of the mapping table cut out from the original mapping table is set to MP
When it changes to T1, MPT2, MPT3, MPT4,
The composite image changes as shown in (d), (e), (f), and (g).

【0119】座標(u,v)が原マッピングテーブルの
範囲を超えたときは、前述した平行移動の場合と同様
に、指定の色などを出力する。また、読み出しステップ
(step_x,step_y)の値は整数以外の値を
用いることもでき、この場合は、計算結果の(u,v)
の値を整数に変換する。
When the coordinates (u, v) exceed the range of the original mapping table, a designated color or the like is output as in the case of the above-described parallel movement. In addition, a value other than an integer can be used as the value of the reading step (step_x, step_y). In this case, (u, v) of the calculation result is used.
Converts the value of to an integer.

【0120】本例に係る拡大・縮小によると、仮想視点
を車両上方から路面を垂直に見下ろすように配置し、路
面平面モデルを用いた場合、仮想視点の高さまたは焦点
距離の変更によって視野範囲を拡大・縮小した場合と同
様の、合成画像を生成できる。
According to the enlargement / reduction according to the present example, the virtual viewpoint is arranged so as to vertically look down on the road surface from above the vehicle, and when the road surface plane model is used, the view range is changed by changing the height or the focal length of the virtual viewpoint. A composite image can be generated in the same manner as when the image is enlarged or reduced.

【0121】例えば、運転者などからの指示やセンサ入
力に応じて、原画像の一部を拡大表示する場合、唐突に
拡大画像を出力するのではなく、本例に係る方法を用い
て滑らかに拡大して表示することによって、拡大画像が
原画像のどの領域を拡大したものであるかが把握しやす
くなる。
For example, when a part of the original image is enlarged and displayed in response to an instruction from a driver or the like or a sensor input, the enlarged image is not output abruptly but the method according to the present embodiment is used to smoothly display the enlarged image. By displaying the enlarged image, it is easy to grasp which region of the original image is enlarged by the enlarged image.

【0122】さらに、読み出しステップの変更ととも
に、オフセット値を変えることによって、合成画像の拡
大・縮小とともに、平行移動も実現することができる。
Further, by changing the offset value along with the change of the readout step, it is possible to realize not only enlargement / reduction of the synthesized image but also parallel movement.

【0123】なお、一般には、マッピングテーブルの領
域を矩形に限定する必要はない。すなわち、表示パター
ン設定部220Aが、マッピングテーブルの領域を、四
辺形の4頂点の座標で指定するようにしてもよい。
In general, it is not necessary to limit the area of the mapping table to a rectangle. That is, the display pattern setting unit 220A may specify the area of the mapping table by the coordinates of the four vertices of the quadrilateral.

【0124】図28において、マッピングテーブルの領
域を凸形の四辺形とし、4点n1,n2,n3,n4で
指定する。このとき、合成画像の座標(x、y)の画素
P1に対応するマッピングデータMDの座標(u,v)
は、次のように求めることができる。
In FIG. 28, the area of the mapping table is a convex quadrilateral and designated by four points n1, n2, n3, and n4. At this time, the coordinates (u, v) of the mapping data MD corresponding to the pixel P1 at the coordinates (x, y) of the composite image
Can be obtained as follows.

【0125】まず、頂点n1,n2を(y/H_DIS
P:1−y/H_DISP)に内分する点naの座標を
求める。同様に、頂点n3,n4を(y/H_DIS
P:1−y/H_DISP)に内分する点nbを求め
る。次に、点na,nbを(x/W_DISP:1−y
/W_DISP)に内分する点の座標を求めれば、これ
が対応するマッピングデータMDの座標(u,v)とな
る。
First, the vertices n1 and n2 are set to (y / H_DIS
P: 1−y / H_DISP), and the coordinates of a point na that is internally divided. Similarly, vertices n3 and n4 are set to (y / H_DIS
P: 1−y / H_DISP), and obtain a point nb that is internally divided. Next, the points na and nb are set to (x / W_DISP: 1-y
/ W_DISP), the coordinates (u, v) of the corresponding mapping data MD are obtained when the coordinates of a point internally divided are obtained.

【0126】このような指定をすれば、平行移動、拡
大、縮小、回転を含む、任意のマッピングテーブルの領
域指定が可能となる。
With such designation, it is possible to designate an area of an arbitrary mapping table including translation, enlargement, reduction, and rotation.

【0127】なお、本方式によると、路面平面モデルを
用いて、仮想視点が上方から路面を垂直に見下ろす場合
については、仮想視点の平行移動や、視野範囲の拡大・
縮小または路面に平行な回転のような仮想視点の変化と
正確に一致する合成画像を生成することができる。ただ
し、モデルや仮想視点の向きが異なる場合には、仮想視
点の変化と正確に一致する合成画像を生成することは、
必ずしもできない。しかしながら、このような場合で
も、仮想視点の変化に近似する合成画像を生成すること
は可能であるので、本方式は極めて有効である。
According to the present method, when the virtual viewpoint looks down the road surface vertically from above using the road surface plane model, the virtual viewpoint can be translated and the visual field range can be expanded or reduced.
A composite image can be generated that exactly matches a change in virtual viewpoint, such as a reduction or rotation parallel to the road surface. However, if the orientation of the model or virtual viewpoint is different, generating a composite image that exactly matches the change of the virtual viewpoint is
Not always. However, even in such a case, it is possible to generate a composite image that approximates a change in the virtual viewpoint, and thus this method is extremely effective.

【0128】<複数種類の画像表示> 複数種類の合成画像を、併せて1つの画面に表示した
り、合成画像とカメラ画像とを同時に1つの画面に表示
することによって、運転手の利便性を高めることができ
る。例えば、自車の近傍と遠方とを同時に表示したり、
互いに異なる方向の画像を同時に表示したり、自車の全
体と拡大した自車の一部とを同時に表示したりすること
によって、運転手は、画面表示を切り替えなくても、車
両の周囲の状況が的確に理解することができる。
<Plural Types of Image Display> By displaying a plurality of types of composite images together on one screen, or simultaneously displaying a composite image and a camera image on one screen, the convenience of the driver is improved. Can be enhanced. For example, the near and far directions of the vehicle can be displayed at the same time,
By displaying images in different directions at the same time or displaying the entire vehicle and a part of the enlarged vehicle at the same time, the driver can view the surroundings of the vehicle without switching the screen display. Can be accurately understood.

【0129】このような複数種類の画像表示は、複合マ
ップを用いることによって、容易に実現することができ
る。「複合マップ」とは、単独マップの必要な部分を切
り出して適当な変形を行い、貼り合わせたり、単独マッ
プにカメラ画像を貼り合わせたマッピングテーブルのこ
とをいう。次に説明するような画像表示は、複合マップ
を用いて容易に実現可能であるが、これ以外の画像表示
についても、単独マップ同士や、単独マップとカメラ画
像とを組み合わせることによって、様々な運転場面に応
じた複合マップを作ることは可能である。
Such a plurality of types of image display can be easily realized by using a composite map. The “composite map” refers to a mapping table in which a necessary portion of a single map is cut out, appropriately deformed, and pasted together, or a camera image is pasted onto the single map. The image display as described below can be easily realized using a composite map. However, other image displays can be performed in various driving modes by combining single maps or combining a single map and a camera image. It is possible to create a composite map according to the scene.

【0130】ここでは、車両上方に設定された仮想視点
から見た,自車およびその周辺を示す近傍画像として
の、路面平面モデルを用いた見下ろし画像と、この見下
ろし画像を示す自車の周辺領域よりも遠方の領域を示す
遠方画像とを含む画像を、表示する例について、説明す
る。図29はここでの説明の前提となるカメラ画像を示
す図である。
Here, a top-down image using a road surface plane model as a nearby image showing the own vehicle and its surroundings viewed from a virtual viewpoint set above the vehicle, and a surrounding area of the own vehicle showing this top-down image An example in which an image including a distant image indicating an area farther than that is displayed will be described. FIG. 29 is a diagram showing a camera image which is a premise of the description here.

【0131】図30は第1の画像としての見下ろし画像
の左右に、第2の画像としての斜め後方を撮すカメラ画
像を貼り付けた例である。この例では、第2の画像の視
点は、第1の画像の仮想視点と、位置、視線の向きおよ
び焦点距離が異なっている、といえる。図30の画像で
は、見下ろし画像の右側には、右斜め後方の風景を撮す
カメラ2の画像が左右反転されて配置されており、見下
ろし画像の左側には、左斜め後方の風景を撮すカメラ6
の画像が左右反転されて配置されている。すなわち、左
右のドアミラー付近に設置されたカメラ2,6の画像
が、実際にドアミラーを介して見えるように、左右反転
されて配置されている。したがって、運転手は、ドアミ
ラーを見るのと同じ感覚で、直感的に車両周囲の状況を
理解することができる。もちろん、左右反転せずに表示
してもかまわない。
FIG. 30 shows an example in which camera images of the second image are photographed obliquely rearward on the left and right sides of the top-down image as the first image. In this example, it can be said that the viewpoint of the second image is different from the virtual viewpoint of the first image in the position, the direction of the line of sight, and the focal length. In the image of FIG. 30, the image of the camera 2 that captures the landscape obliquely to the right and left is reversed and arranged on the right side of the top-down image.
Are arranged left and right inverted. That is, the cameras 2 and 6 installed near the left and right door mirrors are arranged left and right inverted so that the images can be actually seen through the door mirrors. Therefore, the driver can intuitively understand the situation around the vehicle with the same feeling as looking at the door mirror. Of course, the image may be displayed without being reversed left and right.

【0132】図31は狭い範囲を示す第1の画像として
の見下ろし画像と、広い範囲を示す第2の画像としての
見下ろし画像とを並べて表示した例である。この例で
は、第2の画像の仮想視点は、第1の画像の仮想視点
と、高さまたは焦点距離が異なっている、といえる。図
31の画像を見ると、自車の近傍は詳細に、また広い範
囲はサムネイル的に、一度に見ることができる。
FIG. 31 shows an example in which a top-down image as a first image showing a narrow range and a top-down image as a second image showing a wide range are displayed side by side. In this example, it can be said that the virtual viewpoint of the second image is different in height or focal length from the virtual viewpoint of the first image. Looking at the image of FIG. 31, the vicinity of the own vehicle can be viewed in detail, and the wide range can be viewed at once as thumbnails.

【0133】図32は第1の画像としての見下ろし画像
の周囲に、第2の画像としての前後左右の斜め見下ろし
画像を貼り付けた例である。この例では、第2の画像の
仮想視点は、第1の画像の仮想視点と視線の向きが異な
っている。図33は第1の画像としての見下ろし画像の
周囲に、第2の画像としての疑似円筒モデルを用いた魚
眼レンズで見たような画像を貼り付けた例である。この
例では、第2の画像は第1の画像とモデルが異なってい
る。図34は第1の画像としての見下ろし画像の周囲
に、第2の画像としての前後左右のパノラマ画像を貼り
付けた例である。この例では、第2の画像は、第1の画
像と、仮想視点の位置およびモデルが異なっている。図
32〜図34の画像を見ると、自車の近傍においては距
離感を保つことができ、かつ、自車周囲遠方は見渡すよ
うに一望することができる。
FIG. 32 shows an example in which a front, rear, left and right oblique view image as a second image is pasted around a view image as a first image. In this example, the virtual viewpoint of the second image has a different line of sight from the virtual viewpoint of the first image. FIG. 33 shows an example in which an image as seen through a fisheye lens using a pseudo-cylindrical model as a second image is pasted around a top-down image as a first image. In this example, the second image is different in model from the first image. FIG. 34 is an example in which a front, rear, left, and right panoramic image as a second image is pasted around a top-down image as a first image. In this example, the position of the virtual viewpoint and the model of the second image are different from those of the first image. Looking at the images of FIGS. 32 to 34, it is possible to maintain a sense of distance in the vicinity of the own vehicle and to overlook the distant surroundings of the own vehicle.

【0134】なお、見下ろし画像の前後左右全てに、遠
方画像を貼り付ける必要は必ずしもなく、見せたい方向
のみ、例えば右側のみ、後方のみに遠方画像を表示する
ようにしてもかまわない。
It is not always necessary to paste the distant image on all front, rear, left and right of the top-down image, and the distant image may be displayed only in a desired direction, for example, only on the right side or only behind.

【0135】なお、図35に示すように、見下ろし画像
の周囲の前後左右に斜め見下ろし画像を貼り付ける場
合、表示領域の四隅に空白部を設けて、斜め見下ろし画
像は互いに連続性がないことを強調するようにしてもか
まわない。
As shown in FIG. 35, when pasting the obliquely looking down image around the top down image in front, rear, left and right directions, blank portions are provided at the four corners of the display area to confirm that the oblique looking down image has no continuity with each other. It may be emphasized.

【0136】さらに、図32〜図35のような画像表示
を行う際には、周囲の遠方画像を、フィルタ処理を施す
ことによって、ぼやかせて表示してもかまわない。これ
により、運転者の注視領域を自車両の周辺に集中させる
ことができる。また、周囲の遠方画像の歪みを目立たな
いようにすることができる。
Further, when displaying the images as shown in FIGS. 32 to 35, the surrounding distant images may be blurred and displayed by performing a filtering process. Thereby, the driver's gaze area can be concentrated around the own vehicle. Further, it is possible to make the distortion of the surrounding distant image inconspicuous.

【0137】このような部分的なぼかし処理は、単独マ
ップを用いた画像表示の場合であっても有効である。例
えば、図5に示すような見下ろし画像の場合であって
も、自車両およびその近傍にはぼかし処理を行わず、他
の駐車車両が映っているような周辺領域にぼかし処理を
行うことによって、同様の効果を得ることができる。駐
車時などの場合には、ぼかし処理を行わない領域は、自
車両から10m以内の領域に設定すると適切である。ま
た、自車両から距離が離れるにつれてぼかし強度を増加
させてもよい。
Such partial blurring processing is effective even in the case of displaying an image using a single map. For example, even in the case of a top-down image as shown in FIG. 5, the blur processing is not performed on the own vehicle and the vicinity thereof, and the blur processing is performed on a peripheral area where another parked vehicle is reflected. Similar effects can be obtained. In the case of parking or the like, it is appropriate to set the area where the blurring processing is not performed to an area within 10 m from the host vehicle. Further, the blur intensity may be increased as the distance from the host vehicle increases.

【0138】また、図31の画像は、自車両と、自車両
の周囲を示す第1の画像と、この第1の画像が示す領域
の少なくとも一部を拡大した第2の画像とを含む合成画
像であるともいえる。もちろん、第1の画像が、自車両
の全体ではなく自車両の一部を示していたり、自車両の
周囲の一部を示していたりしていても、かまわない。
The image shown in FIG. 31 is composed of a self-vehicle, a first image showing the periphery of the self-vehicle, and a second image obtained by enlarging at least a part of the area shown by the first image. It can be said that it is an image. Of course, the first image may indicate a part of the host vehicle, not the entire host vehicle, or a part around the host vehicle.

【0139】また、表示画面をマルチウィンドウにし、
サブウィンドウに、上述したような合成画像や、カメラ
画像、仮想視点の位置を示す画像、文字情報などを表示
するようにしてもよい。これにより、自車両の周囲状況
がさらに容易に把握しやすくなり、運転手の利便性が向
上する。
Further, the display screen is made multi-window,
The composite image, the camera image, the image indicating the position of the virtual viewpoint, the character information, and the like may be displayed in the sub window. As a result, the situation around the host vehicle can be more easily understood, and the convenience of the driver is improved.

【0140】マルチ画面の表示方法としては、いろいろ
なものが考えられる。例えば、図36に示すように、カ
メラ画像や合成画像とともに、仮想視点の位置を示す画
像をサブウィンドウに表示してもよい。これにより、仮
想視点の位置を容易に把握することができる。
Various display methods for the multi-screen are conceivable. For example, as shown in FIG. 36, an image indicating the position of the virtual viewpoint may be displayed in the subwindow together with the camera image and the composite image. Thereby, the position of the virtual viewpoint can be easily grasped.

【0141】また例えば、物体検出センサが障害物を検
出したときに、各サブウィンドウのカメラ画像または合
成画像上にその障害物の位置を示す警告マークを表示さ
せるともに、別のサブウィンドウに、文字によって、そ
の障害物の位置を表示させてもよい。
For example, when the object detection sensor detects an obstacle, a warning mark indicating the position of the obstacle is displayed on the camera image or the composite image of each sub-window, and characters are displayed in another sub-window by characters. The position of the obstacle may be displayed.

【0142】<死角領域および自車両領域の表示> (その1) 図37はカメラ画像およびそのカメラ画像における自車
両の映り込み領域を示す領域データとしてのマスクデー
タの例を示す図である。図37に示すように、各カメラ
画像において自車両が映り込んだ部分を認識し、認識し
た車両の映り込み領域を示すマスクデータを、予め画像
処理部2に記憶させておく。図37に示すマスクデータ
における黒色の部分が、車両の映り込み領域である。車
両の映り込み領域は、カメラの仕様と向き、および自車
両の形状が定まれば、予め一意に決定することができ
る。
<Display of Blind Spot Area and Own Vehicle Area> (Part 1) FIG. 37 is a view showing an example of a camera image and mask data as area data indicating a reflection area of the own vehicle in the camera image. As shown in FIG. 37, a portion where the own vehicle is reflected in each camera image is recognized, and mask data indicating a reflected region of the recognized vehicle is stored in the image processing unit 2 in advance. The black part in the mask data shown in FIG. 37 is the reflection area of the vehicle. The reflection area of the vehicle can be uniquely determined in advance once the specifications and orientation of the camera and the shape of the own vehicle are determined.

【0143】図38(a)は図37のカメラ画像を用い
て合成した鉛直見下ろし画像である。図38(a)に示
す合成画像では、画像の中央部に白く自車両が映り込ん
でおり、多少見づらくなっている。
FIG. 38A is a vertical looking down image synthesized using the camera image of FIG. In the composite image shown in FIG. 38 (a), the host vehicle appears in the center of the image in white, making it somewhat hard to see.

【0144】そこで、各カメラ画像のマスクデータを、
仮想視点から見た画像に変換し、合成画像において、車
両の映り込み領域を塗りつぶすことにする。この結果、
図38(b)に示すような画像が得られ、見やすさが改
善される。
Therefore, the mask data of each camera image is
The image is converted into an image viewed from a virtual viewpoint, and the reflection area of the vehicle is painted out in the composite image. As a result,
An image as shown in FIG. 38B is obtained, and the visibility is improved.

【0145】また、図38(a)では、画像の中央部に
自車両が映り込んでいるため見づらくなっているととも
に、自車両が実際にどこにあるのかが分からないので、
運転しづらい。そこで、自車両のイラスト画像または実
画像を、自車両が実際に存在する位置に、スーパーイン
ボーズする。例えば、画像処理部2は、標準の仮想視点
から見たことを前提とする自車両のイラスト画像または
実画像を予め記憶しておき、その画像を、表示する合成
画像の仮想視点から見た画像に変換し、スーパーインポ
ーズすればよい。この結果、図38(c)に示すような
画像が得られ、周りの物体に対する自車両の大きさや相
対的な位置関係が、一目で分かるようになった。自車両
画像の変換は、前述したマッピングテーブルを用いるこ
とによって、容易に実現できる。
In FIG. 38 (a), the own vehicle is reflected in the center of the image, which makes it difficult to see, and it is not clear where the own vehicle is actually located.
It is difficult to drive. Therefore, the illustration image or the actual image of the own vehicle is superinvoked at a position where the own vehicle actually exists. For example, the image processing unit 2 previously stores an illustration image or a real image of the own vehicle on the assumption that the image is viewed from the standard virtual viewpoint, and displays the image as viewed from the virtual viewpoint of the composite image to be displayed. And then superimpose it. As a result, an image as shown in FIG. 38C was obtained, and the size and the relative positional relationship of the host vehicle with respect to the surrounding objects could be understood at a glance. The conversion of the own vehicle image can be easily realized by using the above-described mapping table.

【0146】この場合、標準の仮想視点としては、例え
ば自車両の上方に設けた仮想視点や、側面に位置する仮
想視点や、自車両の前方または後方などに設けた仮想視
点を、用いることができる。また、標準の仮想視点を複
数個設けて、複数の標準の仮想視点に対してそれぞれ画
像を準備してもよい。そして、合成画像を生成するため
の仮想視点の位置が決まると、その仮想視点と各標準の
仮想視点との位置関係から、画像変換時に画像の歪みが
最も小さくなる標準の仮想視点を選択するようにしても
かまわない。
In this case, as the standard virtual viewpoint, for example, a virtual viewpoint provided above the own vehicle, a virtual viewpoint located on the side, or a virtual viewpoint provided in front of or behind the own vehicle can be used. it can. Alternatively, a plurality of standard virtual viewpoints may be provided, and an image may be prepared for each of the plurality of standard virtual viewpoints. When the position of the virtual viewpoint for generating the composite image is determined, a standard virtual viewpoint that minimizes image distortion during image conversion is selected from the positional relationship between the virtual viewpoint and each standard virtual viewpoint. It doesn't matter.

【0147】なお、自車両のイラストまたは実画像を貼
り付ける代わりに、CAD/CAMやCGの分野で公知
のサーフェスモデルやソリッドモデルを用いた自車両の
3次元モデルを、合成画像に貼り付けるようにすること
も可能である。この場合も、標準の仮想視点から見た3
次元モデルを表す画像を予め準備しておき、この画像
を、表示する合成画像の仮想視点から見た画像に変換
し、スーパーインポーズすればよい。この変換も、前述
したマッピングテーブルを用いることによって、容易に
実現することができる。
Instead of pasting the illustration or actual image of the vehicle, a 3D model of the vehicle using a surface model or solid model known in the field of CAD / CAM or CG is pasted on the composite image. It is also possible to Also in this case, 3
It is sufficient to prepare an image representing the dimensional model in advance, convert this image into an image viewed from a virtual viewpoint of the composite image to be displayed, and superimpose it. This conversion can also be easily realized by using the above-described mapping table.

【0148】さらに、自車両が実際に存在する領域を示
す画像として、カメラ画像から生成した合成画像そのも
のを利用するようにしてもよい。また、自車両の一部、
例えばバンパー部分のみを合成画像で表示し、これ以外
の部分はイラストまたは実画像を貼り付けるようにして
もかまわない。
Further, a composite image itself generated from a camera image may be used as an image indicating an area where the host vehicle actually exists. In addition, part of own vehicle,
For example, only the bumper portion may be displayed as a composite image, and the other portions may be pasted with illustrations or actual images.

【0149】(その2) 仮想視点から見た合成画像には、いずれのカメラの撮像
範囲にも属さない領域が含まれる場合ある。また、自車
両が妨げになって、各カメラからは撮像できない領域も
含まれる場合がある。
(Part 2) A composite image viewed from a virtual viewpoint may include an area that does not belong to the imaging range of any camera. Further, there may be a case where an area that cannot be imaged by each camera is included because the own vehicle is obstructed.

【0150】この問題を解決するために、上述の(その
1)では、車両の映り込み領域に所定の画素データを与
えて塗りつぶすことによって、合成画像をより見やすく
した。
In order to solve this problem, in the above (Part 1), the composite image is made easier to see by giving predetermined pixel data to the reflection area of the vehicle and filling it.

【0151】ここで、図39に示すように、自車両が映
ったカメラ画像をそのまま仮想視点画像に変換すると、
変換された自車両画像が合成画像に含まれることにな
り、見にくくなる(A1)。この場合は、自車両が映る
領域を塗りつぶすことによって、見やすさは改善され
る。
Here, as shown in FIG. 39, when the camera image showing the own vehicle is directly converted into a virtual viewpoint image,
The converted own-vehicle image is included in the composite image, making it difficult to see (A1). In this case, the visibility is improved by filling the area where the own vehicle is reflected.

【0152】ところが、仮想視点画像において、自車両
が本来存在しない部分に、自車両の一部が映ってしまう
場合が起こりうる(A2)。このような場合は、仮想視
点画像において自車両の部分を塗りつぶすと、本来見え
るべき部分までが消えてしまうので、好ましくない。こ
の問題は、原カメラ画像を仮想視点画像に変換する際に
利用する空間モデルが、カメラに映っている実世界と異
なる(ほとんどは単純化される)場合に起こりうるもの
である。このため、この問題を原理的に解決するために
は、実世界の奥行き情報を実時間で計算することが必要
となり、非常に高速な演算能力が装置に要求される。し
たがって、実施は困難である。
However, in the virtual viewpoint image, a part of the host vehicle may be reflected in a portion where the host vehicle does not originally exist (A2). In such a case, it is not preferable to paint the portion of the own vehicle in the virtual viewpoint image because a portion that should be originally visible disappears. This problem can occur when the spatial model used when converting the original camera image into the virtual viewpoint image is different from the real world shown in the camera (mostly simplified). Therefore, in order to solve this problem in principle, it is necessary to calculate the depth information of the real world in real time, and an extremely high-speed computing capability is required for the device. Therefore, implementation is difficult.

【0153】そこで、次のような方法によって、この問
題を解決する。
Therefore, this problem is solved by the following method.

【0154】すなわち、合成画像の画素が車両の映り込
み領域に含まれるか否かを、原カメラ画像と対になるマ
スクデータを参照して判断し、この画素の生成を、車両
の映り込み領域に含まれる場合とそうでない場合とにお
いて切り換える。すなわち、マスクデータを仮想視点画
像に変換するのではなく、マスクデータを、原カメラ画
像の形態のまま用いる。
That is, it is determined whether or not the pixels of the composite image are included in the reflection area of the vehicle with reference to the mask data paired with the original camera image. Is switched between the case in which it is included and the case in which it is not. That is, instead of converting the mask data into a virtual viewpoint image, the mask data is used in the form of the original camera image.

【0155】図40はマスクデータの一例を示す図であ
る。図40に示すように、各カメラ画像に対して、自車
両の映り込み部分など仮想視点画像合成に用いない領域
を示すマスクデータが設けられている。
FIG. 40 shows an example of mask data. As shown in FIG. 40, for each camera image, mask data indicating an area not used for virtual viewpoint image synthesis such as a reflection part of the own vehicle is provided.

【0156】この場合には、例えば、合成画像の生成の
ためにカメラ画像の画素データを参照するとき、このカ
メラ画像に対応するマスクデータも参照し、その画素が
車両の映り込み領域に含まれるときには、画素の生成を
行わないで、死角領域であることが識別可能な色で塗り
つぶすなどの処理を行えばよい。
In this case, for example, when the pixel data of the camera image is referred to for generating the composite image, the mask data corresponding to the camera image is also referred to and the pixel is included in the reflection area of the vehicle. In some cases, processing such as painting with a color that can be identified as a blind spot area may be performed without generating a pixel.

【0157】また前述のマッピングデータMP14のよ
うに、合成画像の画素が死角領域に含まれるか否かの情
報を、マッピングテーブル自体に持たせてもよい。この
場合には、仮想視点画像合成の際に、フレーム毎にマク
スデータを参照する必要が無くなり、処理の高速化が実
現できる。また、マスクデータを蓄える記憶部を設ける
必要がない、という利点がある。
As in the case of the above-described mapping data MP14, information as to whether or not the pixels of the composite image are included in the blind spot area may be provided in the mapping table itself. In this case, it is not necessary to refer to the max data for each frame when synthesizing the virtual viewpoint image, and the processing can be speeded up. Further, there is an advantage that it is not necessary to provide a storage unit for storing mask data.

【0158】図41は画像合成の結果の一例を示す図で
ある。図41に示す合成画像では、自車両が存在する車
両領域と、自車両の周囲の死角領域とが、示されてい
る。車両領域を示すことによって、自車両と周囲の状況
との位置関係や距離などが、運転者から把握しやすくな
る。また、運転席からは直接見えにくい領域も合成画像
によって確認できるようになるが、さらに死角領域を示
すことによって、いずれのカメラからも撮影されない領
域を運転者に認識させることができるので、安全性が向
上する。
FIG. 41 is a diagram showing an example of the result of image synthesis. In the composite image shown in FIG. 41, a vehicle area where the own vehicle exists and a blind spot area around the own vehicle are shown. By indicating the vehicle area, the driver can easily understand the positional relationship, distance, and the like between the host vehicle and the surrounding situation. In addition, areas that are hard to see directly from the driver's seat can be confirmed by the composite image. However, by indicating the blind spot area, the driver can recognize an area that is not photographed by any camera. Is improved.

【0159】なお、自車両が存在する車両領域の全てを
示す必要は必ずしもなく、車両領域の一部を示す場合も
あり得る。例えば、カメラの設置台数が限られており、
車両およびその周囲の一部しか撮影されない場合には、
撮影された車両領域の一部と、その周囲の死角領域のみ
が示される。あるいは、車両周囲の特定の一部を拡大表
示させるような場合には、表示する車両領域の一部と、
その周囲の死角領域が示される。
Note that it is not always necessary to indicate the entire vehicle area where the host vehicle is present, and it is possible to indicate a part of the vehicle area. For example, the number of cameras installed is limited,
If only part of the vehicle and its surroundings are captured,
Only a part of the photographed vehicle area and the surrounding blind spot area are shown. Alternatively, in a case where a specific part around the vehicle is enlarged and displayed, a part of the vehicle area to be displayed and
The blind spot area around it is shown.

【0160】また、死角領域の代わりに、車両の乗員な
どの注意を喚起するための注意喚起領域を示してもよ
い。この注意喚起領域は、いずれのカメラからも撮影さ
れない車両周囲の死角領域を含んだ領域であってもよい
し、死角領域そのものに相当する領域であってもかまわ
ない。また、注意喚起領域は、車両の周囲の一部を示す
ものであってもよい。
[0160] Instead of the blind spot area, a warning area for calling the occupant of the vehicle may be shown. The alert area may be an area including a blind spot area around the vehicle that is not photographed by any camera, or may be an area corresponding to the blind spot area itself. The alert area may indicate a part around the vehicle.

【0161】注意喚起領域は、カメラの撮影範囲にかか
わらず、車両領域との位置関係のみによって予め設定可
能であるので、簡易な処理で合成することが可能であ
る。また、注意喚起領域が死角領域を含んでいるとき、
死角領域ではない、カメラから撮影された部分も注意喚
起領域として隠されてしまう可能性があるが、例えば、
注意喚起領域を半透明表示して、死角領域と併せて表示
するようにしてもよい。
The alerting area can be set in advance only by the positional relationship with the vehicle area, regardless of the photographing range of the camera, so that the alerting area can be synthesized by simple processing. Also, when the alert area includes a blind spot area,
There is a possibility that the part photographed from the camera that is not the blind spot area may be hidden as a warning area, for example,
The alert area may be displayed translucently and displayed together with the blind spot area.

【0162】図42はマスクデータを用いて死角領域を
求め、イラスト画像を貼り付けう場合におけるマッピン
グデータの生成手順を示す図である。図42において、
<PT1>は1個のカメラ画像から生成される合成画像
の画素、<PT2>は2個のカメラ画像を参照するが、
カメラ画像の1つが車両の映り込みのために除去され、
残りの1個のカメラ画像から生成される合成画像の画
素、<PT3>は1個のカメラ画像を参照するが、その
カメラ画像が車両の映り込みのために除去される合成画
像の画素、<PT4>は1個のカメラ画像を参照する
が、そのカメラ画像が車両の映り込みのために除去さ
れ、かつ、車両のイラスト画像が貼られる合成画像の画
素である。
FIG. 42 is a diagram showing a procedure for generating mapping data when a blind spot area is obtained by using mask data and an illustration image is pasted. In FIG.
<PT1> refers to a pixel of a composite image generated from one camera image, and <PT2> refers to two camera images.
One of the camera images is removed due to the reflection of the vehicle,
A pixel of the composite image generated from the remaining one camera image, <PT3>, refers to one camera image, but the pixel of the composite image from which the camera image is removed due to reflection of the vehicle, <PT3>PT4> refers to one camera image, and is a pixel of the composite image to which the camera image is removed due to reflection of the vehicle and an illustration image of the vehicle is pasted.

【0163】まず、ステップ1において、参照座標およ
び必要度の計算を行う。合成画像の画素に対し、全ての
カメラ画像について参照座標を計算する。この参照座標
の計算は、後述する幾何演算によって行う。このとき、
求めた参照座標がカメラ画像の撮影範囲外(すなわち死
角)にあるときは、座標値として(−1,−1)を記述
する。またここでは、参照するカメラの台数を求め、そ
の逆数を必要度として与えるものとする。必要度の与え
方は、他の方法でもかまわないし、人手による入力で与
えてもよい。このステップ1において、<PT1>が参
照するのはカメラ6、<PT2>が参照するのはカメラ
4,5、<PT3>が参照するのはカメラ6、<PT4
>が参照するのはカメラ2であることを得る。
First, in step 1, reference coordinates and necessity are calculated. For the pixels of the composite image, reference coordinates are calculated for all camera images. The calculation of the reference coordinates is performed by a geometric operation described later. At this time,
When the obtained reference coordinates are outside the photographing range of the camera image (that is, the blind spot), (-1, -1) is described as a coordinate value. Here, it is assumed that the number of cameras to be referred to is obtained, and the reciprocal thereof is given as the necessity. The method of giving the degree of necessity may be given by another method or may be given by manual input. In step 1, <PT1> refers to camera 6, <PT2> refers to cameras 4 and 5, <PT3> refers to camera 6, <PT4>.
It is obtained that the reference to> is the camera 2.

【0164】次に、ステップ2において、車両の映り込
み領域を示すマスクデータを参照して、死角の処理を行
う。座標値が(−1,−1)以外のカメラに対応するマ
スクデータにおいて、その座標値が示す点が、車両の映
り込み領域に属するか否かを判断する。車両の映り込み
領域に属するときは、その座標値を(−1,−1)に変
換する。この変換によって、参照するカメラの台数が減
ったときは、必要度の値を再度計算する。
Next, in step 2, blind spot processing is performed with reference to the mask data indicating the reflection area of the vehicle. In the mask data corresponding to the camera whose coordinate value is other than (-1, -1), it is determined whether or not the point indicated by the coordinate value belongs to the reflection area of the vehicle. If it belongs to the reflection area of the vehicle, its coordinate value is converted into (-1, -1). When the number of referenced cameras is reduced by this conversion, the value of the necessity is calculated again.

【0165】<PT1>については、図43(d)に示
すように、カメラ6のマスクデータにおいて点(45
0,200)は車両の映り込み領域に属しないので、座
標値の変換は行なわい。<PT2>については、図43
(b)に示すように、カメラ4のマスクデータにおいて
点(150,280)は車両の映り込み領域に属するの
で、カメラ4の座標値を(−1,−1)に変換する。一
方、図43(c)に示すように、カメラ5のマスクデー
タにおいて点(490,280)は車両の映り込み領域
に属しないので、カメラ5の座標値は変換しない。そし
て、その必要度を「1」に変換する。<PT3>につい
ては、図43(d)に示すように、カメラ6のマスクデ
ータにおいて点(110,250)は車両の映り込み領
域に属するので、カメラ6の座標値を(−1,−1)に
変換する。<PT4>については、カメラ2のマスクデ
ータにおいて点(600,290)は車両の映り込み領
域に属するので、カメラ4の座標値を(−1,−1)に
変換する。
As for <PT1>, as shown in FIG.
Since (0, 200) does not belong to the reflection area of the vehicle, the coordinate value is not converted. Regarding <PT2>, FIG.
As shown in (b), since the point (150, 280) in the mask data of the camera 4 belongs to the reflection area of the vehicle, the coordinate value of the camera 4 is converted into (-1, -1). On the other hand, as shown in FIG. 43 (c), since the point (490, 280) in the mask data of the camera 5 does not belong to the reflection area of the vehicle, the coordinate value of the camera 5 is not converted. Then, the necessity is converted into “1”. Regarding <PT3>, as shown in FIG. 43D, the point (110, 250) in the mask data of the camera 6 belongs to the reflection area of the vehicle, so the coordinate value of the camera 6 is set to (-1, -1). ). Regarding <PT4>, since the point (600, 290) in the mask data of the camera 2 belongs to the reflection area of the vehicle, the coordinate value of the camera 4 is converted into (-1, -1).

【0166】次に、ステップ3において、画像合成に最
低限必要なデータにするために、冗長なデータの整理を
行う。まず、座標値が(−1,−1)であるカメラ番号
を全て「−1」に変更する。そして、全てのカメラ番号
が「−1」である場合は、これらのデータを1つに統合
する(<PT3>,<PT4>)。また、「−1」以外
のカメラ番号がある場合は、カメラ番号が「−1」であ
るデータを除去する(<PT1>,<PT2>)。
Next, in step 3, redundant data is arranged in order to make the data minimum necessary for image synthesis. First, all camera numbers whose coordinate values are (-1, -1) are changed to "-1". If all the camera numbers are "-1", these data are integrated into one (<PT3>, <PT4>). If there is a camera number other than "-1", the data whose camera number is "-1" is removed (<PT1>, <PT2>).

【0167】そして、ステップ4において、自車両のイ
ラスト画像の貼り付けを行う。自車両のイラスト画像を
貼り付ける合成画像の画素については、マッピングデー
タのカメラ番号を「99」に変換し、イラスト画像の参
照座標を設定する。ここでは、<PT4>がイラスト画
像を貼り付ける画素であるので、カメラ番号を「99」
に変換するとともに、座標値をイラスト画像の参照座標
値(360,44)に変換する。
Then, in step 4, an illustration image of the own vehicle is pasted. For the pixels of the composite image to which the illustration image of the vehicle is pasted, the camera number of the mapping data is converted to “99”, and the reference coordinates of the illustration image are set. Here, since <PT4> is a pixel to which an illustration image is pasted, the camera number is set to “99”.
And the coordinate values are converted into reference coordinate values (360, 44) of the illustration image.

【0168】図44(a)はステップ1終了時における
マッピングデータを用いた場合の合成画像の例、図44
(b)はステップ3終了時におけるマッピングデータを
用いた場合の合成画像の例、図44(c)はステップ4
終了時におけるマッピングデータを用いた場合の合成画
像の例である。
FIG. 44A shows an example of a composite image when the mapping data at the end of step 1 is used.
FIG. 44B shows an example of a composite image when the mapping data at the end of step 3 is used, and FIG.
It is an example of a synthetic image when the mapping data at the end is used.

【0169】図45はマスクデータを用いないで、注意
喚起領域を指定する場合におけるマッピングデータの生
成手順を示す図である。図45において、<PT5>は
1個のカメラ画像から生成される合成画像の画素、<P
T6>は注意喚起領域に指定される合成画像の画素、<
PT7>は注意喚起領域に指定されるが、車両のイラス
ト画像が貼られる合成画像の画素である。
FIG. 45 is a diagram showing a procedure for generating mapping data in the case where a warning area is designated without using mask data. In FIG. 45, <PT5> is a pixel of a composite image generated from one camera image, and <P5>
T6> is a pixel of the composite image designated as the alert area, <
PT7> is a pixel of the composite image to which the illustration image of the vehicle is pasted, which is designated as the alert area.

【0170】まず、ステップ1’において、初期マッピ
ングテーブルの生成を行う。これは、図42に示すステ
ップ1およびステップ3の処理によって実行される。
First, in step 1 ', an initial mapping table is generated. This is executed by the processing of step 1 and step 3 shown in FIG.

【0171】次に、ステップ2’において、注意喚起領
域の指定を行う。ステップ1’で生成した初期マッピン
グテーブルを用いて合成画像を作成し、この合成画像に
おいて、注意喚起領域を指定する。
Next, in step 2 ', an attention area is designated. A composite image is created using the initial mapping table generated in step 1 ', and a warning area is designated in the composite image.

【0172】次に、ステップ3’において、注意喚起領
域に該当するマッピングデータの書き換えを行う。ステ
ップ2’で指定された注意喚起領域に該当するマッピン
グデータを、カメラ番号「−1」、座標(−1,−1)
に変換する。そして、参照するカメラの台数が減ったと
きは、必要度の値を再度計算する。
Next, in step 3 ', the mapping data corresponding to the alert area is rewritten. The mapping data corresponding to the alert area specified in step 2 ′ is stored in a camera number “−1” and coordinates (−1, −1).
Convert to Then, when the number of referenced cameras decreases, the value of the necessity is calculated again.

【0173】そして、ステップ4’において、自車両の
イラスト画像の貼り付けを行う。ここでは、<PT7>
がイラスト画像を貼り付ける画素であるので、カメラ番
号を「99」に変換するとともに、座標値をイラスト画
像の参照座標値(360,44)に変換する。
Then, in step 4 ', an illustration image of the vehicle is pasted. Here, <PT7>
Is a pixel to which the illustration image is to be pasted, so that the camera number is converted to “99” and the coordinate value is converted to the reference coordinate value (360, 44) of the illustration image.

【0174】図46(a)はステップ1’終了時におけ
るマッピングデータを用いた場合の合成画像の例、図4
6(b)はステップ3’終了時におけるマッピングデー
タを用いた場合の合成画像の例、図46(c)はステッ
プ4’終了時におけるマッピングデータを用いた場合の
合成画像の例である。
FIG. 46A shows an example of a composite image when the mapping data at the end of step 1 'is used.
FIG. 6B shows an example of a composite image when using the mapping data at the end of Step 3 ′, and FIG. 46C shows an example of a composite image when using the mapping data at the end of Step 4 ′.

【0175】このようにすれば、自車両画像を合成画像
に重ね合わせたり、死角領域や注意喚起領域を特定の色
で塗りつぶしたりするような処理を、容易に行うことが
できる。そして、注意喚起領域を設定する場合は、カメ
ラに対するマスクデータを参照しないで、予め決まった
注意喚起領域を合成することによって、より簡易に合成
画像を生成できる。一方、死角領域を設定する場合は、
カメラに対するマスクデータを参照することによって、
カメラに映っている車両周囲の状況を余すことなく合成
画像に反映させることが可能になる。
In this way, it is possible to easily perform processing such as superimposing the own vehicle image on the composite image or filling the blind spot area or the alert area with a specific color. When setting the alert area, a synthesized image can be more easily generated by combining a predetermined alert area without referring to mask data for the camera. On the other hand, when setting a blind spot area,
By referring to the mask data for the camera,
This makes it possible to reflect the situation around the vehicle reflected on the camera in the composite image without leaving it.

【0176】なお、以上の説明では、本発明に係る監視
システムや画像処理装置は、車両に適用するものとした
が、車両以外の移動体、例えば飛行機や船舶などであっ
ても、同様に適用することができる。また、移動体以外
の監視対象、例えば店舗、住居、ショールームなどにカ
メラを設置してもよい。
In the above description, the surveillance system and the image processing apparatus according to the present invention are applied to vehicles. However, the present invention is similarly applicable to moving objects other than vehicles, such as airplanes and ships. can do. In addition, a camera may be installed in a monitoring target other than a mobile object, for example, a store, a residence, a show room, and the like.

【0177】また、複数のカメラの設置位置や台数は、
ここで示したものに限られるものではない。
[0177] The installation positions and the number of cameras are
It is not limited to the one shown here.

【0178】また、本発明に係る画像処理装置の機能
は、その全部または一部を、専用のハードウェアを用い
て実現してもかまわないし、ソフトウェアによって実現
してもかまわない。また、本発明に係る画像処理装置の
機能の全部または一部をコンピュータに実行させるため
のプログラムを格納した記録媒体や伝送媒体を、利用す
ることも可能である。
Further, all or a part of the functions of the image processing apparatus according to the present invention may be realized by using dedicated hardware, or may be realized by software. It is also possible to use a recording medium or a transmission medium storing a program for causing a computer to execute all or a part of the functions of the image processing apparatus according to the present invention.

【0179】<幾何変換> 合成画像のためのマッピングテーブルを作成するために
は、仮想視点から見た合成画像の各画素に対応する各カ
メラ画像の画素の座標を決める必要がある。
<Geometric Transformation> In order to create a mapping table for a composite image, it is necessary to determine pixel coordinates of each camera image corresponding to each pixel of the composite image viewed from a virtual viewpoint.

【0180】このために、まず、仮想視点からの合成画
像の各画素に対応するワールド座標系(Xw、Yw,Zw)を
求め、そのワールド座標系の3次元座標に対応するカメ
ラ画像の画素の座標を求める2段階を考えると判りやす
い。
For this purpose, first, the world coordinate system (Xw, Yw, Zw) corresponding to each pixel of the composite image from the virtual viewpoint is obtained, and the pixels of the camera image corresponding to the three-dimensional coordinates of the world coordinate system are obtained. It is easy to understand if you consider two steps to find the coordinates.

【0181】最終的に必要な関係は、仮想視点の合成画
像の各画素と各カメラ画像の画素との関係だけであり、
このワールド座標系を経由するマッピングテーブルに限
定されるものではない。ただし、このワールド座標系を
経由するマッピングテーブルは、合成画像の実際の世界
での座標系であるワールド座標系での意味付けが明確に
なるため、周囲の状況を実際の距離、位置関係と対応付
けやすい合成画像を生成する点で重要である。
The final necessary relationship is only the relationship between each pixel of the composite image of the virtual viewpoint and the pixel of each camera image.
The mapping table is not limited to the mapping table passing through the world coordinate system. However, since the mapping table via this world coordinate system clarifies the meaning in the world coordinate system, which is the coordinate system of the real world of the composite image, the surrounding situation corresponds to the actual distance and positional relationship. This is important in generating a composite image that can be easily attached.

【0182】仮想視点の位置と向きを表すパラメータと
して、視点のワールド座標系での座標を位置ベクトルTv
=(Txv、Tyv,Tzv)、視線の向きを、視平面座標系を
ワールド座標系の向きへ一致させる回転を表す3行3列
の回転行列Rvで表すとすると、合成画像の視点座標(Vx
e,Vye,Vze)の対応するワールド座標(Xw,Yw,Zw)
は、式(1)で求められる。
As parameters representing the position and orientation of the virtual viewpoint, the coordinates of the viewpoint in the world coordinate system are represented by the position vector Tv.
= (Txv, Tyv, Tzv), if the direction of the line of sight is represented by a rotation matrix Rv of 3 rows and 3 columns representing a rotation for matching the viewing plane coordinate system to the direction of the world coordinate system, the viewpoint coordinates (Vx
e, Vye, Vze) corresponding world coordinates (Xw, Yw, Zw)
Is obtained by Expression (1).

【数1】 (Equation 1)

【0183】図47は、視点座標系とワールド座標系の
関係を説明する模式図である。
FIG. 47 is a schematic diagram for explaining the relationship between the viewpoint coordinate system and the world coordinate system.

【0184】図48に示すように、仮想視点の向きを、
視線がワールド座標系Y-Z平面に対して水平回転の角度
(方位角)をαv,X-Z平面に対してなす傾きの角度(仰
角)をβvとし、カメラの光軸周りの回転(Twist)をγ
vとすると、回転行列Rvは、
As shown in FIG. 48, the direction of the virtual viewpoint is
Let αv be the angle of rotation (azimuth) of the line of sight with respect to the world coordinate system YZ plane, and βv be the angle of inclination (elevation angle) with respect to the XZ plane, and γ be the rotation around the optical axis of the camera (Twist).
Given v, the rotation matrix Rv is

【数2】 となる。(Equation 2) Becomes

【0185】一方、仮想視点の視点座標系(Vxe,Vye,
Vze)のVxe,Vyeと、投影面上の2次元座標Uv、Vvの関
係は、透視投影変換より焦点距離fvを用いて以下の式
(3)で表される。
On the other hand, the viewpoint coordinate system (Vxe, Vye,
The relationship between Vxe and Vye of (Vze) and the two-dimensional coordinates Uv and Vv on the projection plane is expressed by the following equation (3) using the focal length fv from perspective projection transformation.

【数3】 (Equation 3)

【0186】焦点距離の単位としては、投影面をフィル
ムやCCDとして、その大きさに対応するmmやインチであ
らわす場合や、合成画像のサイズに対応して画素であら
わす場合などがあるが、今回は投影面を投影中心を中心
として幅2、高さ2の正規化したものとし、それに対す
る焦点距離を考える。
As the unit of the focal length, there are a case where the projection plane is expressed as a film or a CCD and the size is expressed in mm or inch corresponding to the size or a case where the projection surface is expressed as a pixel according to the size of the composite image. Let the projection plane be the width 2 and height 2 normalized about the projection center, and consider the focal length for that.

【0187】よって、投影面上の座標と合成画像の画素
の関係は、画像の右上から(Sv、Tv)の位置にある画素
に対応する投影面上の座標(Uv,Vv)は、画像の横幅を
Wv画素、縦幅をHv画素とすれば、 Uv = 2×Sv/Wv−1 Vv = 2×Tv/Hv−1 …(4) として求まる。
Therefore, the relationship between the coordinates on the projection plane and the pixels of the composite image is such that the coordinates (Uv, Vv) on the projection plane corresponding to the pixel located at (Sv, Tv) from the upper right of the image are Width
If Wv pixels and Hv pixels are Hv pixels, Uv = 2 × Sv / Wv−1 Vv = 2 × Tv / Hv−1 (4)

【0188】以上より、合成画像の任意の画素(Sv, T
v)に対応するワールド座標系の3次元座標(Xw、Yw、Z
w)は、式(1)〜(4)より、カメラの位置Txv,Ty
v,Tzv,カメラの向きαv、βv、γv,焦点距離fvより
次の式(5)で求めることができる。
As described above, any pixel (Sv, T
v) 3D coordinates (Xw, Yw, Z) of the world coordinate system corresponding to
w) is the camera position Txv, Ty from equations (1) to (4).
v, Tzv, camera orientations αv, βv, γv, and focal length fv can be obtained by the following equation (5).

【数4】 (Equation 4)

【0189】ただし、式(5)では、合成画像の座標
(Sv、Tv)に対応する奥行きVzeが未定である。言い換
えると、合成画像に写る対象物までの各画素からの奥行
き値を定める必要がある。
However, in equation (5), the depth Vze corresponding to the coordinates (Sv, Tv) of the composite image is undecided. In other words, it is necessary to determine the depth value from each pixel up to the object shown in the composite image.

【0190】仮想視点から見える対象物の3次元形状を
知ることができれば、各画素の奥行きを得ることができ
るが、一般には困難である。そこで、仮想視点か見える
対象物の形状に何らかのモデルを仮定することにより、
上記Vzeを求め、合成画像の座標とワールド座標系の3
次元座標との関係を求めることを行う。
If the three-dimensional shape of the object viewed from the virtual viewpoint can be known, the depth of each pixel can be obtained, but it is generally difficult. Therefore, by assuming some model for the shape of the virtual viewpoint or the visible object,
The above Vze is obtained, and the coordinates of the composite image and 3 of the world coordinate system are obtained.
The relation with the dimensional coordinates is obtained.

【0191】−路面平面モデル− その一例として、対象物を車が接している路面平面に限
定した場合について説明する。
-Road Plane Model- As an example, a case where an object is limited to a road plane in contact with a car will be described.

【0192】すべての対象物がワールド座標系の平面
(路面)に存在すると仮定すると、ワールド座標系の3
次元座標(Xw,Yw,Zw)は、以下の平面の方程式を満た
す。
Assuming that all objects exist on the plane (road surface) of the world coordinate system,
The dimensional coordinates (Xw, Yw, Zw) satisfy the following plane equation.

【数5】 axw+byw+czw=0 …(6) よって、式(6)を式(5)に代入して、Vzeを求める
と、
Ax w + by w + cz w = 0 (6) Therefore, substituting equation (6) into equation (5) and obtaining Vze gives

【数6】 となる。(Equation 6) Becomes

【0193】よって、式(7)を式(5)に代入するこ
とにより、仮想視点の合成画像の画素の座標(Sv,Tv)
から、対応するワールド座標系の平面の3次元座標(X
w,Yw,Zw)を求めることができる。
Therefore, by substituting equation (7) into equation (5), the coordinates (Sv, Tv) of the pixel of the composite image of the virtual viewpoint can be obtained.
From the corresponding three-dimensional coordinates (X
w, Yw, Zw).

【0194】このワールド座標系での3次元座標(Xw,
Yw,Zw)に対応する、各カメラ画像の各画像の座標は式
(1)と同様な関係式に、各カメラの位置、向きに対応
するTx、Ty、Tz、α、β、γのパラメータを代入して計
算することにより求めることができる。
The three-dimensional coordinates (Xw,
Yw, Zw), the coordinates of each image of each camera image are expressed by the same relational expression as Expression (1), and the parameters of Tx, Ty, Tz, α, β, γ corresponding to the position and orientation of each camera. Can be calculated by substituting

【0195】例えば、カメラ1の位置をTx1,Ty1,Tz
1,向きをα1,β1,γ1とすれば、合成画像の画素(S
v,Tv)に対応するカメラ1のカメラ座標系Xe1,Ye1,Ze
1が,以下の式(8)より計算できる。
For example, when the position of the camera 1 is Tx1, Ty1, Tz
1, if the directions are α1, β1, and γ1, the pixels (S
v, Tv), the camera coordinate system Xe1, Ye1, Ze of camera 1
1 can be calculated from the following equation (8).

【数7】 このカメラ座標系とカメラ画像の座標系(U1、V1)との
関係は、カメラ1の焦点距離をf1として、式(3)より U1 = f1/Ze1×Xe1 V1 = f1/Ze1×Ye1 …(9) として計算できる。対応するカメラ画像の画素は、カメ
ラ画像のサイズを縦H1画素、横W1画素として、アスペク
ト比1:1、カメラ中心が画像の中心と考えると、次の
式(10)で計算できる。 S1 = W1/2×(Uv+1) T1 = H1/2×(Vv+1) …(10) 以上の手続きにより、仮想視点画像の画素(Sv,Tv)に
対応するカメラ1の画像の画素(S1,T1)を求めること
ができた。同様にカメラ1以外の一般のカメラnに対し
ても(Sv,Tv)に対応する画素座標(Sn,Tn)が計算で
きる。実際にパラメータテーブルには、その中から、
(Sn,Tn)が実際のカメラ画像の範囲内に写っている
か、画素の拡大、縮小率が大きくないかなどの種々の条
件により、その最適なものを1つまたは複数選び、カメ
ラ番号nとその座標(Sn,Tn)を書きこむ。
(Equation 7) The relationship between the camera coordinate system and the coordinate system (U1, V1) of the camera image is expressed as follows: U1 = f1 / Ze1 × Xe1 V1 = f1 / Ze1 × Ye1 (Equation (3)) where f1 is the focal length of the camera 1. 9) can be calculated as The pixel of the corresponding camera image can be calculated by the following equation (10), assuming that the size of the camera image is H1 pixels vertically and W1 pixels horizontally, the aspect ratio is 1: 1, and the center of the camera is the center of the image. S1 = W1 / 2 × (Uv + 1) T1 = H1 / 2 × (Vv + 1) (10) By the above procedure, the pixels (S1, T1) of the image of the camera 1 corresponding to the pixels (Sv, Tv) of the virtual viewpoint image. ). Similarly, pixel coordinates (Sn, Tn) corresponding to (Sv, Tv) can be calculated for a general camera n other than the camera 1. Actually, the parameter table contains
Depending on various conditions such as whether (Sn, Tn) is within the range of the actual camera image, whether the pixel enlargement and reduction ratio are not large, one or more of the optimal ones are selected, and the camera number n and Write the coordinates (Sn, Tn).

【0196】−円筒モデル− 前記の路面平面モデルでは、カメラ画像で水平線から上
に写っている物体は路面平面を無限遠に延ばしても路面
平面上には載らないので、仮想視点から見ることことは
できない。
-Cylindrical model-In the above-mentioned road plane model, an object reflected above the horizon in the camera image does not rest on the road plane even if the road plane is extended to infinity. Can not.

【0197】これらの物体を仮想視点からの合成画像に
反映するために、対象の3次元形状として図49に示す
ような円筒モデルを考える。このモデルは、仮想視点の
向きが路面に対して平行に近くなった場合などに有効で
ある。
In order to reflect these objects in a composite image from a virtual viewpoint, a cylindrical model as shown in FIG. 49 is considered as a target three-dimensional shape. This model is effective, for example, when the direction of the virtual viewpoint becomes nearly parallel to the road surface.

【0198】いま簡単のために、X軸、Z軸に軸を持つ
円筒モデルを考えると、楕円円筒の中心を(Xc,Zc)と
し、楕円のパラメータ(a,c)を用いて、そのモデルを次
の式(11)としてあらわす。なお、X軸、Z軸以外に
軸を持つモデルへも、XZ平面上での回転を考えること
により、容易に拡張できる。
For the sake of simplicity, consider a cylindrical model having axes on the X axis and the Z axis. If the center of the elliptical cylinder is (Xc, Zc) and the ellipse parameters (a, c) are used, the model Is expressed as the following equation (11). Note that a model having axes other than the X axis and the Z axis can be easily extended by considering rotation on the XZ plane.

【数8】 (Equation 8)

【0199】式(11)を用いて式(5)からVzeを消
去することによって、仮想視点の合成画像の座標(Sv,T
v)に対応するワールド座標系の3次元座標(Xw,Yw,Z
w)を求めることができる。この座標から、前記路面平
面モデルと同様に、各カメラ画像の対応する画素を計算
することにより、仮想視点画像の画素(Sv,Tv)と、カメ
ラ画像の画素(Sn,Tn)の関係を求め、マッピングテーブ
ルを作成する。
By eliminating Vze from equation (5) using equation (11), the coordinates (Sv, T
v) 3D coordinates (Xw, Yw, Z) of the world coordinate system corresponding to
w) can be obtained. From the coordinates, the corresponding pixel of each camera image is calculated in the same manner as in the road surface plane model to obtain the relationship between the pixel (Sv, Tv) of the virtual viewpoint image and the pixel (Sn, Tn) of the camera image. , Create a mapping table.

【0200】また、路面平面モデルと円筒モデルの組合
せも可能である。先に路面平面モデルによるワールド座
標系の3次元座標を求めて、その3次元座標が、円筒モ
デルの外側、もしくは平面との交点を持たずに解を生じ
ない場合は、次に円筒モデルによる3次元座標を求め
る。これにより路面平面モデルと円筒モデルの複合によ
る合成が可能となる。
A combination of a road surface plane model and a cylindrical model is also possible. First, the three-dimensional coordinates of the world coordinate system by the road surface plane model are obtained. If the three-dimensional coordinates do not produce a solution outside the cylinder model or have no intersection with the plane, then the three-dimensional coordinates by the cylinder model are used. Find dimensional coordinates. This makes it possible to combine by combining the road surface plane model and the cylindrical model.

【0201】−疑似円筒モデル− 路面平面モデルの周辺の遠方の状況を把握しやすくする
ため、周囲をお椀状の疑似円筒モデルを導入する。モデ
ルの形状を図50に示す。仮想視点画像の周辺になる程、
遠方の部分が圧縮されて合成され、より広い範囲が表示
可能となる。この疑似円筒の形状を式(12)で表す。
-Pseudo-Cylinder Model- In order to make it easier to grasp the distant situation around the road surface plane model, a bowl-shaped pseudo-cylinder model is introduced around the periphery. FIG. 50 shows the shape of the model. The closer to the periphery of the virtual viewpoint image,
The distant part is compressed and synthesized, so that a wider range can be displayed. The shape of this pseudo cylinder is represented by equation (12).

【数9】 (Equation 9)

【0202】お椀の中心が(Xc,Yc,Zc)、X軸、Y軸、
Z軸方向の(a,b,c)の長さを持つ。前記円筒モデ
ルと同様に、式(12)および式(5)から、仮想視点
からの合成画像の座標に対応するワールド座標系の3次
元座標(Xw,Yw,Zw)を計算し、合成画像の各画素と、
各カメラ画像の画素の対応関係を求めることが可能とな
る。
The center of the bowl is (Xc, Yc, Zc), the X axis, the Y axis,
It has a length of (a, b, c) in the Z-axis direction. Similarly to the cylindrical model, three-dimensional coordinates (Xw, Yw, Zw) in the world coordinate system corresponding to the coordinates of the composite image from the virtual viewpoint are calculated from Expressions (12) and (5), and Each pixel,
It is possible to obtain the correspondence between pixels of each camera image.

【0203】なお、円筒モデルと同様に、路面平面モデ
ルとの組合せによる複合モデルによる合成も可能であ
る。
It is to be noted that, similarly to the cylindrical model, it is also possible to combine a composite model by combination with a road surface plane model.

【0204】−レンズ歪み補正の処理− 次に、マッピングテーブルによりレンズ収差を補正する
方法について説明する。実際のカメラ画像にレンズ収差
による歪みがある場合、この歪みを上記Uv、Vvから実際
の画素S1,T1を求めるときに、その歪みの分を補正した
画素座標を計算することにより、合成画像からレンズ収
差の影響を除くことが可能となる。この歪み補正は、マ
ッピングテーブルの合成画像(Sv,Tv)とカメラ画像(S
n,Tn)の関係に取り込まれるため、最初に歪み補正を行
ったマッピングテーブルを作れば、実際の合成時には、
補正のための計算は不要となる。従来のレンズ歪み補正
に使われるレンズ中心からの距離の関数などのような歪
みが定式化できない場合でも、格子などのパターンを撮
影し、レンズ歪みにより各画素がどのように移動するか
の情報さえあれば、歪み補正が可能であるという特徴を
持っている。 [図面の簡単な説明]
-Lens Distortion Correction Processing- Next, a method for correcting lens aberration using a mapping table will be described. If the actual camera image has distortion due to lens aberration, this distortion is calculated from the composite image by calculating the pixel coordinates corrected for the distortion when calculating the actual pixels S1 and T1 from the above Uv and Vv. It is possible to eliminate the influence of lens aberration. This distortion correction is performed by combining the composite image (Sv, Tv) of the mapping table and the camera image (Sv
n, Tn), so if you create a mapping table with distortion correction first,
Calculation for correction is not required. Even if distortion such as a function of distance from the lens center used for conventional lens distortion correction cannot be formulated, a pattern such as a grid is photographed, and even information on how each pixel moves due to lens distortion. If it is, distortion correction is possible. [Brief description of drawings]

【図1】本発明に係る監視システムの概念図である。FIG. 1 is a conceptual diagram of a monitoring system according to the present invention.

【図2】カメラ配置の例を示す図である。FIG. 2 is a diagram illustrating an example of a camera arrangement.

【図3】図2の各カメラの撮像画像の例である。FIG. 3 is an example of a captured image of each camera in FIG. 2;

【図4】仮想視点と実カメラとの関係を概念的に示す図
である。
FIG. 4 is a diagram conceptually showing a relationship between a virtual viewpoint and a real camera.

【図5】生成された合成画像の例である。FIG. 5 is an example of a generated composite image.

【図6】マッピングテーブルを用いた画像合成動作を示
す図である。
FIG. 6 is a diagram illustrating an image synthesizing operation using a mapping table.

【図7】本発明の一実施形態に係る監視システムの構成
例である。
FIG. 7 is a configuration example of a monitoring system according to an embodiment of the present invention.

【図8】図7の画像合成部の動作を示すフローチャート
である。
FIG. 8 is a flowchart illustrating an operation of the image combining unit in FIG. 7;

【図9】マッピングテーブルの構成の例である。FIG. 9 is an example of a configuration of a mapping table.

【図10】図8の画素合成ステップS14の詳細を示す
フローチャートである。
FIG. 10 is a flowchart illustrating details of a pixel synthesizing step S14 in FIG. 8;

【図11】カメラ画像以外の画素データを記述したマッ
ピングデータの一例である。
FIG. 11 is an example of mapping data describing pixel data other than a camera image.

【図12】8個のカメラ画像を利用した鉛直見下ろし画
像の例である。
FIG. 12 is an example of a vertical look-down image using eight camera images.

【図13】4個のカメラ画像を利用した鉛直見下ろし画
像の例である。
FIG. 13 is an example of a vertical top-down image using four camera images.

【図14】2個のカメラ画像を利用した鉛直見下ろし画
像の例である。
FIG. 14 is an example of a vertical top-down image using two camera images.

【図15】斜め見下ろし画像の例である。FIG. 15 is an example of a diagonal top-down image.

【図16】前方パノラマモードのパノラマ画像の例であ
る。
FIG. 16 is an example of a panorama image in a front panorama mode.

【図17】後方パノラマモードのパノラマ画像の例であ
る。
FIG. 17 is an example of a panorama image in a rear panorama mode.

【図18】斜め見下ろし画像とパノラマ画像とを合わせ
た画像の例である。
FIG. 18 is an example of an image obtained by combining a diagonal top-down image and a panoramic image.

【図19】車両の走行状態に応じて仮想視点の高さを変
更した場合の合成画像の例である。
FIG. 19 is an example of a composite image in a case where the height of the virtual viewpoint is changed according to the traveling state of the vehicle.

【図20】車両の走行状態に応じて仮想視点の視線の向
きを変更した場合の合成画像の例である。
FIG. 20 is an example of a composite image when the direction of the line of sight of the virtual viewpoint is changed according to the running state of the vehicle.

【図21】車両の舵角に応じて仮想視点の視線の向きを
変更した場合の合成画像の例である。
FIG. 21 is an example of a composite image when the direction of the line of sight of the virtual viewpoint is changed according to the steering angle of the vehicle.

【図22】物体検出センサの出力信号に応じた画像切替
の例を示す図である。
FIG. 22 is a diagram illustrating an example of image switching according to an output signal of an object detection sensor.

【図23】物体検出センサの出力信号に応じた画像切替
の例を示す図である。
FIG. 23 is a diagram illustrating an example of image switching according to an output signal of an object detection sensor.

【図24】物体検出センサの出力信号に応じた画像切替
の例を示す図である。
FIG. 24 is a diagram illustrating an example of image switching according to an output signal of an object detection sensor.

【図25】本発明の一実施形態に係る監視システムの構
成例である。
FIG. 25 is a configuration example of a monitoring system according to an embodiment of the present invention.

【図26】画像を平行移動する場合のマッピングテーブ
ルの切り出しを示す図である。
FIG. 26 is a diagram illustrating cutting out of a mapping table when an image is translated.

【図27】画像を拡大・縮小する場合のマッピングテー
ブルの切り出しを示す図である。
FIG. 27 is a diagram illustrating cutting out of a mapping table when an image is enlarged / reduced.

【図28】マッピングテーブルを矩形以外の四辺形で切
り出す例を示す図である。
FIG. 28 is a diagram illustrating an example in which a mapping table is cut out in a quadrilateral other than a rectangle.

【図29】カメラ画像の例である。FIG. 29 is an example of a camera image.

【図30】見下ろし画像の左右に斜め後方を撮すカメラ
画像を貼り付けた合成画像の例である。
FIG. 30 is an example of a composite image in which camera images of obliquely rearward views are pasted on the left and right of the top-down image.

【図31】狭い範囲を示す見下ろし画像と広い範囲を示
す見下ろし画像と並べて表示した例である。
FIG. 31 is an example in which a top-down image showing a narrow range and a top-down image showing a wide range are displayed side by side.

【図32】見下ろし画像の周囲に斜め見下ろし画像を貼
り付けた例である。
FIG. 32 is an example in which a diagonal top-down image is pasted around the top-down image.

【図33】見下ろし画像の周囲に疑似円筒モデルを用い
た画像を貼り付けた例である。
FIG. 33 is an example in which an image using a pseudo cylinder model is pasted around a top-down image.

【図34】見下ろし画像の周囲にパノラマ画像を貼り付
けた例である。
FIG. 34 is an example in which a panoramic image is pasted around a top-down image.

【図35】見下ろし画像の周囲に斜め見下ろし画像を貼
り付け、四隅に空白部を設けた例である。
FIG. 35 is an example in which a diagonal top-down image is pasted around the top-down image and blank portions are provided at four corners.

【図36】カメラ画像とともに仮想視点の位置を示す画
像を表示した例である。
FIG. 36 is an example in which an image indicating a position of a virtual viewpoint is displayed together with a camera image.

【図37】カメラ画像と自車両の映り込み領域を示すマ
スクデータの例を示す図である。
FIG. 37 is a diagram illustrating an example of a camera image and mask data indicating a reflection area of the own vehicle.

【図38】自車両の画像をスーパーインポーズした例を
示す図である。
FIG. 38 is a diagram showing an example in which an image of a host vehicle is superimposed.

【図39】自車両の映り込みをそのまま変換した場合の
合成画像の例を示す図である。
FIG. 39 is a diagram showing an example of a composite image when the reflection of the own vehicle is converted as it is.

【図40】マスクデータの一部を示す図である。FIG. 40 is a diagram showing a part of mask data.

【図41】車両領域と死角領域とが示された合成画像の
例である。
FIG. 41 is an example of a composite image showing a vehicle area and a blind spot area.

【図42】死角領域を求め、車両の画像を貼り付ける場
合のマッピングデータの生成手順を示す図である。
FIG. 42 is a diagram showing a procedure for generating mapping data when a blind spot area is obtained and an image of a vehicle is pasted.

【図43】マスクデータと合成画像の画素との関係を示
す図である。
FIG. 43 is a diagram illustrating a relationship between mask data and pixels of a composite image.

【図44】図42の手順の結果得られたマッピングデー
タを用いた場合の合成画像の例である。
FIG. 44 is an example of a composite image when using mapping data obtained as a result of the procedure in FIG. 42;

【図45】注意喚起領域を指定する場合のマッピングデ
ータの生成手順を示す図である。
FIG. 45 is a diagram showing a procedure for generating mapping data when a warning area is specified.

【図46】図45の手順の結果得られたマッピングデー
タを用いた場合の合成画像の例である。
FIG. 46 is an example of a composite image in a case where mapping data obtained as a result of the procedure in FIG. 45 is used.

【図47】幾何変換を説明するための図である。FIG. 47 is a diagram for explaining geometric transformation.

【図48】幾何変換を説明するための図である。FIG. 48 is a diagram for describing geometric transformation.

【図49】幾何変換を説明するための図である。FIG. 49 is a diagram for describing geometric transformation.

【図50】幾何変換を説明するための図である。FIG. 50 is a diagram for describing geometric transformation.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森村 淳 日本国奈良県奈良市西登美ケ丘4−14− 8 (56)参考文献 特開 平8−48198(JP,A) 特開 平11−151975(JP,A) 特開 昭58−110334(JP,A) 特開 平1−123587(JP,A) 特開 平9−180088(JP,A) 特開 平5−238311(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 7/18 B60R 1/00 B60R 21/00 G06T 1/00 G08G 1/16 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Atsushi Morimura 4-14-8 Nishitomigaoka, Nara City, Nara, Japan (56) References JP-A-8-48198 (JP, A) JP-A-11-151975 (JP) JP-A-58-110334 (JP, A) JP-A-1-123587 (JP, A) JP-A-9-180088 (JP, A) JP-A-5-238311 (JP, A) (58) Field surveyed (Int.Cl. 7 , DB name) H04N 7/18 B60R 1/00 B60R 21/00 G06T 1/00 G08G 1/16

Claims (27)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両の周囲を撮影する複数のカメラの撮
像画像を入力とし、これらのカメラ画像から、仮想視点
から見た合成画像を生成する画像処理部を備え、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のう
ちの少なくともいずれか1つを、前記車両の走行状態に
応じて、変更する ことを特徴とする画像処理装置。
1. An image processing unit that receives captured images of a plurality of cameras that capture the surroundings of a vehicle and generates a composite image viewed from a virtual viewpoint from these camera images, wherein the image processing unit includes: An image processing apparatus, wherein at least one of a position of a virtual viewpoint, a direction of a line of sight, and a focal length is changed according to a running state of the vehicle.
【請求項2】 請求項1記載の画像処理装置において、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のう
ちの少なくともいずれか1つを、前記車両の走行速度に
応じて、変更する ことを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the image processing unit sets at least one of a position of the virtual viewpoint, a direction of a line of sight, and a focal length to a traveling speed of the vehicle. An image processing apparatus characterized in that the image processing apparatus changes according to the conditions.
【請求項3】 請求項1記載の画像処理装置において、 前記画像処理部は、 仮想視点の位置、視線の向き、および焦点距離のうちの
少なくともいずれか1つの変更とともに、変更後の仮想
視点の視野範囲外画像の取込の制御を行う ことを特徴とする画像処理装置。
3. The image processing apparatus according to claim 1, wherein the image processing unit is configured to change at least one of a position of a virtual viewpoint, a direction of a line of sight, and a focal length, and change a virtual viewpoint after the change. An image processing apparatus for controlling capture of an image outside a visual field range.
【請求項4】 請求項3記載の画像処理装置において、 前記画像処理部は、 変更後の仮想視点の視野範囲外画像の取込の制御を、画
像合成のためのモデルを変更することによって、行う ことを特徴とする画像処理装置。
4. The image processing device according to claim 3, wherein the image processing unit controls capturing of an image outside the visual field range of the changed virtual viewpoint by changing a model for image synthesis. An image processing apparatus characterized by performing the above.
【請求項5】 請求項1記載の画像処理装置において、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のう
ちの少なくともいずれか1つを、前記車両の舵角に応じ
て、変更する ことを特徴とする画像処理装置。
5. The image processing device according to claim 1, wherein the image processing unit sets at least one of a position of the virtual viewpoint, a direction of a line of sight, and a focal length to a steering angle of the vehicle. An image processing apparatus characterized in that the image processing apparatus changes according to the conditions.
【請求項6】 請求項1記載の画像処理装置において、 前記車両は、障害物を検出する物体検出センサを備えて
おり、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のう
ちの少なくともいずれか1つを、前記物体検出センサに
よる検出結果に応じて、変更する ことを特徴とする画像処理装置。
6. The image processing apparatus according to claim 1, wherein the vehicle includes an object detection sensor that detects an obstacle, and the image processing unit includes a position of the virtual viewpoint, a direction of a line of sight, and a focus. An image processing apparatus, wherein at least one of the distances is changed according to a detection result of the object detection sensor.
【請求項7】 請求項1記載の画像処理装置において、 前記画像処理部は、 原マッピングテーブルを有し、この原マッピングテーブ
ルから切り出したマッピングテーブルを用いて、合成画
像の生成を行うものであり、かつ、 前記原マッピングテーブルから切り出すマッピングテー
ブルを変更することによって、仮想視点の位置、視線の
向き、および焦点距離のうちの少なくともいずれか1つ
の変更を、行う ことを特徴とする画像処理装置。
7. The image processing apparatus according to claim 1, wherein the image processing unit has an original mapping table, and generates a composite image using a mapping table cut out from the original mapping table. And changing at least one of a position of a virtual viewpoint, a direction of a line of sight, and a focal length by changing a mapping table cut out from the original mapping table.
【請求項8】 車両の周囲を撮影する複数のカメラの撮
像画像を入力とし、これらのカメラ画像から、仮想視点
から見た合成画像を生成する画像処理部を備え、 前記画像処理部は、 前記車両の走行状態に応じて、前記仮想視点の視野範囲
外画像の取込の制御を行う ことを特徴とする画像処理装置。
8. An image processing unit which receives captured images of a plurality of cameras that capture the surroundings of a vehicle as input and generates a composite image viewed from a virtual viewpoint from these camera images, wherein the image processing unit includes: An image processing apparatus, which performs control of capturing an image outside the visual field range of the virtual viewpoint according to a traveling state of a vehicle.
【請求項9】 車両の周囲を撮影する複数のカメラと、 前記複数のカメラの撮像画像を入力とし、これらのカメ
ラ画像から、仮想視点から見た合成画像を生成する画像
処理部と、 前記合成画像を表示する表示部とを備え、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のう
ちの少なくともいずれか1つを、前記車両の走行状態に
応じて、変更する ことを特徴とする監視システム。
9. A plurality of cameras for photographing a periphery of a vehicle, an image processing unit which receives captured images of the plurality of cameras and generates a composite image viewed from a virtual viewpoint from these camera images, A display unit for displaying an image, wherein the image processing unit changes at least one of a position of the virtual viewpoint, a direction of a line of sight, and a focal length according to a traveling state of the vehicle. A monitoring system, characterized in that:
【請求項10】 車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から、合成画
像を生成する画像処理部を備え、 前記画像処理部は、 仮想視点から見た第1の画像と、前記第1の画像の仮想
視点と位置、視線の向き、および焦点距離のうちの少な
くともいずれか1つが異なる視点から見た、または、前
記第1の画像とモデルが異なる、第2の画像とを含む画
像を、前記合成画像として生成する ことを特徴とする画像処理装置。
10. An image processing unit that receives captured images of a plurality of cameras that capture the surroundings of a vehicle and generates a composite image from these camera images, wherein the image processing unit includes One image and a virtual viewpoint and position of the first image, a direction of a line of sight, and at least one of a focal length viewed from a different viewpoint, or a different model from the first image. An image processing apparatus, comprising: generating an image including the second image and the second image as the composite image.
【請求項11】 請求項10記載の画像処理装置におい
て、 前記第2の画像は、前記カメラ画像の少なくとも1つで
ある ことを特徴とする画像処理装置。
11. The image processing apparatus according to claim 10, wherein the second image is at least one of the camera images.
【請求項12】 請求項10記載の画像処理装置におい
て、 前記第1の画像は、自車およびその周辺を示す近傍画像
であり、 前記第2の画像は、前記近傍画像が示す自車の周辺領域
よりも遠方の領域を示す遠方画像である ことを特徴とする画像処理装置。
12. The image processing apparatus according to claim 10, wherein the first image is a neighboring image showing the own vehicle and its surroundings, and the second image is a surrounding image of the own vehicle shown by the nearby images. An image processing apparatus, wherein the image processing apparatus is a distant image indicating an area farther than the area.
【請求項13】 請求項12記載の画像処理装置におい
て、 前記画像処理部は、 前記合成画像において、前記近傍画像の周囲に、前記遠
方画像を配置する ことを特徴とする画像処理装置。
13. The image processing apparatus according to claim 12, wherein the image processing section arranges the distant image around the vicinity image in the composite image.
【請求項14】 請求項13記載の画像処理装置におい
て、 前記遠方画像は、前記近傍画像と連続性を有する画像で
ある ことを特徴とする画像処理装置。
14. The image processing apparatus according to claim 13, wherein the distant image is an image having continuity with the neighboring image.
【請求項15】 請求項10記載の画像処理装置におい
て、 前記第1の画像は、自車両の少なくとも一部と、自車両
の周囲の少なくとも一部とを示す画像であり、 前記第2の画像は、前記第1の画像が示す領域の少なく
とも一部を拡大した画像である ことを特徴とする画像処理装置。
15. The image processing apparatus according to claim 10, wherein the first image is an image showing at least a part of the own vehicle and at least a part around the own vehicle, and the second image Is an image obtained by enlarging at least a part of a region indicated by the first image.
【請求項16】 車両の周囲を撮影する複数のカメラ
と、 前記複数のカメラの撮像画像を入力とし、これらのカメ
ラ画像から、合成画像を生成する画像処理部と、 前記合成画像を表示する表示部とを備え、 前記画像処理部は、 仮想視点から見た第1の画像と、前記第1の画像の仮想
視点と位置、視線の向き、および焦点距離のうちの少な
くともいずれか1つが異なる視点から見た、または、前
記第1の画像とモデルが異なる、第2の画像とを含む画
像を、前記合成画像として生成する ことを特徴とする監視システム。
16. A plurality of cameras for photographing the periphery of a vehicle, an image processing unit which receives captured images of the plurality of cameras and generates a composite image from these camera images, and a display for displaying the composite image. A first image viewed from a virtual viewpoint, and a viewpoint different from at least one of a virtual viewpoint and a position, a line-of-sight direction, and a focal length of the first image. A monitoring system that generates, as the composite image, an image that is viewed from above or includes a second image that is different in model from the first image.
【請求項17】 車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から、合成画
像を生成する画像処理部を備え、 前記画像処理部は、 前記合成画像において、自車両が存在する車両領域の少
なくとも一部と、自車両の周囲の少なくとも一部を示
し、いずれのカメラからも撮影されない車両周囲の死角
領域の少なくとも一部である注意喚起領域とを、表示す
る ことを特徴とする画像処理装置。
17. An image processing unit which receives captured images of a plurality of cameras that capture images around the vehicle and generates a composite image from these camera images, wherein the image processing unit includes: To display at least a part of the vehicle area where the vehicle is present and at least a part of the blind spot area around the vehicle which indicates at least a part of the surrounding area of the vehicle and is not photographed by any camera. An image processing apparatus characterized by the above-mentioned.
【請求項18】 請求項17記載の画像処理装置におい
て、 前記合成画像は、前記車両の上方に設定された仮想視点
から見た画像である ことを特徴とする画像処理装置。
18. The image processing apparatus according to claim 17, wherein the composite image is an image viewed from a virtual viewpoint set above the vehicle.
【請求項19】 請求項17記載の画像処理装置におい
て、 前記画像処理部は、 前記車両領域に、自車両のイラスト画像または実画像を
表示する ことを特徴とする画像処理装置。
19. The image processing apparatus according to claim 17, wherein the image processing unit displays an illustration image or a real image of the own vehicle in the vehicle area.
【請求項20】 請求項17記載の画像処理装置におい
て、 前記画像処理部は、 各カメラ画像における自車両の映り込み領域を示す領域
データを用いて、前記死角領域および車両領域を合わせ
た領域の範囲を決定する ことを特徴とする画像処理装置。
20. The image processing apparatus according to claim 17, wherein the image processing unit uses an area data indicating a reflection area of the own vehicle in each camera image to generate an area obtained by combining the blind spot area and the vehicle area. An image processing device for determining a range.
【請求項21】 車両の周囲を撮影する複数のカメラ
と、 前記複数のカメラの撮像画像を入力とし、これらのカメ
ラ画像から、合成画像を生成する画像処理部と、 前記合成画像を表示する表示部とを備え、 前記画像処理部は、 前記合成画像において、自車両が存在する車両領域の少
なくとも一部と、自車両の周囲の少なくとも一部を示
し、いずれのカメラからも撮影されない車両周囲の死角
領域の少なくとも一部である注意喚起領域とを、表示す
る ことを特徴とする監視システム。
21. A plurality of cameras for photographing the periphery of a vehicle, an image processing unit which receives captured images of the plurality of cameras and generates a composite image from the camera images, and a display for displaying the composite image. In the composite image, the image processing unit indicates at least a part of a vehicle area where the own vehicle is present, and at least a part of the surroundings of the own vehicle, around the vehicle that is not photographed by any camera. A monitoring system characterized by displaying a warning area which is at least a part of a blind spot area.
【請求項22】 車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から、合成画
像を生成する画像処理部を備え、 前記画像処理部は、 合成画像の画素と、カメラ画像の画素との対応関係を記
述する第1のマッピングデータと、合成画像の画素と、
カメラ画像以外の画素データとが対応することを示す識
別子を記述する第2のマッピングデータとを有するマッ
ピングテーブルを用いて、前記合成画像を生成する ことを特徴とする画像処理装置。
22. An image processing unit that receives captured images of a plurality of cameras that capture images around the vehicle and generates a composite image from these camera images, wherein the image processing unit includes: a pixel of the composite image; First mapping data describing the correspondence relationship with the pixels of the camera image, pixels of the composite image,
An image processing apparatus comprising: generating a composite image by using a mapping table having second mapping data that describes an identifier indicating correspondence with pixel data other than a camera image.
【請求項23】 請求項22記載の画像処理装置におい
て、 前記カメラ画像以外の画素データは、前記車両または、
前記車両の周囲の少なくとも一部にある死角領域を示す
ものである ことを特徴とする画像処理装置。
23. The image processing device according to claim 22, wherein the pixel data other than the camera image is the vehicle or
An image processing apparatus for indicating a blind spot area in at least a part of the periphery of the vehicle.
【請求項24】 請求項22記載の画像処理装置におい
て、 前記画像処理部は、カメラ画像以外の所定の画像を記憶
しており、 前記第2のマッピングデータは、 合成画像の画素に対し、当該画素に対応する,記憶され
た前記所定の画像における座標値を記述するものである ことを特徴とする画像処理装置。
24. The image processing device according to claim 22, wherein the image processing unit stores a predetermined image other than a camera image, and wherein the second mapping data An image processing apparatus for describing a stored coordinate value in a predetermined image corresponding to a pixel.
【請求項25】 請求項22記載の画像処理装置におい
て、 前記第2のマッピングデータは、 合成画像の画素に対応する画素データを記述するもので
ある ことを特徴とする画像処理装置。
25. The image processing apparatus according to claim 22, wherein the second mapping data describes pixel data corresponding to pixels of a composite image.
【請求項26】 車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から、合成画
像を生成する画像処理部を備え、 前記画像処理部は、 合成画像の画素と、カメラ画像の画素データおよびカメ
ラ画像以外の画素データのうちの一方または両方からな
る,複数の画素データとの対応関係を記述し、かつ、各
画素データに対してそれぞれ、必要度を記述したマッピ
ングデータを用い、 各画素データに対して必要度に応じた重み付けを行い、
前記合成画像の画素の画素データを生成する ことを特徴とする画像処理装置。
26. An image processing unit that receives captured images of a plurality of cameras that capture the surroundings of a vehicle and generates a composite image from these camera images, wherein the image processing unit includes: a pixel of the composite image; Mapping data that describes a correspondence relationship with a plurality of pixel data, which includes one or both of pixel data of a camera image and pixel data other than a camera image, and describes the necessity of each pixel data. , Weighting each pixel data according to the degree of necessity,
An image processing apparatus, wherein pixel data of a pixel of the composite image is generated.
【請求項27】 車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から、合成画
像を生成する画像処理部を備え、 前記画像処理部は、 原マッピングテーブルを有し、 この原マッピングテーブルから、合成画像の画素とカメ
ラ画像の画素との対応関係を記述するマッピングテーブ
ルを切り出し、切り出したマッピングテーブルを用い
て、合成画像を生成する ことを特徴とする画像処理装置。
27. An image processing unit that receives captured images of a plurality of cameras that capture the surroundings of a vehicle and generates a composite image from these camera images, wherein the image processing unit has an original mapping table. An image processing apparatus characterized in that a mapping table describing the correspondence between pixels of a composite image and pixels of a camera image is cut out from the original mapping table, and a synthesized image is generated using the cut-out mapping table.
JP2000613188A 1999-04-16 2000-04-17 Image processing device and monitoring system Expired - Lifetime JP3300334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000613188A JP3300334B2 (en) 1999-04-16 2000-04-17 Image processing device and monitoring system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP10994699 1999-04-16
JP11-109946 1999-04-16
JP2000613188A JP3300334B2 (en) 1999-04-16 2000-04-17 Image processing device and monitoring system
PCT/JP2000/002474 WO2000064175A1 (en) 1999-04-16 2000-04-17 Image processing device and monitoring system

Publications (1)

Publication Number Publication Date
JP3300334B2 true JP3300334B2 (en) 2002-07-08

Family

ID=26449656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000613188A Expired - Lifetime JP3300334B2 (en) 1999-04-16 2000-04-17 Image processing device and monitoring system

Country Status (1)

Country Link
JP (1) JP3300334B2 (en)

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2005142657A (en) * 2003-11-04 2005-06-02 Denso Corp Apparatus for controlling display of surrounding of vehicle
JP2006048451A (en) * 2004-08-05 2006-02-16 Toshiba Corp Periphery monitoring device and bird's-eye image display method
JP2007124609A (en) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd Apparatus for providing vehicle periphery image
JP2007158578A (en) * 2005-12-02 2007-06-21 National Univ Corp Shizuoka Univ Entire circumference information annularly displaying system
JP2007288611A (en) * 2006-04-18 2007-11-01 Alpine Electronics Inc On-vehicle image display device
JP2008090605A (en) * 2006-10-02 2008-04-17 Matsushita Electric Ind Co Ltd Image compositing device
JP2008168714A (en) * 2007-01-10 2008-07-24 Alpine Electronics Inc Vehicle condition monitoring device and image processing device
JP2008236403A (en) * 2007-03-20 2008-10-02 Mazda Motor Corp Driving support device for vehicle
EP2058762A2 (en) 2007-11-09 2009-05-13 Alpine Electronics, Inc. Method and apparatus for generating bird's-eye image
EP2061234A1 (en) 2007-11-19 2009-05-20 Alps Electric Co., Ltd. Imaging apparatus
JP2009206702A (en) * 2008-02-27 2009-09-10 Fujitsu Ltd Image processor and image processing method
JP2009253460A (en) * 2008-04-02 2009-10-29 Denso Corp Parking support system
WO2009141846A1 (en) * 2008-05-19 2009-11-26 パナソニック株式会社 Vehicle surroundings monitoring device and vehicle surroundings monitoring method
WO2009144994A1 (en) 2008-05-29 2009-12-03 富士通株式会社 Vehicle image processor, and vehicle image processing system
JP2010081245A (en) * 2008-09-25 2010-04-08 Nissan Motor Co Ltd Display device for vehicle, and display method
US7697029B2 (en) 2006-07-26 2010-04-13 Toyota Jidosha Kabushiki Kaisha Image display apparatus and method
JP2010130673A (en) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd Image processing apparatus, image processing method, and image processing program
WO2010137680A1 (en) * 2009-05-29 2010-12-02 富士通テン株式会社 Image processing device, electronic device, and image processing method
JP2011015353A (en) * 2009-07-06 2011-01-20 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
JP2011030078A (en) * 2009-07-28 2011-02-10 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
JP2011025874A (en) * 2009-07-28 2011-02-10 Hitachi Automotive Systems Ltd On-vehicle image display device
JP2011057101A (en) * 2009-09-10 2011-03-24 Toshiba Alpine Automotive Technology Corp Obstacle detector for vehicle
JP2011081729A (en) * 2009-10-09 2011-04-21 Sumitomo Heavy Ind Ltd Image converting device and operation support system
WO2011048716A1 (en) * 2009-10-21 2011-04-28 パナソニック株式会社 Video image conversion device and image capture device
JP2011230563A (en) * 2010-04-26 2011-11-17 Nissan Motor Co Ltd Device for supporting driving on narrow road
WO2012073592A1 (en) 2010-11-30 2012-06-07 アイシン精機株式会社 Parking position adjustment device
US8477191B2 (en) 2007-10-23 2013-07-02 Alpine Electronics, Inc. On-vehicle image pickup apparatus
US8553081B2 (en) 2006-08-31 2013-10-08 Alpine Electronics, Inc. Apparatus and method for displaying an image of vehicle surroundings
KR101342033B1 (en) * 2009-07-02 2013-12-16 후지쓰 텐 가부시키가이샤 Image generation device and image display system
KR20140114373A (en) * 2012-01-19 2014-09-26 로베르트 보쉬 게엠베하 Method and device for visualizing the surroundings of a vehicle
US8872919B2 (en) 2005-02-24 2014-10-28 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
US9493120B2 (en) 2012-08-21 2016-11-15 Fujitsu Ten Limited Image generator
WO2017033691A1 (en) * 2015-08-27 2017-03-02 株式会社デンソー Image generation device, image generation method, and program
WO2017057006A1 (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Periphery monitoring device
US9706175B2 (en) 2009-12-24 2017-07-11 Fujitsu Ten Limited Image processing device, image processing system, and image processing method
CN107636723A (en) * 2015-05-06 2018-01-26 罗伯特·博世有限公司 Method and corresponding equipment for the general image of the vehicle-periphery that produces vehicle
EP3337166A4 (en) * 2015-08-10 2018-06-20 JVC Kenwood Corporation Vehicular display apparatus and vehicular display method
JP2018518863A (en) * 2015-04-10 2018-07-12 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Method for displaying the surroundings of a vehicle
WO2018159019A1 (en) * 2017-02-28 2018-09-07 株式会社Jvcケンウッド Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
JP2018142882A (en) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド Bird's eye video creation device, bird's eye video creation system, bird's eye video creation method, and program
JP2018180654A (en) * 2017-04-04 2018-11-15 キヤノン株式会社 Information processing device, image generation method, and program
KR20190140202A (en) * 2018-06-11 2019-12-19 세메스 주식회사 Camera posture estimation method and substrate treating apparatus
US10540807B2 (en) 2017-09-15 2020-01-21 Aisin Seiki Kabushiki Kaisha Image processing device
JP2020042790A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Actual data expansion method, apparatus and terminal
US10638081B2 (en) 2016-03-18 2020-04-28 Denso Corporation Information processing device
DE102019131942A1 (en) 2018-11-28 2020-05-28 Aisin Seiki Kabushiki Kaisha Environment monitoring device
KR20200068054A (en) * 2018-11-26 2020-06-15 국방과학연구소 helmet apparatus and operating method for the same
US10909750B2 (en) 2017-11-24 2021-02-02 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
US10970812B2 (en) 2017-09-15 2021-04-06 Aisin Seiki Kabushiki Kaisha Image processing device
US11153510B2 (en) 2019-01-25 2021-10-19 Aisin Seiki Kabushiki Kaisha Display control device
US11440475B2 (en) 2019-01-25 2022-09-13 Aisin Corporation Periphery display control device
WO2022202892A1 (en) * 2021-03-25 2022-09-29 いすゞ自動車株式会社 Display control apparatus
US11472339B2 (en) 2018-09-06 2022-10-18 Aisin Corporation Vehicle periphery display device
US11938818B2 (en) 2020-12-04 2024-03-26 Aisin Corporation Periphery monitoring apparatus

Cited By (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2005142657A (en) * 2003-11-04 2005-06-02 Denso Corp Apparatus for controlling display of surrounding of vehicle
JP4679816B2 (en) * 2003-11-04 2011-05-11 株式会社デンソー Vehicle periphery display control device
JP2006048451A (en) * 2004-08-05 2006-02-16 Toshiba Corp Periphery monitoring device and bird's-eye image display method
US7511734B2 (en) 2004-08-05 2009-03-31 Kabushiki Kaisha Toshiba Monitoring apparatus and method of displaying bird's-eye view image
US8872919B2 (en) 2005-02-24 2014-10-28 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
US8174576B2 (en) 2005-09-28 2012-05-08 Nissan Motor Co., Ltd. Vehicle periphery video providing apparatus and method
JP2007124609A (en) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd Apparatus for providing vehicle periphery image
JP2007158578A (en) * 2005-12-02 2007-06-21 National Univ Corp Shizuoka Univ Entire circumference information annularly displaying system
JP2007288611A (en) * 2006-04-18 2007-11-01 Alpine Electronics Inc On-vehicle image display device
US7697029B2 (en) 2006-07-26 2010-04-13 Toyota Jidosha Kabushiki Kaisha Image display apparatus and method
US8553081B2 (en) 2006-08-31 2013-10-08 Alpine Electronics, Inc. Apparatus and method for displaying an image of vehicle surroundings
JP2008090605A (en) * 2006-10-02 2008-04-17 Matsushita Electric Ind Co Ltd Image compositing device
JP2008168714A (en) * 2007-01-10 2008-07-24 Alpine Electronics Inc Vehicle condition monitoring device and image processing device
JP2008236403A (en) * 2007-03-20 2008-10-02 Mazda Motor Corp Driving support device for vehicle
US8477191B2 (en) 2007-10-23 2013-07-02 Alpine Electronics, Inc. On-vehicle image pickup apparatus
JP2009118415A (en) * 2007-11-09 2009-05-28 Alpine Electronics Inc Method and apparatus for generating bird's-eye view image
EP2058762A2 (en) 2007-11-09 2009-05-13 Alpine Electronics, Inc. Method and apparatus for generating bird's-eye image
US8854463B2 (en) 2007-11-09 2014-10-07 Alpine Electronics, Inc. Method and apparatus for generating a bird's-eye view image
US8134608B2 (en) 2007-11-19 2012-03-13 Alps Electric Co., Ltd. Imaging apparatus
EP2061234A1 (en) 2007-11-19 2009-05-20 Alps Electric Co., Ltd. Imaging apparatus
JP2009206702A (en) * 2008-02-27 2009-09-10 Fujitsu Ltd Image processor and image processing method
JP2009253460A (en) * 2008-04-02 2009-10-29 Denso Corp Parking support system
WO2009141846A1 (en) * 2008-05-19 2009-11-26 パナソニック株式会社 Vehicle surroundings monitoring device and vehicle surroundings monitoring method
US9403483B2 (en) 2008-05-29 2016-08-02 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
US9475430B2 (en) 2008-05-29 2016-10-25 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
JP5397373B2 (en) * 2008-05-29 2014-01-22 富士通株式会社 VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING METHOD
US9840199B2 (en) 2008-05-29 2017-12-12 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
WO2009144994A1 (en) 2008-05-29 2009-12-03 富士通株式会社 Vehicle image processor, and vehicle image processing system
JP2010081245A (en) * 2008-09-25 2010-04-08 Nissan Motor Co Ltd Display device for vehicle, and display method
US8648881B2 (en) 2008-12-01 2014-02-11 Fujitsu Ten Limited Method and apparatus for image processing for in-vehicle cameras
JP2010130673A (en) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd Image processing apparatus, image processing method, and image processing program
JP2011008762A (en) * 2009-05-29 2011-01-13 Fujitsu Ten Ltd Image processor, electronic device, and image processing method
WO2010137680A1 (en) * 2009-05-29 2010-12-02 富士通テン株式会社 Image processing device, electronic device, and image processing method
US10339811B2 (en) 2009-05-29 2019-07-02 Fujitsu Ten Limited Image processing apparatus, electronic apparatus, and image processing method
US8836787B2 (en) 2009-07-02 2014-09-16 Fujitsu Ten Limited Image generating apparatus and image display system
KR101342033B1 (en) * 2009-07-02 2013-12-16 후지쓰 텐 가부시키가이샤 Image generation device and image display system
JP2011015353A (en) * 2009-07-06 2011-01-20 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
JP2011030078A (en) * 2009-07-28 2011-02-10 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
US8421863B2 (en) 2009-07-28 2013-04-16 Hitachi, Ltd. In-vehicle image display device
JP2011025874A (en) * 2009-07-28 2011-02-10 Hitachi Automotive Systems Ltd On-vehicle image display device
JP2011057101A (en) * 2009-09-10 2011-03-24 Toshiba Alpine Automotive Technology Corp Obstacle detector for vehicle
JP2011081729A (en) * 2009-10-09 2011-04-21 Sumitomo Heavy Ind Ltd Image converting device and operation support system
WO2011048716A1 (en) * 2009-10-21 2011-04-28 パナソニック株式会社 Video image conversion device and image capture device
JP2011091527A (en) * 2009-10-21 2011-05-06 Panasonic Corp Video conversion device and imaging apparatus
US9706175B2 (en) 2009-12-24 2017-07-11 Fujitsu Ten Limited Image processing device, image processing system, and image processing method
JP2011230563A (en) * 2010-04-26 2011-11-17 Nissan Motor Co Ltd Device for supporting driving on narrow road
US8868329B2 (en) 2010-11-30 2014-10-21 Aisin Seiki Kabushiki Kaisha Parking position adjustment device
WO2012073592A1 (en) 2010-11-30 2012-06-07 アイシン精機株式会社 Parking position adjustment device
KR102034189B1 (en) * 2012-01-19 2019-10-18 로베르트 보쉬 게엠베하 Method and device for visualizing the surroundings of a vehicle
KR20140114373A (en) * 2012-01-19 2014-09-26 로베르트 보쉬 게엠베하 Method and device for visualizing the surroundings of a vehicle
US9493120B2 (en) 2012-08-21 2016-11-15 Fujitsu Ten Limited Image generator
JP2018518863A (en) * 2015-04-10 2018-07-12 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Method for displaying the surroundings of a vehicle
US10290080B2 (en) 2015-04-10 2019-05-14 Robert Bosch Gmbh Method for displaying a vehicle environment of a vehicle
CN107636723A (en) * 2015-05-06 2018-01-26 罗伯特·博世有限公司 Method and corresponding equipment for the general image of the vehicle-periphery that produces vehicle
JP2018517973A (en) * 2015-05-06 2018-07-05 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Method for creating an overall image of a vehicle periphery and corresponding apparatus
US10291846B2 (en) 2015-05-06 2019-05-14 Robert Bosch Gmbh Method for producing an overall image of surroundings of a vehicle, and corresponding device
EP3337166A4 (en) * 2015-08-10 2018-06-20 JVC Kenwood Corporation Vehicular display apparatus and vehicular display method
US10596966B2 (en) 2015-08-10 2020-03-24 Jvckenwood Corporation Display device for vehicle and display method for vehicle
JP2017045312A (en) * 2015-08-27 2017-03-02 株式会社デンソー Image generation device, image generation method, and program
WO2017033691A1 (en) * 2015-08-27 2017-03-02 株式会社デンソー Image generation device, image generation method, and program
JP2017069739A (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Periphery monitoring device
WO2017057006A1 (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Periphery monitoring device
US10632915B2 (en) 2015-09-30 2020-04-28 Aisin Seiki Kabushiki Kaisha Surroundings monitoring apparatus
US10638081B2 (en) 2016-03-18 2020-04-28 Denso Corporation Information processing device
JP2018142882A (en) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド Bird's eye video creation device, bird's eye video creation system, bird's eye video creation method, and program
WO2018159019A1 (en) * 2017-02-28 2018-09-07 株式会社Jvcケンウッド Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
US10855934B2 (en) 2017-02-28 2020-12-01 JVC Kenwood Corporation Generating bird's-eye view images
JP7080586B2 (en) 2017-04-04 2022-06-06 キヤノン株式会社 Information processing equipment, information processing methods and programs
JP2018180654A (en) * 2017-04-04 2018-11-15 キヤノン株式会社 Information processing device, image generation method, and program
US10970812B2 (en) 2017-09-15 2021-04-06 Aisin Seiki Kabushiki Kaisha Image processing device
US10540807B2 (en) 2017-09-15 2020-01-21 Aisin Seiki Kabushiki Kaisha Image processing device
US10909750B2 (en) 2017-11-24 2021-02-02 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
KR20190140202A (en) * 2018-06-11 2019-12-19 세메스 주식회사 Camera posture estimation method and substrate treating apparatus
KR102075686B1 (en) 2018-06-11 2020-02-11 세메스 주식회사 Camera posture estimation method and substrate treating apparatus
US11472339B2 (en) 2018-09-06 2022-10-18 Aisin Corporation Vehicle periphery display device
JP2020042790A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Actual data expansion method, apparatus and terminal
US11205289B2 (en) 2018-09-07 2021-12-21 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device and terminal for data augmentation
KR20200068054A (en) * 2018-11-26 2020-06-15 국방과학연구소 helmet apparatus and operating method for the same
KR102149455B1 (en) * 2018-11-26 2020-08-28 국방과학연구소 helmet apparatus and operating method for the same
US10930070B2 (en) 2018-11-28 2021-02-23 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
DE102019131942A1 (en) 2018-11-28 2020-05-28 Aisin Seiki Kabushiki Kaisha Environment monitoring device
US11153510B2 (en) 2019-01-25 2021-10-19 Aisin Seiki Kabushiki Kaisha Display control device
US11440475B2 (en) 2019-01-25 2022-09-13 Aisin Corporation Periphery display control device
US11938818B2 (en) 2020-12-04 2024-03-26 Aisin Corporation Periphery monitoring apparatus
WO2022202892A1 (en) * 2021-03-25 2022-09-29 いすゞ自動車株式会社 Display control apparatus
JP2022149557A (en) * 2021-03-25 2022-10-07 いすゞ自動車株式会社 Display control device

Similar Documents

Publication Publication Date Title
JP3300334B2 (en) Image processing device and monitoring system
EP1179958B1 (en) Image processing device and monitoring system
JP3652678B2 (en) Vehicle surrounding monitoring apparatus and adjustment method thereof
JP3300341B2 (en) Surveillance system and camera adjustment method
CN103770706B (en) Dynamic reversing mirror indicating characteristic
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP4596978B2 (en) Driving support system
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP3871614B2 (en) Driving assistance device
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP5159070B2 (en) Vehicle periphery image display device and display method
JP4315968B2 (en) Image processing apparatus and visibility support apparatus and method
KR20020033816A (en) Monitoring system
EP1383332A1 (en) Method and apparatus for displaying pickup image of camera installed in vehicle
JP5422902B2 (en) Image processing apparatus, image processing program, image processing system, and image processing method
JP3753681B2 (en) Monitoring system
JP2007109166A (en) Driving assistance system
KR20030031445A (en) Automobile surrounding observation device and method for adjusting the same
JP2009524171A (en) How to combine multiple images into a bird&#39;s eye view image
JP2012023658A (en) Image display device for vehicle
JP2011030078A (en) Image display device for vehicle
JP7280006B2 (en) Image processing device, image processing method and image processing program
JP2010258691A (en) Maneuver assisting apparatus
JP4696825B2 (en) Blind spot image display device for vehicles
Oizumi et al. Development of “all-around view” system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020402

R150 Certificate of patent or registration of utility model

Ref document number: 3300334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080419

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120419

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130419

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130419

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140419

Year of fee payment: 12

EXPY Cancellation because of completion of term