JP2002027446A - Monitoring system - Google Patents

Monitoring system

Info

Publication number
JP2002027446A
JP2002027446A JP2000201948A JP2000201948A JP2002027446A JP 2002027446 A JP2002027446 A JP 2002027446A JP 2000201948 A JP2000201948 A JP 2000201948A JP 2000201948 A JP2000201948 A JP 2000201948A JP 2002027446 A JP2002027446 A JP 2002027446A
Authority
JP
Japan
Prior art keywords
image
camera
data
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000201948A
Other languages
Japanese (ja)
Other versions
JP3269056B2 (en
Inventor
Hiroshi Ishii
浩史 石井
Shusaku Okamoto
修作 岡本
Masamichi Nakagawa
雅通 中川
Kazuo Nobori
一生 登
Atsushi Morimura
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000201948A priority Critical patent/JP3269056B2/en
Priority to US09/898,335 priority patent/US7027616B2/en
Priority to EP01116108A priority patent/EP1170697B1/en
Priority to DE60133859T priority patent/DE60133859D1/en
Priority to KR1020010039846A priority patent/KR100839287B1/en
Publication of JP2002027446A publication Critical patent/JP2002027446A/en
Application granted granted Critical
Publication of JP3269056B2 publication Critical patent/JP3269056B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To largely reduce the transmission data amount from a plurality of cameras to an image processor for generating a composite image without lowering the quality of the image. SOLUTION: A resolution specifying unit 260 specifies a resolution needing in the case of compositing images for each region of each camera image according to a corresponding relationship between the composited image described in a mapping table 220 and each camera image. A compressing unit 120 provided in a camera 10 compresses camera image data in response to the specified resolution. The image data of the camera image compressed according to the corresponding relationship between the composite image and the camera image is transmitted to a transmission route 15.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数のカメラによ
って撮影された画像を変形・統合等の処理によって合成
する画像処理技術に関するものであり、特に、車両の運
転操作などを支援する監視システムに有効な技術に属す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique for synthesizing images taken by a plurality of cameras by processing such as deformation and integration, and more particularly, to a monitoring system for supporting driving operation of a vehicle. Belong to effective technology.

【0002】[0002]

【従来の技術】近年、車載用のディスプレイ装置の普及
やカメラなどの映像機器の低価格化に伴い、カメラによ
って車両周辺を監視することによって安全運転を支援す
る装置が実用化され、普及しつつある。
2. Description of the Related Art In recent years, with the spread of in-vehicle display devices and the reduction in the price of video equipment such as cameras, devices that support safe driving by monitoring the periphery of a vehicle with a camera have been put into practical use and are becoming widespread. is there.

【0003】このような車両周辺監視装置の例として、
車両に設置された複数のカメラからの画像を利用し、車
両の真上に設置されたカメラであたかも撮像されたかの
ような画像を合成し、運転者に表示するシステムが提案
されている(例えば特願平10−217261参照)。
As an example of such a vehicle periphery monitoring device,
There has been proposed a system that utilizes images from a plurality of cameras installed in a vehicle, synthesizes an image as if the camera was installed directly above the vehicle, and displays the synthesized image as if the image was displayed to a driver. See Japanese Patent Application No. 10-217261).

【0004】図19はこのシステムの構成例を示す図で
ある。カメラ部40内の複数のカメラ401から1フィ
ールドまたは1フレームの画像信号が出力され、出力さ
れた画像信号は伝送線45を介して伝送され、画像処理
部50のバッファメモリ501に記憶される。画像合成
部503は、仮想視点からみた合成画像と実際の各カメ
ラ401の画像との関係を記述したマッピングテーブル
502のデータに従って、バッファメモリ501に記憶
された画像信号から合成画像を生成し、表示装置60に
表示する。図19に示すシステムを利用することによっ
て、運転者は、実際のカメラ設置位置を考慮することな
く、合成画像によって自車と周囲の位置関係を的確に把
握することができ、例えば駐車操作などを安全に行うこ
とができる。
FIG. 19 is a diagram showing a configuration example of this system. An image signal of one field or one frame is output from the plurality of cameras 401 in the camera unit 40, and the output image signal is transmitted via the transmission line 45 and stored in the buffer memory 501 of the image processing unit 50. The image synthesizing unit 503 generates a synthesized image from the image signal stored in the buffer memory 501 according to the data of the mapping table 502 that describes the relationship between the synthesized image viewed from the virtual viewpoint and the actual image of each camera 401, and displays the generated image. It is displayed on the device 60. By using the system shown in FIG. 19, the driver can accurately grasp the positional relationship between the own vehicle and the surroundings by the composite image without considering the actual camera installation position. It can be done safely.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
たシステムでは、次のような問題がある。
However, the above-described system has the following problems.

【0006】図19から分かるように、伝送線45はカ
メラ毎に設けられており、各カメラ401と画像処理部
50との間にそれぞれ配される。各カメラ401は通
常、合成画像の生成のために車両周囲の様々な箇所に設
置されるので、伝送線45も、車両の各部に張り巡らせ
る必要がある。このため、このシステムを車両に設置す
るために煩雑な作業が必要になり、また、故障などに対
する保守作業も多大なものとなる。
[0007] As can be seen from FIG. 19, the transmission line 45 is provided for each camera, and is disposed between each camera 401 and the image processing unit 50. Since each camera 401 is usually installed at various places around the vehicle for generating a composite image, the transmission line 45 also needs to be routed around each part of the vehicle. For this reason, complicated work is required to install this system in the vehicle, and maintenance work for troubles and the like becomes enormous.

【0007】システムの設置や保守を容易にするために
は、伝送線をカメラ同士で共有化し、その本数を削減す
ることが望ましい。ところが、各カメラの画像データを
全て伝送するためには大きな伝送容量が必要になり、こ
のため、伝送線の本数の削減が困難になっている。すな
わち、伝送線の本数を減らすためには、伝送される画像
データ量を低減することが必須となる。
[0007] In order to facilitate the installation and maintenance of the system, it is desirable to share the transmission lines among the cameras and reduce the number of transmission lines. However, a large transmission capacity is required to transmit all the image data of each camera, which makes it difficult to reduce the number of transmission lines. That is, in order to reduce the number of transmission lines, it is necessary to reduce the amount of transmitted image data.

【0008】また、画像処理部50においても、各カメ
ラからの1フィールドや1フレームの画像データを記憶
する必要があるので、バッファメモリ501として多く
のメモリ容量を必要とする。
The image processing section 50 also needs to store one field or one frame of image data from each camera, so that the buffer memory 501 requires a large memory capacity.

【0009】一方、カメラ画像は、画像合成のために全
ての領域が利用されるわけでなく、画像合成に不必要な
部分も含んでいる。また、画像合成に必要な領域内で
も、合成画像の生成に必要となる解像度は、部分ごとに
異なっている。したがって、カメラ画像の画像データを
そのまま全て画像処理部に伝送する必要は、必ずしもな
い。
[0009] On the other hand, the camera image does not use all areas for image synthesis, and includes portions unnecessary for image synthesis. Also, the resolution required to generate a composite image differs for each part, even within the area required for image composition. Therefore, it is not always necessary to transmit all the image data of the camera image to the image processing unit as it is.

【0010】前記の問題に鑑み、本発明は、複数のカメ
ラと、これらのカメラの撮像画像から合成画像を生成す
る画像処理部とを備えた監視システムとして、合成画像
の品質を下げることなく、伝送されるカメラ画像のデー
タ量を大幅に削減することを課題とする。
In view of the above problems, the present invention provides a monitoring system including a plurality of cameras and an image processing unit that generates a composite image from images captured by these cameras without reducing the quality of the composite image. It is an object to significantly reduce the amount of data of a transmitted camera image.

【0011】[0011]

【課題を解決するための手段】前記の課題を解決するた
めに、請求項1の発明が講じた解決手段は、監視システ
ムとして、複数のカメラを有するカメラ部と、前記カメ
ラ部から出力されたカメラ画像の画像データを伝送する
伝送経路と、前記伝送経路を介して伝送された各カメラ
画像の画像データを入力とし、これらの画像データから
合成画像を生成する画像処理部とを備え、前記カメラ部
は、前記伝送経路に出力する画像データ量を削減するた
めの画像データ削減手段を備え、前記カメラ部または画
像処理部は、前記画像データ削減手段に対し、前記合成
画像と各カメラ画像との対応関係に従って、画像合成に
用いるカメラ画像のデータ量削減態様を指定する削減態
様指定手段を備えているものである。
Means for Solving the Problems In order to solve the above-mentioned problems, a solution taken by the invention of claim 1 is a surveillance system in which a camera section having a plurality of cameras and an output from the camera section are provided. The camera comprising: a transmission path for transmitting image data of a camera image; and an image processing unit that receives image data of each camera image transmitted via the transmission path and generates a composite image from the image data. The unit includes image data reduction means for reducing the amount of image data to be output to the transmission path, and the camera unit or the image processing unit, for the image data reduction means, the combination of the synthesized image and each camera image The image processing apparatus further includes a reduction mode designating unit for designating a data mode reduction mode of a camera image used for image composition according to the correspondence relationship.

【0012】請求項1の発明によると、カメラ部に設け
られた画像データ削減手段は、削減態様指定手段によっ
て指定されたカメラ画像のデータ量削減態様に応じて、
伝送経路に出力する画像データ量を削減する。そして、
削減態様指定手段は、合成画像とカメラ画像との対応関
係に従って、画像合成に用いるカメラ画像のデータ量削
減態様を指定する。このため、伝送経路には、合成画像
とカメラ画像との対応関係に従って指定された態様に応
じて削減されたカメラ画像の画像データが、伝送される
ことになる。これにより、伝送されるカメラ画像のデー
タ量が大幅に削減され、しかも、合成画像の品質が低下
することはない。この結果、伝送経路の伝送容量が少な
くてすむので、安価で本数の少ない伝送線や無線によっ
て伝送経路を実現することが可能になり、車両への設置
や保守の作業が大幅に簡易化される。また、画像処理部
に必要となるバッファメモリの記憶容量を大幅に削減す
ることができる。
According to the first aspect of the present invention, the image data reducing means provided in the camera unit is adapted to reduce the data amount of the camera image specified by the reduction mode specifying means.
The amount of image data output to the transmission path is reduced. And
The reduction mode designating means specifies a data mode of the camera image used for image synthesis in accordance with the correspondence between the composite image and the camera image. For this reason, the image data of the camera image reduced according to the mode specified according to the correspondence between the composite image and the camera image is transmitted to the transmission path. As a result, the data amount of the transmitted camera image is significantly reduced, and the quality of the synthesized image is not reduced. As a result, since the transmission capacity of the transmission path can be reduced, the transmission path can be realized by using inexpensive and small-number transmission lines or wirelessly, and the work of installation and maintenance on the vehicle is greatly simplified. . Further, the storage capacity of the buffer memory required for the image processing unit can be significantly reduced.

【0013】そして、請求項2の発明では、前記請求項
1の監視システムにおいて、前記画像処理部は、複数種
類の合成画像が生成可能でありかつ生成する合成画像の
種類を切り替え可能に構成されており、前記削減態様指
定手段は、前記画像処理部が生成する合成画像の種類に
応じて、指定するデータ量削減態様を切り替えるものと
する。
According to a second aspect of the present invention, in the monitoring system according to the first aspect, the image processing unit is configured to be capable of generating a plurality of types of composite images and to switch the type of the generated composite image. The reduction mode designating means switches the data amount reduction mode to be specified according to the type of the composite image generated by the image processing section.

【0014】また、請求項3の発明では、前記請求項1
の監視システムにおいて、前記削減態様指定手段は、画
像合成に用いるカメラ画像の各領域について、合成画像
生成のために必要と想定される解像度をそれぞれ指定す
る解像度指定部を有し、前記画像データ削減手段は、画
像合成に用いるカメラ画像の画像データを前記解像度指
定部によって指定された解像度に従って圧縮するものと
する。
[0014] According to the third aspect of the present invention, the first aspect is provided.
In the monitoring system, the reduction mode designating unit has a resolution designating unit for designating a resolution assumed to be necessary for generation of a composite image for each area of a camera image used for image composition, and The means compresses the image data of the camera image used for image synthesis according to the resolution specified by the resolution specifying unit.

【0015】請求項3の発明によると、伝送されるカメ
ラ画像のデータ量が、画像合成に必要となる解像度に応
じた圧縮によって、大幅に削減されるので、伝送経路の
伝送容量が少なくてすむ。また、折り返し歪みの発生も
抑えることができ、合成画像の画質を良好にすることが
できる。
According to the third aspect of the present invention, since the data amount of the transmitted camera image is greatly reduced by the compression according to the resolution required for the image synthesis, the transmission capacity of the transmission path can be reduced. . In addition, the occurrence of aliasing distortion can be suppressed, and the quality of the synthesized image can be improved.

【0016】そして、請求項4の発明では、前記請求項
3の監視システムにおける画像データ削減手段は、DC
T変換を用いて画像データの圧縮を行うものとする。
According to a fourth aspect of the present invention, in the surveillance system according to the third aspect, the image data reducing means includes a DC
It is assumed that image data is compressed using T conversion.

【0017】また、請求項5の発明では、前記請求項1
の監視システムにおいて、前記削減態様指定手段は、画
像合成に用いるカメラ画像について合成画像生成のため
に必要と想定される領域を指定する領域指定部を有し、
前記画像データ削減手段は、画像合成に用いるカメラ画
像の画像データから、前記領域指定部によって指定され
た領域以外の領域の画像データを削除するものとする。
Further, in the invention of claim 5, according to claim 1,
In the monitoring system of the above, the reduction mode designating means has an area designating unit for designating an area that is assumed to be necessary for generation of a synthesized image for a camera image used for image synthesis,
The image data reduction unit deletes image data of an area other than the area specified by the area specifying unit from the image data of the camera image used for image synthesis.

【0018】請求項5の発明によると、伝送されるカメ
ラ画像のデータ量が、画像合成に必要となる領域以外の
領域の画像データの削除によって、大幅に削減されるの
で、伝送経路の伝送容量が少なくてすむ。
According to the fifth aspect of the present invention, the data amount of the transmitted camera image is greatly reduced by deleting the image data in the area other than the area required for the image synthesis, so that the transmission capacity of the transmission path is reduced. Need less.

【0019】また、請求項6の発明では、前記請求項1
の監視システムにおいて、前記各カメラは、画像データ
の読み出し順序がその外部から制御可能に構成されてお
り、前記カメラ部または画像処理部は、画像合成に用い
るカメラの画像データの読み出し順序を、前記削減態様
指定手段によって指定されたデータ量削減態様に応じて
制御する読出制御部を備えているものとする。
According to the sixth aspect of the present invention, the first aspect is provided.
In each of the monitoring systems, each of the cameras is configured so that the reading order of the image data can be controlled from the outside, and the camera unit or the image processing unit sets the reading order of the image data of the camera used for the image synthesis, It is assumed that a reading control unit for controlling according to the data amount reduction mode specified by the reduction mode specifying unit is provided.

【0020】請求項6の発明によると、画像合成に用い
るカメラの画像データの読み出し順序が、指定されたデ
ータ量削減態様に応じて制御されるので、伝送経路を伝
送されるデータ量の時間的集中を防ぐことができ、逆
に、データ量の時間的な分散が可能になる。
According to the sixth aspect of the present invention, the order of reading the image data of the camera used for image synthesis is controlled in accordance with the specified data amount reduction mode. Concentration can be prevented, and conversely, the amount of data can be dispersed over time.

【0021】また、請求項7の発明では、前記請求項1
の監視システムにおける複数のカメラは、車両に設置さ
れ、当該車両の周囲を撮影するものとする。
[0021] In the invention of claim 7, the first aspect is provided.
The plurality of cameras in the monitoring system of (1) are installed in a vehicle and photograph the periphery of the vehicle.

【0022】[0022]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0023】(第1の実施形態)図1は本発明の第1の
実施形態に係る監視システムの構成を示すブロック図で
ある。図1に示す監視システムは、車両に搭載され、駐
車時等の運転操作の補助を用途とするものとして想定さ
れている。すなわち、このシステムは、車両に設置され
た複数のカメラからの画像を利用して、例えば、車両上
方に設置されたカメラで撮像されたかのような合成画像
を生成し、運転者に表示する。運転者は、表示された合
成画像を見ることによって、自分の車両と周囲の状況と
の関係を的確に把握することができるので、駐車操作等
を安全に行うことができる。
(First Embodiment) FIG. 1 is a block diagram showing a configuration of a monitoring system according to a first embodiment of the present invention. The monitoring system shown in FIG. 1 is mounted on a vehicle, and is assumed to be used for assisting a driving operation at the time of parking or the like. That is, the system generates a composite image as if it were captured by a camera installed above the vehicle, for example, by using images from a plurality of cameras installed in the vehicle, and displays it to the driver. The driver can accurately grasp the relationship between his vehicle and the surrounding situation by looking at the displayed composite image, and thus can safely perform a parking operation or the like.

【0024】図1において、カメラ部10はX台のカメ
ラ(カメラ1〜カメラX)110を有しており、各カメ
ラ110には、カメラ画像を圧縮するための圧縮部12
0および伝送アダプタ130が一体化されている。カメ
ラ部10から出力された各カメラ画像の画像データは、
カメラ部10と画像処理部20とをつなぐ伝送経路とし
ての伝送線15を介して、画像処理部20に入力され
る。画像処理部20は各カメラ画像の画像データに対し
て変形・統合等の処理を行い、合成画像を生成し、表示
装置30に表示する。
In FIG. 1, a camera unit 10 has X cameras (camera 1 to camera X) 110, and each camera 110 has a compression unit 12 for compressing a camera image.
0 and the transmission adapter 130 are integrated. Image data of each camera image output from the camera unit 10 is:
The image is input to the image processing unit 20 via a transmission line 15 as a transmission path connecting the camera unit 10 and the image processing unit 20. The image processing unit 20 performs processing such as deformation and integration on the image data of each camera image, generates a composite image, and displays the composite image on the display device 30.

【0025】図2は本実施形態に係るカメラ設置位置の
一例である。図2の例では、6台のカメラ1〜カメラ6
が車両の周囲に配置されている。また、図3は合成画像
の仮想視点の位置の一例である。画像処理部20は例え
ば、カメラ1〜カメラ6の撮像画像から図3に示すよう
な仮想視点から見た合成画像を生成する。
FIG. 2 shows an example of a camera installation position according to this embodiment. In the example of FIG. 2, six cameras 1 to 6
Are arranged around the vehicle. FIG. 3 is an example of the position of the virtual viewpoint of the composite image. The image processing unit 20 generates, for example, a composite image viewed from a virtual viewpoint as shown in FIG.

【0026】画像処理部20は、合成画像と各カメラ画
像との対応関係を記述したマッピングテーブル220
と、マッピングテーブル220を用いて合成画像の生成
を行う画像合成部210と、伝送アダプタ250を介し
て入力された,圧縮された画像データを復元する復元部
240と、復元した画像データを一時記憶するバッファ
メモリ230とを備えている。また、マッピングテーブ
ル220に記述された合成画像と各カメラ画像との対応
関係に従って、各カメラ画像の各領域について、合成画
像生成のために必要と想定される解像度をそれぞれ指定
する,削減態様指定手段としての解像度指定部260も
備えている。
The image processing section 20 has a mapping table 220 that describes the correspondence between the synthesized image and each camera image.
And an image synthesizing unit 210 that generates a synthesized image using the mapping table 220, a decompression unit 240 that decompresses the compressed image data input via the transmission adapter 250, and temporarily stores the decompressed image data. And a buffer memory 230 for performing the operation. A reduction mode designating unit for designating, for each region of each camera image, a resolution assumed to be necessary for generation of a composite image according to the correspondence between the composite image described in the mapping table 220 and each camera image; Also, a resolution designation unit 260 is provided.

【0027】図4はカメラ画像と合成画像との対応関係
の一例を示す図であり、図2のように設置された6台の
カメラ1〜カメラ6の撮像画像から、図3に示す仮想視
点1からみた合成画像を生成する場合を想定している。
図4(a)において、CA1〜CA6はそれぞれ、合成
画像上においてカメラ1〜カメラ6の撮像画像が占める
領域である。また、図4(b)において、CA1’〜C
A6’はそれぞれ、合成画像上の領域CA1〜CA6に
対応する、各カメラ画像上の領域である。
FIG. 4 is a diagram showing an example of the correspondence between the camera image and the synthesized image. The virtual viewpoint shown in FIG. 3 is obtained from the images taken by the six cameras 1 to 6 installed as shown in FIG. It is assumed that a composite image from the viewpoint of 1 is generated.
In FIG. 4A, CA1 to CA6 are areas occupied by images captured by the cameras 1 to 6 on the composite image, respectively. Further, in FIG.
A6 'is an area on each camera image corresponding to areas CA1 to CA6 on the composite image.

【0028】マッピングテーブル220には、図4
(a)に示すような合成画像と各カメラ画像との対応関
係がデータ化されている。すなわち、マッピングテーブ
ル220には、仮想視点からみた合成画像の全ての座標
について、対応するカメラ画像のデータが記述されてい
る。画像合成部210は、マッピングテーブル220の
データに従って、仮想視点からみた合成画像を生成す
る。
FIG. 4 shows the mapping table 220.
The correspondence between the composite image and each camera image as shown in FIG. That is, the mapping table 220 describes the data of the corresponding camera image for all coordinates of the composite image viewed from the virtual viewpoint. The image composition unit 210 generates a composite image viewed from a virtual viewpoint according to the data of the mapping table 220.

【0029】例えば、合成画像上の点P1については、
カメラ1,6の撮影領域CA1,CA6がオーバーラッ
プした領域OAにあるので、カメラ1の画像上の領域C
A1’内の点P1に対応する画素データとカメラ6の画
像上の領域CA6’内の点P1に対応する画素データと
を用いて、画素データを得る。また、合成画像上の点P
2については、カメラ1の撮影領域CA1にあるので、
カメラ1の画像上の領域CA1’内の点P2に対応する
画素データを用いて、画素データを得る。
For example, for the point P1 on the composite image,
Since the photographing areas CA1 and CA6 of the cameras 1 and 6 are in the overlapping area OA, the area C on the image of the camera 1
Pixel data is obtained using pixel data corresponding to the point P1 in A1 'and pixel data corresponding to the point P1 in the area CA6' on the image of the camera 6 on the camera 6. Also, a point P on the composite image
2 is in the photographing area CA1 of the camera 1,
Pixel data is obtained using the pixel data corresponding to the point P2 in the area CA1 'on the image of the camera 1.

【0030】また、解像度指定部260は、マッピング
テーブル220に記述された合成画像と各カメラ画像と
の対応関係に従って、各カメラ画像の各領域について、
画像合成に必要な解像度を求める。求めた解像度のデー
タは、伝送アダプタ250から伝送線15を介して、各
圧縮部120に伝送される。各圧縮部120は、伝送さ
れた解像度のデータに従って、各カメラ画像の画像デー
タを圧縮する。圧縮された画像データは、伝送アダプタ
130から伝送線15を介して画像処理部20に伝送さ
れ、復元部240によって復元されてバッファメモリ2
30に記憶される。
In addition, the resolution specifying section 260 determines, for each area of each camera image, each area according to the correspondence between the composite image described in the mapping table 220 and each camera image.
Find the resolution required for image composition. The data of the determined resolution is transmitted from the transmission adapter 250 to each compression unit 120 via the transmission line 15. Each compression unit 120 compresses image data of each camera image according to the transmitted resolution data. The compressed image data is transmitted from the transmission adapter 130 to the image processing unit 20 via the transmission line 15 and decompressed by the decompression unit 240 so that the buffer memory 2
30 is stored.

【0031】また、マッピングテーブル220は、図3
に示すような複数の仮想視点に対応したマッピングテー
ブルデータをそれぞれ記憶しており、外部から与えられ
る切替信号によって、画像合成に用いるマッピングテー
ブルデータが切替可能に構成されている。これにより、
画像処理部20は、複数種類の合成画像が生成可能であ
り、生成する合成画像の種類を切り替えることができ
る。切替信号は、例えば車両のギアの状態や走行速度等
に応じて与えられる。
The mapping table 220 is shown in FIG.
The mapping table data corresponding to a plurality of virtual viewpoints as shown in (1) is stored, and the mapping table data used for image synthesis can be switched by a switching signal given from the outside. This allows
The image processing unit 20 can generate a plurality of types of composite images, and can switch the type of the generated composite image. The switching signal is given according to, for example, the state of the gears of the vehicle, the traveling speed, and the like.

【0032】切替信号が入力されると、マッピングテー
ブル220が出力するマッピングテーブルデータが切り
替わり、これによって、生成される合成画像の種類が切
り替えられる。解像度指定部260は、切り替えられた
新たなマッピングテーブルデータに応じて、各カメラ画
像の各領域について、画像合成に必要な解像度を改めて
求める。求めた解像度のデータは、伝送線15を介して
各圧縮部120に伝送され、各圧縮部120は伝送され
た解像度データに応じて、圧縮処理の内容を切り替え
る。
When the switching signal is input, the mapping table data output from the mapping table 220 is switched, whereby the type of the generated composite image is switched. The resolution specifying unit 260 newly obtains a resolution required for image synthesis for each area of each camera image according to the new mapping table data that has been switched. The data of the determined resolution is transmitted to each compression unit 120 via the transmission line 15, and each compression unit 120 switches the content of the compression processing according to the transmitted resolution data.

【0033】<圧縮処理>ここでは、各圧縮部120
は、DCT変換を用いてカメラ画像データの圧縮を行う
ものとする。
<Compression Processing> Here, each compression unit 120
Performs compression of camera image data using DCT transformation.

【0034】まず、カメラ画像(480x720)を
(8x8)画素のブロックに分割する。この分割によっ
て、カメラ画像の座標(i,j)のデータは(i=1〜
480,j=1〜720)、S1(K,L,i’,
j’)と表すことができる。ここで、K,Lは各ブロッ
クを示す水平・垂直のアドレス番号であり、K=1〜6
0、L=1〜90である。また、i’=1〜8,j’=
1〜8である。
First, a camera image (480 × 720) is divided into blocks of (8 × 8) pixels. By this division, the data of the coordinates (i, j) of the camera image is (i = 1 to 1).
480, j = 1 to 720), S1 (K, L, i ',
j ′). Here, K and L are horizontal and vertical address numbers indicating each block, and K = 1 to 6
0, L = 1 to 90. Also, i ′ = 1 to 8, j ′ =
1 to 8.

【0035】そして、各画素データS1(K,L,
i’,j’)は、次式に示すDCT変換によって、各周
波数成分の信号g1(K,L,m,n)に変換される。
Then, each pixel data S1 (K, L,
i ′, j ′) is converted into a signal g1 (K, L, m, n) of each frequency component by the DCT transformation shown in the following equation.

【0036】[0036]

【数1】 (Equation 1)

【0037】上式において、mまたはnの値が大きい成
分は、それぞれ、ブロック内における水平方向または垂
直方向の高周波成分を表している。高周波成分のデータ
を削除することによって、低解像度のデータを容易に生
成することができ、カメラ画像を少ないデータ量で送る
ことができる。また、合成画像の種類によっては、水平
方向と垂直方向とで必要となる解像度が異なる場合があ
るが、この場合でも、データを削除するmまたはnの値
を個別に設定することによって、水平方向と垂直方向と
でそれぞれ独立に、必要となる解像度を制御することが
できる。
In the above equation, the component having a large value of m or n represents a high-frequency component in the horizontal or vertical direction in the block, respectively. By deleting high-frequency component data, low-resolution data can be easily generated, and a camera image can be transmitted with a small data amount. Depending on the type of the synthesized image, the required resolution may be different between the horizontal direction and the vertical direction. In this case, too, by setting the value of m or n for deleting data individually, The required resolution can be controlled independently in the vertical direction and the vertical direction.

【0038】図5は合成画像とカメラ1の画像との対応
関係を概念的に示す図である。同図中、(a)は合成画
像上におけるカメラ1のマップテーブルを、(b)はカ
メラ1の画像上における合成画像のマップテーブルを、
それぞれ示しており、点Aと点A’、点Bと点B’がそ
れぞれ対応している。図5(a)において、カメラ1の
マップテーブルの格子が密の部分(例えば点A)では、
カメラ1の画像データにさほど高い解像度は要求されな
いが、格子が粗の部分(例えば点B)では、高い解像度
の画像データが必要になる。すなわち図5(b)におい
て、合成画像のマップテーブルの格子が密の部分(例え
ば点Bに対応する点B’)では、高い解像度の画像デー
タが必要になるが、粗の部分(例えば点Aに対応する点
A’)では、低い解像度の画像データで済む。また、合
成画像のマップテーブルの格子が形成されていない部分
の画像データは、合成画像を生成するためには必要な
い。
FIG. 5 is a diagram conceptually showing the correspondence between the synthesized image and the image of the camera 1. In the figure, (a) shows a map table of the camera 1 on the composite image, (b) shows a map table of the composite image on the image of the camera 1,
The points A and A 'and the points B and B' correspond to each other. In FIG. 5A, in a portion where the grid of the map table of the camera 1 is dense (for example, point A),
Although not very high resolution is required for the image data of the camera 1, high resolution image data is required in a portion where the grid is coarse (for example, point B). That is, in FIG. 5B, high resolution image data is required in a portion where the grid of the map table of the composite image is dense (for example, point B ′ corresponding to point B), but a coarse portion (for example, point A). In the point A ′) corresponding to the above, image data of low resolution is sufficient. Further, the image data of the portion of the composite image map table where the grid is not formed is not necessary to generate the composite image.

【0039】すなわち、カメラ1の画像データは例えば
図6に示すように、3種類のブロックBL1,BL2,
BL3に分けられる。BL1は合成画像の生成に不必要
な部分のブロック、BL2は高い解像度の画像データが
必要となる部分のブロック、そしてBL3は低い解像度
の画像データですむ部分のブロックである。
That is, the image data of the camera 1 is divided into three types of blocks BL1, BL2, as shown in FIG.
BL3. BL1 is a block of a portion unnecessary for generating a composite image, BL2 is a block of a portion requiring high-resolution image data, and BL3 is a block of a portion requiring only low-resolution image data.

【0040】解像度指定部260はマッピングテーブル
220のデータから、各ブロックについて、必要となる
解像度のデータRxv(K,L),Rxh(K,L)を
算出する。ここで、xはカメラ番号(1≦x≦X)、添
字h,vは水平または垂直方向を示す。解像度データR
xv(K,L),Rxh(K,L)の算出方法につい
て、その一例を図7を用いて具体的に説明する。
The resolution specifying section 260 calculates required resolution data Rxv (K, L) and Rxh (K, L) for each block from the data in the mapping table 220. Here, x indicates a camera number (1 ≦ x ≦ X), and subscripts h and v indicate a horizontal or vertical direction. Resolution data R
An example of a method of calculating xv (K, L) and Rxh (K, L) will be specifically described with reference to FIG.

【0041】まず、マッピングテーブル220のデータ
から、各カメラ画像の各ブロックについて、合成画像の
座標のいずれかに対応する点があるか否かを判定する。
合成画像の座標に対応する点を含まないブロックすなわ
ちブロックBL1は、合成画像の生成には不必要である
ので、解像度データRxv(K,L),Rxh(K,
L)はそれぞれ“0”とする。
First, it is determined from the data in the mapping table 220 whether or not there is a point corresponding to any of the coordinates of the composite image for each block of each camera image.
A block that does not include a point corresponding to the coordinates of the composite image, that is, a block BL1 is unnecessary for generation of the composite image, and thus the resolution data Rxv (K, L) and Rxh (K,
L) is “0”.

【0042】合成画像の座標(i,j)(図7(a))
に対応する点(i’,j’)がブロック内に存在すると
き、さらに、合成画像上の3個の点(i+1,j),
(i+1,j+1),(i+1,j)に対応する点をそ
れぞれ求める。そして、この3点と点(i’,j’)と
で囲まれた領域IM1(図7(b))を定める。そし
て、図7(c)に示すような領域IM1の垂直・水平方
向の大きさLv,Lh(ただし整数とする)を用いて、
次式に従って、解像度データRxv(K,L),Rxh
(K,L)をそれぞれ算出する。ただし、余りは切り上
げる。 Rxv(K,L) = 8/Lv Rxh(K,L) = 8/Lh 解像度指定部260は、このようにして算出した解像度
データR1v(K,L),R1h(K,L)〜RXv
(K,L),RXh(K,L)を、伝送線15を介して
各カメラの圧縮部120に伝送する。
The coordinates (i, j) of the composite image (FIG. 7A)
Are present in the block when the point (i ′, j ′) corresponding to the three points (i + 1, j),
Points corresponding to (i + 1, j + 1) and (i + 1, j) are obtained. Then, an area IM1 (FIG. 7B) surrounded by these three points and the point (i ′, j ′) is determined. Then, using the vertical and horizontal sizes Lv and Lh (however, integers) of the area IM1 as shown in FIG.
The resolution data Rxv (K, L), Rxh
(K, L) are calculated respectively. However, the remainder is rounded up. Rxv (K, L) = 8 / Lv Rxh (K, L) = 8 / Lh The resolution specifying unit 260 calculates the resolution data R1v (K, L), R1h (K, L) to RXv
(K, L) and RXh (K, L) are transmitted to the compression unit 120 of each camera via the transmission line 15.

【0043】なお、厳密には、合成画像の座標(i,
j)の画素がカメラ画像上で占める領域は、領域IM1
ではなく、合成画像の座標(i−0.5,j−0.
5),(i−0.5,j+0.5),(i+0.5,j
−0.5),(i+0.5,j+0.5)にそれぞれ対
応する4個の点で囲まれた領域に相当する。ただし、こ
の領域と上述した領域IM1とはほぼ同一形状であり、
また、合成画像上の点(i,j),(i+1,j),
(i+1,j+1),(i+1,j)に対応する点はマ
ッピングテーブル220から容易に求めることができ
る。このため、ここでは、解像度データRxv(K,
L),Rxh(K,L)を領域IM1の大きさから算出
している。
Strictly speaking, the coordinates (i,
The area occupied by the pixel j) on the camera image is the area IM1
Instead of the coordinates (i-0.5, j-0.
5), (i−0.5, j + 0.5), (i + 0.5, j)
−0.5) and (i + 0.5, j + 0.5). However, this region and the above-described region IM1 have substantially the same shape,
Also, points (i, j), (i + 1, j),
Points corresponding to (i + 1, j + 1) and (i + 1, j) can be easily obtained from the mapping table 220. Therefore, here, the resolution data Rxv (K,
L) and Rxh (K, L) are calculated from the size of the area IM1.

【0044】各圧縮部120は、伝送された解像度デー
タRxv(K,L),Rxh(K,L)に従って、各カ
メラの各ブロックについて各周波数の信号gx(K,
L,m,n)のうち不必要な成分を削除し、必要な成分
のみを画像処理部20に伝送する。具体的には、mの値
がRxv(K,L)よりも大きい成分と、nの値がRx
h(K,L)よりも大きい成分とを削除する。このと
き、ブロックBL1については、解像度データRxv
(K,L),Rxh(K,L)はともに“0”であるの
で、全ての成分が削除される。
Each compression unit 120 outputs a signal gx (K, K, L) of each frequency for each block of each camera according to the transmitted resolution data Rxv (K, L), Rxh (K, L).
L, m, n), unnecessary components are deleted, and only necessary components are transmitted to the image processing unit 20. Specifically, a component in which the value of m is larger than Rxv (K, L),
The components larger than h (K, L) are deleted. At this time, for the block BL1, the resolution data Rxv
Since both (K, L) and Rxh (K, L) are “0”, all components are deleted.

【0045】図8は圧縮部120の内部構成の一例を示
す図である。図8では、カメラ1に対して設けられた圧
縮部120を示している。圧縮部120には3個の8ラ
インメモリ121a,121b,121cが設けられて
おり、計24(=8・3)ライン分の画像信号が記憶可
能になっている。
FIG. 8 is a diagram showing an example of the internal configuration of the compression section 120. FIG. 8 shows a compression unit 120 provided for the camera 1. The compression unit 120 is provided with three 8-line memories 121a, 121b, and 121c, and can store image signals for a total of 24 (= 8.3) lines.

【0046】解像度データR1v(K,L),R1h
(K,L)〜RXv(K,L),RXh(K,L)が伝
送線15を介して伝送されると、伝送アダプタ130
は、対応するカメラに関する解像度データ(この例では
カメラ1に対応する解像度データR1v(K,L),R
1h(K,L))を受け取り、解像度データメモリ12
4に記憶する。
Resolution data R1v (K, L), R1h
When (K, L) to RXv (K, L) and RXh (K, L) are transmitted through the transmission line 15, the transmission adapter 130
Are resolution data related to the corresponding camera (in this example, resolution data R1v (K, L), R
1h (K, L)) and receives the resolution data memory 12
4 is stored.

【0047】一方、カメラ110からは、画像信号がテ
レビジョン信号のように走査線に従って時系列で送られ
てくる。したがって、画面中のある座標(i,j)の信
号が入力される時間tは次式のように定まる。ただし、
Tpix は1画素当たりの時間、Bhは水平のブランキン
グ画素数である。 t=Tpix ・(i・(720+Bh)+j) カメラ110から送られた画像信号は、各8ラインメモ
リ121a,121b,121cに順次記憶される。こ
のとき、第iラインの画像信号はmod(i,24)番
目のラインに記憶される(mod(K,L)はKをLで
除したときの余りを表す。)。
On the other hand, from the camera 110, image signals are sent in time series according to scanning lines like television signals. Therefore, the time t during which a signal at a certain coordinate (i, j) on the screen is input is determined by the following equation. However,
Tpix is the time per pixel, and Bh is the number of horizontal blanking pixels. t = Tpix · (i · (720 + Bh) + j) The image signal sent from the camera 110 is sequentially stored in each of the eight-line memories 121a, 121b, and 121c. At this time, the image signal of the i-th line is stored in the mod (i, 24) -th line (mod (K, L) represents the remainder when K is divided by L).

【0048】第1の8ラインメモリ121aに第8ライ
ンまで画像信号が記憶されると、第9ライン以降の画像
信号は第2の8ラインメモリ121bに記憶され始め
る。その一方で、DSP122は第1の8ラインメモリ
121aから、(8x720)画素の画像信号を90個
の8x8画素ブロック信号S1(1,L,i’j’)
(L=1〜90,i’=1〜8,j’=1〜8)として
読み込み、各ブロックについて、上述のようにDCT変
換を行い、g1(1,L,m,n)を算出する。DSP
122はさらに、解像度データメモリ124に記憶され
たデータR1v(1,L),R1h(1,L)を用い、
g1(1,L,m,n)から、mがR1v(1,L)よ
りも大きい成分と、nがR1h(1,L)よりも大きい
成分とを削除する。
When the image signals up to the eighth line are stored in the first eight-line memory 121a, the image signals after the ninth line start to be stored in the second eight-line memory 121b. On the other hand, the DSP 122 converts the (8 × 720) pixel image signal from the first eight line memory 121a into 90 8 × 8 pixel block signals S1 (1, L, i′j ′).
(L = 1 to 90, i ′ = 1 to 8, j ′ = 1 to 8), perform DCT transformation on each block as described above, and calculate g1 (1, L, m, n). . DSP
122 further uses the data R1v (1, L) and R1h (1, L) stored in the resolution data memory 124,
From g1 (1, L, m, n), a component in which m is larger than R1 v (1, L) and a component in which n is larger than R1 h (1, L) are deleted.

【0049】したがって、第1の8ラインメモリ121
aに記憶された画像信号S1(i,j)(i=1〜8,
j=1〜720)は、この時点で、次のようなブロック
毎にデータ数の異なるデータ列になる。 g1(K=1,L=1〜90) (L=1) :d1,d2,…,dmn (L=2) :d1,d2,…,dmn’ ・ ・ ・ (L=90):d1,d2,…,dmn” (mn =R1v(1,1)・R1h(1,1) mn’=R1v(1,2)・R1h(1,2) mn”=R1v(1,90)・R1h(1,90)) すなわち、第1の8ラインメモリ121aに記憶された
画像信号は、各ブロックについて(R1v(1,L)・
R1h(1,L))個のデータをそれぞれ有するデータ
列に変換される。このデータ列は、DCTデータバッフ
ァメモリ123に一旦記憶され、伝送アダプタ130は
DCTデータバッファメモリ123に記憶されたデータ
列を、伝送線15を介して画像処理部20に伝送する。
Therefore, the first 8-line memory 121
a stored in the image signal S1 (i, j) (i = 1 to 8,
(j = 1 to 720) at this point are the following data strings having different numbers of data for each block. g1 (K = 1, L = 1 to 90) (L = 1): d1, d2,..., dmn (L = 2): d1, d2,..., dmn '(L = 90): d1, d2..., dmn ″ (mn = R1v (1,1) · R1h (1,1) mn ′ = R1v (1, 2) · R1h (1, 2) mn ″ = R1v (1, 90) · R1h ( 1, 90)) That is, the image signal stored in the first eight-line memory 121a is (R1v (1, L) ·
It is converted into a data string having R1h (1, L) data. This data sequence is temporarily stored in the DCT data buffer memory 123, and the transmission adapter 130 transmits the data sequence stored in the DCT data buffer memory 123 to the image processing unit 20 via the transmission line 15.

【0050】復元部240は、伝送されたデータ列を逆
DCT変換して画像信号S1’(1,L,i’,j’)
を復元し、バッファメモリ230に記憶する。復元され
た信号S1’(1,L,i’,j’)は、DCT変換時
に高周波成分が削除されているので、元の信号S1
(1,L,i’,j’)にLPF処理がなされた信号に
相当する。
The restoration unit 240 performs an inverse DCT transform on the transmitted data sequence and performs image signal S1 '(1, L, i', j ').
Is restored and stored in the buffer memory 230. The restored signal S1 ′ (1, L, i ′, j ′) has the high-frequency component removed during the DCT transform, so that the original signal S1 ′ (1, L, i ′, j ′) has been deleted.
(1, L, i ', j') corresponds to a signal that has been subjected to LPF processing.

【0051】次に、第2の8ラインメモリ121bに第
16ラインまで画像信号が記憶されると、第17ライン
以降の画像信号は第3の8ラインメモリ121cに記憶
され始める。その一方で、DSP122は第2の8ライ
ンメモリ121bから、(8x720)画素の画像信号
を90個の8x8画素ブロック信号S1(2,L,i’
j’)(L=1〜90,i’=1〜8,j’=1〜8)
として読み込み、各ブロックについて、上述のようにD
CT変換を行い、g1(2,L,m,n)を算出する。
DSP122はさらに、解像度データメモリ124に記
憶されたデータR1v(2,L),R1h(2,L)を
用い、g1(2,L,m,n)から、mがR1v(2,
L)よりも大きい成分と、nがR1h(2,L)よりも
大きい成分とを削除する。
Next, when the image signals up to the 16th line are stored in the second 8-line memory 121b, the image signals after the 17th line are started to be stored in the third 8-line memory 121c. On the other hand, the DSP 122 converts the (8 × 720) pixel image signal from the second 8-line memory 121b into 90 8 × 8 pixel block signals S1 (2, L, i ′).
j ′) (L = 1 to 90, i ′ = 1 to 8, j ′ = 1 to 8)
, And for each block, as described above, D
The CT conversion is performed to calculate g1 (2, L, m, n).
The DSP 122 further uses the data R1v (2, L), R1h (2, L) stored in the resolution data memory 124, and obtains g from R1v (2, L, m, n).
The component larger than L) and the component where n is larger than R1h (2, L) are deleted.

【0052】したがって、第2の8ラインメモリ121
bに記憶された画像信号は、この時点で、次のようなブ
ロック毎にデータ数の異なるデータ列になる。 g1(K=2,L=1〜90) (L=1) :d1,d2,…,dmn (L=2) :d1,d2,…,dmn’ ・ ・ ・ (L=90):d1,d2,…,dmn” (mn =R1v(2,1)・R1h(2,1) mn’=R1v(2,2)・R1h(2,2) mn”=R1v(2,90)・R1h(2,90)) すなわち、第2の8ラインメモリ121bに記憶された
画像信号は、各ブロックについて(R1v(2,L)・
R1h(2,L))個のデータをそれぞれ有するデータ
列に変換される。このデータ列は、上述したのと同様に
伝送線15を介して画像処理部20に伝送され、復元部
240によって画像信号S1’(2,L,i’,j’)
に復元される。
Therefore, the second 8-line memory 121
At this point, the image signal stored in b becomes a data string having a different number of data for each of the following blocks. g1 (K = 2, L = 1 to 90) (L = 1): d1, d2, ..., dmn (L = 2): d1, d2, ..., dmn '(L = 90): d1, d2 ", mn" = R1v (2,1) .R1h (2,1) mn '= R1v (2,2) R1h (2,2) mn "= R1v (2, 90) .R1h ( 2, 90)) That is, the image signal stored in the second 8-line memory 121b is (R1v (2, L) ·
It is converted into a data string having R1h (2, L)) data. This data string is transmitted to the image processing unit 20 via the transmission line 15 in the same manner as described above, and the image signal S1 ′ (2, L, i ′, j ′) is restored by the restoration unit 240.
Is restored.

【0053】同様の動作がK=60まで繰り返され、こ
れにより1画面分の画像信号S1’(K,L,i’,
j’)が復元され、バッファメモリ230に記憶され
る。
The same operation is repeated until K = 60, whereby the image signal S1 '(K, L, i',
j ′) is restored and stored in the buffer memory 230.

【0054】また、他のカメラ110の圧縮部120か
らも同様に、圧縮された画像データが復元部240に伝
送され、画像信号Sx’(K,L,i’,j’)(x=
2〜X)が復元され、バッファメモリ230に記憶され
る。バッファメモリ230に記憶された各カメラ画像デ
ータから、従来と同様に、合成画像が生成される。
Similarly, the compressed image data is transmitted from the compression unit 120 of the other camera 110 to the decompression unit 240, and the image signal Sx ′ (K, L, i ′, j ′) (x =
2 to X) are restored and stored in the buffer memory 230. From each camera image data stored in the buffer memory 230, a composite image is generated as in the conventional case.

【0055】以上のように本実施形態によると、マッピ
ングテーブル220に記述された合成画像と各カメラ画
像との対応関係に従って、各カメラの画像信号のうち必
要な解像度のデータのみを圧縮して伝送するので、伝送
線15の伝送容量は、従来よりも少なくてすむ。このた
め、より安定して伝送できる装置が実現でき、かつ、よ
り安価な伝送線を用いることも可能になる。
As described above, according to the present embodiment, only the data of the required resolution in the image signal of each camera is compressed and transmitted according to the correspondence between the composite image described in the mapping table 220 and each camera image. Therefore, the transmission capacity of the transmission line 15 can be smaller than in the related art. For this reason, a device capable of more stable transmission can be realized, and a cheaper transmission line can be used.

【0056】すなわち、図2に示すように、伝送線15
を1本に統合することが容易になり、伝送線15の車両
への設置や保守が大幅に簡素化できる。あるいは、図9
に示すように、カメラ設置位置によっては、伝送線15
を2本に分けるなどフレキシブルな対応が可能になり、
車両への設置や保守がさらに簡素化できる。
That is, as shown in FIG.
Can be easily integrated into one, and the installation and maintenance of the transmission line 15 in the vehicle can be greatly simplified. Alternatively, FIG.
As shown in FIG.
Can be flexibly handled, for example, by dividing
Installation and maintenance on the vehicle can be further simplified.

【0057】なお、伝送線15の代わりに、伝送経路を
無線によって構成してもかまわない。この場合でも、本
実施形態によって得られる,伝送容量が少なくてすむと
いう効果は大きく、より安価な部品による伝送経路の実
現が可能になる。また、有線に比べて、車両への設置や
保守の作業がさらに大幅に削減できる。
Note that, instead of the transmission line 15, a transmission path may be configured wirelessly. Even in this case, the effect of requiring a small transmission capacity, which is obtained by the present embodiment, is great, and it is possible to realize a transmission path using less expensive components. In addition, installation and maintenance work on the vehicle can be further significantly reduced as compared with the case of wired communication.

【0058】また、図6(b)のブロックBL1に示す
ような合成画像の生成に不必要な部分については、必要
となる解像度のデータRxv(K,L),Rxh(K,
L)は(0,0)であるので、この部分のブロックのデ
ータ数は0となる。したがって、伝送線15を介して伝
送するデータ量を大幅に削減することができる。
For portions unnecessary for generating a composite image as shown in a block BL1 in FIG. 6B, data Rxv (K, L) and Rxh (K,
Since L) is (0,0), the number of data in the block in this portion is zero. Therefore, the amount of data transmitted via the transmission line 15 can be significantly reduced.

【0059】また、画像処理部20では、各カメラ画像
のうち必要な解像度のデータのみがバッファメモリ23
0に格納されるので、従来よりも、メモリ容量を大幅に
削減することができる。
In the image processing section 20, only the data of the required resolution among the camera images is stored in the buffer memory 23.
Since it is stored in 0, the memory capacity can be significantly reduced as compared with the related art.

【0060】また、圧縮部120において、各8ライン
メモリ121a,121b,121cにカメラ画像信号
が記憶された直後から、DCT変換と伝送が行われるの
で、圧縮伝送に伴う信号遅延は、最小限度に抑えること
ができる。
In the compression unit 120, DCT conversion and transmission are performed immediately after the camera image signal is stored in each of the eight line memories 121a, 121b, and 121c, so that the signal delay due to compression transmission is minimized. Can be suppressed.

【0061】また、画像処理部20が生成する合成画像
の種類に応じて、各カメラ画像の圧縮動作を切り替える
ことも可能である。この場合、画像合成に用いるマッピ
ングテーブルが切り替えられる毎に、解像度指定部26
0が、解像度データRxv(K,L),Rxh(K,
L)を算出し、このデータを伝送線15を介して各カメ
ラの圧縮部120に伝送するように構成すればよい。
The compression operation of each camera image can be switched according to the type of the composite image generated by the image processing section 20. In this case, each time the mapping table used for image synthesis is switched, the resolution specifying unit 26
0 is the resolution data Rxv (K, L), Rxh (K,
L) may be calculated, and this data may be transmitted to the compression unit 120 of each camera via the transmission line 15.

【0062】あるいは、各マッピングテーブルに対応し
た解像度データを、解像度指定部260に予めROMな
どによって保持させておいてもよい。この場合には、切
替信号を解像度指定部260にも入力させ、マッピング
テーブルの切替とともに、解像度データの切替を解像度
指定部260に実行させればよい。これにより、マッピ
ングテーブルの切替のたびに解像度データを算出する処
理が不要になる。
Alternatively, resolution data corresponding to each mapping table may be stored in advance in the resolution specifying section 260 by a ROM or the like. In this case, the switching signal may be input to the resolution specifying unit 260, and the resolution data may be switched by the resolution specifying unit 260 together with the switching of the mapping table. This eliminates the need to calculate the resolution data each time the mapping table is switched.

【0063】さらに、圧縮部120にメモリを設けて、
このメモリに、各マッピングテーブルに対応した解像度
データを予め記憶させておいてもよい。この場合には、
画像処理部20は、マッピングテーブルの切替の毎に、
そのマッピングテーブルを表すIDのみを各圧縮部12
0に伝送するだけですむ。あるいは、マッピングテーブ
ルを表すIDを画像処理部20から伝送する代わりに、
切替信号をカメラ部10の各圧縮部120にも入力させ
て、マッピングテーブルの切替とともに、解像度データ
の切替を各圧縮部120に実行させればよい。
Further, a memory is provided in the compression unit 120,
In this memory, resolution data corresponding to each mapping table may be stored in advance. In this case,
The image processing unit 20 switches the mapping table
Only the ID representing the mapping table is assigned to each compression unit 12
It only needs to be transmitted to 0. Alternatively, instead of transmitting the ID representing the mapping table from the image processing unit 20,
The switching signal may also be input to each of the compression units 120 of the camera unit 10 so that each of the compression units 120 executes the switching of the resolution data together with the switching of the mapping table.

【0064】なお、本実施形態では、画像データの圧縮
のためにDCT変換を用いるものとしたが、JPEGの
ように、DCT変換後のデータにさらに量子化を行って
もよい。また、DCT変換以外でも、ウェーブレット変
換やフーリエ変換等によって同様な効果を得ることがで
きる。
In this embodiment, the DCT is used to compress the image data. However, the data after the DCT may be further quantized like JPEG. In addition to the DCT transform, a similar effect can be obtained by a wavelet transform, a Fourier transform, or the like.

【0065】<折り返し歪み解消の効果>また、本実施
形態によると、折り返し歪みに起因する合成画像の画質
劣化を容易に回避することができる。
<Effect of Eliminating Aliasing Distortion> Further, according to the present embodiment, it is possible to easily avoid the deterioration of the image quality of the synthesized image due to the aliasing distortion.

【0066】例えば図7において、合成画像の座標
(i,j)に対応するカメラ画像上の領域IM1は、カ
メラ画像の1画素よりもサイズが大きく、複数個の画素
を含んでいる。光学的に正確な合成画像を得るために
は、領域IM1に含まれる複数画素のデータの加重平均
値を、座標(i,j)に対応する画素データとして得な
ければならない。すなわち、次式のように、合成画像の
画素データS(i,j)を求める必要がある。 S(i,j)=Σγp ・(S1(ip ,jp )) ただし、S1(ip ,jp )はカメラの画素データ、p
はカメラ画素の番号、γ p は領域IM1に含まれる割合
を加味した係数である。ところがこの場合、合成画像の
1画素の信号を得るために、複数画素の信号をバッファ
メモリ230から読み出して計算を行う必要がある。こ
れは、画像合成部210で必要となる計算処理が膨大に
なり、実用的ではない。
For example, referring to FIG.
The area IM1 on the camera image corresponding to (i, j) is
Multiple pixels larger than one pixel of the camera image
Includes To obtain an optically accurate composite image
Is a weighted average of data of a plurality of pixels included in the area IM1.
Value as pixel data corresponding to coordinates (i, j).
I have to. That is, as shown in the following equation,
It is necessary to determine the pixel data S (i, j). S (i, j) = Σγp・ (S1 (ip, Jp)) Where S1 (ip, Jp) Is camera pixel data, p
Is the camera pixel number, γ pIs the ratio included in the area IM1
Is a factor in which However, in this case,
Buffer the signals of multiple pixels to obtain a signal of one pixel
It is necessary to read from the memory 230 and perform the calculation. This
This is because the amount of calculation processing required by the image
Is not practical.

【0067】そこで、上記の計算を近似的に省略したも
のとして、従来からニアレスト法が用いられている。ニ
アレスト法とは、座標(i,j)に対応する領域IM1
の中心に最も近い1個の画素の信号のみを用いるもので
ある。
Therefore, the nearest method has been conventionally used as an approximate omission of the above calculation. The nearest method is an area IM1 corresponding to the coordinates (i, j).
Is used only the signal of one pixel closest to the center of.

【0068】ところが、ニアレスト法を用いた場合に
は、高いサンプリング周波数の信号を、高周波成分をカ
ットせずに、低いサンプリング周波数でサブサンプリン
グした場合に特有の折り返し歪みが発生する。すなわ
ち、高解像度の画像信号をそのまま用いて、ニアレスト
法による簡単な画像合成を行った場合には、解像度が低
くてよい部分に周波数的に折り返し歪みが生じ、合成画
像の画質が劣化するおそれがある。
However, when the nearest method is used, a unique aliasing distortion occurs when a signal having a high sampling frequency is sub-sampled at a low sampling frequency without cutting off high-frequency components. That is, when a simple image synthesis is performed by the nearest method using the high-resolution image signal as it is, there is a possibility that aliasing distortion occurs in a portion where a low resolution is required and the image quality of the synthesized image is deteriorated. is there.

【0069】このような折り返し歪みを防ぐために、例
えば図10に示すように、各カメラの画像信号に対し予
めローパスフィルタ(LPF)51による処理を行い、
不要な高周波成分をカットするという方法が考えられ
る。
In order to prevent such aliasing distortion, for example, as shown in FIG. 10, an image signal of each camera is subjected to processing by a low-pass filter (LPF) 51 in advance.
A method of cutting unnecessary high-frequency components can be considered.

【0070】ただしこの場合、カメラ画像において必要
となる解像度は部分毎に異なるので、LPFとして、そ
の周波数特性が画像の部分毎に適応的に設定可能に構成
されたものが必要になる。このため、回路構成が相当に
複雑になるという問題がある。また、周波数特性が均一
のLPFを用いる場合には、回路構成は簡易になるもの
の、高い解像度を必要とする部分についても高周波成分
がカットされてしまうので、合成画像において十分に必
要な解像度が得られない。
In this case, however, since the resolution required in the camera image differs for each part, it is necessary to use an LPF whose frequency characteristic can be set adaptively for each part of the image. Therefore, there is a problem that the circuit configuration becomes considerably complicated. When an LPF having a uniform frequency characteristic is used, the circuit configuration is simplified, but high-frequency components are cut off even in a portion requiring a high resolution. I can't.

【0071】これに対して本実施形態によると、圧縮部
120によって、折り返し歪みが発生しやすい低解像度
の画像部分については、領域IM1の大きさに対応した
特性ですでに高周波成分が除去されているので、折り返
し歪みが発生しにくくなる。すなわち、復元部240に
よって復元されたカメラ画像信号は、元の信号に対し
て、必要な解像度に応じて適応的にLPF処理を施した
ものに相当する。したがって、複雑な構成のLPFを設
けなくても、折り返し歪みの発生を抑制することがで
き、この結果、合成画像の画質を大幅に改善することが
できる。
On the other hand, according to the present embodiment, for the low-resolution image portion where aliasing distortion is likely to occur, the high-frequency component is already removed by the compression section 120 with characteristics corresponding to the size of the region IM1. Therefore, aliasing distortion is less likely to occur. That is, the camera image signal restored by the restoration unit 240 corresponds to a signal obtained by adaptively performing LPF processing on the original signal in accordance with a required resolution. Therefore, the occurrence of aliasing distortion can be suppressed without providing an LPF having a complicated configuration, and as a result, the image quality of a composite image can be significantly improved.

【0072】ここではニアレスト法を用いた実施例を述
べたが、これ以外の方法でも適用できる。例えば、バイ
リニア法(座標(i,j)に対応する領域IM1の中心
を囲む4点の画素の信号を用い、線形補間する方法)に
も明らかに適用できる。
Although the embodiment using the nearest method has been described, other methods can be applied. For example, it is obviously applicable to a bilinear method (a method of performing linear interpolation using signals of four pixels surrounding the center of the area IM1 corresponding to the coordinates (i, j)).

【0073】<圧縮処理の他の例>また上述の説明で
は、解像度指定部260は解像度データRxv(K,
L),Rxh(K,L)を図7に示す領域IM1の水平
・垂直方向の大きさLh,Lvから算出するものとした
が、これらを他の方法によって求めてもかまわない。
<Another Example of Compression Processing> In the above description, the resolution specifying section 260 outputs the resolution data Rxv (K,
Although L) and Rxh (K, L) are calculated from the horizontal and vertical sizes Lh and Lv of the area IM1 shown in FIG. 7, they may be calculated by other methods.

【0074】図11(a)は図7(b)と同様に、合成
画像の1画素がカメラ画像上で占める領域IM1を示し
ている。ここでは図11(b)に示すように、(8x
8)ブロックの中心に領域IM1をおき、各画素につい
て、領域IM1に含まれる割合を加味した係数γp を求
める。この係数γp は、光学的に正確な合成画像を得る
ために、カメラ画像の複数画素の加重平均値を用いる場
合に、各画素の重み付けのために用いられる係数に相当
する。
FIG. 11A shows an area IM1 occupied by one pixel of the composite image on the camera image, similarly to FIG. 7B. Here, as shown in FIG.
8) The area IM1 is placed at the center of the block, and for each pixel, a coefficient γ p considering the ratio included in the area IM1 is obtained. The coefficient γ p corresponds to a coefficient used for weighting each pixel when a weighted average value of a plurality of pixels of the camera image is used to obtain an optically accurate composite image.

【0075】係数r(i’,j’)を、領域IM1の中
心を(i’,j’)=(1,1)として、8x8ブロッ
クの係数に展開する。そして、画像信号と同様にDCT
変換し、変換係数h(K,L,m,n)を得る。この変
換係数h(K,L,m,n)は、係数γp が示すLPF
特性をDCT変換係数で示したものとなり、高域成分が
小さくなる。
The coefficients r (i ′, j ′) are developed into 8 × 8 block coefficients with the center of the area IM1 being (i ′, j ′) = (1, 1). And, like the image signal, the DCT
The conversion is performed to obtain a conversion coefficient h (K, L, m, n). The conversion coefficient h (K, L, m, n) is calculated by the LPF indicated by the coefficient γ p
The characteristic is represented by a DCT transform coefficient, and the high frequency component is reduced.

【0076】そこで、変換係数h(k,L,m,n)が
所定の閾値以上の値を持つm、nの上限を、解像度デー
タRxv(K,L),Rxh(K,L)の値として定め
るものとする。解像度指定部260は解像度データRx
v(K,L),Rxh(K,L)を伝送するとともに、
所定の閾値以上の値を持つ変換係数h(K,L,m,
n)もこれに併せて圧縮部120に伝送する。
Therefore, the upper limits of m and n whose conversion coefficients h (k, L, m, n) are equal to or greater than a predetermined threshold value are defined as the values of the resolution data Rxv (K, L) and Rxh (K, L). Shall be defined as The resolution specifying unit 260 outputs the resolution data Rx
v (K, L) and Rxh (K, L)
A conversion coefficient h (K, L, m,
n) is also transmitted to the compression unit 120 at the same time.

【0077】圧縮部120は、画像信号のDCT変換デ
ータgx(K,L,m,n)について、解像度データR
xv(K,L),Rxh(K,L)を用いて高周波成分
を削除する。そして、残ったDCT変換データgx
(K,L,m,n)に変換係数hx(K,L,m,n)
を乗じて、復元部240に送る。
The compression section 120 converts the DCT data gx (K, L, m, n) of the image signal into resolution data Rx
High frequency components are deleted using xv (K, L) and Rxh (K, L). Then, the remaining DCT transformed data gx
(K, L, m, n) is converted to a conversion coefficient hx (K, L, m, n)
And sends the result to the restoration unit 240.

【0078】この方法の場合、復元部240が逆DCT
処理によって復元した信号は、近似的に、元の信号に対
して係数γp を用いてLPF処理を施したものが得られ
る。したがって、上述した実施形態に比べて、光学的に
より正確な合成画像を得ることができる。
In the case of this method, the restoration unit 240 performs the inverse DCT
The signal restored by the processing is obtained by approximately performing LPF processing on the original signal using the coefficient γ p . Therefore, an optically more accurate composite image can be obtained as compared with the above-described embodiment.

【0079】なお、領域IM1を用いないで、解像度デ
ータRxv(K,L),Rxh(K,L)を定めること
も可能である。例えば、画像合成に用いない部分のブロ
ックについては解像度データRxv(K,L),Rxh
(K,L)を“0”とし、画像合成に用いる部分のブロ
ックについては、解像度データRxv(K,L),Rx
h(K,L)を“0”以外の均一の値に設定してもよ
い。
The resolution data Rxv (K, L) and Rxh (K, L) can be determined without using the area IM1. For example, the resolution data Rxv (K, L), Rxh
(K, L) is set to “0”, and the resolution data Rxv (K, L), Rxv
h (K, L) may be set to a uniform value other than “0”.

【0080】(第2の実施形態)図12は本発明の第2
の実施形態に係る監視システムの構成を示すブロック図
である。図12に示す監視システムは、基本的には、図
1に示す第1の実施形態に係る構成と同様である。図1
と共通の構成要素には、図1と同一の符号を付してお
り、ここではその詳細な説明を省略する。
(Second Embodiment) FIG. 12 shows a second embodiment of the present invention.
It is a block diagram showing the composition of the monitoring system concerning an embodiment. The monitoring system shown in FIG. 12 is basically the same as the configuration according to the first embodiment shown in FIG. FIG.
The same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof will be omitted.

【0081】図12において、図1の構成と異なるの
は、画像処理部20Aが、各カメラ110Aの読み出し
制御信号を解像度指定部260の出力に応じて生成する
読出制御部270と、各カメラ110Aの同期信号を生
成する同期信号生成部280とを備えた点である。読出
制御部270および同期信号生成部280から出力され
た読み出し制御信号と同期信号は、伝送アダプタ250
から伝送線15を介してカメラ部10Aに伝送される。
伝送された読み出し制御信号および同期信号は、伝送ア
ダプタ130を介して圧縮部120Aとカメラ110A
に送られる。
12 differs from FIG. 1 in that the image processing unit 20A generates a read control signal for each camera 110A in accordance with the output of the resolution designation unit 260, and the read control unit 270 and each camera 110A And a synchronization signal generation unit 280 for generating the synchronization signal. The read control signal and the synchronization signal output from the read control unit 270 and the synchronization signal generation unit 280 are transmitted to the transmission adapter 250.
Is transmitted to the camera unit 10A via the transmission line 15.
The transmitted read control signal and synchronization signal are transmitted to the compression unit 120A and the camera 110A via the transmission adapter 130.
Sent to

【0082】各カメラ110Aは、伝送された同期信号
に従って同一のタイミングでフレーム画像を撮影する。
ここでは、各カメラ110Aは、(720x480)画
素の画像データを1/60秒毎に撮影するものとする。
Each camera 110A captures a frame image at the same timing in accordance with the transmitted synchronization signal.
Here, it is assumed that each camera 110A captures image data of (720 × 480) pixels every 1/60 second.

【0083】図13はカメラ110Aおよび圧縮部12
0Aの内部構成の一例を示す図である。図13に示すよ
うに、カメラ110Aは主に、撮像素子(ここではCC
D)111、光学系レンズ112、読出・同期制御部1
13、および撮像素子111の出力をAD変換した後に
色分離などの信号処理を行うAD変換処理部114によ
って構成される。
FIG. 13 shows the camera 110A and the compression unit 12
It is a figure showing an example of an internal configuration of 0A. As shown in FIG. 13, the camera 110A mainly includes an image sensor (here, CC
D) 111, optical system lens 112, readout / synchronization control unit 1
13 and an AD conversion processing unit 114 that performs signal processing such as color separation after AD-converting the output of the image sensor 111.

【0084】撮像素子111は、1画面分の撮像面と1
画面分の蓄積系を有している。まず、光学系レンズ11
2を通して撮像面に光強度信号が得られ、各画素のフォ
トトランジスタがこの光強度信号を電荷信号に変換す
る。変換された電荷信号は、1フレーム期間(ここでは
1/60秒)蓄積された後、画像信号として蓄積系に伝
送される。
The image pickup device 111 includes an image pickup surface for one screen and one image pickup surface.
It has a storage system for the screen. First, the optical system lens 11
2, a light intensity signal is obtained on the imaging surface, and the phototransistor of each pixel converts the light intensity signal into a charge signal. After the converted charge signal is stored for one frame period (here, 1/60 second), it is transmitted to the storage system as an image signal.

【0085】通常のCCDでは、蓄積系に蓄積された画
像信号は、画面の左上端から走査線に従って読み出され
る。その間、撮像面では、新たな光強度信号が電荷信号
に変換され、次フレームの画像信号として蓄積されてい
る。ただし、本実施形態ではこれとは異なり、撮像素子
111は、画像信号が、画面の左上端からでも左下端か
らでも読み出し可能なように構成されているものとす
る。そして、いずれの順序で画像信号を読み出すかは、
読出・同期制御部113によって制御されるものとす
る。
In a normal CCD, the image signal stored in the storage system is read from the upper left end of the screen according to the scanning lines. Meanwhile, on the imaging surface, a new light intensity signal is converted into a charge signal and stored as an image signal of the next frame. However, in the present embodiment, unlike this, the image sensor 111 is configured to be able to read the image signal from the upper left end or the lower left end of the screen. In which order the image signals are read out,
It is assumed that it is controlled by the read / synchronization control unit 113.

【0086】本実施形態では、画像処理部20Aが、合
成画像と各カメラ画像との対応関係に従って、各カメラ
110Aの画像データの読み出し順序を制御する。
In this embodiment, the image processing unit 20A controls the reading order of the image data of each camera 110A according to the correspondence between the synthesized image and each camera image.

【0087】図14は各カメラ110Aからの画像信号
の読み出し順序の一例を示す図である。図14におい
て、各カメラ画像の領域CA1’〜CA6’は図4
(b)で示したものと同一であり、合成画像の生成のた
めに必要な領域である。図14から分かるように、各カ
メラ画像とも、画像合成に必要な領域は画面の下部を占
めており、画面の上部は画像合成に必要な領域から外れ
ている。
FIG. 14 is a diagram showing an example of the reading order of image signals from each camera 110A. In FIG. 14, areas CA1 ′ to CA6 ′ of each camera image are shown in FIG.
This is the same as that shown in (b), and is an area necessary for generating a composite image. As can be seen from FIG. 14, in each camera image, the area required for image composition occupies the lower part of the screen, and the upper part of the screen is out of the area required for image composition.

【0088】ここでは、読出制御部270は、図14に
おいて矢印で示すように、カメラ1,3,5については
画面左上端から画像信号が読み出され、カメラ2,4,
6については画面左下端から画像信号が読み出されるよ
うに、読み出し制御信号を生成するものとする。各カメ
ラ110Aの読出・同期制御部113は、伝送された読
み出し制御信号に従って撮像素子111を制御する。撮
像素子111の出力はAD変換処理部114によってA
D変換された後、色分離などの信号処理を施され、画像
信号として圧縮部120Aの8ラインメモリ121に順
次送られる。
Here, the read control unit 270 reads the image signals from the cameras 1, 3 and 5 from the upper left corner of the screen as indicated by the arrows in FIG.
For No. 6, a read control signal is generated so that an image signal is read from the lower left end of the screen. The read / synchronization control unit 113 of each camera 110A controls the image sensor 111 according to the transmitted read control signal. The output of the image sensor 111 is output to the A
After the D conversion, the signal is subjected to signal processing such as color separation, and is sequentially sent to the 8-line memory 121 of the compression unit 120A as an image signal.

【0089】カメラ1,3,5については、第1の実施
形態と同様に、画面中のある座標(i,j)の信号は、
次式の時刻tに送られる。 t=Tpix ・(i・(720+Bh)+j) 一方、カメラ2,4,6については、画面中左下から走
査されるので、第1の実施形態とは異なり、画面中のあ
る座標(i,j)の信号は、次式の時刻tに送られる。 t=Tpix ・((480−i)・(720+Bh)+
j) ただし、Tpix は1画素当たりの時間、Bhは水平のブ
ランキング画素数である。
For cameras 1, 3, and 5, as in the first embodiment, the signal at a certain coordinate (i, j) on the screen is
It is sent at time t in the following equation. t = Tpix · (i · (720 + Bh) + j) On the other hand, since the cameras 2, 4, and 6 are scanned from the lower left in the screen, certain coordinates (i, j) in the screen are different from the first embodiment. ) Is sent at time t in the following equation. t = Tpix · ((480-i) · (720 + Bh) +
j) where Tpix is the time per pixel and Bh is the number of horizontal blanking pixels.

【0090】したがって、カメラ1については、最初の
画像信号は、第1の実施形態と同様に、次のようなブロ
ック毎にデータ数の異なるデータ列に変換され伝送され
るのに対し、 g1(K=1,L=1〜90) (L=1) :d1,d2,…,dmn (L=2) :d1,d2,…,dmn’ ・ ・ ・ (L=90):d1,d2,…,dmn” (mn =R1v(1,1)・R1h(1,1) mn’=R1v(1,2)・R1h(1,2) mn”=R1v(1,90)・R1h(1,90)) カメラ2については、最初の画像信号は、次のようなブ
ロック毎にデータ数の異なるデータ列に変換され伝送さ
れる。 g2(K=60,L=1〜90) (L=1) :d1,d2,…,dmn (L=2) :d1,d2,…,dmn’ ・ ・ ・ (L=90):d1,d2,…,dmn” (mn =R2v(60,1)・R2h(60,1) mn’=R2v(60,2)・R2h(60,2) mn”=R2v(60,90)・R2h(60,90))
Therefore, as for the camera 1, the first image signal is converted into a data string having a different number of data for each block as described below and transmitted, as in the first embodiment, whereas g1 ( K = 1, L = 1 to 90) (L = 1): d1, d2,..., Dmn (L = 2): d1, d2,..., Dmn '(L = 90): d1, d2 , Dmn "(mn = R1v (1,1) .R1h (1,1) mn '= R1v (1,2) R1h (1,2) mn" = R1v (1,90) .R1h (1, 90)) With respect to the camera 2, the first image signal is converted into a data string having a different number of data for each block and transmitted as follows. g2 (K = 60, L = 1 to 90) (L = 1): d1, d2, ..., dmn (L = 2): d1, d2, ..., dmn '(L = 90): d1, d2..., dmn ″ (mn = R2v (60,1) · R2h (60,1) mn ′ = R2v (60,2) · R2h (60,2) mn ″ = R2v (60,90) · R2h ( 60, 90))

【0091】ここで、各カメラ110Aから圧縮された
画像信号が伝送されるときの、伝送線15における伝送
データ量について、考える。
Here, the amount of transmission data on the transmission line 15 when the compressed image signal is transmitted from each camera 110A will be considered.

【0092】画面の最初の8ラインの画像信号について
は、カメラ1,3,5からは、mn〜mn”がほとんど
0になり、データ量がほとんどないに等しいデータしか
伝送されないが、一方、カメラ2,4,6からは、画像
合成に必要な相当量のデータが伝送される。逆に、画面
の最後の8ラインの画像信号については、カメラ2,
4,6からは、mn〜mn”がほとんど0になり、デー
タ量がほとんどないに等しいデータしか伝送されない
が、一方、カメラ1,3,5からは、画像合成に必要な
相当量のデータが伝送される。
As for the image signals of the first eight lines of the screen, mn to mn ″ are almost 0 from the cameras 1, 3, and 5, and only data of almost the same data amount is transmitted. A considerable amount of data required for image synthesis is transmitted from 2, 4, and 6. Conversely, the image signals of the last eight lines of the screen are transmitted by the cameras 2 and 4.
From 4,6, mn to mn "become almost 0, and only data having almost no data amount is transmitted. On the other hand, cameras 1, 3, 5 transmit a considerable amount of data necessary for image synthesis. Transmitted.

【0093】このように、カメラ1,3,5とカメラ
2,4,6からの画像信号の読み出し順序を逆にするこ
とによって、伝送線15における伝送データ量を、時間
的に分散することができる。これにより、伝送線15と
して、伝送容量がより小さいものを利用することが可能
になる。
As described above, by reversing the reading order of the image signals from the cameras 1, 3, and 5 and the cameras 2, 4, and 6, the amount of transmission data on the transmission line 15 can be dispersed in time. it can. This makes it possible to use a transmission line 15 having a smaller transmission capacity.

【0094】なお、第1の実施形態の場合でも、伝送線
15における伝送データ量を時間的に分散することは可
能である。例えば、圧縮部120のDCTデータバッフ
ァメモリ123の容量を十分大きなものにしておき、デ
ータ伝送を、DCTデータバッファメモリ123の出力
側で制御すれば、伝送データ量を時間的に分散させるこ
とができる。
Note that, even in the case of the first embodiment, it is possible to temporally disperse the amount of transmission data on the transmission line 15. For example, if the capacity of the DCT data buffer memory 123 of the compression unit 120 is made sufficiently large and data transmission is controlled on the output side of the DCT data buffer memory 123, the amount of transmitted data can be dispersed in time. .

【0095】ところがこの場合、DCTデータバッファ
メモリ123に一時的に大量のデータを格納する必要が
あるため、カメラ110から画像処理部20へのデータ
伝送における遅延時間が長くなる。運転者は合成画像を
見ながら車両を運転するので、合成画像出力のレスポン
スを考慮すると、このような遅延時間は短い方が好まし
い。この点で、本実施形態の方がより有効である。
However, in this case, it is necessary to temporarily store a large amount of data in the DCT data buffer memory 123, so that the delay time in data transmission from the camera 110 to the image processing unit 20 becomes long. Since the driver drives the vehicle while watching the composite image, it is preferable that such a delay time is short in consideration of the response of the composite image output. In this regard, the present embodiment is more effective.

【0096】以上のように本実施形態によると、各カメ
ラの画像信号の読み出し順序を、合成画像と各カメラ画
像との対応関係に応じて制御することによって、合成画
像出力のレスポンスを下げることなく、伝送データ量を
時間的に分散することができる。
As described above, according to the present embodiment, the reading order of the image signals of each camera is controlled in accordance with the correspondence between the synthesized image and each camera image, so that the response of the synthesized image output is not reduced. In addition, the amount of transmission data can be dispersed over time.

【0097】なお、図14に示す画像信号の読み出し順
序の制御はあくまでも一例であり、例えば、カメラ1,
2,3については画面の左上端から、カメラ4,5,6
については画面の左下端から、画像信号を読み出すよう
に制御してもかまわない。また、合成画像とカメラ画像
との対応関係が変われば、それに応じて画像信号の読み
出し順序も変更すればよい。さらに、ここでは撮像素子
111は2種類の読み出し順序を実現可能に構成されて
いるものとしたが、3種類以上の読み出し順序を実現可
能に構成されていれば、合成画像と各カメラ画像との対
応関係に応じて、適当な読み出し順序を選択すればよ
い。
The control of the reading order of the image signals shown in FIG. 14 is merely an example.
For cameras 2 and 3 from the upper left corner of the screen,
The control may be performed such that the image signal is read from the lower left end of the screen. Also, if the correspondence between the composite image and the camera image changes, the reading order of the image signals may be changed accordingly. Further, here, the image sensor 111 is configured to be able to realize two kinds of reading orders. However, if the image sensor 111 is configured to be able to realize three or more kinds of reading orders, the combined image and each camera image can be read. An appropriate reading order may be selected according to the correspondence.

【0098】なお、ここでは、撮像素子としてCCDを
用いるものとしたが、この代わりに、CMOS素子を用
いてもかまわない。CCD素子を用いたカメラが画面全
体の信号を走査線に従って出力するのに対し、CMOS
素子を用いたカメラでは、画面の一部(例えば矩形領
域)の信号のみを出力することができる。このため、各
カメラの画像信号の読み出し順序をきめ細かく制御する
ことができるので、より効率よく、伝送データ量を時間
的に分散させることができる。
Here, the CCD is used as the image pickup device, but a CMOS device may be used instead. While a camera using a CCD element outputs signals of the entire screen according to scanning lines, a CMOS
A camera using an element can output only a signal of a part of a screen (for example, a rectangular area). For this reason, the reading order of the image signal of each camera can be finely controlled, so that the amount of transmission data can be more efficiently distributed over time.

【0099】(第3の実施形態)図15は本発明の第3
の実施形態に係る監視システムの構成を示すブロック図
である。図15に示す監視システムは、基本的には、図
1に示す第1の実施形態に係る構成と同様である。
(Third Embodiment) FIG. 15 shows a third embodiment of the present invention.
It is a block diagram showing the composition of the monitoring system concerning an embodiment. The monitoring system shown in FIG. 15 is basically the same as the configuration according to the first embodiment shown in FIG.

【0100】本実施形態が第1の実施形態と異なるの
は、各カメラ画像の画像データを削減するために、画像
データを圧縮する代わりに、合成画像生成のために不要
と想定される領域の画像データを削除する点である。す
なわち、画像処理部20Bは、解像度指定部260の代
わりに、各カメラ画像について合成画像生成のために必
要と想定される領域を指定する領域指定部290を削減
態様指定手段として備えており、カメラ部10Bは、圧
縮部120の代わりに、領域指定部290によって指定
された領域以外の領域の画像データを削除する選択部1
40を備えている。また、画像圧縮を行わないので、画
像処理部20Bでは復元部240が省かれている。
The present embodiment is different from the first embodiment in that, instead of compressing the image data in order to reduce the image data of each camera image, instead of compressing the image data, an area which is assumed to be unnecessary for generating a composite image is used. The point is that the image data is deleted. That is, the image processing unit 20B includes, as a reduction mode designating unit, a region designating unit 290 that designates a region assumed to be necessary for generating a composite image for each camera image, instead of the resolution designating unit 260. The selecting unit 1 deletes the image data of an area other than the area specified by the area specifying unit 290, instead of the compression unit 120.
40. Further, since no image compression is performed, the restoration section 240 is omitted from the image processing section 20B.

【0101】領域指定部290は、マッピングテーブル
220にデータ化された合成画像と各カメラ画像との対
応関係に従って、各カメラ画像のうち画像合成に必要な
領域を指定する。指定された領域の情報は、伝送アダプ
タ250から伝送線15を介してカメラ部10Bの各選
択部140に伝送される。
The area designating section 290 designates an area required for image synthesis in each camera image in accordance with the correspondence between the synthesized image converted into data in the mapping table 220 and each camera image. Information on the designated area is transmitted from the transmission adapter 250 to each selection unit 140 of the camera unit 10B via the transmission line 15.

【0102】選択部140は伝送された領域情報に応じ
て、各カメラ画像のうち必要な領域のデータのみを出力
する。出力された画像データは、伝送アダプタ130か
ら伝送線15を介して画像処理部20Bに伝送される。
画像処理部20Bでは、伝送された画像データがバッフ
ァメモリ230に格納され、画像合成部210は、マッ
ピングテーブル220のデータに従って、バッファメモ
リ230に格納された画像データから合成画像を生成す
る。
The selecting section 140 outputs only data of a necessary area in each camera image according to the transmitted area information. The output image data is transmitted from the transmission adapter 130 to the image processing unit 20B via the transmission line 15.
In the image processing unit 20B, the transmitted image data is stored in the buffer memory 230, and the image composition unit 210 generates a composite image from the image data stored in the buffer memory 230 according to the data in the mapping table 220.

【0103】図16はカメラ1の画像と画像合成に必要
な領域ANEとの関係を概念的に示す図である。すなわ
ち、図16(a)に示すカメラ1の画像上の合成画像の
マップテーブルの位置から、図16(b)に示すよう
に、合成画像の生成に必要な領域ANEを得ることがで
きる。領域指定部290は例えば図17(a)に示すよ
うに、この領域ANEを含む矩形の領域AN1を求め、
領域AN1を示す情報として、矩形の左上端の座標(I
s,Js)および右下端の座標(Ie,Je)を出力す
る。領域指定部290は、他のカメラについても同様
に、合成画像の生成に必要な領域を含む矩形領域を決定
し、その左上端および右下端の座標を出力する。
FIG. 16 is a diagram conceptually showing the relationship between the image of the camera 1 and the area ANE required for image synthesis. That is, from the position of the map table of the composite image on the image of the camera 1 shown in FIG. 16A, an area ANE necessary for generating the composite image can be obtained as shown in FIG. 16B. The area specifying unit 290 obtains a rectangular area AN1 including the area ANE, for example, as shown in FIG.
As information indicating the area AN1, the coordinates (I
s, Js) and the lower right coordinates (Ie, Je) are output. The area specifying unit 290 similarly determines a rectangular area including an area necessary for generating a composite image for the other cameras, and outputs the coordinates of the upper left and lower right corners.

【0104】図18は選択部140の内部構成の一例を
示す図である。図18を参照して、選択部140の動作
を説明する。
FIG. 18 is a diagram showing an example of the internal configuration of the selection section 140. The operation of the selection unit 140 will be described with reference to FIG.

【0105】カメラ110から出力された画像信号は、
3個のラインメモリ141に順次書き込まれる。一方、
伝送アダプタ130は、伝送線15を介して送られる領
域データのうち自己のカメラに対応した領域データのみ
を読み込み、領域データメモリ144に記憶させる。
The image signal output from the camera 110 is
The data is sequentially written to the three line memories 141. on the other hand,
The transmission adapter 130 reads only the area data corresponding to its own camera from the area data sent via the transmission line 15 and stores the area data in the area data memory 144.

【0106】DSP142は、あるラインメモリに画像
データが書き込まれると、そのラインメモリから画像デ
ータを読み出し、その中から領域データメモリ144に
記憶された矩形領域に含まれる画像データのみを選択
し、データバッファメモリ143に記憶させる。データ
バッファメモリ143に記憶された画像データは、次の
ようにカメラ番号、ライン番号およびデータ数を示すヘ
ッダが付加され、伝送アダプタ130から伝送線15を
介して画像処理部20Bに伝送される。 (カメラ番号1)(ライン番号1)(データ数M1):d1,…,dM1 (カメラ番号1)(ライン番号2)(データ数M2):d1,…,dM2 ・ ・ ・ (カメラ番号1)(ライン番号480)(データ数M480):d1,…,dM480
When the image data is written into a certain line memory, the DSP 142 reads out the image data from the line memory, selects only the image data included in the rectangular area stored in the area data memory 144 from the image data, and The data is stored in the buffer memory 143. The image data stored in the data buffer memory 143 is added with a header indicating a camera number, a line number, and the number of data as follows, and transmitted from the transmission adapter 130 to the image processing unit 20B via the transmission line 15. (Camera number 1) (line number 1) (data number M1): d1,..., DM1 (camera number 1) (line number 2) (data number M2): d1,..., DM2 (camera number 1) (Line number 480) (number of data M480): d1,..., DM480

【0107】ラインiのデータ数Miは、次のようにな
る。 Is≦i≦Ieのとき Mi=Je−Js+1 これ以外のとき Mi=0 すなわち、伝送線を介して伝送されるデータ量は、画像
データを全て伝送する従来例に比べて、大幅に削減され
る。
The data number Mi of the line i is as follows. When Is ≦ i ≦ Ie, Mi = Je−Js + 1. Otherwise, Mi = 0. That is, the amount of data transmitted through the transmission line is significantly reduced as compared with the conventional example in which all image data is transmitted. .

【0108】なおここでは、領域指定部290は、合成
画像生成に必要な領域ANEを含む矩形領域AN1を決
定し、この矩形領域AN1を示す座標情報を各選択部1
40に伝送するものとしたが、本発明はこれに限られる
ものではない。例えば、図17(b)に示すように、画
像合成に必要な領域ANEを“1”、不必要な領域AU
Nを“0”として2値化し、これを水平走査線に従って
スキャンしたランレングスデータを伝送してもかまわな
い。この場合、各選択部140は、伝送されたランレン
グスデータに応じて、各カメラ画像のうち領域ANEの
画像データのみを画像処理部20Bに伝送する。
In this case, the area designating section 290 determines a rectangular area AN1 including an area ANE necessary for generating a composite image, and outputs coordinate information indicating the rectangular area AN1 to each of the selecting sections 1.
40, but the present invention is not limited to this. For example, as shown in FIG. 17B, the area ANE necessary for image synthesis is set to “1”, and the unnecessary area AU
N may be binarized as "0", and run-length data scanned in accordance with a horizontal scanning line may be transmitted. In this case, each selection unit 140 transmits only the image data of the area ANE among the camera images to the image processing unit 20B according to the transmitted run-length data.

【0109】また、第1の実施形態と同様に、画像処理
部20Bが生成する合成画像の種類に応じて、各カメラ
画像の選択動作を切り替えることも可能である。この場
合、画像合成に用いるマッピングテーブルが切り替えら
れる毎に、領域指定部260が、画像合成に必要な領域
を示す領域データを算出し、このデータを伝送線15を
介して各カメラの選択部140に伝送するように構成す
ればよい。
Further, similarly to the first embodiment, the operation of selecting each camera image can be switched according to the type of the composite image generated by the image processing section 20B. In this case, each time the mapping table used for the image synthesis is switched, the area specifying unit 260 calculates the area data indicating the area required for the image synthesis, and transmits this data via the transmission line 15 to the selection unit 140 of each camera. May be configured to be transmitted.

【0110】あるいは、各マッピングテーブルに対応し
た領域データを、領域指定部290に予めROMなどに
よって保持させておいてもよい。この場合には、切替信
号を解像度指定部290にも入力させ、マッピングテー
ブルの切替とともに、領域データの切替を領域指定部2
90に実行させればよい。これにより、マッピングテー
ブルの切替のたびに領域データを求める処理が不要にな
る。
Alternatively, area data corresponding to each mapping table may be stored in the area specifying section 290 in advance by a ROM or the like. In this case, the switching signal is also input to the resolution specifying unit 290, and the switching of the area table is performed together with the switching of the mapping table.
90. This eliminates the need for processing for obtaining area data each time the mapping table is switched.

【0111】さらに、選択部140にメモリを設けて、
このメモリに、各マッピングテーブルに対応した領域デ
ータを予め記憶させておいてもよい。この場合には、画
像処理部20Bは、マッピングテーブルの切替の毎に、
そのマッピングテーブルを表すIDのみを各選択部14
0に伝送するだけですむ。あるいは、マッピングテーブ
ルを表すIDを画像処理部20Bから伝送する代わり
に、切替信号をカメラ部10Bの各選択部140にも入
力させて、マッピングテーブルの切替とともに、領域デ
ータの切替を各選択部140に実行させればよい。
Further, a memory is provided in the selection unit 140,
In this memory, area data corresponding to each mapping table may be stored in advance. In this case, each time the mapping table is switched, the image processing unit 20B
Only the ID representing the mapping table is assigned to each selection unit 14
It only needs to be transmitted to 0. Alternatively, instead of transmitting the ID representing the mapping table from the image processing unit 20B, the switching signal is also input to each of the selection units 140 of the camera unit 10B, and the switching of the area data is performed together with the switching of the mapping table. Should be executed.

【0112】なお、第2の実施形態を第3の実施形態と
併せて実現してもよい。すなわち、図15に示す画像処
理部20Bに、第2の実施形態に係る読出制御部270
および同期信号生成部280を設けて、カメラ画像の読
み出し順序を同様に制御してもかまわない。
Note that the second embodiment may be realized in combination with the third embodiment. That is, the read control unit 270 according to the second embodiment is added to the image processing unit 20B shown in FIG.
And the synchronization signal generation unit 280 may be provided to control the order of reading camera images in the same manner.

【0113】なお、第1〜3の実施形態では、解像度指
定部260または領域指定部290を画像処理部20,
20A,20Bに設ける構成としたが、この代わりに、
解像度指定部260と同等の手段をカメラ部10,10
Aに設けたり、領域指定部290と同等の手段をカメラ
部10Bに設けたりしてもよい。
In the first to third embodiments, the resolution specifying section 260 or the area specifying section 290 is replaced with the image processing section 20,
20A and 20B, but instead of this,
The same means as the resolution specifying unit 260 is used for the camera units 10 and 10.
A, or a unit equivalent to the area designation unit 290 may be provided in the camera unit 10B.

【0114】この場合、画像処理部20,20A,20
Bは、合成画像の種類を切り替える毎に、マッピングテ
ーブル220のデータを伝送アダプタ250から伝送線
15を介してカメラ部10,10A,10Bに伝送すれ
ばよい。あるいは、カメラ部10,10A,10Bにメ
モリを設けて、このメモリに、各マッピングテーブルに
対応した解像度データまたは領域データを予め記憶させ
ておけば、画像処理部20,20A,20Bは、合成画
像の種類を切り替える毎に、用いるマッピングテーブル
を表すIDのみをカメラ部10,10A,10Bに伝送
するだけですむ。またこのとき、マッピングテーブルを
表すIDを画像処理部20,20A,20Bから伝送す
る代わりに、切替信号をカメラ部10,10A,10B
にも入力させて、解像度データまたは領域データの切替
を実行させてもよい。
In this case, the image processing units 20, 20A, 20
B may transmit the data of the mapping table 220 from the transmission adapter 250 to the camera units 10, 10A, and 10B via the transmission line 15 every time the type of the synthesized image is switched. Alternatively, a memory is provided in each of the camera units 10, 10A, and 10B, and if the resolution data or the region data corresponding to each mapping table is stored in advance in this memory, the image processing units 20, 20A, and 20B can output the synthesized image. Each time the type is switched, only the ID representing the mapping table to be used need be transmitted to the camera units 10, 10A, and 10B. At this time, instead of transmitting the ID representing the mapping table from the image processing units 20, 20A, 20B, the switching signal is transmitted from the camera units 10, 10A, 10B.
To switch the resolution data or the area data.

【0115】さらに、第2の実施形態に係る読出制御部
270および同期信号生成部280も、解像度指定部2
60や領域指定部290と同様に、カメラ部10Aに設
けてもかまわない。
Further, the read control unit 270 and the synchronization signal generation unit 280 according to the second embodiment are
Like the 60 and the area designating section 290, it may be provided in the camera section 10A.

【0116】また、第1〜第3の実施形態では、画像合
成のために全てのカメラのカメラ画像が用いられるもの
としたが、一部のカメラのみが画像合成に用いられる場
合もあり得る。このような場合には、解像度指定や領域
指定のようなデータ量削減態様の指定は、画像合成に用
いるその一部のカメラについてのみ行えばよい。
In the first to third embodiments, the camera images of all cameras are used for image synthesis. However, only some of the cameras may be used for image synthesis. In such a case, the specification of the data amount reduction mode such as the resolution specification and the area specification may be performed only for some of the cameras used for image synthesis.

【0117】また、第1〜第3の実施形態では、画像デ
ータ削減手段としての圧縮部120や選択部140は、
全てのカメラについて設けられているものとしたが、一
部のカメラにのみ設けた構成としてもかまわない。すな
わち、圧縮部120や選択部140を有するカメラと、
圧縮部120や選択部140を有しないカメラとを併せ
て設けてもかまわない。この場合には、解像度指定や領
域指定のようなデータ量削減態様の指定は、圧縮部12
0や選択部140を有し、かつ画像合成に用いるカメラ
についてのみ、行えばよい。
In the first to third embodiments, the compression unit 120 and the selection unit 140 as image data reduction means are
Although provided for all cameras, a configuration provided for only some cameras may be employed. That is, a camera having the compression unit 120 and the selection unit 140,
A camera that does not have the compression unit 120 or the selection unit 140 may be provided together. In this case, the specification of the data amount reduction mode such as the resolution specification and the area specification is performed by the compression unit 12.
This may be performed only for a camera having 0 and the selection unit 140 and used for image synthesis.

【0118】なお、以上の説明では、本発明に係る監視
システムは車両に適用するものとしたが、車両以外の移
動体、例えば飛行機や船舶などであっても、同様に適用
することができる。また、移動体以外の監視対象、例え
ば店舗、住居、ショールームなどにカメラを設置しても
よい。また、複数のカメラの設置位置や台数は、ここで
示したものに限られるものではない。
In the above description, the monitoring system according to the present invention is applied to a vehicle. However, the monitoring system can be similarly applied to a moving object other than the vehicle, for example, an airplane or a ship. In addition, a camera may be installed in a monitoring target other than a mobile object, for example, a store, a residence, a show room, and the like. Further, the installation positions and the number of cameras are not limited to those shown here.

【0119】また、本発明に係る監視システムの機能
は、その全部または一部を、専用のハードウェアを用い
て実現してもかまわないし、ソフトウェアによって実現
してもかまわない。また、本発明に係る画像処理装置の
機能の全部または一部をコンピュータに実行させるため
のプログラムを格納した記録媒体や伝送媒体を、利用す
ることも可能である。
Further, all or a part of the functions of the monitoring system according to the present invention may be realized using dedicated hardware or may be realized by software. It is also possible to use a recording medium or a transmission medium storing a program for causing a computer to execute all or a part of the functions of the image processing apparatus according to the present invention.

【0120】[0120]

【発明の効果】以上のように本発明によると、複数のカ
メラと画像処理部との間の伝送経路には、合成画像と各
カメラ画像との対応関係に従って指定された態様に応じ
て削減されたカメラ画像の画像データが、伝送される。
したがって、合成画像の品質を下げることなく、伝送さ
れるカメラ画像のデータ量を大幅に削減することができ
る。これにより、安価で本数の少ない伝送線や無線によ
って伝送経路を実現することが可能になり、車両への設
置や保守の作業が大幅に簡易化される。また、画像処理
部に必要となるバッファメモリの記憶容量も大幅に削減
される。画像データの削減は、画像合成に必要となる解
像度に応じた圧縮や、画像合成に必要となる領域以外の
画像データの削除によって、実現される。
As described above, according to the present invention, the number of transmission paths between a plurality of cameras and an image processing unit is reduced in accordance with a designated mode according to the correspondence between a composite image and each camera image. The image data of the camera image is transmitted.
Therefore, the data amount of the transmitted camera image can be significantly reduced without lowering the quality of the synthesized image. This makes it possible to realize a transmission path using inexpensive and small-number transmission lines or wirelessly, greatly simplifying installation and maintenance work on the vehicle. Further, the storage capacity of the buffer memory required for the image processing unit is greatly reduced. The reduction of the image data is realized by compression according to the resolution required for the image synthesis or by deleting the image data other than the area required for the image synthesis.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態に係る監視システムの
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a monitoring system according to a first embodiment of the present invention.

【図2】カメラ設置位置の一例を示す図である。FIG. 2 is a diagram illustrating an example of a camera installation position.

【図3】合成画像の仮想視点の位置の一例である。FIG. 3 is an example of a position of a virtual viewpoint of a composite image.

【図4】カメラ画像と合成画像との対応関係の一例を示
す図である。
FIG. 4 is a diagram illustrating an example of a correspondence relationship between a camera image and a composite image.

【図5】合成画像とカメラ画像との対応関係を概念的に
示す図である。
FIG. 5 is a diagram conceptually showing a correspondence relationship between a composite image and a camera image.

【図6】カメラ画像領域の解像度による分類の一例を示
す図である。
FIG. 6 is a diagram illustrating an example of classification based on the resolution of a camera image area.

【図7】解像度データの算出手法の一例を説明するため
の図である。
FIG. 7 is a diagram illustrating an example of a calculation method of resolution data.

【図8】本発明の第1の実施形態における圧縮部の内部
構成の一例を示す図である。
FIG. 8 is a diagram illustrating an example of an internal configuration of a compression unit according to the first embodiment of the present invention.

【図9】カメラ設置位置の他の例を示す図である。FIG. 9 is a diagram showing another example of a camera installation position.

【図10】比較例として、LPFを有する画像処理部を
備えた構成を示す図である。
FIG. 10 is a diagram illustrating a configuration including an image processing unit having an LPF as a comparative example.

【図11】解像度データの算出手法の他の例を説明する
ための図である。
FIG. 11 is a diagram for explaining another example of a method for calculating resolution data.

【図12】本発明の第2の実施形態に係る監視システム
の構成を示すブロック図である。
FIG. 12 is a block diagram illustrating a configuration of a monitoring system according to a second embodiment of the present invention.

【図13】本発明の第2の実施形態におけるカメラおよ
び圧縮部の内部構成の一例を示す図である。
FIG. 13 is a diagram illustrating an example of an internal configuration of a camera and a compression unit according to a second embodiment of the present invention.

【図14】各カメラからの画像信号の読み出し順序の一
例を示す図である。
FIG. 14 is a diagram showing an example of the reading order of image signals from each camera.

【図15】本発明の第3の実施形態に係る監視システム
の構成を示すブロック図である。
FIG. 15 is a block diagram illustrating a configuration of a monitoring system according to a third embodiment of the present invention.

【図16】画像合成に必要な領域を示す図である。FIG. 16 is a diagram showing an area required for image synthesis.

【図17】画像合成に必要な領域を指定する方法を示す
図である。
FIG. 17 is a diagram illustrating a method of designating an area required for image composition.

【図18】本発明の第3の実施形態における選択部の内
部構成の一例を示す図である。
FIG. 18 is a diagram illustrating an example of an internal configuration of a selection unit according to the third embodiment of the present invention.

【図19】従来の監視システムの構成を示す図である。FIG. 19 is a diagram showing a configuration of a conventional monitoring system.

【符号の説明】[Explanation of symbols]

10,10A,10B カメラ部 15 伝送経路 20,20A,20B 画像処理部 110,110A カメラ 120,120A 圧縮部(画像データ削減手段) 140 選択部(画像データ削減手段) 260 解像度指定部(削減態様指定手段) 270 読出制御部 290 領域指定部(削減態様指定手段) 10, 10A, 10B camera unit 15 transmission path 20, 20A, 20B image processing unit 110, 110A camera 120, 120A compression unit (image data reduction unit) 140 selection unit (image data reduction unit) 260 resolution specification unit (reduction mode specification) Means) 270 read control unit 290 area designation unit (reduction mode designation means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中川 雅通 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 登 一生 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 森村 淳 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5C022 AA01 AA04 AB61 AC69 AC75 5C054 DA08 EA01 EA05 EG10 FD02 FE11 HA19 HA30  ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Masamichi Nakagawa 1006 Oaza Kadoma, Kadoma City, Osaka Prefecture Inside Matsushita Electric Industrial Co., Ltd. (72) Inventor Atsushi Morimura 1006 Kadoma Kadoma, Kadoma City, Osaka Prefecture F-term in Matsushita Electric Industrial Co., Ltd.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 複数のカメラを有するカメラ部と、 前記カメラ部から出力されたカメラ画像の画像データを
伝送する伝送経路と、 前記伝送経路を介して伝送されたカメラ画像の画像デー
タを入力とし、これらの画像データから、合成画像を生
成する画像処理部とを備え、 前記カメラ部は、 前記伝送経路に出力する画像データ量を削減するための
画像データ削減手段を備え、 前記カメラ部または画像処理部は、 前記画像データ削減手段に対し、前記合成画像とカメラ
画像との対応関係に従って、画像合成に用いるカメラ画
像のデータ量削減態様を、指定する削減態様指定手段を
備えていることを特徴とする監視システム。
1. A camera unit having a plurality of cameras, a transmission path for transmitting image data of a camera image output from the camera unit, and image data of a camera image transmitted via the transmission path as inputs. An image processing unit that generates a composite image from the image data; the camera unit includes an image data reduction unit configured to reduce an amount of image data output to the transmission path; The processing unit is characterized in that the image data reduction unit includes a reduction mode designating unit that specifies a data amount reduction mode of a camera image used for image synthesis according to a correspondence relationship between the composite image and the camera image. And monitoring system.
【請求項2】 請求項1記載の監視システムにおいて、 前記画像処理部は、 複数種類の合成画像が生成可能であり、かつ、生成する
合成画像の種類を切り替え可能に構成されており、 前記削減態様指定手段は、 前記画像処理部が生成する合成画像の種類に応じて、指
定するデータ量削減態様を、切り替えるものであること
を特徴とする監視システム。
2. The monitoring system according to claim 1, wherein the image processing unit is configured to be capable of generating a plurality of types of composite images and to be able to switch the type of the generated composite image. A monitoring system, characterized in that the mode designating means switches a data amount reduction mode to be specified according to the type of a composite image generated by the image processing unit.
【請求項3】 請求項1記載の監視システムにおいて、 前記削減態様指定手段は、 画像合成に用いるカメラ画像の各領域について、合成画
像生成のために必要と想定される解像度をそれぞれ指定
する解像度指定部を有し、 前記画像データ削減手段は、 画像合成に用いるカメラ画像の画像データを、前記解像
度指定部によって指定された解像度に従って、圧縮する
ことを特徴とする監視システム。
3. The surveillance system according to claim 1, wherein the reduction mode designating means designates, for each area of a camera image used for image composition, a resolution assumed to be necessary for generating a composite image. A monitoring unit, wherein the image data reducing unit compresses image data of a camera image used for image synthesis according to a resolution specified by the resolution specifying unit.
【請求項4】 請求項3記載の監視システムにおいて、 前記画像データ削減手段は、 DCT変換を用いて、画像データの圧縮を行うものであ
ることを特徴とする監視システム。
4. The monitoring system according to claim 3, wherein said image data reduction means compresses image data using DCT transform.
【請求項5】 請求項1記載の監視システムにおいて、 前記削減態様指定手段は、 画像合成に用いるカメラ画像について、合成画像生成の
ために必要と想定される領域を指定する領域指定部を有
し、 前記画像データ削減手段は、 画像合成に用いるカメラ画像の画像データから、前記領
域指定部によって指定された領域以外の領域の画像デー
タを、削除することを特徴とする監視システム。
5. The surveillance system according to claim 1, wherein the reduction mode designating unit has an area designating unit for designating, for a camera image used for image composition, an area assumed to be necessary for generating a composite image. A monitoring system, wherein the image data reduction unit deletes image data of an area other than the area specified by the area specifying unit from image data of a camera image used for image synthesis.
【請求項6】 請求項1記載の監視システムにおいて、 前記各カメラは、画像データの読み出し順序が、制御可
能に構成されており、 前記カメラ部または画像処理部は、 画像合成に用いるカメラの画像データの読み出し順序
を、前記削減態様指定手段によって指定されたデータ量
削減態様に応じて、制御する読出制御部を備えているこ
とを特徴とする監視システム。
6. The surveillance system according to claim 1, wherein each of the cameras has a controllable read order of image data, and the camera section or the image processing section has an image of a camera used for image synthesis. A monitoring system comprising: a read control unit that controls a data reading order according to a data amount reduction mode specified by the reduction mode specifying unit.
【請求項7】 請求項1記載の監視システムにおいて、 前記複数のカメラは、 車両に設置され、当該車両の周囲を撮影するものである
ことを特徴とする監視システム。
7. The surveillance system according to claim 1, wherein the plurality of cameras are installed in a vehicle and photograph an area around the vehicle.
JP2000201948A 2000-07-04 2000-07-04 Monitoring system Expired - Lifetime JP3269056B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2000201948A JP3269056B2 (en) 2000-07-04 2000-07-04 Monitoring system
US09/898,335 US7027616B2 (en) 2000-07-04 2001-07-03 Monitoring system
EP01116108A EP1170697B1 (en) 2000-07-04 2001-07-03 Monitoring system
DE60133859T DE60133859D1 (en) 2000-07-04 2001-07-03 monitoring system
KR1020010039846A KR100839287B1 (en) 2000-07-04 2001-07-04 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000201948A JP3269056B2 (en) 2000-07-04 2000-07-04 Monitoring system

Publications (2)

Publication Number Publication Date
JP2002027446A true JP2002027446A (en) 2002-01-25
JP3269056B2 JP3269056B2 (en) 2002-03-25

Family

ID=18699545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000201948A Expired - Lifetime JP3269056B2 (en) 2000-07-04 2000-07-04 Monitoring system

Country Status (5)

Country Link
US (1) US7027616B2 (en)
EP (1) EP1170697B1 (en)
JP (1) JP3269056B2 (en)
KR (1) KR100839287B1 (en)
DE (1) DE60133859D1 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002326540A (en) * 2001-04-28 2002-11-12 Setsuo Kuroki Visually-confirming camera-loaded car
JP2004193941A (en) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> Arbitrary viewpoint picture transmission method, apparatus for implementing the method, processing program therefor and recording medium
JP2005348307A (en) * 2004-06-07 2005-12-15 Olympus Corp Image generating method and image generating device
JP2006282039A (en) * 2005-04-01 2006-10-19 Yamaha Motor Co Ltd Image transmission device for pilotless helicopter
JP2008078809A (en) * 2006-09-19 2008-04-03 Denso Corp Image processor for vehicle
WO2008086124A1 (en) * 2007-01-03 2008-07-17 Vialogy Llc Multi parallax exploitation for omni-directional imaging electronic eye
WO2008067197A3 (en) * 2006-11-17 2008-08-14 Microsoft Corp Swarm imaging
JP2008278526A (en) * 2008-06-16 2008-11-13 Panasonic Corp Drive support image generator
JP2009152966A (en) * 2007-12-21 2009-07-09 Alpine Electronics Inc Image display system and camera output control method
WO2009098763A1 (en) * 2008-02-06 2009-08-13 Fujitsu Limited Video processor, video processing method and video processing program
JP2016201585A (en) * 2015-04-07 2016-12-01 株式会社ソシオネクスト Image processing apparatus and image processing apparatus control method
EP3104599A1 (en) 2015-06-10 2016-12-14 Fujitsu Ten Limited Image processing device and image processing method
WO2020066008A1 (en) * 2018-09-28 2020-04-02 株式会社ソニー・インタラクティブエンタテインメント Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
JP2021509237A (en) * 2017-12-29 2021-03-18 ウェイモ エルエルシー High-speed image readout and processing

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3695377B2 (en) * 2001-10-01 2005-09-14 日産自動車株式会社 Image composition apparatus and image composition method
JP2003283925A (en) * 2002-03-20 2003-10-03 Sony Corp Image compositing device and method therefor
US7110021B2 (en) * 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP3800172B2 (en) * 2002-12-24 2006-07-26 トヨタ自動車株式会社 Vehicle periphery monitoring device
JP3728508B2 (en) * 2003-02-17 2005-12-21 国立大学法人 東京大学 Image generating apparatus and method
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
JP2006157481A (en) * 2004-11-30 2006-06-15 Canon Inc Image coding apparatus and method thereof
DE102004057922A1 (en) * 2004-12-01 2006-06-08 Robert Bosch Gmbh Transmission device for transmitting image data has video camera which is provided in spatial proximity to device for reduction of data and device reduces image data generated by video camera whereby it is arranged on image analyzing device
US20070009136A1 (en) * 2005-06-30 2007-01-11 Ivan Pawlenko Digital imaging for vehicular and other security applications
JP4809019B2 (en) * 2005-08-31 2011-11-02 クラリオン株式会社 Obstacle detection device for vehicle
FR2891934B1 (en) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison DEVICE FOR PROCESSING VIDEO DATA FOR A MOTOR VEHICLE
JP4762698B2 (en) * 2005-11-30 2011-08-31 アルパイン株式会社 Vehicle peripheral image display device
US10878646B2 (en) 2005-12-08 2020-12-29 Smartdrive Systems, Inc. Vehicle event recorder systems
US20070150138A1 (en) 2005-12-08 2007-06-28 James Plante Memory management in event recording systems
US8996240B2 (en) 2006-03-16 2015-03-31 Smartdrive Systems, Inc. Vehicle event recorders with integrated web server
US9201842B2 (en) 2006-03-16 2015-12-01 Smartdrive Systems, Inc. Vehicle event recorder systems and networks having integrated cellular wireless communications systems
JP4812510B2 (en) * 2006-05-17 2011-11-09 アルパイン株式会社 Vehicle peripheral image generation apparatus and photometric adjustment method for imaging apparatus
JP5159070B2 (en) * 2006-08-31 2013-03-06 アルパイン株式会社 Vehicle periphery image display device and display method
JP4257356B2 (en) * 2006-09-26 2009-04-22 株式会社日立製作所 Image generating apparatus and image generating method
US8649933B2 (en) 2006-11-07 2014-02-11 Smartdrive Systems Inc. Power management systems for automotive video event recorders
US8989959B2 (en) 2006-11-07 2015-03-24 Smartdrive Systems, Inc. Vehicle operator performance history recording, scoring and reporting systems
US8868288B2 (en) 2006-11-09 2014-10-21 Smartdrive Systems, Inc. Vehicle exception event management systems
US20080165250A1 (en) * 2007-01-08 2008-07-10 Jeff Kirk Ekdahl Vehicle security surveillance system
US8854465B1 (en) 2007-01-08 2014-10-07 Jason Charles McIntyre Vehicle security surveillance system and method for surveillance of a vehicle
US8239092B2 (en) 2007-05-08 2012-08-07 Smartdrive Systems Inc. Distributed vehicle event recorder systems having a portable memory data transfer system
US7869621B1 (en) * 2007-06-07 2011-01-11 Aydin Arpa Method and apparatus for interpreting images in temporal or spatial domains
JP5120880B2 (en) * 2007-10-15 2013-01-16 アルパイン株式会社 Image processing apparatus and image processing method
US20090118600A1 (en) * 2007-11-02 2009-05-07 Ortiz Joseph L Method and apparatus for skin documentation and analysis
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP5068779B2 (en) 2009-02-27 2012-11-07 現代自動車株式会社 Vehicle surroundings overhead image display apparatus and method
JP2010263499A (en) * 2009-05-08 2010-11-18 Fujitsu Ltd Video processing system and video processing method
JP2010263500A (en) * 2009-05-08 2010-11-18 Fujitsu Ltd Video processing system, photography device, and method thereof
US20100321500A1 (en) * 2009-06-18 2010-12-23 Honeywell International Inc. System and method for addressing video surveillance fields of view limitations
US9536348B2 (en) * 2009-06-18 2017-01-03 Honeywell International Inc. System and method for displaying video surveillance fields of view limitations
JP5087051B2 (en) * 2009-07-02 2012-11-28 富士通テン株式会社 Image generating apparatus and image display system
KR101012585B1 (en) * 2009-07-10 2011-02-07 고려대학교 산학협력단 Multi-channelImage registration system and the Method
JP4985745B2 (en) * 2009-10-30 2012-07-25 株式会社デンソー Perimeter monitoring system for moving objects
US20110254967A1 (en) * 2010-04-15 2011-10-20 Post Pro Finance, Inc. Virtual library capture and retrieval system for audio, film and video elements
EP2536142A1 (en) * 2011-06-15 2012-12-19 NEC CASIO Mobile Communications, Ltd. Method and a system for encoding multi-view video content
US9728228B2 (en) 2012-08-10 2017-08-08 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
JP2014082541A (en) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology Method, program and apparatus for reducing data size of multiple images including information similar to each other
CN102984494B (en) * 2012-12-06 2015-11-25 小米科技有限责任公司 A kind of video communication method and device
US9501878B2 (en) 2013-10-16 2016-11-22 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
US9610955B2 (en) 2013-11-11 2017-04-04 Smartdrive Systems, Inc. Vehicle fuel consumption monitor and feedback systems
US8892310B1 (en) 2014-02-21 2014-11-18 Smartdrive Systems, Inc. System and method to detect execution of driving maneuvers
JP6194819B2 (en) * 2014-03-03 2017-09-13 Smk株式会社 Image processing system
KR101543159B1 (en) * 2014-05-02 2015-08-10 현대자동차주식회사 System for adjusting image using camera and Method thereof
US9663127B2 (en) 2014-10-28 2017-05-30 Smartdrive Systems, Inc. Rail vehicle event detection and recording system
US11069257B2 (en) 2014-11-13 2021-07-20 Smartdrive Systems, Inc. System and method for detecting a vehicle event and generating review criteria
US9679420B2 (en) 2015-04-01 2017-06-13 Smartdrive Systems, Inc. Vehicle event recording system and method
JP6805716B2 (en) * 2016-01-25 2020-12-23 株式会社Jvcケンウッド Display device, display method, program
US10580299B2 (en) * 2017-10-13 2020-03-03 Waymo Llc Lane change notification
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
KR102437983B1 (en) * 2020-12-29 2022-08-30 아진산업(주) Apparatus and Method using block-wise Look-Up Table

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138057A (en) * 1994-11-04 1996-05-31 Fuji Electric Co Ltd Object monitoring device
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4855812A (en) * 1986-12-18 1989-08-08 Hitachi, Ltd. Picture synthesizing apparatus with gain control system
US5216502A (en) * 1990-12-18 1993-06-01 Barry Katz Surveillance systems for automatically recording transactions
US5319394A (en) * 1991-02-11 1994-06-07 Dukek Randy R System for recording and modifying behavior of passenger in passenger vehicles
JPH07221971A (en) * 1994-02-01 1995-08-18 Canon Inc Image processing method and device therefor
US5724475A (en) * 1995-05-18 1998-03-03 Kirsten; Jeff P. Compressed digital video reload and playback system
JP3696999B2 (en) * 1996-01-30 2005-09-21 キヤノン株式会社 Camera control system and camera control device
JPH10105695A (en) 1996-10-01 1998-04-24 Nissan Motor Co Ltd Picture input device
US6462775B1 (en) * 1996-11-21 2002-10-08 Detection Dynamics, Inc. Apparatus within a street lamp for remote surveillance having directional antenna
JPH10217261A (en) 1997-02-10 1998-08-18 Shin Etsu Polymer Co Ltd Production of antibacterial and antifungal rubber sheet
EP0920211A3 (en) * 1997-12-01 2000-05-17 Lsi Card Corporation A method of forming a panoramic image
KR19990061602A (en) * 1997-12-31 1999-07-26 전주범 Video Configuration Control Method of Video Conference System
JPH11298890A (en) * 1998-04-13 1999-10-29 Hitachi Ltd Method and system for compression or expansion of image data, image transmission system and monitor system using the same
US6154658A (en) * 1998-12-14 2000-11-28 Lockheed Martin Corporation Vehicle information and safety control system
US6223125B1 (en) * 1999-02-05 2001-04-24 Brett O. Hall Collision avoidance system
US6389339B1 (en) * 1999-11-24 2002-05-14 William J. Just Vehicle operation monitoring system and method
US6420977B1 (en) * 2000-04-21 2002-07-16 Bbnt Solutions Llc Video-monitoring safety systems and methods
JP3599639B2 (en) * 2000-05-26 2004-12-08 松下電器産業株式会社 Image processing device
US6693519B2 (en) * 2001-05-31 2004-02-17 V-Tech-Usa, Llc Vehicle safety monitoring system for viewing blind spots

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138057A (en) * 1994-11-04 1996-05-31 Fuji Electric Co Ltd Object monitoring device
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002326540A (en) * 2001-04-28 2002-11-12 Setsuo Kuroki Visually-confirming camera-loaded car
JP2004193941A (en) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> Arbitrary viewpoint picture transmission method, apparatus for implementing the method, processing program therefor and recording medium
JP2005348307A (en) * 2004-06-07 2005-12-15 Olympus Corp Image generating method and image generating device
JP4499600B2 (en) * 2005-04-01 2010-07-07 ヤマハ発動機株式会社 Unmanned helicopter image transmission device
JP2006282039A (en) * 2005-04-01 2006-10-19 Yamaha Motor Co Ltd Image transmission device for pilotless helicopter
JP2008078809A (en) * 2006-09-19 2008-04-03 Denso Corp Image processor for vehicle
WO2008067197A3 (en) * 2006-11-17 2008-08-14 Microsoft Corp Swarm imaging
US9042677B2 (en) 2006-11-17 2015-05-26 Microsoft Technology Licensing, Llc Swarm imaging
US8498497B2 (en) 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
WO2008086124A1 (en) * 2007-01-03 2008-07-17 Vialogy Llc Multi parallax exploitation for omni-directional imaging electronic eye
US8170326B2 (en) 2007-01-03 2012-05-01 Vialogy Corp. Multi parallax exploitation for omni-directional imaging electronic eye
JP2009152966A (en) * 2007-12-21 2009-07-09 Alpine Electronics Inc Image display system and camera output control method
WO2009098763A1 (en) * 2008-02-06 2009-08-13 Fujitsu Limited Video processor, video processing method and video processing program
JP2008278526A (en) * 2008-06-16 2008-11-13 Panasonic Corp Drive support image generator
JP2016201585A (en) * 2015-04-07 2016-12-01 株式会社ソシオネクスト Image processing apparatus and image processing apparatus control method
EP3104599A1 (en) 2015-06-10 2016-12-14 Fujitsu Ten Limited Image processing device and image processing method
US10037595B2 (en) 2015-06-10 2018-07-31 Fujitsu Ten Limited Image processing device and image processing method
JP2021509237A (en) * 2017-12-29 2021-03-18 ウェイモ エルエルシー High-speed image readout and processing
JP7080977B2 (en) 2017-12-29 2022-06-06 ウェイモ エルエルシー High-speed image readout and processing
WO2020066008A1 (en) * 2018-09-28 2020-04-02 株式会社ソニー・インタラクティブエンタテインメント Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
JPWO2020066008A1 (en) * 2018-09-28 2021-05-13 株式会社ソニー・インタラクティブエンタテインメント Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method

Also Published As

Publication number Publication date
US7027616B2 (en) 2006-04-11
EP1170697A3 (en) 2004-01-14
DE60133859D1 (en) 2008-06-19
JP3269056B2 (en) 2002-03-25
KR20020004876A (en) 2002-01-16
EP1170697B1 (en) 2008-05-07
KR100839287B1 (en) 2008-06-17
EP1170697A2 (en) 2002-01-09
US20020034316A1 (en) 2002-03-21

Similar Documents

Publication Publication Date Title
JP3269056B2 (en) Monitoring system
US7092012B2 (en) Image processing apparatus and method, storage medium, and communication system
JP3429061B2 (en) Electronic still camera
EP0703706B1 (en) Digital television set
US7932934B2 (en) Image processing method and imaging apparatus using the same
US20060098898A1 (en) Image processing apparatus capable of carrying out magnification change process of image
JPH07311569A (en) Image processing device and method
JP3348917B2 (en) Image signal processing device
TW200839734A (en) Video compositing device and video output device
EP2346240B1 (en) Image processing method and device, and imaging apparatus using the image processing device
US6314206B1 (en) Compression ratio setting device
JP3342388B2 (en) Digital camera
JP2004266670A (en) Image pickup device and method, image information providing system and program
JP2782766B2 (en) Video / still image conversion method
JP2871438B2 (en) Graphics display processor
JPH11243508A (en) Image display device
JP3360808B2 (en) Electronic still camera compression ratio setting device
JP3066594U (en) Image conversion device
JPH10145788A (en) Video reproduction device
EP0690618A1 (en) An imaging apparatus which simultaneously displays images formed in different analog formats on a single monitor
JPH11146425A (en) Double eye camera, double eye camera system and double eye camera control method
JP4325108B2 (en) Captured image composition apparatus and method
JPH11196428A (en) Image pickup device and its control method
JP2001285614A (en) Image data arrangement method and device, image data rearrangement method and device, and storage medium
JPH099127A (en) Image transmission system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 3269056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 11

EXPY Cancellation because of completion of term