JP2005196423A - Image display method, image display system and image processor - Google Patents

Image display method, image display system and image processor Download PDF

Info

Publication number
JP2005196423A
JP2005196423A JP2004001494A JP2004001494A JP2005196423A JP 2005196423 A JP2005196423 A JP 2005196423A JP 2004001494 A JP2004001494 A JP 2004001494A JP 2004001494 A JP2004001494 A JP 2004001494A JP 2005196423 A JP2005196423 A JP 2005196423A
Authority
JP
Japan
Prior art keywords
image
image data
imaging
imaging device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004001494A
Other languages
Japanese (ja)
Inventor
Hiroaki Saito
裕昭 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2004001494A priority Critical patent/JP2005196423A/en
Publication of JP2005196423A publication Critical patent/JP2005196423A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display method, an image display system and an image processor constituting the image display system for processing and displaying image data picked up by an image pickup device according to the image pickup region of the image pickup device when the image pickup device is additionally loaded on a vehicle or when the loading position of the image pickup device is changed. <P>SOLUTION: Standard patterns (P101, P102 and P103) predetermined according to the image pickup region of a video camera are stored, image data picked up with video cameras 1, 2, 3 and 4 are compared with the standard patterns (P101, P102 and P103), and the standard pattern approximating to the image data is decided so that the image pickup regions picked up by the video cameras 1, 2, 3 and 4 can be decided. Image processing for carrying out visual point transformation such as panorama display or bird's eye view display is performed to the image data picked up by the video cameras 1, 2, 3 and 4 according to the decided image pickup region, and the image data after the image processing are displayed on a display device 6. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、車両に設置され外界を撮像する撮像装置により撮像された画像データに対して画像処理を行い、画像処理された画像データを表示する画像表示方法、画像表示システム、及び画像処理装置に関する。   The present invention relates to an image display method, an image display system, and an image processing apparatus that perform image processing on image data captured by an image capturing apparatus that is installed in a vehicle and captures the outside world, and display the image processed image data. .

自動車などの車両の運転席からの視界は、窓部を広く設けてあっても、窓部を除く車体部により遮られ、死角部分を生じる。このため、車体の適切な箇所にビデオカメラを配置し、車外の様子を撮像し、撮像した画像データに対して画像処理を行い、運転者にとって見やすい画像を車内の表示装置に表示して、運転者の支援をするシステムがある。   The view from the driver's seat of a vehicle such as an automobile is obstructed by the vehicle body excluding the window, even if the window is wide, and a blind spot is generated. For this reason, a video camera is arranged at an appropriate location on the vehicle body, the outside of the vehicle is imaged, image processing is performed on the captured image data, and an image that is easy for the driver to view is displayed on a display device in the vehicle to drive There is a system to support the elderly.

例えば、車体の前部に右左折監視用のビデオカメラを、後部に後方監視用のビデオカメラなど複数のビデオカメラを搭載し、運転者の死角になるような領域の様子を撮像し、運転者の操作により撮像した映像を切り替えて、運転席の表示装置に表示し、また、複数の映像を合成して表示するシステムが提案されている。   For example, a video camera for right / left turn monitoring is mounted on the front of the vehicle body, and a plurality of video cameras such as a video camera for rear monitoring are mounted on the rear. A system has been proposed in which images captured by the above operation are switched and displayed on a driver's seat display device, and a plurality of images are combined and displayed.

また、ビデオカメラが撮像した映像は、運転者が見やすいように画像変換して表示装置に表示される。例えば、後方監視用のビデオカメラで撮像した画像データに対して、映像の視点変換のための座標変換処理を施し、変換された画像データを鳥瞰図として表示装置に表示するものがある。   In addition, the image captured by the video camera is converted into an image so as to be easily seen by the driver and displayed on the display device. For example, there is a technique in which image data captured by a video camera for rear monitoring is subjected to coordinate conversion processing for video viewpoint conversion, and the converted image data is displayed on a display device as a bird's eye view.

さらに、運転者に死角となっている領域を撮像して、該領域の情報を提供する場合に、同時に多くの情報を提供することは、却って運転者にとって煩わしく、運転者の操作が煩雑となるため、車両の状況に応じて運転者が必要となる情報を選択して提供する方法が提案されている(特許文献1参照)。
特開2000−238594号公報
Furthermore, when imaging a blind spot area to the driver and providing information on the area, providing a lot of information at the same time is troublesome for the driver and the driver's operation becomes complicated. Therefore, a method for selecting and providing information necessary for the driver in accordance with the situation of the vehicle has been proposed (see Patent Document 1).
JP 2000-238594 A

しかしながら、特許文献1の方法は、車両に搭載されたビデオカメラの数又は車両の搭載位置に対応して、車両ごとに予め定められた画像処理制御プログラムを用いるため、すでに車両に搭載されているビデオカメラに、さらに別のビデオカメラを追加搭載する場合において、追加搭載されたビデオカメラが撮像する画像データを画像処理するときは、追加搭載されたビデオカメラに合わせた画像処理制御プログラムを用いる必要があり煩雑であった。
また、車両に搭載されていたビデオカメラを車両の別の搭載位置へ変更する場合にも、車両の搭載位置に応じて、例えば、鳥瞰表示処理などの画像処理を行う必要があるため、該画像処理に応じた画像処理制御プログラムを用いる必要があり煩雑であった。
However, since the method of Patent Document 1 uses an image processing control program predetermined for each vehicle corresponding to the number of video cameras mounted on the vehicle or the mounting position of the vehicle, it is already mounted on the vehicle. When another video camera is additionally mounted on the video camera, it is necessary to use an image processing control program suitable for the additional mounted video camera when performing image processing on the image data captured by the additional mounted video camera. It was complicated.
In addition, when the video camera mounted on the vehicle is changed to another mounting position of the vehicle, it is necessary to perform image processing such as bird's-eye display processing according to the mounting position of the vehicle. It is necessary to use an image processing control program corresponding to the processing, which is complicated.

本発明は、斯かる事情に鑑みてなされたものであり、撮像装置が撮像した画像データから輝度又は色度などのパターンを抽出し、抽出したパターンと、撮像装置の撮像領域に応じて予め記憶された標準パターンとを比較し、該パターンに近似する標準パターンに対応する撮像領域を判定することにより、追加搭載された撮像装置又は、搭載位置が変更された撮像装置が撮像した画像データから該撮像装置の撮像領域を判定して、該撮像領域に応じた画像処理を行うことができるため、車両ごとに予め定められた画像処理制御プログラムを用いる必要がなく、撮像装置の撮像領域に応じて前記撮像装置が撮像した画像データを処理して表示する画像表示方法、画像表示システム、及び該画像表示システムを構成する画像処理装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and a pattern such as luminance or chromaticity is extracted from image data captured by the imaging apparatus, and is stored in advance according to the extracted pattern and the imaging area of the imaging apparatus. By comparing the measured standard pattern and determining the imaging region corresponding to the standard pattern that approximates the pattern, from the image data captured by the additional mounted imaging device or the imaging device whose mounting position has been changed. Since the imaging area of the imaging device can be determined and image processing corresponding to the imaging area can be performed, there is no need to use a predetermined image processing control program for each vehicle, and according to the imaging area of the imaging device. To provide an image display method, an image display system for processing and displaying image data captured by the imaging device, and an image processing device constituting the image display system. For the purpose.

また、本発明の他の目的は、前記標準パターンを記憶した記憶装置から前記標準パターンを受信して、撮像装置が撮像した画像データから抽出したパターンと、受信した標準パターンとを比較することにより、追加搭載された撮像装置又は、搭載位置が変更された撮像装置が撮像した画像データから該撮像装置の撮像領域を判定して、該撮像領域に応じた画像処理を行うことができるため、車両ごとに予め定められた画像処理制御プログラムを用いる必要がなく、また、画像処理装置において前記標準パターンを記憶する必要がなく、受信した標準パターンに基づいて、撮像装置が撮像した画像データより該撮像装置の撮像領域を判定することができ、撮像装置の撮像領域に応じて前記撮像装置が撮像した画像データを処理して表示する画像表示方法、及び画像表示システムを提供することにある。   Another object of the present invention is to receive the standard pattern from the storage device storing the standard pattern and compare the pattern extracted from the image data captured by the imaging device with the received standard pattern. Since the imaging region of the imaging device can be determined from the image data captured by the additionally mounted imaging device or the imaging device whose mounting position has been changed, and image processing according to the imaging region can be performed. It is not necessary to use a predetermined image processing control program for each image, and it is not necessary to store the standard pattern in the image processing apparatus. Based on the received standard pattern, the image data is captured from the image data captured by the imaging apparatus. An image that can determine the imaging region of the device, and that processes and displays image data captured by the imaging device according to the imaging region of the imaging device How to Display, and to provide an image display system.

また、本発明の他の目的は、撮像装置が撮像した画像データを、前記標準パターンを記憶する記憶手段を有する処理装置へ送信し、該処理装置は受信した画像データから輝度又は色度などのパターンを抽出し、抽出したパターンと記憶された標準パターンとを比較し、抽出したパターンに近似する標準パターンに対応する撮像領域を判定し、判定結果を前記画像処理装置へ送信することにより、追加搭載された撮像装置又は、搭載位置が変更された撮像装置が撮像した画像データから該撮像装置の撮像領域を判定して、該撮像領域に応じた画像処理を行うことができるため、車両ごとに予め定められた画像処理制御プログラムを用いる必要がなく、撮像装置の撮像領域に応じて前記撮像装置が撮像した画像データを処理して表示する画像表示方法、画像表示システム、及び該画像表示システムを構成する画像処理装置を提供することにある。   Another object of the present invention is to transmit image data picked up by an image pickup device to a processing device having storage means for storing the standard pattern, and the processing device uses the received image data such as brightness or chromaticity. Added by extracting the pattern, comparing the extracted pattern with the stored standard pattern, determining the imaging area corresponding to the standard pattern that approximates the extracted pattern, and transmitting the determination result to the image processing device Since it is possible to determine the imaging region of the imaging device from the image data captured by the mounted imaging device or the imaging device whose mounting position has been changed and perform image processing according to the imaging region, for each vehicle Image display that processes and displays image data captured by the imaging device according to the imaging area of the imaging device without using a predetermined image processing control program Law, is to provide an image processing apparatus constituting the image display system, and the image display system.

本発明に係る画像表示方法は、車両の外界を撮像する撮像装置が撮像した画像データを、該撮像装置の撮像領域に応じた画像処理をする画像処理装置が処理した画像データを表示する画像表示方法において、前記画像処理装置は、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶し、撮像装置が撮像した画像データと前記標準パターンとを比較して前記撮像装置の撮像領域を判定することを特徴とする。   The image display method according to the present invention is an image display that displays image data processed by an image processing device that performs image processing according to an imaging region of the imaging device, image data captured by an imaging device that captures the outside of a vehicle. In the method, the image processing device stores a standard pattern predetermined according to an imaging region of the imaging device, compares the image data captured by the imaging device with the standard pattern, and determines the imaging region of the imaging device. It is characterized by determining.

また、本発明に係る画像表示方法は、車両の外界を撮像する撮像装置が撮像した画像データを、該撮像装置の撮像領域に応じた画像処理をする画像処理装置が処理した画像データを表示する画像表示方法において、前記画像処理装置は、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶装置から前記標準パターンを受信し、受信した標準パターンを記憶し、撮像装置が撮像した画像データと記憶した標準パターンとを比較して前記撮像装置の撮像領域を判定することを特徴とする。   The image display method according to the present invention displays image data processed by an image processing apparatus that performs image processing according to an imaging region of the imaging apparatus, with respect to image data captured by an imaging apparatus that captures the outside of the vehicle. In the image display method, the image processing device receives the standard pattern from a storage device that stores a predetermined standard pattern according to an imaging region of the imaging device, stores the received standard pattern, and the imaging device captures an image. The imaging area of the imaging apparatus is determined by comparing the obtained image data with the stored standard pattern.

また、本発明に係る画像表示方法は、前記画像処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとが有する輝度又は色度が一致する画素数を計数し、計数値が撮像装置の撮像領域に応じて予め定められた閾値を越える場合は、前記画像データを撮像した撮像装置の撮像領域は、前記閾値に対応する撮像領域であると判定することを特徴とする。   Further, in the image display method according to the present invention, the image processing device calculates the number of pixels having the same luminance or chromaticity in the luminance or chromaticity pattern extracted from the image data captured by the imaging device and the standard pattern. If the count value exceeds a predetermined threshold according to the imaging area of the imaging device, the imaging area of the imaging device that captured the image data is determined to be an imaging area corresponding to the threshold value. It is characterized by.

また、本発明に係る画像表示方法は、前記画像処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとの距離を算出し、算出値が予め定められた閾値より小さい場合は、前記画像データを撮像した撮像装置の撮像領域は、前記標準パターンに対応する撮像領域であると判定することを特徴とする。   In the image display method according to the present invention, the image processing device calculates a distance between the luminance or chromaticity pattern extracted from the image data captured by the imaging device and the standard pattern, and the calculated value is determined in advance. If it is smaller than the threshold value, it is determined that the imaging area of the imaging device that has captured the image data is an imaging area corresponding to the standard pattern.

また、本発明に係る画像表示方法は、車両の外界を撮像する撮像装置が撮像した画像データを、該撮像装置の撮像領域に応じた画像処理をする画像処理装置が処理した画像データを表示する画像表示方法において、前記画像処理装置は、撮像装置が撮像した画像データを、前記撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶手段を有する処理装置へ送信し、前記処理装置は、送信された画像データを受信し、受信した画像データと前記標準パターンとを比較して、前記画像データを撮像した撮像装置の撮像領域を判定し、判定結果を前記画像処理装置へ送信し、前記画像処理装置は、さらに、前記判定結果を受信することを特徴とする。   The image display method according to the present invention displays image data processed by an image processing apparatus that performs image processing according to an imaging region of the imaging apparatus, with respect to image data captured by an imaging apparatus that captures the outside of the vehicle. In the image display method, the image processing apparatus transmits the image data captured by the imaging apparatus to a processing apparatus having a storage unit that stores a standard pattern predetermined according to an imaging area of the imaging apparatus, and the processing The apparatus receives the transmitted image data, compares the received image data with the standard pattern, determines an imaging region of the imaging apparatus that captured the image data, and transmits a determination result to the image processing apparatus. The image processing apparatus further receives the determination result.

また、本発明に係る画像表示方法は、前記処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとが有する輝度又は色度が一致する画素数を計数し、計数値が撮像装置の撮像領域に応じて予め定められた閾値を越える場合は、前記画像データを撮像した撮像装置の撮像領域は、前記閾値に対応する撮像領域であると判定することを特徴とする。   In the image display method according to the present invention, the processing device counts the number of pixels having the same luminance or chromaticity in the luminance or chromaticity pattern extracted from the image data captured by the imaging device and the standard pattern. When the count value exceeds a predetermined threshold according to the imaging area of the imaging device, it is determined that the imaging area of the imaging device that captured the image data is an imaging area corresponding to the threshold. Features.

また、本発明に係る画像表示方法は、前記処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとの距離を算出し、算出値が予め定められた閾値より小さい場合は、前記画像データを撮像した撮像装置の撮像領域は、前記標準パターンに対応する撮像領域であると判定することを特徴とする。   In the image display method according to the present invention, the processing device calculates a distance between a luminance or chromaticity pattern extracted from image data captured by the imaging device and the standard pattern, and a calculated value is predetermined. When smaller than a threshold value, it is determined that an imaging area of an imaging apparatus that has captured the image data is an imaging area corresponding to the standard pattern.

また、本発明に係る画像表示システムは、車両の外界を撮像する撮像装置と、該撮像装置が撮像した画像データを該撮像装置の撮像領域に応じた画像処理をする画像処理装置と、該画像処理装置が処理した画像データを表示する表示装置とを備える画像表示システムにおいて、前記画像処理装置は、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶手段と、撮像装置が撮像した画像データと前記標準パターンとを比較して前記撮像装置の撮像領域を判定する判定手段とを備えたことを特徴とする。   In addition, an image display system according to the present invention includes an imaging device that captures an external environment of a vehicle, an image processing device that performs image processing on image data captured by the imaging device in accordance with an imaging region of the imaging device, and the image In an image display system including a display device that displays image data processed by a processing device, the image processing device includes a storage unit that stores a standard pattern that is predetermined according to an imaging region of the imaging device, and an imaging device. The image processing apparatus includes a determination unit that compares the captured image data with the standard pattern to determine an imaging region of the imaging apparatus.

また、本発明に係る画像表示システムは、車両の外界を撮像する撮像装置と、該撮像装置が撮像した画像データを該撮像装置の撮像領域に応じた画像処理をする画像処理装置と、該画像処理装置が処理した画像データを表示する表示装置とを備える画像表示システムにおいて、前記画像処理装置は、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶装置から前記標準パターンを受信する受信手段と、受信した標準パターンを記憶する記憶手段と、撮像装置が撮像した画像データと前記標準パターンとを比較して前記撮像装置の撮像領域を判定する判定手段とを備えたことを特徴とする。   In addition, an image display system according to the present invention includes an imaging device that captures an external environment of a vehicle, an image processing device that performs image processing on image data captured by the imaging device in accordance with an imaging region of the imaging device, and the image In an image display system including a display device that displays image data processed by a processing device, the image processing device stores the standard pattern from a storage device that stores a standard pattern predetermined according to an imaging region of the imaging device. Receiving means for receiving, storage means for storing the received standard pattern, and determination means for comparing the image data captured by the imaging apparatus and the standard pattern to determine the imaging area of the imaging apparatus. Features.

また、本発明に係る画像表示システムは、車両の外界を撮像する撮像装置と、該撮像装置が撮像した画像データを該撮像装置の撮像領域に応じた画像処理をする画像処理装置と、該画像処理装置が処理した画像データを表示する表示装置とを備える画像表示システムにおいて、前記画像処理装置は、撮像装置が撮像した画像データを、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶手段を有する処理装置へ送信する送信手段を備え、前記処理装置は、送信された画像データを受信する受信手段と、受信した画像データと前記標準パターンとを比較して、前記画像データを取り込んだ撮像装置の撮像領域を判定する判定手段と、該判定手段が判定した判定結果を前記画像処理装置へ送信する送信手段とを備え、前記画像処理装置は、さらに、前記判定結果を受信する受信手段を備えたことを特徴とする。   In addition, an image display system according to the present invention includes an imaging device that captures an external environment of a vehicle, an image processing device that performs image processing on image data captured by the imaging device in accordance with an imaging region of the imaging device, and the image In an image display system including a display device that displays image data processed by a processing device, the image processing device uses image data captured by the imaging device as a standard pattern determined in advance according to an imaging region of the imaging device. Transmission means for transmitting to a processing device having storage means for storing, wherein the processing device compares the received image data with the standard pattern, receiving means for receiving the transmitted image data, and the image data Determination means for determining the imaging region of the imaging apparatus that has captured the image, and transmission means for transmitting the determination result determined by the determination means to the image processing apparatus, Processing apparatus further characterized by comprising a receiving means for receiving the determination result.

また、本発明に係る画像表示システムは、前記判定手段は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとが有する輝度又は色度が一致する画素数を計数し、計数値が撮像装置の撮像領域に応じて予め定められた閾値を越える場合は、前記画像データを撮像した撮像装置の撮像領域は、前記閾値に対応する撮像領域であると判定することを特徴とする。   In the image display system according to the present invention, the determination unit counts the number of pixels in which the luminance or chromaticity pattern and the standard pattern have the same luminance or chromaticity extracted from the image data captured by the imaging device. When the count value exceeds a predetermined threshold according to the imaging area of the imaging device, it is determined that the imaging area of the imaging device that captured the image data is an imaging area corresponding to the threshold. Features.

また、本発明に係る画像表示システムは、前記判定手段は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとの距離を算出し、算出値が予め定められた閾値より小さい場合は、前記画像データを撮像した撮像装置の撮像領域は、前記標準パターンに対応する撮像領域であると判定することを特徴とする。   In the image display system according to the present invention, the determination unit calculates a distance between the luminance or chromaticity pattern extracted from the image data captured by the imaging device and the standard pattern, and the calculated value is predetermined. When smaller than a threshold value, it is determined that an imaging area of an imaging apparatus that has captured the image data is an imaging area corresponding to the standard pattern.

また、本発明に係る画像処理装置は、取り込んだ画像データを画像処理する画像処理装置において、予め定められた標準パターンを記憶する記憶手段と、取り込んだ画像データと前記標準パターンとを比較する比較手段と、前記比較手段が比較した結果に基づいて、取り込んだ画像データを画像処理することを特徴とする。   The image processing apparatus according to the present invention includes a storage unit that stores a predetermined standard pattern and a comparison that compares the captured image data with the standard pattern in an image processing apparatus that performs image processing on the captured image data. The captured image data is subjected to image processing on the basis of the result of comparison between the means and the comparison means.

第1の発明、第8の発明及び第13の発明にあっては、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶しておき、撮像装置が撮像した画像データと前記標準パターンとを比較し、前記画像データと近似する標準パターンを判定することにより、前記撮像装置が撮像した撮像領域を判定することができる。このため、車両に搭載されている撮像装置に、さらに別の撮像装置を追加搭載する場合は、追加搭載された撮像装置が撮像した画像データに基づいて、該撮像装置が撮像した撮像領域を判定することができ、予め定められた画像処理制御プログラムを用いる必要がなく、車両に搭載された撮像装置の撮像領域に応じて、画像処理した画像データを表示することができる。
また、車両に搭載されていた撮像装置を車両の別の搭載位置へ変更する場合は、別の搭載位置へ変更された撮像装置が撮像した画像データに基づいて、該撮像装置が撮像した撮像領域を判定することができ、予め定められた画像処理制御プログラムを用いる必要がなく、車両に搭載された撮像装置の撮像領域に応じて、画像処理した画像データを表示することができる。
In the first invention, the eighth invention and the thirteenth invention, a standard pattern predetermined according to the imaging region of the imaging device is stored, and the image data captured by the imaging device and the standard pattern are stored. And a standard pattern approximate to the image data can be determined to determine the imaging region captured by the imaging device. For this reason, when another imaging device is additionally mounted on the imaging device mounted on the vehicle, the imaging region captured by the imaging device is determined based on the image data captured by the additionally mounted imaging device. Therefore, it is not necessary to use a predetermined image processing control program, and image data subjected to image processing can be displayed according to the imaging region of the imaging device mounted on the vehicle.
Further, when changing the imaging device mounted on the vehicle to another mounting position of the vehicle, the imaging area captured by the imaging device based on the image data captured by the imaging device changed to another mounting position Therefore, it is not necessary to use a predetermined image processing control program, and image data subjected to image processing can be displayed according to the imaging region of the imaging device mounted on the vehicle.

第2の発明及び第9の発明にあっては、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶した記憶装置から、該標準パターンを受信し、撮像装置が撮像した画像データと受信した標準パターンとを比較し、前記画像データと近似する標準パターンを判定することにより、前記撮像装置が撮像した撮像領域を判定することができる。このため、車両に搭載されている撮像装置に、さらに別の撮像装置を追加搭載する場合は、追加搭載された撮像装置が撮像した画像データに基づいて、該撮像装置が撮像した撮像領域を判定することができ、予め定められた画像処理制御プログラムを用いる必要がなく、また、標準パターンを画像処理装置に記憶する必要がなく、車両に搭載された撮像装置の撮像領域に応じて、画像処理した画像データを表示することができる。
また、車両に搭載されていた撮像装置を車両の別の搭載位置へ変更する場合は、別の搭載位置へ変更された撮像装置が撮像した画像データに基づいて、該撮像装置が撮像した撮像領域を判定することができ、予め定められた画像処理制御プログラムを用いる必要がなく、また、標準パターンを画像処理装置に記憶する必要がなく、車両に搭載された撮像装置の撮像領域に応じて、画像処理した画像データを表示することができる。
In the second and ninth aspects of the invention, the standard pattern is received from a storage device that stores a standard pattern predetermined according to the imaging area of the imaging device, and the image data captured by the imaging device By comparing the received standard pattern and determining a standard pattern that approximates the image data, it is possible to determine the imaging region captured by the imaging device. For this reason, when another imaging device is additionally mounted on the imaging device mounted on the vehicle, the imaging region captured by the imaging device is determined based on image data captured by the additionally mounted imaging device. It is not necessary to use a predetermined image processing control program, and it is not necessary to store a standard pattern in the image processing device, and image processing is performed according to the imaging area of the imaging device mounted on the vehicle. Displayed image data can be displayed.
In addition, when changing the imaging device mounted on the vehicle to another mounting position of the vehicle, the imaging area captured by the imaging device based on image data captured by the imaging device changed to another mounting position It is not necessary to use a predetermined image processing control program, and it is not necessary to store a standard pattern in the image processing device, depending on the imaging area of the imaging device mounted on the vehicle, Image processed image data can be displayed.

第5の発明及び第10の発明にあっては、前記画像処理装置は、撮像装置が撮像した画像データを前記処理装置へ送信し、該処理装置は受信した画像データと予め定められた標準パターンとを比較して、前記撮像装置の撮像領域を判定し、判定結果を前記画像処理装置へ送信し、前記画像処理装置は、前記判定結果を受信することができる。このため、車両に搭載されている撮像装置に、さらに別の撮像装置を追加搭載する場合は、追加搭載された撮像装置が撮像した画像データに基づいて、前記処理装置が撮像領域を判定して、判定結果を前記画像処理装置へ送信することができ、予め定められた画像処理制御プログラムを用いる必要がなく、また、車両ごとに撮像領域を判定する判定手段を設ける必要がなく、車両に搭載された撮像装置の撮像領域に応じて、画像処理した画像データを表示することができる。
また、車両に搭載されていた撮像装置を車両の別の搭載位置へ変更する場合は、別の搭載位置へ変更された撮像装置が撮像した画像データに基づいて、前記処理装置が撮像領域を判定して、判定結果を前記画像処理装置へ送信することができ、予め定められた画像処理制御プログラムを用いる必要がなく、また、車両ごとに撮像領域を判定する判定手段を設ける必要がなく、車両に搭載された撮像装置の撮像領域に応じて、画像処理した画像データを表示することができる。
In the fifth and tenth inventions, the image processing device transmits image data captured by the imaging device to the processing device, and the processing device receives the received image data and a predetermined standard pattern. , The imaging region of the imaging device is determined, the determination result is transmitted to the image processing device, and the image processing device can receive the determination result. For this reason, when another imaging device is additionally mounted on the imaging device mounted on the vehicle, the processing device determines the imaging region based on image data captured by the additionally mounted imaging device. The determination result can be transmitted to the image processing apparatus, and there is no need to use a predetermined image processing control program, and there is no need to provide a determination means for determining an imaging area for each vehicle. The image data subjected to image processing can be displayed in accordance with the imaging region of the imaging device that has been selected.
Further, when the imaging device mounted on the vehicle is changed to another mounting position of the vehicle, the processing device determines the imaging area based on image data captured by the imaging device changed to another mounting position. Thus, the determination result can be transmitted to the image processing apparatus, and there is no need to use a predetermined image processing control program, and there is no need to provide a determination means for determining an imaging region for each vehicle. The image data subjected to image processing can be displayed in accordance with the imaging region of the imaging device mounted on the.

第3の発明、第6の発明及び第11の発明にあっては、抽出した輝度又は色度のパターンと前記標準パターンとが有する輝度又は色度の一致する画素数を計数し、計数値と撮像装置の撮像領域に対応する閾値とを比較することにより、撮像装置の撮像領域を判定することができる。   In the third invention, the sixth invention, and the eleventh invention, the number of pixels having the same luminance or chromaticity in the extracted luminance or chromaticity pattern and the standard pattern is counted, The imaging area of the imaging device can be determined by comparing the threshold corresponding to the imaging area of the imaging device.

第4の発明、第7の発明及び第12の発明にあっては、抽出した輝度又は色度のパターンと前記標準パターンとの距離を算出し、算出値と予め定められた閾値とを比較することにより、撮像装置の撮像領域を判定することができる。   In the fourth, seventh and twelfth inventions, the distance between the extracted luminance or chromaticity pattern and the standard pattern is calculated, and the calculated value is compared with a predetermined threshold value. Thereby, the imaging region of the imaging device can be determined.

本発明にあっては、撮像装置が撮像した画像データに基づいて、搭載されている撮像装置の撮像領域を判定し、判定結果に基づいて、前記撮像装置が撮像した画像データに対して画像処理を行い、画像処理された画像データを表示するため、車両に撮像装置を追加搭載する場合、又は車両に搭載されていた撮像装置を別の搭載位置へ変更する場合であっても、予め定められた画像処理制御プログラムを用いる必要が無く、撮像装置ごとに該撮像装置が撮像した画像データの画像処理を行い、画像処理した画像データの表示をすることができる。   In the present invention, the imaging region of the mounted imaging device is determined based on the image data captured by the imaging device, and image processing is performed on the image data captured by the imaging device based on the determination result. In order to display image data that has been subjected to image processing, even when an additional imaging device is mounted on the vehicle, or when the imaging device mounted on the vehicle is changed to another mounting position, it is determined in advance. The image processing control program need not be used, and image processing of the image data captured by the image capturing apparatus can be performed for each image capturing apparatus, and the image processed image data can be displayed.

本発明にあっては、前記撮像装置の撮像領域を判定するための標準パターンを記憶装置に記憶し、必要に応じて前記記憶装置から前記標準パターンを受信することにより、前記画像処理装置に前記標準パターンを記憶しておく必要がない。このため、撮像装置に対応する種々の標準画像パターンを追加するために前記画像処理装置に変更を加える必要がなく、新規の撮像装置に対して、該撮像装置の撮像領域に応じて、該撮像装置が撮像した画像データに対して画像処理を行い、画像処理された画像データを表示することができる。   In the present invention, a standard pattern for determining an imaging region of the imaging device is stored in a storage device, and the standard pattern is received from the storage device as necessary, so that the image processing device receives the standard pattern. There is no need to memorize a standard pattern. For this reason, it is not necessary to change the image processing device in order to add various standard image patterns corresponding to the imaging device, and for the new imaging device, the imaging is performed according to the imaging area of the imaging device. Image processing can be performed on image data captured by the apparatus, and the image processed image data can be displayed.

本発明にあっては、撮像装置が撮像した画像データを、前記処理装置へ送信することにより、該処理装置が前記撮像装置の撮像領域を判定するため、前記画像処理装置に前記判定手段を設ける必要がなく、新規の撮像装置に対しても容易に撮像装置の撮像領域の判定を行うことができ、前記撮像装置の撮像領域に応じて、該撮像装置が撮像した画像データに対して画像処理を行い、画像処理された画像データを表示することができる。   In the present invention, the image processing device is provided with the determination means for transmitting the image data captured by the image capturing device to the processing device so that the processing device determines the image capturing area of the image capturing device. The imaging region of the imaging device can be easily determined even for a new imaging device, and image processing is performed on image data captured by the imaging device according to the imaging region of the imaging device. The image data after image processing can be displayed.

実施の形態1
図1は本発明に係る画像表示システムの概要を示す模式図である。図において、1、2、3、及び4は車両に搭載された撮像装置であるビデオカメラであり、1は全方位監視用のビデオカメラ、2は後方監視用のビデオカメラ、3は右左折監視用のビデオカメラ、4は前方監視用のビデオカメラである。
Embodiment 1
FIG. 1 is a schematic diagram showing an outline of an image display system according to the present invention. In the figure, 1, 2, 3, and 4 are video cameras that are imaging devices mounted on a vehicle, 1 is a video camera for omnidirectional monitoring, 2 is a video camera for backward monitoring, and 3 is monitoring for turning left and right. 4 is a video camera for forward monitoring.

全方位監視用のビデオカメラ1は、操舵輪の位置(車両の右側又は左側)に応じて、車両の左側又は右側のドアミラーの下部に搭載され、レンズの光軸が鉛直方向上向きに設置されたビデオカメラと、該ビデオカメラの上側に設置され、前記光軸上方向に拡径した円錐形状の外周に鏡面とを有している。360度全周囲からの光が前記鏡面で反射され、前記ビデオカメラのレンズに収束することにより、全方位監視用のビデオカメラ1は、360度全方位の外界を撮像することができ、車両の前方視界及び直前側方運転視界などを確保するために用いられる。   The omnidirectional video camera 1 is mounted below the left or right door mirror of the vehicle according to the position of the steering wheel (right or left side of the vehicle), and the optical axis of the lens is installed vertically upward. A video camera is provided on the upper side of the video camera and has a mirror surface on the outer periphery of a cone shape whose diameter is increased in the upward direction of the optical axis. The light from all around 360 degrees is reflected by the mirror surface and converges on the lens of the video camera, so that the video camera 1 for omnidirectional monitoring can take an image of the outside world in 360 degrees, It is used to secure the front view and the immediately preceding side driving view.

後方監視用のビデオカメラ2は、広角レンズを備えたビデオカメラであり、車両の後方を撮像するために車両後部のバンパ中央部に搭載されてあり、前記広角レンズの光軸は、車両の後方略水平方向に配置されている。後方監視用のビデオカメラ2は、車両を後進する際の後方視界を確保するために用いられる。   The rear-view video camera 2 is a video camera provided with a wide-angle lens, and is mounted in the center of a bumper at the rear of the vehicle for imaging the rear of the vehicle. The optical axis of the wide-angle lens is It is arranged in a substantially horizontal direction. The rear-view video camera 2 is used to secure a rear view when the vehicle is moved backward.

右左折監視用のビデオカメラ3は、車両の前方左右方向を撮像するために車両の前部バンパの中央部に搭載され、ビデオカメラのレンズの光軸は、車両の前方略水平方向に配置されている。前記光軸を挟んで左右水平方向に1組のプリズムが、車両の左右方向からの光を、前記レンズに収束させるように配置されている。右左折監視用のビデオカメラ3は、車両の進行中に、見通しの悪い交差点における左右から接近する車両を確認するために用いられる。   The left and right turn monitoring video camera 3 is mounted in the center of the front bumper of the vehicle to capture the front left and right direction of the vehicle, and the optical axis of the video camera lens is arranged in a substantially horizontal direction in front of the vehicle. ing. A pair of prisms in the horizontal direction across the optical axis is disposed so as to converge light from the horizontal direction of the vehicle onto the lens. The video camera 3 for monitoring the right / left turn is used to check a vehicle approaching from the left and right at an intersection with poor visibility while the vehicle is traveling.

前方監視用のビデオカメラ4は、車両の前方を撮像するために前窓部に搭載され、車両の進行方向の監視などに用いられる。このように、車両に搭載されるビデオカメラ1、2、3、4は、車両における搭載場所に応じて撮像領域(前方、直前側方、左右、後方など)が異なり、撮像領域に応じて車両の運転に必要な映像を取得できるようにしている。   The video camera 4 for front monitoring is mounted on the front window portion to image the front of the vehicle, and is used for monitoring the traveling direction of the vehicle. As described above, the video cameras 1, 2, 3, and 4 mounted on the vehicle have different imaging areas (front, right side, left and right, rear, and the like) depending on the mounting location in the vehicle, and the vehicle depends on the imaging area. The video necessary for driving is acquired.

ビデオカメラ1、2、3、4は、IEEE1394に準拠した車載LAN通信線30に接続され、中継機7、7を介して、画像処理装置5に接続されている。また、画像処理装置5には、操作部を有する表示装置6が接続されている。ビデオカメラ1、2、3、4で撮像された画像データは、画像処理装置5へ出力され、画像処理装置5は、撮像された画像データに対して、夫々のビデオカメラ1、2、3、4の撮像領域に対応した画像処理を行い、表示装置6に表示することにより、運転者の運転を支援する。また、運転者の操作により、それぞれのビデオカメラ1、2、3、4が撮像した画像を切り替えて表示装置6に表示することが可能である。   The video cameras 1, 2, 3, and 4 are connected to an in-vehicle LAN communication line 30 that conforms to IEEE 1394, and are connected to the image processing device 5 via relays 7 and 7. In addition, a display device 6 having an operation unit is connected to the image processing device 5. Image data captured by the video cameras 1, 2, 3, and 4 is output to the image processing device 5, and each of the video cameras 1, 2, 3, The image processing corresponding to the four imaging regions is performed and displayed on the display device 6 to assist the driver in driving. Further, it is possible to switch the images captured by the respective video cameras 1, 2, 3, 4 and display them on the display device 6 by the operation of the driver.

図2は、ビデオカメラ1の構成を示すブロック図である。図において、11は画像読取部であり、光学信号を電気信号に変換するCCD(Charge Coupled Device)が配置され、車両の外界の光学信号をRGB(R:赤、G:緑、B:青)のアナログ信号として読み取り、読み取ったRGB信号を、内部バス17を介して信号処理部12へ出力する。   FIG. 2 is a block diagram showing the configuration of the video camera 1. In the figure, reference numeral 11 denotes an image reading unit, which is provided with a CCD (Charge Coupled Device) for converting an optical signal into an electric signal, and RGB (R: red, G: green, B: blue). The read RGB signal is output to the signal processing unit 12 via the internal bus 17.

信号処理部12は、画像読取部11から入力されたRGBのアナログ信号をRGBのデジタル信号に変換し、光学系で生じた各種の歪みを取り除くための処理、低周波ノイズの除去処理、ガンマ特性を補正する補正処理などを行う。さらに、RGB信号をYUV(Y:輝度、U、V:色差)信号に変換し、変換したYUV信号を画像データとして一旦画像メモリ16へ記憶する。   The signal processing unit 12 converts RGB analog signals input from the image reading unit 11 into RGB digital signals, processing for removing various distortions generated in the optical system, low-frequency noise removal processing, gamma characteristics Perform correction processing to correct Further, the RGB signal is converted into a YUV (Y: luminance, U, V: color difference) signal, and the converted YUV signal is temporarily stored in the image memory 16 as image data.

インターフェース部13は、LAN通信線30を介して画像処理装置5と通信を行い、画像処理装置5から送信される指令に従って、画像メモリ16に記憶された画像データを画像処理装置5へ出力するための制御、ビデオカメラ1で撮像した画像の解像度による転送レートの変換、画像データからパケットデータの作成などを行う。また、インターフェース部13は、制御部14の制御に従って、画像メモリ16に記憶された画像データを画像処理装置5へ出力する。   The interface unit 13 communicates with the image processing device 5 via the LAN communication line 30 and outputs image data stored in the image memory 16 to the image processing device 5 in accordance with a command transmitted from the image processing device 5. Control, conversion of the transfer rate according to the resolution of the image captured by the video camera 1, creation of packet data from the image data, and the like. Further, the interface unit 13 outputs the image data stored in the image memory 16 to the image processing device 5 under the control of the control unit 14.

制御部14は、記憶部15に記憶されたプログラムを実行することにより、画像読取部11、信号処理部12、インターフェース部13の処理を制御する。ビデオカメラ2、3、4も同様の構成を有する。
なお、従来の画像表示システムにおいても上述の構成と同様の構成を有する。
The control unit 14 controls processing of the image reading unit 11, the signal processing unit 12, and the interface unit 13 by executing a program stored in the storage unit 15. The video cameras 2, 3, and 4 have the same configuration.
The conventional image display system has the same configuration as that described above.

図3は、画像処理装置5の構成を示すブロック図である。図において、51はインターフェース部であり、ビデオカメラ1、2、3、及び4に対する指令の転送、ビデオカメラ1、2、3、4からの画像データの転送などを行い、入力された画像データを画像メモリ52へ出力する。   FIG. 3 is a block diagram illustrating a configuration of the image processing apparatus 5. In the figure, reference numeral 51 denotes an interface unit that transfers instructions to the video cameras 1, 2, 3, and 4, transfers image data from the video cameras 1, 2, 3, 4, and the like. The image is output to the image memory 52.

画像メモリ52は、インターフェース部51から入力されたビデオカメラ1、2、3、4ごとの画像データをフレーム単位で一旦記憶する。   The image memory 52 temporarily stores the image data for each of the video cameras 1, 2, 3, 4 input from the interface unit 51 in units of frames.

画像処理部53は、画像メモリ52に記憶された1フレーム分の画像データを読み出し、読み出した画像データから輝度又は色度のパターンを抽出し、抽出したパターンと、ビデオカメラごとの撮像領域に対応して予め定められた輝度又は色度の標準パターンと比較し、近似する標準パターンを判定することにより、車両に搭載されているビデオカメラ1、2、3、4の撮像領域を判定し、判定結果をCPU54へ出力する。   The image processing unit 53 reads one frame of image data stored in the image memory 52, extracts a luminance or chromaticity pattern from the read image data, and corresponds to the extracted pattern and an imaging area for each video camera. The image area of the video camera 1, 2, 3, 4 mounted on the vehicle is determined by determining the approximate standard pattern by comparing with a standard pattern of brightness or chromaticity determined in advance, and determining The result is output to the CPU 54.

また、画像処理部53は、画像メモリ52に記憶された1フレーム分の画像データを読み出し、上述の判定結果に基づいて、ビデオカメラ1、2、3、4の撮像領域に応じて、前記画像データに対してパノラマ表示、鳥瞰表示などの画像処理を行い、処理された画像を、フレーム単位で画像メモリ52へ一旦記憶する。   In addition, the image processing unit 53 reads out image data for one frame stored in the image memory 52, and the image processing unit 53 reads the image data according to the imaging areas of the video cameras 1, 2, 3, and 4 based on the determination result. Image processing such as panoramic display and bird's-eye display is performed on the data, and the processed image is temporarily stored in the image memory 52 in units of frames.

記憶部56は、標準パターン部566、画像変換テーブル部560、及びビデオカメラ構成テーブル部567を備える。
標準パターン部566は、ビデオカメラの撮像領域に対応した輝度又は色度の標準パターンを記憶する。標準パターンは、二値化された輝度により表されるパターンである。
なお、通信部57については後述する。
The storage unit 56 includes a standard pattern unit 566, an image conversion table unit 560, and a video camera configuration table unit 567.
The standard pattern unit 566 stores a standard pattern of luminance or chromaticity corresponding to the imaging area of the video camera. The standard pattern is a pattern represented by binarized luminance.
The communication unit 57 will be described later.

図4は、輝度の標準パターンを示す説明図である。図において、P101は全方位監視用のビデオカメラ1が撮像する撮像領域に対応する標準パターンである。全方位監視用のビデオカメラ1は、360度全方位の撮像領域を略円形の画面に撮像するため、全方位監視用のビデオカメラ1が撮像した画像データは、略円形内の領域は高輝度領域となる一方、略円形外の領域は光が取り込まれず低輝度領域となり、標準パターンP101は、略円形の高輝度(白)領域の外側に低輝度(黒)領域を有する。   FIG. 4 is an explanatory diagram showing a standard pattern of luminance. In the figure, P101 is a standard pattern corresponding to an imaging area captured by the omnidirectional video camera 1. Since the omnidirectional monitoring video camera 1 images a 360-degree omnidirectional imaging region on a substantially circular screen, the image data captured by the omnidirectional monitoring video camera 1 has a high luminance in the region within the substantially circular shape. On the other hand, a region outside the substantially circular shape is a low luminance region where light is not taken in, and the standard pattern P101 has a low luminance (black) region outside the high circular (white) region.

したがって、撮像した画像データと、標準パターンP101の略円形外側の低輝度領域における輝度データとを比較することにより、前記画像データが標準パターンP101に近似する場合は、前記画像データを撮像したビデオカメラは、全方位監視用のビデオカメラ1であると判定することができる。   Therefore, if the image data approximates the standard pattern P101 by comparing the imaged image data with the luminance data in the low-luminance area outside the substantially circular shape of the standard pattern P101, the video camera that has captured the image data Can be determined to be a video camera 1 for omnidirectional monitoring.

標準パターンP102は、後方監視用のビデオカメラ2が撮像する撮像領域に対応する。後方監視用のビデオカメラ2は、車両の後方を撮像する際に車両の後部バンパも撮像するため、後部バンパのエッジ部を検出し高輝度に変換することにより、後方監視用のビデオカメラ2が撮像した画像データは、画面の下側に円弧状の高輝度領域を有することになり、標準パターンP102は、長方形枠内の低輝度(黒)領域内の下側に、画面左側から右側に亘って後部バンパのエッジ部である円弧状の高輝度(白)領域を有する。   The standard pattern P102 corresponds to an imaging area captured by the rear monitoring video camera 2. Since the rear-view video camera 2 captures the rear bumper of the vehicle when imaging the rear of the vehicle, the rear-monitor video camera 2 detects the edge of the rear bumper and converts it to high brightness. The captured image data has an arc-shaped high luminance area on the lower side of the screen, and the standard pattern P102 extends from the left side of the screen to the right side on the lower side in the low luminance (black) area within the rectangular frame. And an arcuate high luminance (white) region which is an edge portion of the rear bumper.

したがって、撮像した画像データと、標準パターンP102の下側の円弧状の高輝度領域における輝度データを比較することにより、前記画像データが標準パターンP102に近似する場合は、前記画像データを撮像したビデオカメラは、後方監視用のビデオカメラ2であると判定することができる。   Therefore, if the image data approximates the standard pattern P102 by comparing the captured image data with the luminance data in the arcuate high luminance area below the standard pattern P102, the video imaged of the image data is captured. The camera can be determined to be the video camera 2 for rear monitoring.

標準パターンP103は、右左折監視用のビデオカメラ3が撮像する撮像領域に対応する。右左折監視用のビデオカメラ3は、車両の前方左右を撮像する際に車両の前部バンパも撮像するため、前部バンパのエッジ部を検出し高輝度に変換することにより、右左折監視用のビデオカメラ3が撮像した画像データは、画面に下側左右の隅に高輝度領域を有することになり、標準パターンP103は、長方形枠内の低輝度(黒)領域内の左右下側各々に、前部バンパのエッジ部である直線状の高輝度(白)領域を有する。   The standard pattern P103 corresponds to an imaging region captured by the video camera 3 for monitoring the left / right turn. The left and right turn monitoring video camera 3 also picks up the front bumper of the vehicle when picking up the front left and right of the vehicle, and therefore detects the edge of the front bumper and converts it to high brightness to The image data captured by the video camera 3 has high brightness areas at the lower left and right corners on the screen, and the standard pattern P103 is on the lower left and right sides in the low brightness (black) area within the rectangular frame. And a linear high brightness (white) region which is an edge portion of the front bumper.

したがって、撮像した画像データと、標準パターンP103の下側の直線状の高輝度領域における輝度データを比較することにより、前記画像データが標準パターンP103に近似する場合は、前記画像データを撮像したビデオカメラは、右左折監視用のビデオカメラ3であると判定することができる。   Therefore, if the image data approximates the standard pattern P103 by comparing the captured image data with the luminance data in the linear high luminance area below the standard pattern P103, the video imaged of the image data is captured. It can be determined that the camera is a video camera 3 for monitoring a left / right turn.

画像変換テーブル部560は、ビデオカメラ1、2、3、4が撮像した画像データを、パノラマ表示処理、鳥瞰表示処理などの画像処理を行うために使用する画像変換テーブルを記憶する。
ビデオカメラ構成テーブル部567は、車両に搭載されたビデオカメラ1、2、3、4が撮像した画像データを画像処理装置5へ出力する際、出力される各ビデオカメラに固有の識別番号を各ビデオカメラの撮像領域を関連付けて記憶する。
The image conversion table unit 560 stores an image conversion table used to perform image processing such as panorama display processing and bird's-eye display processing on image data captured by the video cameras 1, 2, 3, and 4.
When the video camera configuration table unit 567 outputs image data captured by the video cameras 1, 2, 3, and 4 mounted on the vehicle to the image processing device 5, an identification number unique to each video camera to be output is displayed. The imaging area of the video camera is associated and stored.

入出力部55は、画像処理部53で画像処理された画像データを画像メモリ52から読み出し、表示装置6へ出力することにより、表示装置6に画像処理された画像データが表示される。
また、車両の運転者が表示装置6に備えられた操作部を操作することにより、ビデオカメラ1、2、3、4が撮像した画像のうち、いずれの画像を表示するか切り替えることが可能である。
The input / output unit 55 reads out the image data processed by the image processing unit 53 from the image memory 52 and outputs it to the display device 6, whereby the image data subjected to the image processing is displayed on the display device 6.
Moreover, it is possible to switch which image is displayed among the images captured by the video cameras 1, 2, 3, and 4 by operating the operation unit provided in the display device 6 by the driver of the vehicle. is there.

また、入出力部55は、速度センサー、クラッチスイッチ、ウインカーなどから車両の速度、進行方向などの車両状態信号を受け取ると、該車両状態信号をCPU54へ出力し、CPU54は、前記車両状態信号に応じて、ビデオカメラ1、2、3、4が撮像した画像データの中から表示装置6に表示する画像データを切り替える。例えば、車両が低速に減速されるとともに、ウインカーが作動した場合は、右左折監視用のビデオカメラ3からの画像を表示するように切り替え、また、車両が後進した場合は、後方監視用のビデオカメラ2からの画像を表示するように切り替える。   When the input / output unit 55 receives a vehicle state signal such as a vehicle speed and a traveling direction from a speed sensor, a clutch switch, a turn signal, etc., the input / output unit 55 outputs the vehicle state signal to the CPU 54, and the CPU 54 outputs the vehicle state signal. In response, the image data to be displayed on the display device 6 is switched from the image data captured by the video cameras 1, 2, 3, and 4. For example, when the vehicle is decelerated to a low speed and the blinker is activated, the video is switched to display an image from the video camera 3 for monitoring the left / right turn. It switches so that the image from the camera 2 may be displayed.

CPU54は、インターフェース部51、画像メモリ52、画像処理部53、入出力部55、記憶部56、後述する通信部57の処理を制御する。58は内部バスである。   The CPU 54 controls processing of the interface unit 51, the image memory 52, the image processing unit 53, the input / output unit 55, the storage unit 56, and a communication unit 57 described later. 58 is an internal bus.

図5は、画像処理部53の構成を示すブロック図である。図において、531は輝度抽出部であり、画像メモリ52から読み出された1フレーム分の画像データの各画素の輝度データを抽出する。例えば、1フレームの画像の解像度が、320×240である場合は、76800個の画素数が存在するが、注目画素を中心として複数の画素からなる画素ブロックごとに、前記注目画素の輝度を抽出することにより処理の簡略化ができる。
輝度抽出部531は抽出した輝度データを2値化処理部532及びエッジ検出部533へ出力する。
FIG. 5 is a block diagram illustrating a configuration of the image processing unit 53. In the figure, reference numeral 531 denotes a luminance extraction unit which extracts luminance data of each pixel of image data for one frame read from the image memory 52. For example, when the resolution of an image of one frame is 320 × 240, there are 76800 pixels, but the luminance of the pixel of interest is extracted for each pixel block composed of a plurality of pixels with the pixel of interest at the center. By doing so, the processing can be simplified.
The luminance extraction unit 531 outputs the extracted luminance data to the binarization processing unit 532 and the edge detection unit 533.

2値化処理部532は、入力された1フレーム分の輝度データから、各画素における輝度の平均値を算出し、算出した平均値を閾値として各画素を2値化する。これにより、1フレーム分の画像データを低輝度領域と高輝度領域に分離することができる。2値化処理部532は、2値化輝度データを比較部534へ出力する。   The binarization processing unit 532 calculates an average luminance value for each pixel from the input luminance data for one frame, and binarizes each pixel using the calculated average value as a threshold value. As a result, the image data for one frame can be separated into a low luminance region and a high luminance region. The binarization processing unit 532 outputs the binarized luminance data to the comparison unit 534.

エッジ検出部533は、輝度抽出部531から入力された1フレーム分の輝度データに対して、注目画素の近傍における輝度の階調値の差分を用いた演算を行って差分フィルタを作成し、撮像した画像中の線又は縁を強調する前記差分フィルタによりエッジ検出を行う。エッジ検出部533は、エッジ検出された1フレーム分の輝度データを階調値の差分に応じて高輝度と低輝度とに分離して、分離した輝度データを比較部534へ出力する。   The edge detection unit 533 creates a differential filter by performing an operation using the luminance gradation value difference in the vicinity of the target pixel on the luminance data for one frame input from the luminance extraction unit 531, and performs imaging. Edge detection is performed by the differential filter that emphasizes lines or edges in the image. The edge detection unit 533 separates the luminance data for one frame from which edge detection has been performed into high luminance and low luminance according to the difference in gradation value, and outputs the separated luminance data to the comparison unit 534.

比較部534は、2値化処理部532及びエッジ検出部533から入力された1フレーム分の輝度パターンを示す輝度データと、ビデオカメラの撮像領域に応じた輝度の標準パターンを示す標準輝度データとを比較する。すなわち、2値化及びエッジ検出された輝度データと標準輝度データとの画素ごとに輝度(低輝度又は高輝度)が一致するか否かを比較し、複数の標準輝度データごとに一致する画素数を計数して、計数結果を判定部535へ出力する。   The comparison unit 534 includes luminance data indicating a luminance pattern for one frame input from the binarization processing unit 532 and the edge detection unit 533, and standard luminance data indicating a standard pattern of luminance corresponding to the imaging area of the video camera. Compare That is, whether or not the luminance (low luminance or high luminance) matches for each pixel of the binarized and edge-detected luminance data and the standard luminance data, and the number of pixels that match for each of the plurality of standard luminance data And the counting result is output to the determination unit 535.

判定部535は、比較部534から入力された計数結果と、予め定められた閾値(T101、T102、T103)とを比較し、一致する画素数が所定の閾値(T101、T102、T103)以上である場合は、ビデオカメラの撮像領域は、一致した閾値に対応したビデオカメラの撮像領域であると判定し、判定結果をCPU54へ出力する。いずれの標準パターンにも一致しない場合は、一致する標準パターンが存在しないという結果をCPU54へ出力する。   The determination unit 535 compares the count result input from the comparison unit 534 with a predetermined threshold (T101, T102, T103), and the number of matching pixels is equal to or greater than a predetermined threshold (T101, T102, T103). If there is, it is determined that the imaging area of the video camera is the imaging area of the video camera corresponding to the matched threshold value, and the determination result is output to the CPU 54. If none of the standard patterns match, a result that no matching standard pattern exists is output to the CPU 54.

閾値(T101、T102、T103)夫々は、予め定められた標準パターンP101、P102、P103に対応している。   Each of the threshold values (T101, T102, T103) corresponds to predetermined standard patterns P101, P102, P103.

標準パターンP101の場合は、ビデオカメラが撮像した画像データと、標準パターンP101の略円形外側の低輝度領域の画素数を比較するため、閾値T101は、前記略円形外側の低輝度領域の画素数に設定されている。   In the case of the standard pattern P101, in order to compare the image data captured by the video camera and the number of pixels in the low luminance area outside the substantially circular shape of the standard pattern P101, the threshold T101 is the number of pixels in the low luminance area outside the substantially circular shape. Is set to

標準パターンP102の場合は、ビデオカメラが撮像した画像データと、標準パターンP102の円弧状の高輝度領域の画素数を比較するため、閾値T102は、前記円弧状の高輝度領域の画素数に設定されている。   In the case of the standard pattern P102, the threshold value T102 is set to the number of pixels in the arc-shaped high-intensity area in order to compare the image data captured by the video camera with the number of pixels in the arc-shaped high-intensity area of the standard pattern P102. Has been.

標準パターンP103の場合は、ビデオカメラが撮像した画像データと、標準パターンP103の直線状の高輝度領域の画素数を比較するため、閾値T103は、前記直線状の高輝度領域の画素数に設定されている。
したがって、閾値T101、T102及びT103は、T101>T102>T103の関係を有する。
なお、ビデオカメラの種類に対応して、閾値を変更することも可能である。
In the case of the standard pattern P103, the threshold value T103 is set to the number of pixels in the linear high-brightness area in order to compare the image data captured by the video camera and the number of pixels in the linear high-brightness area of the standard pattern P103. Has been.
Therefore, the threshold values T101, T102, and T103 have a relationship of T101>T102> T103.
Note that the threshold value can be changed according to the type of the video camera.

FPGA(Field Programmable Gate Array)536は、画像メモリ52から入力された1フレーム分の画像データに対して画像処理を行い、画像処理後の画像データを一旦画像メモリ52へ出力する。FPGA(Field Programmable Gate Array)536で行われる画像処理は、CPU54の制御により、記憶部56に記憶された画像変換のための画像変換テーブル部560を読み出すことにより、1フレームごとに行われる。   An FPGA (Field Programmable Gate Array) 536 performs image processing on the image data for one frame input from the image memory 52, and temporarily outputs the image data after the image processing to the image memory 52. Image processing performed by an FPGA (Field Programmable Gate Array) 536 is performed for each frame by reading the image conversion table unit 560 for image conversion stored in the storage unit 56 under the control of the CPU 54.

図6は、記憶部56の構成を示すブロック図である。図において、566は、標準パターン部であり、ビデオカメラの撮像領域に対応して予め定められた輝度又は色度の標準パターンを構成する画像データを記憶する。   FIG. 6 is a block diagram illustrating a configuration of the storage unit 56. In the figure, reference numeral 566 denotes a standard pattern portion, which stores image data constituting a standard pattern having a predetermined luminance or chromaticity corresponding to the imaging area of the video camera.

画像変換テーブル部560は、判定部535の判定結果に基づいて、CPU54の制御により読み出され、FPGA536へ出力され、各ビデオカメラ1、2、3、4により撮像された画像データに対して、変換テーブルを切り替えることにより各ビデオカメラ1、2、3、4の撮像領域に応じて画像処理が行われる。   The image conversion table unit 560 is read out under the control of the CPU 54 based on the determination result of the determination unit 535, is output to the FPGA 536, and is captured by the video cameras 1, 2, 3, 4 Image processing is performed according to the imaging area of each video camera 1, 2, 3, 4 by switching the conversion table.

画像変換テーブル部560の変換テーブルは、表示装置6に表示する画像データの各画素を、ビデオカメラ1、2、3、4が撮像した画像データのどの画素からマッピングするかを表すものであり、各画素32ビットのデータを画面の走査順に1次元状に並べた構造になっている。ビデオカメラ1、2、3、4が撮像した画像データの各画素をマッピングする場合は、画素番号、画素の座標値を設定することにより行われる。   The conversion table of the image conversion table unit 560 represents from which pixel of the image data captured by the video cameras 1, 2, 3, and 4 each pixel of the image data displayed on the display device 6 is mapped. Each pixel has 32-bit data arranged in a one-dimensional order in the scanning order of the screen. When mapping each pixel of the image data captured by the video cameras 1, 2, 3, 4 is performed by setting the pixel number and the coordinate value of the pixel.

パノラマ表示処理部561は、パノラマ表示用の変換テーブルを有し、判定部535において、ビデオカメラが全方位監視用のビデオカメラ1と判定された場合に、全方位監視用のビデオカメラ1から取り込まれる画像データに対してパノラマ表示を行うためにFPGA536へ出力される。   The panorama display processing unit 561 has a panorama display conversion table. When the determination unit 535 determines that the video camera is the omnidirectional monitoring video camera 1, the panorama display processing unit 561 captures the panorama display processing unit 561 from the omnidirectional monitoring video camera 1. The image data is output to the FPGA 536 for panoramic display.

鳥瞰表示処理部562は、鳥瞰表示用の変換テーブルを有し、判定部535において、ビデオカメラが後方監視用のビデオカメラ2と判定された場合に、後方監視用のビデオカメラ2から取り込まれる画像データに対して鳥瞰表示を行うためにFPGA536へ出力される。   The bird's-eye display processing unit 562 has a conversion table for bird's-eye display, and when the determination unit 535 determines that the video camera is the rear-view video camera 2, an image captured from the rear-view video camera 2 is captured. The data is output to the FPGA 536 for bird's-eye display.

グラフィックマスク処理部563は、マスク処理用の変換テーブルを有し、鳥瞰表示処理を行う場合に、画面に表示される画像のうち不要な部分をマスクするために、FPGA536へ出力される。マスク処理用の変換テーブルは、マスク処理を行う部分のYUV値を指定し、該YUV値で表示される画像データを表示することによりマスク処理を行う。   The graphic mask processing unit 563 has a conversion table for mask processing, and outputs to the FPGA 536 in order to mask unnecessary portions of the image displayed on the screen when performing bird's-eye view display processing. The conversion table for mask processing designates the YUV value of the portion to be masked, and performs mask processing by displaying image data displayed with the YUV value.

合成表示処理部564は、2つ以上のビデオカメラから取り込まれた画像データを表示装置6の画面上に同時に表示するためにFPGA536へ出力される。
拡大表示処理部565は、ビデオカメラが撮像した画像データの拡大表示処理を行い、ビデオカメラが撮像した映像の拡大表示を行うためにFPGA536へ出力される。
また、車両の運転者などが表示装置6に備えられた操作部を操作することにより、操作信号がCPU54へ出力され、CPU54の制御により、合成表示処理部564、拡大表示処理部565などの変換テーブルを読み出すことも可能である。
The composite display processing unit 564 outputs the image data captured from two or more video cameras to the FPGA 536 for simultaneously displaying on the screen of the display device 6.
The enlarged display processing unit 565 performs an enlarged display process on the image data captured by the video camera and outputs the image captured by the video camera to the FPGA 536 in order to perform an enlarged display.
Further, when a driver of the vehicle operates an operation unit provided in the display device 6, an operation signal is output to the CPU 54, and conversion of the composite display processing unit 564, the enlarged display processing unit 565, and the like is controlled by the CPU 54. It is also possible to read the table.

次に、本発明に係る画像表示の方法について説明する。予め、ビデオカメラは車両の所要の位置に搭載されている。エンジンキーを挿入してエンジンを始動すると、画像処理装置5、表示装置6に車両に搭載された二次電池から電力が供給され、表示装置6は操作信号を画像処理装置5へ出力し、画像処理装置5は、インターフェース部51を介して、初期コマンドをビデオカメラ1、2、3、4へ送出する。初期コマンドを受信したビデオカメラ1、2、3、4は、画像読取部11から車両の外界の撮像を開始する。信号処理部12は、撮像した画像データに対して、RGB信号からYUV信号に変換し、ビデオカメラ1、2、3、4ごとの識別番号が挿入された画像データは、1フレーム分の画像データごとに、インターフェース部13を介して、画像処理装置5へ送出される。   Next, an image display method according to the present invention will be described. In advance, the video camera is mounted at a required position of the vehicle. When the engine key is inserted and the engine is started, power is supplied from the secondary battery mounted on the vehicle to the image processing device 5 and the display device 6, and the display device 6 outputs an operation signal to the image processing device 5. The processing device 5 sends an initial command to the video cameras 1, 2, 3, 4 via the interface unit 51. The video cameras 1, 2, 3, 4 that have received the initial command start imaging the outside of the vehicle from the image reading unit 11. The signal processing unit 12 converts the captured image data from an RGB signal to a YUV signal, and the image data in which the identification number for each of the video cameras 1, 2, 3, 4 is inserted is image data for one frame. Each time, the image data is sent to the image processing device 5 via the interface unit 13.

画像処理装置5は、ビデオカメラの識別番号ごとに、1フレーム分の画像データを一旦画像メモリ52に記憶する。画像処理部53は、画像メモリ52に記憶された画像データを読み出し、輝度抽出部531へ出力する。
輝度抽出部531は、各画素の輝度信号を抽出して階調値を算出し、算出した各画素の階調値を2値化処理部532及びエッジ検出部533へ出力する。
The image processing apparatus 5 temporarily stores image data for one frame in the image memory 52 for each video camera identification number. The image processing unit 53 reads the image data stored in the image memory 52 and outputs it to the luminance extraction unit 531.
The luminance extraction unit 531 extracts the luminance signal of each pixel, calculates a gradation value, and outputs the calculated gradation value of each pixel to the binarization processing unit 532 and the edge detection unit 533.

2値化処理部532は、1フレーム分の画像データから各画素の階調値の平均値を算出し、算出した平均値を閾値として、1フレーム分の画素を2値化して、低輝度と高輝度に分離し、分離した輝度データを比較部534へ出力する。   The binarization processing unit 532 calculates the average value of the gradation values of each pixel from the image data for one frame, binarizes the pixels for one frame using the calculated average value as a threshold, and reduces the luminance. The luminance data is separated into high luminance, and the separated luminance data is output to the comparison unit 534.

図7は、全方位監視用のビデオカメラ1が撮像した画像と輝度パターンの例を示す説明図である。図に示すように、全方位監視用のビデオカメラ1が撮像した画像は、ビデオカメラ1により取り込まれた画像が、中央部に円形状に表示され、前記円形状の外側は、画像が取り込まれず、前記円形状の外側は、輝度が低い。
全方位監視用のビデオカメラ1から取り込まれた画像を、2値化処理部532において処理した後の画像は、低輝度領域に円形状の高輝度領域となるような輝度パターンとなり、円形状の高輝度領域の外側の低輝度領域が存在することが特徴である。
FIG. 7 is an explanatory diagram illustrating an example of an image and a luminance pattern captured by the omnidirectional monitoring video camera 1. As shown in the figure, an image captured by the omnidirectional monitoring video camera 1 is displayed in a circular shape at the center, and the image outside the circular shape is not captured. The brightness outside the circular shape is low.
An image obtained by processing the image captured from the omnidirectional monitoring video camera 1 by the binarization processing unit 532 has a luminance pattern that forms a circular high luminance region in the low luminance region, and has a circular shape. A feature is that there is a low luminance region outside the high luminance region.

比較部534は、標準パターン部566から標準パターンP101、P102、P103を読み出して記憶する。
比較部534は、2値化処理部532から入力された輝度データと標準パターンP101の低輝度領域を示す標準輝度データとを比較し、画素ごとに輝度が一致するか否かを比較し、一致する画素数を計数して、計数値を判定部535へ出力する。
The comparison unit 534 reads the standard patterns P101, P102, and P103 from the standard pattern unit 566 and stores them.
The comparison unit 534 compares the luminance data input from the binarization processing unit 532 with the standard luminance data indicating the low luminance area of the standard pattern P101, and compares whether the luminance matches for each pixel. The number of pixels to be counted is counted, and the count value is output to the determination unit 535.

判定部535は、比較部534から入力された計数値と標準パターンP101用の閾値T101とを比較し、前記計数値が閾値T101以上である場合は、ビデオカメラの撮像領域は、標準パターンP101に対応する全方位監視用であると判定し、判定結果をCPU54へ出力する。
一方、前記計数値が閾値T101未満である場合は、ビデオカメラの撮像領域は、全方位監視用ではないと判定し、エッジ検出部533における判定を続けるために、判定結果をCPU54へ出力する。
The determination unit 535 compares the count value input from the comparison unit 534 with the threshold value T101 for the standard pattern P101. If the count value is equal to or greater than the threshold value T101, the imaging area of the video camera is set to the standard pattern P101. It is determined that it is for corresponding omnidirectional monitoring, and the determination result is output to the CPU 54.
On the other hand, when the count value is less than the threshold value T101, it is determined that the imaging area of the video camera is not for omnidirectional monitoring, and the determination result is output to the CPU 54 in order to continue the determination in the edge detection unit 533.

エッジ検出部533は、輝度抽出部531から入力された1フレーム分の輝度データに対して、注目画素の近傍における輝度の階調値の差分を用いた演算を行う。すなわち、注目画素を中心とする隣接する8個の画素の階調値に、前記注目画素と隣接する8個の画素の差分により求められるフィルタを積算することにより、エッジ部分を強調した階調値を有する新しい画像データを求める。この処理を1フレーム分のすべての画素に対して行い、エッジ検出された1フレーム分の輝度データを階調値の差分に応じて高輝度と低輝度とに分離して、分離した輝度データを比較部534へ出力する。   The edge detection unit 533 performs an operation using the luminance gradation value difference in the vicinity of the target pixel on the luminance data for one frame input from the luminance extraction unit 531. That is, the gradation value in which the edge portion is emphasized by adding the filter obtained from the difference between the eight pixels adjacent to the pixel of interest to the gradation value of the eight pixels adjacent to the pixel of interest at the center. Find new image data with This process is performed for all the pixels for one frame, and the luminance data for one frame whose edge is detected is separated into high luminance and low luminance according to the difference in gradation value, and the separated luminance data is obtained. Output to the comparison unit 534.

図8は、後方監視用のビデオカメラ2が撮像した画像と輝度パターンの例を示す説明図である。図に示すように、後方監視用のビデオカメラ2が撮像した画像は、後部バンパの境界部の両側において、輝度が不連続となることが特徴である。
後方監視用のビデオカメラ2が撮像した画像を、画像全体のうち下部4分の1程度の領域について、エッジ検出部533において検出した後の画像は、後部バンパの境界にエッジ部が検出されるとともに、路面上の白線、車止めなどの境界においてエッジ部が検出され、エッジ部が高輝度で表示され、図に示すような輝度パターンとなる。
FIG. 8 is an explanatory diagram illustrating an example of an image and a luminance pattern captured by the video camera 2 for rear monitoring. As shown in the figure, the image captured by the video camera 2 for rear monitoring is characterized in that the luminance is discontinuous on both sides of the boundary portion of the rear bumper.
In the image after the image captured by the rear monitoring video camera 2 is detected by the edge detection unit 533 in the lower quarter of the entire image, the edge portion is detected at the boundary of the rear bumper. At the same time, an edge portion is detected at a boundary such as a white line or a car stop on the road surface, and the edge portion is displayed with high luminance, resulting in a luminance pattern as shown in the figure.

図9は、右左折監視用のビデオカメラ3が撮像した画像と輝度パターンの例を示す説明図である。図に示すように、右左折監視用のビデオカメラ3が撮像した画像は、前部バンパの境界部の両側において、輝度が不連続となることが特徴である。
右左折監視用のビデオカメラ3が撮像した画像を、画像全体のうち下部4分の1程度の領域についてエッジ検出部533において検出した後の画像は、前部バンパの境界にエッジ部が検出されるとともに、車両の前部左右方向の景色に応じたエッジ部が検出され、エッジ部が高輝度で表示され、図に示すような輝度パターンとなる。
FIG. 9 is an explanatory diagram illustrating an example of an image and a luminance pattern captured by the video camera 3 for monitoring a left / right turn. As shown in the figure, the image captured by the video camera 3 for monitoring the left / right turn is characterized in that the luminance is discontinuous on both sides of the boundary of the front bumper.
In the image after the image detected by the video camera 3 for left / right turn monitoring is detected by the edge detection unit 533 in the lower quarter of the entire image, the edge portion is detected at the boundary of the front bumper. In addition, an edge part corresponding to the scenery in the left-right direction of the front part of the vehicle is detected, the edge part is displayed with high luminance, and a luminance pattern as shown in the figure is obtained.

比較部534は、エッジ検出部533から入力された輝度データと読み出された標準パターンP102、P103の高輝度領域を示す標準輝度データとを比較し、画素ごとに輝度が一致するか否かを比較し、一致する画素数を計数して、計数値を判定部535へ出力する。   The comparison unit 534 compares the luminance data input from the edge detection unit 533 with the standard luminance data indicating the high luminance areas of the read standard patterns P102 and P103, and determines whether or not the luminance matches for each pixel. The number of matching pixels is counted, and the count value is output to the determination unit 535.

判定部535は、比較部534から入力された計数値と標準パターンP102用の閾値T102とを比較し、前記計数値が閾値T102以上である場合は、ビデオカメラの撮像領域は、標準パターンP102に対応する後方監視用であると判定し、判定結果をCPU54へ出力する。   The determination unit 535 compares the count value input from the comparison unit 534 with the threshold value T102 for the standard pattern P102. If the count value is equal to or greater than the threshold value T102, the imaging area of the video camera is set to the standard pattern P102. It is determined that it is for corresponding rear monitoring, and the determination result is output to the CPU 54.

一方、前記計数値が閾値T102未満である場合は、前記計数値と標準パターンP103用の閾値T103とを比較し、前記計数値が閾値T103以上である場合は、ビデオカメラの撮像領域は、標準パターンP103に対応する右左折監視用であると判定し、判定結果をCPU54へ出力する。
前記計数値が閾値T103未満である場合は、ビデオカメラの撮像領域は、いずれの標準パターンにも対応しない前方監視用であると判定し、判定結果をCPU54へ出力する。
On the other hand, when the count value is less than the threshold value T102, the count value is compared with the threshold value T103 for the standard pattern P103, and when the count value is equal to or greater than the threshold value T103, the imaging area of the video camera is It determines with it being for the left-right turn monitoring corresponding to the pattern P103, and outputs a determination result to CPU54.
When the count value is less than the threshold value T103, it is determined that the imaging area of the video camera is for forward monitoring that does not correspond to any standard pattern, and the determination result is output to the CPU.

CPU54は、各ビデオカメラから送られた識別番号に基づいて、車両に搭載されたすべてのビデオカメラについて上述の処理を繰り返し続ける。   Based on the identification number sent from each video camera, the CPU 54 continues to repeat the above-described processing for all video cameras mounted on the vehicle.

CPU54は、判定部535から入力された判定結果に基づいて、車両に搭載されているビデオカメラの固有の識別番号と該識別番号に関連付けられた撮像領域とを有するビデオカメラ構成テーブル部567を作成して記憶部56に記憶する。これにより、車両に搭載されているビデオカメラのごとに各ビデオカメラの撮像領域が関連付けられて記憶される。   Based on the determination result input from the determination unit 535, the CPU 54 creates a video camera configuration table unit 567 having a unique identification number of the video camera mounted on the vehicle and an imaging region associated with the identification number. And stored in the storage unit 56. Thereby, the imaging area of each video camera is associated and stored for each video camera mounted on the vehicle.

車両の運転者は、車両に搭載されたビデオカメラの何れかを使用するために操作部を操作すると、操作に応じた操作信号が画像処理装置5へ出力され、所要のビデオカメラからの画像を表示させることができる。   When the driver of the vehicle operates the operation unit to use any of the video cameras mounted on the vehicle, an operation signal corresponding to the operation is output to the image processing device 5, and an image from the required video camera is displayed. Can be displayed.

例えば、全方位監視用のビデオカメラ1が撮像した画像を表示する場合は、画像処理装置5は、インターフェース部51を介して、全方位監視用のビデオカメラ1に対して、画像データの転送指令を送出する。該転送指令を受けた全方位監視用のビデオカメラ1の制御部14は、1フレームごとの画像データを画像メモリ16から読み出し、前記画像データからパケットを生成して画像処理装置5へ転送する。この際、全方位監視用のビデオカメラ1の解像度に応じてフレームレートを変換することも可能である。   For example, when displaying an image captured by the omnidirectional monitoring video camera 1, the image processing device 5 sends an image data transfer command to the omnidirectional monitoring video camera 1 via the interface unit 51. Is sent out. Upon receiving the transfer instruction, the control unit 14 of the omnidirectional video camera 1 reads out image data for each frame from the image memory 16, generates a packet from the image data, and transfers the packet to the image processing device 5. At this time, the frame rate can be converted in accordance with the resolution of the video camera 1 for omnidirectional monitoring.

CPU54は、ビデオカメラ構成テーブル部567を参照して、画像データの転送元である全方位監視用のビデオカメラ1に対応する画像変換テーブルを画像変換テーブル部560から読み出す。この場合は、パノラマ表示処理部561を読み出し、FPGA536は、パノラマ表示処理部561を用いて画像処理を行う。   The CPU 54 reads the image conversion table corresponding to the omnidirectional video camera 1 that is the image data transfer source from the image conversion table unit 560 with reference to the video camera configuration table unit 567. In this case, the panorama display processing unit 561 is read, and the FPGA 536 performs image processing using the panorama display processing unit 561.

パノラマ表示は、全方位監視用のビデオカメラ1が撮像した画像データに対して、切り出し、展開を行うことにより、通常のビデオカメラに近い映像を表示する。展開の方法は、表示装置6に表示する画像中の座標と、全方位監視用のビデオカメラ1が撮像した画像の円形座標系との対応をとることにより行う。   In the panorama display, an image close to that of a normal video camera is displayed by cutting out and developing the image data captured by the omnidirectional monitoring video camera 1. The expansion method is performed by taking the correspondence between the coordinates in the image displayed on the display device 6 and the circular coordinate system of the image captured by the video camera 1 for omnidirectional monitoring.

図10は、パノラマ表示処理により変換された映像の例を示す説明図である。全方位ビデオカメラが出力する画像は光学系の特性上そのままでは見にくいが、パノラマ表示をすることにより見やすい画像を得ることができる。   FIG. 10 is an explanatory diagram illustrating an example of a video image converted by the panorama display process. The image output from the omnidirectional video camera is difficult to see as it is due to the characteristics of the optical system, but an easy-to-view image can be obtained by performing a panoramic display.

画像処理部53は、1フレームごとにパノラマ表示処理をした画像データを一旦画像メモリ52に記憶し、CPU54の制御により、画像メモリ52から前記画像データを表示装置6へ出力する。パノラマ表示処理は、全方位監視用のビデオカメラ1から入力される画像データに対してリアルタイムで処理がされ、例えば、1秒間に30フレームの画像処理が行われる。   The image processing unit 53 temporarily stores image data subjected to panorama display processing for each frame in the image memory 52, and outputs the image data from the image memory 52 to the display device 6 under the control of the CPU 54. In the panorama display process, image data input from the omnidirectional video camera 1 is processed in real time, and for example, 30 frames of image processing is performed per second.

次に、後方監視用のビデオカメラ2が撮像した画像を表示する場合は、画像処理装置5は、インターフェース部51を介して、後方監視用のビデオカメラ2に対して、画像データの転送指令を送出する。該転送指令を受けた後方監視用のビデオカメラ2の制御部14は、1フレームごとの画像データを画像メモリ16から読み出し、前記画像データからパケットを生成して画像処理装置5へ転送する。この際、後方監視用のビデオカメラ2の解像度に応じてフレームレートを変換することも可能である。   Next, when displaying an image captured by the rear monitoring video camera 2, the image processing apparatus 5 issues an image data transfer command to the rear monitoring video camera 2 via the interface unit 51. Send it out. Upon receiving the transfer instruction, the control unit 14 of the rear-view video camera 2 reads image data for each frame from the image memory 16, generates a packet from the image data, and transfers the packet to the image processing device 5. At this time, the frame rate can be converted in accordance with the resolution of the video camera 2 for rear monitoring.

CPU54は、ビデオカメラ構成テーブル部567を参照して、画像データの転送元である後方監視用のビデオカメラ2に対応する画像変換テーブルを画像変換テーブル部560から読み出す。この場合は、鳥瞰表示処理部562、及びグラフィックマスク処理部563を読み出し、FPGA536は、鳥瞰表示処理部562、及びグラフィックマスク処理部563を用いて画像処理を行う。   The CPU 54 refers to the video camera configuration table unit 567 and reads an image conversion table corresponding to the rear monitoring video camera 2 that is the transfer source of the image data from the image conversion table unit 560. In this case, the bird's-eye display processing unit 562 and the graphic mask processing unit 563 are read, and the FPGA 536 performs image processing using the bird's-eye display processing unit 562 and the graphic mask processing unit 563.

鳥瞰表示は、視点変換表示であり、後方監視用のビデオカメラ2が撮像した2次元画像に対して、後方監視用のビデオカメラ2の位置の高さ、後方監視用のビデオカメラ2の取付角、及び焦点距離が予め設定された鳥瞰表示用の変換テーブルを用いて、3次元の座標系に変換し、変換した3次元座標系を後方監視用のビデオカメラ2の位置を変換の中心として、さらに平面に写像することにより、上空から見たような映像を表示する。   The bird's-eye view display is a viewpoint conversion display, and the height of the position of the video camera 2 for rear monitoring and the mounting angle of the video camera 2 for rear monitoring with respect to the two-dimensional image captured by the video camera 2 for rear monitoring. , And using a bird's eye view conversion table in which the focal length is set in advance, the image is converted into a three-dimensional coordinate system, and the converted three-dimensional coordinate system is used as the center of conversion for the position of the video camera 2 for rear monitoring. Furthermore, by mapping to a plane, an image as seen from above is displayed.

グラフィックマスク処理は、グラフィックマスク処理用変換テーブルを用いて、後方監視用のビデオカメラ2が撮像した画像データの各画素に適切なYUV値を設定することにより、所要の図形、画像のマスクを行う。   The graphic mask process masks a required figure and image by setting an appropriate YUV value for each pixel of image data captured by the video camera 2 for rear monitoring using a conversion table for graphic mask process. .

図11は、鳥瞰表示処理及びグラフィックマスク処理により変換された映像の例を示す説明図である。上空から見るような映像を得ることができ、例えば、駐車スペースと車両との位置関係がわかりやすくなる。   FIG. 11 is an explanatory diagram illustrating an example of an image converted by the bird's-eye view display process and the graphic mask process. An image that can be seen from above can be obtained, and for example, the positional relationship between the parking space and the vehicle can be easily understood.

実施の形態1においては、ビデオカメラ1、2、3、4が撮像した画像データから輝度を抽出したが、輝度に限られず、色度を抽出してもよい。
また、標準パターンは、3つの例を示したが、これに限られず、ビデオカメラの画角、レンズの組み合わせなど、種々のビデオカメラの特性に合わせて、定めることが可能である。例えば、画角100度のVGA広角ビデオカメラ、画角150度乃至180度のシリンドリカルレンズを組み合わせたSXGA超広角ビデオカメラ、2つの画角100度のVGA広角ビデオカメラなど、ビデオカメラの種類に応じて標準パターンを設定することができる。
In Embodiment 1, the luminance is extracted from the image data captured by the video cameras 1, 2, 3, and 4. However, the luminance is not limited, and chromaticity may be extracted.
In addition, although three examples of the standard pattern are shown, the present invention is not limited to this, and can be determined according to the characteristics of various video cameras such as the angle of view of the video camera and the combination of lenses. For example, depending on the type of video camera, such as a VGA wide-angle video camera with an angle of view of 100 degrees, an SXGA ultra-wide angle video camera combined with a cylindrical lens with an angle of view of 150 to 180 degrees, and a VGA wide-angle video camera with two angles of view of 100 degrees Standard patterns can be set.

実施の形態2
図12は画像処理装置200の構成を示すブロック図である。画像処理装置200は、CPU201、RAM202、ビデオカメラ1、2、3、4とのインターフェースを行う入力部203、表示装置6とのインターフェースを行う出力部204、プログラムを記憶する内部記憶装置205、CD−ROMに記録されたプログラムを読み込むためのCD−ROM駆動装置である外部記憶装置206及び通信ネットワークを介して通信を行う通信部207を備える。
Embodiment 2
FIG. 12 is a block diagram illustrating a configuration of the image processing apparatus 200. The image processing apparatus 200 includes a CPU 201, a RAM 202, an input unit 203 that interfaces with the video cameras 1, 2, 3, and 4, an output unit 204 that interfaces with the display device 6, an internal storage device 205 that stores programs, and a CD An external storage device 206, which is a CD-ROM drive device for reading a program recorded in the ROM, and a communication unit 207 that performs communication via a communication network are provided.

CD−ROMに記録されたプログラム210、標準パターン部566、及び画像変換テーブル部560は、画像処理装置200の外部記憶装置206から内部記憶装置205へインストールされる。
CPU201がプログラム210、標準パターン部566、及び画像変換テーブル部560を内部記憶装置205からRAM202に読み込むことにより、プログラム210が実行され、ビデオカメラ1、2、3、4から入力部203を介してRAM202に読み込まれた画像データに対して、画像処理が行われ、処理後の画像データが表示装置6へ出力され、画像が表示される。
The program 210, the standard pattern unit 566, and the image conversion table unit 560 recorded on the CD-ROM are installed from the external storage device 206 of the image processing apparatus 200 to the internal storage device 205.
The CPU 201 reads the program 210, the standard pattern unit 566, and the image conversion table unit 560 from the internal storage device 205 into the RAM 202, whereby the program 210 is executed, and the video camera 1, 2, 3, 4 is input from the input unit 203. Image processing is performed on the image data read into the RAM 202, the processed image data is output to the display device 6, and an image is displayed.

図13及び図14は、画像処理装置200により実行されるコンピュータプログラムの手順を示すフローチャートである。ビデオカメラ1、2、3、4が撮像した画像データは、入力部203を介して一旦RAM202に記憶される。CPU201は、ビデオカメラ1が撮像した1フレーム分の画像データをRAM202から読み出し(ステップS1)、読み出した画像データの輝度を抽出する(ステップS2)。   13 and 14 are flowcharts showing the procedure of a computer program executed by the image processing apparatus 200. Image data captured by the video cameras 1, 2, 3, and 4 is temporarily stored in the RAM 202 via the input unit 203. The CPU 201 reads image data for one frame imaged by the video camera 1 from the RAM 202 (step S1), and extracts the luminance of the read image data (step S2).

CPU201は、抽出した輝度値から、各画素における輝度の平均値を算出し、算出した平均値を閾値として各画素を低輝度と高輝度に分離して2値化する(ステップS3)。CPU201は、RAM202から標準パターン部566の標準輝度データを読み出し(ステップS4)、2値化処理した後の2値化輝度データと全方位監視用のビデオカメラの標準パターンP101を構成する標準輝度データとから、輝度が一致する画素の数を算出し(ステップS5)、算出した画素数と閾値T101を比較し、算出した画素数が閾値T101以上である場合は(ステップS6でYES)、ビデオカメラ1は全方位監視用のビデオカメラであると判定する(ステップS7)。   The CPU 201 calculates an average value of luminance in each pixel from the extracted luminance value, and binarizes the pixel by separating the pixel into low luminance and high luminance using the calculated average value as a threshold (step S3). The CPU 201 reads out the standard luminance data of the standard pattern unit 566 from the RAM 202 (step S4), and binarized luminance data after binarization processing and standard luminance data constituting the standard pattern P101 of the omnidirectional monitoring video camera. From the above, the number of pixels with the same brightness is calculated (step S5), and the calculated number of pixels is compared with the threshold T101. If the calculated number of pixels is equal to or greater than the threshold T101 (YES in step S6), the video camera It is determined that 1 is an omnidirectional video camera (step S7).

算出した画素数が閾値T101未満である場合は(ステップS6でNO)、CPU201は、ステップS2において輝度が抽出された画像データに対して、注目画素の近傍における輝度の階調値の差分を用いて、撮像した画像のエッジを検出する(ステップS8)。エッジ検出された輝度データと後方監視用のビデオカメラの標準パターンP102を構成する標準輝度データとから輝度が一致する画素の数を算出し(ステップS9)、算出した画素数と閾値T102を比較し、算出した画素数が閾値T102以上である場合は(ステップS10でYES)、ビデオカメラ1は後方監視用のビデオカメラであると判定する(ステップS11)。   When the calculated number of pixels is less than the threshold value T101 (NO in step S6), the CPU 201 uses the difference in luminance gradation value in the vicinity of the target pixel for the image data from which luminance is extracted in step S2. Then, the edge of the captured image is detected (step S8). The number of pixels having the same luminance is calculated from the luminance data detected at the edge and the standard luminance data constituting the standard pattern P102 of the rear monitoring video camera (step S9), and the calculated number of pixels is compared with the threshold T102. If the calculated number of pixels is equal to or greater than the threshold value T102 (YES in step S10), it is determined that the video camera 1 is a video camera for rear monitoring (step S11).

算出した画素数が閾値T102未満である場合は(ステップS10でNO)、エッジ検出された輝度データと右左折監視用のビデオカメラの標準パターンP103を構成する標準輝度データとから輝度が一致する画素の数を算出し(ステップS12)、算出した画素数と閾値T103を比較し、算出した画素数が閾値T103以上である場合は(ステップS13でYES)、ビデオカメラ1は右左折監視用のビデオカメラであると判定する(ステップS14)。   If the calculated number of pixels is less than the threshold value T102 (NO in step S10), the pixels whose luminance matches from the luminance data detected at the edge and the standard luminance data constituting the standard pattern P103 of the video camera for left / right turn monitoring Is calculated (step S12), and the calculated number of pixels is compared with the threshold T103. If the calculated number of pixels is equal to or greater than the threshold T103 (YES in step S13), the video camera 1 uses the video for monitoring the right or left turn. It determines with it being a camera (step S14).

算出した画素数が閾値T103未満である場合は(ステップS13でNO)、ビデオカメラ1は前方監視用のビデオカメラであると判定する(ステップS15)。車両の搭載されているすべてのビデオカメラについて撮像領域の確認が終了したか否かを判定し、確認が終了していない場合は(ステップS16でNO)、ステップS1に戻り、ステップS1以降の処理を続ける。   When the calculated number of pixels is less than the threshold value T103 (NO in step S13), it is determined that the video camera 1 is a video camera for front monitoring (step S15). It is determined whether or not the confirmation of the imaging area has been completed for all the video cameras mounted on the vehicle. If the confirmation has not been completed (NO in step S16), the process returns to step S1, and the processes after step S1 are performed. Continue.

一方、すべてのビデオカメラについて確認が終了した場合は(ステップS16でYES)、撮像領域に応じた画像処理を行う(ステップS17)。CPU201は、ビデオカメラにより取り込まれた画像データを画像メモリ52から1フレームごとに読み出す(ステップS18)。全方位監視用のビデオカメラの画像を表示する場合は(ステップS19)、RAM202から画像変換テーブル部560のパノラマ表示処理部561を読み出し、パノラマ表示処理を行う(ステップS20)。   On the other hand, when the confirmation has been completed for all the video cameras (YES in step S16), image processing corresponding to the imaging region is performed (step S17). The CPU 201 reads out the image data captured by the video camera from the image memory 52 for each frame (step S18). When displaying an image of a video camera for omnidirectional monitoring (step S19), the panorama display processing unit 561 of the image conversion table unit 560 is read from the RAM 202 and panorama display processing is performed (step S20).

後方監視用のビデオカメラの画像を表示する場合は(ステップS21)、RAM202から画像変換テーブル部560の鳥瞰表示処理部562及びグラフィックスマスク処理部563を読み出し、鳥瞰表示処理(ステップS22)及びグラフィックスマスク処理を行う(ステップS23)。   When displaying the image of the video camera for rear monitoring (step S21), the bird's-eye display processing unit 562 and the graphics mask processing unit 563 of the image conversion table unit 560 are read from the RAM 202, and the bird's-eye display processing (step S22) and the graphics mask are performed. Processing is performed (step S23).

右左折監視用のビデオカメラの画像を表示する場合は(ステップS24)、RAM202から画像変換テーブル部560の合成表示処理部564を読み出し、左右両方向からの画像を合成表示処理を行う(ステップS25)。   When displaying an image of a video camera for left / right turn monitoring (step S24), the composite display processing unit 564 of the image conversion table unit 560 is read from the RAM 202, and composite display processing is performed on images from both the left and right directions (step S25). .

前方監視用のビデオカメラの画像を表示する場合は(ステップS26)、RAM202から画像変換テーブル部560の拡大表示処理部565を読み出し、拡大表示処理を行う(ステップS27)。   When displaying an image of a video camera for forward monitoring (step S26), the enlarged display processing unit 565 of the image conversion table unit 560 is read from the RAM 202, and an enlarged display process is performed (step S27).

表示装置6における表示を終了する操作が行われた否かを判定し、操作終了でない場合(ステップS28でNO)は、ステップ17に戻り、ステップ17以降の処理を続ける。一方、操作終了の場合(ステップS28でYES)は、画像処理を終了する。
なお、上述の各画像処理は、操作部からの操作により処理を行うか否かを制御できることは言うまでもない。
It is determined whether or not an operation for ending display on the display device 6 has been performed. If the operation has not ended (NO in step S28), the process returns to step 17 to continue the processing from step 17 onward. On the other hand, if the operation is finished (YES in step S28), the image processing is finished.
In addition, it cannot be overemphasized that each image processing mentioned above can control whether a process is performed by operation from an operation part.

なお、撮像領域に応じて、画像処理を行う場合、必ずしも画像変換の処理を行う必要はない。例えば、合成表示処理、拡大表示処理などの画像処理は行わずに撮像した画像をそのまま表示してもよい。   Note that when image processing is performed according to the imaging region, it is not always necessary to perform image conversion processing. For example, a captured image may be displayed as it is without performing image processing such as composite display processing and enlarged display processing.

実施の形態3
実施の形態1及び2においては、ビデオカメラから入力された画像データから抽出された輝度データと、ビデオカメラの撮像領域に応じた輝度の標準パターンを示す標準輝度データとの画素ごとに輝度が一致するか否かを比較し、一致する画素数を計数して、計数結果に基づいてビデオカメラの撮像領域を判定するものであった。
Embodiment 3
In the first and second embodiments, the luminance is the same for each pixel of the luminance data extracted from the image data input from the video camera and the standard luminance data indicating the standard pattern of luminance corresponding to the imaging area of the video camera. The number of matching pixels is counted, and the imaging area of the video camera is determined based on the counting result.

次に、ビデオカメラから入力された画像データから抽出された輝度パターンと、ビデオカメラの撮像領域に応じた輝度の標準パターンとの距離を算出し、算出結果に基づいてビデオカメラの撮像領域を判定する場合について説明する。   Next, calculate the distance between the luminance pattern extracted from the image data input from the video camera and the standard pattern of luminance according to the imaging area of the video camera, and determine the imaging area of the video camera based on the calculation result The case where it does is demonstrated.

図15は画像処理部59の構成を示すブロック図である。図において、輝度抽出部591、エッジ検出部592、判定部594、FPGA595夫々は、図5における輝度抽出部531、エッジ検出部533、判定部535、FPGA536と同様であるので、詳細な説明は省略する。   FIG. 15 is a block diagram showing a configuration of the image processing unit 59. In the figure, the luminance extraction unit 591, the edge detection unit 592, the determination unit 594, and the FPGA 595 are the same as the luminance extraction unit 531, the edge detection unit 533, the determination unit 535, and the FPGA 536 in FIG. To do.

輝度抽出部591は画像メモリ52から読み出された1フレーム分の画像データから抽出した輝度データをエッジ検出部592へ出力し、エッジ検出部592は、輝度抽出部591から入力された1フレーム分の輝度データに基づいて、エッジ検出された1フレーム分の輝度データを階調値の差分に応じて高輝度と低輝度とに分離して(例えば、エッジ部を高輝度として)、分離した輝度データを演算部593へ出力する。   The luminance extraction unit 591 outputs luminance data extracted from the image data for one frame read from the image memory 52 to the edge detection unit 592, and the edge detection unit 592 corresponds to one frame input from the luminance extraction unit 591. Based on the luminance data, the luminance data for one frame whose edge is detected is separated into high luminance and low luminance according to the difference in gradation value (for example, the edge portion is set to high luminance), and the separated luminance The data is output to the calculation unit 593.

演算部593は、記憶部56に記憶された標準パターンP101、P102、P103に基づいて、予め各標準パターンのエッジを形成する円形、曲線及び直線を、標準パターン上の任意の点を基準として二次元の式(以下、エッジ式という)として算出して記憶する。例えば、標準パターンの画像の中心点を基準として円形、曲線及び直線の式を算出する。   Based on the standard patterns P101, P102, and P103 stored in the storage unit 56, the calculation unit 593 converts a circle, a curve, and a straight line that form an edge of each standard pattern in advance using any point on the standard pattern as a reference. It is calculated and stored as a dimensional expression (hereinafter referred to as an edge expression). For example, formulas of circles, curves, and straight lines are calculated using the center point of the standard pattern image as a reference.

演算部593は、エッジ検出部592から入力された輝度パターンのエッジ部を形成する各画素と、該画素に対応するエッジ式上の点との距離の2乗を算出し、輝度パターンのエッジ部のすべての画素について、対応するエッジ式上の点との距離の2乗の総和を算出する。   The calculation unit 593 calculates the square of the distance between each pixel forming the edge portion of the luminance pattern input from the edge detection unit 592 and a point on the edge expression corresponding to the pixel, and the edge portion of the luminance pattern The sum of the squares of the distances from the corresponding points on the edge formula is calculated for all the pixels.

入力された輝度パターンのエッジ部を形成する画素に対応するエッジ式上の点は、例えば、前記画素を表わす点と標準パターンの中心点を結ぶ直線とエッジ式が交わる点を、エッジ式上の点とすることができる。   The point on the edge formula corresponding to the pixel forming the edge portion of the input luminance pattern is, for example, the point on the edge formula where the straight line connecting the point representing the pixel and the center point of the standard pattern intersects the edge formula. Can be a point.

演算部593は、入力された輝度パターンのエッジ部を形成する各画素と、該画素に対応するエッジ式上の点との距離の2乗の総和を、すべての標準パターンP101、P102、P103に対して算出し、算出結果を判定部594へ出力する。   The calculation unit 593 calculates the sum of the squares of the distances between the pixels forming the edge portion of the input luminance pattern and the points on the edge formula corresponding to the pixels to all the standard patterns P101, P102, and P103. The calculation result is output to the determination unit 594.

判定部594は、演算部593から入力された標準パターンごとの算出結果と、予め定められた閾値T201とを比較し、算出結果が閾値T201より小さい場合は、ビデオカメラの撮像領域は、前記算出結果に対応する標準パターンにより特定される撮像領域であると判定し、判定結果をCPU54へ出力する。また、標準パターンごとの算出結果すべてが閾値T201以上である場合は、近似する標準パターンが存在しないという結果をCPU54へ出力する。   The determination unit 594 compares the calculation result for each standard pattern input from the calculation unit 593 with a predetermined threshold T201. If the calculation result is smaller than the threshold T201, the imaging region of the video camera It is determined that the imaging area is specified by the standard pattern corresponding to the result, and the determination result is output to the CPU 54. When all the calculation results for each standard pattern are equal to or greater than the threshold value T201, a result indicating that there is no approximate standard pattern is output to the CPU.

上述の判定結果に基づき、FPGA595による画像処理は、実施の形態1におけるFPGA536による画像処理と同様であるので、説明は省略する。   Based on the above determination result, the image processing by the FPGA 595 is the same as the image processing by the FPGA 536 in the first embodiment, and thus the description thereof is omitted.

実施の形態3においては、入力された輝度パターンのエッジ部を形成する各画素と、該画素に対応するエッジ式上の点との距離の2乗の総和を算出したが、これに限られるものではなく、前記距離の2乗の総和の平方根、前記距離の絶対値の総和を算出してもよい。
また、前記距離の絶対値の最大値を算出してもよい。
In the third embodiment, the sum of the squares of the distances between the pixels forming the edge portion of the input luminance pattern and the points on the edge formula corresponding to the pixels is calculated. However, the present invention is not limited to this. Instead, the square root of the sum of the squares of the distances and the sum of the absolute values of the distances may be calculated.
Further, the maximum absolute value of the distance may be calculated.

実施の形態4
図16及び図17は、画像処理装置200により実行されるコンピュータプログラムの手順を示すフローチャートである。本発明に係るプログラムを実行させる画像処理装置は、図12における画像処理装置200と同じ構成であるので、説明は省略する。
Embodiment 4
16 and 17 are flowcharts showing the procedure of a computer program executed by the image processing apparatus 200. The image processing apparatus that executes the program according to the present invention has the same configuration as the image processing apparatus 200 in FIG.

ビデオカメラ1、2、3、4が撮像した画像データは、入力部203を介して一旦RAM202に記憶される。CPU201は、ビデオカメラ1が撮像した1フレーム分の画像データをRAM202から読み出し(ステップS101)、読み出した画像データの輝度を抽出する(ステップS102)。   Image data captured by the video cameras 1, 2, 3, and 4 is temporarily stored in the RAM 202 via the input unit 203. The CPU 201 reads image data for one frame captured by the video camera 1 from the RAM 202 (step S101), and extracts the luminance of the read image data (step S102).

CPU201は、輝度が抽出された画像データに対して、注目画素の近傍における輝度の階調値の差分を用いて、撮像した画像のエッジを検出する(ステップS103)。CPU201は、記憶部56に記憶された標準パターンP101、P102、P103に基づいて、予め標準パターンP101、P102、P103のエッジを形成する円形、曲線及び直線を、標準パターン上の任意の点を基準として二次元の式(以下、エッジ式という)として算出する(ステップS104)。   CPU201 detects the edge of the imaged image using the difference of the gradation value of the brightness | luminance in the vicinity of an attention pixel with respect to the image data from which the brightness | luminance was extracted (step S103). Based on the standard patterns P101, P102, and P103 stored in the storage unit 56, the CPU 201 uses circles, curves, and straight lines that form the edges of the standard patterns P101, P102, and P103 in advance as reference points for arbitrary points on the standard pattern. As a two-dimensional expression (hereinafter referred to as an edge expression) (step S104).

CPU201は、撮像した画像のエッジ部を形成する各画素と、該画素に対応するエッジ式上の点との距離の2乗を算出し、輝度パターンのエッジ部のすべての画素について、対応するエッジ式上の点との距離の2乗の総和を算出し(ステップS105)、算出値と閾値T201を比較し、算出値が閾値T201以上である場合は(ステップS106でNO)、標準パターンに対応したすべてのエッジ式について、前記距離の2乗の総和を算出した否かを判断し、算出していない場合は(ステップS107でNO)、ステップS105以降の処理を続ける。   The CPU 201 calculates the square of the distance between each pixel forming the edge portion of the captured image and a point on the edge formula corresponding to the pixel, and for all the pixels in the edge portion of the luminance pattern, the corresponding edge The sum of the square of the distance to the point on the equation is calculated (step S105), and the calculated value is compared with the threshold value T201. If the calculated value is equal to or greater than the threshold value T201 (NO in step S106), it corresponds to the standard pattern. For all the edge expressions, it is determined whether or not the sum of the squares of the distances has been calculated. If not calculated (NO in step S107), the processing from step S105 is continued.

すべてのエッジ式について算出した場合は(ステップS107でYES)、ビデオカメラは前方監視用のものと判定して、後述のステップS109以降の処理を続ける。算出値が閾値T201より小さい場合は(ステップS106でYES)、ビデオカメラは、エッジ式に対応した標準パターンで表される撮像領域のビデオカメラであると判定する(ステップS108)。すなわち、輝度パターンのエッジ部のすべての画素について、対応するエッジ式上の点との距離の2乗の総和を算出した算出値と閾値T201とを比較することにより、標準パターンP101、P102、P103に対応して、全方位監視用、後方監視用、右左折監視用、前方監視用のビデオカメラを判定することができる。   If all edge expressions have been calculated (YES in step S107), the video camera is determined to be for front monitoring, and the processing from step S109 described later is continued. If the calculated value is smaller than the threshold value T201 (YES in step S106), the video camera is determined to be a video camera in the imaging region represented by the standard pattern corresponding to the edge formula (step S108). That is, for all the pixels in the edge portion of the luminance pattern, the standard patterns P101, P102, P103 are compared by comparing the calculated value obtained by calculating the sum of the squares of the distances to the points on the corresponding edge formula with the threshold T201. Correspondingly, video cameras for omnidirectional monitoring, backward monitoring, right / left turn monitoring, and forward monitoring can be determined.

車両の搭載されているすべてのビデオカメラについて撮像領域の確認が終了したか否かを判定し、確認が終了していない場合は(ステップS109でNO)、ステップS101に戻り、ステップS101以降の処理を続ける。   It is determined whether or not the confirmation of the imaging region has been completed for all the video cameras mounted on the vehicle. If the confirmation has not been completed (NO in step S109), the process returns to step S101, and the processes after step S101 are performed. Continue.

一方、すべてのビデオカメラについて確認が終了した場合は(ステップS109でYES)、撮像領域に応じた画像処理を行う(ステップS110)。ステップS110以降の処理は、実施の形態2における図14のステップS17以降の処理と同様であるので、説明は省略する。   On the other hand, when the confirmation has been completed for all the video cameras (YES in step S109), image processing corresponding to the imaging region is performed (step S110). Since the process after step S110 is the same as the process after step S17 of FIG. 14 in Embodiment 2, description is abbreviate | omitted.

実施の形態5
図18は、本発明に係る画像表示システムの概要を示す模式図である。車両に搭載された画像処理装置5は、通信部57を備え、無線通信を介してインターネットなどの通信網9に接続されている。通信網9には、サーバー10が接続されている。サーバー10において、101は記憶部であり、標準パターン部566、画像変換テーブル部560、ビデオカメラ構成テーブル部567などを記憶している。
Embodiment 5
FIG. 18 is a schematic diagram showing an outline of an image display system according to the present invention. The image processing apparatus 5 mounted on the vehicle includes a communication unit 57 and is connected to a communication network 9 such as the Internet via wireless communication. A server 10 is connected to the communication network 9. In the server 10, reference numeral 101 denotes a storage unit that stores a standard pattern unit 566, an image conversion table unit 560, a video camera configuration table unit 567, and the like.

画像処理装置5の通信部57は、ビデオカメラ1、2、3、4が撮像した画像データをサーバー10へ送信する。また、サーバー10に記憶されている標準パターン部566をサーバー10から受信する。さらに、後述するように、サーバー10で行った、ビデオカメラの撮像構成の判定結果を受信する。   The communication unit 57 of the image processing apparatus 5 transmits image data captured by the video cameras 1, 2, 3, and 4 to the server 10. Further, the standard pattern portion 566 stored in the server 10 is received from the server 10. Further, as described later, the determination result of the imaging configuration of the video camera performed by the server 10 is received.

サーバー10の受信部102は、ビデオカメラ1、2、3、4が撮像した画像データを、画像処理装置5を介して受信する。
送信部103は、記憶部101から標準パターン部566を読み出して、画像処理装置5へ送信する。また、ビデオカメラの撮像領域の判定結果を画像処理装置5へ送信する。
The receiving unit 102 of the server 10 receives image data captured by the video cameras 1, 2, 3, and 4 via the image processing device 5.
The transmission unit 103 reads the standard pattern unit 566 from the storage unit 101 and transmits it to the image processing apparatus 5. The determination result of the imaging area of the video camera is transmitted to the image processing device 5.

画像処理部104は、画像メモリを備え、受信した画像データから、輝度の抽出、2値化処理、エッジ検出などの処理を行い、処理後の輝度データと標準輝度データとを比較し、ビデオカメラの撮像領域を判定する。
制御部105は、記憶部101、受信部102、送信部103、画像処理部104の処理の制御を行う。
The image processing unit 104 includes an image memory, performs processing such as luminance extraction, binarization processing, and edge detection from the received image data, compares the processed luminance data with the standard luminance data, and The imaging area is determined.
The control unit 105 controls processing of the storage unit 101, the reception unit 102, the transmission unit 103, and the image processing unit 104.

実施の形態5において、画像処理装置5が、標準パターン部566をサーバー10の記憶部101から受信して、処理を行う場合について説明する。
この場合は、標準パターン部566は、画像処理装置5の記憶部56に記憶される代わりに、サーバー10の記憶部101に記憶される。ビデオカメラ1、2、3、4が撮像した画像データから2値化処理又はエッジ検出処理がされた輝度データと比較する標準輝度データにより構成される標準パターンを、サーバー10から受信して、ビデオカメラ1、2、3、4の撮像領域の判定を行う。なお、他の処理は実施の形態1と同様であるので、説明は省略する。
In the fifth embodiment, the case where the image processing apparatus 5 receives the standard pattern unit 566 from the storage unit 101 of the server 10 and performs processing will be described.
In this case, the standard pattern unit 566 is stored in the storage unit 101 of the server 10 instead of being stored in the storage unit 56 of the image processing apparatus 5. A standard pattern composed of standard luminance data to be compared with luminance data subjected to binarization processing or edge detection processing from image data captured by the video cameras 1, 2, 3, 4 is received from the server 10 and video The imaging area of the cameras 1, 2, 3, 4 is determined. Since other processes are the same as those in the first embodiment, description thereof is omitted.

これにより、車両ごとに標準パターン部566を記憶する必要がなく、種々のビデオカメラに対応した標準パターンを備える標準パターン部566を、サーバー10にまとめて記憶することにより、標準パターンの作成、更新などが容易に行うことができるとともに、新規のビデオカメラが商品化された場合においても、サーバー10から前記ビデオカメラ用の標準パターンを受信することができ、ビデオカメラの選択の自由度が向上する。   Accordingly, it is not necessary to store the standard pattern portion 566 for each vehicle, and the standard pattern portion 566 having the standard patterns corresponding to various video cameras is stored in the server 10 together, thereby creating and updating the standard pattern. The standard pattern for the video camera can be received from the server 10 even when a new video camera is commercialized, and the degree of freedom in selecting the video camera is improved. .

次に、実施の形態5において、ビデオカメラ1、2、3、4が撮像した画像データに基づいて、サーバー10において、ビデオカメラ1、2、3、4の撮像領域を判定する場合について説明する。
この場合は、画像処理部53は、FPGA536を備え、輝度抽出部531、2値化部532、エッジ検出部533、比較部534及び判定部535は、サーバー10の画像処理部104に置き換わる。
Next, in the fifth embodiment, the case where the server 10 determines the imaging area of the video cameras 1, 2, 3, 4 based on the image data captured by the video cameras 1, 2, 3, 4 will be described. .
In this case, the image processing unit 53 includes an FPGA 536, and the luminance extraction unit 531, binarization unit 532, edge detection unit 533, comparison unit 534, and determination unit 535 are replaced with the image processing unit 104 of the server 10.

ビデオカメラ1、2、3、4が撮像した画像データは、通信部57を介して、サーバー10へ送信される。受信部102は、前記画像データを受信し、画像処理部104の画像メモリに前記画像データを記憶する。
画像処理部104は、前記画像データを読み出して、実施の形態1と同様の処理を行う。なお、処理の説明は実施の形態1と同様であるので、説明は省略する。
Image data captured by the video cameras 1, 2, 3, and 4 is transmitted to the server 10 via the communication unit 57. The receiving unit 102 receives the image data and stores the image data in the image memory of the image processing unit 104.
The image processing unit 104 reads the image data and performs the same processing as in the first embodiment. Note that the description of the process is the same as that of the first embodiment, and thus the description thereof is omitted.

画像処理部104で、判定されたビデオカメラ1、2、3、4の撮像領域の判定結果は、送信部103を介して、画像処理装置5へ送信される。
前記判定結果を受信した画像処理装置5は、前記判定結果に基づいて、ビデオカメラ構成テーブル部567を作成し、記憶部56に記憶する。
運転者が操作部を操作して、所要のビデオカメラを動作させると、該ビデオカメラからの画像を表示させることが可能となる。FPGA536における画像処理は実施の形態1と同様であるので、説明は省略する。
The determination results of the imaging areas of the video cameras 1, 2, 3, and 4 determined by the image processing unit 104 are transmitted to the image processing apparatus 5 via the transmission unit 103.
The image processing apparatus 5 that has received the determination result creates a video camera configuration table unit 567 based on the determination result and stores it in the storage unit 56.
When the driver operates the operation unit to operate a required video camera, an image from the video camera can be displayed. Since the image processing in the FPGA 536 is the same as that in Embodiment 1, the description thereof is omitted.

これにより、夫々の車両に搭載された画像処理装置5によりビデオカメラの撮像領域の判定を行う必要がなく、新規に搭載したビデオカメラに対しても、該ビデオカメラの撮像領域の判定結果をサーバー10から得ることができる。   Thereby, it is not necessary to determine the imaging area of the video camera by the image processing device 5 installed in each vehicle, and the determination result of the imaging area of the video camera is also stored in the server for the newly installed video camera. 10 can be obtained.

本発明に係る画像表示システムの概要を示す模式図である。1 is a schematic diagram showing an outline of an image display system according to the present invention. ビデオカメラの構成を示すブロック図である。It is a block diagram which shows the structure of a video camera. 画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus. 輝度の標準パターンを示す説明図である。It is explanatory drawing which shows the standard pattern of a brightness | luminance. 画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image process part. 記憶部の構成を示すブロック図である。It is a block diagram which shows the structure of a memory | storage part. 全方位監視用のビデオカメラが撮像した画像と輝度パターンの例を示す説明図である。It is explanatory drawing which shows the example of the image and luminance pattern which the video camera for omnidirectional monitoring imaged. 後方監視用のビデオカメラが撮像した画像と輝度パターンの例を示す説明図である。It is explanatory drawing which shows the example of the image and luminance pattern which the video camera for back monitoring imaged. 右左折監視用のビデオカメラが撮像した画像と輝度パターンの例を示す説明図である。It is explanatory drawing which shows the example of the image and luminance pattern which the video camera for the left-right turn monitoring imaged. パノラマ表示処理により変換された映像の例を示す説明図である。It is explanatory drawing which shows the example of the image | video converted by the panorama display process. 鳥瞰表示処理及びグラフィックマスク処理により変換された映像の例を示す説明図である。It is explanatory drawing which shows the example of the image | video converted by the bird's-eye view display process and the graphic mask process. 画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus. 画像処理装置により実行されるコンピュータプログラムの手順を示すフローチャートである。It is a flowchart which shows the procedure of the computer program performed by an image processing apparatus. 画像処理装置により実行されるコンピュータプログラムの手順を示すフローチャートである。It is a flowchart which shows the procedure of the computer program performed by an image processing apparatus. 画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image process part. 画像処理装置により実行されるコンピュータプログラムの手順を示すフローチャートである。It is a flowchart which shows the procedure of the computer program performed by an image processing apparatus. 画像処理装置により実行されるコンピュータプログラムの手順を示すフローチャートである。It is a flowchart which shows the procedure of the computer program performed by an image processing apparatus. 本発明に係る画像表示システムの概要を示す模式図である。1 is a schematic diagram showing an outline of an image display system according to the present invention.

符号の説明Explanation of symbols

1、2、3、4 ビデオカメラ(撮像装置)
5 画像処理装置
6 表示装置
7 中継機
9 通信網
10 サーバー
11 画像読取部
12 信号処理部
13 インターフェース部
14 制御部
15 記憶部
16 画像メモリ
51 インターフェース部
52 画像メモリ
53 画像処理部
54 CPU
55 入出力部
56 記憶部
57 通信部
59 画像処理部
101 記憶部
102 受信部
103 送信部
104 画像処理部
105 制御部
200 画像処理装置
201 CPU
202 RAM
203 入力部
204 出力部
205 内部記憶装置
206 外部記憶装置
531 輝度抽出部
532 2値化処理部
533 エッジ検出部
534 比較部
535 判定部
536 FPGA
560 画像変換テーブル部
561 パノラマ表示処理部
562 鳥瞰表示処理部
563 グラフィックマスク処理部
564 合成表示処理部
565 拡大表示処理部
566 標準パターン部
567 ビデオカメラ構成テーブル部
591 輝度抽出部
592 エッジ検出部
593 演算部
594 判定部
595 FPGA
1, 2, 3, 4 Video camera (imaging device)
DESCRIPTION OF SYMBOLS 5 Image processing apparatus 6 Display apparatus 7 Relay machine 9 Communication network 10 Server 11 Image reading part 12 Signal processing part 13 Interface part 14 Control part 15 Memory | storage part 16 Image memory 51 Interface part 52 Image memory 53 Image processing part 54 CPU
55 Input / output unit 56 Storage unit 57 Communication unit 59 Image processing unit 101 Storage unit 102 Reception unit 103 Transmission unit 104 Image processing unit 105 Control unit 200 Image processing device 201 CPU
202 RAM
203 Input Unit 204 Output Unit 205 Internal Storage Device 206 External Storage Device 531 Luminance Extraction Unit 532 Binarization Processing Unit 533 Edge Detection Unit 534 Comparison Unit 535 Determination Unit 536 FPGA
560 Image conversion table unit 561 Panorama display processing unit 562 Bird's eye display processing unit 563 Graphic mask processing unit 564 Composite display processing unit 565 Enlarged display processing unit 566 Standard pattern unit 567 Video camera configuration table unit 591 Luminance extraction unit 592 Edge detection unit 593 Calculation Part 594 judgment part 595 FPGA

Claims (13)

車両の外界を撮像する撮像装置が撮像した画像データを、該撮像装置の撮像領域に応じた画像処理をする画像処理装置が処理した画像データを表示する画像表示方法において、
前記画像処理装置は、
撮像装置の撮像領域に応じて予め定められた標準パターンを記憶し、
撮像装置が撮像した画像データと前記標準パターンとを比較して前記撮像装置の撮像領域を判定することを特徴とする画像表示方法。
In an image display method for displaying image data processed by an image processing device that performs image processing according to an imaging area of the imaging device, image data captured by an imaging device that captures the outside of the vehicle,
The image processing apparatus includes:
A standard pattern that is predetermined according to the imaging area of the imaging device is stored,
An image display method, comprising: comparing image data captured by an imaging device and the standard pattern to determine an imaging region of the imaging device.
車両の外界を撮像する撮像装置が撮像した画像データを、該撮像装置の撮像領域に応じた画像処理をする画像処理装置が処理した画像データを表示する画像表示方法において、
前記画像処理装置は、
撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶装置から前記標準パターンを受信し、
受信した標準パターンを記憶し、
撮像装置が撮像した画像データと記憶した標準パターンとを比較して前記撮像装置の撮像領域を判定することを特徴とする画像表示方法。
In an image display method for displaying image data processed by an image processing device that performs image processing according to an imaging area of the imaging device, image data captured by an imaging device that captures the outside of the vehicle,
The image processing apparatus includes:
Receiving the standard pattern from a storage device that stores a predetermined standard pattern according to the imaging region of the imaging device;
Memorize the received standard pattern,
An image display method, comprising: comparing image data captured by an imaging device with a stored standard pattern to determine an imaging region of the imaging device.
前記画像処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとが有する輝度又は色度が一致する画素数を計数し、計数値が撮像装置の撮像領域に応じて予め定められた閾値を越える場合は、前記画像データを撮像した撮像装置の撮像領域は、前記閾値に対応する撮像領域であると判定することを特徴とする請求項1又は請求項2に記載された画像表示方法。   The image processing device counts the number of pixels in which the luminance or chromaticity pattern extracted from the image data captured by the imaging device and the standard pattern have the same luminance or chromaticity, and the counted value is an imaging region of the imaging device The imaging region of the imaging device that captured the image data is determined to be an imaging region corresponding to the threshold value when a predetermined threshold value is exceeded according to the threshold value. The image display method described in 1. 前記画像処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとの距離を算出し、算出値が予め定められた閾値より小さい場合は、前記画像データを撮像した撮像装置の撮像領域は、前記標準パターンに対応する撮像領域であると判定することを特徴とする請求項1又は請求項2に記載された画像表示方法。   The image processing device calculates the distance between the luminance or chromaticity pattern extracted from the image data captured by the imaging device and the standard pattern, and if the calculated value is smaller than a predetermined threshold, the image data 3. The image display method according to claim 1, wherein an image pickup area of the image pickup apparatus picked up is determined to be an image pickup area corresponding to the standard pattern. 車両の外界を撮像する撮像装置が撮像した画像データを、該撮像装置の撮像領域に応じた画像処理をする画像処理装置が処理した画像データを表示する画像表示方法において、
前記画像処理装置は、
撮像装置が撮像した画像データを、前記撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶手段を有する処理装置へ送信し、
前記処理装置は、
送信された画像データを受信し、
受信した画像データと前記標準パターンとを比較して、前記画像データを撮像した撮像装置の撮像領域を判定し、
判定結果を前記画像処理装置へ送信し、
前記画像処理装置は、
さらに、前記判定結果を受信することを特徴とする画像表示方法。
In an image display method for displaying image data processed by an image processing device that performs image processing according to an imaging area of the imaging device, image data captured by an imaging device that captures the outside of the vehicle,
The image processing apparatus includes:
The image data captured by the imaging device is transmitted to a processing device having storage means for storing a standard pattern determined in advance according to the imaging area of the imaging device,
The processor is
Receive the transmitted image data,
Compare the received image data with the standard pattern, determine the imaging area of the imaging device that captured the image data,
Transmitting the determination result to the image processing apparatus;
The image processing apparatus includes:
Furthermore, the said display result is received, The image display method characterized by the above-mentioned.
前記処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとが有する輝度又は色度が一致する画素数を計数し、計数値が撮像装置の撮像領域に応じて予め定められた閾値を越える場合は、前記画像データを撮像した撮像装置の撮像領域は、前記閾値に対応する撮像領域であると判定することを特徴とする請求項5に記載された画像表示方法。   The processing device counts the number of pixels in which the luminance or chromaticity pattern extracted from the image data captured by the imaging device matches the luminance or chromaticity of the standard pattern, and the count value is stored in the imaging region of the imaging device. 6. The image according to claim 5, wherein when a predetermined threshold value is exceeded, the imaging region of the imaging device that captured the image data is determined to be an imaging region corresponding to the threshold value. Display method. 前記処理装置は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとの距離を算出し、算出値が予め定められた閾値より小さい場合は、前記画像データを撮像した撮像装置の撮像領域は、前記標準パターンに対応する撮像領域であると判定することを特徴とする請求項5に記載された画像表示方法。   The processing device calculates a distance between a luminance or chromaticity pattern extracted from image data captured by the imaging device and the standard pattern, and captures the image data when the calculated value is smaller than a predetermined threshold value. The image display method according to claim 5, wherein the image pickup area of the image pickup apparatus is determined to be an image pickup area corresponding to the standard pattern. 車両の外界を撮像する撮像装置と、該撮像装置が撮像した画像データを該撮像装置の撮像領域に応じた画像処理をする画像処理装置と、該画像処理装置が処理した画像データを表示する表示装置とを備える画像表示システムにおいて、
前記画像処理装置は、
撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶手段と、
撮像装置が撮像した画像データと前記標準パターンとを比較して前記撮像装置の撮像領域を判定する判定手段と
を備えたことを特徴とする画像表示システム。
An imaging device that images the outside of the vehicle, an image processing device that performs image processing on the image data captured by the imaging device in accordance with the imaging area of the imaging device, and a display that displays the image data processed by the image processing device In an image display system comprising the apparatus,
The image processing apparatus includes:
Storage means for storing a standard pattern predetermined according to the imaging area of the imaging device;
An image display system comprising: a determination unit that compares image data captured by an imaging device and the standard pattern to determine an imaging region of the imaging device.
車両の外界を撮像する撮像装置と、該撮像装置が撮像した画像データを該撮像装置の撮像領域に応じた画像処理をする画像処理装置と、該画像処理装置が処理した画像データを表示する表示装置とを備える画像表示システムにおいて、
前記画像処理装置は、
撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶装置から前記標準パターンを受信する受信手段と、
受信した標準パターンを記憶する記憶手段と、
撮像装置が撮像した画像データと前記標準パターンとを比較して前記撮像装置の撮像領域を判定する判定手段と
を備えたことを特徴とする画像表示システム。
An imaging device that images the outside of the vehicle, an image processing device that performs image processing on the image data captured by the imaging device in accordance with the imaging area of the imaging device, and a display that displays the image data processed by the image processing device In an image display system comprising the apparatus,
The image processing apparatus includes:
Receiving means for receiving the standard pattern from a storage device that stores a predetermined standard pattern according to the imaging area of the imaging device;
Storage means for storing the received standard pattern;
An image display system comprising: a determination unit that compares image data captured by an imaging device and the standard pattern to determine an imaging region of the imaging device.
車両の外界を撮像する撮像装置と、該撮像装置が撮像した画像データを該撮像装置の撮像領域に応じた画像処理をする画像処理装置と、該画像処理装置が処理した画像データを表示する表示装置とを備える画像表示システムにおいて、
前記画像処理装置は、
撮像装置が撮像した画像データを、撮像装置の撮像領域に応じて予め定められた標準パターンを記憶する記憶手段を有する処理装置へ送信する送信手段を備え、
前記処理装置は、
送信された画像データを受信する受信手段と、
受信した画像データと前記標準パターンとを比較して、前記画像データを取り込んだ撮像装置の撮像領域を判定する判定手段と、
該判定手段が判定した判定結果を前記画像処理装置へ送信する送信手段と
を備え、
前記画像処理装置は、
さらに、前記判定結果を受信する受信手段を備えたことを特徴とする画像表示システム。
An imaging device that images the outside of the vehicle, an image processing device that performs image processing on the image data captured by the imaging device in accordance with the imaging area of the imaging device, and a display that displays the image data processed by the image processing device In an image display system comprising the apparatus,
The image processing apparatus includes:
A transmission unit that transmits image data captured by the imaging device to a processing device having a storage unit that stores a standard pattern that is predetermined according to the imaging region of the imaging device;
The processor is
Receiving means for receiving the transmitted image data;
A determination unit that compares the received image data with the standard pattern and determines an imaging region of the imaging device that has captured the image data;
Transmission means for transmitting the determination result determined by the determination means to the image processing apparatus,
The image processing apparatus includes:
The image display system further comprises receiving means for receiving the determination result.
前記判定手段は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとが有する輝度又は色度が一致する画素数を計数し、計数値が撮像装置の撮像領域に応じて予め定められた閾値を越える場合は、前記画像データを撮像した撮像装置の撮像領域は、前記閾値に対応する撮像領域であると判定することを特徴とする請求項8乃至請求項10のいずれかに記載された画像表示システム。   The determination unit counts the number of pixels in which the luminance or chromaticity pattern extracted from the image data captured by the imaging device matches the luminance or chromaticity of the standard pattern, and the count value is stored in the imaging area of the imaging device. 11. The method according to claim 8, wherein when a predetermined threshold value is exceeded, the imaging region of the imaging device that images the image data is determined to be an imaging region corresponding to the threshold value. The image display system described in any one. 前記判定手段は、撮像装置が撮像した画像データから抽出した輝度又は色度のパターンと前記標準パターンとの距離を算出し、算出値が予め定められた閾値より小さい場合は、前記画像データを撮像した撮像装置の撮像領域は、前記標準パターンに対応する撮像領域であると判定することを特徴とする請求項8乃至請求項10に記載された画像表示システム。   The determination unit calculates a distance between a luminance or chromaticity pattern extracted from image data captured by the imaging apparatus and the standard pattern, and captures the image data when the calculated value is smaller than a predetermined threshold value. The image display system according to any one of claims 8 to 10, wherein an imaging region of the imaging device is determined to be an imaging region corresponding to the standard pattern. 取り込んだ画像データを画像処理する画像処理装置において、
予め定められた標準パターンを記憶する記憶手段と、
取り込んだ画像データと前記標準パターンとを比較する比較手段と、
前記比較手段が比較した結果に基づいて、取り込んだ画像データを画像処理することを特徴とする画像処理装置。
In an image processing apparatus that performs image processing on captured image data,
Storage means for storing a predetermined standard pattern;
A comparison means for comparing the captured image data with the standard pattern;
An image processing apparatus that performs image processing on captured image data based on a result of comparison by the comparison unit.
JP2004001494A 2004-01-06 2004-01-06 Image display method, image display system and image processor Pending JP2005196423A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004001494A JP2005196423A (en) 2004-01-06 2004-01-06 Image display method, image display system and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004001494A JP2005196423A (en) 2004-01-06 2004-01-06 Image display method, image display system and image processor

Publications (1)

Publication Number Publication Date
JP2005196423A true JP2005196423A (en) 2005-07-21

Family

ID=34816992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004001494A Pending JP2005196423A (en) 2004-01-06 2004-01-06 Image display method, image display system and image processor

Country Status (1)

Country Link
JP (1) JP2005196423A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008137535A (en) * 2006-12-04 2008-06-19 Aisin Aw Co Ltd Image display method of parking assist device, and parking assist device
US8493233B2 (en) 2008-03-18 2013-07-23 Hyundai Motor Company Information display system for vehicle
JP2014527655A (en) * 2011-07-14 2014-10-16 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft Pedestrian gait recognition method and device for portable terminal
JP2015053573A (en) * 2013-09-06 2015-03-19 キヤノン株式会社 Image recording apparatus and imaging apparatus
JP2016076229A (en) * 2009-11-19 2016-05-12 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method of detecting object adjacent to rear side face of vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11276209A (en) * 1998-03-27 1999-10-12 Daiei:Kk Built-in crime preventing device for footwear
JP2000102403A (en) * 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd Shoe or insole for the same
JP3091745U (en) * 2002-07-29 2003-02-14 カラーフォーライフ カンパニー リミテッド Slippers with vibrating massage function

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11276209A (en) * 1998-03-27 1999-10-12 Daiei:Kk Built-in crime preventing device for footwear
JP2000102403A (en) * 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd Shoe or insole for the same
JP3091745U (en) * 2002-07-29 2003-02-14 カラーフォーライフ カンパニー リミテッド Slippers with vibrating massage function

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008137535A (en) * 2006-12-04 2008-06-19 Aisin Aw Co Ltd Image display method of parking assist device, and parking assist device
US8493233B2 (en) 2008-03-18 2013-07-23 Hyundai Motor Company Information display system for vehicle
JP2016076229A (en) * 2009-11-19 2016-05-12 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method of detecting object adjacent to rear side face of vehicle
JP2014527655A (en) * 2011-07-14 2014-10-16 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft Pedestrian gait recognition method and device for portable terminal
JP2015053573A (en) * 2013-09-06 2015-03-19 キヤノン株式会社 Image recording apparatus and imaging apparatus
US9866751B2 (en) 2013-09-06 2018-01-09 Canon Kabushiki Kaisha Image recording apparatus and imaging apparatus

Similar Documents

Publication Publication Date Title
US20220244387A1 (en) Imaging device and electronic device
US10899277B2 (en) Vehicular vision system with reduced distortion display
US11472338B2 (en) Method for displaying reduced distortion video images via a vehicular vision system
WO2012096058A1 (en) Image generating device
US10187590B2 (en) Multi-camera vehicle vision system with image gap fill
US20090022423A1 (en) Method for combining several images to a full image in the bird&#39;s eye view
JP2008149764A (en) Vehicle periphery monitoring device
JP5516998B2 (en) Image generation device
WO2014054753A1 (en) Image processing device and device for monitoring area in front of vehicle
JP2008102620A (en) Image processing device
JP5951785B2 (en) Image processing apparatus and vehicle forward monitoring apparatus
JP2006341713A (en) System and method for changing irradiation direction of head lamp
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JP2005196423A (en) Image display method, image display system and image processor
JP2006050451A (en) Obstacle warning system and image processing apparatus
JP7467402B2 (en) IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
JPH08315116A (en) Image processor
JP2006024120A (en) Image processing system for vehicles and image processor
JP4730819B2 (en) Peripheral status display device and peripheral status display method
JP4339749B2 (en) Image generation method and image generation apparatus
JP2007030753A (en) Obstacle display system and method
JP2007038749A (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP2004260460A (en) Road surface display method and its device
CN117774832A (en) Method for installing movable equipment and camera device
JP2010136081A (en) Vehicle-driving support device and vehicle-driving support method