JP2003264827A - Image processing apparatus - Google Patents

Image processing apparatus

Info

Publication number
JP2003264827A
JP2003264827A JP2003006257A JP2003006257A JP2003264827A JP 2003264827 A JP2003264827 A JP 2003264827A JP 2003006257 A JP2003006257 A JP 2003006257A JP 2003006257 A JP2003006257 A JP 2003006257A JP 2003264827 A JP2003264827 A JP 2003264827A
Authority
JP
Japan
Prior art keywords
image
camera
vehicle
message
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003006257A
Other languages
Japanese (ja)
Other versions
JP3670647B2 (en
JP2003264827A5 (en
Inventor
Shusaku Okamoto
修作 岡本
Masamichi Nakagawa
雅通 中川
Hiroshi Ishii
浩史 石井
Kazuo Nobori
一生 登
Atsushi Morimura
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003006257A priority Critical patent/JP3670647B2/en
Publication of JP2003264827A publication Critical patent/JP2003264827A/en
Application granted granted Critical
Publication of JP3670647B2 publication Critical patent/JP3670647B2/en
Publication of JP2003264827A5 publication Critical patent/JP2003264827A5/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus for composing images picked up with a plurality of cameras installed on a vehicle and avoiding a sense of incongruity from being caused on a displayed image even when the state of moving parts of the vehicle is changed. <P>SOLUTION: A pixel composing section 21 receives a camera image outputted from an imaging section 1 and references a mapping table MPT to produce a synthesis image. A display switching section 23 receives a signal S1 indicative a state of the moving parts such as a door and a bonnet and rewrites mapping data so as not use the camera image for the synthesis image when the state change in the moving parts effects the camera image. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車両に設置した複
数のカメラの撮像画像を用いて合成画像を生成する画像
処理技術に関するものであり、特に、車両運転の際の安
全確認の補助などに利用される監視システムに有効な技
術に属する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique for generating a composite image by using captured images of a plurality of cameras installed in a vehicle, and particularly to assist in safety confirmation when driving a vehicle. It belongs to the technology effective for the monitoring system used.

【0002】[0002]

【従来の技術】従来、車両の周囲をカメラを用いて監視
する装置として、特開平11−78692号公報に記載
の車両用映像提供装置が知られている。この装置では、
車両用映像提供のための複数のカメラを車両の周囲に取
り付け、各カメラによって撮影された画像を変形し、境
界の連続性を保ちながら合成して新たな画像を作成し、
モニタに表示している。
2. Description of the Related Art Conventionally, as a device for monitoring the surroundings of a vehicle by using a camera, a vehicle image providing device disclosed in Japanese Patent Laid-Open No. 11-78692 is known. With this device,
Attaching multiple cameras for vehicle image provision around the vehicle, transforming the images taken by each camera and synthesizing while maintaining the continuity of boundaries, create a new image,
It is displayed on the monitor.

【0003】[0003]

【発明が解決しようとする課題】上述したような車両周
囲監視システムでは、一旦設置したカメラは、通常、そ
の設置位置や向きは変化しない、ということを前提にし
て、画像処理が実行されている、と考えられる。なぜな
ら、合成画像を生成する画像処理を、カメラの設置位置
や向きをその都度考慮しながらリアルタイムで行うこと
は、処理時間や装置規模の面からみて、実用上極めて困
難であるからである。
In the vehicle surroundings monitoring system as described above, image processing is executed on the assumption that the camera once installed does not normally change its installation position or orientation. ,it is conceivable that. This is because it is extremely difficult in practice from the viewpoint of processing time and device scale to perform image processing for generating a composite image in real time while considering the installation position and orientation of the camera each time.

【0004】一方、車両の空力面やデザイン面などを考
慮すると、このような監視システムに用いられるカメラ
が、ドアミラー取り付け部付近や、トランク、ボンネッ
トなどのような可動部分に設置される可能性は、十分に
あり得る。
On the other hand, considering the aerodynamic surface and the design surface of the vehicle, it is unlikely that the camera used in such a surveillance system will be installed in the vicinity of the mounting portion of the door mirror or in a movable portion such as a trunk or a hood. , Can be enough.

【0005】このとき、次のような問題が生じる。At this time, the following problems occur.

【0006】すなわち、カメラが取り付けられた可動部
分の状態変化が、カメラの撮像画像に影響を与え、合成
画像にずれなどを生じさせる可能性がある。例えば、カ
メラがドアミラー付近に取り付けらた場合、ドアを開け
たとき、カメラの向きが変わるので、合成画像上でその
カメラ画像を用いた部分のみにずれが生じる。この結
果、表示画面上、利用者に違和感を与えることになる。
That is, a change in the state of the movable part to which the camera is attached may affect the image picked up by the camera and cause a shift or the like in the combined image. For example, when the camera is attached near the door mirror, the direction of the camera changes when the door is opened, so that only the portion using the camera image on the composite image is displaced. As a result, the user feels uncomfortable on the display screen.

【0007】また、カメラが固定部分にとりつけられた
場合でも、同様の問題が生じる。例えばドアが開いたこ
とによって、特定のカメラの撮像画像にそのドアが映り
込んだ場合には、合成画像上でそのカメラ画像を用いた
部分のみにずれが生じる。合成画像上のずれは、結果と
して、利用者に違和感を与えることになり、好ましくな
い。
The same problem occurs when the camera is mounted on the fixed portion. For example, when the door is reflected in the captured image of a specific camera due to the opening of the door, a shift occurs only in the portion using the camera image on the composite image. The shift on the composite image results in a sense of discomfort to the user, which is not preferable.

【0008】前記の問題に鑑み、本発明は、車両に設置
された複数のカメラの撮像画像を用いて合成画像を生成
する画像処理装置として、車両の可動部分の状態変化に
よってカメラの撮像画像が影響を受けた場合でも、表示
画像上、利用者に違和感を与えないようにすることを課
題とする。
In view of the above-mentioned problems, the present invention is an image processing apparatus for generating a composite image by using captured images of a plurality of cameras installed in a vehicle. It is an object to prevent the user from feeling uncomfortable in the displayed image even when affected.

【0009】[0009]

【課題を解決するための手段】前記の課題を解決するた
めに、請求項1の発明が講じた解決手段は、画像処理装
置として、車両に設置され、当該車両の周囲を撮影する
複数のカメラの撮像画像を入力とし、これらの撮像画像
から合成画像を生成し、表示装置に出力する画像処理部
を備え、前記画像処理部は、前記車両の可動部分の状態
変化に起因して、前記複数のカメラのうちの少なくとも
1つの設置位置または向きが変化し、前記合成画像が正
常でなくなるとき、前記合成画像の表示態様を通常モー
ドから異常モードに切り替え、異常モードにおいて、合
成画像に代えてまたは合成画像とともに、異常モードの
原因となる可動部分の状態変化を利用者に知らせるメッ
セージを出力するものであり、前記メッセージは、状態
変化が生じた可動部分の種類によって異なるものであ
る。
[Means for Solving the Problems] In order to solve the above-mentioned problems, a solution means provided by the invention of claim 1 is a plurality of cameras installed in a vehicle as an image processing device and photographing the surroundings of the vehicle. Of the plurality of captured images, the composite image is generated from these captured images, and the combined image is output to a display device. The image processing unit is configured to change the state of a movable part of the vehicle. When the installation position or orientation of at least one of the cameras changes and the composite image becomes abnormal, the display mode of the composite image is switched from the normal mode to the abnormal mode, and in the abnormal mode, instead of the composite image, or A message is output together with the composite image to inform the user of the state change of the movable part that causes the abnormal mode, and the message is a message indicating that the state change has occurred. It is different depending min type.

【0010】請求項1の発明によると、合成画像の表示
態様の切替によって、可動部分の状態が、例えば車両の
走行に望ましくない状態であることを、利用者に素早く
的確に知らしめることが可能になる。
According to the first aspect of the present invention, by switching the display mode of the composite image, it is possible to promptly and accurately inform the user that the state of the movable portion is not desirable for running the vehicle. become.

【0011】そして、請求項2の発明では、前記請求項
1の画像処理装置におけるメッセージは、状態変化が生
じた可動部分を特定する内容を含むものとする。
Further, in the invention of claim 2, the message in the image processing apparatus of claim 1 includes a content for specifying a movable part in which a state change has occurred.

【0012】[0012]

【発明の実施の形態】以下、本発明の一実施形態につい
て、図面を参照して説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings.

【0013】(第1の実施形態)図1は本発明の第1の
実施形態に係る監視システムの構成を示すブロック図で
ある。図1に示す監視システムにおいて、画像処理部2
は、撮像部1から出力された複数のカメラ画像を入力と
し、これらを合成して新たな画像を生成する。この合成
画像は、表示装置3によって表示される。画像処理部2
によって、本発明に係る画像処理装置が構成される。
(First Embodiment) FIG. 1 is a block diagram showing the arrangement of a monitoring system according to the first embodiment of the present invention. In the monitoring system shown in FIG. 1, the image processing unit 2
Receives a plurality of camera images output from the image pickup unit 1 and synthesizes them to generate a new image. This composite image is displayed by the display device 3. Image processing unit 2
The image processing apparatus according to the present invention is configured by the above.

【0014】図2は本実施形態におけるカメラ配置の
例、図3は各カメラの撮像画像の例を示す図である。こ
こでは、8台のカメラが、図2および図3のように配置
されているものとする。なお、図2および図3のカメラ
配置においては、周囲の死角をなるべくなくすために、
互いに隣り合うカメラの画像においてオーバーラップす
る領域ができるように、各カメラの位置・向きを決める
のが好ましい。
FIG. 2 is a diagram showing an example of camera arrangement in the present embodiment, and FIG. 3 is a diagram showing an example of a captured image of each camera. Here, it is assumed that eight cameras are arranged as shown in FIGS. 2 and 3. In the camera arrangements shown in FIGS. 2 and 3, in order to eliminate blind spots in the surroundings,
It is preferable to determine the position and orientation of each camera so that there is an overlapping area in the images of the cameras adjacent to each other.

【0015】画像処理部2は、図3に示す8枚のカメラ
画像を変形・合成し、例えば、車両上方から鉛直下方に
見下ろしたような合成画像を生成する。合成画像の生成
のためには、画像変形処理や、変形された部分画像の合
成処理(境界処理を含む)が必要になるが、図1の構成
では、マッピングテーブル参照部22を備え、撮像画像
の加工を一つの工程で行うために、マッピングテーブル
MPTを利用する。マッピングテーブルについては後述
する。
The image processing unit 2 transforms / combines the eight camera images shown in FIG. 3 to generate a composite image as viewed from above the vehicle vertically downward. Image generation processing and synthesis processing (including boundary processing) of the deformed partial images are required to generate the composite image. However, in the configuration of FIG. 1, the mapping table reference unit 22 is provided and the captured image The mapping table MPT is used to perform the processing in one step. The mapping table will be described later.

【0016】マッピングテーブル選択部41は、合成画
像の表示内容を選択し、選択した表示内容に応じたマッ
ピングテーブルMPTを指示する。この選択は、人為的
に行ってもよいし、ギア位置、ハンドル舵角またはウィ
ンカーなどの車両の状態に応じて自動的に行うようにし
てもよい。マッピングテーブルMPTを選択する信号
は、マッピングテーブル参照部22とともに、メッセー
ジ出力部26におくられる。
The mapping table selection unit 41 selects the display content of the composite image and gives an instruction to the mapping table MPT according to the selected display content. This selection may be performed artificially or automatically depending on the vehicle position such as gear position, steering wheel steering angle or winker. A signal for selecting the mapping table MPT is sent to the message output unit 26 together with the mapping table reference unit 22.

【0017】表示切替部23は、車両の可動部分の状態
を示す状態信号S1を受けて、合成画像の表示態様を切
り替える。例えば、可動部分の状態変化に起因して複数
のカメラのいずれかの設置位置または向きが変化し、合
成画像が正常でなくなるときは、合成画像の表示態様
を、通常モードから異常モードに切り替える。異常モー
ドにおいては、例えば、設置位置または向きが変化した
カメラの撮像画像を用いないで、合成画像を生成する。
The display switching section 23 receives the status signal S1 indicating the status of the movable portion of the vehicle and switches the display mode of the composite image. For example, when the installation position or orientation of any of the plurality of cameras changes due to a change in the state of the movable part and the combined image becomes abnormal, the display mode of the combined image is switched from the normal mode to the abnormal mode. In the abnormal mode, for example, a synthetic image is generated without using a captured image of a camera whose installation position or orientation has changed.

【0018】図4は車両の可動部分の状態変化に起因し
て正常でなくなった合成画像の一例である。図4の合成
画像を見ると分かるように、車両の右ドアが開状態にな
ったことに起因してカメラ1およびカメラ2の撮像画像
が変化したため、カメラ1およびカメラ2の撮像画像を
用いた部分にずれが生じている。
FIG. 4 is an example of a composite image that is no longer normal due to a change in the state of the movable portion of the vehicle. As can be seen from the composite image in FIG. 4, the images captured by the cameras 1 and 2 changed due to the opening of the right door of the vehicle, so the images captured by the cameras 1 and 2 were used. The part is misaligned.

【0019】そこで、本実施形態では、車両の可動部分
の状態として、カメラが設置された右ドア、左ドア、ト
ランクおよびボンネットの開閉状態を用いる。すなわ
ち、表示切替部23には、状態信号S1によって、例え
ば「右ドアが開いている」「ボンネットが閉じている」
などの情報が入力される。表示切替部23は、図5に示
すような車両の可動部分とカメラ番号との対応関係を示
すデータを予め有しており、この対応関係と状態信号S
1が示す情報とを用いて、合成画像の表示態様の切替を
行う。
Therefore, in this embodiment, the open / closed state of the right door, the left door, the trunk, and the hood on which the camera is installed is used as the state of the movable portion of the vehicle. That is, the display switching unit 23 is, for example, "the right door is open" and "the hood is closed" according to the status signal S1.
Information such as is entered. The display switching unit 23 previously has data indicating the correspondence between the movable parts of the vehicle and the camera numbers as shown in FIG. 5, and this correspondence and the status signal S.
The information shown by 1 is used to switch the display mode of the composite image.

【0020】図6は本発明に係る合成画像の表示態様の
切替の例を示す図である。同図中、(a)は通常モード
における合成画像である。車両の可動部分が全て閉状態
であるときは、合成画像は正常になるので図6(a)の
ように表示する。図6(b)は異常モードにおける合成
画像の例であり、車両の右ドアが開状態になったときを
想定している。図6(b)の合成画像では、右ドアに設
置されたカメラ1およびカメラ2の撮像画像を画像合成
に用いず、代わりに、所定の色で塗りつぶしている。な
お、所定の色で塗りつぶす代わりに、他の模様を用いた
り、また、適当な時間間隔で色を切り換えたりしてもか
まわない。
FIG. 6 is a diagram showing an example of switching the display mode of the composite image according to the present invention. In the figure, (a) is a composite image in the normal mode. When all the movable parts of the vehicle are in the closed state, the composite image becomes normal, and therefore, it is displayed as shown in FIG. 6 (a). FIG. 6B is an example of a composite image in the abnormal mode, and it is assumed that the right door of the vehicle is open. In the composite image of FIG. 6B, the captured images of the camera 1 and the camera 2 installed on the right door are not used for image composition, but instead are painted in a predetermined color. Instead of painting with a predetermined color, another pattern may be used, or the color may be switched at appropriate time intervals.

【0021】本実施形態では、このような合成画像の表
示態様の切替を、マッピングテーブルMPTのマッピン
グデータを書き換えることによって、実現する。
In the present embodiment, such switching of the display mode of the composite image is realized by rewriting the mapping data of the mapping table MPT.

【0022】また、異常モードでは、合成画像の出力自
体を中止したり、メッセージ出力部26がメッセージを
出力したりしてもよい。
In the abnormal mode, the output of the composite image itself may be stopped, or the message output unit 26 may output a message.

【0023】図6(c)では、異常モードにおいて、合
成画像を出力せずに、右ドアが開状態であることを示す
メッセージのみを出力している。さらに、図6(d)で
は、図6(b)に示す合成画像を表示し、かつ、図6
(c)と同じメッセージを併せて出力している。図6
(d)のように、可動部分の状態変化の影響を受けたカ
メラ画像を合成画像の生成に用いないだけでなく、その
原因となる可動部分の状態変化(例えばドアが開いてい
るなど)を利用者に知らせるメッセージを併せて出力す
ることによって、運転者など自車の状態をより素早く的
確に知ることが可能となる。
In FIG. 6C, in the abnormal mode, the composite image is not output, and only the message indicating that the right door is open is output. Further, in FIG. 6D, the composite image shown in FIG. 6B is displayed, and
The same message as in (c) is also output together. Figure 6
As shown in (d), not only the camera image affected by the change in the state of the movable part is not used for generating the composite image, but also the change in the state of the movable part (for example, the door is open) that causes the change. By also outputting a message notifying the user, it becomes possible to know the state of the vehicle such as the driver more quickly and accurately.

【0024】メッセージ出力部26は、表示すべきメッ
セージを例えば画像の形式で予め蓄えておき、車両の可
動部分の状態を示す状態信号S1と、マッピッングテー
ブル選択部41から出力されたマッピングテーブルMP
Tを選択する信号とを受けて、合成画像に表示すべきメ
ッセージ画像を選択し、映像信号生成部24に送る。
The message output unit 26 stores the message to be displayed in advance in the form of, for example, an image, and the status signal S1 indicating the state of the movable part of the vehicle and the mapping table output from the mapping table selection unit 41. MP
In response to the signal for selecting T, the message image to be displayed in the composite image is selected and sent to the video signal generation unit 24.

【0025】図7はメッセージ出力部26が蓄えている
メッセージ画像の例を示す図である。図7の例では、メ
ッセージの部分が白色(RGB各256階調で表現した
ときは(255,255,255))、それ以外の部分
が黒色(0,0,0)で表されている。メッセージ画像
のサイズは合成画像のサイズと同一にしておく。
FIG. 7 is a diagram showing an example of a message image stored in the message output unit 26. In the example of FIG. 7, the message part is expressed in white ((255, 255, 255) when expressed in 256 gradations for each of RGB, and the other parts are expressed in black (0, 0, 0). The size of the message image is the same as the size of the composite image.

【0026】メッセージ画像におけるメッセージの内容
および表示位置は、合成画像の生成に用いられるマッピ
ングテーブルや、状態変化が生じた可動部分の種類によ
って、異なる。このため、想定される各条件に対してそ
れぞれメッセージ画像を準備しておき、状況に応じてメ
ッセージ画像を選択して利用できることが望ましい。
The content and display position of the message in the message image differ depending on the mapping table used to generate the composite image and the type of the movable part in which the state change has occurred. For this reason, it is desirable that a message image be prepared for each assumed condition and that the message image be selected and used according to the situation.

【0027】図8は合成画像に用いるマッピングテーブ
ルおよび車両の可動部分の状態と、表示すべきメッセー
ジ画像との対応関係を示す図である。例えば、図8の2
行目は、現在選択されているマッピングテーブルが「見
下ろし」画像生成用のものであり、かつ、車両の可動部
分のうち「右ドア」が開いている場合には、メッセージ
画像として、1番の画像を選択することを意味してい
る。図7(a)は1番のメッセージ画像の例である。マ
ッピングテーブルが「見下ろし」であり、「右ドア」が
開状態のときは、右ドア部に設置されたカメラの撮像画
像は画像合成に用いられないので、合成画像上で右ドア
部に設置されたカメラ画像が用いられるはずの位置に、
「右ドアが開いている」旨のメッセージが表示される。
FIG. 8 is a diagram showing the correspondence relationship between the mapping table used for the composite image and the state of the movable portion of the vehicle, and the message image to be displayed. For example, 2 in FIG.
The second line is the message image No. 1 when the currently selected mapping table is for creating a "looking down" image and the "right door" of the moving parts of the vehicle is open. This means selecting an image. FIG. 7A is an example of the first message image. When the mapping table is "looking down" and the "right door" is open, the image captured by the camera installed on the right door is not used for image composition, so it is installed on the right door on the composite image. To the position where the camera image is supposed to be used,
The message "The right door is open" is displayed.

【0028】メッセージ出力部26は、図8に示すよう
な情報を予め記憶しておき、車両の可動部分の状態を示
す状態信号S1と、マッピングテーブルMPTを選択す
る信号とを受けて、表示すべきメッセージ画像を選択
し、出力する。映像信号生成部24は、メッセージ出力
部26から出力されたメッセージ画像を受け取り、画素
合成部21から出力された合成画像に重ねて表示する。
The message output unit 26 stores in advance the information as shown in FIG. 8 and receives and displays the status signal S1 indicating the status of the movable part of the vehicle and the signal for selecting the mapping table MPT. Select the message image that should be output and output it. The video signal generation unit 24 receives the message image output from the message output unit 26, and displays the message image superimposed on the combined image output from the pixel combining unit 21.

【0029】メッセージ画像の重ね合わせには、例え
ば、各画素について、合成画像およびメッセージ画像に
おけるRGB値をそれぞれ取り出し、値の大きい方を出
力する、などの方法を用いればよい。例えばこの方法を
図7(a)のメッセージ画像に適用すると、メッセージ
画像の黒画素の部分については合成画像のRGB値が用
いられる一方、メッセージ画像の白画素の部分について
は必ずメッセージ画像のRGB値が用いられることにな
り、この結果、メッセージの部分だけが合成画像に重ね
合わさった画像を得ることができる。この場合、白色の
メッセージが重ね合わせた結果見づらくならないよう
に、合成画像上でカメラ画像を用いない部分は、暗い色
で塗りつぶすことが望ましい。
For superimposing the message images, for example, for each pixel, the RGB values in the composite image and the message image are respectively taken out and the one with the larger value may be output. For example, when this method is applied to the message image of FIG. 7A, the RGB value of the composite image is used for the black pixel portion of the message image, while the RGB value of the message image is always used for the white pixel portion of the message image. Will be used, resulting in an image in which only part of the message is superimposed on the composite image. In this case, it is desirable to fill a portion of the composite image where the camera image is not used with a dark color so that the white message does not become hard to see as a result of being superimposed.

【0030】また、この重ね合わせ方法を用いて、いず
れの可動部分も閉じている状態(すなわち通常モード)
の合成画像を表示する場合には、メッセージ画像とし
て、図7(b)に示すような全体を黒(0,0,0)で
塗りつぶした画像を準備すればよい。すなわち、図8の
最下行に示した7番目のメッセージ画像として、図7
(b)に示すような画像を準備すればよい。もちろん、
通常モードにおいては、メッセージ出力部26がメッセ
ージ画像を出力しないようにしてもかまわない。
Further, by using this superposition method, all movable parts are closed (that is, normal mode).
In the case of displaying the composite image of No. 2, an image in which the whole is painted in black (0, 0, 0) as shown in FIG. 7B may be prepared as the message image. That is, as the seventh message image shown in the bottom line of FIG.
An image as shown in (b) may be prepared. of course,
In the normal mode, the message output unit 26 may not output the message image.

【0031】さらに、複数箇所の可動部分が開状態であ
る場合には、次のように対応することができる。例え
ば、マッピングテーブルとして「見下ろし」が選択され
ており、かつ、右ドアと左ドアの両方が開いている場合
には、メッセージ出力部26は、まず、それぞれの条件
に対応したメッセージ画像として1番(例えば図7
(a))および2番(例えば図7(c))の画像を選択
する。そして、各画素について、1番の画像および2番
の画像におけるRGB値をそれぞれ取り出し、値の大き
い方を選択することによって、新たなメッセージ画像
(例えば図7(d))を生成し、これを映像信号生成部
24に送ればよい。
Further, when a plurality of movable parts are in the open state, the following measures can be taken. For example, when "looking down" is selected as the mapping table and both the right door and the left door are open, the message output unit 26 firstly outputs the first message image corresponding to each condition. (For example, in FIG.
The images of (a)) and No. 2 (for example, FIG. 7C) are selected. Then, for each pixel, a new message image (for example, FIG. 7D) is generated by extracting the RGB values in the first image and the second image, respectively, and selecting the one with the larger value. It may be sent to the video signal generator 24.

【0032】なおここでは、メッセージとして文字を利
用するものとしたが、文字に限らず、例えば簡略図やイ
ラストなどをメッセージとして用いてもかまわない。ま
た、異常モードにおいてメッセージ出力を行わない場合
には、メッセージ出力部26を省いて良いことはいうま
でもない。
Although the character is used as the message here, the message is not limited to the character and, for example, a simplified drawing or an illustration may be used as the message. Needless to say, the message output unit 26 may be omitted when the message is not output in the abnormal mode.

【0033】以下、マッピングデータの書き換えについ
て、詳細に説明する。
The rewriting of the mapping data will be described in detail below.

【0034】「マッピングテーブル」とは、合成画像の
画素と、各カメラ画像の画素データとの対応関係が記述
されたテーブルのことをいい、合成画像の生成処理を高
速に行うために用いられる。
The "mapping table" refers to a table in which the correspondence between the pixels of the composite image and the pixel data of each camera image is described, and is used to perform the composite image generation processing at high speed.

【0035】カメラ画像の画素と合成画像の画素とは、
1対1に対応する場合もあるし、複数対1に対応する場
合もある。1対1に対応するか、または複数対1に対応
するかは、カメラの設置位置や、生成する合成画像の種
類などに依存する。例えば、カメラ画像の境界部におい
て境界処理が行われる場合には、カメラ画像の画素と合
成画像の画素とは複数対1に対応することが多い。
The pixel of the camera image and the pixel of the composite image are
There may be a one-to-one correspondence, or a plurality of one-to-one correspondence. Whether one-to-one correspondence or multiple-to-one correspondence depends on the installation position of the camera, the type of synthesized image to be generated, and the like. For example, when the boundary processing is performed at the boundary portion of the camera image, the pixels of the camera image and the pixels of the combined image often correspond to each other in a plural-to-one manner.

【0036】図9はマッピングテーブルの一例を示す模
式図である。図9に示すマッピングテーブルでは、合成
画像の各画素座標(i,j)に対応して、マッピングデ
ータがそれぞれ設けられている。
FIG. 9 is a schematic diagram showing an example of the mapping table. In the mapping table shown in FIG. 9, mapping data is provided corresponding to each pixel coordinate (i, j) of the composite image.

【0037】例えば、画素座標(i1,j1)に対応し
て、マッピングデータMP1が設けられている。このマ
ッピングデータMP1は、合成画像の座標(i1,j
1)の画素の生成のために、カメラ1の撮像画像の座標
(12,45)の画素データのみが用いられることを表
している。また、必要度が「1」であるので、この場合
は、合成画像の座標(i1,j1)の画素値として、カ
メラ1の撮影画像の座標(12,45)の画素データが
そのまま用いられる。
For example, mapping data MP1 is provided corresponding to the pixel coordinates (i1, j1). This mapping data MP1 has the coordinates (i1, j
This indicates that only pixel data at coordinates (12, 45) of the image captured by the camera 1 is used for generating the pixel 1). Further, since the necessity degree is “1”, in this case, the pixel data of the coordinates (12, 45) of the captured image of the camera 1 is used as it is as the pixel value of the coordinates (i1, j1) of the combined image.

【0038】また、画素座標(i2,j2)に対応し
て、マッピングデータMP2が設けられている。このマ
ッピングデータMP2は、合成画像の座標(i2,j
2)の画素の生成のために、カメラ1の撮影画像の座標
(10,10)の画素データと、カメラ0の撮影画像の
座標(56,80)の画素データとが用いられることを
表している。この場合、合成画像の座標(i2,j2)
の画素値は、必要度に応じて、例えば、 画素値={(カメラ1の座標(56,80)の画素値)
×0.5+(カメラ0の座標(10,10)の画素値)
×0.3}/(0.5+0.3) のように決めることができる。
Further, mapping data MP2 is provided corresponding to the pixel coordinates (i2, j2). This mapping data MP2 has coordinates (i2, j
It is shown that the pixel data of the coordinates (10, 10) of the captured image of the camera 1 and the pixel data of the coordinates (56, 80) of the captured image of the camera 0 are used for the generation of the pixel of 2). There is. In this case, the coordinates (i2, j2) of the composite image
The pixel value of is, for example, pixel value = {(pixel value of coordinates (56,80) of camera 1)
× 0.5 + (pixel value of coordinates (10,10) of camera 0)
X0.3} / (0.5 + 0.3) can be determined.

【0039】このようなマッピングテーブルを、予め幾
何変換等を用いた計算または手作業などによって予め作
成しておくことによって、所望の合成画像、例えば車両
の周囲の全体や後方または側方を表すような合成画像
を、高速に生成することができる。そして、合成画像生
成に用いるマッピングテーブルを切り替えることによっ
て、合成画像の表示モードを容易に切り替えることがで
きる。この表示モードの切替は、手動によっても可能で
あり、また車両の走行状態に応じて自動的に行うことも
可能である。
By creating such a mapping table in advance by calculation using geometrical transformation or the like or by manual work, it is possible to represent a desired composite image, for example, the entire periphery of the vehicle or the rear or side. A composite image can be generated at high speed. Then, by switching the mapping table used for generating the composite image, the display mode of the composite image can be easily switched. The switching of the display modes can be performed manually or automatically according to the running state of the vehicle.

【0040】マッピングテーブルは具体的には、例えば
ROM(EEPROM等の書き込み・消去可能なROM
を含む)またはRAMに格納されている。マッピングテ
ーブルの格納は、例えば、画像処理部内のプロセッサが
計算で求めたマッピングデータをROMまたはRAMに
書き込むことによって実現してもよいし、ファームウェ
アとして提供されるマッピングテーブルデータを、通信
回線やディスクドライブ等のデータ転送手段を用いてR
AMまたはROMに書き込むようにしてもよい。
The mapping table is specifically, for example, a ROM (writable / erasable ROM such as EEPROM).
Stored in RAM). The storage of the mapping table may be realized, for example, by writing the mapping data calculated by the processor in the image processing unit in the ROM or the RAM, or the mapping table data provided as firmware may be stored in the communication line or the disk drive. R using data transfer means such as
You may make it write in AM or ROM.

【0041】次に、マッピングテーブルMPTおよび表
示切替部23を用いて、合成画像を生成する動作につい
て、説明する。
Next, the operation of generating a composite image using the mapping table MPT and the display switching section 23 will be described.

【0042】図10は本実施形態に係る画像合成動作の
全体の流れを示すフローチャートである。まず、ステッ
プS11において、撮像部1のフレームメモリ12a,
12bの切替を行う。タイミング生成部25は、合成画
像の動画系列を生成するためのタイミング信号を生成す
る。タイミング生成部25から出力されたフレーム開始
のタイミング信号によって、撮像部1は、各カメラ11
の撮像画像を書き込むフレームメモリと、画像処理部2
から参照されるフレームメモリとを切り替える。これ
は、後述するように、画像処理部2から参照されるカメ
ラ画像の画素の位置が、カメラ11からの書き込みの順
序とは無関係に飛び飛びになるので、書き込みと参照と
が干渉しないようにするためである。
FIG. 10 is a flow chart showing the overall flow of the image synthesizing operation according to this embodiment. First, in step S11, the frame memory 12a of the imaging unit 1,
12b is switched. The timing generation unit 25 generates a timing signal for generating a moving image series of synthetic images. In response to the frame start timing signal output from the timing generation unit 25, the imaging unit 1 causes the cameras 11 to
A frame memory for writing the captured image of the
Switch to the frame memory referenced from. As will be described later, this is because the positions of the pixels of the camera image referred to by the image processing unit 2 are scattered irrespective of the order of writing from the camera 11, so that writing and reference do not interfere with each other. This is because.

【0043】次に、ステップS12において、タイミン
グ生成部25は、合成出力のタイミングに合わせて、出
力すべき合成画像の画素を設定する。
Next, in step S12, the timing generation section 25 sets the pixels of the composite image to be output in synchronization with the composite output timing.

【0044】そして、ステップS13において、マッピ
ングテーブル参照部22は、タイミング生成部25によ
って設定された画素に対応するマッピングデータを、設
定されたマッピングテーブルMPTから読み出し、表示
切替部23に出力する。ステップS20において、表示
切換部23は、状態信号S1を受けて、必要に応じて、
マッピングテーブル参照部22から読み出されたマッピ
ングデータを書き換える。そして、画素合成部21に出
力する。ステップS20の詳細については後述する。
Then, in step S 13, the mapping table reference section 22 reads the mapping data corresponding to the pixel set by the timing generation section 25 from the set mapping table MPT and outputs it to the display switching section 23. In step S20, the display switching unit 23 receives the status signal S1 and, if necessary,
The mapping data read from the mapping table reference unit 22 is rewritten. Then, it outputs to the pixel composition unit 21. Details of step S20 will be described later.

【0045】ステップS30において、画素合成部21
は、入力されたマッピングデータに応じて、タイミング
生成部25によって設定された画素の値を合成し、映像
信号生成部24に出力する。そして、ステップS14に
おいて、映像信号生成部24は、タイミング生成部25
からのタイミング信号に応じて、入力された合成画像の
画素の値を映像信号に変換し、表示装置3に出力する。
In step S30, the pixel composition unit 21
Composes the pixel values set by the timing generation unit 25 according to the input mapping data and outputs them to the video signal generation unit 24. Then, in step S14, the video signal generation unit 24 causes the timing generation unit 25 to operate.
The pixel value of the input composite image is converted into a video signal in accordance with the timing signal from and output to the display device 3.

【0046】タイミング生成部25は、ステップS12
以下の処理を、フレームの全画素について実行し(S1
5,S16)、フレームの最終画素の処理が終われば、
次のフレームの処理を開始する。
The timing generating section 25 has a step S12.
The following processing is executed for all pixels of the frame (S1
5, S16), when the processing of the last pixel of the frame is completed,
Start processing the next frame.

【0047】もちろん、フィールド単位の処理を実行し
てもかまわない。
Of course, it is also possible to execute processing in field units.

【0048】図11は図10に示すフローのステップS
20における表示切替部23の動作を示すフローチャー
トである。
FIG. 11 shows step S of the flow shown in FIG.
7 is a flowchart showing the operation of the display switching unit 23 in FIG.

【0049】まずステップS21において、入力した状
態信号S1から、車両の可動部分のいずれか、すなわち
右ドア、左ドア、トランクまたはボンネットのうちのい
ずれかの開閉状態を読み出す。そして、可動部分が開状
態のとき(S22でYES)はステップS23にすす
み、図5に示すような予め有しているデータから、その
可動部分に設置されているカメラの番号を得る。一方、
閉状態のとき(S22でNO)は、他の可動部分の開閉
状態の読み出しを行う(S27,S21)。
First, in step S21, one of the movable parts of the vehicle, that is, the open / closed state of the right door, the left door, the trunk or the hood is read from the input state signal S1. Then, when the movable part is in the open state (YES in S22), the process proceeds to step S23, and the number of the camera installed in the movable part is obtained from the data stored in advance as shown in FIG. on the other hand,
In the closed state (NO in S22), the open / closed states of other movable parts are read (S27, S21).

【0050】ステップS25では、ステップS23で得
たカメラ番号と、マッピングデータに書かれたカメラ番
号とが一致するか否かを調べる。一致するとき(S25
でYES)はステップS26にすすみ、マッピングデー
タにおけるそのカメラ番号に関するデータを、カメラ使
用不可状態を表す内容に書き換える。図11の例では、
カメラ番号、X座標およびY座標の値を全て「−1」に
書き換えている。一方、カメラ番号が一致しないとき
(S25でNO)は、他の可動部分の開閉状態の読み出
しを行う(S27,S21)。
In step S25, it is checked whether or not the camera number obtained in step S23 matches the camera number written in the mapping data. When they match (S25
If YES, the process proceeds to step S26, and the data regarding the camera number in the mapping data is rewritten to the content indicating the camera unusable state. In the example of FIG. 11,
The values of the camera number, the X coordinate, and the Y coordinate are all rewritten to "-1". On the other hand, when the camera numbers do not match (NO in S25), the open / closed states of other movable parts are read (S27, S21).

【0051】全ての可動部分について、上述の処理が終
了したとき(S27でYES)はステップS28にすす
み、マッピングデータの必要度を再計算し、処理を終了
する。
When the above process is completed for all the movable parts (YES in S27), the process proceeds to step S28, the necessity degree of the mapping data is recalculated, and the process is completed.

【0052】ステップS20における表示切替部23の
動作を、図9に示すマッピングデータMP2が表示切換
部23に入力された場合を例にとって、具体的に説明す
る。なおここでは、説明のために、車両の右ドアのみ
が、開状態であるものとする。
The operation of the display switching unit 23 in step S20 will be specifically described by taking the case where the mapping data MP2 shown in FIG. 9 is input to the display switching unit 23 as an example. For the sake of explanation, it is assumed here that only the right door of the vehicle is open.

【0053】まず、車両の右ドアが開状態であると分か
るので(S21,S22)、図5に示す対応関係を参照
し、右ドアに設置されたカメラのカメラ番号として
「1」および「2」を得る(S23)。
First, since it is known that the right door of the vehicle is in the open state (S21, S22), referring to the correspondence shown in FIG. 5, "1" and "2" are set as the camera numbers of the cameras installed in the right door. Is obtained (S23).

【0054】次に、カメラ番号「1」および「2」が、
マッピングデータMP2に記述されたカメラ番号と一致
するか否かを調べる(S25)。カメラ番号「1」はマ
ッピングデータMP2に記述されているので、カメラ1
に関するデータをカメラ使用不可状態を表す内容に書き
換える(S26)。一方、カメラ番号「2」について
は、マッピングデータMP2に記述されていないので、
書き換えは行わない。
Next, the camera numbers "1" and "2" are
It is checked whether or not the camera number described in the mapping data MP2 matches (S25). Since the camera number “1” is described in the mapping data MP2, the camera 1
Is rewritten to the content indicating the camera unusable state (S26). On the other hand, since the camera number “2” is not described in the mapping data MP2,
Do not rewrite.

【0055】他の可動部分については全て閉状態である
ので、ステップS28に進み、必要度の再計算を行う。
ここでは、使用不可になったカメラ1についてその必要
度を「0」にするとともに、カメラ0についての必要度
を「1」にする。
Since all the other movable parts are in the closed state, the process proceeds to step S28, and the necessity degree is recalculated.
Here, the necessity level of the camera 1 that has become unusable is set to “0”, and the necessity level of the camera 0 is set to “1”.

【0056】図12は図10に示すフローにおけるステ
ップS30における画素合成処理の詳細を示すフローチ
ャートである。
FIG. 12 is a flow chart showing details of the pixel synthesizing process in step S30 in the flow shown in FIG.

【0057】まず、ステップS31において、合成する
画素の値を「0」に初期化する。
First, in step S31, the value of the pixel to be combined is initialized to "0".

【0058】そしてステップS32において、対応する
マッピングデータからカメラ番号、画素のX,Y座標お
よび必要度を読み出す。読み出したカメラ番号が使用可
能であるときは、該当するカメラ画像が格納されたフレ
ームメモリから、X,Y座標に対応する画素値を読み出
し保持する(S34)。一方、読み出したカメラ番号が
使用不可であるときは、カメラ使用不可を示す所定の画
素値(例えば黒)を保持し、出力する(S35,S3
9)。
Then, in step S32, the camera number, the X and Y coordinates of the pixel, and the necessity degree are read from the corresponding mapping data. When the read camera number is usable, the pixel values corresponding to the X and Y coordinates are read and held from the frame memory in which the corresponding camera image is stored (S34). On the other hand, when the read camera number is unusable, a predetermined pixel value (for example, black) indicating that the camera is unusable is held and output (S35, S3).
9).

【0059】ステップS36において、保持した画素値
に必要度で重み付けし、合成する画素の値に加算する。
In step S36, the held pixel value is weighted by the degree of necessity and added to the value of the pixel to be combined.

【0060】上述した処理を、マッピングデータに記述
された全てのカメラ番号について、繰り返し実行し(S
37,S38)、処理が終了すると(S37でYE
S)、合成する画素の値を出力する(S39)。
The above-mentioned processing is repeatedly executed for all camera numbers described in the mapping data (S
37, S38), when the processing is completed (YE in S37)
S), the value of the pixel to be combined is output (S39).

【0061】以上のように、合成画像の表示態様を切り
替えることによって、車両の可動部分の状態が変化し、
合成画像が正常でなくなるときでも、利用者に違和感を
与えることを回避することができる。
As described above, by switching the display mode of the composite image, the state of the movable portion of the vehicle changes,
Even when the composite image is not normal, it is possible to avoid making the user feel uncomfortable.

【0062】(第2の実施形態)図13は本発明の第2
の実施形態に係る監視システムの構成を示すブロック図
である。図13では、図1と共通の構成要素には図1と
同一の符号を付しており、ここではその詳細な説明を省
略する。
(Second Embodiment) FIG. 13 shows a second embodiment of the present invention.
2 is a block diagram showing the configuration of a monitoring system according to the embodiment of FIG. 13, constituent elements common to FIG. 1 are assigned the same reference numerals as those in FIG. 1, and detailed description thereof will be omitted here.

【0063】図13の構成は、表示切換部23Aが、撮
像部1から画素合成部21Aへのカメラ画像の入力の有
無を、状態信号S1に応じて切り替えることによって、
合成画像の表示態様の切替を実現することを特徴とす
る。すなわち、画素合成部21Aのカメラ画像入力側に
スイッチ31が設けられており、表示切替部23Aは、
状態信号S1によって可動部分のいずれかが開状態であ
ることを認識すると、図5に示すような情報から、合成
画像生成に使用できないカメラを特定し、そのカメラの
撮像画像が画素合成部21Aに入力されないように、ス
イッチ31を切替制御する。
In the configuration of FIG. 13, the display switching unit 23A switches the presence / absence of a camera image input from the image pickup unit 1 to the pixel synthesizing unit 21A according to the state signal S1.
It is characterized in that the display mode of the composite image is switched. That is, the switch 31 is provided on the camera image input side of the pixel composition unit 21A, and the display switching unit 23A
When it is recognized that any of the movable parts is in the open state by the state signal S1, the camera that cannot be used for the composite image generation is identified from the information as shown in FIG. The switch 31 is switch-controlled so as not to be input.

【0064】このため、本実施形態では、第1の実施形
態と同様にマッピングテーブルを用いて画像合成を行う
が、図10に示すフローにおいてマッピングデータを変
更する処理S20が省略される点が、第1の実施の形態
と異なる。すなわち、カメラの撮像画像の入力を物理的
に中止するので、可動部分の状態に応じてマッピングデ
ータを変更する処理S20は、当然のことながら不要に
なる。そして、これに伴い、図12のフローにおけるス
テップS33,S35も省略される。
Therefore, in the present embodiment, the image composition is performed using the mapping table as in the first embodiment, but the process S20 for changing the mapping data in the flow shown in FIG. 10 is omitted. This is different from the first embodiment. That is, since the input of the image captured by the camera is physically stopped, the process S20 of changing the mapping data according to the state of the movable part is naturally unnecessary. Along with this, steps S33 and S35 in the flow of FIG. 12 are also omitted.

【0065】なお、この第2の実施形態の構成は、マッ
ピングテーブルを用いない構成の画像処理部について
も、容易に適用することができる。
The configuration of the second embodiment can be easily applied to an image processing unit that does not use a mapping table.

【0066】なお、上述した各実施形態において、表示
装置3は、典型的には液晶ディスプレイであるが、プラ
ズマディスプレイ等の他の表示デバイスを用いてもかま
わない。また、車両搭載型のGPS端末ディスプレイ、
いわゆるカーナビゲーションシステムのディスプレイと
共用してもかまわない。また、撮像部1に用いるカメラ
11は、典型的にはCCD,CMOSデバイス等の固体
撮像素子を有するカラーまたはモノクロのデジタルカメ
ラであるが、他の撮像デバイスを用いてもかまわない。
In each of the above-mentioned embodiments, the display device 3 is typically a liquid crystal display, but other display devices such as a plasma display may be used. In addition, a vehicle-mounted GPS terminal display,
It may be shared with the display of a so-called car navigation system. Further, the camera 11 used in the image pickup unit 1 is typically a color or monochrome digital camera having a solid-state image pickup device such as a CCD or CMOS device, but other image pickup devices may be used.

【0067】なお、上述した各実施形態では、ドアやボ
ンネットのような可動部分の状態変化に起因してカメラ
の設置位置や向きが変化し、これによって合成画像が正
常でなくなる場合を想定している。ところがこれ以外で
も、可動部分の状態変化に起因してカメラの撮像画像に
おいて可動部分が占める領域が変化し、これによって合
成画像が正常でなくなるような場合もあり得る。例え
ば、ドアを開けたときに、その開けたドアがあるカメラ
の撮像画像内に映り込むような場合である。
In each of the above-described embodiments, it is assumed that the camera installation position or orientation changes due to the change in the state of a movable part such as a door or bonnet, which causes the synthesized image to be abnormal. There is. However, other than this, there is a possibility that the area occupied by the movable portion in the image captured by the camera may change due to the change in the state of the movable portion, which may cause the synthesized image to become abnormal. For example, there is a case where when the door is opened, the opened door is reflected in the captured image of the camera.

【0068】このような場合でも、図5に示すようなデ
ータの代わりに、可動部分と、その可動部分の状態変化
が撮像画像に影響を与えるカメラとの対応関係を示すデ
ータを予め表示切替部に準備しておけば、上述した各実
施形態と同様の処理によって同様の効果を得ることがで
きる。
Even in such a case, instead of the data as shown in FIG. 5, data indicating the correspondence between the movable portion and the camera whose state change of the movable portion influences the picked-up image is previously displayed. If it is prepared in advance, the same effect can be obtained by the same processing as each of the above-described embodiments.

【0069】なお、開閉状態という二値情報の代わり
に、例えば、開き具合のような情報を利用することも可
能である。例えば、ドアの開き具合が微小なときは通常
モードを保ち、開き具合が所定のしきい値を超えたとき
に、通常モードから異常モードに切り替えるようにして
もよい。また、可動部分は、ドア、ボンネットおよびト
ランクに限られるものではなく、タイヤ、アンテナ、可
動式ミラーやライトなどが考えられる。例えば、タイヤ
が合成画像に影響を与える場合には、タイヤの舵角に応
じて、表示態様を切り替えるようにしても良い。
Instead of the binary information of the open / closed state, it is possible to use information such as the opening degree. For example, the normal mode may be maintained when the degree of opening of the door is minute, and the normal mode may be switched to the abnormal mode when the degree of opening exceeds a predetermined threshold value. The movable parts are not limited to doors, bonnets, and trunks, but tires, antennas, movable mirrors, lights, etc. can be considered. For example, when the tire affects the composite image, the display mode may be switched according to the steering angle of the tire.

【0070】また、本発明において、車両とは、普通自
動車、軽自動車、貨物自動車、バス等を含む。また、本
発明の技術思想が適用されうるものであれば、クレーン
車、シャベルカー等の特殊車両も本発明の車両とするこ
とができる。
In the present invention, the vehicle includes ordinary cars, light cars, freight cars, buses and the like. Further, a special vehicle such as a crane truck or a shovel car can be the vehicle of the present invention as long as the technical idea of the present invention can be applied.

【0071】なお、以上の説明では、本発明に係る監視
システムや画像処理装置は、車両に適用するものとした
が、車両以外の移動体、例えば飛行機や船舶などであっ
ても、同様に適用することができる。また、移動体以外
の監視対象、例えば店舗、住居、ショールームなどにカ
メラを設置してもよい。
In the above description, the monitoring system and the image processing apparatus according to the present invention are applied to a vehicle, but the same applies to a moving body other than the vehicle, such as an airplane or a ship. can do. Further, the camera may be installed in a monitoring target other than the moving body, such as a store, a residence, or a showroom.

【0072】また、複数のカメラの設置位置や台数は、
ここで示したものに限られるものではない。
The installation positions and the number of cameras are as follows.
It is not limited to those shown here.

【0073】また、本発明に係る画像処理装置の機能
は、その全部または一部を、専用のハードウェアを用い
て実現してもかまわないし、ソフトウェアによって実現
してもかまわない。また、本発明に係る画像処理装置の
機能の全部または一部をコンピュータに実行させるため
のプログラムを格納した記録媒体や伝送媒体を、利用す
ることも可能である。
The functions of the image processing apparatus according to the present invention may be realized in whole or in part by using dedicated hardware, or by software. It is also possible to use a recording medium or a transmission medium that stores a program for causing a computer to execute all or some of the functions of the image processing apparatus according to the present invention.

【0074】[0074]

【発明の効果】以上のように本発明によると、車両の可
動部分の状態変化に起因して合成画像に異常が生じた場
合であっても、利用者に違和感を与えるような画像が表
示されることを回避することができる。また、合成画像
の表示態様の切替によって、可動部分が例えば車両の走
行に望ましくない状態であることを、利用者に素早く的
確に知らしめることも可能になる。
As described above, according to the present invention, even if an abnormality occurs in the composite image due to the change in the state of the movable portion of the vehicle, an image that makes the user feel uncomfortable is displayed. Can be avoided. Further, by switching the display mode of the composite image, it becomes possible to promptly and accurately inform the user that the movable portion is in a state not desirable for traveling of the vehicle, for example.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態に係る監視システムの
構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a monitoring system according to a first embodiment of the present invention.

【図2】本発明の第1の実施形態におけるカメラ配置の
例である。
FIG. 2 is an example of camera arrangement in the first embodiment of the present invention.

【図3】本発明の第1の実施形態におけるカメラ配置と
各カメラの撮像画像の例を示す図である。
FIG. 3 is a diagram showing an example of camera arrangement and a captured image of each camera according to the first embodiment of the present invention.

【図4】車両可動部分の状態変化に起因して正常でなく
なった合成画像の一例である。
FIG. 4 is an example of a composite image that is no longer normal due to a change in the state of a movable portion of a vehicle.

【図5】表示切替部が有する,車両可動部分とカメラと
の対応関係を示すデータである。
FIG. 5 is data showing a correspondence relationship between a vehicle movable portion and a camera included in the display switching unit.

【図6】本発明に係る合成画像の表示態様の切替の例を
示す図である。
FIG. 6 is a diagram showing an example of switching a display mode of a composite image according to the present invention.

【図7】メッセージ画像の例を示す図である。FIG. 7 is a diagram showing an example of a message image.

【図8】マッピングテーブルおよび車両の可動部分の状
態と、表示すべきメッセージ画像との対応関係を示す図
である。
FIG. 8 is a diagram showing a correspondence relationship between a mapping table and states of movable parts of a vehicle and message images to be displayed.

【図9】マッピングテーブルの一例を示す模式図であ
る。
FIG. 9 is a schematic diagram showing an example of a mapping table.

【図10】画像合成動作の全体の流れを示すフローチャ
ートである。
FIG. 10 is a flowchart showing the overall flow of an image combining operation.

【図11】図10に示すフローにおけるステップS20
の詳細を示すフローチャートである。
FIG. 11 is a step S20 in the flow shown in FIG.
3 is a flowchart showing the details of FIG.

【図12】図10に示すフローにおけるステップS30
の詳細を示すフローチャートである。
FIG. 12 is a step S30 in the flow shown in FIG.
3 is a flowchart showing the details of FIG.

【図13】本発明の第2の実施形態に係る監視システム
の構成を示すブロック図である。
FIG. 13 is a block diagram showing a configuration of a monitoring system according to a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

2 画像処理部 3 表示装置 11 カメラ 2 Image processing unit 3 display devices 11 cameras

───────────────────────────────────────────────────── フロントページの続き (72)発明者 石井 浩史 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 登 一生 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 森村 淳 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5C054 AA01 AA05 CA04 CC03 CF01 CF05 FA00 FC12 FC13 FE11 FE16 FE25 FE26 FE28 FF03 HA30    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hiroshi Ishii             1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric             Sangyo Co., Ltd. (72) Inventor, Issei             1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric             Sangyo Co., Ltd. (72) Inventor Jun Morimura             1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric             Sangyo Co., Ltd. F-term (reference) 5C054 AA01 AA05 CA04 CC03 CF01                       CF05 FA00 FC12 FC13 FE11                       FE16 FE25 FE26 FE28 FF03                       HA30

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 車両に設置され、当該車両の周囲を撮影
する複数のカメラの撮像画像を入力とし、これらの撮像
画像から合成画像を生成し、表示装置に出力する画像処
理部を備え、 前記画像処理部は、 前記車両の可動部分の状態変化に起因して、前記複数の
カメラのうちの少なくとも1つの設置位置または向きが
変化し、前記合成画像が正常でなくなるとき、前記合成
画像の表示態様を、通常モードから異常モードに切り替
え、 異常モードにおいて、合成画像に代えて、または、合成
画像とともに、異常モードの原因となる可動部分の状態
変化を利用者に知らせるメッセージを出力するものであ
り、 前記メッセージは、状態変化が生じた可動部分の種類に
よって、異なることを特徴とする画像処理装置。
1. An image processing unit installed in a vehicle, which receives imaged images of a plurality of cameras for capturing the surroundings of the vehicle, generates a composite image from the imaged images, and outputs the image to a display device. The image processing unit displays the composite image when the installation position or orientation of at least one of the plurality of cameras changes due to the state change of the movable part of the vehicle and the composite image becomes abnormal. The mode is switched from the normal mode to the abnormal mode, and in the abnormal mode, instead of the synthetic image or together with the synthetic image, a message is output to inform the user of the state change of the movable part causing the abnormal mode. The image processing apparatus, wherein the message differs depending on the type of the movable part in which the state change has occurred.
【請求項2】 請求項1記載の画像処理装置において、 前記メッセージは、状態変化が生じた可動部分を特定す
る内容を含むことを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the message includes content that specifies a movable part in which a state change has occurred.
JP2003006257A 2003-01-14 2003-01-14 Image processing device Expired - Lifetime JP3670647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003006257A JP3670647B2 (en) 2003-01-14 2003-01-14 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003006257A JP3670647B2 (en) 2003-01-14 2003-01-14 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000155898A Division JP3599639B2 (en) 2000-05-26 2000-05-26 Image processing device

Publications (3)

Publication Number Publication Date
JP2003264827A true JP2003264827A (en) 2003-09-19
JP3670647B2 JP3670647B2 (en) 2005-07-13
JP2003264827A5 JP2003264827A5 (en) 2005-08-18

Family

ID=29208333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003006257A Expired - Lifetime JP3670647B2 (en) 2003-01-14 2003-01-14 Image processing device

Country Status (1)

Country Link
JP (1) JP3670647B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195258A (en) * 2007-02-14 2008-08-28 Alpine Electronics Inc Image change determination device, vehicle periphery monitoring device, and image change determination method
JP2011035729A (en) * 2009-08-03 2011-02-17 Alpine Electronics Inc Apparatus and method for displaying vehicle-surrounding image
WO2013034141A1 (en) * 2011-09-08 2013-03-14 Conti Temic Microelectronic Gmbh Determination of the position of structural elements of a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63146710U (en) * 1987-03-17 1988-09-28
JPH01123587A (en) * 1987-11-09 1989-05-16 Mitsubishi Motors Corp Back view system
JPH0848198A (en) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd Periphery monitoring device for vehicle
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63146710U (en) * 1987-03-17 1988-09-28
JPH01123587A (en) * 1987-11-09 1989-05-16 Mitsubishi Motors Corp Back view system
JPH0848198A (en) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd Periphery monitoring device for vehicle
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195258A (en) * 2007-02-14 2008-08-28 Alpine Electronics Inc Image change determination device, vehicle periphery monitoring device, and image change determination method
JP2011035729A (en) * 2009-08-03 2011-02-17 Alpine Electronics Inc Apparatus and method for displaying vehicle-surrounding image
WO2013034141A1 (en) * 2011-09-08 2013-03-14 Conti Temic Microelectronic Gmbh Determination of the position of structural elements of a vehicle
JP2014533348A (en) * 2011-09-08 2014-12-11 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Detection of vehicle mounting parts

Also Published As

Publication number Publication date
JP3670647B2 (en) 2005-07-13

Similar Documents

Publication Publication Date Title
JP3599639B2 (en) Image processing device
JP4254887B2 (en) Image display system for vehicles
US8294563B2 (en) Vehicle-surrounding image display apparatus and vehicle-surrounding image display method
KR101766077B1 (en) System and Method for Providing Vehicle Around View
JP4976685B2 (en) Image processing device
JP2002019556A (en) Monitoring system
JP3916958B2 (en) Vehicle rear monitoring system and monitoring device
JP4765649B2 (en) VEHICLE VIDEO PROCESSING DEVICE, VEHICLE PERIPHERAL MONITORING SYSTEM, AND VIDEO PROCESSING METHOD
JPWO2009141846A1 (en) Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
JPH01123587A (en) Back view system
KR101487161B1 (en) parking assist method for vehicle through drag and drop
JP4801654B2 (en) Composite image generator
JP4823938B2 (en) Screen switching determination device, vehicle periphery monitoring device, and screen switching determination method
US10594934B2 (en) Vehicle display
JP3961969B2 (en) Vehicle periphery image processing system
JP2003264827A (en) Image processing apparatus
EP2481636A1 (en) Parking assistance system and method
JP2000280822A (en) Back monitor device for vehicle
JP7113348B2 (en) VEHICLE AREA DISPLAY SYSTEM, DISPLAY CONTROL DEVICE AND COMPUTER PROGRAM
JP4706896B2 (en) Wide-angle image correction method and vehicle periphery monitoring system
JP7384343B2 (en) Image processing device, image processing program
JP2019156235A (en) Display control device, imaging device, camera monitoring system and computer program
JP7036164B2 (en) Driving support device, driving support method
JP7227486B2 (en) Working Machine Surrounding Monitoring System, Working Machine Surrounding Monitoring Program
JP2019154018A (en) Vehicle periphery display system, display control unit, and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050201

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20050201

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20050328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050414

R150 Certificate of patent or registration of utility model

Ref document number: 3670647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080422

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110422

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120422

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 9

EXPY Cancellation because of completion of term