JP2001346198A - On-vehicle sensor system - Google Patents

On-vehicle sensor system

Info

Publication number
JP2001346198A
JP2001346198A JP2001052260A JP2001052260A JP2001346198A JP 2001346198 A JP2001346198 A JP 2001346198A JP 2001052260 A JP2001052260 A JP 2001052260A JP 2001052260 A JP2001052260 A JP 2001052260A JP 2001346198 A JP2001346198 A JP 2001346198A
Authority
JP
Japan
Prior art keywords
vehicle
connection
sensor
attribute
connection state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001052260A
Other languages
Japanese (ja)
Other versions
JP4587581B2 (en
JP2001346198A5 (en
Inventor
Noboru Katsuta
昇 勝田
Koji Kawada
浩嗣 河田
Susumu Ibaraki
晋 茨木
Takahisa Sakai
貴久 堺
Toshiaki Mori
敏昭 森
Akihiro Yamamoto
章裕 山本
Toshihiko Kurosaki
敏彦 黒崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001052260A priority Critical patent/JP4587581B2/en
Publication of JP2001346198A publication Critical patent/JP2001346198A/en
Publication of JP2001346198A5 publication Critical patent/JP2001346198A5/ja
Application granted granted Critical
Publication of JP4587581B2 publication Critical patent/JP4587581B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle camera system that is mounted on a vehicle, uses a camera to pick up an image of a prescribed range in a space around the vehicle and displays the image, where the equipped camera can simply be replaced with other camera with different attribute (resolution or the like) from that of the equipped camera. SOLUTION: A signal processing unit 1003 detects a connection state (a state that a camera 1001 with any attribute is connected to a connection node 1002 at a position of the vehicle) on the basis of positions of connection nodes 1002 and the attribute of each camera 1001. The signal processing unit 1003 stores in advance all detectable connection states and image processing programs made correspondent to each connection state and selects and executes an image processing program corresponding to the detected connection state.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、センサシステムに
関し、より特定的には、車両に搭載され、車両を取り巻
く空間のうち所定の範囲内の情況を検知してドライバに
知らせることにより、ドライバの安全運転を支援するた
めの車載センサシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sensor system, and more particularly to a sensor system, which is mounted on a vehicle and detects a situation within a predetermined range in a space surrounding the vehicle to notify the driver of the situation, thereby detecting the driver's condition. The present invention relates to an in-vehicle sensor system for supporting safe driving.

【0002】[0002]

【従来の技術】従来、車両に搭載され、車両を取り巻く
空間のうち所定の範囲内の情況を検知してドライバに知
らせることにより、ドライバの安全運転を支援するため
の車載センサシステムが提供されている。センサとして
は、例えば、所定の範囲内の映像を捉えるカメラや、所
定の範囲内に障害物が存在することを超音波によって探
知する超音波探知器などがあった。
2. Description of the Related Art Conventionally, there has been provided an on-vehicle sensor system for supporting a safe driving of a driver by detecting a situation in a predetermined range in a space surrounding the vehicle and detecting the situation in a space surrounding the vehicle. I have. Examples of the sensor include a camera that captures an image in a predetermined range, an ultrasonic detector that detects the presence of an obstacle in a predetermined range by using an ultrasonic wave, and the like.

【0003】従来の車載センサシステムでは、例えば車
両の周りの、ドライバの目線より低い領域など、ドライ
バから死角となる領域に向けて、カメラや探知器が設け
られる。そして、カメラからの映像をモニタに表示した
り、探知器からの信号に応じて警告画面を表示したり警
告音を発することによって、死角となる領域の情報(そ
の領域の映像や、その領域内に物体が存在すること)を
ドライバに通知していた。
In a conventional on-vehicle sensor system, a camera and a detector are provided in a blind spot area from a driver, for example, an area around a vehicle lower than the driver's eyes. By displaying an image from a camera on a monitor, displaying a warning screen in response to a signal from a detector, or emitting a warning sound, information on a blind spot area (the image of the area, the Is present to the driver).

【0004】[0004]

【発明が解決しようとする課題】このように、従来の車
載センサシステムによれは、ドライバは、死角となる領
域の情報を知ることができるので、その領域にある障害
物を直接見ることができなくても、衝突などの事故を回
避することが可能となる。そして、このような車載セン
サシステムが、現在、多くのメーカによって提供されて
いる。一方では、センサの高性能化が急速に進んでお
り、例えばカメラの場合、解像度や感度のより高い新製
品が、次々に発売されている。
As described above, according to the conventional on-vehicle sensor system, the driver can know the information of the blind spot area, and can directly see the obstacle in that area. It is possible to avoid an accident such as a collision even if it is not provided. And such a vehicle-mounted sensor system is currently provided by many manufacturers. On the other hand, the performance of sensors has been rapidly increasing, and, for example, in the case of cameras, new products with higher resolution and sensitivity have been released one after another.

【0005】しかしながら、従来の車載センサシステム
では、そのシステム専用のセンサが用いられており、そ
のため、備え付けのセンサが破損したときに、ひとまず
他社製のセンサに交換するとか、より高性能なセンサが
発売されたので交換する、などといったセンサ交換が行
えなかった。交換が不可能ではないとしても、交換に伴
う設定変更や解像度・感度等の調整、センサ方向の調整
などを行うのに、ドライバは、多くの知識と大変な手間
とを要することになる。
[0005] However, in the conventional on-vehicle sensor system, a sensor dedicated to the system is used. Therefore, when a built-in sensor is damaged, it is necessary to replace it with a sensor made by another company or to use a sensor with higher performance. The sensor could not be replaced, such as replacing it because it was released. Even if the replacement is not impossible, the driver needs a lot of knowledge and a great deal of trouble to change the settings, adjust the resolution and sensitivity, adjust the sensor direction, and the like.

【0006】それゆえに、本発明の目的は、車両に搭載
され、車両を取り巻く空間のうち所定の範囲内の情況を
センサで検知してドライバに知らせる車載センサシステ
ムであって、備え付けのセンサを、そのセンサとは解像
度等が異なる別のセンサに簡単に交換できるようなシス
テムを提供することである。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a vehicle-mounted sensor system which is mounted on a vehicle and detects a situation within a predetermined range in a space surrounding the vehicle by a sensor to inform a driver of the situation. The purpose of the sensor is to provide a system that can be easily replaced with another sensor having a different resolution or the like.

【0007】[0007]

【課題を解決するための手段および発明の効果】第1の
発明は、車両に搭載され、車両を取り巻く空間のうち所
定の範囲内の情況をセンサで検知してドライバに通知す
るための車載センサシステムであって、車両を取り巻く
空間のうち所定の範囲内の情況を検知するための1以上
のセンサ、各センサが着脱自在に接続され得る、車両の
所定位置に設けられた複数の接続ノード、および各セン
サによる検知結果を処理してドライバに通知するため処
理装置を備え、各センサは、そのセンサ自身の属性を記
憶しており、各接続ノードは、その接続ノード自身の位
置を記憶しており、処理装置は、各接続ノードの位置
と、各センサの属性とに基づいて、車両のどの位置にあ
る接続ノードにどのような属性を持ったセンサが接続さ
れているか(なお、何も接続されていない接続ノードが
あってもよい)を示す接続状態を検出する接続状態検出
手段、検出可能な全ての接続状態と、各接続状態と対応
付けられた複数の処理プログラムとが予め記憶された記
憶手段、および記憶手段に記憶されている処理プログラ
ムのうち、接続状態検出手段が検出した接続状態と対応
する処理プログラムを選択して実行することによって、
各センサによる検知結果を処理する処理手段を含む。
Means for Solving the Problems and Effects of the Invention The first invention is a vehicle-mounted sensor which is mounted on a vehicle and detects a situation within a predetermined range in a space surrounding the vehicle with a sensor and notifies a driver of the situation. The system, wherein one or more sensors for detecting a situation within a predetermined range in a space surrounding the vehicle, each of the sensors can be detachably connected, a plurality of connection nodes provided at predetermined positions of the vehicle, And a processing device for processing the detection result by each sensor and notifying the driver, each sensor stores an attribute of the sensor itself, and each connection node stores a position of the connection node itself. In addition, the processing device determines, based on the position of each connection node and the attribute of each sensor, which attribute of the sensor is connected to the connection node at which position on the vehicle (in addition, Connection state detecting means for detecting a connection state indicating that there is no connection node, all connection states that can be detected and a plurality of processing programs associated with each connection state are stored in advance. By selecting and executing a processing program corresponding to the connection state detected by the connection state detection unit, from among the processing programs stored in the storage unit and the storage unit,
It includes a processing unit that processes a detection result by each sensor.

【0008】上記第1の発明(または下記第13,第1
4の発明)では、検出可能な全ての接続状態と、各接続
状態と対応付けられた複数の処理プログラムとを予め記
憶しておく。そして、各接続ノードの位置と、各センサ
の属性とに基づいて、現在の接続状態を検出し、その接
続状態と対応する処理プログラムを選択して実行する。
これにより、ドライバは、センサ交換に伴う設定変更等
を行わなくてもよいので、備え付けのセンサを、そのセ
ンサとは属性が異なる別のセンサに簡単に交換できるよ
うになる。
The first invention (or the thirteenth and first aspects described below)
In invention 4), all detectable connection states and a plurality of processing programs associated with each connection state are stored in advance. Then, based on the position of each connection node and the attribute of each sensor, the current connection state is detected, and a processing program corresponding to the connection state is selected and executed.
This eliminates the need for the driver to change settings or the like associated with sensor replacement, so that the installed sensor can be easily replaced with another sensor having a different attribute from that of the sensor.

【0009】センサは、典型的には、下記第7,第10
の発明のように、カメラや探知器であるが、所定の範囲
内の情況を検知可能なものであれば何でもよい。そし
て、センサがカメラの場合、下記第8,第9の発明のよ
うに、属性には、解像度やフレームレートなどが含まれ
る。
[0009] The sensor is typically composed of the following seventh and tenth sensors.
As in the invention of the above, the camera or the detector is used, but any device can be used as long as it can detect a situation within a predetermined range. When the sensor is a camera, the attributes include a resolution and a frame rate, as in the eighth and ninth aspects described below.

【0010】典型的には、全てのセンサがカメラである
か、または、全てのセンサが探知器であるが、下記第1
1の発明のように、一部のセンサがカメラであり、残り
のセンサが探知器であってもよい。このようにカメラと
探知器とが混在する場合には、センサの属性に、そのセ
ンサがカメラであるのか探知器であるのかを示す情報が
含まれる必要がある。
Typically, all sensors are cameras, or all sensors are detectors.
As in the first aspect, some sensors may be cameras, and the remaining sensors may be detectors. When the camera and the detector are mixed in this way, the attribute of the sensor needs to include information indicating whether the sensor is a camera or a detector.

【0011】また、接続状態を検出するための位置およ
び属性は、下記第2の発明のようにして処理装置に与え
られる。すなわち、各接続ノードが、自身に接続されて
いるセンサから属性を取得して、自身が記憶している位
置と、取得した属性とを、処理装置へ送信する。あるい
は、下記第4の発明のように、各センサが、自身の接続
されている接続ノードから位置を取得して、自身が記憶
している属性と、取得した位置とを、処理装置へ送信し
てもよい。ただし、センサの汎用性を高める観点から
は、第2の発明の方が好ましい。
Further, the position and attribute for detecting the connection state are given to the processing device as in the second invention described below. That is, each connection node acquires an attribute from a sensor connected to itself, and transmits the position stored by itself and the acquired attribute to the processing device. Alternatively, as in a fourth aspect described below, each sensor acquires a position from a connection node to which the sensor is connected, and transmits the attribute stored by the sensor and the acquired position to the processing device. You may. However, from the viewpoint of increasing the versatility of the sensor, the second invention is more preferable.

【0012】第2の発明は、第1の発明において、各接
続ノードが、その接続ノード自身に接続されているセン
サから属性を取得して、その接続ノード自身が記憶して
いる位置と、取得した属性とを、処理装置へ送信するこ
とを特徴とする。
According to a second aspect, in the first aspect, each connection node acquires an attribute from a sensor connected to the connection node itself, and acquires a position stored in the connection node itself, The transmitted attribute is transmitted to the processing device.

【0013】上記第2の発明では、接続ノードが位置お
よび属性の送信を受け持つので、センサは、自身の属性
を記憶しておくだけでよい。
In the second aspect, since the connection node is responsible for transmitting the position and the attribute, the sensor only needs to store its own attribute.

【0014】第3の発明は、第2の発明において、各接
続ノードは、その接続ノードの位置として、その接続ノ
ードの識別子を記憶しており、記憶手段には、全ての接
続ノードについての識別子と位置との対応関係を記載し
た位置テーブルがさらに記憶されており、接続状態検出
手段は、各接続ノードからの識別子および属性を受信し
て、それら識別子および属性と、位置テーブルとに基づ
いて、接続状態を検出することを特徴とする。
In a third aspect based on the second aspect, each connection node stores an identifier of the connection node as a position of the connection node, and stores in the storage means identifiers for all connection nodes. And a position table describing the correspondence between the position and the position is further stored, and the connection state detecting means receives the identifier and the attribute from each connection node, and based on the identifier and the attribute and the position table, A connection state is detected.

【0015】上記第3の発明では、各接続ノードは、自
身の位置として、自身の識別子を記憶し、一方、処理装
置は、全ての接続ノードについての識別子と位置との対
応関係を記載した位置テーブルを記憶しておく。そし
て、各接続ノードが、自身の識別子と、自身に接続され
ているセンサの属性とを送信し、処理装置は、各接続ノ
ードからの識別子および属性を受信して、それら識別子
および属性と位置テーブルとに基づいて接続状態を検出
する。このように、各接続ノードの位置をテーブルの態
様で処理装置側が管理するようにしておけば、もし接続
ノードの位置変更があっても、単に位置テーブルを書き
換えるだけでよい。
[0015] In the third aspect, each connection node stores its own identifier as its own position, while the processing device stores the correspondence between the identifiers and the positions of all the connection nodes. Remember the table. Then, each connection node transmits its own identifier and the attribute of the sensor connected to itself, and the processing device receives the identifier and the attribute from each connection node, and receives the identifier, the attribute, and the position table. And the connection state is detected based on. In this way, if the position of each connection node is managed by the processing device in the form of a table, even if the position of the connection node is changed, it is sufficient to simply rewrite the position table.

【0016】第4の発明は、第1の発明において、各セ
ンサが、そのセンサ自身の接続されている接続ノードか
ら位置を取得して、そのセンサ自身が記憶している属性
と、取得した位置とを、処理装置へ送信することを特徴
とする。
In a fourth aspect based on the first aspect, each sensor acquires a position from a connection node to which the sensor itself is connected, an attribute stored in the sensor itself, and the acquired position. Are transmitted to the processing device.

【0017】上記第4の発明では、センサが位置および
属性の送信を受け持つので、接続ノードは、自身の位置
を記憶しておくだけでよい。
In the fourth aspect, since the sensor is responsible for transmitting the position and the attribute, the connection node only needs to store its own position.

【0018】第5の発明は、第4の発明において、各接
続ノードは、その接続ノードの位置として、その接続ノ
ードの識別子を記憶しており、記憶手段には、全ての接
続ノードについての識別子と位置との対応関係を記載し
た位置テーブルがさらに記憶されており、接続状態検出
手段は、各センサからの識別子および属性を受信して、
それら識別子および属性と、位置テーブルとに基づい
て、接続状態を検出することを特徴とする。
In a fifth aspect based on the fourth aspect, each connection node stores an identifier of the connection node as a position of the connection node, and stores in the storage means identifiers for all connection nodes. And a position table describing the correspondence between the position and the position is further stored, and the connection state detection unit receives the identifier and the attribute from each sensor,
The connection state is detected based on the identifier and the attribute and the position table.

【0019】上記第5の発明では、各接続ノードは、自
身の位置として、自身の識別子を記憶し、一方、処理装
置は、全ての接続ノードについての識別子と位置との対
応関係を記載した位置テーブルを記憶しておく。そし
て、各センサが、自身の接続されている接続ノードの位
置と、自身の属性とを処理装置へ送信し、処理装置は、
各接続ノードからの識別子および属性を受信して、それ
ら識別子および属性と位置テーブルとに基づいて接続状
態を検出する。このように各接続ノードの位置をテーブ
ルの態様で処理装置側が管理するようにしておけば、も
し接続ノードの位置変更があっても、単に位置テーブル
を書き換えるだけでよい。
In the fifth invention, each connection node stores its own identifier as its own position, while the processing device stores the correspondence between the identifiers and the positions for all the connection nodes. Remember the table. Then, each sensor transmits the position of its own connected connection node and its own attribute to the processing device, and the processing device
An identifier and an attribute are received from each connection node, and a connection state is detected based on the identifier and the attribute and the position table. If the processing device manages the position of each connection node in the form of a table in this way, even if the position of the connection node is changed, it is sufficient to simply rewrite the position table.

【0020】第6の発明は、第1の発明において、各セ
ンサは、そのセンサ自身の向きを変えるための駆動手段
を含み、記憶手段には、各接続状態と対応付けられた複
数の方向制御プログラムがさらに予め記憶され、処理手
段は、各センサによる検知結果を処理する際に、記憶手
段に記憶されている方向制御プログラムのうち、接続状
態検知手段が検出した接続状態と対応する方向制御プロ
グラムを選択して実行することによって、各センサの検
知範囲を移動させることを特徴とする。
In a sixth aspect based on the first aspect, each sensor includes a drive unit for changing the direction of the sensor itself, and the storage unit includes a plurality of direction control units associated with each connection state. The program is further stored in advance, and the processing unit, when processing the detection result by each sensor, among the direction control programs stored in the storage unit, a direction control program corresponding to the connection state detected by the connection state detection unit. Is selected and executed to move the detection range of each sensor.

【0021】上記第6の発明では、さらに、各接続状態
と対応付けられた複数の方向制御プログラムをも予め記
憶しておく。そして、現在の接続状態を検出すると、そ
の接続状態と対応する処理プログラムに加えて、その接
続状態と対応する方向制御プログラムをも選択して実行
する。これにより、ドライバは、センサ交換に伴う設定
変更等に加えてセンサ方向の調整も行わなくてよいの
で、さらに簡単にセンサ交換が行えるようになる。
In the sixth aspect, a plurality of direction control programs associated with each connection state are also stored in advance. When the current connection state is detected, a direction control program corresponding to the connection state is selected and executed in addition to the processing program corresponding to the connection state. This eliminates the need for the driver to adjust the sensor direction in addition to the setting change or the like associated with the sensor replacement, thereby making it easier to perform the sensor replacement.

【0022】第7の発明は、第1の発明において、各セ
ンサが、車両を取り巻く空間のうち所定の範囲を撮像す
るカメラである。
A seventh invention is a camera according to the first invention, wherein each sensor captures an image of a predetermined range in a space surrounding the vehicle.

【0023】第8の発明は、第7の発明において、各カ
メラの属性には、少なくとも解像度が含まれる。
In an eighth aspect based on the seventh aspect, the attribute of each camera includes at least resolution.

【0024】第9の発明は、第7の発明において、各カ
メラの属性には、少なくともフレームレートが含まれ
る。
In a ninth aspect based on the seventh aspect, the attribute of each camera includes at least a frame rate.

【0025】第10の発明は、第1の発明において、各
センサが、車両を取り巻く空間のうち所定の範囲内に物
体が存在することを探知する探知器である。
A tenth invention is the detector according to the first invention, wherein each sensor detects that an object exists within a predetermined range in a space surrounding the vehicle.

【0026】第11の発明は、第1の発明において、各
センサが、車両を取り巻く空間のうち所定の範囲を撮像
するカメラ、または車両を取り巻く空間のうち所定の範
囲内に物体が存在することを探知する探知器であり、各
センサの属性には、少なくとも、そのセンサがカメラで
あるか探知器であるかを示す情報が含まれる。
According to an eleventh aspect based on the first aspect, each of the sensors is a camera for capturing an image of a predetermined range in a space surrounding the vehicle, or an object is present in a predetermined range in the space surrounding the vehicle. , And the attribute of each sensor includes at least information indicating whether the sensor is a camera or a detector.

【0027】第12の発明は、車両に搭載され、車両を
取り巻く空間のうち所定の範囲内の情況をセンサで検知
してドライバに通知するための車載センサシステムであ
って、車両を取り巻く空間のうち所定の範囲内の情況を
検知するための1以上のセンサが各々着脱自在に接続さ
れ得る、車両の所定位置に設けられた複数の接続ノー
ド、および各センサによる検知結果を処理してドライバ
に通知するため処理装置を備え、各センサには、そのセ
ンサ自身の属性が記憶されており、各接続ノードは、そ
の接続ノード自身の位置を記憶しており、処理装置は、
各接続ノードの位置と、各センサの属性とに基づいて、
車両のどの位置にある接続ノードにどのような属性を持
ったセンサが接続されているかを示す接続状態を検出す
る接続状態検出手段、検出可能な全ての接続状態と、各
接続状態と対応付けられた複数の処理プログラムとが予
め記憶された記憶手段、および記憶手段に記憶されてい
る処理プログラムのうち、接続状態検出手段が検出した
接続状態と対応する処理プログラムを選択して実行する
ことによって、各センサによる検知結果を処理する処理
手段を含む。
A twelfth invention is a vehicle-mounted sensor system mounted on a vehicle for detecting a situation within a predetermined range in a space surrounding the vehicle with a sensor and notifying a driver of the situation. A plurality of connection nodes provided at predetermined positions of the vehicle, each of which can be detachably connected to one or more sensors for detecting a situation within a predetermined range, and processes a detection result by each sensor to a driver. A processing device is provided for notifying, each sensor stores attributes of the sensor itself, each connection node stores a position of the connection node itself, and the processing device
Based on the position of each connection node and the attributes of each sensor,
A connection state detecting means for detecting a connection state indicating a sensor having what kind of attribute is connected to a connection node at which position on the vehicle, all detectable connection states, and each connection state are associated with each connection state. A plurality of processing programs and the storage means pre-stored, and among the processing programs stored in the storage means, by selecting and executing a processing program corresponding to the connection state detected by the connection state detection means, It includes a processing unit that processes a detection result by each sensor.

【0028】上記第12の発明が第1の発明と異なるの
は、センサを備えない点だけである。
The twelfth invention differs from the first invention only in that no sensor is provided.

【0029】第13の発明は、車両に搭載され、車両を
取り巻く空間のうち所定の範囲内の情況をセンサで検知
してドライバに通知するための車載センサシステムを制
御する方法であって、車載センサシステムには、車両を
取り巻く空間のうち所定の範囲内の情況を検知するため
の1以上のセンサ、および各センサが着脱自在に接続さ
れ得る、車両の所定位置に設けられた複数の接続ノード
が備わり、各センサには、そのセンサ自身の属性が記憶
されており、各接続ノードには、その接続ノード自身の
位置が記憶されており、各接続ノードの位置と、各セン
サの属性とに基づいて、車両のどの位置にある接続ノー
ドにどのような属性を持ったセンサが接続されているか
を示す接続状態を検出する接続状態検出ステップ、検出
可能な全ての接続状態と、各接続状態と対応付けられた
複数の処理プログラムとを予め記憶する記憶ステップ、
および記憶ステップで記憶した処理プログラムのうち、
接続状態検出ステップで検出した接続状態と対応する処
理プログラムを選択して実行することによって、各セン
サによる検知結果を処理してドライバに通知するステッ
プを含む。
A thirteenth invention is a method for controlling an in-vehicle sensor system which is mounted on a vehicle and detects a situation within a predetermined range in a space surrounding the vehicle with a sensor and notifies a driver of the situation. The sensor system includes one or more sensors for detecting a situation within a predetermined range in a space surrounding the vehicle, and a plurality of connection nodes provided at predetermined positions of the vehicle to which the sensors can be detachably connected. Each sensor has its own attributes stored therein, each connection node has its own location stored therein, and has the location of each connection node and the attributes of each sensor. A connection state detecting step for detecting a connection state indicating a sensor having what kind of attribute is connected to a connection node at which position of the vehicle based on the connection node, and all detectable connections On purpose, storage step of previously storing a plurality of processing programs associated with each connection state,
And the processing program stored in the storage step,
The method includes a step of selecting and executing a processing program corresponding to the connection state detected in the connection state detection step, thereby processing a result of detection by each sensor and notifying the driver.

【0030】第14の発明は、車両に搭載され、車両を
取り巻く空間のうち所定の範囲内の情況をセンサで検知
してドライバに通知するための車載センサシステムを制
御するコンピュータによって実行される制御プログラム
であって、車載センサシステムには、車両を取り巻く空
間のうち所定の範囲内の情況を検知するための1以上の
センサ、および各センサが着脱自在に接続され得る、車
両の所定位置に設けられた複数の接続ノードが備わり、
各センサには、そのセンサ自身の属性が記憶されてお
り、各接続ノードには、その接続ノード自身の位置が記
憶されており、各接続ノードの位置と、各センサの属性
とに基づいて、車両のどの位置にある接続ノードにどの
ような属性を持ったセンサが接続されているかを示す接
続状態を検出する接続状態検出ステップ、検出可能な全
ての接続状態と、各接続状態と対応付けられた複数の処
理プログラムとを予め記憶する記憶ステップ、および記
憶ステップで記憶した処理プログラムのうち、接続状態
検出ステップで検出した接続状態と対応する処理プログ
ラムを選択して実行することによって、各センサによる
検知結果を処理してドライバに通知するステップを含
む。
A fourteenth aspect of the present invention is a control executed by a computer which is mounted on a vehicle and controls a vehicle-mounted sensor system for detecting a situation within a predetermined range in a space surrounding the vehicle with a sensor and notifying a driver. The vehicle-mounted sensor system includes one or more sensors for detecting a situation within a predetermined range in a space surrounding the vehicle, and a sensor provided at a predetermined position of the vehicle to which each sensor can be detachably connected. With multiple connected nodes,
Each sensor stores the attribute of the sensor itself, each connection node stores the position of the connection node itself, and based on the position of each connection node and the attribute of each sensor, A connection state detection step for detecting a connection state indicating which attribute of the sensor is connected to a connection node at which position on the vehicle, all detectable connection states, and each connection state are associated with each connection state. A storage step of storing a plurality of processing programs in advance, and a processing program corresponding to the connection state detected in the connection state detection step is selected and executed from among the processing programs stored in the storage step. And processing the detection result to notify the driver.

【0031】[0031]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら説明する。図1は、本発明の一
実施形態に係る車載カメラシステムの構成を示すブロッ
ク図である。図1において、本車載カメラシステムは、
撮像を行うカメラ1001と、各カメラ1001が接続
され得る、車両1000の所定位置に設けられた複数の
接続ノード1002(ここでは5つの接続ノード100
1 〜10025 )と、各カメラ1001からの撮像信
号を処理して映像信号を出力する信号処理装置1003
と、信号処理装置1003が接続される接続ノード10
04と、信号処理装置1003からの映像信号を表示す
るモニタ1005とを備えている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle-mounted camera system according to an embodiment of the present invention. In FIG. 1, the vehicle-mounted camera system includes:
A camera 1001 that performs imaging and a plurality of connection nodes 1002 (here, five connection nodes 100) provided at predetermined positions of the vehicle 1000 to which the cameras 1001 can be connected.
2 1 ~1002 5), the signal processor outputs a video signal by processing the image pickup signal from the camera 1001 1003
And the connection node 10 to which the signal processing device 1003 is connected
04 and a monitor 1005 for displaying a video signal from the signal processing device 1003.

【0032】図1には、一例として、本システムが3台
の標準解像度カメラ10022 〜10024 を備えてお
り、それらのカメラ(10012 〜10014 )が3つ
の接続ノード10022 〜10024 に接続された第1
の接続状態が示されている。
[0032] Figure 1, as an example, the system is provided with the three standard resolution cameras 1002 2-1002 4, their camera (1001 2-1001 4) are three connection nodes 1002 2-1002 4 The first connected to
Is shown.

【0033】上記第1の接続状態は、本システムに2台
の標準解像度カメラ10011 および10015 が追加
されて、それらが残り2つの接続ノード10021 およ
び10025 に接続されることによって、第2の接続状
態に変化し得る。または、上記第1の状態は、接続ノー
ド10023 に接続されている標準解像度カメラ100
3 が高解像度カメラ1001’に交換されることによ
って、第3の接続状態に変化し得る。
[0033] The first connection state is the present system of two standard resolution camera 1001 1 and 1001 5 are added, by which they are connected to the remaining two connection nodes 1002 1 and 1002 5, the 2 connection state. Or, the first state, standard resolution camera 100 connected to the connection node 1002 3
By 1 3 is replaced with a high-resolution camera 1001 'may vary to a third connection state.

【0034】なお、ここでいう接続状態の定義や、第1
〜第3の接続状態の詳細については、後述する。また、
第1〜第3の接続状態は、本発明の特徴を理解するため
の典型例として記載しているのであって、他にも様々な
接続状態があり得る。第1の接続状態から第2,第3の
接続状態への変化も一例であり、他にも様々な変化が起
こり得る。
Note that the definition of the connection state here and the first
Details of the third to third connection states will be described later. Also,
The first to third connection states are described as typical examples for understanding the features of the present invention, and there may be various other connection states. The change from the first connection state to the second and third connection states is also an example, and various other changes may occur.

【0035】図2は、図1のカメラ1001(または1
001’)の構成例を示すブロック図である。図2にお
いて、カメラ1001は、撮像部1101と、撮像処理
部1102と、記憶部1103とを備えている。撮像部
1101は、映像を光学的に捕捉して電気信号に変換
し、撮像信号を出力する。撮像処理部1102は、撮像
部1101から出力される撮像信号を受け、その信号を
処理して映像信号を出力する。撮像処理部1102から
出力される映像信号は、接続ノード1002を通じてバ
ス1006へと送出される。
FIG. 2 shows the camera 1001 (or 1) shown in FIG.
FIG. 001 ′) is a block diagram illustrating a configuration example. 2, the camera 1001 includes an imaging unit 1101, an imaging processing unit 1102, and a storage unit 1103. The imaging unit 1101 optically captures an image, converts the captured image into an electric signal, and outputs an imaging signal. The imaging processing unit 1102 receives an imaging signal output from the imaging unit 1101, processes the signal, and outputs a video signal. The video signal output from the imaging processing unit 1102 is transmitted to the bus 1006 through the connection node 1002.

【0036】記憶部1103には、カメラ属性1104
が記憶されている。カメラ属性1104は、そのカメラ
1001の属性を示す情報であり、属性の具体例として
は、例えば、解像度(画像サイズ)やフレームレートな
どが挙げられる。カメラ1001が接続ノード1002
に接続されると、撮像処理部1102は、記憶部110
3からカメラ属性1104を読み出して、接続ノード1
002に通知する。
The storage unit 1103 stores a camera attribute 1104
Is stored. The camera attribute 1104 is information indicating an attribute of the camera 1001, and specific examples of the attribute include a resolution (image size) and a frame rate. Camera 1001 is connected node 1002
Is connected to the storage unit 1102,
3 is read from the camera attribute 1104, and the connection node 1
002.

【0037】再び図1において、カメラ用の各接続ノー
ド1002と、信号処理装置用の接続ノード1004と
は、リング状のバス1006に接続されており、このバ
ス1006を通じて相互に通信を行うことができる。カ
メラ用の各接続ノード10021 〜10025 には、そ
れぞれ固有のID(例えば1,2,…,5)が付与され
ている。
Referring again to FIG. 1, the connection nodes 1002 for the camera and the connection node 1004 for the signal processing device are connected to a ring-shaped bus 1006, and can communicate with each other through the bus 1006. it can. Each connection node 1002 1-1002 5 for the camera, each unique ID (e.g., 1, 2, ..., 5) is assigned.

【0038】図3は、図1の(信号処理装置用の)接続
ノード1004の構成例を示すブロック図である。図3
において、接続ノード1004は、バス制御部1201
を含んでいる。バス制御部1201は、そのノード10
04に接続されている信号処理装置1003と、バス1
006に(接続ノード1002を介して)接続されてい
る各カメラ1001との間の通信を、バス1006のプ
ロトコルに基づいて制御する。なお、バスプロトコルに
基づく通信制御は、従来知られた技術であり、また本願
発明の特徴とは直接関係がないので、説明を省略する。
FIG. 3 is a block diagram showing a configuration example of the connection node 1004 (for the signal processing device) of FIG. FIG.
In the connection node 1004, the bus control unit 1201
Contains. The bus control unit 1201 determines that the node 10
04, a signal processing device 1003 connected to the
Communication with each camera 1001 connected to the 006 (via the connection node 1002) is controlled based on the protocol of the bus 1006. The communication control based on the bus protocol is a conventionally known technique, and has no direct relation to the features of the present invention, so that the description will be omitted.

【0039】図4は、(カメラ用の)接続ノード100
2の構成例を示すブロック図である。図4において、接
続ノード1002は、バス制御部1301と、記憶部1
302とを含んでいる。バス制御部1301は、そのノ
ード1002に接続されているカメラ1001と、バス
1006に(接続ノード1004を介して)接続されて
いる信号処理装置1003との間の通信を、バス100
6のプロトコルに基づいて制御する。
FIG. 4 shows a connection node 100 (for a camera).
2 is a block diagram illustrating a configuration example of FIG. 4, a connection node 1002 includes a bus control unit 1301 and a storage unit 1
302. The bus control unit 1301 performs communication between the camera 1001 connected to the node 1002 and the signal processing device 1003 connected to the bus 1006 (via the connection node 1004).
6 based on the protocol.

【0040】記憶部1302には、ノード位置1303
が記憶されている。ノード位置1303は、その接続ノ
ード1002の車両1000上での位置を示す情報であ
り、位置の具体例としては、例えば車両1000上の特
定の点を原点とする三次元座標(x,y,z)などが挙
げられる。ただし、ここでは、各接続ノード1002の
車両1000上での位置が固定なので、位置そのもので
なく、その接続ノード1002のIDを記憶すればよい
(後述)。
The storage unit 1302 stores a node position 1303
Is stored. The node position 1303 is information indicating the position of the connection node 1002 on the vehicle 1000. As a specific example of the position, for example, three-dimensional coordinates (x, y, z) with the origin at a specific point on the vehicle 1000 ). However, in this case, since the position of each connection node 1002 on the vehicle 1000 is fixed, the ID of the connection node 1002 may be stored instead of the position itself (described later).

【0041】カメラ1001が接続ノード1002に接
続されると、バス制御部1301は、記憶部1302か
らノード位置1303を読み出す。このとき、前述のよ
うに、カメラ1001からカメラ属性1104が通知さ
れ、バス制御部1301は、読み出したノード位置13
03と、通知されたカメラ属性1104とを、接続ノー
ド1002を通じてバス1006に出力する。
When the camera 1001 is connected to the connection node 1002, the bus control unit 1301 reads the node position 1303 from the storage unit 1302. At this time, as described above, the camera attribute 1104 is notified from the camera 1001, and the bus control unit 1301 sends the read node position 13
03 and the notified camera attribute 1104 are output to the bus 1006 via the connection node 1002.

【0042】図5は、図1の信号処理装置1003の構
成例を示すブロック図である。図5において、信号処理
装置1003は、画像処理部1401と、5つの画像メ
モリ14021 〜14025 とを含んでいる。
FIG. 5 is a block diagram showing a configuration example of the signal processing device 1003 of FIG. 5, the signal processing apparatus 1003 includes an image processing unit 1401, and five image memories 1402 1 to 1402 5.

【0043】画像処理部1401は、接続ノード100
4を通じて各カメラ1001からの撮像信号を受信し、
いったん各画像メモリ1401に書き込む。また、画像
処理部1401は、接続ノード1004を通じて、各接
続ノード1002から送信されたノード位置1303お
よびカメラ属性1104を受信する。そして、各画像メ
モリ1402から撮像信号を読み出して、受信したノー
ド位置1303およびカメラ属性1104に基づいて画
像処理を行い、得られた映像信号をモニタ1005へと
出力する。
The image processing unit 1401 is connected to the connection node 100
4 to receive the imaging signal from each camera 1001,
Once written into each image memory 1401. Further, the image processing unit 1401 receives the node position 1303 and the camera attribute 1104 transmitted from each connection node 1002 via the connection node 1004. Then, an image pickup signal is read from each image memory 1402, image processing is performed based on the received node position 1303 and camera attribute 1104, and the obtained video signal is output to the monitor 1005.

【0044】上記画像処理の典型例としては、各映像を
繋ぎ合わせて1枚のパノラマ映像に合成する処理が挙げ
られる。パノラマ映像合成を行う場合、画像処理部14
01は、合成しようとする各映像が、どのような属性を
持つカメラ1001によって、車両1000を取り巻く
空間のどの領域を撮像したものあるのかを知っている必
要がある。
As a typical example of the image processing, there is a processing of connecting respective images and synthesizing them into one panoramic image. When performing panoramic video synthesis, the image processing unit 14
No. 01 needs to know which attribute of the space surrounding the vehicle 1000 has been captured by the camera 1001 having what attributes for each video to be synthesized.

【0045】従来の車載カメラシステムでは、決められ
た位置に専用のカメラが取り付けられているので、それ
ら取り付け位置および属性を、予め信号処理装置100
3に記憶させておけばよかった。
In the conventional in-vehicle camera system, a dedicated camera is mounted at a predetermined position.
It should have been memorized in 3.

【0046】これに対して、本車載カメラシステムで
は、カメラ1001が接続される接続ノード1002を
車両1000に設けて、様々な属性を持ったカメラ10
01を接続可能にしている。このため、カメラ1001
が接続されると、接続ノード1002は、そのノード自
身の位置と、そのカメラ1001の属性とを信号処理装
置1003(内の画像処理部1401)に通知する。
On the other hand, in the vehicle-mounted camera system, a connection node 1002 to which the camera 1001 is connected is provided in the vehicle 1000 so that the camera 10 having various attributes can be connected.
01 is connectable. For this reason, the camera 1001
Is connected, the connection node 1002 notifies the signal processing device 1003 (the image processing unit 1401 therein) of the position of the node itself and the attribute of the camera 1001.

【0047】特に、本実施形態では、接続ノード100
2が車両1000の決められた位置に固定的に設けられ
ているので、画像処理部1401が各接続ノード100
2のIDおよび位置を記載した位置テーブル1601
(図7参照;後述)を記憶しておくことにより、接続ノ
ード1002は、位置そのものの代わりに、自身のID
を通知するだけでよい。
In particular, in the present embodiment, the connection node 100
2 is fixedly provided at a predetermined position of the vehicle 1000, so that the image processing unit 1401
Position table 1601 in which the ID and the position of No. 2 are described
By storing (see FIG. 7; described later), the connection node 1002 uses its own ID instead of the position itself.
Only need to be notified.

【0048】また、このように各接続ノード1002の
位置をテーブルの態様で信号処理装置1003側が管理
するようにしておけば、もし接続ノード1002の位置
変更があっても、単に位置テーブル1601を書き換え
るだけでよい。
If the position of each connection node 1002 is managed by the signal processing device 1003 in the form of a table, even if the position of the connection node 1002 is changed, the position table 1601 is simply rewritten. Just need.

【0049】画像処理部1401には、ノード位置13
03とカメラ属性1104との様々な組み合わせ(可能
な全ての接続状態)が記載された接続状態テーブル16
02(図7参照)が記憶されている。さらに、接続状態
テーブル1602に記載された1つ1つの接続状態に対
応して、それぞれ専用の画像処理プログラム1603
(図7参照)が記憶されている。従って、画像処理部1
401には、接続状態テーブル1602に記載されてい
る接続状態の数だけ、画像処理プログラム1603が記
憶されることになる。
The image processing unit 1401 has a node position 13
Connection state table 16 in which various combinations (all possible connection states) of the camera attribute 1 and the camera attribute 1104 are described.
02 (see FIG. 7) is stored. Furthermore, a dedicated image processing program 1603 corresponding to each connection state described in the connection state table 1602
(See FIG. 7) is stored. Therefore, the image processing unit 1
The image processing programs 1603 are stored in the 401 as many as the number of connection states described in the connection state table 1602.

【0050】なお、上記のように互いに独立した複数の
画像処理プログラム1603を記憶する代わりに、全て
の接続状態に共通する処理だけを記述したメインルーチ
ンと、それぞれの接続状態に固有の処理を記述したサブ
ルーチンとからなる1つの画像処理プログラムを記憶し
てもよい。つまり、この1つの画像処理プログラムは、
1つのメインルーチンと、接続状態テーブル1602に
記載された組み合わせの数と同数のサブルーチンとによ
り構成される。この1つの画像処理フログラムを記憶す
る場合、互いに独立した複数の画像処理プログラム16
03を記憶するよりも、画像処理部1401の記憶容量
が少なくて済む。
Instead of storing a plurality of image processing programs 1603 independent of each other as described above, a main routine describing only processes common to all connection states and a process unique to each connection state are described. One image processing program including the subroutine described above may be stored. That is, this one image processing program is:
It comprises one main routine and the same number of subroutines as the number of combinations described in the connection state table 1602. When storing this one image processing program, a plurality of image processing programs 16 independent of each other are stored.
The storage capacity of the image processing unit 1401 can be smaller than that of storing the “03”.

【0051】以上のように構成された車載カメラシステ
ムの動作について、以下に説明する。ここでは、本車載
カメラシステムの出荷時の状態は、第1の接続状態、す
なわち、図1において、5つの接続ノードのうち3つの
接続ノード10022 〜10024 に標準画質カメラ1
0012 〜10014 が接続され、残り2つの接続ノー
ド10021 および10025 には何も接続されていな
い状態であるとする。
The operation of the vehicle camera system configured as described above will be described below. Here, the state at the time of shipment of the vehicle camera system includes a first connection state, i.e., in FIG. 1, the three of the five connection node connecting node 1002 2-1002 4 in standard definition camera 1
001 2-1001 4 is connected, and the remaining two connection nodes 1002 1 and 1002 5 is a state where nothing is connected.

【0052】図6は、図5の画像処理部1401の構成
例を示すブロック図である。図6において、画像処理部
1401は、CPU1501と、RAM1502と、R
OM1503と、GPU1504と、V−RAM150
5とを含む。
FIG. 6 is a block diagram showing a configuration example of the image processing unit 1401 in FIG. 6, an image processing unit 1401 includes a CPU 1501, a RAM 1502,
OM 1503, GPU 1504, V-RAM 150
5 is included.

【0053】図7は、図6のROM1503の記憶内容
を示すメモリマップである。図7において、ROM15
03には、位置テーブル1601と、接続状態テーブル
1602と、複数の画像処理プログラム1603と、シ
ステム制御プログラム1604とが記憶されている。
FIG. 7 is a memory map showing the contents stored in the ROM 1503 of FIG. In FIG. 7, the ROM 15
03, a position table 1601, a connection state table 1602, a plurality of image processing programs 1603, and a system control program 1604 are stored.

【0054】位置テーブル1601には、各接続ノード
10021 〜10025 のID{1,2,…,5}およ
び位置{(x1 ,y1 ,z1 ),(x2 ,y2
2 ),…,(x5 ,y5 ,z5 )}が記載されてい
る。
[0054] the position table 1601, the connection node 1002 1-1002 5 of ID {1, 2, ..., 5} and a position {(x 1, y 1, z 1), (x 2, y 2,
z 2), ..., it has been described (x 5, y 5, z 5)}.

【0055】接続状態テーブル1602には、可能な全
ての接続状態{(第1の接続状態),(第2の接続状
態),…}が記載されている。例えば、第1の接続状態
は、3つの接続ノード10022 〜10024 に標準解
像度カメラ10012 〜10014 が接続され、残り2
つの接続ノード10021 および10025 には何も接
続されていない状態であり、これが出荷時の状態であ
る。
The connection state table 1602 describes all possible connection states {(first connection state), (second connection state),...}. For example, the first connection state, the standard-resolution camera 1001 2-1001 4 is connected to the three connection nodes 1002 2-1002 4, the remaining 2
No connection is made between the two connection nodes 1002 1 and 1002 5 , which is the state at the time of shipment.

【0056】第2の接続状態は、5つの接続ノード10
021 〜10025 に標準解像度カメラ10011 〜1
0015 が接続されている状態であり、これは、ドライ
バが新たに2台の標準解像度カメラ1001を購入し
て、空いていた2つの接続ノード10021 および10
025 にそれらを接続した状態である。
The second connection state includes five connection nodes 10
02 1 to 1002 5 standard resolution cameras 1001 1 to 1
001 5 is connected, which means that the driver has purchased two new standard definition cameras 1001 and the two vacant connection nodes 1002 1 and 1021 have been connected.
02 5 is a state of connecting them to.

【0057】第3の接続状態は、2つの接続ノード10
022 および10024 に標準解像度カメラ10012
および10014 が接続され、1つの接続ノード100
3に高解像度カメラ1001’が接続されている状態
であり、これは、ドライバが1台の高解像度カメラ10
01’を追加購入し、1つの接続ノード10023 に接
続されていた標準画質カメラ10013 を、高解像度カ
メラに交換した状態である。
In the third connection state, the two connection nodes 10
02 2 and 1002 4 in standard resolution camera 1001 2
And 1001 4 are connected, one connection node 100
2 3 a state where high-resolution cameras 1001 'are connected, this is a high resolution camera 10 drivers one
Purchased additional 01 ', a standard definition camera 1001 3 that had been connected to one connection node 1002 3, a state of being replaced in a high-resolution camera.

【0058】上記第1〜第3の接続状態を具体的に記述
した例を、図8に示す。図8において、例えば(1,
−)とあるのは、IDが”1”である接続ノード100
1 に何も接続されていないことを示している。(2,
240*320)とあるのは、IDが”2”の接続ノー
ド10022 に、解像度が”240*320”なる属性
を持ったカメラ(すなわち標準解像度カメラ1001)
が接続されていることを示している。(3,480*3
20)とあるのは、IDが”3”の接続ノード1002
3 に、解像度が”480*320”なる属性を持ったカ
メラ(すなわち高解像度カメラ1001’)が接続され
ていることを示している。
FIG. 8 shows an example in which the first to third connection states are specifically described. In FIG. 8, for example, (1,
-) Indicates that the connection node 100 whose ID is "1"
Shows that nothing is connected to the 2 1. (2,
240 * 320) shall be deemed to be replaced with, the connection node 1002 2 ID is "2", the resolution with "240 * 320" becomes attribute camera (or standard resolution cameras 1001)
Is connected. (3,480 * 3
20) means that the connection node 1002 whose ID is “3”
3 shows that a camera having an attribute of "480 * 320" (that is, a high-resolution camera 1001 ') is connected.

【0059】図9は、図6のRAM1502の記憶内容
を示すメモリマップである。図9において、RAM15
02には、各撮像ノード1002から送られてくるノー
ド位置1303およびカメラ属性1104を記憶するた
めのノード位置・カメラ属性記憶領域1801と、検出
された接続状態を記憶するための接続状態記憶領域18
02とが含まれる。
FIG. 9 is a memory map showing the contents stored in the RAM 1502 of FIG. In FIG. 9, the RAM 15
02, a node position / camera attribute storage area 1801 for storing a node position 1303 and a camera attribute 1104 sent from each imaging node 1002, and a connection state storage area 18 for storing a detected connection state
02 is included.

【0060】図6,図7および図9において、RAM1
502を作業領域として利用しつつ、ROM1503に
記憶されたシステム制御プログラム1604に従ってC
PU1501が動作することにより、画像処理部140
1は、図10に示されるようなシステム制御・プログラ
ム選択処理を行うことができる。さらには、ROM15
03に記憶された複数の画像処理プログラム1603の
うち、先に選択したプログラムに従って、CPU150
1が各画像メモリ1402から読み出される撮像信号を
GPU1504に処理させることにより、画像処理部1
401は、所定の画像処理(例えば、複数のカメラ10
01による撮像信号を1枚のパノラマ映像に合成する処
理など)を行うことができる。
In FIG. 6, FIG. 7 and FIG.
Using the system control program 1604 stored in the ROM 1503,
When the PU 1501 operates, the image processing unit 140
1 can perform a system control / program selection process as shown in FIG. Furthermore, the ROM 15
Of the plurality of image processing programs 1603 stored in the CPU 150 according to the previously selected program.
1 causes the GPU 1504 to process an image pickup signal read from each image memory 1402, and thereby the image processing unit 1
Reference numeral 401 denotes a predetermined image processing (for example, a plurality of cameras 10
01, etc., into a single panoramic video).

【0061】図10は、図5の画像処理部1401が行
うシステム制御・画像処理を示すフローチャートであ
る。図10において、最初、画像処理部1401は、接
続ノード1004を通じて、各接続ノード1002に対
し、そのノード1002に接続されているカメラ100
1の属性を取得するように命じる(ステップS10
1)。命令は、ここでは、全ての接続ノード1002に
対して一斉に行われるが、1つ1つの接続ノード100
2に対して順番に(つまりポーリング方式で)行っても
よい。
FIG. 10 is a flowchart showing system control and image processing performed by the image processing unit 1401 in FIG. In FIG. 10, first, the image processing unit 1401 transmits a command to each connection node 1002 via the connection node 1004 to the camera 100 connected to the node 1002.
1 (step S10).
1). Here, the instruction is performed on all the connection nodes 1002 at once, but each connection node 1002
2 may be performed sequentially (that is, by a polling method).

【0062】なお、上記のステップS101が実行され
るタイミングは、典型的には、本システムの起動時であ
る。または、システム起動時に実行するのに加え、所定
の時間間隔で繰り返し実行してもよい(例えば、システ
ム起動時に実行し、それ以降、1分おきに実行するな
ど)。
Note that the timing at which the above-described step S101 is executed is typically when the present system is started. Alternatively, in addition to the execution at the time of starting the system, the execution may be repeatedly performed at a predetermined time interval (for example, the execution may be performed at the time of starting the system, and thereafter, may be executed every minute).

【0063】命令を受けた各接続ノード1002は、そ
のノード自身に接続されているカメラ1001に対して
属性を通知するよう要求し、応じて、カメラ1001
は、(記憶部1103に)記憶しているカメラ属性11
04を通知する。
Each connection node 1002 receiving the command requests the camera 1001 connected to the node itself to notify the attribute, and the camera 1001 responds accordingly.
Is the stored camera attribute 11 (in the storage unit 1103).
04 is notified.

【0064】次に、画像処理部1401は、接続ノード
1004を通じて、各接続ノード1002に対し、その
接続ノード1002の自身の位置と、取得したカメラ属
性1104とを送信するように命じる(ステップS10
2)。
Next, the image processing unit 1401 instructs, via the connection node 1004, each connection node 1002 to transmit its own position of the connection node 1002 and the acquired camera attribute 1104 (step S10).
2).

【0065】命令を受けた各接続ノード1002は、
(記憶部1302に)記憶しているノード位置1303
と、取得したカメラ属性1104とを送信する。
Each connection node 1002 receiving the command,
Node position 1303 stored (in storage unit 1302)
And the acquired camera attribute 1104.

【0066】次に、画像処理部1401は、接続ノード
1004を通じて、各接続ノード1002からのノード
位置1303およびカメラ属性1104を受信し(ステ
ップ103)、それらを(RAM1502内のノード位
置・カメラ属性記憶領域1801に)記憶する(ステッ
プS104)。
Next, the image processing unit 1401 receives the node position 1303 and the camera attribute 1104 from each connection node 1002 through the connection node 1004 (step 103), and stores them in the (node position / camera attribute storage in the RAM 1502). (In the area 1801) (step S104).

【0067】次に、画像処理部1401は、ステップS
103で受信したノード位置1303およびカメラ属性
1104に基づいて、接続状態が変化したか否かを判定
する(ステップS105)。
Next, the image processing unit 1401 determines in step S
Based on the node position 1303 and the camera attribute 1104 received at 103, it is determined whether or not the connection state has changed (step S105).

【0068】ここで、上記ステップS105の判定は、
例えば次のようにして行うことができる。すなわち、前
回受信したノード位置1303およびカメラ属性110
4がRAM1502内のノード位置・カメラ属性記憶領
域1801に記憶されているので、画像処理部1401
は、それらと、今回受信したノード位置1303および
カメラ属性1104とを相互に比較することにより、接
続状態が変化したか否かを判定する。
Here, the determination in step S105 is as follows.
For example, it can be performed as follows. That is, the previously received node position 1303 and camera attribute 110
4 is stored in the node position / camera attribute storage area 1801 in the RAM 1502,
Determines whether the connection state has changed by comparing them with the node position 1303 and the camera attribute 1104 received this time.

【0069】具体的には、ノード位置・カメラ属性記憶
領域1801に記憶されている前回のノード位置130
3およびカメラ属性1104が、図8に参照番号170
1で示されているような内容であるとして、今回、参照
番号1702で示されるような内容のノード位置130
3およびカメラ属性1104を受信した場合には、接続
状態が(第1の接続状態から第2の接続状態へと)変化
したことを知ることができる。
Specifically, the previous node position 130 stored in the node position / camera attribute storage area 1801
3 and the camera attribute 1104 are designated by reference numeral 170 in FIG.
Assuming that the content is the content indicated by reference numeral 1, the node position 130 having the content indicated by the reference numeral 1702 is
3 and the camera attribute 1104, it is possible to know that the connection state has changed (from the first connection state to the second connection state).

【0070】再び図10において、ステップS105の
判定結果が肯定の場合、画像処理部1401は、ROM
1503に記憶されている接続状態テーブル1602を
参照して、変化後の接続状態を検出し(ステップS10
6)、それを(RAM1502内の接続状態記憶領域1
802に)記憶する(ステップS107)。その後、ス
テップS108進む。一方、ステップS105の判定結
果が否定の場合には、直接ステップS108に進む。
Referring again to FIG. 10, when the result of the determination in step S105 is affirmative, the image processing
The connection state after the change is detected with reference to the connection state table 1602 stored in 1503 (step S10).
6) and store it in the (connection state storage area 1 in the RAM 1502).
802) (step S107). Thereafter, the process proceeds to step S108. On the other hand, if the result of the determination in step S105 is negative, the process directly proceeds to step S108.

【0071】ステップS108では、画像処理部140
1は、ROM1503に記憶されている画像処理プログ
ラム1603のうち、(RAM1502内の接続状態記
憶領域1802に)記憶している接続状態と対応する画
像処理プログラム1603を実行する。従って、接続状
態が変化していなければ、前回と同じ画像処理プログラ
ム1603が実行されるが、変化していれば、前回とは
別の、変化後の接続状態と対応する画像処理プログラム
1603が実行されることになる。
In step S108, the image processing unit 140
1 executes the image processing program 1603 corresponding to the connection status stored in the connection status storage area 1802 in the RAM 1502 among the image processing programs 1603 stored in the ROM 1503. Therefore, if the connection state has not changed, the same image processing program 1603 as that of the previous time is executed. If the connection state has changed, another image processing program 1603 corresponding to the changed connection state from the previous time is executed. Will be done.

【0072】例えば、システムが第1の接続状態にある
とき、3つの接続ノード10022〜10024 に標準
解像度カメラ10012 〜10014 が接続され、残り
2つの接続ノード10021 および10025 には何も
接続されていないので、撮像範囲は、図11(A)のよ
うになる。第1の画像処理プログラム1603は、図1
1(A)のような撮像信号を繋ぎ合わせて1枚のパノラ
マ映像に合成するためのプログラムであり、画像処理部
1401が第1の画像処理プログラム1603を実行す
ることによって、V−RAM1505内に、例えば図1
1(B)のようなパノラマ映像信号が生成される。
[0072] For example, when the system is in the first connection state, is connected standard resolution camera 1001 2-1001 4 within three connection nodes 1002 2-1002 4, the remaining two connection nodes 1002 1 and 1002 5 Since nothing is connected, the imaging range is as shown in FIG. The first image processing program 1603 corresponds to FIG.
1A is a program for combining imaging signals as in FIG. 1A to synthesize a single panoramic video, and the image processing unit 1401 executes the first image processing program 1603 to store in the V-RAM 1505 For example, FIG.
A panoramic video signal like 1 (B) is generated.

【0073】システムが第2の接続状態にあるとき、5
つの接続ノード10021 〜10025 に標準解像度カ
メラ10011 〜10015 が接続されているので、撮
像範囲は、図12(A)のようになる。第2の画像処理
プログラム1603は、図12(A)のような撮像信号
を繋ぎ合わせて1枚のパノラマ映像に合成するためのプ
ログラムであり、画像処理部1401が第2の画像処理
プログラム1603を実行することによって、V−RA
M1505内に、例えば図12(B)のようなパノラマ
映像信号が生成される。
When the system is in the second connection state, 5
One of so to a connection node 1002 1-1002 5 standard resolution camera 1001 1-1001 5 is connected, the imaging range is as shown in FIG. 12 (A). The second image processing program 1603 is a program for combining imaging signals as shown in FIG. 12A to synthesize one panoramic video, and the image processing unit 1401 executes the second image processing program 1603 By executing, V-RA
For example, a panoramic video signal as shown in FIG. 12B is generated in M1505.

【0074】第3の接続状態では、2つの接続ノード1
0022 および10024 に標準解像度カメラ1001
2 および10014 が接続され、1つの接続ノード10
02 3 に高解像度カメラ1001’が接続され、残り2
つの接続ノード10021 および10025 には何も接
続されていないので、撮像範囲は、図13(A)のよう
になる。第3の画像処理プログラム1603は、図13
(A)のような撮像信号を繋ぎ合わせて1枚のパノラマ
映像に合成するためのプログラムであり、画像処理部1
401が第3の画像処理プログラム1603を実行する
ことによって、V−RAM1505内に、例えば図13
(B)のようなパノラマ映像信号が生成される。
In the third connection state, two connection nodes 1
002TwoAnd 1002FourStandard resolution camera 1001
TwoAnd 1001FourAre connected, and one connection node 10
02 ThreeIs connected to the high-resolution camera 1001 '
One connection node 10021And 1002FiveNothing
Since they are not connected, the imaging range is as shown in FIG.
become. The third image processing program 1603 corresponds to FIG.
One panorama by connecting the imaging signals as in (A)
This is a program for synthesizing a video, and the image processing unit 1
401 executes the third image processing program 1603
As a result, for example, in FIG.
A panoramic video signal as shown in (B) is generated.

【0075】再び図10に戻り、次いで、画像処理部1
401は、ステップS108の結果得られた映像信号を
モニタ1005に出力する(ステップS109)。こう
して、モニタ1005には、接続状態(すなわち、各接
続ノード1002にどのような属性を持ったカメラ10
01が接続されているか)に応じたパノラマ映像が表示
される。以上が、本車載カメラシステムの動作である。
Returning to FIG. 10, the image processing unit 1
401 outputs the video signal obtained as a result of step S108 to the monitor 1005 (step S109). In this way, the monitor 1005 displays the connection state (that is, what attributes the camera 10 has in each connection node 1002).
01 is connected) is displayed. The above is the operation of the vehicle camera system.

【0076】なお、本車載カメラシステムでは、図2,
図3のように、カメラ1001でなく接続ノード100
2がバス制御部1301を含んでいるが、図14のよう
に、接続ノード1002でなくカメラ1001がバス制
御部1301を含んでも構わない。この場合、カメラ1
001が接続ノード1002からノード位置1303を
取得して、取得したノード位置1303と、自身のカメ
ラ属性1104とをバス1006へと送出する。
In this vehicle-mounted camera system, FIG.
As shown in FIG. 3, not the camera 1001 but the connection node 100
2 includes a bus control unit 1301, but the camera 1001 may include the bus control unit 1301 instead of the connection node 1002 as shown in FIG. In this case, camera 1
001 acquires the node position 1303 from the connection node 1002 and sends the acquired node position 1303 and its own camera attribute 1104 to the bus 1006.

【0077】また、図2のカメラ1001に、撮像部1
101の向きを変化させる(それによってそのカメラ1
001の撮像範囲が移動する)ための駆動部1901を
さらに追加してもよい。図2のカメラ1001に駆動部
1901が追加された別のカメラ1001を、図15に
示す。図14のカメラ1001に駆動部1901が追加
されたさらに別のカメラ1001を、図16に示す。
Further, the camera 1001 shown in FIG.
Change the orientation of 101 (so that camera 1
The drive unit 1901 for moving the imaging range of “001” may be further added. FIG. 15 shows another camera 1001 in which a driving unit 1901 is added to the camera 1001 of FIG. FIG. 16 shows still another camera 1001 in which a driving unit 1901 is added to the camera 1001 of FIG.

【0078】図15,図16において、駆動部1901
は、信号処理装置1003内の画像処理部1401(図
5参照)が(カメラ1001内の)撮像処理部1102
を通じて行う指示に応じて、撮像部1101の向きを変
化させる。この場合、図17に示すように(図7と比
較)、各接続状態と対応して、画像処理部1401が駆
動部1901を制御して撮像部1101の向きを変化さ
せるための方向制御プログラム(複数)1605が、R
OM1503内にさらに記憶される。
Referring to FIG. 15 and FIG.
Is that the image processing unit 1401 (in FIG. 5) in the signal processing device 1003 has the imaging processing unit 1102 (in the camera 1001).
The direction of the imaging unit 1101 is changed in accordance with the instruction given through. In this case, as shown in FIG. 17 (compared to FIG. 7), the image processing unit 1401 controls the driving unit 1901 to change the direction of the imaging unit 1101 in accordance with each connection state (see FIG. 17). Multiple) 1605 is R
It is further stored in the OM 1503.

【0079】なお、以上の説明では、カメラ属性110
4の典型例として解像度を挙げているが、それ以外の属
性、例えばフレームレートや感度、圧縮方式であって
も、あるいは、それらの組み合わせであっても、各接続
ノード1002からのノード位置1303およびカメラ
属性1104に基づいて接続状態を検知して、その接続
状態と対応する画像処理プログラム1603を実行する
手順に変わりはない。ただし、複数の属性を組み合わせ
る場合には、予め準備すべき画像処理プログラム160
3の数が多くなるのはいうまでもない。
In the above description, the camera attribute 110
Although the resolution is mentioned as a typical example of No. 4, other attributes such as the frame rate, sensitivity, and compression method, or even a combination thereof, indicate the node position 1303 and the node position 1303 from each connection node 1002. There is no change in the procedure for detecting the connection state based on the camera attribute 1104 and executing the image processing program 1603 corresponding to the connection state. However, when combining a plurality of attributes, the image processing program 160 to be prepared in advance
Needless to say, the number of 3 increases.

【0080】また、以上では、所定の範囲内に存在する
物体の映像を捉えるカメラ1001を用いた車載カメラ
システムについて説明したが、カメラ1001に代え
て、所定の範囲内に単に物体が存在することを探知する
探知器(例えば赤外線探知器や超音波探知器など)を用
いてもよい。あるいは、所定の範囲内の温度や明るさ、
傾度(つまり斜面の傾きの程度)などを検知する温度検
知器や輝度検知器、傾度検知器(例えばジャイロ)など
を用いることもできる。
In the above description, the on-vehicle camera system using the camera 1001 for capturing an image of an object existing within a predetermined range has been described. However, instead of the camera 1001, an object simply exists within the predetermined range. (For example, an infrared detector, an ultrasonic detector, or the like) for detecting the image may be used. Alternatively, temperature and brightness within a predetermined range,
It is also possible to use a temperature detector, a luminance detector, a gradient detector (for example, a gyro) or the like that detects the gradient (that is, the degree of inclination of the slope).

【0081】さらには、これらカメラ1001や探知
器、検知器のような、車両を取り巻く空間のうち所定の
範囲内の情況を検知する(すなわち、映像を捉えたり、
単に物体の存在を探知したり、温度等を検知したりす
る)装置を「センサ」と総称すれば、本実施形態で説明
した車載カメラシステムにおいて、カメラ1001を、
より一般的なセンサに置き換えることにより、車両10
00を取り巻く空間のうち所定の範囲内の情況を検知す
るセンサを用いた車載センサシステムが実現される。
Further, a situation within a predetermined range in a space surrounding the vehicle, such as the camera 1001, a detector, and a detector, is detected (that is, an image is captured,
If a device that simply detects the presence of an object or detects a temperature or the like) is generically referred to as a “sensor”, in the vehicle-mounted camera system described in the present embodiment, the camera 1001 is
By replacing the sensor with a more general sensor, the vehicle 10
An in-vehicle sensor system using a sensor that detects a situation within a predetermined range in a space surrounding 00 is realized.

【0082】この場合、図1のシステムにおいて、カメ
ラ1001がセンサ(1001)に置き換わるのに加
え、信号処理装置1003に備わる画像処理部1401
は、センサの検知結果を処理するセンサ処理部(140
1)に置き換わる。センサには、センサ属性(110
4)が記憶され、センサから接続ノード1002へ、セ
ンサ属性が通知される。そして、各接続ノード1002
がノード位置1303およびセンサ属性を送信する。
In this case, in the system of FIG. 1, in addition to replacing the camera 1001 with the sensor (1001), the image processing unit 1401 provided in the signal processing device 1003
Is a sensor processing unit (140) that processes the detection result of the sensor.
Replaced with 1). The sensor has a sensor attribute (110
4) is stored, and the sensor attribute is notified from the sensor to the connection node 1002. Then, each connection node 1002
Sends the node location 1303 and the sensor attributes.

【0083】センサ処理装置には、接続状態(どのノー
ド1002にどのような属性のセンサが接続されている
か)に応じた複数のセンサ処理プログラム(1603)
が記憶されている。センサ処理装置は、各接続ノード1
002からのノード位置1303およびセンサ属性を受
信して、接続状態を検知し、検知結果と対応するセンサ
処理プログラムを実行する。そして、モニタ1005に
は、センサ処理装置の処理結果、例えば障害物への接近
を警告する画面が表示される。
A plurality of sensor processing programs (1603) corresponding to the connection state (which node 1002 has what kind of sensor is connected) are stored in the sensor processing apparatus.
Is stored. The sensor processing device is connected to each connection node 1
It receives the node position 1303 and the sensor attribute from 002, detects the connection state, and executes a sensor processing program corresponding to the detection result. Then, on the monitor 1005, a processing result of the sensor processing device, for example, a screen that warns about approaching an obstacle is displayed.

【0084】上記の車載センサシステムでは、センサに
記憶されるセンサ属性に、そのセンサがカメラ1001
であるか探知器であるかを示す情報を含めておけば、セ
ンサとしてカメラ1001および探知器のどちらを用い
ても構わない。つまり、ドライバは、システム購入時
に、センサとしてカメラ1001を用いるか探知器を用
いるかを決めることができる。カメラ1001と探知器
とが混在する車載センサシステムの一例を、図18に示
す。
In the above-described in-vehicle sensor system, the sensor attribute stored in the sensor indicates that the sensor is
If information indicating whether the camera is a camera or a detector is included, either the camera 1001 or the detector may be used as a sensor. That is, the driver can decide whether to use the camera 1001 or the detector as a sensor when purchasing the system. FIG. 18 shows an example of an in-vehicle sensor system in which a camera 1001 and a detector are mixed.

【0085】図18において、信号処理装置2001に
は、カメラ用の処理プログラム記憶部2001aと、超
音波探知器用の処理プログラム記憶部2001bとが含
まれる。カメラ用の処理プログラム記憶部2001aに
は、センサとしてカメラ2008が用いられる場合の処
理プログラム(複数)が記憶されている。超音波探知器
用の処理プログラム記憶部2001bには、センサとし
て超音波探知器2009が用いられる場合の処理プログ
ラム(複数)が記憶されている。
In FIG. 18, the signal processing device 2001 includes a processing program storage unit 2001a for a camera and a processing program storage unit 2001b for an ultrasonic detector. The processing program storage unit 2001a for the camera stores a plurality of processing programs when the camera 2008 is used as a sensor. The processing program storage unit 2001b for the ultrasonic detector stores a plurality of processing programs when the ultrasonic detector 2009 is used as a sensor.

【0086】信号処理装置2001は、各接続ノード2
002〜2006からのノード位置1303およびセン
サ属性に基づいて接続状態を検知して、最初、それらの
ノードにカメラ2008が接続されているか超音波探知
器2009が接続されているかを判定する。次いで、接
続されているのがカメラ2008であれば、記憶してい
るカメラ用の処理プログラム(複数)のうちどれを実行
するかを決定し、超音波探知器2009であれば、記憶
している超音波探知器用の処理プログラム(複数)のう
ちどれを実行するかを決定する。
The signal processing device 2001 is connected to each connection node 2
The connection state is detected based on the node position 1303 from 002 to 2006 and the sensor attribute, and first, it is determined whether the camera 2008 or the ultrasonic detector 2009 is connected to those nodes. Next, if the camera 2008 is connected, it determines which of the stored camera processing programs (plurality) to execute, and if the ultrasonic detector 2009, the stored program is stored. It determines which of the plurality of processing programs for the ultrasonic detector is to be executed.

【0087】さらには、図18のシステムのようにカメ
ラ2008および探知器2009のどちらか一方が用い
られるのではなく、両方が混在して用いられてもよい。
この場合、信号処理装置2001が実行する処理プログ
ラムは、図16と異なり、カメラ用、超音波探知器用の
ように区別されない。例えば、センサ処理部には、ノー
ド2002〜2006にカメラ2008が接続された場
合の処理プログラムや、ノード2002〜2006に超
音波探知器2009が接続された場合の処理プログラム
の他、ノード2003〜2005にはカメラ2008
が、ノード2002および2006には超音波探知器2
009が接続された場合の処理プログラムなどが準備さ
れる。
Further, instead of using either the camera 2008 or the detector 2009 as in the system of FIG. 18, both may be used in combination.
In this case, the processing programs executed by the signal processing device 2001 are different from those for the camera and the ultrasonic detector, unlike FIG. For example, in the sensor processing unit, a processing program when the camera 2008 is connected to the nodes 2002 to 2006, a processing program when the ultrasonic detector 2009 is connected to the nodes 2002 to 2006, and the nodes 2003 to 2005 Has a camera 2008
However, the nodes 2002 and 2006 have the ultrasonic detector 2
A processing program when 009 is connected is prepared.

【0088】以上のように、本実施形態では、検出可能
な全ての接続状態と、各接続状態と対応付けられた複数
の処理プログラムとを予め記憶しておいて、各接続ノー
ドの位置と、各センサの属性とに基づいて、現在の接続
状態を検出し、その接続状態と対応する処理プログラム
を選択して実行する。これにより、ドライバは、センサ
交換に伴う設定変更等を行わなくてもよいので、備え付
けのセンサを、そのセンサとは属性が異なる別のセンサ
に簡単に交換できるようになる。
As described above, in this embodiment, all detectable connection states and a plurality of processing programs associated with each connection state are stored in advance, and the position of each connection node is Based on the attributes of each sensor, a current connection state is detected, and a processing program corresponding to the connection state is selected and executed. This eliminates the need for the driver to change settings or the like associated with sensor replacement, so that the installed sensor can be easily replaced with another sensor having a different attribute from that of the sensor.

【0089】さらに、各接続状態と対応付けられた複数
の方向制御プログラムをも予め記憶しておいて、現在の
接続状態を検出すると、その接続状態と対応する処理プ
ログラムに加えて、その接続状態と対応する方向制御プ
ログラムをも選択して実行する。これにより、ドライバ
は、センサ交換に伴う設定変更等に加えてセンサ方向の
調整も行わなくてよいので、さらに簡単にセンサ交換が
行えるようになる。
Further, a plurality of direction control programs associated with each connection state are stored in advance, and when the current connection state is detected, the connection state is added to the processing program corresponding to the connection state. Is also selected and executed. This eliminates the need for the driver to adjust the sensor direction in addition to the setting change or the like associated with the sensor replacement, thereby making it easier to perform the sensor replacement.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る車載カメラシステム
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a vehicle-mounted camera system according to an embodiment of the present invention.

【図2】図1のカメラ1001(または1001’)の
構成例を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration example of a camera 1001 (or 1001 ′) in FIG.

【図3】図1の(信号処理装置用の)接続ノード100
4の構成例を示すブロック図である。
FIG. 3 shows a connection node 100 (for a signal processing device) of FIG.
4 is a block diagram illustrating a configuration example of FIG.

【図4】図1の(カメラ用の)接続ノード1002の構
成例を示すブロック図である。
FIG. 4 is a block diagram illustrating a configuration example of a connection node 1002 (for a camera) in FIG. 1;

【図5】図1の信号処理装置1003の構成例を示すブ
ロック図である。
FIG. 5 is a block diagram illustrating a configuration example of a signal processing device 1003 in FIG. 1;

【図6】図5の画像処理部1401の構成例を示すブロ
ック図である。
6 is a block diagram illustrating a configuration example of an image processing unit 1401 in FIG.

【図7】図6のROM1503の記憶内容を示すメモリ
マップである。
FIG. 7 is a memory map showing storage contents of a ROM 1503 in FIG. 6;

【図8】図7の接続状態テーブル1602の内容(例え
ば第1〜第3の接続状態)を具体的に記述した図であ
る。
FIG. 8 is a diagram specifically describing contents (for example, first to third connection states) of a connection state table 1602 in FIG. 7;

【図9】図6のRAM1502の記憶内容を示すメモリ
マップである。
FIG. 9 is a memory map showing contents stored in a RAM 1502 of FIG. 6;

【図10】図5の画像処理部1401が行うシステム制
御・画像処理を示すフローチャートである。
FIG. 10 is a flowchart illustrating system control and image processing performed by an image processing unit 1401 in FIG. 5;

【図11】図1のシステムが第1の接続状態にあるとき
の撮像範囲(A)と、そのとき表示されるパノラマ映像
(B)とを示す図である。
11 is a diagram showing an imaging range (A) when the system of FIG. 1 is in a first connection state, and a panoramic video (B) displayed at that time.

【図12】図1のシステムが第2の接続状態にあるとき
の撮像範囲(A)と、そのとき表示されるパノラマ映像
(B)とを示す図である。
12 is a diagram showing an imaging range (A) when the system of FIG. 1 is in a second connection state and a panoramic video (B) displayed at that time.

【図13】図1のシステムが第3の接続状態にあるとき
の撮像範囲(A)と、そのとき表示されるパノラマ映像
(B)とを示す図である。
FIG. 13 is a diagram showing an imaging range (A) when the system of FIG. 1 is in a third connection state and a panoramic video (B) displayed at that time.

【図14】図1のカメラ1001の他の構成例を示す図
である(接続ノード1002でなくカメラ1001がバ
ス制御部1301を含んでいる)。
14 is a diagram illustrating another configuration example of the camera 1001 in FIG. 1 (the camera 1001 includes a bus control unit 1301 instead of the connection node 1002).

【図15】図1のカメラ1001の別の構成例を示す図
である(図2のカメラ1001に駆動部1901が追加
されている)。
15 is a diagram illustrating another configuration example of the camera 1001 in FIG. 1 (a driving unit 1901 is added to the camera 1001 in FIG. 2).

【図16】図1のカメラ1001のさらに別の構成例を
示す図である(図14のカメラ1001に駆動部190
1が追加されている)。
16 is a diagram showing still another configuration example of the camera 1001 in FIG. 1 (the driving unit 190 in the camera 1001 in FIG. 14).
1 has been added).

【図17】図1のカメラ1001が図14,図15のよ
うな構成を有する(すなわち駆動部1901を含んでい
る)場合の、ROM1503の記憶内容を示す図である
(図7の記憶内容に方向制御プログラム1605が追加
されている)。
17 is a diagram showing storage contents of a ROM 1503 when the camera 1001 in FIG. 1 has a configuration as shown in FIGS. 14 and 15 (that is, includes a driving unit 1901) (FIG. 7). A direction control program 1605 has been added).

【図18】カメラ1001と超音波探知器2009とが
混在する車載センサシステムの一例を示す図である(カ
メラや探知器をセンサと総称している)。
FIG. 18 is a diagram illustrating an example of a vehicle-mounted sensor system in which a camera 1001 and an ultrasonic detector 2009 are mixed (a camera and a detector are collectively referred to as a sensor).

【符号の説明】[Explanation of symbols]

1001 標準解像度カメラ 1001’ 高解像度カメラ 1002 カメラ用の接続ノード 1003 信号処理装置 1004 信号処理装置用の接続ノード 1005 モニタ 1006 バス 1101 撮像部 1102 撮像処理部 1104 カメラ属性 1201,1301 バス制御部 1303 ノード位置 1401 画像処理部 1601 位置テーブル 1602 接続状態テーブル 1603 画像処理プログラム 1604 システム制御プログラム 1605 方向制御プログラム 1901 駆動部 2008 カメラ 2009 超音波探知器 1001 Standard resolution camera 1001 ′ High resolution camera 1002 Connection node for camera 1003 Signal processing device 1004 Connection node for signal processing device 1005 Monitor 1006 Bus 1101 Image pickup unit 1102 Image pickup processing unit 1104 Camera attribute 1201, 1301 Bus control unit 1303 Node position 1401 Image processing unit 1601 Position table 1602 Connection state table 1603 Image processing program 1604 System control program 1605 Direction control program 1901 Drive unit 2008 Camera 2009 Ultrasonic detector

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 624 B60R 21/00 624C 624E 626 626G // G08G 1/16 G08G 1/16 C (72)発明者 茨木 晋 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 堺 貴久 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 森 敏昭 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 山本 章裕 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 黒崎 敏彦 大阪府門真市大字門真1006番地 松下電器 産業株式会社内──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B60R 21/00 624 B60R 21/00 624C 624E 626 626G // G08G 1/16 G08G 1/16 C (72) Inventor Susumu Ibaraki 1006 Kadoma, Kazuma, Kadoma, Osaka Pref. Matsushita Electric Industrial Co., Ltd. (72) Inventor Takahisa Sakai 1006 Kadoma, Kadoma, Kadoma, Osaka Pref. Matsushita Electric Industrial Co., Ltd. Matsushita Electric Industrial Co., Ltd. (72) Inventor Akihiro Yamamoto 1006 Ojimon Kadoma, Kadoma City, Osaka Pref. Matsushita Electric Industrial Co., Ltd. (72) Toshihiko Kurosaki 1006 Kadoma Kadoma, Kadoma City, Osaka Matsushita Electric Industrial Co., Ltd. In company

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載され、車両を取り巻く空間の
うち所定の範囲内の情況をセンサで検知してドライバに
通知するための車載センサシステムであって、 車両を取り巻く空間のうち所定の範囲内の情況を検知す
るための1以上のセンサ、 各前記センサが着脱自在に接続され得る、前記車両の所
定位置に設けられた複数の接続ノード、および各前記セ
ンサによる検知結果を処理してドライバに通知するため
処理装置を備え、 各前記センサは、そのセンサ自身の属性を記憶してお
り、 各前記接続ノードは、その接続ノード自身の位置を記憶
しており、 前記処理装置は、 各前記接続ノードの位置と、各前記センサの属性とに基
づいて、車両のどの位置にある接続ノードにどのような
属性を持ったセンサが接続されているかを示す接続状態
を検出する接続状態検出手段、 検出可能な全ての接続状態と、各接続状態と対応付けら
れた複数の処理プログラムとが予め記憶された記憶手
段、および前記記憶手段に記憶されている処理プログラ
ムのうち、前記接続状態検出手段が検出した接続状態と
対応する処理プログラムを選択して実行することによっ
て、各前記センサによる検知結果を処理する処理手段を
含む、車載センサシステム。
1. An on-vehicle sensor system mounted on a vehicle for detecting a situation within a predetermined range in a space surrounding the vehicle with a sensor and notifying a driver of the situation, wherein the predetermined range in the space surrounding the vehicle is provided. One or more sensors for detecting a situation inside the vehicle, a plurality of connection nodes provided at predetermined positions of the vehicle, to which the respective sensors can be detachably connected, and a driver that processes detection results by the sensors. A processing device for notifying the sensor, each of the sensors stores an attribute of the sensor itself, each of the connection nodes stores a position of the connection node itself, and the processing device includes Based on the position of the connection node and the attribute of each sensor, a connection state indicating a sensor having what attribute is connected to the connection node at which position in the vehicle is detected. Outgoing connection state detection means, storage means in which all detectable connection states and a plurality of processing programs associated with each connection state are stored in advance, and processing programs stored in the storage means A vehicle-mounted sensor system including a processing unit that processes a detection result of each of the sensors by selecting and executing a processing program corresponding to the connection state detected by the connection state detection unit.
【請求項2】 各前記接続ノードが、その接続ノード自
身に接続されているセンサから属性を取得して、その接
続ノード自身が記憶している位置と、取得した属性と
を、前記処理装置へ送信することを特徴とする、請求項
1に記載の車載センサシステム。
2. Each of the connection nodes acquires an attribute from a sensor connected to the connection node itself, and transmits a position stored by the connection node itself and the acquired attribute to the processing device. The in-vehicle sensor system according to claim 1, wherein transmission is performed.
【請求項3】 各前記接続ノードは、その接続ノードの
位置として、その接続ノードの識別子を記憶しており、 前記記憶手段には、全ての接続ノードについての識別子
と位置との対応関係を記載した位置テーブルがさらに記
憶されており、 前記接続状態検出手段は、各前記接続ノードからの識別
子および属性を受信して、それら識別子および属性と、
前記位置テーブルとに基づいて、前記接続状態を検出す
ることを特徴とする、請求項2に記載の車載センサシス
テム。
3. Each of the connection nodes stores an identifier of the connection node as a position of the connection node, and the storage unit describes a correspondence relationship between identifiers and positions of all connection nodes. The connection state detecting means receives the identifier and the attribute from each of the connection nodes, the identifier and the attribute,
The in-vehicle sensor system according to claim 2, wherein the connection state is detected based on the position table.
【請求項4】 各前記センサが、そのセンサ自身の接続
されている接続ノードから位置を取得して、そのセンサ
自身が記憶している属性と、取得した位置とを、前記処
理装置へ送信することを特徴とする、請求項1に記載の
車載センサシステム。
4. Each sensor acquires a position from a connection node to which the sensor itself is connected, and transmits the attribute stored by the sensor itself and the acquired position to the processing device. The in-vehicle sensor system according to claim 1, wherein:
【請求項5】 各前記接続ノードは、その接続ノードの
位置として、その接続ノードの識別子を記憶しており、 前記記憶手段には、全ての接続ノードについての識別子
と位置との対応関係を記載した位置テーブルがさらに記
憶されており、 前記接続状態検出手段は、各前記センサからの識別子お
よび属性を受信して、それら識別子および属性と、前記
位置テーブルとに基づいて、前記接続状態を検出するこ
とを特徴とする、請求項4に記載の車載センサシステ
ム。
5. Each of the connection nodes stores an identifier of the connection node as a position of the connection node, and the storage unit describes a correspondence between identifiers and positions of all connection nodes. The connection state detecting means receives an identifier and an attribute from each of the sensors, and detects the connection state based on the identifier and the attribute and the position table. The vehicle-mounted sensor system according to claim 4, wherein:
【請求項6】 各前記センサは、そのセンサ自身の向き
を変えるための駆動手段を含み、 前記記憶手段には、各接続状態と対応付けられた複数の
方向制御プログラムがさらに予め記憶され、 前記処理手段は、各前記センサによる検知結果を処理す
る際に、前記記憶手段に記憶されている方向制御プログ
ラムのうち、前記接続状態検知手段が検出した接続状態
と対応する方向制御プログラムを選択して実行すること
によって、各前記センサの検知範囲を移動させることを
特徴とする、請求項1に記載の車載センサシステム。
6. Each of the sensors includes a driving unit for changing the direction of the sensor itself, and the storage unit further stores in advance a plurality of direction control programs associated with each connection state; The processing means selects a direction control program corresponding to the connection state detected by the connection state detection means from among the direction control programs stored in the storage means when processing the detection result by each of the sensors. The in-vehicle sensor system according to claim 1, wherein, when executed, the detection range of each of the sensors is moved.
【請求項7】 各前記センサが、車両を取り巻く空間の
うち所定の範囲を撮像するカメラである、請求項1に記
載の車載センサシステム。
7. The on-vehicle sensor system according to claim 1, wherein each of the sensors is a camera for capturing an image of a predetermined range in a space surrounding the vehicle.
【請求項8】 各前記カメラの属性には、少なくとも解
像度が含まれる、請求項7に記載の車載センサシステ
ム。
8. The on-vehicle sensor system according to claim 7, wherein the attribute of each camera includes at least resolution.
【請求項9】 各前記カメラの属性には、少なくともフ
レームレートが含まれる、請求項7に記載の車載センサ
システム。
9. The on-vehicle sensor system according to claim 7, wherein the attribute of each of the cameras includes at least a frame rate.
【請求項10】 各前記センサが、車両を取り巻く空間
のうち所定の範囲内に物体が存在することを探知する探
知器である、請求項1に記載の車載センサシステム。
10. The on-vehicle sensor system according to claim 1, wherein each of the sensors is a detector that detects that an object exists within a predetermined range in a space surrounding the vehicle.
【請求項11】 各前記センサが、車両を取り巻く空間
のうち所定の範囲を撮像するカメラ、または車両を取り
巻く空間のうち所定の範囲内に物体が存在することを探
知する探知器であり、 各前記センサの属性には、少なくとも、そのセンサがカ
メラであるか探知器であるかを示す情報が含まれる、請
求項1に記載の車載センサシステム。
11. Each of the sensors is a camera that captures an image of a predetermined range in a space surrounding the vehicle, or a detector that detects that an object is present in a predetermined range of the space surrounding the vehicle. The in-vehicle sensor system according to claim 1, wherein the attribute of the sensor includes at least information indicating whether the sensor is a camera or a detector.
【請求項12】 車両に搭載され、車両を取り巻く空間
のうち所定の範囲内の情況をセンサで検知してドライバ
に通知するための車載センサシステムであって、 車両を取り巻く空間のうち所定の範囲内の情況を検知す
るための1以上のセンサが各々着脱自在に接続され得
る、前記車両の所定位置に設けられた複数の接続ノー
ド、および各前記センサによる検知結果を処理してドラ
イバに通知するため処理装置を備え、 各前記センサには、そのセンサ自身の属性が記憶されて
おり、 各前記接続ノードは、その接続ノード自身の位置を記憶
しており、 前記処理装置は、 各前記接続ノードの位置と、各前記センサの属性とに基
づいて、車両のどの位置にある接続ノードにどのような
属性を持ったセンサが接続されているかを示す接続状態
を検出する接続状態検出手段、 検出可能な全ての接続状態と、各接続状態と対応付けら
れた複数の処理プログラムとが予め記憶された記憶手
段、および前記記憶手段に記憶されている処理プログラ
ムのうち、前記接続状態検出手段が検出した接続状態と
対応する処理プログラムを選択して実行することによっ
て、各前記センサによる検知結果を処理する処理手段を
含む、車載センサシステム。
12. An in-vehicle sensor system mounted on a vehicle for detecting a situation within a predetermined range of a space surrounding the vehicle by a sensor and notifying a driver of the situation, wherein the predetermined range of the space surrounding the vehicle is provided. A plurality of connection nodes provided at predetermined positions of the vehicle, each of which may be detachably connected to one or more sensors for detecting a situation in the vehicle, and processing a result detected by each sensor to notify a driver. Each of the sensors stores an attribute of the sensor itself, each of the connection nodes stores a position of the connection node itself, and the processing device includes a processing device of: Based on the position of the sensor and the attribute of each sensor, a connection state indicating a sensor having what attribute is connected to a connection node at which position of the vehicle is detected. Connection state detection means, storage means in which all detectable connection states and a plurality of processing programs associated with each connection state are stored in advance, and among the processing programs stored in the storage means, An in-vehicle sensor system including a processing unit that processes a detection result of each of the sensors by selecting and executing a processing program corresponding to the connection state detected by the connection state detection unit.
【請求項13】 車両に搭載され、車両を取り巻く空間
のうち所定の範囲内の情況をセンサで検知してドライバ
に通知するための車載センサシステムを制御する方法で
あって、 前記車載センサシステムには、 車両を取り巻く空間のうち所定の範囲内の情況を検知す
るための1以上のセンサ、および各前記センサが着脱自
在に接続され得る、前記車両の所定位置に設けられた複
数の接続ノードが備わり、 各前記センサには、そのセンサ自身の属性が記憶されて
おり、 各前記接続ノードには、その接続ノード自身の位置が記
憶されており、 各前記接続ノードの位置と、各前記センサの属性とに基
づいて、車両のどの位置にある接続ノードにどのような
属性を持ったセンサが接続されているかを示す接続状態
を検出する接続状態検出ステップ、 検出可能な全ての接続状態と、各接続状態と対応付けら
れた複数の処理プログラムとを予め記憶する記憶ステッ
プ、および前記記憶ステップで記憶した処理プログラム
のうち、前記接続状態検出ステップで検出した接続状態
と対応する処理プログラムを選択して実行することによ
って、各前記センサによる検知結果を処理してドライバ
に通知するステップを含む、車載センサシステム制御方
法。
13. A method for controlling a vehicle-mounted sensor system for detecting a situation within a predetermined range in a space surrounding the vehicle by a sensor and notifying the driver of the situation, wherein the vehicle-mounted sensor system is mounted on the vehicle. Includes one or more sensors for detecting a situation in a predetermined range in a space surrounding the vehicle, and a plurality of connection nodes provided at predetermined positions of the vehicle, to which the sensors can be detachably connected. In each of the sensors, an attribute of the sensor itself is stored, and in each of the connection nodes, a position of the connection node itself is stored, and a position of each of the connection nodes and a position of each of the sensors are stored. A connection state detecting step for detecting a connection state indicating a sensor having what attribute is connected to a connection node at which position of the vehicle based on the attribute. A storage step of storing in advance all possible connection states and a plurality of processing programs associated with each connection state, and a connection detected in the connection state detection step among the processing programs stored in the storage step An in-vehicle sensor system control method including a step of selecting and executing a processing program corresponding to a state to process a detection result of each of the sensors and notify a driver.
【請求項14】 車両に搭載され、車両を取り巻く空間
のうち所定の範囲内の情況をセンサで検知してドライバ
に通知するための車載センサシステムを制御するコンピ
ュータによって実行される制御プログラムであって、 前記車載センサシステムには、 車両を取り巻く空間のうち所定の範囲内の情況を検知す
るための1以上のセンサ、および各前記センサが着脱自
在に接続され得る、前記車両の所定位置に設けられた複
数の接続ノードが備わり、 各前記センサには、そのセンサ自身の属性が記憶されて
おり、 各前記接続ノードには、その接続ノード自身の位置が記
憶されており、 各前記接続ノードの位置と、各前記センサの属性とに基
づいて、車両のどの位置にある接続ノードにどのような
属性を持ったセンサが接続されているかを示す接続状態
を検出する接続状態検出ステップ、 検出可能な全ての接続状態と、各接続状態と対応付けら
れた複数の処理プログラムとを予め記憶する記憶ステッ
プ、および前記記憶ステップで記憶した処理プログラム
のうち、前記接続状態検出ステップで検出した接続状態
と対応する処理プログラムを選択して実行することによ
って、各前記センサによる検知結果を処理してドライバ
に通知するステップを含む、車載センサシステム制御プ
ログラム。
14. A control program mounted on a vehicle and executed by a computer for controlling a vehicle-mounted sensor system for detecting a situation within a predetermined range in a space surrounding the vehicle with a sensor and notifying a driver. The on-vehicle sensor system includes: one or more sensors for detecting a situation within a predetermined range in a space surrounding the vehicle; and a sensor provided at a predetermined position of the vehicle to which the sensors can be detachably connected. A plurality of connection nodes, each sensor stores attributes of the sensor itself, each connection node stores a position of the connection node itself, and a position of each connection node. Based on the attribute of each of the sensors and a connection node indicating at which position the sensor having the attribute is connected to the connection node at which position on the vehicle. A connection state detection step of detecting a state, a storage step of storing in advance all detectable connection states and a plurality of processing programs associated with each connection state, and a processing program stored in the storage step. An in-vehicle sensor system control program including a step of selecting and executing a processing program corresponding to the connection state detected in the connection state detection step to process a detection result of each of the sensors and notify the driver.
JP2001052260A 2000-02-29 2001-02-27 In-vehicle sensor system Expired - Fee Related JP4587581B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001052260A JP4587581B2 (en) 2000-02-29 2001-02-27 In-vehicle sensor system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-53019 2000-02-29
JP2000053019 2000-02-29
JP2001052260A JP4587581B2 (en) 2000-02-29 2001-02-27 In-vehicle sensor system

Publications (3)

Publication Number Publication Date
JP2001346198A true JP2001346198A (en) 2001-12-14
JP2001346198A5 JP2001346198A5 (en) 2008-02-14
JP4587581B2 JP4587581B2 (en) 2010-11-24

Family

ID=26586340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001052260A Expired - Fee Related JP4587581B2 (en) 2000-02-29 2001-02-27 In-vehicle sensor system

Country Status (1)

Country Link
JP (1) JP4587581B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056683A (en) * 2002-07-23 2004-02-19 Sumitomo Electric Ind Ltd Image transformation system, image processing apparatus, and image transformation method
WO2008099918A1 (en) * 2007-02-16 2008-08-21 Autonetworks Technologies, Ltd. On-vehicle video communication system and on-vehicle imaging system
JP2009018705A (en) * 2007-07-12 2009-01-29 Ichikoh Ind Ltd Post-installation type side view support unit
JP2011093465A (en) * 2009-10-30 2011-05-12 Denso Corp Periphery monitoring system for mobile body
JP2011101093A (en) * 2009-11-04 2011-05-19 Renesas Electronics Corp Semiconductor device for image processing, and image processing apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270384A (en) * 1999-03-12 2000-09-29 Omron Corp Sensor, controller and sensor system
JP2000333162A (en) * 1999-05-17 2000-11-30 Yazaki Corp Monitoring device for rear and side directions for vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2685920B2 (en) * 1989-09-19 1997-12-08 株式会社東芝 Video exchange system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270384A (en) * 1999-03-12 2000-09-29 Omron Corp Sensor, controller and sensor system
JP2000333162A (en) * 1999-05-17 2000-11-30 Yazaki Corp Monitoring device for rear and side directions for vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056683A (en) * 2002-07-23 2004-02-19 Sumitomo Electric Ind Ltd Image transformation system, image processing apparatus, and image transformation method
WO2008099918A1 (en) * 2007-02-16 2008-08-21 Autonetworks Technologies, Ltd. On-vehicle video communication system and on-vehicle imaging system
US8350886B2 (en) 2007-02-16 2013-01-08 Autonetworks Technologies, Ltd. Vehicle-mounted video communication system and vehicle-mounted image pickup system
JP2009018705A (en) * 2007-07-12 2009-01-29 Ichikoh Ind Ltd Post-installation type side view support unit
JP2011093465A (en) * 2009-10-30 2011-05-12 Denso Corp Periphery monitoring system for mobile body
JP2011101093A (en) * 2009-11-04 2011-05-19 Renesas Electronics Corp Semiconductor device for image processing, and image processing apparatus

Also Published As

Publication number Publication date
JP4587581B2 (en) 2010-11-24

Similar Documents

Publication Publication Date Title
EP1916846B1 (en) Device and method for monitoring vehicle surroundings
US9098928B2 (en) Image-processing system and image-processing method
US7734417B2 (en) Image processing device and method for parking support
CN102917205B (en) Vehicle is around view system
US8553081B2 (en) Apparatus and method for displaying an image of vehicle surroundings
WO2011090163A1 (en) Parameter determination device, parameter determination system, parameter determination method, and recording medium
WO2002060727A1 (en) Vehicle-mounted video switching device
JP5397887B2 (en) Vehicle monitoring system
JP5064201B2 (en) Image display system and camera output control method
JP2008500919A (en) Display system for moving body and moving body
US11200804B2 (en) Method, device, computer program and computer program product for operating a display unit in a vehicle
JP2008174076A (en) Vehicle periphery monitoring device, and its displaying method
JP2001346198A (en) On-vehicle sensor system
JP2004155395A (en) Vehicle surrounding image processing device
JP2005184142A (en) Device for displaying vehicle surroundings information
JP3731303B2 (en) Vehicle periphery monitoring device
JP2008278515A (en) Image processing camera system and image processing camera control method
JP2013161440A (en) Vehicle surroundings monitoring device
JP3655119B2 (en) Status information providing apparatus and method
JP2008158963A (en) Vehicle surrounding detecting system
JP2007088577A (en) Vehicle surrounding image processing system
JP2010026620A (en) Vehicle driving support device
JP2003102002A (en) Method and apparatus for supervising surrounding of vehicle, and signal processing apparatus
KR101022589B1 (en) Image display system for vehicle and image display method thereof
JP2008306443A (en) Camera device, controller, camera control system, camera control method, program, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100907

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees