JP2010183281A - In-vehicle photographing device, and safety measure method for vehicle - Google Patents
In-vehicle photographing device, and safety measure method for vehicle Download PDFInfo
- Publication number
- JP2010183281A JP2010183281A JP2009024070A JP2009024070A JP2010183281A JP 2010183281 A JP2010183281 A JP 2010183281A JP 2009024070 A JP2009024070 A JP 2009024070A JP 2009024070 A JP2009024070 A JP 2009024070A JP 2010183281 A JP2010183281 A JP 2010183281A
- Authority
- JP
- Japan
- Prior art keywords
- peripheral
- vehicle
- image data
- dynamic object
- central
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000002093 peripheral effect Effects 0.000 claims abstract description 74
- 238000003384 imaging method Methods 0.000 claims description 38
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 description 59
- 230000005043 peripheral vision Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
Images
Landscapes
- Cameras In General (AREA)
- Air Bags (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、車両に搭載され、運転者の視認補助、人や障害物の監視、車線認識等に利用される車載用撮影装置及び車載用撮影装置を搭載した車両の安全対策方法に関する。 The present invention relates to a vehicle-mounted imaging device that is mounted on a vehicle and is used for assisting driver's visual recognition, monitoring of a person or an obstacle, lane recognition, and the like, and a safety measure method for a vehicle equipped with the vehicle-mounted imaging device.
近年、車両の分野においては、カメラを利用した運転者の視認補助システム、人や障害物を認識して危険を警告する障害物監視システム、車線を認識して車両の走行レーンを維持するレーンキープシステムなど)が提案され、一部実用化されている。例えば特許文献1には、レーンキープシステム等のための車載カメラによる道路位置認識技術が開示されている。
In recent years, in the field of vehicles, a driver's visual assistance system that uses a camera, an obstacle monitoring system that recognizes people and obstacles and warns of danger, and a lane keep that recognizes lanes and maintains the lane of the vehicle. System etc.) have been proposed and partially put into practical use. For example,
上記の特許文献等で使用される撮像手段として、通常のデジタルカメラ(撮影部)で使用する撮像素子(例えば、電荷結合素子CCD(charge-coupled-device))の画素の配列は撮影される1画面の全ての位置で均等である。 As an imaging means used in the above-mentioned patent documents and the like, an array of pixels of an imaging device (for example, a charge-coupled device (CCD)) used in a normal digital camera (imaging unit) is photographed 1 It is even at all positions on the screen.
これに対して、人間の眼の画像処理は以下の特徴を有している。
人間の眼は、中心と周辺の2つの視野をもっている。
中心視野は、視線を中心とした約20度のエリアをいう。
周辺視野は、中心視野から外れた上下130度、左右180度のエリアである。
この周辺視野では、見えてはいるが物の形はぼんやりして、色も正確には認識できない。しかし、移動する対象や点滅する光のように時間的に変化する物(動的対象物)に対しては中心視野より優れた力を発揮することができる。
On the other hand, human eye image processing has the following characteristics.
The human eye has two fields of view, the center and the periphery.
The central visual field refers to an area of about 20 degrees around the line of sight.
The peripheral visual field is an area of 130 degrees up and down and 180 degrees from the central visual field.
In this peripheral vision, it is visible but the shape of the object is vague, and the color cannot be accurately recognized. However, a force superior to the central visual field can be exerted on a moving object or an object (dynamic object) that changes with time such as blinking light.
本発明の目的は、人間の眼の周辺視野における動的対象物の認識が優れているという特徴を撮影装置に適用して、中心視野と周辺視野の画像を同時に撮影可能な撮影装置(デジタルカメラ)を実現するとともに、当該撮影装置の応用として中心視野と周辺視野の画像を同時に撮影した画像を有効に利用した車載用撮影装置を提供することにある。
また、当該車載用撮影装置を搭載した車両の安全対策方法を実現することにある。
An object of the present invention is to apply a feature that the recognition of a dynamic object in the peripheral visual field of the human eye is excellent to the photographing apparatus, and to be capable of photographing the central visual field and the peripheral visual field simultaneously (digital camera). ) And an in-vehicle imaging device that effectively uses images obtained by simultaneously capturing images of a central visual field and a peripheral visual field as an application of the imaging device.
Another object of the present invention is to realize a safety measure method for a vehicle equipped with the in-vehicle imaging device.
上記目的を達成するために、本願の撮影装置は、撮影エリアを中心部と周辺部とに分離して、中心部の撮影画像データの画素密度を高く、周辺部の撮影画像データの画素密度を低く設定したことを特徴とする。
また、前記中心部の画像撮影部の撮像素子と周辺部の画像撮影部の撮像素子とを別の構成としたことを特徴とする。
また、前記中心部の画像撮影部と周辺部の画像撮影部とを共通の光学系及び共通の撮像素子で構成し、当該撮像素子の画素密度を中心部と周辺部とで異ならせたことを特徴とする。
In order to achieve the above object, the photographing apparatus of the present application separates the photographing area into a central part and a peripheral part, and increases the pixel density of the photographed image data in the central part, and increases the pixel density of the photographed image data in the peripheral part. It is characterized by being set low.
Further, the image sensor of the central image capturing unit and the image sensor of the peripheral image capturing unit have different configurations.
In addition, the central image capturing unit and the peripheral image capturing unit are configured with a common optical system and a common image sensor, and the pixel density of the image sensor is different between the central unit and the peripheral unit. Features.
上記目的を達成するために、本願の車両用撮影装置は、撮影エリアを中心部と周辺部とに分離して、中心部の撮影画像データの画素密度を高く、周辺部の撮影画像データの画素密度を低く設定した撮影装置を車両に搭載し、前記撮影装置には、更に、中心部及び周辺部の撮影画像データの画素を個別に処理する画素データ処理部とを備え、当該画素データ処理部では、少なくとも周辺部撮像素子の画像データに含まれる動的対象物のデータ処理を主として実行することを特徴とする。 In order to achieve the above object, the vehicle photographing apparatus of the present application separates the photographing area into a central part and a peripheral part, and the pixel density of the photographed image data in the central part is high, and the pixels of the photographed image data in the peripheral part An imaging device having a low density is mounted on a vehicle, and the imaging device further includes a pixel data processing unit that individually processes pixels of captured image data in the central portion and the peripheral portion, and the pixel data processing unit Then, at least the data processing of the dynamic object included in the image data of the peripheral image sensor is mainly executed.
前記動的対象物は、周辺部撮影エリアに進入する動的対象物であって、連続して撮影される複数の周辺部画像データの差分によって抽出されることを特徴とする。
また、前記周辺部撮影エリアに進入する動的対象物の有無の判断は、連続して撮影される複数の周辺部画像データの差分によって抽出された動的対象物の所定時間内における移動距離若しくは移動速度によって判断されることを特徴とする。
また、前記動的対象物の検出時には、前記車両によって警報若しくは当該動的対象物に対する保護動作を実行させることを特徴とする。
また、前記動的対象物は、前記車両の進行方向前方に進入する人若しくは自転車であることを特徴とする。
The dynamic object is a dynamic object that enters a peripheral imaging area, and is extracted by a difference between a plurality of peripheral image data that are continuously captured.
Further, the determination of the presence or absence of a dynamic object entering the peripheral image capturing area may be performed by determining whether the dynamic object extracted by a difference between a plurality of peripheral image data continuously captured within a predetermined time or It is determined by the moving speed.
In addition, when the dynamic object is detected, an alarm or a protection operation for the dynamic object is executed by the vehicle.
In addition, the dynamic object is a person or a bicycle entering in front of the vehicle in the traveling direction.
上記目的を達成するために、本願の車両の安全対策方法は、撮影エリアを中心部と周辺部とに分離して、中心部の撮影画像データの画素密度を高く、周辺部の撮影画像データの画素密度を低く設定し、中心部及び周辺部の撮影画像データの画素を個別に処理する画素データ処理部を備えた撮影装置を搭載した車両の安全対策方法であって、前記周辺部画像データに含まれる動的対象物の検出時に、当該動的対象物に対する車両の安全対策が実行されることを特徴とする。 In order to achieve the above object, the vehicle safety measures method of the present application separates the shooting area into a central part and a peripheral part, increases the pixel density of the centrally-captured image data, A safety measure method for a vehicle equipped with a photographing device including a pixel data processing unit that sets a pixel density low and individually processes pixels of photographed image data in a central part and a peripheral part. A vehicle safety measure for the dynamic object is executed when the included dynamic object is detected.
本発明の撮影装置,車載用撮影装置及び車両の安全対策方法によれば、人間の眼の周辺視野における動的対象物の認識が優れているという特徴を撮影装置に適用して、中心視野と周辺視野の画像を同時に撮影可能な撮影装置(デジタルカメラ)を実現できる。
また、当該撮影装置の応用として中心視野と周辺視野の画像を同時に撮影した画像を有効に利用した車載用撮影装置を実現できる。
また、当該車載用撮影装置を搭載した車両の安全対策方法を実現できる。
According to the imaging device, the in-vehicle imaging device, and the vehicle safety countermeasure method of the present invention, the feature that the recognition of the dynamic object in the peripheral visual field of the human eye is excellent is applied to the imaging device, An imaging device (digital camera) capable of simultaneously capturing images of the peripheral vision can be realized.
In addition, as an application of the imaging apparatus, an in-vehicle imaging apparatus that effectively uses images obtained by simultaneously capturing images of the central visual field and the peripheral visual field can be realized.
In addition, it is possible to realize a safety measure method for a vehicle equipped with the in-vehicle imaging device.
本発明では、上記の課題の解決のための撮影装置の第1の実施形態では、中心視野撮影用の高解像度の望遠カメラと周辺視野撮影用の低解像度の広角カメラを使用する。 In the present invention, in the first embodiment of the photographing apparatus for solving the above-described problems, a high-resolution telephoto camera for central field photography and a low-resolution wide-angle camera for peripheral vision photography are used.
図1を用いて、中心視野撮影用の高解像度の望遠カメラと周辺視野撮影用の低解像度の広角カメラとの視野の関係を説明する。
図1において、1は撮影装置であって、該撮影装置内には中心視野撮影用の高解像度の望遠カメラ1aと周辺視野撮影用の低解像度の広角カメラ1bとが一体に構成されている。
また、Aは前記中心視野撮影用の高解像度の望遠カメラで撮影される中心視野エリアであって、Bは周辺視野撮影用の低解像度の広角カメラで撮影される周辺視野エリアを示している。
The relationship between the field of view of a high-resolution telephoto camera for central field imaging and a low-resolution wide-angle camera for peripheral field imaging will be described with reference to FIG.
In FIG. 1,
A is a central visual field area photographed by the high-resolution telephoto camera for central visual field photography, and B is a peripheral visual field area photographed by a low-resolution wide-angle camera for peripheral visual field photography.
図1における中心視野エリアAの広がりは、人間の眼と同様な、撮影方向(視線)の中心とした約20度のエリアで、周辺視野エリアBは中心視野から外れた上下130度、左右180度のエリアであることが望ましいが、必ずしも、この数値であることは必要ではなく、用途に応じて中心視野エリアと周辺視野エリアの範囲を設定することができる。 The spread of the central visual field area A in FIG. 1 is an area of about 20 degrees centered in the photographing direction (line of sight), similar to the human eye, and the peripheral visual field area B is 130 degrees above and below the central visual field and 180 degrees left and right However, this value is not necessarily required, and the range of the central visual field area and the peripheral visual field area can be set according to the application.
なお、図1では中心視野用カメラ1aは1台のカメラであるが、当該中心視野撮影用の高解像度の望遠カメラを2台所定の距離をおいて配置して被撮影対象に両者の焦点を合わせて、人間の2つの眼での如く被撮影対象の色、形状位置(距離)関係及び動きを検出するようにしても良い。 In FIG. 1, the central-view camera 1a is a single camera. However, two high-resolution telephoto cameras for central-view imaging are arranged at a predetermined distance so that the focus of both is set on the subject. In addition, the color, shape position (distance) relationship and movement of the object to be imaged may be detected as with two human eyes.
図2は、図1の撮影装置1で撮影した画像データが入力される撮像素子(例えば、電荷結合素子CCD(charge-coupled-device))の模式図であって、A-1には中心視野撮影用の高解像度の望遠カメラ1aの撮影画像が入力され、B-1には周辺視野撮影用の低解像度の広角カメラ1bの撮影画像が入力される。
FIG. 2 is a schematic diagram of an image sensor (for example, a charge-coupled device (CCD)) to which image data captured by the
以下の説明では、撮像素子として、CCDイメージセンサ(以下、CCDと記す)を使用する例で説明しているが、撮像素子として、CMOSイメージセンサを用いても良い。
図2におけるA-1の画素密度は高く高解像度の撮影に適し、B-1の画素密度は低く低解像度の撮影に適している。
また、上記の説明では、図2をCCDとして説明しているが、図2をCCDで撮影した画像データを表示する液晶等で構成される表示画面として理解しても良い。
また、図2では、A-1及びB-1をそれぞれ矩形で示しているが、必ずしもCCDの形状は矩形である必要はなく、同心円等の任意の形状が選択できることはいうまでもない。
In the following description, an example in which a CCD image sensor (hereinafter referred to as CCD) is used as the image sensor is described. However, a CMOS image sensor may be used as the image sensor.
In FIG. 2, the pixel density of A-1 is high and suitable for high-resolution imaging, and the pixel density of B-1 is low and suitable for low-resolution imaging.
In the above description, FIG. 2 is described as a CCD, but FIG. 2 may be understood as a display screen composed of a liquid crystal or the like for displaying image data captured by the CCD.
In FIG. 2, A-1 and B-1 are each shown as a rectangle, but the shape of the CCD is not necessarily a rectangle, and it is needless to say that an arbitrary shape such as a concentric circle can be selected.
図2の如く、周辺視野の画像データのためのCCDの画素密度は低いので、中心視野に比べてはるかに広い範囲の周辺視野であっても、画素密度が小さので、周辺視野全体のデータ数は低く抑えられデータ演算の負担が低く周辺視野エリアに進入する動的対象物が含まれデータ処理、特に、連続して撮影される複数の周辺視野の画像データの差分の演算を短時間に実行できる。 As shown in FIG. 2, since the pixel density of the CCD for the image data of the peripheral visual field is low, the pixel density is small even in the peripheral visual field in a far wider range than the central visual field. Data processing that includes a dynamic object that enters the peripheral visual field area, especially the difference between image data of multiple peripheral visual fields that are captured continuously. it can.
周辺視野エリアに進入する動的対象物の有無の判断の処理例としては、連続して撮影される複数の周辺視野画像データの差分によって動的対象物を抽出(認識)する。
更に、抽出した動的対象物の周辺視野内における、所定時間内における移動距離若しくは移動速度の演算を短時間に実行する。
As an example of processing for determining whether or not there is a dynamic object entering the peripheral visual field area, a dynamic object is extracted (recognized) based on a difference between a plurality of peripheral visual field image data that are continuously captured.
Furthermore, the calculation of the moving distance or moving speed within a predetermined time within the peripheral visual field of the extracted dynamic object is executed in a short time.
画像データの差分によって動的対象物を抽出する例としては、特開平9-252467号公報に記載の如き、以下のものが知られている。
カメラで撮像されたディジタル符号化されたデータに基づき、移動する物体を検出するために、監視用テレビカメラからの画像信号を、符号化部でディジタル画像圧縮符号化データに変換する。符号化部では、前画面または後画面との画像の差分の画素情報と、その2画面での動きの大きさと方向を複数ブロック単位で示す動きベクトルの情報が符号化する。この符号化されたデータの復号に際して動きのある物体についての動きベクトルが移動体検出・判定部で抽出する。この判定部においては動きベクトルを抽出し、動き指標に基づき物体ブロックを抽出し、その統計量を求め、基準値と比較して目標移動体を判別する。
As an example of extracting a dynamic object based on a difference in image data, the following is known as described in JP-A-9-252467.
In order to detect a moving object based on the digitally encoded data captured by the camera, an image signal from the surveillance television camera is converted into digital image compression encoded data by an encoding unit. The encoding unit encodes pixel information of the difference between the image on the previous screen and the subsequent screen, and information on a motion vector indicating the magnitude and direction of the motion on the two screens in units of a plurality of blocks. When decoding the encoded data, a motion vector for a moving object is extracted by a moving object detection / determination unit. In this determination unit, a motion vector is extracted, an object block is extracted based on the motion index, its statistic is obtained, and the target moving body is determined by comparison with a reference value.
本願発明における連続して撮影される複数の周辺視野画像データの差分によって動的対象物を抽出(認識)には、上記の認識方法に特定されるものではなく、本願出願時に公知の認識方法が適用できることはいうまでもない。 Extraction (recognition) of a dynamic object based on a difference between a plurality of peripheral visual field image data continuously photographed in the present invention is not limited to the above recognition method, and a known recognition method at the time of filing the present application is used. Needless to say, this is applicable.
本発明の撮影装置のハードウエア構成について図5及び図6を用いて説明する。
図5は、本発明の撮影装置の第1のハードウエア構成例を示す図である。
撮影装置1は、中心視野を撮影する光学系及びCCDをそれぞれ個別に備えたもので、それぞれ、中心視野用光学系1-1,中心視野用CCD1-1a,周辺視野用光学系1-2,周辺視野用CCD1-2aである。
1-3は処理装置(CPU)であって、個別の光学系で撮影された個別のCCDの画像データを個別に処理するとともに、処理したデータを、インタフェース1-4を介して当該撮影装置が搭載された車両の制御装置(CPU)との間で信号の授受を実行する。
また、中心視野用CCD1-1aの画素密度は高く高解像度の撮影に適し、周辺視野用CCD1-2aの画素密度は低く低解像度の撮影に適している。
A hardware configuration of the photographing apparatus of the present invention will be described with reference to FIGS.
FIG. 5 is a diagram showing a first hardware configuration example of the photographing apparatus of the present invention.
The photographing
Reference numeral 1-3 denotes a processing device (CPU), which individually processes image data of individual CCDs photographed by individual optical systems, and processes the processed data via the interface 1-4. Signals are exchanged with the control device (CPU) of the mounted vehicle.
The center visual field CCD 1-1a has a high pixel density and is suitable for high resolution photography, and the peripheral visual field CCD 1-2a has a low pixel density and is suitable for low resolution photography.
図6は、本発明の撮影装置の第2のハードウエア構成例を示す図である。
撮影装置1は、中心及び周辺視野を撮影する共通の光学系及び共通のCCDを備えたもので、共通光学系1-5,共通CCD1-5aで構成される。
1-3は処理装置(CPU))であって、共通の光学系で撮影された共通のCCDの画像データを中心視野及び周辺視野毎に個別に処理するとともに、インタフェース1-4を介して当該撮影装置が搭載された車両の制御装置(CPU)との間で信号の授受を実行する。
また、共通CCD1-5aの中心視野A-1の画素密度は高く、周辺視野B-1の画素密度は低く設定されている。
FIG. 6 is a diagram illustrating a second hardware configuration example of the photographing apparatus of the present invention.
The photographing
1-3 is a processing unit (CPU), which processes image data of a common CCD imaged by a common optical system individually for each of the central visual field and the peripheral visual field, and also through the interface 1-4. Signals are exchanged with the control device (CPU) of the vehicle on which the imaging device is mounted.
Further, the pixel density of the central visual field A-1 of the common CCD 1-5a is set high, and the pixel density of the peripheral visual field B-1 is set low.
次に、図1,2に記載の撮影装置を車載用撮影装置として車両の室内前部に取り付けた応用例について説明する。
図3において、A-1及びB-1は、図2と同じCCD(若しくは表示装置)の中心視野エリア及び周辺視野エリアを示している。
中心視野エリアA-1の部分の撮影画像は、道路の車線3や前方を走行する車両2等常時を撮影して、障害物を認識して危険を警告する障害物監視システム、車線を認識して車両の走行レーンを維持す等に利用されている。
Next, an application example will be described in which the photographing apparatus shown in FIGS.
In FIG. 3, A-1 and B-1 indicate the central visual field area and peripheral visual field area of the same CCD (or display device) as in FIG.
The image of the central visual field area A-1 is an obstacle monitoring system that recognizes obstacles and warns danger by always shooting road lanes 3 and
本願発明で特有の周辺視野エリアB-1の撮影画像は、前方を走行する車両等と自分の車両との距離よりも短い距離(例えば、車両の直前)の周辺視野内の対象物4を撮影することに特徴がある。
本願発明では、単に周辺視野エリア内の対象物を撮影するのではなく、周辺視野エリアに進入する人や自転車の如く、車両の直前に進入する動的対象物4を連続して撮影される複数の周辺部画像データの差分によって抽出(認識)することにある。
The photographed image of the peripheral visual field area B-1 unique to the present invention is a photograph of the object 4 in the peripheral visual field at a distance (for example, immediately before the vehicle) shorter than the distance between the vehicle traveling ahead and the own vehicle. There is a feature in doing.
In the present invention, instead of simply photographing an object in the peripheral vision area, a plurality of dynamic objects 4 entering immediately before the vehicle, such as a person or a bicycle entering the peripheral vision area, are continuously photographed. Extraction (recognition) is performed based on the difference between the peripheral image data.
前記周辺部撮影エリアに進入する動的対象物の有無の判断は、連続して撮影される複数の周辺部画像データ(画面毎)の差分によって抽出された動的対象物の所定時間内における移動距離若しくは移動速度によって判断される。
場合によっては、連続して撮影される複数の周辺部画像データ(画面毎)の差分によって抽出された動的対象物の所定時間内における移動距離若しくは移動速度に、移動する方向の要素を加味して、所定の方向に向かって移動する動的対象物の判断としても良い。
The determination of the presence or absence of a dynamic object that enters the peripheral imaging area is performed by moving a dynamic object extracted within a predetermined time by a difference between a plurality of peripheral image data (for each screen) that are continuously captured. Judged by distance or moving speed.
Depending on the case, the moving direction or moving speed of the dynamic object extracted by the difference between a plurality of peripheral image data (for each screen) that are continuously captured may be added to the moving distance or moving speed within a predetermined time. Thus, it may be determined as a dynamic object moving in a predetermined direction.
上記の構成で、人や自転車が車両の直前に進入したことを検出した際には、警報を運転者及び動的対象物に発したり、車両に備えられた歩行者保護用エアバック等の緊急用保護装置を作動させることもできる。 With the above configuration, when it is detected that a person or bicycle has entered just before the vehicle, an alarm is issued to the driver and the dynamic object, or an emergency such as a pedestrian protection airbag provided in the vehicle. The protective device can be activated.
次に、人や自転車が車両の直前に進入したことを検出した際の動作を図4のフローチャートを用いて説明する。
・中心視野エリアA-1の部分の撮影画像及び周辺視野エリアB-1の撮影画像のCCD画像データは個別に処理装置(CPU)1-3で処理される。(ステップS1)
ここで、中心視野エリアの撮影データの処理結果は、通常の道路の車線や前方を走行する車両等常時を撮影したデータであるので、障害物を認識して危険を警告する障害物監視システム、車線を認識して車両の走行レーンの維持等に利用されるが、ここではその詳細は省略する。
・周辺視野エリアの撮影データ解析は、撮影された画面毎の差分を抽出して、周辺視野エリアに変化(動的対象物)が存在するか否かの判断がされる。(ステップS2)
・ステップS2の判断で、Yesの場合には、検出された動的対象物が所定速度以上で移動しているか、所定距離以上移動したか否かの判断をする。(ステップS3)
ここで、検出された動的対象物が所定速度以上で移動しているか、所定距離以上移動したか否かの判断をするのは、例えば、車両は走行しているので、周囲の建物等の景色も変化するので、その影響を除くためである。
・車両が所定速度以上で走行中か否かの判断をする。(ステップS4)
車両が停止中若しくは所定速度以下の場合には安全動作は必要ない。
・ステップS4での判断が、Yesの場合には、警報を運転者及び動的対象物に発したり、車両に備えられた歩行者保護用エアバック等の緊急用保護装置を作動させる。(ステップS5)
・ステップS2,ステップS3及びステップS4での判断が、Noの場合には、ステップS1に戻って処理を繰り返す。
Next, an operation when it is detected that a person or a bicycle has entered immediately before the vehicle will be described with reference to the flowchart of FIG.
The CCD image data of the captured image of the central visual field area A-1 and the captured image of the peripheral visual field area B-1 are individually processed by the processing device (CPU) 1-3. (Step S1)
Here, the processing result of the photographing data of the central visual field area is data obtained by constantly photographing a normal road lane or a vehicle traveling in front, so an obstacle monitoring system that recognizes an obstacle and warns of danger, It recognizes the lane and is used for maintaining the driving lane of the vehicle, but the details are omitted here.
In the photographing data analysis of the peripheral visual field area, a difference for each photographed screen is extracted, and it is determined whether or not there is a change (dynamic object) in the peripheral visual field area. (Step S2)
If the determination in step S2 is Yes, it is determined whether the detected dynamic object is moving at a predetermined speed or more or whether it has been moved more than a predetermined distance. (Step S3)
Here, whether the detected dynamic object is moving at a predetermined speed or more, or whether it has moved more than a predetermined distance is because, for example, the vehicle is traveling, This is to remove the influence of the scenery as it changes.
・ Determine whether the vehicle is traveling at a predetermined speed or higher. (Step S4)
Safe operation is not required when the vehicle is stopped or below a predetermined speed.
If the determination in step S4 is Yes, an alarm is issued to the driver and the dynamic object, or an emergency protection device such as a pedestrian protection airbag provided in the vehicle is activated. (Step S5)
If the determination in step S2, step S3, and step S4 is No, the process returns to step S1 and repeats the process.
1: 撮影装置
1a: 中心視野用カメラ
1b: 周辺視野用カメラ
A: 中心視野エリア
B: 周辺視野エリア
1: Shooting device
1a: Central vision camera
1b: Peripheral vision camera
A: Central vision area
B: Peripheral vision area
Claims (9)
前記撮影装置には、更に、中心部及び周辺部の撮影画像データの画素を個別に処理する画素データ処理部とを備え、
当該画素データ処理部では、少なくとも周辺部撮像素子の画像データに含まれる動的対象物のデータ処理を主として実行することを特徴とする車載用撮影装置。 The shooting area is separated into a central part and a peripheral part, and the imaging device in which the pixel density of the captured image data in the central part is set high and the pixel density of the captured image data in the peripheral part is set low is mounted on the vehicle.
The photographing apparatus further includes a pixel data processing unit that individually processes the pixels of the photographed image data in the central part and the peripheral part,
The in-vehicle imaging device characterized in that the pixel data processing unit mainly executes at least data processing of a dynamic object included in image data of a peripheral image sensor.
前記周辺部画像データに含まれる動的対象物の検出時、且つ車両が所定速度以上で走行中の場合に、当該動的対象物に対する車両の安全対策が実行されることを特徴とする車両の安全対策方法。 The shooting area is separated into a central portion and a peripheral portion, the pixel density of the captured image data in the central portion is set high, the pixel density of the captured image data in the peripheral portion is set low, and the captured image data of the central portion and the peripheral portion is set. A vehicle safety measure method equipped with a photographing device equipped with a pixel data processing unit that individually processes pixels,
When a dynamic object included in the peripheral image data is detected and the vehicle is traveling at a predetermined speed or more, a vehicle safety measure for the dynamic object is executed. Safety measures method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009024070A JP2010183281A (en) | 2009-02-04 | 2009-02-04 | In-vehicle photographing device, and safety measure method for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009024070A JP2010183281A (en) | 2009-02-04 | 2009-02-04 | In-vehicle photographing device, and safety measure method for vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010183281A true JP2010183281A (en) | 2010-08-19 |
Family
ID=42764483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009024070A Pending JP2010183281A (en) | 2009-02-04 | 2009-02-04 | In-vehicle photographing device, and safety measure method for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010183281A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014102995A1 (en) * | 2012-12-28 | 2014-07-03 | 株式会社日立製作所 | Monitoring system, method, and information-recording medium containing program |
WO2017187811A1 (en) * | 2016-04-27 | 2017-11-02 | ソニー株式会社 | Imaging control device, imaging control method, and imaging apparatus |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0630374A (en) * | 1992-07-10 | 1994-02-04 | Kyocera Corp | Electronic still camera capable of preventing undesired image pickup |
JPH1075397A (en) * | 1996-08-30 | 1998-03-17 | Honda Motor Co Ltd | Semiconductor image sensor |
JP2002026304A (en) * | 2000-07-03 | 2002-01-25 | Sony Corp | Solid-state image pickup element |
JP2003298919A (en) * | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | Digital camera |
JP2005309797A (en) * | 2004-04-22 | 2005-11-04 | Nissan Motor Co Ltd | Warning device for pedestrian |
JP2007123953A (en) * | 2005-10-24 | 2007-05-17 | Sony Corp | Imaging apparatus and imaging method |
-
2009
- 2009-02-04 JP JP2009024070A patent/JP2010183281A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0630374A (en) * | 1992-07-10 | 1994-02-04 | Kyocera Corp | Electronic still camera capable of preventing undesired image pickup |
JPH1075397A (en) * | 1996-08-30 | 1998-03-17 | Honda Motor Co Ltd | Semiconductor image sensor |
JP2002026304A (en) * | 2000-07-03 | 2002-01-25 | Sony Corp | Solid-state image pickup element |
JP2003298919A (en) * | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | Digital camera |
JP2005309797A (en) * | 2004-04-22 | 2005-11-04 | Nissan Motor Co Ltd | Warning device for pedestrian |
JP2007123953A (en) * | 2005-10-24 | 2007-05-17 | Sony Corp | Imaging apparatus and imaging method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014102995A1 (en) * | 2012-12-28 | 2014-07-03 | 株式会社日立製作所 | Monitoring system, method, and information-recording medium containing program |
JPWO2014102995A1 (en) * | 2012-12-28 | 2017-01-12 | 株式会社日立製作所 | Information recording medium storing monitoring system, method and program |
WO2017187811A1 (en) * | 2016-04-27 | 2017-11-02 | ソニー株式会社 | Imaging control device, imaging control method, and imaging apparatus |
JPWO2017187811A1 (en) * | 2016-04-27 | 2019-03-07 | ソニー株式会社 | Imaging control apparatus, imaging control method, and imaging apparatus |
US10868981B2 (en) | 2016-04-27 | 2020-12-15 | Sony Corporation | Shooting control apparatus, shooting control method, and shooting apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11518401B2 (en) | Vehicular driving assist with driver monitoring | |
US20200272836A1 (en) | Vehicular vision system with object detection | |
JP5421072B2 (en) | Approaching object detection system | |
JP4707109B2 (en) | Multi-camera image processing method and apparatus | |
US20220153194A1 (en) | Vehicular vision system with display of combined images | |
JP2020501423A (en) | Camera means and method for performing context-dependent acquisition of a surrounding area of a vehicle | |
US10671868B2 (en) | Vehicular vision system using smart eye glasses | |
JP5171723B2 (en) | Obstacle detection device and vehicle equipped with the device | |
JP5472506B2 (en) | Tracking imaging system and imaging control method for a plurality of moving objects | |
CN110073652B (en) | Image forming apparatus and method of controlling the same | |
EP3667413A1 (en) | Stereo image processing device | |
US20170223306A1 (en) | Vehicle vision system with smart camera video output | |
JP2018526873A (en) | Vehicle-mounted camera means for photographing the periphery of the vehicle, and driver assistant device for object recognition provided with such vehicle-mounted camera means | |
JP2020516093A (en) | Camera device and method for recognizing peripheral area of vehicle | |
WO2010007718A1 (en) | Vehicle vicinity monitoring device | |
US20130107050A1 (en) | Obstacle alarm device | |
JP4932293B2 (en) | Obstacle recognition device | |
JP2010183281A (en) | In-vehicle photographing device, and safety measure method for vehicle | |
KR102632361B1 (en) | System for providing around view image | |
JP2005309660A (en) | Device supporting vehicle in turning right or left | |
JP3212235B2 (en) | Obstacle detection device for vehicles | |
KR101982091B1 (en) | Surround view monitoring system | |
JP2008263325A (en) | Vehicle exterior photographic camera image display device | |
JP4723934B2 (en) | Object search device | |
JPH0737099A (en) | Moving object detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110927 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130219 |