JP6299630B2 - Warning device, warning method and warning program - Google Patents

Warning device, warning method and warning program Download PDF

Info

Publication number
JP6299630B2
JP6299630B2 JP2015046584A JP2015046584A JP6299630B2 JP 6299630 B2 JP6299630 B2 JP 6299630B2 JP 2015046584 A JP2015046584 A JP 2015046584A JP 2015046584 A JP2015046584 A JP 2015046584A JP 6299630 B2 JP6299630 B2 JP 6299630B2
Authority
JP
Japan
Prior art keywords
warning
detected
images
image
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015046584A
Other languages
Japanese (ja)
Other versions
JP2016167173A (en
Inventor
覚 齋部
覚 齋部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015046584A priority Critical patent/JP6299630B2/en
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to EP16761282.9A priority patent/EP3270352B1/en
Priority to EP23151554.5A priority patent/EP4187524A1/en
Priority to PCT/JP2016/001136 priority patent/WO2016143306A1/en
Priority to CN201680013013.XA priority patent/CN107408288B/en
Publication of JP2016167173A publication Critical patent/JP2016167173A/en
Priority to US15/698,099 priority patent/US10474910B2/en
Application granted granted Critical
Publication of JP6299630B2 publication Critical patent/JP6299630B2/en
Priority to US16/591,537 priority patent/US11423664B2/en
Priority to US17/866,371 priority patent/US11749112B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、警告装置、警告方法及び警告プログラムに関する。   The present invention relates to a warning device, a warning method, and a warning program.

デジタルカメラ等の撮影装置は、一般に、特定の波長の光を通過させるフィルタを用いて撮影対象の領域を撮影する。そして、撮影装置は、撮影対象の領域の光量等に適したフィルタを用いることで、撮影画像の画質を向上させることができる。そのため、可視光の量が多い昼間には、可視光領域をより多く通過させる昼間用のフィルタを適用したカメラを用いる。一方、可視光の量が少ない夜間には、赤外線領域をより多く通過させる夜間用のフィルタを適用した赤外線カメラを用いる。   An imaging device such as a digital camera generally images an area to be imaged using a filter that allows light of a specific wavelength to pass through. The image capturing apparatus can improve the image quality of the captured image by using a filter suitable for the amount of light in the region to be imaged. Therefore, during the daytime when the amount of visible light is large, a camera to which a daytime filter that passes more visible light region is applied is used. On the other hand, at night when the amount of visible light is small, an infrared camera to which a night filter that allows more infrared region to pass is applied.

特許文献1には、赤外線センサと赤外線カメラとを備える監視装置に関する技術が開示されている。特許文献1にかかる監視装置は、赤外線センサで監視するエリアを赤外線カメラにより撮影し、監視カメラによる撮影画像に基づき監視エリアの変化を検出する。そして、検出した変化と赤外線センサの出力とに基づいて異常状態を判定するものである。   Patent Document 1 discloses a technique related to a monitoring device including an infrared sensor and an infrared camera. The monitoring apparatus according to Patent Document 1 captures an area monitored by an infrared sensor using an infrared camera, and detects a change in the monitored area based on a captured image captured by the monitoring camera. Then, the abnormal state is determined based on the detected change and the output of the infrared sensor.

近年、車載カメラを用いて車両の周辺を撮影し、撮影された画像を画像認識して画像内の対象物として人物や車等を検出し、運転者に警告するような警告装置が開発されている。そして、特許文献2には、撮影画像から人物を検出するための人物検出装置に関する技術が開示されている。特許文献2にかかる人物検出装置は、画像センサから取得した画像に基づいて対象物の外観を検出し、検出された対象物の外観に関するパラメータと人物に関する比較用パラメータとが一致するか否かを判定し、一致する度合いに応じて、対象物が人物である確率を表す人物確率を演算し、人物確率が予め設定された人物閾値以上である場合に対象物が人物であると判定する。   In recent years, warning devices have been developed that take pictures of the surroundings of a vehicle using an in-vehicle camera, recognize the photographed image, detect a person or car as an object in the image, and warn the driver. Yes. Patent Document 2 discloses a technique related to a person detection device for detecting a person from a captured image. The person detection device according to Patent Document 2 detects the appearance of an object based on an image acquired from an image sensor, and determines whether or not a parameter relating to the appearance of the detected object matches a comparison parameter relating to a person. A person probability representing the probability that the object is a person is calculated according to the degree of coincidence. If the person probability is equal to or higher than a preset person threshold, the object is determined to be a person.

特開2007−160957号公報JP 2007-160957 A 特開2011−146049号公報JP 2011-146049 A

ここで、上述した警告装置の場合、車両の外部環境の判別が困難な状況があり得る。例えば、天候の変化や、トンネルの内外など明るさが急激に変化する場所を走行する状況などである。そのため、車両の外部環境の判別が困難な状況では、対象物の検出に基づく警告が困難な場合があるという問題点がある。   Here, in the case of the warning device described above, there may be a situation where it is difficult to determine the external environment of the vehicle. For example, it may be a weather change or a situation where the vehicle travels in a place where the brightness changes abruptly, such as inside or outside a tunnel. Therefore, in a situation where it is difficult to determine the external environment of the vehicle, there is a problem that a warning based on detection of an object may be difficult.

尚、特許文献1にかかる監視装置では、監視エリアが施設内の特定領域であり、外部環境の判別が困難な状況を想定したものではない。また、特許文献2にかかる人物検出装置は、解析対象が単一の画像である。それ故、例えば、外部環境の判別が困難な状況なために、適切なフィルタを用いることができなかった場合には、画質が低下してしまう。そして、解析対象の画像の画質が低い場合には、車両の走行を妨げ得る対象物の検出精度が低下し得る。そのため、適切な警告が行えないこととなる。さらに、このような問題は、車両に限らず、移動体全般に搭載される警告装置においても生じる。   In the monitoring apparatus according to Patent Document 1, it is not assumed that the monitoring area is a specific area in the facility and it is difficult to determine the external environment. Moreover, the person detection apparatus according to Patent Document 2 has a single analysis target. Therefore, for example, when it is difficult to discriminate the external environment, if an appropriate filter cannot be used, the image quality deteriorates. And when the image quality of the image to be analyzed is low, the detection accuracy of an object that may hinder the traveling of the vehicle may be lowered. Therefore, an appropriate warning cannot be performed. Furthermore, such a problem occurs not only in the vehicle but also in a warning device mounted on the entire mobile body.

本発明は、上述の課題に鑑みてなされたものであり、移動体の外部環境の判別が困難な状況であっても対象物の検出に基づく警告を適切に行なうための警告装置、警告方法及び警告プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides a warning device, a warning method, and a warning method for appropriately performing warning based on detection of an object even in a situation where it is difficult to determine the external environment of a moving object. The purpose is to provide a warning program.

本発明の第1の態様は、複数のフィルタ特性それぞれに基づく複数の画像を取得する画像取得手段と、前記取得された複数の画像のそれぞれに対して、所定の対象物の検出を行なう検出手段と、前記取得された複数の画像のうち少なくともいずれか一つの画像から前記対象物が検出された場合に、所定の警告を行う警告手段と、を備え、前記警告手段は、前記複数の画像の全てから前記対象物が検出された場合には、前記複数の画像の一部から前記対象物が検出された場合よりも警告の度合いを高くする警告装置を提供する。   According to a first aspect of the present invention, there is provided an image acquisition unit that acquires a plurality of images based on a plurality of filter characteristics, and a detection unit that detects a predetermined object for each of the acquired plurality of images. And warning means for performing a predetermined warning when the object is detected from at least one of the plurality of acquired images, wherein the warning means includes the plurality of images. Provided is a warning device that increases the degree of warning when the object is detected from all of the plurality of images than when the object is detected from a part of the plurality of images.

本発明の第2の態様は、複数のフィルタ特性それぞれに基づく複数の画像を取得する画像取得ステップと、前記取得された複数の画像のそれぞれに対して、所定の対象物の検出を行う検出ステップと、前記取得された複数の画像のうち少なくともいずれか一つの画像から前記対象物が検出された場合に、所定の警告を行う警告ステップと、を備え、前記警告ステップは、前記複数の画像の全てから前記対象物が検出された場合には、前記複数の画像の一部から前記対象物が検出された場合よりも警告の度合いを高くすることを特徴とする警告方法を提供する。   According to a second aspect of the present invention, there is provided an image acquisition step for acquiring a plurality of images based on a plurality of filter characteristics, and a detection step for detecting a predetermined object for each of the acquired plurality of images. And a warning step for performing a predetermined warning when the object is detected from at least one of the plurality of acquired images, wherein the warning step includes: Provided is a warning method characterized in that when the object is detected from all of the objects, the degree of warning is made higher than when the object is detected from a part of the plurality of images.

本発明の第3の態様は、複数のフィルタ特性それぞれに基づく複数の画像を取得する画像取得ステップと、前記取得された複数の画像のそれぞれに対して、所定の対象物の検出を行う検出ステップと、前記取得された複数の画像のうち少なくともいずれか一つの画像から前記対象物が検出された場合に、所定の警告を行う警告ステップと、をコンピュータに実行させ、前記警告ステップは、前記複数の画像の全てから前記対象物が検出された場合には、前記複数の画像の一部から前記対象物が検出された場合よりも警告の度合いを高くすることを特徴とする警告プログラムを提供する。   According to a third aspect of the present invention, there is provided an image acquisition step of acquiring a plurality of images based on a plurality of filter characteristics, and a detection step of detecting a predetermined object for each of the acquired plurality of images. And a warning step of performing a predetermined warning when the object is detected from at least one of the plurality of acquired images, and the warning step includes the plurality of warning steps. A warning program is provided in which, when the object is detected from all of the images, the degree of warning is higher than when the object is detected from a part of the plurality of images. .

本発明により、移動体の外部環境の判別が困難な状況であっても対象物の検出に基づく警告を適切に行なうための警告装置、警告方法及び警告プログラムを提供することができる。   According to the present invention, it is possible to provide a warning device, a warning method, and a warning program for appropriately performing a warning based on detection of an object even in a situation where it is difficult to determine the external environment of a moving object.

本実施の形態1にかかる警告装置を搭載した移動体の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the moving body carrying the warning device concerning this Embodiment 1. FIG. 本実施の形態1にかかる警告装置のハードウェア構成を示すブロック図である。1 is a block diagram showing a hardware configuration of a warning device according to a first embodiment. 本実施の形態1にかかる対象物の検出及び警告処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the detection and warning process of the target concerning this Embodiment 1. FIG. 本実施の形態1にかかる第1のフィルタによる撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image by the 1st filter concerning this Embodiment 1. FIG. 本実施の形態1にかかる第2のフィルタによる撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image by the 2nd filter concerning this Embodiment 1. FIG. 本実施の形態1にかかる警告処理の一例の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of an example of the warning process concerning this Embodiment 1. FIG. 本実施の形態1にかかる対象物の位置を強調して画面に表示する例を示す図である。It is a figure which shows the example which emphasizes the position of the target object concerning this Embodiment 1, and displays it on a screen. 本実施の形態2にかかる警告装置の構成を示すブロック図である。It is a block diagram which shows the structure of the warning device concerning this Embodiment 2. 本実施の形態2にかかるモード設定処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the mode setting process concerning this Embodiment 2. FIG. 本実施の形態3にかかる画像取得手段の構成を示すブロック図である。It is a block diagram which shows the structure of the image acquisition means concerning this Embodiment 3.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description will be omitted as necessary for the sake of clarity.

<発明の実施の形態1>
図1は、本実施の形態1にかかる警告装置10を搭載した移動体1の全体構成を示すブロック図である。移動体1は、警告装置10、表示装置21及びスピーカ22等を搭載し、運転者の操作により走行を行う。移動体1は、例えば、自動車等の車両である。警告装置10は、移動体1の走行中に撮影された画像を解析することで、移動体1と衝突等のおそれのある周辺の対象物を検出し、表示装置21又はスピーカ22等を通じて運転者に警告を行う装置である。なお、表示装置は、例えば、有機EL(electro-luminescence)ディスプレイやプラズマディスプレイである。
<Embodiment 1 of the Invention>
FIG. 1 is a block diagram showing an overall configuration of a moving body 1 equipped with a warning device 10 according to the first embodiment. The moving body 1 is equipped with a warning device 10, a display device 21, a speaker 22, and the like, and travels by a driver's operation. The moving body 1 is, for example, a vehicle such as an automobile. The warning device 10 detects an object around the mobile body 1 that may collide with the mobile body 1 by analyzing an image taken while the mobile body 1 is traveling, and the driver through the display device 21 or the speaker 22 or the like. This is a device that gives a warning. The display device is, for example, an organic EL (electro-luminescence) display or a plasma display.

警告装置10は、画像取得手段11と、検出手段12と、警告手段13とを備える。画像取得手段11は、移動体1の走行中に、移動体1の周辺領域を異なる複数のフィルタ特性により撮影し、複数の画像として取得する。すなわち、画像取得手段11は、複数のフィルタ特性それぞれに基づく複数の画像を取得する。画像取得手段11は、撮影装置111及び112を有する。撮影装置111及び112は、複数のフィルタ特性のそれぞれに対応する。そして、撮影装置111及び112のそれぞれは、対応するフィルタ特性により撮影を行なう。尚、画像取得手段11が備える撮影装置は2つに限定されない。例えば、画像取得手段11は、3つ以上のフィルタ特性のそれぞれに対応する3つ以上の撮影装置を有していても良い。なお、撮影装置は、例えば、カメラである。   The warning device 10 includes an image acquisition unit 11, a detection unit 12, and a warning unit 13. The image acquisition means 11 captures a peripheral area of the moving body 1 with a plurality of different filter characteristics while the moving body 1 is traveling, and acquires it as a plurality of images. That is, the image acquisition unit 11 acquires a plurality of images based on each of the plurality of filter characteristics. The image acquisition unit 11 includes photographing devices 111 and 112. The imaging devices 111 and 112 correspond to each of a plurality of filter characteristics. Then, each of the photographing devices 111 and 112 performs photographing with a corresponding filter characteristic. In addition, the imaging device with which the image acquisition means 11 is provided is not limited to two. For example, the image acquisition unit 11 may include three or more imaging devices corresponding to three or more filter characteristics. Note that the photographing apparatus is, for example, a camera.

検出手段12は、取得された複数の画像のそれぞれに対して、所定の対象物の検出を行なう。警告手段13は、取得された複数の画像のうち少なくともいずれか一つの画像から対象物が検出された場合に、所定の警告を行う。特に、本発明の実施の形態にかかる警告手段13は、複数の画像の全てから対象物が検出された場合には、複数の画像の一部から対象物が検出された場合よりも警告の度合いを高くする。ここで、警告の度合いを高くするとは、後述の通り、対象物をより認識できるように警告手段の動作を変更することをいう。   The detection means 12 detects a predetermined target object for each of the acquired plurality of images. The warning unit 13 issues a predetermined warning when an object is detected from at least one of the acquired images. In particular, the warning unit 13 according to the embodiment of the present invention has a higher degree of warning when an object is detected from all of a plurality of images than when an object is detected from a part of the plurality of images. To increase. Here, increasing the degree of warning means changing the operation of the warning means so that the object can be recognized more as described later.

図2は、本実施の形態1にかかる警告装置10のハードウェア構成を示すブロック図である。警告装置10は、プロセッサ110、IF(InterFace)部120、撮影装置131及び132、並びに、記憶部140を備える。   FIG. 2 is a block diagram of a hardware configuration of the warning device 10 according to the first embodiment. The warning device 10 includes a processor 110, an IF (InterFace) unit 120, imaging devices 131 and 132, and a storage unit 140.

プロセッサ110は、CPU(Central Processing Unit)等の制御装置である。IF部120は、警告装置10の外部との入出力を行うインタフェースである。特に、IF部120は、プロセッサ110の制御により、警告を示す情報を表示装置21又はスピーカ22へ出力する。   The processor 110 is a control device such as a CPU (Central Processing Unit). The IF unit 120 is an interface that performs input / output with the outside of the warning device 10. In particular, the IF unit 120 outputs information indicating a warning to the display device 21 or the speaker 22 under the control of the processor 110.

撮影装置131及び132は、上述した撮影装置111及び112に対応する。撮影装置131は、第1のフィルタ1311及び第1の撮像素子1312を有する。第1のフィルタ1311は、第1の撮像素子1312に入射する光の波長を選択する処理を行う。つまり、第1のフィルタ1311は、撮影装置131の撮影時に適用されるフィルタである。第1のフィルタ1311は、例えば、近赤外領域を遮断して、可視光領域を通過させるフィルタ特性を有するものである。第1のフィルタ1311は、少なくとも昼間等、移動体1の周辺領域が明るい場合に適したフィルタであるものとする。第1の撮像素子1312は、第1のフィルタ1311を通過した光の強度を電気信号に変換する素子である。   The photographing devices 131 and 132 correspond to the photographing devices 111 and 112 described above. The imaging device 131 includes a first filter 1311 and a first image sensor 1312. The first filter 1311 performs a process of selecting the wavelength of light incident on the first image sensor 1312. That is, the first filter 1311 is a filter that is applied when the photographing apparatus 131 is photographing. The first filter 1311 has, for example, a filter characteristic that blocks the near-infrared region and passes the visible light region. It is assumed that the first filter 1311 is a filter suitable when the peripheral area of the moving body 1 is bright, such as at least during the daytime. The first imaging element 1312 is an element that converts the intensity of light that has passed through the first filter 1311 into an electrical signal.

撮影装置132は、第2のフィルタ1321及び第2の撮像素子1322を有する。第2のフィルタ1321は、第2の撮像素子1322に入射する光の波長を選択する処理を行う。つまり、第2のフィルタ1321は、撮影装置132の撮影時に適用されるフィルタである。第2のフィルタ1321は、例えば、近赤外領域を遮断して、可視光領域を通過させるフィルタ特性を有するものである。第2のフィルタ1321は、少なくとも夜間等、移動体1の周辺領域が暗い場合に適したフィルタであるものとする。第2の撮像素子1322は、第2のフィルタ1321を通過した光の強度を電気信号に変換する素子である。   The imaging device 132 includes a second filter 1321 and a second imaging element 1322. The second filter 1321 performs processing for selecting the wavelength of light incident on the second image sensor 1322. That is, the second filter 1321 is a filter that is applied when the image capturing apparatus 132 captures an image. The second filter 1321 has, for example, a filter characteristic that blocks the near infrared region and passes the visible light region. The second filter 1321 is a filter suitable for a case where the peripheral area of the moving body 1 is dark, such as at night. The second imaging element 1322 is an element that converts the intensity of light that has passed through the second filter 1321 into an electrical signal.

記憶部140は、例えば、メモリやハードディスク等の記憶装置である。記憶部140は、警告プログラム141、撮影画像1421及び1422、並びに、指標値1431及び1432を記憶する。警告プログラム141は、本実施の形態にかかる警告装置10の対象物の検出及び警告処理、すなわち警告方法が実装されたコンピュータプログラムである。   The storage unit 140 is a storage device such as a memory or a hard disk, for example. The storage unit 140 stores a warning program 141, captured images 1421 and 1422, and index values 1431 and 1432. The warning program 141 is a computer program in which an object detection and warning process of the warning device 10 according to the present embodiment, that is, a warning method is implemented.

撮影画像1421は、撮影装置131が第1のフィルタ1311及び第1の撮像素子1312により撮影した画像データである。撮影画像1422は、撮影装置132が第2のフィルタ1321及び第2の撮像素子1322により撮影した画像データである。指標値1431は、検出手段12による撮影画像1421からの対象物の検出の度合いを示す値である。指標値1432は、検出手段12による撮影画像1422からの対象物の検出の度合いを示す値である。指標値1431及び1432は、撮影画像が画像認識されたた場合の対象物の検出精度の指標値ともいえる。   The captured image 1421 is image data captured by the imaging device 131 using the first filter 1311 and the first imaging element 1312. The captured image 1422 is image data captured by the imaging device 132 using the second filter 1321 and the second imaging element 1322. The index value 1431 is a value indicating the degree of detection of the target object from the captured image 1421 by the detection unit 12. The index value 1432 is a value indicating the degree of detection of an object from the captured image 1422 by the detection unit 12. The index values 1431 and 1432 can be said to be index values of the detection accuracy of the object when the captured image is recognized.

プロセッサ110は、記憶部140から警告プログラム141を読み込み、実行する。これにより、警告装置10は、IF部120、撮影装置131及び132を適宜用いて本実施の形態にかかる画像取得手段11、検出手段12及び警告手段13等として動作する。   The processor 110 reads the warning program 141 from the storage unit 140 and executes it. Accordingly, the warning device 10 operates as the image acquisition unit 11, the detection unit 12, the warning unit 13, and the like according to the present embodiment using the IF unit 120 and the imaging devices 131 and 132 as appropriate.

図3は、本実施の形態1にかかる対象物の検出及び警告処理の流れを説明するためのフローチャートである。前提として、夕方等であり、昼間と夜間の間の光量が移動体1に入射されているものとする。   FIG. 3 is a flowchart for explaining the flow of object detection and warning processing according to the first embodiment. As a premise, it is evening and the like, and it is assumed that the amount of light between daytime and nighttime is incident on the moving body 1.

まず、撮影装置111は、移動体1の走行中に、移動体1の周辺領域を第1のフィルタ特性により撮影し、第1の画像として取得する(S111)。このとき、警告装置10は、取得した第1の画像を記憶部140に格納する。そして、検出手段12は、第1の画像に対して所定の対象物の検出を行う(S112)。ここで、図4は、本実施の形態1にかかる第1のフィルタによる撮影画像31の例を示す図である。撮影画像31には、移動体1の進行方向に対象物41がある程度、検出されていることを示す。但し、検出手段12は、対象物41だけでは十分には識別できないものとする。   First, the imaging device 111 captures an area around the moving body 1 with the first filter characteristic while the moving body 1 is traveling, and acquires the first image as a first image (S111). At this time, the warning device 10 stores the acquired first image in the storage unit 140. And the detection means 12 detects a predetermined target object with respect to a 1st image (S112). Here, FIG. 4 is a diagram illustrating an example of the captured image 31 by the first filter according to the first embodiment. The captured image 31 indicates that the object 41 is detected to some extent in the traveling direction of the moving body 1. However, it is assumed that the detection means 12 cannot be sufficiently identified only by the object 41.

ステップS111と並行して、撮影装置112は、移動体1の走行中に、移動体1の周辺領域を第2のフィルタ特性により撮影し、第2の画像として取得する(S121)。このとき、警告装置10は、取得した第2の画像を記憶部140に格納する。そして、検出手段12は、第2の画像に対して所定の対象物の検出を行う(S122)。ここで、図5は、本実施の形態1にかかる第2のフィルタによる撮影画像32の例を示す図である。撮影画像32には、移動体1の進行方向に対象物42がわずかに検出されていることを示す。但し、撮影画像32自体が不鮮明であるため、検出手段12は、対象物42と道路との識別が十分にはできないものとする。   In parallel with step S111, the imaging device 112 captures the peripheral area of the moving body 1 with the second filter characteristic while the moving body 1 is traveling, and obtains it as a second image (S121). At this time, the warning device 10 stores the acquired second image in the storage unit 140. And the detection means 12 detects a predetermined target object with respect to a 2nd image (S122). Here, FIG. 5 is a diagram illustrating an example of the captured image 32 by the second filter according to the first embodiment. The captured image 32 indicates that the object 42 is slightly detected in the traveling direction of the moving body 1. However, since the captured image 32 itself is unclear, it is assumed that the detection unit 12 cannot sufficiently distinguish the object 42 from the road.

ステップS112及びS122の後、警告手段13は、第1の画像及び第2の画像のうち一方の画像から対象物が検出されたか否かを判定する(S131)。ここで、一方から検出された場合、警告手段13は、第1の警告処理を行う(S132)。例えば、警告手段13は、対象物が検出された画像を表示装置21へ出力し、画面に表示させる。例えば、外部環境の光量が十分な場合には、第1の画像に対象物が鮮明に映っているが、第2の画像では対象物が識別できず検出されない。このような場合、警告手段13は、第1の画像を表示装置21へ出力する。そして、運転者は、第1の画像が画面に表示されることで、危険を認識できる。   After steps S112 and S122, the warning unit 13 determines whether an object is detected from one of the first image and the second image (S131). Here, when detected from one side, the warning means 13 performs a first warning process (S132). For example, the warning unit 13 outputs an image in which the object is detected to the display device 21 and displays it on the screen. For example, when the amount of light in the external environment is sufficient, the object is clearly shown in the first image, but the object cannot be identified and detected in the second image. In such a case, the warning unit 13 outputs the first image to the display device 21. Then, the driver can recognize the danger by displaying the first image on the screen.

ステップS131でNOと判定された場合、警告手段13は、第1の画像及び第2の画像の両方から対象物が検出されたか否かを判定する(S133)。例えば、上述した図4及び図5の撮影画像31及び32の場合、両方から対象物が検出された場合となる。このとき、警告手段13は、第2の警告処理を行う(S134)。ここで、第2の警告処理は、ステップS132の第1の警告よりも警告の度合いを高いものとする。ここで警告の度合いが高いものについて説明する。例えば、警告手段13は、第1の画像及び第2の画像のうち対象物がより高い精度で検出された第1の画像を表示装置21へ出力し、画面に表示させる。このとき、警告手段13は、第1の画像を加工して、第1の画像内の対象物付近を強調して表示装置21に表示させてもよい。なお、強調して表示させることとは、後述するが、例えば、対象物を四角の線により囲むことや、対象物又は対象物の上方にマークを付すること、対象物の色彩を変更することなどがある。または、警告手段13は、第1の画像に基づく表示と共に、スピーカ22を介して警告音を出力してもよい。すなわち、警告手段13は、第1の画像及び第2の画像のうち対象物がより高い精度で検出された画像を用いて所定の警告を行う。   When it is determined NO in step S131, the warning unit 13 determines whether an object is detected from both the first image and the second image (S133). For example, in the case of the captured images 31 and 32 in FIGS. 4 and 5 described above, the object is detected from both. At this time, the warning means 13 performs a second warning process (S134). Here, it is assumed that the second warning process has a higher degree of warning than the first warning in step S132. Here, what has a high degree of warning is demonstrated. For example, the warning unit 13 outputs the first image in which the object is detected with higher accuracy among the first image and the second image to the display device 21 and displays the first image on the screen. At this time, the warning means 13 may process the first image so that the vicinity of the object in the first image is emphasized and displayed on the display device 21. Note that highlighting and displaying will be described later, for example, surrounding the object with a square line, adding a mark above the object or the object, or changing the color of the object. and so on. Alternatively, the warning unit 13 may output a warning sound through the speaker 22 together with the display based on the first image. That is, the warning unit 13 performs a predetermined warning using an image in which the object is detected with higher accuracy among the first image and the second image.

一方で、一例として、警告の度合いが上記として比較して高くない場合(例えば、第1の画像又は第2の画像の一方から対象物が検出された場合)についても説明する。この場合では、上述の通り、第1の画像及び第2の画像のうち対象物が映っている画像を表示装置21へ出力し、画面に表示させる。このとき、警告手段13は、第1の画像を加工せず表示装置21に表示させることや、表示装置21に画像を加工して表示させる場合には、警告度合いが高い場合と比較して対象物を囲む線を細くすることや、対象物の上方に付すマークを異ならせることや、変更させる対象物の色彩を異ならせることなどの処理を行う。また、警告手段13がスピーカ22を介して警告音を出力する場合には、警告度合いが高い場合と比較して音量を異ならせること、警告音を変更することなどの処理を行う。   On the other hand, as an example, a case where the degree of warning is not as high as described above (for example, a case where an object is detected from one of the first image and the second image) will be described. In this case, as described above, of the first image and the second image, an image showing the object is output to the display device 21 and displayed on the screen. At this time, when the warning means 13 displays the first image on the display device 21 without processing or displays the processed image on the display device 21, the warning means 13 is the target compared with the case where the warning degree is high. Processing such as thinning the line surrounding the object, changing the mark attached above the object, or changing the color of the object to be changed is performed. Further, when the warning means 13 outputs a warning sound through the speaker 22, processing such as changing the volume and changing the warning sound is performed as compared with the case where the warning degree is high.

また、ステップS133でNOと判定された場合、図3の処理を終了する。   If NO is determined in step S133, the process in FIG. 3 is terminated.

ここで、図3のステップS112及びS122において、検出手段12は、取得された複数の画像のそれぞれに対して対象物の検出の度合いを示す指標値を算出してもよい。例えば、検出手段12は、特許文献2に示すように、対象物の外観に関するパラメータを検出し、比較用パラメータと検出したパラメータとの一致する度合いを指標値として算出してもよい。なお、外観に関するパラメータとしては、例えば、輝度、彩度、エッジまたはこれらの組み合わせが挙げられる。尚、各画像から対象物を検出する際に指標値を算出する処理はこれに限定されない。   Here, in steps S <b> 112 and S <b> 122 of FIG. 3, the detection unit 12 may calculate an index value indicating the degree of detection of the object for each of the plurality of acquired images. For example, as shown in Patent Document 2, the detection unit 12 may detect a parameter related to the appearance of the object, and calculate the degree of matching between the comparison parameter and the detected parameter as an index value. In addition, as a parameter regarding an external appearance, a brightness | luminance, saturation, an edge, or these combination is mentioned, for example. In addition, the process which calculates an index value when detecting a target object from each image is not limited to this.

そして、検出手段12は、算出した指標値を記憶部140に格納するものとする。この場合における図3のステップS131からS134の警告処理の一例を図6を用いて説明する。   The detecting unit 12 stores the calculated index value in the storage unit 140. An example of the warning process in steps S131 to S134 in FIG. 3 in this case will be described with reference to FIG.

まず、警告手段13は、指標値が所定値を超える画像が1つか否かを判定する(S131a)。例えば、警告手段13は、記憶部140から読み出した指標値1431が、所定値を超えるか否かを判定する。同様に、警告手段13は、記憶部140から読み出した指標値1432が、所定値を超えるか否かを判定する。そして、指標値1431及び1432のうち一方が所定値を超え、他方が所定値以下である場合、警告手段13は、該当する画像、つまり所定値を超える画像を画面に表示する(S132a)。ステップS132aは、第1の警告処理の一例である。   First, the warning means 13 determines whether or not there is one image whose index value exceeds a predetermined value (S131a). For example, the warning unit 13 determines whether or not the index value 1431 read from the storage unit 140 exceeds a predetermined value. Similarly, the warning unit 13 determines whether or not the index value 1432 read from the storage unit 140 exceeds a predetermined value. When one of the index values 1431 and 1432 exceeds a predetermined value and the other is equal to or less than the predetermined value, the warning unit 13 displays a corresponding image, that is, an image exceeding the predetermined value on the screen (S132a). Step S132a is an example of a first warning process.

ステップS131aにおいてNOと判定された場合、警告手段13は、指標値が所定値を超える画像が両方であるか否かを判定する(S133a)。両方である場合、警告手段13は、指標値が最も高い画像を選択する(S134a)。例えば、撮影画像31と32の場合、撮影画像31が選択される。そして、警告手段13は、選択した画像を用いて画面に対象物を強調して表示する(S134b)。例えば、警告手段13は、撮影画像31内の対象物41の領域を囲んだ画像を生成し、表示装置21へ出力して画面に表示させる。ここで、図7は、本実施の形態1にかかる対象物の位置を強調して画面に表示する例を示す図である。撮影画像31内の強調表示領域43が強調表示の一例である。但し、協調表示はこれに限定されない。尚、ステップS133aにおいてNOと判定された場合、図6の処理を終了する。   When it is determined NO in step S131a, the warning unit 13 determines whether or not both images have an index value exceeding a predetermined value (S133a). If both are present, the warning means 13 selects the image with the highest index value (S134a). For example, in the case of the captured images 31 and 32, the captured image 31 is selected. And the warning means 13 emphasizes and displays a target object on a screen using the selected image (S134b). For example, the warning unit 13 generates an image surrounding the region of the target object 41 in the captured image 31, outputs the image to the display device 21, and displays it on the screen. Here, FIG. 7 is a diagram illustrating an example in which the position of the object according to the first embodiment is emphasized and displayed on the screen. The highlighted display area 43 in the captured image 31 is an example of highlighted display. However, cooperative display is not limited to this. In addition, when it determines with NO in step S133a, the process of FIG. 6 is complete | finished.

このように、本実施の形態1から少なくとも次のことがいえる。
まず、これまでのように、2つのフィルタ特性のいずれか用いて撮影する場合には、外部環境に対して適切なフィルタ特性を用いれば、対象物を高い精度で検出することが可能である。しかし、不適切なフィルタ特性を用いた場合には、対象物の検出精度は低くなる。そして、移動体が走行中の場合には、外部環境の判別が困難な状況も起こりうる。そのため、本実施の形態1では、予め複数のフィルタ特性のそれぞれを用いて周辺を撮影することで、少なくともいずれか一つの画像から対象物を検出できる確率が高まる。そのため、危険な状況についてより多くのケースを運転者に警告することができ、安全性を高めることができる。
Thus, at least the following can be said from the first embodiment.
First, as in the past, when shooting using one of the two filter characteristics, it is possible to detect an object with high accuracy by using an appropriate filter characteristic for the external environment. However, when an inappropriate filter characteristic is used, the detection accuracy of the object is lowered. When the moving body is traveling, a situation in which it is difficult to determine the external environment may occur. For this reason, in the first embodiment, the probability that an object can be detected from at least one of the images is increased by photographing the periphery in advance using each of the plurality of filter characteristics. Therefore, it is possible to warn the driver of more cases about dangerous situations and improve safety.

そして、外部環境の判別が困難な状況として、例えば、光の量からは昼間と夜間との判別が付きにくい夕方などがある。このような状況では、昼用のフィルタと夜用のフィルタのいずれを用いても、それぞれの画像が十分な画質とならず、単一の画像を解析しただけでは、十分な精度で検出できないおそれがある。そこで、本実施の形態1では、同じ対象物について異なる複数のフィルタ特性で撮影した複数の画像のそれぞれからある程度の精度で対象物が検出された場合には、危険な状況であると判定する。特にこのような状況は、昼か夜か明確である場合に比べて、運転者にとっても対象物の認識が困難な可能性がある。そのため、このような状況では通常と比べて警告の度合いを高くすることで、運転者に適切に警告することができる。   As a situation where it is difficult to discriminate the external environment, for example, there is an evening when it is difficult to discriminate between daytime and nighttime from the amount of light. In such a situation, using either the daytime filter or the nighttime filter, each image does not have sufficient image quality, and it may not be detected with sufficient accuracy simply by analyzing a single image. There is. Therefore, in the first embodiment, when an object is detected with a certain degree of accuracy from each of a plurality of images taken with a plurality of different filter characteristics for the same object, it is determined that the situation is dangerous. In particular, in such a situation, it may be difficult for the driver to recognize the object as compared with the case where it is clear whether it is day or night. Therefore, in such a situation, it is possible to appropriately warn the driver by increasing the degree of warning compared to normal.

また、第1の警告処理より警告の度合いの高い第2の警告処理の場合には、2画像のうち対象物がより高い精度で検出された画像を用いる。その理由は、2つ以上の撮影画像から対象物が検出された場合には、検出精度がより高い画像を用いて警告することで、運転者には対象物の識別がよりし易くなるためである。   In the case of the second warning process having a higher degree of warning than the first warning process, an image in which the object is detected with higher accuracy is used from the two images. The reason is that when an object is detected from two or more captured images, warning is made using an image with higher detection accuracy, so that it becomes easier for the driver to identify the object. is there.

<発明の実施の形態2>
本実施の形態2は、上述した実施の形態1の改良例である。図8は、本実施の形態2にかかる警告装置10aの構成を示すブロック図である。警告装置10aは、図1の警告装置10に位置情報取得手段14及び設定手段15が追加されたものである。そのため、以下の説明では、図1と同等の構成についての説明は省略する。また、説明の便宜上、図2の記憶部140に相当する記憶部16を図8に図示している。尚、警告プログラム141には、実施の形態2に対応する機能も実装されているものとする。
<Embodiment 2 of the Invention>
The second embodiment is an improved example of the first embodiment described above. FIG. 8 is a block diagram illustrating a configuration of the warning device 10a according to the second embodiment. The warning device 10a is obtained by adding position information acquisition means 14 and setting means 15 to the warning device 10 of FIG. Therefore, in the following description, description of the same configuration as that in FIG. 1 is omitted. For convenience of explanation, a storage unit 16 corresponding to the storage unit 140 of FIG. 2 is shown in FIG. It is assumed that the warning program 141 also has a function corresponding to the second embodiment.

記憶部16は、図2の記憶部140内の構成に加えて、地図情報161、特定領域162、位置情報163、第1のモード164及び第1のモード165がさらに記憶されているものとする。地図情報161は、車両が走行する道路や各施設の位置が座標で定義された情報である。尚、地図情報161は、一般的なカーナビゲーションシステムで用いられるものを用いることができる。特定領域162は、地図情報161内の一部の領域を予め定義した情報である。特定領域162は、例えば、高速道路、一般道、トンネル内、鉄道の駅付近等のエリアを示す。位置情報163は、位置情報取得手段14により取得された、移動体1の現在の位置情報である。   The storage unit 16 further stores map information 161, a specific area 162, position information 163, a first mode 164, and a first mode 165 in addition to the configuration in the storage unit 140 of FIG. . The map information 161 is information in which the road on which the vehicle travels and the position of each facility are defined by coordinates. As the map information 161, information used in a general car navigation system can be used. The specific area 162 is information in which some areas in the map information 161 are defined in advance. The specific area 162 indicates, for example, an area such as an expressway, a general road, a tunnel, and a railway station. The position information 163 is current position information of the moving body 1 acquired by the position information acquisition unit 14.

第1のモード164は、画像取得手段11が一つのフィルタ特性により撮影することを定義した設定情報である。第2のモード165は、画像取得手段11が複数のフィルタ特性により撮影することを定義した設定情報である。   The first mode 164 is setting information that defines that the image acquisition unit 11 captures images with one filter characteristic. The second mode 165 is setting information that defines that the image acquisition unit 11 captures images with a plurality of filter characteristics.

位置情報取得手段14は、移動体1の現在の位置情報を定期的に取得する。そして、位置情報取得手段14は、取得した位置情報を記憶部16に格納する。位置情報取得手段14は、例えば、車両に搭載され、GPS(Global Positioning System)情報を取得する装置である。   The position information acquisition unit 14 periodically acquires the current position information of the moving body 1. Then, the position information acquisition unit 14 stores the acquired position information in the storage unit 16. The position information acquisition unit 14 is, for example, a device that is mounted on a vehicle and acquires GPS (Global Positioning System) information.

設定手段15は、第1のモード164、又は、第2のモード165を、所定の条件により選択し、選択したモードを画像取得手段11に設定する。さらに、設定手段15は、取得した位置情報163が地図情報161上の特定の領域162の範囲内である場合に、第2のモード165を選択して画像取得手段11に設定する。   The setting unit 15 selects the first mode 164 or the second mode 165 according to a predetermined condition, and sets the selected mode in the image acquisition unit 11. Further, the setting means 15 selects the second mode 165 and sets it in the image acquisition means 11 when the acquired position information 163 is within the range of the specific area 162 on the map information 161.

ここで、所定の条件としては、例えば、位置情報、時間情報、天候、道路情報、又は、走行情報等の一部又は全部を用いた条件であるものとする。位置情報を用いた条件としては、例えば、現在位置と特定位置との距離が所定値以内か否かであるか、または、特定領域の範囲内か否か等である。また、時間情報を用いた条件としては、例えば、現在の月日による季節の判別条件、時分による昼夜や夕方等の時間帯の判別条件等である。尚、時間情報を用いるためには、別途、現在時刻の情報を取得する構成等が必要である。   Here, the predetermined condition is, for example, a condition using a part or all of position information, time information, weather, road information, travel information, and the like. The conditions using the position information include, for example, whether the distance between the current position and the specific position is within a predetermined value, whether the distance is within a specific area, or the like. The conditions using the time information include, for example, a season discrimination condition based on the current month and day, a time zone discrimination condition such as day / night or evening according to the hour and minute, and the like. In addition, in order to use time information, the structure etc. which acquire the information of present time separately are required.

また、天候を用いた条件としては、例えば、雲の状態、天気が快晴、曇り、雨等であるか等である。尚、天候を用いるためには、別途、天候の情報を取得する構成等が必要である。また、道路情報を用いた条件としては、例えば、道路種別が高速道路か一般道か、道路の幅員、道路標識、道路形状、路面状態等の判別条件である。尚、道路情報を用いるためには、別途、走行中の道路に関する情報を取得する構成等が必要である。また、走行情報を用いた条件としては、車両の速度やブレーキの制御情報等が所定値を超えるか否か等の判別条件である。尚、走行情報を用いるためには、別途、車両から速度やブレーキの制御情報を取得する構成等が必要である。   The conditions using the weather include, for example, the state of clouds, whether the weather is clear, cloudy, rainy, or the like. In order to use the weather, a configuration for acquiring weather information is required separately. The conditions using the road information are, for example, determination conditions such as whether the road type is an expressway or a general road, road width, road sign, road shape, road surface condition, and the like. In addition, in order to use road information, the structure etc. which acquire the information regarding the road on driving separately are required. The conditions using the travel information include determination conditions such as whether or not the vehicle speed, brake control information, and the like exceed a predetermined value. In order to use the travel information, a configuration for acquiring speed and brake control information from the vehicle is required.

図9は、本実施の形態2にかかるモード設定処理の流れを説明するためのフローチャートである。まず、位置情報取得手段14は、定期的に現在の位置情報を取得する(S21)。次に、設定手段15は、取得した位置情報が特定領域の範囲内であるか否かを判定する(S22)。特定領域の範囲内であると判定した場合、設定手段15は、第2のモードを選択する(S23)。一方、特定領域の範囲外であると判定した場合、設定手段15は、第1のモードを選択する(S24)。その後、設定手段15は、選択したモードを画像取得手段11に設定する(S25)。   FIG. 9 is a flowchart for explaining the flow of the mode setting process according to the second embodiment. First, the position information acquisition unit 14 periodically acquires current position information (S21). Next, the setting unit 15 determines whether or not the acquired position information is within the range of the specific area (S22). When it determines with it being in the range of a specific area, the setting means 15 selects a 2nd mode (S23). On the other hand, when it determines with it being outside the range of a specific area, the setting means 15 selects a 1st mode (S24). Thereafter, the setting unit 15 sets the selected mode in the image acquisition unit 11 (S25).

このように、本実施の形態2では、撮影時に用いるフィルタの種類を状況に応じて切り替えることができる。これにより、外部環境の判別が容易な場合には、第1のモードを用いて移動体1の消費電力等を抑えることができる。また、外部環境の判別が困難な場合には、複数のフィルタ特性を用いる第2のモードに即時に切り替えることができる。   Thus, in the second embodiment, the type of filter used at the time of shooting can be switched according to the situation. Thereby, when it is easy to determine the external environment, the power consumption of the moving body 1 can be suppressed using the first mode. In addition, when it is difficult to determine the external environment, it is possible to immediately switch to the second mode using a plurality of filter characteristics.

<発明の実施の形態3>
本実施の形態3は、上述した実施の形態1の変形例である。上述した実施の形態1では、画像取得手段11は、2つの撮影装置を有するものであったが、本実施の形態3にかかる画像取得手段11は、1つの撮影装置を有するものである。
<Third Embodiment of the Invention>
The third embodiment is a modification of the first embodiment described above. In the first embodiment described above, the image acquisition unit 11 has two imaging devices. However, the image acquisition unit 11 according to the third embodiment has one imaging device.

図10は、本実施の形態3にかかる画像取得手段11aの構成を示すブロック図である。画像取得手段11aは、1つの撮影装置113を有する。撮影装置113は、複数のフィルタ特性を定期的に切り替えて撮影を行なう。撮影装置113は、フィルタ1131、撮像素子1132及び切替手段1133を備える。フィルタ1131は、撮像素子1132に入射する光の波長を選択する処理を行う。例えば、フィルタ1131は、可視光領域や近赤外領域を選択して光を通過させ、撮像素子1132へ入射する。尚、フィルタ1131には、赤外領域カットフィルタ(IRフィルタ)、ハイパスフィルタ、バンドパスフィルタ等を含めることができる。つまり、フィルタ1131は、複数種類のフィルタ特性のうち選択されたものを実現できる。撮像素子1132は、フィルタ1131を通過した光の強度を電気信号に変換する素子である。切替手段1133は、フィルタ1131に対して選択したフィルタ特性を設定するものである。そして、切替手段1133は、定期的にフィルタ特性の選択を切り替える。尚、切替手段1133は、複数のフィルタ特性により複数の撮影装置が同時に同一の対象を撮影する場合と、実質的に同等となるような速さで、フィルタ特性を切り替えるものとする。なお、切替手段がクロックを有するか、またクロックによる信号を受信することにより、定期的に切り替え撮影を行う。   FIG. 10 is a block diagram illustrating a configuration of the image acquisition unit 11a according to the third embodiment. The image acquisition unit 11a includes one photographing device 113. The imaging device 113 performs imaging by periodically switching a plurality of filter characteristics. The photographing apparatus 113 includes a filter 1131, an image sensor 1132, and a switching unit 1133. The filter 1131 performs a process of selecting the wavelength of light incident on the image sensor 1132. For example, the filter 1131 selects a visible light region or a near-infrared region, passes light, and enters the image sensor 1132. The filter 1131 can include an infrared region cut filter (IR filter), a high pass filter, a band pass filter, and the like. That is, the filter 1131 can realize one selected from a plurality of types of filter characteristics. The imaging element 1132 is an element that converts the intensity of light that has passed through the filter 1131 into an electrical signal. The switching unit 1133 sets the selected filter characteristic for the filter 1131. Then, the switching unit 1133 periodically switches the selection of the filter characteristics. Note that the switching unit 1133 switches the filter characteristics at a speed that is substantially the same as when a plurality of imaging devices simultaneously capture the same object using a plurality of filter characteristics. Note that switching photography is performed periodically by whether the switching means has a clock or receives a signal based on the clock.

このように、本実施の形態3によっても、上述した実施の形態1と同等の効果を奏することができる。   As described above, according to the third embodiment, the same effect as that of the first embodiment can be obtained.

<その他の発明の実施の形態>
尚、上述した各実施例は、適宜、組み合せることが可能である。すなわち、実施形態2と実施形態3を組み合わせても構わない。
<Other embodiments of the invention>
It should be noted that the above-described embodiments can be appropriately combined. That is, the second embodiment and the third embodiment may be combined.

以上、本発明を上記実施の形態に即して説明したが、本発明は上記実施の形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。   Although the present invention has been described with reference to the above embodiment, the present invention is not limited only to the configuration of the above embodiment, and within the scope of the invention of the claims of the present application. It goes without saying that various modifications, corrections, and combinations that can be made by those skilled in the art are included.

また、上述の車載装置の任意の処理は、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Further, the arbitrary processing of the above-described in-vehicle device can be realized by causing a CPU (Central Processing Unit) to execute a computer program. In this case, the computer program can be stored using various types of non-transitory computer readable media and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合だけでなく、このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。   In addition to the case where the function of the above-described embodiment is realized by the computer executing the program that realizes the function of the above-described embodiment, this program is not limited to the OS ( A case where the functions of the above-described embodiment are realized in cooperation with an operating system or application software is also included in the embodiment of the present invention. Furthermore, the present invention is also applicable to the case where the functions of the above-described embodiment are realized by performing all or part of the processing of the program by a function expansion board inserted into the computer or a function expansion unit connected to the computer. It is included in the embodiment.

1 移動体
10 警告装置
10a 警告装置
11 画像取得手段
11a 画像取得手段
111 撮影装置
112 撮影装置
113 撮影装置
1131 フィルタ
1132 撮像素子
1133 切替手段
12 検出手段
13 警告手段
14 位置情報取得手段
15 設定手段
16 記憶部
161 地図情報
162 特定領域
163 位置情報
164 第1のモード
165 第2のモード
21 表示装置
22 スピーカ
110 プロセッサ
120 IF部
131 撮影装置
1311 第1のフィルタ
1312 第1の撮像素子
132 撮影装置
1321 第2のフィルタ
1322 第2の撮像素子
140 記憶部
141 警告プログラム
1421 撮影画像
1422 撮影画像
1431 指標値
1432 指標値
31 撮影画像
32 撮影画像
41 対象物
42 対象物
43 強調表示領域
DESCRIPTION OF SYMBOLS 1 Mobile body 10 Warning device 10a Warning device 11 Image acquisition means 11a Image acquisition means 111 Imaging device 112 Imaging device 113 Imaging device 1131 Filter 1132 Imaging element 1133 Switching means 12 Detection means 13 Warning means 14 Position information acquisition means 15 Setting means 16 Storage Unit 161 Map information 162 Specific area 163 Position information 164 First mode 165 Second mode 21 Display device 22 Speaker 110 Processor 120 IF unit 131 Imaging device 1311 First filter 1312 First imaging device 132 Imaging device 1321 Second Filter 1322 Second imaging device 140 Storage unit 141 Warning program 1421 Captured image 1422 Captured image 1431 Index value 1432 Index value 31 Captured image 32 Captured image 41 Object 42 Object 43 Grayscale display area

Claims (10)

複数のフィルタ特性それぞれに基づく複数の画像を取得する画像取得手段と、
前記取得された複数の画像のそれぞれに対して、所定の対象物の検出を行なう検出手段と、
前記取得された複数の画像のうち少なくともいずれか一つの画像から前記対象物が検出された場合に、所定の警告を行う警告手段と、
を備え、
前記警告手段は、
前記複数の画像の全てから前記対象物が検出された場合には、前記複数の画像の一部から前記対象物が検出された場合よりも警告の度合いを高くする
警告装置。
Image acquisition means for acquiring a plurality of images based on each of a plurality of filter characteristics;
Detecting means for detecting a predetermined object for each of the plurality of acquired images;
Warning means for performing a predetermined warning when the object is detected from at least one of the plurality of acquired images;
With
The warning means is
A warning device that increases the degree of warning when the object is detected from all of the plurality of images than when the object is detected from a part of the plurality of images.
前記警告手段は、
前記複数の画像のうち2以上から前記対象物が検出された場合、前記対象物がより高い精度で検出された画像を用いて前記所定の警告を行う
請求項1に記載の警告装置。
The warning means is
The warning device according to claim 1, wherein when the target object is detected from two or more of the plurality of images, the predetermined warning is performed using an image in which the target object is detected with higher accuracy.
前記検出手段は、
前記取得された複数の画像のそれぞれに対して前記対象物の検出の度合いを示す指標値を算出し、
前記警告手段は、
前記指標値が所定値を超える画像を、前記対象物が検出されたものとし、
前記複数の画像のうち2以上から前記対象物が検出された場合、前記指標値が最も高い画像を用いて前記所定の警告を行う
請求項2に記載の警告装置。
The detection means includes
Calculating an index value indicating the degree of detection of the object for each of the plurality of acquired images;
The warning means is
An image in which the index value exceeds a predetermined value, the object is detected,
The warning device according to claim 2, wherein when the object is detected from two or more of the plurality of images, the predetermined warning is performed using an image having the highest index value.
前記画像取得手段が一つのフィルタ特性により撮影する第1のモード、又は、前記画像取得手段が前記複数のフィルタ特性により撮影する第2のモードを、所定の条件により選択し、選択したモードを前記画像取得手段に設定する設定手段をさらに備える
請求項1〜3のいずれか1項に記載の警告装置。
The first mode in which the image acquisition means captures with one filter characteristic, or the second mode in which the image acquisition means captures with the plurality of filter characteristics is selected according to a predetermined condition, and the selected mode is selected. The warning device according to claim 1, further comprising a setting unit that sets the image acquisition unit.
前記警告装置を搭載した移動体の現在の位置情報を取得する位置情報取得手段をさらに備え、
前記設定手段は、
前記取得した位置情報が地図情報上の特定の領域の範囲内である場合に、前記第2のモードを選択して前記画像取得手段に設定する
請求項4に記載の警告装置。
Further comprising position information acquisition means for acquiring the current position information of the moving body equipped with the warning device ;
The setting means includes
The warning device according to claim 4, wherein the second mode is selected and set in the image acquisition unit when the acquired position information is within a specific region on map information.
前記警告手段は、
前記検出手段により前記対象物が検出された場合、前記検出された画像上の前記対象物の位置を強調して画面に表示することにより前記所定の警告を行う
請求項1〜5のいずれか1項に記載の警告装置。
The warning means is
The said warning is performed by highlighting the position of the said object on the detected image, and displaying it on a screen, when the said detection means is detected by the said detection means. Warning device according to item.
前記画像取得手段は、
前記複数のフィルタ特性のそれぞれに対応する複数の撮影装置を有し、
前記複数の撮影装置のそれぞれは、
対応するフィルタ特性により撮影を行なう
請求項1〜6のいずれか1項に記載の警告装置。
The image acquisition means includes
A plurality of imaging devices corresponding to each of the plurality of filter characteristics;
Each of the plurality of photographing devices is
The warning device according to any one of claims 1 to 6, wherein shooting is performed with a corresponding filter characteristic.
前記画像取得手段は、1つの撮影装置を有し、
前記撮影装置は、前記複数のフィルタ特性を定期的に切り替えて撮影を行なう
請求項1〜6のいずれか1項に記載の警告装置。
The image acquisition means has one photographing device,
The warning device according to any one of claims 1 to 6, wherein the photographing device performs photographing by periodically switching the plurality of filter characteristics.
複数のフィルタ特性それぞれに基づく複数の画像を取得する画像取得ステップと、
前記取得された複数の画像のそれぞれに対して、所定の対象物の検出を行う検出ステップと、
前記取得された複数の画像のうち少なくともいずれか一つの画像から前記対象物が検出された場合に、所定の警告を行う警告ステップと、
を備え、
前記警告ステップは、
前記複数の画像の全てから前記対象物が検出された場合には、前記複数の画像の一部から前記対象物が検出された場合よりも警告の度合いを高くする
ことを特徴とする警告方法。
An image acquisition step of acquiring a plurality of images based on each of the plurality of filter characteristics;
A detection step of detecting a predetermined object for each of the plurality of acquired images;
A warning step for giving a predetermined warning when the object is detected from at least one of the plurality of acquired images;
With
The warning step includes
A warning method characterized in that, when the object is detected from all of the plurality of images, the degree of warning is higher than when the object is detected from a part of the plurality of images.
複数のフィルタ特性それぞれに基づく複数の画像を取得する画像取得ステップと、
前記取得された複数の画像のそれぞれに対して、所定の対象物の検出を行う検出ステップと、
前記取得された複数の画像のうち少なくともいずれか一つの画像から前記対象物が検出された場合に、所定の警告を行う警告ステップと、
をコンピュータに実行させ、
前記警告ステップは、
前記複数の画像の全てから前記対象物が検出された場合には、前記複数の画像の一部から前記対象物が検出された場合よりも警告の度合いを高くする
ことを特徴とする警告プログラム。
An image acquisition step of acquiring a plurality of images based on each of the plurality of filter characteristics;
A detection step of detecting a predetermined object for each of the plurality of acquired images;
A warning step for giving a predetermined warning when the object is detected from at least one of the plurality of acquired images;
To the computer,
The warning step includes
A warning program characterized by having a higher degree of warning when the object is detected from all of the plurality of images than when the object is detected from a part of the plurality of images.
JP2015046584A 2015-03-10 2015-03-10 Warning device, warning method and warning program Active JP6299630B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2015046584A JP6299630B2 (en) 2015-03-10 2015-03-10 Warning device, warning method and warning program
EP23151554.5A EP4187524A1 (en) 2015-03-10 2016-03-02 Alert device, alert method, and alert program
PCT/JP2016/001136 WO2016143306A1 (en) 2015-03-10 2016-03-02 Alert device, alert method, and alert program
CN201680013013.XA CN107408288B (en) 2015-03-10 2016-03-02 Warning device, warning method, and warning program
EP16761282.9A EP3270352B1 (en) 2015-03-10 2016-03-02 Alert device, alert method, and alert program
US15/698,099 US10474910B2 (en) 2015-03-10 2017-09-07 Warning device, warning method, and warning program
US16/591,537 US11423664B2 (en) 2015-03-10 2019-10-02 Warning device, warning method, and warning program
US17/866,371 US11749112B2 (en) 2015-03-10 2022-07-15 Warning device, warning method, and warning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015046584A JP6299630B2 (en) 2015-03-10 2015-03-10 Warning device, warning method and warning program

Publications (2)

Publication Number Publication Date
JP2016167173A JP2016167173A (en) 2016-09-15
JP6299630B2 true JP6299630B2 (en) 2018-03-28

Family

ID=56897605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015046584A Active JP6299630B2 (en) 2015-03-10 2015-03-10 Warning device, warning method and warning program

Country Status (1)

Country Link
JP (1) JP6299630B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6677830B1 (en) * 2019-01-18 2020-04-08 ソフトバンク株式会社 Information processing apparatus control program, information processing apparatus control method, and information processing apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3822515B2 (en) * 2002-03-29 2006-09-20 株式会社東芝 Obstacle detection device and method
JP2012240530A (en) * 2011-05-18 2012-12-10 Koito Mfg Co Ltd Image processing apparatus
JP5732145B2 (en) * 2011-12-16 2015-06-10 本田技研工業株式会社 Image processing device

Also Published As

Publication number Publication date
JP2016167173A (en) 2016-09-15

Similar Documents

Publication Publication Date Title
WO2016143306A1 (en) Alert device, alert method, and alert program
CN108460734B (en) System and method for image presentation by vehicle driver assistance module
JP7332726B2 (en) Detecting Driver Attention Using Heatmaps
JP5577398B2 (en) Vehicle periphery monitoring device
CN104512411B (en) Vehicle control system and imaging sensor
JP5809751B2 (en) Object recognition device
JP2008027309A (en) Collision determination system and collision determination method
JP2014215877A (en) Object detection device
WO2018042747A1 (en) Image processing device, image processing system, image processing program, and label
WO2020031970A1 (en) Information processing device, information processing method, and program
JP2010234851A (en) Display device for vehicle
JP5937832B2 (en) In-vehicle camera exposure control system
US20160232415A1 (en) Detection detection of cell phone or mobile device use in motor vehicle
CN114332821A (en) Decision information acquisition method, device, terminal and storage medium
JP5083164B2 (en) Image processing apparatus and image processing method
JP2020052639A (en) Vehicle monitoring device and vehicle monitoring system
JP6299630B2 (en) Warning device, warning method and warning program
JP6087240B2 (en) Vehicle periphery monitoring device
JP6387869B2 (en) Warning device, warning method and warning program
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP2017174174A (en) Object recognition device, object recognition method, and object recognition program
JP2012142832A (en) Imaging apparatus
KR102299500B1 (en) Electronic apparatus and control method thereof
KR102299499B1 (en) Electronic apparatus and control method thereof
JP2011107952A (en) Vehicle surroundings monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180212

R150 Certificate of patent or registration of utility model

Ref document number: 6299630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150