JP2013041483A - On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system - Google Patents
On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system Download PDFInfo
- Publication number
- JP2013041483A JP2013041483A JP2011178729A JP2011178729A JP2013041483A JP 2013041483 A JP2013041483 A JP 2013041483A JP 2011178729 A JP2011178729 A JP 2011178729A JP 2011178729 A JP2011178729 A JP 2011178729A JP 2013041483 A JP2013041483 A JP 2013041483A
- Authority
- JP
- Japan
- Prior art keywords
- processing
- processing mode
- vehicle
- image data
- infrared image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Alarm Systems (AREA)
- Burglar Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
Abstract
Description
本発明は、車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム等に関する。 The present invention relates to an in-vehicle camera control device, an in-vehicle camera control system, an in-vehicle camera system, and the like.
近年、犯罪の凶悪化、巧妙化に対応するために、防犯対策の強化が望まれており、各種防犯アイテムの充実が望まれている。 In recent years, in order to cope with the worsening and more sophisticated crime, crime prevention measures have been strengthened and various crime prevention items have been desired.
例えば住居の防犯に関して言えば、住居の扉や窓への不審者による不正な開閉が検知された時に、赤外線カメラによる撮像又はブザー等の警報を行い、住居人に報知する特許文献1に記載されているような従来技術がある。 For example, with regard to crime prevention in residences, it is described in Patent Document 1 that, when unauthorized opening / closing by a suspicious person to a door or window of a residence is detected, an alarm such as an imaging by an infrared camera or a buzzer is given to notify the resident. There is such a conventional technology.
しかしながら、単に、防犯アイテムを増加させるのでは、防犯システムの増加に伴い防犯システムに掛かる費用も高くなり、ユーザーの費用負担が増加するという問題がある。 However, simply increasing the number of crime prevention items increases the cost of the crime prevention system as the crime prevention system increases, resulting in an increase in the cost burden on the user.
一方で、車載赤外線カメラにより車体前方の近赤外線画像を撮像して表示するとともに、撮像画像から歩行者を検知して、その検知結果を近赤外線画像に重ね合わせて表示する車載用の暗視装置が実用化されている。このような暗視装置に用いられる歩行者検知技術として、特許文献2に記載される従来技術がある。 On the other hand, a vehicle-mounted night vision device that captures and displays a near-infrared image in front of the vehicle body with an in-vehicle infrared camera, detects a pedestrian from the captured image, and displays the detection result superimposed on the near-infrared image. Has been put to practical use. As a pedestrian detection technique used in such a night vision device, there is a conventional technique described in Patent Document 2.
特許文献2の従来技術では、検知対象物における所定部位の形状と同一形状の部位が、該対象物中に連続して存在するか否かを探索し、同一形状の部位が連続して存在する場合には、該対象物は人工物であると判断して、該対象物を除外した残りの対象物から歩行者を認識する。 In the prior art of Patent Document 2, a search is made as to whether or not a part having the same shape as the shape of the predetermined part in the detection target is continuously present in the target, and the part having the same shape is continuously present. In this case, it is determined that the object is an artificial object, and a pedestrian is recognized from the remaining objects excluding the object.
このような状況の中で、本出願人は、住居の侵入者防止用途と道路走行中の歩行者検知用途に、車載カメラを兼用して使う手法を検討している。 Under such circumstances, the present applicant is examining a method of using a vehicle-mounted camera for both intruder prevention use in a residence and pedestrian detection use on a road.
車載赤外線カメラを道路走行中の歩行者検知と住居の侵入者防止の両方の用途に用いようとする場合、それぞれの用途に適切な画像データの処理が異なり、車両が走行中の場合と車両が駐車中の場合にそれぞれの処理モードを使用者が設定する必要がある。 When using an in-vehicle infrared camera for both pedestrian detection and prevention of intruders on the road, the processing of image data appropriate for each application is different. The user needs to set each processing mode when the vehicle is parked.
本発明の幾つかの態様によれば、振動検出情報に基づいて処理モードを設定することで車両の状況に応じた処理モードを自ら設定し、設定した処理モードに応じた処理を行う車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム等を提供することができる。 According to some aspects of the present invention, the in-vehicle camera control that sets the processing mode according to the vehicle situation by setting the processing mode based on the vibration detection information, and performs the processing according to the set processing mode. An apparatus, an in-vehicle camera control system, an in-vehicle camera system, and the like can be provided.
また、本発明の幾つかの態様によれば、消費電力を抑制しつつ車両の走行状況に応じた監視対象物の監視をすることが可能な車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム等を提供することができる。 In addition, according to some aspects of the present invention, an in-vehicle camera control device, an in-vehicle camera control system, and an in-vehicle camera system capable of monitoring an object to be monitored according to the traveling state of the vehicle while suppressing power consumption. Etc. can be provided.
本発明の一態様は、赤外線画像データを赤外線画像撮像部から取得する画像取得部と、
振動検出部からの振動検出情報を取得する振動検出情報取得部と、前記赤外線画像データに基づく処理を行う処理部と、を含み、前記処理部は、第1処理モードと、前記第1処理モードより前記赤外線画像データに基づく処理の実行レートが低い第2処理モードを含む複数の処理モードのうちから、前記振動検出情報に基づき1つの処理モードを使用処理モードとして設定し、設定された前記使用処理モードに従って、前記赤外線画像データに基づいて対象物の検出処理を実行する車載カメラ制御装置に関係する。
One aspect of the present invention is an image acquisition unit that acquires infrared image data from an infrared image capturing unit;
A vibration detection information acquisition unit that acquires vibration detection information from the vibration detection unit; and a processing unit that performs processing based on the infrared image data. The processing unit includes a first processing mode and the first processing mode. Among the plurality of processing modes including the second processing mode with a lower execution rate of processing based on the infrared image data, one processing mode is set as a usage processing mode based on the vibration detection information, and the set usage The present invention relates to an in-vehicle camera control device that executes an object detection process based on the infrared image data according to a processing mode.
本発明の一態様では、振動検出情報に基づいて設定した使用処理モードに応じて、適切に処理を切り替えること等が可能になる。 In one aspect of the present invention, it is possible to appropriately switch processing according to the usage processing mode set based on the vibration detection information.
また、本発明の一態様では、前記処理部は、前記振動検出情報に基づいて振動が非検出であると判定された場合には、前記使用処理モードを前記第2処理モードに設定し、前記赤外線画像データに基づく防犯用処理を行ってもよい。 In one aspect of the present invention, when the processing unit determines that vibration is not detected based on the vibration detection information, the processing unit sets the use processing mode to the second processing mode, and You may perform the process for crime prevention based on infrared image data.
これにより、振動が非検出の場合には、第2処理モードによる防犯用処理を行うこと等が可能になる。 Thereby, when the vibration is not detected, it is possible to perform a security process in the second processing mode.
また、本発明の一態様では、前記処理部は、前記振動検出情報に基づいて振動が検出されたと判定された場合には、前記使用処理モードを前記第1処理モードに設定し、前記赤外線画像データに基づいて前記対象物が検出されたか否かを表すアラート表示情報を生成し、前記アラート表示情報を含む表示用画像データを生成してもよい。 In one aspect of the present invention, when it is determined that vibration is detected based on the vibration detection information, the processing unit sets the use processing mode to the first processing mode, and the infrared image Alert display information indicating whether or not the object has been detected may be generated based on the data, and display image data including the alert display information may be generated.
これにより、振動が検出された場合には、提示部等に表示される表示用画像データを生成すること等が可能になる。 Thereby, when vibration is detected, it is possible to generate display image data to be displayed on the presentation unit or the like.
また、本発明の一態様では、前記画像取得部は、可視画像データを可視画像撮像部から取得し、前記処理部は、前記可視画像データに対して前記アラート表示情報を付加することで、前記表示用画像データを生成してもよい。 In one aspect of the present invention, the image acquisition unit acquires visible image data from a visible image capturing unit, and the processing unit adds the alert display information to the visible image data, thereby Display image data may be generated.
これにより、表示用画像データとして、可視画像データに対してアラート表示情報を付加した画像データを生成すること等が可能になり、ユーザーにとって見やすい画像を提供することができる。 Accordingly, it is possible to generate image data in which alert display information is added to visible image data as display image data, and an image that is easy for the user to view can be provided.
また、本発明の一態様では、前記処理部は、前記振動検出情報に基づいて振動が非検出であると判定された場合には、前記可視画像撮像部を動作オフ状態又は省電力状態に設定してもよい。 In one aspect of the present invention, the processing unit sets the visible image capturing unit to an operation-off state or a power saving state when it is determined that vibration is not detected based on the vibration detection information. May be.
これにより、振動が非検出の場合には、可視画像撮像部を動作オフ状態又は省電力状態に設定することで、電力の消費を抑えること等が可能になる。 Thereby, when vibration is not detected, it is possible to suppress power consumption by setting the visible image capturing unit to the operation-off state or the power-saving state.
また、本発明の一態様では、前記処理部は、前記使用処理モードが前記第2処理モードに設定されている場合には、前記使用処理モードが前記第1処理モードに設定されている場合に比べて、前記画像取得部における前記赤外線画像データの取得レートを低く設定してもよい。 In the aspect of the invention, the processing unit may be configured such that when the usage processing mode is set to the second processing mode, the usage processing mode is set to the first processing mode. In comparison, the acquisition rate of the infrared image data in the image acquisition unit may be set low.
これにより、第2処理モードでは第1処理モードに比べて、赤外線画像データの取得レートを低く設定できるため、電力の消費を抑えること等が可能になる。 Thereby, since the acquisition rate of infrared image data can be set lower in the second processing mode than in the first processing mode, it is possible to suppress power consumption and the like.
また、本発明の一態様では、前記画像取得部は、前記使用処理モードが前記第2処理モードに設定されている場合には、前記使用処理モードが前記第1処理モードに設定されている場合とは異なる位置又は方向に設定された前記赤外線画像撮像部により前記赤外線画像データを取得してもよい。 In the aspect of the invention, the image acquisition unit may be configured such that when the usage processing mode is set to the second processing mode, the usage processing mode is set to the first processing mode. The infrared image data may be acquired by the infrared image capturing unit set at a position or a direction different from.
これにより、第1処理モードと第2処理モードで赤外線画像撮像部の位置及び方向を変更することが可能になり、モードにあわせた領域を撮像すること等ができる。 This makes it possible to change the position and direction of the infrared image capturing unit in the first processing mode and the second processing mode, and it is possible to capture an area in accordance with the mode.
また、本発明の一態様では、前記処理部は、前記使用処理モードが前記第2処理モードに設定されている場合に、前記使用処理モードが前記第1処理モードに設定されている場合に用いられるテンプレートを用いて前記対象物の検出処理を行ってもよい。 In one aspect of the present invention, the processing unit is used when the usage processing mode is set to the second processing mode and the usage processing mode is set to the first processing mode. The target object may be detected using a template to be detected.
これにより、第1処理モードと第2処理モードで共通のテンプレートを用いることができるため、保持データ量の削減や、処理の共通化等が可能になる。 As a result, since a common template can be used in the first processing mode and the second processing mode, the amount of retained data can be reduced, processing can be shared, and the like.
また、本発明の一態様では、前記画像取得部は、所与の時間間隔ごとに前記赤外線画像データを取得し、前記処理部は、第1のタイミングで取得された第1の赤外線画像データと、前記第1のタイミングとは異なる第2のタイミングで取得された第2の赤外線画像データとの比較処理を含む前記防犯用処理を行ってもよい。 In one aspect of the present invention, the image acquisition unit acquires the infrared image data at a given time interval, and the processing unit includes the first infrared image data acquired at a first timing, The security process including a comparison process with second infrared image data acquired at a second timing different from the first timing may be performed.
これにより、防犯用処理として異なるタイミングで取得された赤外線画像データの比較処理が可能になり、簡単な処理で侵入者の検出等ができる。 Thereby, comparison processing of infrared image data acquired at different timings as security processing can be performed, and intruders can be detected by simple processing.
また、本発明の一態様では、前記処理部は、前記振動検出情報に基づいて振動が非検出であると判定された場合には、前記赤外線画像撮像部を動作オフ状態に設定し、所与の時間経過後に前記防犯用処理を行ってもよい。 In one aspect of the present invention, the processing unit sets the infrared image capturing unit to an operation-off state when it is determined that vibration is not detected based on the vibration detection information. The security process may be performed after the elapse of time.
これにより、第2処理モードに切り替わる際に、一定時間赤外線画像撮像部を動作オフ状態にすることが可能になるため、電力の消費を抑えること等が可能になる。 As a result, when switching to the second processing mode, the infrared image capturing unit can be in an operation-off state for a certain period of time, so that power consumption can be suppressed.
また、本発明の一態様では、前記防犯用処理は、住居防犯処理と、車両防犯処理を有し、前記処理部は、前記使用処理モードが前記第2処理モードに設定されて、前記防犯用処理として前記住居防犯処理を実行中に前記振動検出情報に基づいて振動が検出されたと判定された場合には、前記防犯用処理を前記車両防犯処理に切り替えてもよい。 In one aspect of the present invention, the crime prevention process includes a residential crime prevention process and a vehicle crime prevention process, and the processing unit sets the use process mode to the second treatment mode and the crime prevention process. When it is determined that vibration is detected based on the vibration detection information during execution of the residential crime prevention process, the crime prevention process may be switched to the vehicle crime prevention process.
これにより、車両を駐車しているときにおける車両の盗難を抑止すること等が可能になる。 Thereby, it becomes possible to suppress theft of the vehicle when the vehicle is parked.
また、本発明の一態様では、前記処理部は、前記赤外線画像撮像部が住居防犯用の位置又は方向に設定されており、且つ、前記振動検出情報に基づいて振動が検出されたと判定された場合には、前記防犯用処理として前記車両防犯処理を実行してもよい。 Further, in one aspect of the present invention, the processing unit is determined that the infrared image capturing unit is set to a position or direction for home crime prevention, and vibration is detected based on the vibration detection information. In this case, the vehicle crime prevention process may be executed as the crime prevention process.
これにより、車両を駐車しているときにおける車両の盗難を抑止すること等が可能になる。 Thereby, it becomes possible to suppress theft of the vehicle when the vehicle is parked.
また、本発明の一態様では、前記画像取得部は、可視画像データを可視画像撮像部から取得し、前記処理部は、前記住居防犯処理では前記可視画像撮像部を動作オフ状態に設定し、前記車両防犯処理では前記可視画像撮像部を動作オン状態に設定してもよい。 In one aspect of the present invention, the image acquisition unit acquires visible image data from a visible image capturing unit, and the processing unit sets the visible image capturing unit to an operation-off state in the residential crime prevention process, In the vehicle crime prevention process, the visible image capturing unit may be set to an operation on state.
これにより、住居防犯処理では可視画像撮像部をオフにすることで、電力の消費を抑えること等が可能になるとともに、車両防犯処理では可視画像撮像部を動作オン状態にすることで、車両の現在位置の情報を取得すること等が可能になる。 As a result, it is possible to reduce power consumption by turning off the visible image capturing unit in the residential crime prevention process, and in the vehicle crime prevention process, by turning on the visible image capturing unit in the operation on state, It becomes possible to acquire information on the current position.
また、本発明の一態様では、前記振動検出部は、前記画像取得部で取得される画像において生じる、車両の走行時の振動による画像ブレの補正用の振動検出部であり、前記処理部は、前記振動検出部からの前記振動検出情報に基づいて前記使用処理モードの設定処理を行ってもよい。 In one aspect of the present invention, the vibration detection unit is a vibration detection unit for correcting image blur caused by vibration during travel of a vehicle that occurs in an image acquired by the image acquisition unit, and the processing unit The use processing mode setting process may be performed based on the vibration detection information from the vibration detection unit.
これにより、使用処理モードの設定処理に用いる振動検出部を、画像のブレ補正にも用いることができるため、システムの構成を簡略化すること等が可能になる。 As a result, the vibration detection unit used for the setting process of the usage process mode can be used for image blur correction, and therefore the system configuration can be simplified.
また、本発明の一態様では、前記振動検出部は、車両を駆動するモーターの振動を検出してもよい。 In the aspect of the invention, the vibration detection unit may detect vibration of a motor that drives the vehicle.
これにより、モーターの振動を検出することができるため、例えばハイブリッドカーにおいて電動モーターの駆動状況を判定すること等が可能になる。 Thereby, since the vibration of the motor can be detected, it becomes possible to determine the driving state of the electric motor in a hybrid car, for example.
また、本発明の他の態様は、赤外線画像データを赤外線画像撮像部から取得する画像取得部と、振動検出部からの振動検出情報を取得する振動検出情報取得部と、前記赤外線画像データに基づく処理を行う処理部と、を含み、前記処理部は、第1処理モードと、前記第1処理モードより前記赤外線画像データに基づく処理の実行レートが低い第2処理モードを含む複数の処理モードのうちから、前記振動検出情報に基づき1つの処理モードを使用処理モードとして設定し、設定された前記使用処理モードに従って、前記赤外線画像データに基づいて対象物の検出処理を実行する車載カメラ制御システムに関係する。 Another aspect of the present invention is based on an image acquisition unit that acquires infrared image data from an infrared image capturing unit, a vibration detection information acquisition unit that acquires vibration detection information from a vibration detection unit, and the infrared image data. A plurality of processing modes including a first processing mode and a second processing mode having a lower execution rate of processing based on the infrared image data than the first processing mode. An in-vehicle camera control system that sets one processing mode as a use processing mode based on the vibration detection information and executes a target detection process based on the infrared image data according to the set use processing mode. Involved.
また、本発明の他の態様は、上記のいずれかに記載の車載カメラ制御装置と前記赤外線画像撮像部を含む車載カメラシステムに関係する。 Moreover, the other aspect of this invention is related with the vehicle-mounted camera system containing the vehicle-mounted camera control apparatus in any one of said, and the said infrared image imaging part.
以下、本実施形態について説明する。まず、本実施形態のシステム構成例を説明し、次に本実施形態の特徴について説明する。そして最後に、フローチャートを用いて本実施形態の処理の流れについて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. First, a system configuration example of the present embodiment will be described, and then features of the present embodiment will be described. Finally, the flow of processing of this embodiment will be described using a flowchart. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.システム構成例
まず、図1に本実施形態の車載カメラ制御装置及びこれを含む車載カメラシステムの構成例を示す。
1. System Configuration Example First, FIG. 1 shows a configuration example of an in-vehicle camera control device of this embodiment and an in-vehicle camera system including the same.
車載カメラ制御装置100は、画像取得部110と、処理部120と、振動検出情報取得部130と、記憶部150と、を含む。また、車載カメラ制御装置100を含む車載カメラシステム200の例としては、赤外線画像撮像部210や、可視画像撮像部220、提示部230、センサー240などを含む車載カメラシステムなどが挙げられる。なお、車載カメラ制御装置100及びこれを含む車載カメラシステム200は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。例えば、車載カメラ制御装置100の一部又は全部の機能を、赤外線画像撮像部210や、可視画像撮像部220により実現してもよい。また、本実施形態の車載カメラ制御装置100の一部又は全部の機能は、通信により接続されたサーバにより実現されてもよい。 The in-vehicle camera control device 100 includes an image acquisition unit 110, a processing unit 120, a vibration detection information acquisition unit 130, and a storage unit 150. Examples of the in-vehicle camera system 200 including the in-vehicle camera control device 100 include an in-vehicle camera system including an infrared image capturing unit 210, a visible image capturing unit 220, a presentation unit 230, a sensor 240, and the like. The in-vehicle camera control device 100 and the in-vehicle camera system 200 including the same are not limited to the configuration in FIG. 1, and various modifications such as omitting some of these components or adding other components. Implementation is possible. For example, some or all of the functions of the in-vehicle camera control device 100 may be realized by the infrared image capturing unit 210 or the visible image capturing unit 220. Further, some or all of the functions of the in-vehicle camera control device 100 according to the present embodiment may be realized by a server connected by communication.
次に各部で行われる処理について説明する。 Next, processing performed in each unit will be described.
まず、画像取得部110は、赤外線画像撮像部210から赤外線画像データを取得し、可視画像撮像部220から可視画像データを取得する。 First, the image acquisition unit 110 acquires infrared image data from the infrared image imaging unit 210 and acquires visible image data from the visible image imaging unit 220.
そして、処理部120は、振動検出情報取得部130により取得された振動検出情報に応じて、記憶部150から得られるデータを用いて種々の処理を行う。 Then, the processing unit 120 performs various processes using data obtained from the storage unit 150 in accordance with the vibration detection information acquired by the vibration detection information acquisition unit 130.
さらに、振動検出情報取得部130は、センサー240での振動検出情報(振動が検出されたか否かを判定する情報)を取得する。 Furthermore, the vibration detection information acquisition unit 130 acquires vibration detection information (information for determining whether vibration is detected) at the sensor 240.
なお、画像取得部110及び、処理部120、振動検出情報取得部130の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。 The functions of the image acquisition unit 110, the processing unit 120, and the vibration detection information acquisition unit 130 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), programs, and the like.
また、記憶部150は、データベースを記憶したり、処理部120等のワーク領域となるもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。 The storage unit 150 stores a database and serves as a work area for the processing unit 120 and the like, and its function can be realized by a memory such as a RAM or an HDD (hard disk drive).
そして、赤外線画像撮像部210は、赤外線画像を撮像する。赤外線画像は、遠赤外線画像及び中赤外線画像を含む。赤外線画像撮像部210は、検出対象物に人体を含める場合には、8〜12μmの遠赤外線波長域に感度を有するものであっても良く、より遠距離(およそ200m先)の感度を得る必要がある場合には、赤外線画像撮像部210として焦電型赤外線センサーカメラを用いることが望ましい。焦電型センサーカメラを使うことにより、遠距離から近距離までの熱画像(赤外線画像)を1つのセンサー膜で取得可能であり、人体の体温と他の静止物の境界線が明確に表示可能であるため、人体抽出には最適であり、さらに他の赤外線センサーより大幅にコストが低い。 The infrared image capturing unit 210 captures an infrared image. The infrared image includes a far-infrared image and a mid-infrared image. When the human body is included in the detection target, the infrared imaging unit 210 may be sensitive to a far infrared wavelength region of 8 to 12 μm, and it is necessary to obtain sensitivity at a longer distance (approximately 200 m away). If there is, it is desirable to use a pyroelectric infrared sensor camera as the infrared image capturing unit 210. Using a pyroelectric sensor camera, thermal images (infrared images) from a long distance to a short distance can be acquired with a single sensor film, and the body temperature of the human body and the boundary line of other stationary objects can be clearly displayed. Therefore, it is optimal for human body extraction, and costs are significantly lower than other infrared sensors.
また、本実施形態では、赤外線画像撮像部210は、住居侵入防止等の防犯目的において使用されるが、この場合には、監視エリアは住居の窓及び扉を含むエリアとなる。したがって、この監視エリアへの侵入者を検知するためには、赤外線画像撮像部210は、前述したように8〜12μmの遠赤外線波長域に感度を有するものであることが望ましい。そのため、同一の赤外線画像撮像部を、走行時と住居防犯時に共用することもできる。さらに、車両の走行途中に歩行者を検知する場合に比べ、住居の防犯時に侵入者を検知する場合には、背景画像が時間的に変化せず、侵入者の有無だけを検知するだけで良いため、走行時に比べて画像処理が非常に簡単である。また、侵入者が撮像エリア内を通過する時間も歩行者に比べ長いため、フレームレートを低く設定して、間引き撮像を行いつつ、侵入者を検出することも可能であり、撮像時の電気消費量を抑えることが可能である。 In this embodiment, the infrared image capturing unit 210 is used for crime prevention purposes such as prevention of intrusion of a house. In this case, the monitoring area is an area including a window and a door of the house. Therefore, in order to detect an intruder into the monitoring area, it is desirable that the infrared imaging unit 210 has sensitivity in the far infrared wavelength region of 8 to 12 μm as described above. Therefore, the same infrared image pick-up part can also be shared at the time of driving | running | working and a house crime prevention. Furthermore, compared to detecting pedestrians while the vehicle is running, when detecting an intruder during crime prevention in a residence, the background image does not change in time, and only the presence or absence of the intruder needs to be detected. Therefore, image processing is very simple as compared to when traveling. In addition, since the time for the intruder to pass through the imaging area is longer than that for the pedestrian, it is possible to detect the intruder while setting the frame rate low and performing thinning imaging. It is possible to reduce the amount.
一方、可視画像撮像部220は、可視画像を撮像する。可視画像撮像部220は、撮像素子としてCCDやCMOSを用いているカメラであっても良く、また、白黒カメラでもカラーカメラでも良い。白黒カメラを使う場合には、可視画像として濃淡画像が撮像され、カラーカメラを使う場合には、可視画像として色画像が撮像される。 On the other hand, the visible image capturing unit 220 captures a visible image. The visible image capturing unit 220 may be a camera using a CCD or CMOS as an image sensor, and may be a monochrome camera or a color camera. When a monochrome camera is used, a grayscale image is captured as a visible image, and when a color camera is used, a color image is captured as a visible image.
なお、赤外線画像撮像部210及び可視画像撮像部220は、画像処理用等に用いられるデバイス(プロセッサー)を含んでもよい。本実施形態においては、赤外線画像データまたは可視画像データを、そのまま車載カメラ制御装置100に出力するが、これに限定されるものではない。例えば、車載カメラ制御装置100の処理部の一部を、赤外線画像撮像部210又は可視画像撮像部220に持たせてもよい。その場合、赤外線画像又は可視画像に対して、画像処理が施された後の情報が車載カメラ制御装置100に出力されることになる。 The infrared image capturing unit 210 and the visible image capturing unit 220 may include a device (processor) used for image processing or the like. In the present embodiment, infrared image data or visible image data is output as it is to the in-vehicle camera control device 100, but the present invention is not limited to this. For example, a part of the processing unit of the in-vehicle camera control device 100 may be provided in the infrared image capturing unit 210 or the visible image capturing unit 220. In this case, information after image processing is performed on the infrared image or the visible image is output to the in-vehicle camera control device 100.
次に、図2(A)、図2(B)に、赤外線画像撮像部及び可視画像撮像部等の取り付け位置の一例を示す。 Next, FIG. 2A and FIG. 2B show examples of attachment positions of the infrared image capturing unit, the visible image capturing unit, and the like.
赤外線画像撮像部210は、図2(A)、図2(B)に示すように、レンズの光軸の水平成分方向HLL1と車体中心線CL1がなすパン角がPA1となり、レンズの光軸の垂直成分方向PLL1と地上との水平線HL1がなすチルト角がTA1となるように、車体のバンパーまたはグリル内に取り付けられる。ここで、赤外線画像撮像部210は、赤外線画像撮像部210を上下、左右に首振り駆動させる電動モーターを備えていてもよい。この場合には、車体進行方向前方の道路又は道路側面を撮像できるように回転角度を自由に調整できる。 As shown in FIGS. 2A and 2B, the infrared image capturing unit 210 has a pan angle formed by the horizontal component direction HLL1 of the optical axis of the lens and the vehicle body centerline CL1 as PA1, and the optical axis of the lens. It is mounted in the bumper or grill of the vehicle body so that the tilt angle formed by the horizontal line HL1 between the vertical component direction PLL1 and the ground is TA1. Here, the infrared image capturing unit 210 may include an electric motor that swings the infrared image capturing unit 210 vertically and horizontally. In this case, the rotation angle can be freely adjusted so that the road ahead or the side of the road can be imaged.
可視画像撮像部220は、図2(A)、図2(B)に示すように、レンズの光軸の水平成分方向HLL2と車体中心線CL2がなすパン角がPA2となり、レンズの光軸の垂直成分方向PLL2と地上との水平線HL2がなすチルト角がTA2となるように、フロントウィンドウ上部に取り付けられる。ここで、可視画像撮像部220も赤外線画像撮像部210と同様に、可視画像撮像部220を上下、左右に首振り駆動させる電動モーターを備えていてもよい。この場合には、車体進行方向前方の道路又は道路側面を撮像できるように回転角度を自由に調整できる。 As shown in FIGS. 2A and 2B, the visible image capturing unit 220 has PA2 as the pan angle formed by the horizontal component direction HLL2 of the optical axis of the lens and the vehicle body centerline CL2, and the optical axis of the lens. It is attached to the upper part of the front window so that the tilt angle formed by the horizontal line HL2 between the vertical component direction PLL2 and the ground is TA2. Here, similarly to the infrared image capturing unit 210, the visible image capturing unit 220 may include an electric motor that swings the visible image capturing unit 220 up and down and left and right. In this case, the rotation angle can be freely adjusted so that the road ahead or the side of the road can be imaged.
なお、図2(A)では、分かりやすいようにPA1及びPA2は0°以上となっているが、車体進行方向前方を撮像する際には、PA1=PA2=0°、TA1=TA2とすることが望ましい。また、赤外線画像撮像部210及び可視画像撮像部220は、車体の側面に設置してもよいし、それぞれの撮像部を複数設置してもよい。 In FIG. 2A, PA1 and PA2 are 0 ° or more for easy understanding. However, when imaging the front in the vehicle body traveling direction, PA1 = PA2 = 0 ° and TA1 = TA2. Is desirable. Further, the infrared image capturing unit 210 and the visible image capturing unit 220 may be installed on the side surface of the vehicle body, or a plurality of each of the image capturing units may be installed.
さらに、赤外線画像撮像部210及び可視画像撮像部220には、運転者が任意に撮影方向や撮影位置を決定するために、車内にセレクタスイッチが設置されていてもよい。セレクタスイッチにより、赤外線画像撮像部210又は可視画像撮像部220の駆動のON/OFFや、赤外線画像撮像部210や可視画像撮像部220の位置や方向を変更することができる。なお、図1及び図2(A)、図2(B)においては、セレクタスイッチは省略されている。 Further, the infrared image capturing unit 210 and the visible image capturing unit 220 may be provided with a selector switch in the vehicle so that the driver can arbitrarily determine the shooting direction and the shooting position. The selector switch can turn ON / OFF driving of the infrared image capturing unit 210 or the visible image capturing unit 220 and change the position and direction of the infrared image capturing unit 210 and the visible image capturing unit 220. Note that the selector switch is omitted in FIGS. 1, 2A, and 2B.
次に、提示部230は、車載カメラ制御装置100の処理結果をユーザーに示す。提示部230は、警報装置であってもよいし、ディスプレイであってもよい。 Next, the presentation unit 230 shows the processing result of the in-vehicle camera control device 100 to the user. The presentation unit 230 may be an alarm device or a display.
提示部230が警報装置である場合には、警報装置は、処理部120から得られる出力信号に基づいて、歩行者の有無や住居への侵入者を検知した場合に警報(音声)を発する。警報装置として車体のクラクション及びフロントライトを用いれば、住居への侵入者を検知した場合に、クラクションを鳴らしたり、フロントライトを点滅させたりすることができ、新たな設備を設ける必要がないという利点がある。 When the presenting unit 230 is an alarm device, the alarm device issues an alarm (sound) based on the output signal obtained from the processing unit 120 when the presence or absence of a pedestrian or an intruder into the residence is detected. If the horn and front light of the vehicle body are used as an alarm device, the horn can be sounded or the front light can be blinked when an intruder is detected in the residence, and there is no need to install new equipment. There is.
さらに、提示部230がディスプレイである場合には、ディスプレイは、処理部120が先行車や歩行者、又は住居への侵入者を検出した場合に、これらの位置を表す画像を表示したり、検出物の輪郭画像等を可視画像に重畳して生成された画像を、処理部120から取得し、これを表示してもよい。 Further, when the presentation unit 230 is a display, the display displays an image indicating these positions when the processing unit 120 detects a preceding vehicle, a pedestrian, or an intruder into the residence, or detects An image generated by superimposing a contour image of an object on a visible image may be acquired from the processing unit 120 and displayed.
また、本実施形態では、センサー240には、ジャイロセンサーを使用する。ジャイロセンサーは、消費電力が少なく、微細な振動をも検知することが可能である。他にも、センサー240は、加速度センサーやGPSセンサー等であってもよい。 In the present embodiment, a gyro sensor is used as the sensor 240. The gyro sensor has low power consumption and can detect minute vibrations. In addition, the sensor 240 may be an acceleration sensor, a GPS sensor, or the like.
また、図3に本実施形態のハードウェア構成図を示す。まず、図1の車載カメラ制御装置100は、図3のCPU450とメモリー470により実現できる。ここで、図1の画像取得部110及び処理部120、振動検出情報取得部130は、図1のCPU450により実現でき、図1の記憶部150は、図3のメモリー470により実現できる。 FIG. 3 shows a hardware configuration diagram of this embodiment. First, the in-vehicle camera control device 100 of FIG. 1 can be realized by the CPU 450 and the memory 470 of FIG. Here, the image acquisition unit 110, the processing unit 120, and the vibration detection information acquisition unit 130 in FIG. 1 can be realized by the CPU 450 in FIG. 1, and the storage unit 150 in FIG. 1 can be realized by the memory 470 in FIG.
そして、図1の車載カメラシステム200は、図3の赤外線カメラ410と、CPU450と、メモリー470とを含んでいる。ここで、図1の赤外線画像撮像部210は、図3の赤外線カメラ410により実現され、電動モーター420を備えている。 The in-vehicle camera system 200 in FIG. 1 includes the infrared camera 410, the CPU 450, and the memory 470 in FIG. Here, the infrared image capturing unit 210 in FIG. 1 is realized by the infrared camera 410 in FIG. 3 and includes an electric motor 420.
また、図1の可視画像撮像部220は、図3の可視カメラ430により実現され、電動モーター440を備えている。さらに、図1の提示部230は、図3のディスプレイ490により実現できる。そして、図1のセンサー240は、図3のジャイロセンサー460やGPS480等により実現できる。 Further, the visible image capturing unit 220 in FIG. 1 is realized by the visible camera 430 in FIG. 3 and includes an electric motor 440. Furthermore, the presentation unit 230 in FIG. 1 can be realized by the display 490 in FIG. 3. 1 can be realized by the gyro sensor 460, the GPS 480, or the like shown in FIG.
2.本実施形態の手法
以上の本実施形態では、車載カメラ制御装置100は、赤外線画像データを赤外線画像撮像部210から取得する画像取得部110と、赤外線画像データに基づく処理を行う処理部120と、振動検出部(例えばセンサー240)からの振動検出情報を取得する振動検出情報取得部130と、を含む。そして、処理部120は、振動検出情報に基づき設定された処理モード(使用処理モード)に従って、赤外線画像データに基づいた対象物の検出処理を行う。
2. In the above embodiment, the in-vehicle camera control device 100 includes an image acquisition unit 110 that acquires infrared image data from the infrared image capturing unit 210, a processing unit 120 that performs processing based on infrared image data, A vibration detection information acquisition unit 130 that acquires vibration detection information from a vibration detection unit (for example, sensor 240). And the process part 120 performs the detection process of the target object based on infrared image data according to the process mode (usage process mode) set based on the vibration detection information.
処理モードとは、車載カメラ制御装置100の処理状態の総称であり、設定された処理モードによって、車載カメラ制御装置100が行う一連の処理が決定付けられるものをいう。さらに、車載カメラ制御装置を制御する際に実際に使用される処理モードのことを、使用処理モードと呼ぶ。本実施形態では、処理モードは、少なくとも第1処理モードと第2処理モードを有し、第2処理モードは、第1処理モードに比べて赤外線画像データに基づく処理の実行レートが低いモードである。ここで実行レートとは、処理部120において単位時間あたりに実行される処理の量を表すものであり、実行レートが低いとは、単位時間あたりの処理部120での処理量が少ないことを意味する。よって、例えば処理部120がCPU等により実現される場合には、第2処理モードは第1処理モードに比べて当該CPUにかかる負荷が小さいことになり、省電力性等において優位である。 The processing mode is a general term for the processing state of the in-vehicle camera control device 100, and means a series of processing performed by the in-vehicle camera control device 100 depending on the set processing mode. Furthermore, the processing mode actually used when controlling the in-vehicle camera control device is referred to as a usage processing mode. In the present embodiment, the processing mode has at least a first processing mode and a second processing mode, and the second processing mode is a mode in which the execution rate of processing based on infrared image data is lower than that in the first processing mode. . Here, the execution rate represents the amount of processing executed per unit time in the processing unit 120, and a low execution rate means that the processing amount in the processing unit 120 per unit time is small. To do. Therefore, for example, when the processing unit 120 is realized by a CPU or the like, the second processing mode has a smaller load on the CPU than the first processing mode, which is advantageous in terms of power saving.
具体的には、以下のような手法により、第2処理モードの実行レートを第1処理モードに比べて低くすることが考えられる。例えば、第1処理モードと第2処理モードが単位時間あたり同数程度の赤外線画像データを取得する場合に、第1処理モードにおいては全画像データに対して対象物検出処理を行うのに対して、第2処理モードでは所定時間間隔で抽出された一部の赤外線画像データに対して対象物検出処理を行うようにする。或いは、第1処理モードに比べて、第2処理モードの赤外線画像データ取得レート(単位時間あたりの赤外線画像データ取得数に対応)を低く設定した上で、対象物検出処理を行ってもよい。 Specifically, it can be considered that the execution rate of the second processing mode is made lower than that of the first processing mode by the following method. For example, when the first processing mode and the second processing mode acquire the same number of infrared image data per unit time, the object detection processing is performed on all image data in the first processing mode. In the second processing mode, the object detection process is performed on some infrared image data extracted at predetermined time intervals. Alternatively, the object detection process may be performed after setting the infrared image data acquisition rate (corresponding to the number of infrared image data acquisitions per unit time) in the second process mode to be lower than that in the first process mode.
なお、第1処理モードは狭義には走行モード(車両走行時に実行される処理モード)であってもよいし、第2処理モードは狭義には防犯モード(後述する防犯用処理を実行する処理モード)であってもよい。処理部120は、後述するように少なくとも防犯モード及び走行モードのうちのいずれか一つを選択することができ、また他の処理モードに切り替えることができる。 The first processing mode may be a travel mode (a processing mode executed when the vehicle is traveling) in a narrow sense, and the second processing mode is a security mode (a processing mode for executing a security processing described later) in a narrow sense. ). As will be described later, the processing unit 120 can select at least one of the crime prevention mode and the traveling mode, and can switch to another processing mode.
これにより、振動検出情報に基づいて設定された使用処理モードに従って処理を行うことが可能になる。例えば、振動検出情報に基づいて車両の走行状態を判定するものとすれば、車両が走行状態である場合と、車両が非走行状態である場合で、異なる処理を行うことができる。振動検出部による振動の検出は、例えば車体に設けられたセンサー240(例えばジャイロセンサー)が、1Hzないし20Hzの周波数の振動を、所定の時間連続して検出した場合に、振動を検出したと判定してもよい。 Thereby, it becomes possible to perform processing according to the use processing mode set based on the vibration detection information. For example, if the running state of the vehicle is determined based on the vibration detection information, different processing can be performed depending on whether the vehicle is in a running state or the vehicle is in a non-running state. The vibration detection by the vibration detection unit is, for example, determined that the vibration is detected when a sensor 240 (for example, a gyro sensor) provided on the vehicle body continuously detects a vibration having a frequency of 1 Hz to 20 Hz for a predetermined time. May be.
また、処理部120は、振動検出情報に基づいて振動が非検出であると判定された場合には、使用処理モードを第2処理モードに設定し、赤外線画像データに基づく防犯用処理を行ってもよい。 Further, when it is determined that the vibration is not detected based on the vibration detection information, the processing unit 120 sets the use processing mode to the second processing mode and performs a security process based on the infrared image data. Also good.
ここで、防犯用処理とは防犯時における対象物の検出処理のことであり、例えば住居の侵入に対する防犯時であれば、当該住居への侵入者を検出する処理に対応する。具体的には、後述するように、第1のタイミングで取得された第1の赤外線画像データと第2のタイミングで取得された第2の赤外線画像データの比較による対象物の検出処理等が防犯用処理として考えられる。なお、第1のタイミングと第2のタイミングは、赤外線画像データの取得タイミングとして連続する2タイミングであってもよい。例えば、最新の赤外線画像データと、その1タイミング前の赤外線画像データの比較処理である。或いは、第1のタイミングが所与の基準タイミングであってもよい。例えば、第1のタイミングとして防犯用処理開始後の最初の赤外線画像データ取得タイミングとすることが考えられる。この場合、第1の赤外線画像データとは、侵入者が存在しない監視用固定画像データ(背景画像データ)に対応することになり、当該監視用固定画像データと、最新の赤外線画像データとを比較することになる。 Here, the process for crime prevention is a process for detecting an object at the time of crime prevention, and corresponds to a process for detecting an intruder into the residence, for example, at the time of crime prevention against the entry of the residence. Specifically, as will be described later, the object detection processing by comparing the first infrared image data acquired at the first timing and the second infrared image data acquired at the second timing is security. It can be considered as a process. The first timing and the second timing may be two consecutive timings as the acquisition timing of the infrared image data. For example, the latest infrared image data is compared with the infrared image data one timing before. Alternatively, the first timing may be a given reference timing. For example, the first infrared image data acquisition timing after the start of the security process can be considered as the first timing. In this case, the first infrared image data corresponds to the fixed image data for monitoring (background image data) in which no intruder exists, and the fixed image data for monitoring is compared with the latest infrared image data. Will do.
これにより、振動が非検出の場合には、赤外線画像データを用いた防犯用処理が可能になる。振動が非検出の場合とは、例えば車両が停止中の場合であり、具体的にはユーザーの自宅駐車場に駐車されているケース等が考えられる。この場合には、監視対象物が住居等への侵入者となり、これらの監視に最適な処理を行う。防犯用処理としては、対象物の検出処理だけでなく、赤外線画像撮像部210により撮像された赤外線画像データ又は赤外線画像データに基づく検出情報を、提示部230において提示する処理を行ってもよい。 Thereby, when vibration is not detected, it is possible to perform security processing using infrared image data. The case where the vibration is not detected is, for example, a case where the vehicle is stopped. Specifically, a case where the vehicle is parked in the user's home parking lot can be considered. In this case, the monitored object becomes an intruder into a residence or the like, and an optimal process is performed for these monitoring. As the security process, not only the object detection process but also the process of presenting the infrared image data captured by the infrared image capturing unit 210 or detection information based on the infrared image data in the presenting unit 230 may be performed.
ここで、検出情報とは、赤外線画像中に監視対象物が映っていることを示す情報である。例えば、検出情報の一例としては、住居等への侵入者がいることをユーザーに知らせる文字情報や、提示部230に警告音を発生させる命令などがある。 Here, the detection information is information indicating that the monitoring target is reflected in the infrared image. For example, as an example of the detection information, there is character information that informs the user that there is an intruder into a residence or the like, and a command that causes the presentation unit 230 to generate a warning sound.
この場合には、監視エリア内に侵入者等がいる場合にのみ、提示部230に提示すればよい。したがって、非走行状態において、常時、提示部230での提示を行う場合に比べて、車載カメラ制御装置100の消費電力の抑制が可能となる。 In this case, what is necessary is just to show to the presentation part 230, when an intruder etc. exist in the monitoring area. Therefore, in the non-running state, the power consumption of the in-vehicle camera control device 100 can be suppressed as compared with the case where the presentation unit 230 always provides the presentation.
なお、ここで、監視エリアとは、車載カメラシステム200の監視対象物を検出するために、監視することが必要なエリアのことであり、例えば、赤外線画像撮像部210又は可視画像撮像部220により、撮像される範囲のこという。後述する図6(A)の例で言えば、赤外線画像撮像部210により撮像される住居のドアDRや窓WDを含む範囲のことである。 Here, the monitoring area is an area that needs to be monitored in order to detect the monitoring target of the in-vehicle camera system 200. For example, the monitoring area is detected by the infrared image capturing unit 210 or the visible image capturing unit 220. It means the range to be imaged. In the example of FIG. 6A to be described later, this is a range including the door DR and the window WD of the house captured by the infrared image capturing unit 210.
また、検出情報は、監視対象物が映っていないことを示す情報であってもよい。この場合には、車両が非走行状態にある時に、原則として常時、車載カメラ制御装置100は提示部230において提示を行う。 Further, the detection information may be information indicating that the monitoring target is not reflected. In this case, when the vehicle is in the non-running state, the in-vehicle camera control device 100 performs the presentation in the presentation unit 230 in principle at all times.
また、処理部120は、振動検出情報に基づいて振動が検出されたと判定された場合には、使用処理モードを第1処理モードに設定し、赤外線画像データに基づいて対象物が検出されたか否かを表すアラート表示情報を生成し、生成したアラート表示情報を含む表示用画像データの生成処理を行ってもよい。 Further, when it is determined that vibration is detected based on the vibration detection information, the processing unit 120 sets the use processing mode to the first processing mode, and whether or not an object is detected based on the infrared image data. May be generated, and display image data including the generated alert display information may be generated.
ここで、表示用画像データとは、表示用画像を表すデータである。また、表示用画像とは、検出した対象物の存在をユーザーに伝えるための画像である。例えば、第1処理モードが走行モード(車両が走行状態であるモード)である場合には、表示用画像とは、歩行者や先行車等の監視対象物の存在をユーザーに伝えるための画像であり、提示部230に表示する画像そのものをいう。この場合、アラート表示情報としては、監視対象物の輪郭を表す画像や、監視対象物が近くにいることを通知するための記号等を表す画像が考えられる。つまり、アラート表示情報を含む表示用画像データとは、赤外線画像に歩行者や先行車等の輪郭画像を重畳して生成した画像などである。また、表示用画像を表示すると同時に、警告音等を発しても良い。 Here, the display image data is data representing a display image. The display image is an image for informing the user of the presence of the detected object. For example, when the first processing mode is a travel mode (a mode in which the vehicle is in a travel state), the display image is an image for informing the user of the presence of a monitoring target such as a pedestrian or a preceding vehicle. Yes, it refers to the image itself displayed on the presentation unit 230. In this case, as the alert display information, an image representing the outline of the monitoring object or an image representing a symbol for notifying that the monitoring object is nearby can be considered. That is, the display image data including the alert display information is an image generated by superimposing a contour image of a pedestrian or a preceding vehicle on an infrared image. Further, a warning sound or the like may be emitted simultaneously with displaying the display image.
これにより、監視対象物の存在を強調した画像データを生成し、ユーザーに提示することができ、ユーザーに監視対象物への注意を促すこと等が可能になる。第1処理モードが走行モードであれば、監視対象物が歩行者や先行車となり、これらの監視に最適な処理を行うことになり、例えば、歩行者や先行車の輪郭画像等を、ユーザーに提示して、監視対象物への注意を促すこと等が可能になる。 Thereby, image data emphasizing the presence of the monitoring object can be generated and presented to the user, and the user can be alerted to the monitoring object. If the first processing mode is the traveling mode, the monitoring object is a pedestrian or a preceding vehicle, and optimal processing is performed for these monitoring. For example, an outline image of a pedestrian or a preceding vehicle is displayed to the user. It can be presented to call attention to the monitored object.
また、車両が走行状態にあると判定された場合には、赤外線画像データを取得するため、歩行者が多かったり、他の車両が多かったり等の車両の周囲の状況に応じた監視対象物の監視をすることが可能である。 In addition, when it is determined that the vehicle is in a running state, infrared image data is acquired, so that the monitoring target object corresponding to the situation around the vehicle such as that there are many pedestrians or many other vehicles. It is possible to monitor.
例えば、図4(A)に、車両CA1が走行しており、走行モードが設定されている場合の様子を示す。この時、車両CA1に設けられた赤外線画像撮像部210が、車両の前方を撮像し、先行車CA2や歩行者WP1、自転車に乗っている人WP2などを撮像する。 For example, FIG. 4A shows a state where the vehicle CA1 is traveling and the traveling mode is set. At this time, the infrared image capturing unit 210 provided in the vehicle CA1 captures the front of the vehicle and captures the preceding vehicle CA2, the pedestrian WP1, the person WP2 riding the bicycle, and the like.
ここで、赤外線画像データとは、赤外線画像撮像部210により撮像される赤外線画像(熱画像)を表す情報である。赤外線画像については、前述した通りである。例えば、赤外線画像の一例として、図4(A)の車両CA1に設けられた赤外線画像撮像部210により撮像された赤外線画像IIMを、図4(C)に示す。赤外線画像IIMには、歩行者WP1や先行車CA2、自転車に乗った人WP2などが、温度が高い部分が色濃く映し出されている。赤外線画像は、風景等の識別には向かないが、温度分布等を識別することが容易であり、背景と監視対象物とを判別する場合に有用である。 Here, the infrared image data is information representing an infrared image (thermal image) captured by the infrared image capturing unit 210. The infrared image is as described above. For example, FIG. 4C illustrates an infrared image IIM captured by the infrared image capturing unit 210 provided in the vehicle CA1 illustrated in FIG. 4A as an example of the infrared image. In the infrared image IIM, a pedestrian WP1, a preceding vehicle CA2, a person WP2 riding a bicycle, and the like are projected darkly at portions where the temperature is high. An infrared image is not suitable for identifying a landscape or the like, but it is easy to identify a temperature distribution or the like, and is useful for discriminating between a background and a monitoring object.
しかし、輪郭画像や赤外線画像に輪郭画像を重畳した画像などの表示用画像は、ユーザーが実際に見ている景色とは、見た目が大きく異なっており、表示用画像から取得した情報を、ユーザーが適切に利用することが困難である可能性がある。例えば、第1処理モードが走行モードの場合には、輪郭画像等が提示されたとしても、ユーザーがすぐに車両の運転に反映できない可能性がある。 However, display images, such as contour images and images in which contour images are superimposed on infrared images, look very different from the scenery that the user actually sees. It may be difficult to use properly. For example, when the first processing mode is the traveling mode, even if an outline image or the like is presented, there is a possibility that the user cannot immediately reflect the driving of the vehicle.
そこで、画像取得部110は、可視画像データを可視画像撮像部220から取得してもよい。そして、処理部120は、可視画像データに対してアラート表示情報を付加することで、表示用画像データの生成処理を行ってもよい。 Therefore, the image acquisition unit 110 may acquire visible image data from the visible image capturing unit 220. Then, the processing unit 120 may perform display image data generation processing by adding alert display information to the visible image data.
ここで、可視画像データに対してアラート表示情報が付加された表示用画像データとしては、可視画像に対して対象物の輪郭を表す画像を重畳した画像に対応する画像データ等が考えられる。 Here, as the display image data in which the alert display information is added to the visible image data, image data corresponding to an image in which an image representing the contour of the target object is superimposed on the visible image, or the like can be considered.
また、可視画像データとは、可視画像撮像部220により撮像される可視画像を表す情報である。可視画像については、前述した通りである。例えば、可視画像の一例として、図4(A)の車両CA1に設けられた可視画像撮像部220により撮像された可視画像VIMを、図4(B)に示す。可視画像VIMにも、歩行者WP1や先行車CA2、自転車に乗った人WP2などが映し出されている。可視画像VIMは、ユーザーが見た景色とほとんど相違がないため、一見して風景を含む画像の全体像を把握しやすい。逆に、可視画像のみを用いて、風景と監視対象物を区別することは困難である。そこで、本実施形態では、前述したような特徴を持つ赤外線画像を用いて、監視対象物を区別する。 The visible image data is information representing a visible image captured by the visible image capturing unit 220. The visible image is as described above. For example, as an example of the visible image, a visible image VIM captured by the visible image capturing unit 220 provided in the vehicle CA1 illustrated in FIG. 4A is illustrated in FIG. The visible image VIM also shows a pedestrian WP1, a preceding vehicle CA2, a person WP2 riding a bicycle, and the like. Since the visible image VIM has almost no difference from the scenery seen by the user, it is easy to grasp the entire image including the scenery at a glance. On the other hand, it is difficult to distinguish a landscape and a monitoring object using only a visible image. Therefore, in the present embodiment, the monitoring object is distinguished using the infrared image having the characteristics as described above.
さらに、可視画像を用いて生成した表示用画像の具体例を、図4(D)に示す。表示用画像CIMを生成する際には、例えば、図4(C)に示す赤外線画像IIMにより表される温度分布の特徴に基づいて、後述するようなテンプレートマッチング処理を行って、人(WP1とWP2)と人以外(背景や先行車CA2)を区別する。そして、可視画像上において、人が位置する部分を囲うように、後述するアラート画像(ALIM1とALIM2)等を重畳させて、表示用画像CIMを生成する。このような画像を提示することにより、歩行者に注意を払うように、ユーザーに警告する。 Further, a specific example of a display image generated using a visible image is shown in FIG. When generating the display image CIM, for example, based on the characteristics of the temperature distribution represented by the infrared image IIM shown in FIG. WP2) and other than people (background and preceding car CA2) are distinguished. Then, a display image CIM is generated by superimposing alert images (ALIM1 and ALIM2), which will be described later, so as to surround a portion where a person is located on the visible image. By presenting such an image, the user is warned to pay attention to the pedestrian.
ここで、アラート画像とは、ユーザーに監視対象物の存在を知らせるための画像であり、提示部230に表示する走行用表示画像の一部となる画像のことをいう。アラート画像の例としては、エクスクラメーション・マ−クや、歩行者や先行車を表す模式図、危険が迫っていることを知らせる強調文字などがある。なお、アラート画像とは上述したようにアラート表示情報に含まれるものとする。 Here, the alert image is an image for notifying the user of the presence of the monitoring target, and means an image that is a part of the traveling display image displayed on the presentation unit 230. Examples of the alert image include an exclamation mark, a schematic diagram showing a pedestrian and a preceding vehicle, and an emphasis character indicating that a danger is imminent. Note that the alert image is included in the alert display information as described above.
具体的には、図4(D)に示す画像ALIM1やALIM2がアラート画像に該当する。他にも、図5(A)に示す画像CIM1上において、歩行者WP1の頭上に表示したALIM3のようなエクスクラメーション・マ−クや、図5(B)に示す画像CIM2上において、歩行者WP1の輪郭を強調する画像ALIM4や、危険が迫っていることを文字や記号を用いて強調するALIM5のような帯画像などがある。 Specifically, images ALIM1 and ALIM2 shown in FIG. 4D correspond to alert images. In addition, an exclamation mark such as ALIM3 displayed on the head of the pedestrian WP1 on the image CIM1 shown in FIG. 5A, or a walk on the image CIM2 shown in FIG. There are an image ALIM4 for emphasizing the outline of the person WP1, and a band image such as ALIM5 for emphasizing that the danger is imminent using characters and symbols.
これにより、ユーザーが実際に見ている景色と合致する可視画像に、アラート画像を重畳させて走行用表示画像を生成するため、表示用画像を用いた場合にも、ユーザーに違和感を覚えさせずに、監視対象物への注意を促すこと等が可能となる。さらに、アラート画像を用いることにより、ユーザーが背景と監視対象物とを簡単に区別すること等が可能となる。 As a result, an alert image is superimposed on a visible image that matches the scenery that the user actually sees to generate a display image for traveling, so that even when using a display image, the user does not feel uncomfortable. In addition, it is possible to call attention to the monitoring object. Furthermore, by using the alert image, the user can easily distinguish the background from the monitoring target.
また、処理部120は、振動検出情報に基づいて振動が非検出であると判定された場合には、可視画像撮像部220を動作オフ状態又は省電力状態に設定してもよい。 In addition, when it is determined that vibration is not detected based on the vibration detection information, the processing unit 120 may set the visible image capturing unit 220 to the operation off state or the power saving state.
これにより、振動が非検出であるとき(第2処理モードに設定されたとき)には、可視画像撮像部220を動作オフ状態又は省電力状態に設定できるため、電力の消費を抑えることが可能になる。上述したように、振動が非検出である第2処理モードとは、車両が停止しており、侵入者の検出等を行うことが想定される。その際には、侵入者の有無をユーザーに対して提示できれば十分であり、ユーザーにとって見やすい画像である可視画像は必ずしも提供する必要はない。よって、可視画像撮像部220については動作オフ状態または省電力状態に設定してもよい。 Thereby, when the vibration is not detected (when the second processing mode is set), the visible image capturing unit 220 can be set to the operation-off state or the power saving state, so that power consumption can be suppressed. become. As described above, in the second processing mode in which vibration is not detected, it is assumed that the vehicle is stopped and an intruder is detected. In that case, it is sufficient if the presence / absence of an intruder can be presented to the user, and it is not always necessary to provide a visible image that is easy to see for the user. Therefore, the visible image capturing unit 220 may be set to an operation off state or a power saving state.
また、処理部120は、使用処理モードが第2処理モードに設定されている場合には、第1処理モードに設定されている場合に比べて、画像取得部110における赤外線画像データの取得レートを低く設定してもよい。 In addition, when the usage processing mode is set to the second processing mode, the processing unit 120 sets the acquisition rate of infrared image data in the image acquisition unit 110 as compared to the case where the usage processing mode is set to the first processing mode. It may be set low.
これにより、赤外線画像撮像部210の駆動及び赤外線画像データの画像処理に用いる電力の消費を抑えること等が可能となる。住居等への侵入者は、住居の様子をみたりするため、一定箇所に留まることが多く、監視エリアの通過時間が歩行者等に対して長いことが分かっている。また、車両が駐車中の場合には、背景画像が時間的に変化しないため、防犯用処理以外の処理が実行される場合(例えば、車両が走行状態である場合等)に比べて画像処理が容易であり、フレームレートを高く設定する必要はない。 Accordingly, it is possible to suppress the consumption of power used for driving the infrared image capturing unit 210 and image processing of infrared image data. It is known that intruders in a residence or the like often stay in a certain place in order to see the state of the residence, and the transit time of the monitoring area is longer than that of a pedestrian or the like. In addition, when the vehicle is parked, the background image does not change with time, and therefore image processing is performed more than when processing other than crime prevention processing is performed (for example, when the vehicle is in a traveling state). It is easy and there is no need to set a high frame rate.
また、画像取得部110は、使用処理モードが第2処理モードに設定されている場合には、第1処理モードに設定されている場合とは異なる位置又は方向に設定された赤外線画像撮像部210により、赤外線画像データを取得してもよい。 In addition, when the usage processing mode is set to the second processing mode, the image acquisition unit 110 sets the infrared image capturing unit 210 set to a position or direction different from that when the usage processing mode is set to the first processing mode. Thus, infrared image data may be acquired.
これにより、第2処理モードの場合と第1処理モードの場合とで、それぞれ適切な領域を撮像した画像を取得することが可能になる。第1処理モードとは、上述したように第2処理モードに比べて処理の実行レートが高いモードであり、典型的には走行モードが想定される。走行モードにおいては、車両は前方に移動することが想定されるため、歩行者・障害物等の監視対象物は前方にあるものを捉える必要がある。よって、走行モードでは赤外線画像撮像部210は車両の前方を撮像可能な位置又は方向に設定される。それに対して第2処理モード(狭義には防犯モード)においては、住居に侵入しようとしている者が監視対象物となるため、住居への侵入経路となりそうな箇所(例えば窓等)や、侵入されることが好ましくない領域(自宅の敷地内等)を撮像する必要がある。よって、防犯モードでは赤外線画像撮像部210は、上述のような領域を撮像可能な位置又は方向に設定される。 As a result, it is possible to acquire images obtained by capturing appropriate areas in the second processing mode and in the first processing mode, respectively. As described above, the first processing mode is a mode in which the execution rate of processing is higher than that in the second processing mode, and typically a traveling mode is assumed. In the traveling mode, it is assumed that the vehicle moves forward, and therefore it is necessary to capture a monitoring object such as a pedestrian or an obstacle in front. Therefore, in the traveling mode, the infrared image capturing unit 210 is set to a position or direction where the front of the vehicle can be imaged. On the other hand, in the second processing mode (crime prevention mode in a narrow sense), since a person who is going to enter the residence becomes a monitoring target, a place that is likely to be an entry route to the residence (for example, a window) or the like is entered. It is necessary to take an image of an area where it is not desirable to do so (such as in the premises of your home). Therefore, in the crime prevention mode, the infrared image capturing unit 210 is set to a position or a direction in which the region as described above can be captured.
また、処理部120は、使用処理モードが第1処理モードである場合に対象物の検出に用いられるテンプレートを用いて、第2処理モードにおける対象物の検出処理を行ってもよい。これは第1処理モードと第2処理モードの両方で共通のテンプレートを用いると言ってもよい。 In addition, the processing unit 120 may perform the object detection process in the second process mode using a template used for the object detection when the use process mode is the first process mode. This may be said to use a common template in both the first processing mode and the second processing mode.
これにより、記憶部150等に保持しておくテンプレートデータを少なくすることが可能になり、また、第1処理モードと第2処理モードで共通のテンプレートを用いるため処理を共通化することができる。これは、第1処理モードと第2処理モードが走行モードと防犯モードである場合に、走行時にも防犯時にも人が監視対象物に含まれることが想定されるところ、人に特徴的なデータ(例えば温度データ等)は走行時に観察される場合も防犯時に観察される場合も同様であることによる。 This makes it possible to reduce the template data stored in the storage unit 150 and the like, and to use a common template in the first processing mode and the second processing mode, so that the processing can be shared. This is because, when the first processing mode and the second processing mode are the traveling mode and the crime prevention mode, it is assumed that the person is included in the monitored object during the traveling and the crime prevention. This is because (for example, temperature data) is the same when observed during traveling and when observed during crime prevention.
また、画像取得部110は、所与の時間間隔ごとに赤外線画像データを取得する。そして処理部120は、第1のタイミングで取得された第1の赤外線画像データと、第1のタイミングとは異なる第2のタイミングで取得された第2の赤外線画像データとの比較処理を含む防犯用処理を行ってもよい。 Further, the image acquisition unit 110 acquires infrared image data at given time intervals. The processing unit 120 includes a security process including a comparison process between the first infrared image data acquired at the first timing and the second infrared image data acquired at the second timing different from the first timing. Processing may be performed.
ここで、第1の赤外線画像データと第2の赤外線画像データは、互いに異なるタイミングにおいて撮像された赤外線画像を表す赤外線画像データのことをいう。例えば、あるタイミング1についての赤外線画像データを取得し、これを第1の赤外線画像データとし、その後の所定周期毎に取得する赤外線画像データを、第2の赤外線画像データとして、比較処理を行っても良い。他にも、第1の赤外線画像データの次のタイミングに取得する赤外線画像データが第2の赤外線画像データであり、第2の赤外線画像データの次のタイミングに取得する赤外線画像データが第1の赤外線画像データであるとして、比較処理を行ってもよい。 Here, the first infrared image data and the second infrared image data refer to infrared image data representing infrared images captured at different timings. For example, infrared image data for a certain timing 1 is acquired, this is used as first infrared image data, and infrared image data acquired at every predetermined period thereafter is used as second infrared image data for comparison processing. Also good. In addition, the infrared image data acquired at the timing next to the first infrared image data is the second infrared image data, and the infrared image data acquired at the timing next to the second infrared image data is the first infrared image data. Comparison processing may be performed assuming that the image data is infrared image data.
また、防犯用処理の具体例としては、第1の赤外線画像データと、第2の赤外線画像データの比較処理の結果、2つの赤外線画像データに差異があった場合に、監視対象物を検出したと判定してもよい。例えば、図6(A)の例において、あるタイミングtにおいて、赤外線画像撮像部210が撮像した赤外線画像を、図6(B)に示すIIM1とし、タイミング(t+1)に撮像した赤外線画像を図6(C)に示すIIM2とする。この場合には、まず赤外線画像IIM1を示す赤外線画像データを、第1の赤外線画像データとして記憶部に保存しておき、赤外線画像IIM2を示す赤外線画像データを取得した時点で、IIM2の赤外線画像データを第2の赤外線画像データとして、第1の赤外線画像データと比較する。その結果、本例では、赤外線画像IIM1には、監視対象物が何も映っていないが、赤外線画像IIM2には、侵入者IV2らしき姿が確認されたとする。この場合には、図6(A)において、タイミングtでは、監視エリア外の位置P1にいた人物IVが、タイミング(t+1)までの間に、位置P2に移動して監視エリア内に侵入したとして、この人物IVを侵入者IV2として認識する。そして、第1の赤外線画像データと第2の赤外線画像データとに差異があったと判断して、侵入者がいることを提示部230において提示する。 Further, as a specific example of the security process, the monitoring target is detected when there is a difference between the two infrared image data as a result of the comparison process between the first infrared image data and the second infrared image data. May be determined. For example, in the example of FIG. 6A, the infrared image captured by the infrared image capturing unit 210 at a certain timing t is IIM1 illustrated in FIG. 6B, and the infrared image captured at timing (t + 1) is illustrated in FIG. It is referred to as IIM2 shown in (C). In this case, first, the infrared image data indicating the infrared image IIM1 is stored in the storage unit as the first infrared image data, and when the infrared image data indicating the infrared image IIM2 is acquired, the infrared image data of the IIM2 is acquired. Is compared with the first infrared image data as the second infrared image data. As a result, in this example, it is assumed that the monitoring target object is not reflected in the infrared image IIM1, but the appearance of an intruder IV2 is confirmed in the infrared image IIM2. In this case, in FIG. 6A, at timing t, it is assumed that the person IV who was at the position P1 outside the monitoring area moved to the position P2 and entered the monitoring area before the timing (t + 1). This person IV is recognized as an intruder IV2. Then, it is determined that there is a difference between the first infrared image data and the second infrared image data, and the presenting unit 230 presents that there is an intruder.
これにより、第2処理モードが設定されている場合に、赤外線画像データのみを用いて、監視対象物を検出し、監視対象物が検出された場合には、ユーザーへ侵入者の存在を通知すること等が可能になる。 Thereby, when the second processing mode is set, the monitoring target is detected using only the infrared image data, and when the monitoring target is detected, the presence of the intruder is notified to the user. It becomes possible.
また、処理部120は、振動検出情報に基づいて振動が非検出であると判定された場合には、赤外線画像撮像部210を動作オフ状態に設定し、所与の時間経過後に防犯用処理を行ってもよい。 Further, when it is determined that vibration is not detected based on the vibration detection information, the processing unit 120 sets the infrared image capturing unit 210 to an operation-off state, and performs a security process after a given time has elapsed. You may go.
これにより、赤外線画像撮像部210を所与の時間動作オフ状態にすることができるため、電力の消費を抑えることが可能になる。これは例えば走行モードから防犯モードへの切り替わり時等に行われることが想定される。つまり、切り替わり前まではユーザーが車両の近く(実際には車両の中)にいると考えられる。よって、モード切り替わり時にはユーザーが車両や住居等の近くにいるため、システムによる防犯用処理は必ずしも優先度が高くない。そのような場合に一定時間赤外線画像撮像部210を動作オフ状態にしても、特に支障はないと考えられる。 As a result, the infrared image capturing unit 210 can be turned off for a given time, so that power consumption can be suppressed. This is assumed to be performed at the time of switching from the traveling mode to the crime prevention mode, for example. In other words, it is considered that the user is near the vehicle (actually in the vehicle) before switching. Therefore, when the mode is switched, the user is near the vehicle or the residence, so the security processing by the system does not necessarily have a high priority. In such a case, even if the infrared image capturing unit 210 is turned off for a certain period of time, it is considered that there is no particular problem.
また、防犯用処理は住居防犯処理と車両防犯処理を有してもよい。そして、処理部120は、使用処理モードが第2処理モードに設定されており、住居防犯処理の実行時に振動検出情報に基づいて振動が検出された場合には、防犯用処理として行う処理を住居防犯処理から車両防犯処理に切り替えてもよい。 The security process may include a residential security process and a vehicle security process. And the process part 120 sets the process to perform as a process for crime prevention, when the use process mode is set to the 2nd process mode, and a vibration is detected based on vibration detection information at the time of execution of a residential crime prevention process. You may switch from a crime prevention process to a vehicle crime prevention process.
ここで、住居防犯処理とは、住居や施設等への侵入者等の検出を目的とする処理のこという。一方、車両防犯処理とは、車両盗難の検出等を目的とする処理のことをいう。 Here, the residential crime prevention process refers to a process for the purpose of detecting an intruder or the like into a residence or a facility. On the other hand, the vehicle crime prevention process refers to a process aimed at detecting a vehicle theft or the like.
これにより、住居防犯処理を行いつつ、車両が盗難にあった可能性がある時には、車両防犯処理を行うこと等が可能になる。これは、住居等を監視している際中に、車両自体が盗難にあってしまう場合を想定している。具体的には、住居防犯処理が実行されている場合において、振動が検出された(車両が走行している可能性がある)場合には、車両が盗難にあった可能性が高い。つまり、停止(駐車)して防犯用処理による監視を始めているのに、正規の手続きを取らずに車両を走行させたという状況を持って、その場合の運転者はユーザーではなく窃盗を行ったものを想定していることになる。 As a result, it is possible to perform vehicle crime prevention processing or the like when there is a possibility that the vehicle has been stolen while performing residential crime prevention processing. This assumes a case where the vehicle itself is stolen while monitoring a residence or the like. Specifically, when the house crime prevention process is being executed, if vibration is detected (the vehicle may be traveling), there is a high possibility that the vehicle has been stolen. In other words, even though the vehicle was stopped (parked) and monitoring by the security process was started, the vehicle was driven without taking regular procedures, and the driver in this case stealed instead of the user. It is supposed to be something.
また、処理部120は、赤外線画像撮像部210が住居防犯用の位置又は方向に設定されているときに振動検出情報に基づいて振動が検出された場合には、防犯用処理として車両防犯処理を行ってもよい。 In addition, when the infrared image capturing unit 210 is set at the position or direction for residential crime prevention, when the vibration is detected based on the vibration detection information, the processing unit 120 performs the vehicle crime prevention process as the crime prevention process. You may go.
これにより、車両が盗難にあった可能性がある時には、車両防犯処理を行うこと等が可能になる。車両が停止(駐車)して防犯用処理による監視を始めているのに、正規の手続きを取らずに車両を走行させたという状況に基づいて、車両防犯処理を実行するという点では上述したケースと同様である。ただし、車両が停止していることを、使用処理モード及び防犯用処理の処理内容から判定するのではなく、赤外線画像撮像部210の位置又は方向から判定してもよい。具体的には、図7(A)に示すような場合である。図7(A)には、本来P1の地点で、車両CAに搭載された車載カメラシステムが、住居防犯処理を行って、住居の周辺を監視していたが、盗難者によって車両CAが盗難され、住居防犯処理を終了させないまま、走り去っていってしまった様子を示している。このような場合には、住居防犯処理を継続する必要はなく、車両盗難への対策を講じる必要がある。 As a result, when there is a possibility that the vehicle has been stolen, it is possible to perform vehicle crime prevention processing. Although the vehicle has been stopped (parked) and monitoring by the crime prevention process is being started, the vehicle crime prevention process is executed based on the situation that the vehicle has been run without taking a regular procedure. It is the same. However, it may be determined from the position or direction of the infrared image capturing unit 210 that the vehicle is stopped, not from the processing contents of the use processing mode and the security process. Specifically, this is the case as shown in FIG. In FIG. 7A, the in-vehicle camera system originally mounted on the vehicle CA performed the home crime prevention process and monitored the neighborhood of the residence at the point P1, but the vehicle CA was stolen by the theft. , It shows a situation where he has run away without completing the home crime prevention process. In such a case, it is not necessary to continue the residential crime prevention process, and it is necessary to take measures against vehicle theft.
ここで、住居防犯用の位置又は方向とは、例えば、住居や施設等のドアや窓などユーザーが監視したい場所を撮像することが可能な赤外線画像撮像部210の位置又は方向である。住居防犯用の位置又は方向は、あらかじめ記憶部150等に複数の組み合わせが記憶されており、ユーザーがセレクタスイッチ等を操作して特定し、車載カメラ制御装置100の制御によって、自動で赤外線画像撮像部210を移動させてもよい。他にも、ユーザーが手動で赤外線画像撮像部210の位置又は方向を動かして、配置し、車載カメラ制御装置100に、配置が完了したことを入力してもよい。 Here, the position or direction for home crime prevention is, for example, the position or direction of the infrared image capturing unit 210 that can capture a location that the user wants to monitor, such as a door or window of a house or facility. A plurality of combinations are stored in advance in the storage unit 150 or the like for the position or direction for home crime prevention, and the user operates the selector switch or the like to identify the position or direction, and automatically captures infrared images under the control of the in-vehicle camera control device 100. The unit 210 may be moved. In addition, the user may manually move and arrange the position or direction of the infrared image capturing unit 210 and input to the in-vehicle camera control device 100 that the arrangement has been completed.
具体例を図6(A)に示す。図6(A)は、第2処理モード(防犯モード)が設定されている場合の処理の様子を表すものであり、車両CAが住居の前の駐車上に駐車されている様子を示している。図6(A)では、住居等へ侵入者が侵入する可能性が高いドアDRや窓WDを撮像が撮像できるように、赤外線画像撮像部210の位置及び方向が調整されている。 A specific example is shown in FIG. FIG. 6A shows a state of processing when the second processing mode (security mode) is set, and shows a state where the vehicle CA is parked on the parking in front of the residence. . In FIG. 6A, the position and direction of the infrared image capturing unit 210 are adjusted so that the image can be captured of the door DR and the window WD where an intruder is likely to enter a residence or the like.
また、処理部120は、住居防犯処理では可視画像撮像部220を動作オフ状態に設定し、車両防犯処理では可視画像撮像部220を動作オン状態に設定してもよい。 In addition, the processing unit 120 may set the visible image capturing unit 220 to the operation-off state in the residential crime prevention process, and may set the visible image capturing unit 220 to the operation-on state in the vehicle crime prevention process.
これにより、住居防犯処理が実行されている場合に、不要な可視画像撮像部220を動作オフ状態にし、消費電力を抑える一方で、車両防犯処理では可視画像撮像部220を動作オン状態にして、現在車両が位置する場所を撮像し、ユーザーに提示すること等が可能になる。車両が盗難にあった場合には、ユーザー等に車両の現在位置を通知する必要がある。そのためには、一見して場所の判別がつきやすい可視画像の方が、赤外線画像よりも有用であるためである。具体例を図7(B)に示す。可視画像撮像部220を動作オン状態に設定することで、図7(B)に示したような可視画像を取得することが可能になる。可視画像撮像部220が車両に設けられている以上、取得される可視画像は車両の現在位置に対応した位置(例えば車両の前方等)を撮像した画像となる。よって、可視画像を取得することにより、盗難された車両の位置を推定することができる。特に、図7(B)のように地名や施設等を表す看板などが撮像されていれば、容易に位置を特定することが可能である。なお、取得した可視画像を車両内のディスプレイに表示しても、ユーザー等に伝わることが無く利点は少ない。よってこの場合には、何らかの通信手段を用いて外部機器に対して可視画像の情報を送信することが望ましい。外部機器としては例えば、ユーザーの所有する携帯電話等が考えられる。また、車載カメラシステムが通信手段を有する場合には、外部機器に対して送信される情報は可視画像に限定されるものではなく、図7(C)に示したように文字情報であってもよい。 Thereby, when the residential crime prevention process is being performed, while the unnecessary visible image capturing unit 220 is turned off and power consumption is reduced, the visible image capturing unit 220 is turned on in the vehicle crime prevention process, The location where the vehicle is currently located can be imaged and presented to the user. When the vehicle is stolen, it is necessary to notify the user or the like of the current position of the vehicle. This is because a visible image that can be easily identified at first glance is more useful than an infrared image. A specific example is shown in FIG. By setting the visible image capturing unit 220 to the operation-on state, it is possible to acquire a visible image as illustrated in FIG. Since the visible image capturing unit 220 is provided in the vehicle, the acquired visible image is an image obtained by capturing a position corresponding to the current position of the vehicle (for example, in front of the vehicle). Therefore, the position of the stolen vehicle can be estimated by acquiring a visible image. In particular, if a signboard representing a place name, a facility, or the like is captured as shown in FIG. 7B, the position can be easily specified. Even if the acquired visible image is displayed on the display in the vehicle, it is not transmitted to the user or the like, and there are few advantages. Therefore, in this case, it is desirable to transmit visible image information to an external device using some communication means. As the external device, for example, a mobile phone owned by the user can be considered. When the in-vehicle camera system has communication means, the information transmitted to the external device is not limited to a visible image, and may be character information as shown in FIG. Good.
また、振動検出部(例えばセンサー240)は、画像取得部110で取得される画像において生じる、車両走行時の振動による画像ブレの補正用の振動検出部であってもよい。そして処理部120は、振動検出部からの振動検出情報に基づいて、使用処理モードの設定処理を行う。 In addition, the vibration detection unit (for example, the sensor 240) may be a vibration detection unit for correcting image blur caused by vibration during traveling of the vehicle that occurs in the image acquired by the image acquisition unit 110. And the process part 120 performs the setting process of a use process mode based on the vibration detection information from a vibration detection part.
これにより、共通の振動検出部(センサー240)を用いて、使用処理モードの設定処理(例えば第1処理モードに設定するか第2処理モードに設定するかの判定、つまり例えば走行状態か否かの判定等)とともに、画像ブレの補正を行うことが可能になる。図2に示したように、赤外線画像撮像部210も可視画像撮像部220も車両に搭載される。そのため、車両が振動すると撮像部も振動することになり、取得する画像にもブレが生じることになる。ブレが生じた画像はユーザーにとって見づらい画像となるため、ブレを補正することが好ましい。この際、ブレが車両の振動により生じていることが想定されるため、振動の程度がわかれば画像ブレ補正が可能になる。使用処理モードの設定処理用の振動検出部は、撮像部と同様に車両に搭載されているため、撮像部における振動を検出することができるのであるから、当該振動検出部を画像ブレ補正においても用いることが可能である。これにより、2つの処理においてそれぞれ別の振動検出部を用意する必要が無くなるため、構成を簡略化することができる。 Thereby, using the common vibration detection unit (sensor 240), determination of whether to set the usage processing mode (for example, whether to set the first processing mode or the second processing mode, that is, for example, whether it is a running state) Etc.) and image blur correction can be performed. As shown in FIG. 2, both the infrared image capturing unit 210 and the visible image capturing unit 220 are mounted on the vehicle. For this reason, when the vehicle vibrates, the imaging unit also vibrates, and blurring occurs in the acquired image. Since an image with blurring is an image that is difficult for the user to see, it is preferable to correct the blurring. At this time, since it is assumed that the blur is caused by the vibration of the vehicle, the image blur correction can be performed if the degree of the vibration is known. Since the vibration detection unit for use processing mode setting processing is mounted on the vehicle in the same manner as the imaging unit, it can detect vibrations in the imaging unit. It is possible to use. This eliminates the need to prepare separate vibration detection units for the two processes, thereby simplifying the configuration.
また、振動検出部は、車両を駆動するモーターの振動を検出してもよい。 The vibration detection unit may detect vibration of a motor that drives the vehicle.
これにより、振動検出部によりモーターの振動を検出することが可能になる。例えばガソリン等を用いた動力と、電力とを併用するハイブリッドカー等において、電力により駆動する電動モーターに振動検出部を設けることで、モーターの振動を検出する。車両の走行時には、エンジンが駆動することによる振動や、路面から受ける振動等、複数の要因による振動が生じるが、振動検出部をモーターに設置することにより、モーターの駆動による振動を検出することができる。例えば、モーターは大きなトルクが必要な発進時・加速時に用いることが考えられ、その場合には大きな動力を得るために激しく振動する。これは、速度が十分得られた後の走行時とは明確に区別が可能である。よって、振動検出部によりモーターの振動を検出することで、車両が走行中か否かだけでなく、発進・加速時なのか否かの判定を行うことができることになり、発進・加速時とそれ以外とで異なる使用処理モードを設定し、それぞれに応じた適切な処理を行うことも可能になる。 As a result, the vibration of the motor can be detected by the vibration detector. For example, in a hybrid car or the like that uses motive power using gasoline or the like in combination with electric power, the vibration of the motor is detected by providing a vibration detection unit in an electric motor driven by electric power. When the vehicle is running, vibrations due to multiple factors, such as vibrations caused by driving the engine and vibrations received from the road surface, can be detected, but vibrations caused by driving the motor can be detected by installing a vibration detector on the motor. it can. For example, the motor may be used at the time of starting / acceleration requiring a large torque, and in that case, the motor vibrates violently to obtain a large power. This can be clearly distinguished from the driving after sufficient speed has been obtained. Therefore, by detecting the vibration of the motor by the vibration detection unit, it is possible to determine not only whether the vehicle is running but also whether it is starting or accelerating. It is also possible to set different usage processing modes for those other than those and perform appropriate processing according to each.
なお、本実施形態の車載カメラ制御装置等は、プログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の車載カメラ制御装置等が実現される。具体的には情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そしてCPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。 Note that the in-vehicle camera control device of this embodiment may be realized by a program. In this case, the in-vehicle camera control device according to the present embodiment is realized by a processor such as a CPU executing a program. Specifically, a program stored in the information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes of this embodiment based on a program (data) stored in the information storage medium. That is, the information storage medium includes a program (a program for causing the computer to execute the processing of each unit) for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment. Remembered.
3.処理の流れ
以下では、図8のフローチャートを用いて、本実施形態の処理の流れについて説明する。なお、ここでは第1処理モード及び第2処理モードとして、走行モード及び防犯モードを想定している。
3. Processing Flow Hereinafter, the processing flow of this embodiment will be described with reference to the flowchart of FIG. Here, as the first processing mode and the second processing mode, a traveling mode and a crime prevention mode are assumed.
まず、ステップ1(S1)において、処理に必要なパラメータの初期設定を行う。次に、ステップ2(S2)において、車体の状態を把握するために、車体の振動を検出する。もし振動を検出したならば、車体が走行中又は停車中であり、振動が検出されなければ、駐車中と判断する。 First, in step 1 (S1), parameters necessary for processing are initialized. Next, in step 2 (S2), in order to grasp the state of the vehicle body, vibration of the vehicle body is detected. If vibration is detected, the vehicle is running or stopped, and if vibration is not detected, it is determined that the vehicle is parked.
車体の振動を検出した場合、赤外線画像撮像部210により車体進行方向前方を撮像して、熱画像を処理領域に取り込む(S3)。ここで、赤外線画像撮像部210は、検出対象物として人体を含めて考える場合には、8〜12μmの遠赤外線波長域に感度を有するものであれば良く、より遠距離の感度を得るため、焦電型赤外線センサーカメラであればなおさら良い。 When vibration of the vehicle body is detected, the infrared image capturing unit 210 captures the front in the vehicle body traveling direction, and captures a thermal image in the processing region (S3). Here, when the infrared image capturing unit 210 includes a human body as a detection target, it is sufficient that the infrared imaging unit 210 has sensitivity in a far infrared wavelength region of 8 to 12 μm. A pyroelectric infrared sensor camera is even better.
そして、ステップ4(S4)において、可視画像撮像部220により車体進行方向前方を撮像して、可視画像を処理領域に取り込む。ここで、可視画像撮像部220は、撮像素子としてCCDやCMOSを用いているもので良く、また、白黒カメラでもカラーカメラでも構わない。可視画像は、白黒カメラを使う場合は濃淡画像、カラーカメラを使う場合は色画像である。本実施形態では、可視画像撮像部220として、色情報が取得できるカラーカメラを用いた場合について説明する。なお、ステップ3(S3)およびステップ4(S4)の順序は、ステップ間の間隔が短ければ、どちらが先でも構わない。また、場合によっては両方を並列に処理してしまうことも可能である。 In step 4 (S4), the visible image capturing unit 220 images the front in the vehicle body traveling direction, and captures the visible image in the processing region. Here, the visible image capturing unit 220 may use a CCD or CMOS as an image sensor, and may be a monochrome camera or a color camera. The visible image is a gray image when a monochrome camera is used, and a color image when a color camera is used. In this embodiment, a case where a color camera capable of acquiring color information is used as the visible image capturing unit 220 will be described. In addition, as for the order of step 3 (S3) and step 4 (S4), as long as the space | interval between steps is short, whichever is first. In some cases, both may be processed in parallel.
次に、ステップ5(S5)では、ステップ3(S3)で得られた熱画像から候補領域を抽出する。すなわち、対象物の特徴を表す温度領域を塊として抽出する。本実施形態においては、検出対象物を先行車および歩行者(人物)として説明するものとする。これ以外のものを検出の対象とする場合には、その対象が有する温度情報を特徴量として、それぞれ本ステップにおいて処理対象に加えればよい。 Next, in step 5 (S5), candidate areas are extracted from the thermal image obtained in step 3 (S3). That is, the temperature region representing the feature of the object is extracted as a lump. In the present embodiment, the detection target object is described as a preceding vehicle and a pedestrian (person). When a target other than this is set as a detection target, the temperature information of the target may be added as a feature amount to the processing target in this step.
まず、先行車体の場合は、マフラー領域が100℃程度の高温になることを利用して、熱画像中から例えば80℃以上の温度情報を有する領域を探索して、その領域の位置情報と温度情報を検出する。一方、歩行者の場合は、露出している顔の表面温度が30℃程度の中温になることを利用して、熱画像中から例えば30℃程度の温度情報を有する領域を探索して、その領域の位置情報と温度情報を検出する。ここで、各領域で検出される結果のうち、位置情報としては例えば塊の重心座標位置とすればよく、温度情報としては例えば塊の平均温度とすればよい。そして、ステップ6(S6)では、ステップ5(S5)で得られた各領域の位置情報と温度情報を対応付けした位置および温度リストを作成して以降の処理に進む。 First, in the case of a preceding vehicle body, using the fact that the muffler region becomes a high temperature of about 100 ° C., a region having temperature information of, for example, 80 ° C. or more is searched from the thermal image, and the position information and temperature of that region are searched. Detect information. On the other hand, in the case of a pedestrian, by utilizing the fact that the surface temperature of the exposed face becomes a medium temperature of about 30 ° C., a region having temperature information of about 30 ° C. is searched from the thermal image, The position information and temperature information of the area are detected. Here, among the results detected in each region, the position information may be, for example, the barycentric coordinate position of the lump, and the temperature information may be, for example, the average temperature of the lump. In step 6 (S6), a position and temperature list in which the position information and temperature information of each region obtained in step 5 (S5) are associated is created, and the process proceeds to the subsequent processes.
次に、ステップ7(S7)では、ステップ6(S6)で作成したリストに基づいて、検出対象である先行車や歩行者の特徴量を示す温度情報が抽出されているかどうかを判定する。リスト内に対象物の候補が一つも抽出されていない場合には、今回の赤外線画像撮像部210による撮像画像の中には検出対象である先行車や歩行者が存在しないものと判断して、次回の処理のためにステップ3(S3)に戻る。一方、リスト内に対象物の候補が一つ以上抽出されている場合には次のステップ(S8)に進んで、可視画像中からの対象物の検出を行う。 Next, in step 7 (S7), based on the list created in step 6 (S6), it is determined whether or not temperature information indicating the feature amount of the preceding vehicle or pedestrian that is the detection target is extracted. If no candidate object is extracted in the list, it is determined that there is no preceding vehicle or pedestrian as a detection target in the image captured by the infrared image capturing unit 210 this time, Return to Step 3 (S3) for the next processing. On the other hand, if one or more candidate objects are extracted from the list, the process proceeds to the next step (S8) to detect the object from the visible image.
そして、ステップ8(S8)では、ステップ6(S6)で作成したリストに基づいて、対象物の検出処理を行う検出領域を可視画像中に設定する。次に、ステップ9(S9)では、ステップ8(S8)で設定した検出領域について、テンプレートマッチング処理に用いるテンプレートを選択する。このテンプレート選択処理について、図9を用いて説明する。 In step 8 (S8), based on the list created in step 6 (S6), a detection area for subject detection processing is set in the visible image. Next, in step 9 (S9), a template used for the template matching process is selected for the detection region set in step 8 (S8). This template selection process will be described with reference to FIG.
まず、ステップ801(S801)において、ステップ6(S6)で作成したリストの温度情報に基づいて、以降の処理で用いるためのテンプレート候補を選択する。具体的には、その候補領域の平均温度情報±ΔTの範囲内の値を持つテンプレートを一つの候補領域内での対象物検出に用いるテンプレート候補とするものである。先行車存在候補領域に用いるテンプレートとして選択されるのは、例えばテンプレートがもつ温度情報が100±3℃となる。ただし、高温部分については、通常の走行環境内では特殊な存在であるため、あらかじめ例えば80℃以上の領域をテンプレートとして選択しても良い。一方、歩行者存在候補領域に用いるテンプレートとして選択されるのは、例えばテンプレートがもつ温度情報が28±3℃となる。高温部分については、外気温の影響を受けること等を考えると、同一の物体でも所定の範囲では温度が変化することを考慮する必要がある。また、今回の例では中温情報を有する対象物を歩行者としているが、例えば動物(犬等)と区別するためには、本ステップで動物のテンプレートも候補として選択されてもよい。 First, in step 801 (S801), based on the temperature information in the list created in step 6 (S6), a template candidate to be used in subsequent processing is selected. Specifically, a template having a value within the range of the average temperature information ± ΔT of the candidate area is set as a template candidate used for detecting an object in one candidate area. For example, the temperature information of the template is 100 ± 3 ° C. to be selected as the template used for the preceding vehicle presence candidate region. However, since the high temperature portion is special in a normal driving environment, an area of 80 ° C. or higher may be selected as a template in advance. On the other hand, the template used for the pedestrian presence candidate region is, for example, the temperature information of the template is 28 ± 3 ° C. Considering that the high temperature part is affected by the outside air temperature, it is necessary to consider that the temperature of the same object changes within a predetermined range. In this example, an object having medium temperature information is a pedestrian, but an animal template may be selected as a candidate in this step in order to distinguish it from an animal (such as a dog).
次に、ステップ802(S802)において、ステップ7(S7)で設定された検出領域毎に、可視画像から特徴量として濃度情報(濃淡情報)および色情報を抽出する。例えば白黒カメラの場合は、濃度情報のみになるが、濃度情報から平均濃度値や濃度ヒストグラムのピークを有する濃度値、またはエッジ情報を利用して、検出領域内の対象物の大きさや種類を推定できる特徴量を抽出するようにすればよい。また、例えばカラーカメラの場合は、濃度情報に加えて色情報が得られるので、検出領域内に先行車体のテールランプに相当する赤い領域が存在するかどうか等を抽出するようにすればよい。 Next, in step 802 (S802), for each detection area set in step 7 (S7), density information (light / dark information) and color information are extracted from the visible image as feature amounts. For example, in the case of a black-and-white camera, only the density information is obtained, but the size and type of the object in the detection area are estimated from the density information using density values having an average density value or a density histogram peak or edge information. What is necessary is just to extract the feature-value which can be performed. Further, for example, in the case of a color camera, color information is obtained in addition to density information. Therefore, it is only necessary to extract whether or not a red region corresponding to the tail lamp of the preceding vehicle body exists in the detection region.
そして、ステップ803(S803)において、ステップ801(S801)およびステップ802(S802)の結果に基づいて、可視画像中に設定された検出領域毎に最適なテンプレートを決定し、テンプレートを用いて、可視画像中でテンプレートマッチング処理を行う。 In step 803 (S803), an optimal template is determined for each detection region set in the visible image based on the results of step 801 (S801) and step 802 (S802). Perform template matching in the image.
すなわち、図8のステップ10(S10)では、ステップ8(S8)で選択されたテンプレートを用いて、可視画像中でテンプレートマッチング処理を行い、各検出領域内での最終的な対象物の有無およびその位置を検出する。ステップ9(S9)において、先行車存在候補領域については車体テンプレートが選択され、歩行者存在候補領域については人テンプレートが選択されている。本ステップでは、先行車存在候補領域から先行車を検出する場合には、車体テンプレートを用いて、先行車存在候補領域と車体テンプレートでの濃度値(濃淡値)の相関演算によって先行車体の有無とその詳細な位置を検出する。また、歩行者存在候補領域から歩行者を検出する場合には、歩行者存在候補領域と人テンプレートでの濃度値の相関演算によって歩行者の有無とその詳細な位置を検出する。本実施形態では、テンプレートマッチング処理を濃度値での相関演算で行っているが、これに限定されるものではなく、例えばエッジ画像をテンプレートとして持っておき、この相関値で最終的な対象物の有無とその位置を検出するようにしても構わない。 That is, in step 10 (S10) in FIG. 8, template matching processing is performed in the visible image using the template selected in step 8 (S8), and the presence or absence of the final target object in each detection region and The position is detected. In step 9 (S9), a vehicle body template is selected for the preceding vehicle presence candidate region, and a person template is selected for the pedestrian presence candidate region. In this step, when the preceding vehicle is detected from the preceding vehicle presence candidate area, the presence / absence of the preceding vehicle is determined by the correlation calculation of the density value (gray value) in the preceding vehicle existence candidate area and the body template using the body template. The detailed position is detected. Further, when detecting a pedestrian from the pedestrian presence candidate area, the presence / absence of the pedestrian and its detailed position are detected by correlation calculation between the pedestrian existence candidate area and the density value in the human template. In this embodiment, the template matching process is performed by correlation calculation using density values. However, the present invention is not limited to this. For example, an edge image is held as a template, and the final target object is determined by this correlation value. The presence / absence and its position may be detected.
次に、ステップ11(S11)では、ステップ6(S6)で作成されたリストにある領域の全てに対して検出処理が行われたかどうかを判定する。リストにある領域全ての処理が終了していなければ、処理領域を切り替えるために、ステップ8(S8)に戻り、検出領域の設定を行う。リストにある領域全ての処理が終了していれば、それまでの処理結果を出力するために次のステップへ進む。 Next, in step 11 (S11), it is determined whether or not the detection process has been performed for all the areas in the list created in step 6 (S6). If all the areas in the list have not been processed, the process returns to step 8 (S8) to set the detection area in order to switch the processing area. If the processing for all the areas in the list has been completed, the process proceeds to the next step in order to output the processing results up to that point.
最後に、ステップ12(S12)では、提示部230等に対して検出結果を出力して、次回以降の処理を行うためにステップ2(S2)へ戻る。具体的には、例えばステアリングやアクセルやブレーキ等の制御を行うために、又は例えば歩行者の有無や衝突危険性などの警報を発するため、本処理の検出結果を警報又は画像として提示部230において提示する。 Finally, in step 12 (S12), the detection result is output to the presentation unit 230 and the like, and the process returns to step 2 (S2) to perform the subsequent processing. Specifically, in order to control, for example, steering, accelerator, brake, etc., or to issue an alarm such as the presence or absence of a pedestrian or the risk of collision, the detection result of this process is displayed as an alarm or image in the presentation unit 230. Present.
次に、車体が住居に停車し、住居の防犯に使用する方法について、説明する。ステップ2(S2)において、もし振動がなければ、停車中と判断され、ステップ13(S13)において、赤外線カメラ及び可視カメラの駆動が停止される。ステップ14(S14)において、赤外線カメラのみを、事前に設定された画像取得領域を撮像可能な状態になるように回転させる。また、赤外線カメラは手動にて向きが設定されてもよい。ステップ15(S15)及びステップ16(S16)において、タイマーが設定され、一定時間経過後、赤外線カメラが駆動し、設定された前方を撮像し、熱画像の初期画面を取得する(S17)。タイマーが設定されているのは、赤外線カメラを住居に向けて設定しても、すぐに画像を取得する必要はなく、一定時間経過に画像取得を開始しても十分警戒が可能であるからである。 Next, a description will be given of a method in which the vehicle body stops at the residence and is used for crime prevention in the residence. In step 2 (S2), if there is no vibration, it is determined that the vehicle is stopped. In step 13 (S13), driving of the infrared camera and the visible camera is stopped. In step 14 (S14), only the infrared camera is rotated so that a preset image acquisition region can be imaged. The direction of the infrared camera may be manually set. In step 15 (S15) and step 16 (S16), a timer is set, and after a predetermined time has passed, the infrared camera is driven to capture the set front and obtain an initial screen of the thermal image (S17). The timer is set because it is not necessary to acquire an image immediately even if the infrared camera is set to the house, and it is possible to be vigilant even if image acquisition is started after a certain period of time. is there.
また通常は、住居の防犯を検知する場所としては、窓及び扉等が考えられる。ここで、侵入者として人を検知する場合には、8〜12μmの遠赤外線波長域に感度を有するものであればよく、車体設置の赤外線カメラと共用可能であって問題はない。さらに、車体の走行途中の歩行者の検知に比べ、住居の防犯の検知は、背景画像が固定であり、侵入者の有無だけを検知するだけで良いため、画像処理が非常に簡単にすむ。また、撮像時間も、侵入者の動きも歩行者にくらべ遅いため、間引き撮像が可能で、撮像時の電気消費量も少なくすむ。 In general, a window, a door, or the like can be considered as a place for detecting crime prevention in a house. Here, when detecting a person as an intruder, any person having sensitivity in the far-infrared wavelength region of 8 to 12 μm may be used, and it can be shared with the infrared camera installed on the vehicle body, and there is no problem. Furthermore, compared to detection of pedestrians while the vehicle is traveling, the detection of crime prevention in the house has a fixed background image and only needs to detect the presence or absence of an intruder, so that image processing is very simple. In addition, since the imaging time and the movement of the intruder are slower than those of the pedestrians, thinned imaging is possible, and the amount of electricity consumed during imaging is reduced.
そして、ステップ17(S17)において、一定時間経過後、赤外線カメラにより前方を撮像し、画像を取り込む。ここで、赤外線カメラの感度は落としても構わない。車体と目的物(窓・扉)の距離も近いこと、背景部と侵入者の画像の重なりによる、輪郭のボケも少ないことの理由によるものである。さらにステップ18(S18)において、時刻t+iでの熱画像を取り込む。 In step 17 (S17), after a predetermined time has elapsed, the front is imaged by the infrared camera, and the image is captured. Here, the sensitivity of the infrared camera may be reduced. This is because the distance between the vehicle body and the object (window / door) is short, and there is little blurring of the outline due to the overlap of the background portion and the image of the intruder. Further, in step 18 (S18), a thermal image at time t + i is captured.
次に、ステップ19(S19)では、ステップ17(S17)で得られた熱画像とステップ18(S18)の熱画像の温度特徴量の比較を行う。一般に、侵入者の場合は、露出している顔の表面温度が30℃程度の中温になることを利用して、熱画像中から例えば30℃程度の温度情報を有する領域を探索して、温度情報の有無を検出する。もし、温度情報が無であれば、ステップ21(S21)において、赤外線カメラが初期位置(走行時に用いられる歩行者検出位置)であるかの判定し、初期値でなければ侵入者検出位置にある、つまり防犯モードによる処理を行っているということであるから、防犯処理を継続し、再度数秒後熱画像を撮像する。 Next, in step 19 (S19), the temperature feature amount of the thermal image obtained in step 17 (S17) and the thermal image in step 18 (S18) are compared. In general, in the case of an intruder, by utilizing the fact that the surface temperature of the exposed face is about 30 ° C., a region having temperature information of about 30 ° C. is searched from the thermal image, and the temperature Detect the presence of information. If there is no temperature information, it is determined in step 21 (S21) whether the infrared camera is in the initial position (pedestrian detection position used during traveling). If it is not the initial value, it is in the intruder detection position. In other words, since the processing in the security mode is being performed, the security processing is continued and a thermal image is taken again after several seconds.
ステップ21(S21)で、赤外線カメラが初期位置に変更されていれば、ステップ1(S1)に戻り、初期の設定から始められる。また、ステップ19(S19)において、2つの熱画像の比較処理から、侵入者の表面温度30℃程度の領域を検出できたなら、ステップ20(S20)では、提示部230等に対して検出結果を出力して、次回以降の処理を行うステップ1(S1)へ戻る。 If the infrared camera has been changed to the initial position in step 21 (S21), the process returns to step 1 (S1) to start from the initial setting. In step 19 (S19), if a region having an intruder surface temperature of about 30 ° C. can be detected from the comparison processing of the two thermal images, in step 20 (S20), the detection result is displayed on the presentation unit 230 and the like. Is output, and the process returns to Step 1 (S1) where the subsequent processing is performed.
この構成であれば、深夜の車両盗難が発生した場合、ステップ19(S19)にて、画像の差異が大幅に出るため、提示部230や外部に接続されている機器に対して、検出結果が出力され、車両の窃盗を検知可能である。また、盗難後はS2において振動が検出されることが想定され、その場合走行モードでの処理が行われることから、赤外線カメラがリセットされ、可視カメラと赤外線カメラが同時に駆動し、現在走行位置に対応する可視画像等を取得することが可能である。なお、上述したように可視画像は外部機器に対して送信されることが望ましい。 With this configuration, when a vehicle theft occurs at midnight, the difference in the image is greatly generated in step 19 (S19), so that the detection result is obtained for the presentation unit 230 or an externally connected device. It is output and the vehicle theft can be detected. Further, after the theft, it is assumed that vibration is detected in S2, and in that case, processing in the running mode is performed, so the infrared camera is reset, the visible camera and the infrared camera are simultaneously driven, and the current running position is reached. A corresponding visible image or the like can be acquired. As described above, it is desirable that the visible image is transmitted to the external device.
以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configurations and operations of the in-vehicle camera control device, the in-vehicle camera control system, and the in-vehicle camera system are not limited to those described in the present embodiment, and various modifications can be made.
100 車載カメラ制御装置、110 画像取得部、120 処理部、
130 振動検出情報取得部、150 記憶部、200 車載カメラシステム、
210 赤外線画像撮像部、220 可視画像撮像部、230 提示部、
240 センサー、410 赤外線カメラ、420 電動モーター、
430 可視カメラ、440 電動モーター、460 ジャイロセンサー、
470 メモリー、490 ディスプレイ
100 on-vehicle camera control device, 110 image acquisition unit, 120 processing unit,
130 vibration detection information acquisition unit, 150 storage unit, 200 in-vehicle camera system,
210 infrared image capturing unit, 220 visible image capturing unit, 230 presenting unit,
240 sensors, 410 infrared cameras, 420 electric motors,
430 Visible camera, 440 Electric motor, 460 Gyro sensor,
470 memory, 490 display
Claims (17)
振動検出部からの振動検出情報を取得する振動検出情報取得部と、
前記赤外線画像データに基づく処理を行う処理部と、
を含み、
前記処理部は、
第1処理モードと、前記第1処理モードより前記赤外線画像データに基づく処理の実行レートが低い第2処理モードを含む複数の処理モードのうちから、前記振動検出情報に基づき1つの処理モードを使用処理モードとして設定し、設定された前記使用処理モードに従って、前記赤外線画像データに基づいて対象物の検出処理を実行することを特徴とする車載カメラ制御装置。 An image acquisition unit for acquiring infrared image data from the infrared image capturing unit;
A vibration detection information acquisition unit for acquiring vibration detection information from the vibration detection unit;
A processing unit for performing processing based on the infrared image data;
Including
The processor is
One processing mode is used based on the vibration detection information from among a plurality of processing modes including a first processing mode and a second processing mode having a lower execution rate of processing based on the infrared image data than the first processing mode. An in-vehicle camera control device, which is set as a processing mode and executes object detection processing based on the infrared image data according to the set use processing mode.
前記処理部は、
前記振動検出情報に基づいて振動が非検出であると判定された場合には、前記使用処理モードを前記第2処理モードに設定し、前記赤外線画像データに基づく防犯用処理を行うことを特徴とする車載カメラ制御装置。 In claim 1,
The processor is
When it is determined that vibration is not detected based on the vibration detection information, the use processing mode is set to the second processing mode, and security processing based on the infrared image data is performed. In-vehicle camera control device.
前記処理部は、
前記振動検出情報に基づいて振動が検出されたと判定された場合には、前記使用処理モードを前記第1処理モードに設定し、前記赤外線画像データに基づいて前記対象物が検出されたか否かを表すアラート表示情報を生成し、前記アラート表示情報を含む表示用画像データを生成することを特徴とする車載カメラ制御装置。 In claim 2,
The processor is
When it is determined that vibration is detected based on the vibration detection information, the use processing mode is set to the first processing mode, and whether or not the object is detected based on the infrared image data is determined. An in-vehicle camera control device that generates alert display information to be displayed and generates display image data including the alert display information.
前記画像取得部は、
可視画像データを可視画像撮像部から取得し、
前記処理部は、
前記可視画像データに対して前記アラート表示情報を付加することで、前記表示用画像データを生成することを特徴とする車載カメラ制御装置。 In claim 3,
The image acquisition unit
Visible image data is acquired from the visible image capturing unit,
The processor is
The in-vehicle camera control device, wherein the display image data is generated by adding the alert display information to the visible image data.
前記処理部は、
前記振動検出情報に基づいて振動が非検出であると判定された場合には、前記可視画像撮像部を動作オフ状態又は省電力状態に設定することを特徴とする車載カメラ制御装置。 In claim 4,
The processor is
An in-vehicle camera control device, wherein when it is determined that vibration is not detected based on the vibration detection information, the visible image capturing unit is set to an operation off state or a power saving state.
前記処理部は、
前記使用処理モードが前記第2処理モードに設定されている場合には、前記使用処理モードが前記第1処理モードに設定されている場合に比べて、前記画像取得部における前記赤外線画像データの取得レートを低く設定することを特徴とする車載カメラ制御装置。 In any one of Claims 1 thru | or 5,
The processor is
When the usage processing mode is set to the second processing mode, the infrared image data is acquired by the image acquisition unit compared to when the usage processing mode is set to the first processing mode. An in-vehicle camera control device characterized in that the rate is set low.
前記画像取得部は、
前記使用処理モードが前記第2処理モードに設定されている場合には、前記使用処理モードが前記第1処理モードに設定されている場合とは異なる位置又は方向に設定された前記赤外線画像撮像部により前記赤外線画像データを取得することを特徴とする車載カメラ制御装置。 In any one of Claims 1 thru | or 6.
The image acquisition unit
When the usage processing mode is set to the second processing mode, the infrared image capturing unit set to a position or direction different from that when the usage processing mode is set to the first processing mode The in-vehicle camera control device is characterized in that the infrared image data is acquired by the above.
前記処理部は、
前記使用処理モードが前記第2処理モードに設定されている場合に、前記使用処理モードが前記第1処理モードに設定されている場合に用いられるテンプレートを用いて前記対象物の検出処理を行うことを特徴とする車載カメラ制御装置。 In any one of Claims 1 thru | or 7,
The processor is
When the use process mode is set to the second process mode, the object is detected using a template used when the use process mode is set to the first process mode. An in-vehicle camera control device.
前記画像取得部は、
所与の時間間隔ごとに前記赤外線画像データを取得し、
前記処理部は、
第1のタイミングで取得された第1の赤外線画像データと、前記第1のタイミングとは異なる第2のタイミングで取得された第2の赤外線画像データとの比較処理を含む前記防犯用処理を行うことを特徴とする車載カメラ制御装置。 In any of claims 2 to 8,
The image acquisition unit
Acquiring the infrared image data at given time intervals;
The processor is
The security process including a comparison process between the first infrared image data acquired at the first timing and the second infrared image data acquired at a second timing different from the first timing is performed. An in-vehicle camera control device.
前記処理部は、
前記振動検出情報に基づいて振動が非検出であると判定された場合には、前記赤外線画像撮像部を動作オフ状態に設定し、所与の時間経過後に前記防犯用処理を行うことを特徴とする車載カメラ制御装置。 In any one of Claims 2 thru | or 9.
The processor is
When it is determined that vibration is not detected based on the vibration detection information, the infrared image capturing unit is set to an operation-off state, and the security process is performed after a given time has elapsed. In-vehicle camera control device.
前記防犯用処理は、住居防犯処理と、車両防犯処理を有し、
前記処理部は、
前記使用処理モードが前記第2処理モードに設定されて、前記防犯用処理として前記住居防犯処理を実行中に前記振動検出情報に基づいて振動が検出されたと判定された場合には、前記防犯用処理を前記車両防犯処理に切り替えることを特徴とする車載カメラ制御装置。 In any of claims 2 to 10,
The security process includes a residential security process and a vehicle security process,
The processor is
When the use processing mode is set to the second processing mode and it is determined that vibration is detected based on the vibration detection information while the residential security processing is being executed as the security processing, the security processing A vehicle-mounted camera control device characterized by switching processing to the vehicle crime prevention processing.
前記処理部は、
前記赤外線画像撮像部が住居防犯用の位置又は方向に設定されており、且つ、前記振動検出情報に基づいて振動が検出されたと判定された場合には、前記防犯用処理として前記車両防犯処理を実行することを特徴とする車載カメラ制御装置。 In claim 11,
The processor is
When it is determined that the infrared image capturing unit is set in the position or direction for residential crime prevention and vibration is detected based on the vibration detection information, the vehicle crime prevention process is performed as the crime prevention process. An in-vehicle camera control device characterized by being executed.
前記画像取得部は、
可視画像データを可視画像撮像部から取得し、
前記処理部は、
前記住居防犯処理では前記可視画像撮像部を動作オフ状態に設定し、前記車両防犯処理では前記可視画像撮像部を動作オン状態に設定することを特徴とする車載カメラ制御装置。 In claim 11 or 12,
The image acquisition unit
Visible image data is acquired from the visible image capturing unit,
The processor is
The in-vehicle camera control device characterized in that the visible image capturing unit is set in an operation-off state in the residential crime prevention process, and the visible image capturing unit is set in an operation-on state in the vehicle security process.
前記振動検出部は、
前記画像取得部で取得される画像において生じる、車両の走行時の振動による画像ブレの補正用の振動検出部であり、
前記処理部は、
前記振動検出部からの前記振動検出情報に基づいて前記使用処理モードの設定処理を行うことを特徴とする車載カメラ制御装置。 In any one of Claims 1 thru | or 13.
The vibration detector is
A vibration detection unit for correcting image blur caused by vibrations during running of the vehicle, which occurs in an image acquired by the image acquisition unit;
The processor is
An in-vehicle camera control device that performs setting processing of the use processing mode based on the vibration detection information from the vibration detection unit.
前記振動検出部は、
車両を駆動するモーターの振動を検出することを特徴とする車載カメラ制御装置。 In any one of Claims 1 thru | or 14.
The vibration detector is
A vehicle-mounted camera control device that detects vibrations of a motor that drives a vehicle.
振動検出部からの振動検出情報を取得する振動検出情報取得部と、
前記赤外線画像データに基づく処理を行う処理部と、
を含み、
前記処理部は、
第1処理モードと、前記第1処理モードより前記赤外線画像データに基づく処理の実行レートが低い第2処理モードを含む複数の処理モードのうちから、前記振動検出情報に基づき1つの処理モードを使用処理モードとして設定し、設定された前記使用処理モードに従って、前記赤外線画像データに基づいて対象物の検出処理を実行することを特徴とする車載カメラ制御システム。 An image acquisition unit for acquiring infrared image data from the infrared image capturing unit;
A vibration detection information acquisition unit for acquiring vibration detection information from the vibration detection unit;
A processing unit for performing processing based on the infrared image data;
Including
The processor is
One processing mode is used based on the vibration detection information from among a plurality of processing modes including a first processing mode and a second processing mode having a lower execution rate of processing based on the infrared image data than the first processing mode. A vehicle-mounted camera control system that is set as a processing mode, and that performs an object detection process based on the infrared image data in accordance with the set use processing mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011178729A JP2013041483A (en) | 2011-08-18 | 2011-08-18 | On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011178729A JP2013041483A (en) | 2011-08-18 | 2011-08-18 | On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013041483A true JP2013041483A (en) | 2013-02-28 |
Family
ID=47889799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011178729A Withdrawn JP2013041483A (en) | 2011-08-18 | 2011-08-18 | On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013041483A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104176004A (en) * | 2014-08-07 | 2014-12-03 | 成都信鑫信息技术有限公司 | Automobile remote anti-theft system |
CN104786992A (en) * | 2015-03-24 | 2015-07-22 | 张彬彬 | Automobile burglar alarm based on differential positioning |
CN104952173A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor monitoring system based on vibration and zone temperature detection |
CN104952171A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Intelligent anti-theft system for door or window |
CN104952170A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety protection system |
CN104952180A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Intelligent indoor anti-theft system |
CN104952178A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety anti-theft system based on photo taking monitoring |
CN104952169A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety system based on vibration and infrared detection |
CN104952195A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety system based on multi-room cascade-connection control and vibration detection |
CN104952172A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor monitoring system based on vibration detection and image comparison |
CN105046857A (en) * | 2015-06-26 | 2015-11-11 | 苏州昊枫环保科技有限公司 | Door and window safety system with vibration detection |
CN106274799A (en) * | 2016-08-25 | 2017-01-04 | 乐视控股(北京)有限公司 | A kind of car alarm system and automobile |
CN115042745A (en) * | 2021-03-08 | 2022-09-13 | 本田技研工业株式会社 | Vehicle control device and vehicle control method |
WO2023234360A1 (en) * | 2022-06-01 | 2023-12-07 | パナソニックIpマネジメント株式会社 | Imaging system and mobile object provided with same |
WO2023242891A1 (en) * | 2022-06-13 | 2023-12-21 | 日本電気株式会社 | Object detection device, training device, object detection method, training method, object detection program, and training program |
-
2011
- 2011-08-18 JP JP2011178729A patent/JP2013041483A/en not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104176004A (en) * | 2014-08-07 | 2014-12-03 | 成都信鑫信息技术有限公司 | Automobile remote anti-theft system |
CN104786992A (en) * | 2015-03-24 | 2015-07-22 | 张彬彬 | Automobile burglar alarm based on differential positioning |
CN104952195A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety system based on multi-room cascade-connection control and vibration detection |
CN104952172A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor monitoring system based on vibration detection and image comparison |
CN104952170A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety protection system |
CN104952180A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Intelligent indoor anti-theft system |
CN104952178A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety anti-theft system based on photo taking monitoring |
CN104952169A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor safety system based on vibration and infrared detection |
CN104952173A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Indoor monitoring system based on vibration and zone temperature detection |
CN104952171A (en) * | 2015-06-25 | 2015-09-30 | 苏州昊枫环保科技有限公司 | Intelligent anti-theft system for door or window |
CN105046857A (en) * | 2015-06-26 | 2015-11-11 | 苏州昊枫环保科技有限公司 | Door and window safety system with vibration detection |
CN106274799A (en) * | 2016-08-25 | 2017-01-04 | 乐视控股(北京)有限公司 | A kind of car alarm system and automobile |
CN115042745A (en) * | 2021-03-08 | 2022-09-13 | 本田技研工业株式会社 | Vehicle control device and vehicle control method |
CN115042745B (en) * | 2021-03-08 | 2024-03-22 | 本田技研工业株式会社 | Vehicle control device and vehicle control method |
WO2023234360A1 (en) * | 2022-06-01 | 2023-12-07 | パナソニックIpマネジメント株式会社 | Imaging system and mobile object provided with same |
WO2023242891A1 (en) * | 2022-06-13 | 2023-12-21 | 日本電気株式会社 | Object detection device, training device, object detection method, training method, object detection program, and training program |
WO2023243595A1 (en) * | 2022-06-13 | 2023-12-21 | 日本電気株式会社 | Object detection device, learning device, object detection method, learning method, object detection program, and learning program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013041483A (en) | On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system | |
US20240109514A1 (en) | Recording video of an operator and a surrounding visual field | |
US11012668B2 (en) | Vehicular security system that limits vehicle access responsive to signal jamming detection | |
EP3005228B1 (en) | Information processing device, approaching object notification method, and program | |
JP2013041489A (en) | On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system | |
JP5616531B2 (en) | Vehicle periphery monitoring device | |
JP6350145B2 (en) | Face orientation detection device and vehicle warning system | |
JP4872245B2 (en) | Pedestrian recognition device | |
JP2009296038A (en) | Periphery recognition assisting system | |
JP2013042402A (en) | On-vehicle camera controller, on-vehicle camera control system, and on-vehicle camera system | |
JP4984521B2 (en) | In-vehicle camera control device | |
TWI522257B (en) | Vehicle safety system and operating method thereof | |
JP2010191793A (en) | Alarm display and alarm display method | |
JP2007323578A (en) | Vehicle periphery monitoring device | |
JP2008226163A (en) | Safety device for vehicle | |
JP2007133644A (en) | Pedestrian recognition device | |
JP5845909B2 (en) | Obstacle alarm device | |
JP2013041488A (en) | On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system | |
JP2020149088A (en) | Vehicle-crime prevention device | |
JP5787168B2 (en) | Obstacle alarm device | |
JP2010114849A (en) | Vehicle perimeter monitoring apparatus | |
JP2012142832A (en) | Imaging apparatus | |
JP2007085745A (en) | Object monitoring apparatus | |
JP2005284797A (en) | Drive safety device | |
JP3501396B2 (en) | Rear side monitoring device for vehicle and monitoring method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |