JP2007186916A - Window image area detection device and power window device - Google Patents

Window image area detection device and power window device Download PDF

Info

Publication number
JP2007186916A
JP2007186916A JP2006006052A JP2006006052A JP2007186916A JP 2007186916 A JP2007186916 A JP 2007186916A JP 2006006052 A JP2006006052 A JP 2006006052A JP 2006006052 A JP2006006052 A JP 2006006052A JP 2007186916 A JP2007186916 A JP 2007186916A
Authority
JP
Japan
Prior art keywords
window
image
area
detection
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006006052A
Other languages
Japanese (ja)
Other versions
JP2007186916A5 (en
Inventor
Fumihiro Hayakawa
文洋 早川
Yoshi Abe
喜 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2006006052A priority Critical patent/JP2007186916A/en
Publication of JP2007186916A publication Critical patent/JP2007186916A/en
Publication of JP2007186916A5 publication Critical patent/JP2007186916A5/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an window image area detection device capable of automatically extracting an window image area portion using photographed images provided from a photographing device such as a camera and a power window device. <P>SOLUTION: A vehicle 1 comprises an image processing device 15 having pinch detection function. An infrared camera 14 capable of photographing the areas around the window frame is installed on the door 2 of the vehicle 1. The image processing device 15 extracts the moving areas in a window 3 from image data Dpic acquired from the infrared camera 14 and counts them in order to extract the window image area. The image processing device 15 which extracts the window image area extracts the detection area in the photographed image Pic from that area. The image processing device 15 recognizes that pinch occurs when it determines that the foreign matter in the photographed image invades into the detection area, and notifies it to the power window ECU6 to perform safe operations by the power window ECU6. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カメラ等の撮影機器で取得した撮影画像を用い、その撮影画像におけるウインドウ部分の領域を抽出するウインドウ画像領域検出装置と、このウインドウ画像領域検出装置で得たウインドウ画像領域を用い、ウインドウによる人体等の異物の挟み込み有無を検出するパワーウインドウ装置とに関する。   The present invention uses a photographed image acquired by a photographing device such as a camera, uses a window image region detection device that extracts a window part region in the photographed image, and a window image region obtained by the window image region detection device, The present invention relates to a power window device for detecting whether a foreign object such as a human body is caught by a window.

近年、多くの車両においては、ウインドウの開閉操作の利便性向上を目的として、DCモータ等を駆動源にウインドウを自動で昇降させるパワーウインドウ装置が搭載されている。この種のパワーウインドウ装置には、ウインドウの開閉動作時においてウインドウによる挟み込みを防止する挟み込み防止機能を有する機種があり、この技術が例えば特許文献1,2に開示されている。この挟み込み防止機能は、挟み込みを検出すると、上昇中のウインドウを停止したり、或いはウインドウガラスを上昇から下降に転じさせたりする。   In recent years, in many vehicles, a power window device that automatically raises and lowers a window using a DC motor or the like as a drive source is mounted for the purpose of improving the convenience of opening and closing the window. This type of power window device includes a model having a pinching prevention function for preventing pinching by the window during the opening / closing operation of the window, and this technique is disclosed in Patent Documents 1 and 2, for example. When the pinching is detected, this pinching prevention function stops the rising window or turns the window glass from rising to lowering.

これら文献で示された挟み込み防止機能は、モータの回転数を検出するパルスセンサのパルス信号を見ることで、ウインドウによる挟み込みの有無を検出する。このパルスセンサは、パルス信号のパルスをカウントすることによってウインドウの位置を見るためのセンサであるが、ウインドウで挟み込みが生じた場合、その時点からウインドウの上昇が規制されてモータの回転数、つまりパルス信号のパルス数が減少する。よって、パルスセンサを備えたパワーウインドウ装置においては、パルスセンサが出力するパルス信号の単位時間当たりのパルス数変化を見ることで、ウインドウによる挟み込みの有無を判定する方式(パルス信号検出式)が採用される。
特開2004−092314号公報 特開2004−244956号公報
The pinching prevention function described in these documents detects the presence or absence of pinching by a window by looking at the pulse signal of a pulse sensor that detects the rotation speed of the motor. This pulse sensor is a sensor for viewing the position of the window by counting the number of pulses of the pulse signal, but when the window is caught, the rise of the window is restricted from that point and the number of rotations of the motor, that is, The number of pulses of the pulse signal decreases. Therefore, a power window device equipped with a pulse sensor adopts a method (pulse signal detection method) that determines the presence or absence of pinching by the window by looking at the change in the number of pulses per unit time of the pulse signal output by the pulse sensor. Is done.
JP 2004-092314 A Japanese Patent Laid-Open No. 2004-244958

ところが、挟み込み検出がパルス信号検出式の場合は、実際にウインドウで異物が挟み込まれた時に、これを挟み込み有りとして検出する。このように、挟み込み検出がパルス信号検出式の場合、挟み込み検出に際しては異物の挟み込みを前提としていることから、この種の挟み込み防止機能はウインドウによる挟み込みを防止するといっても、実際にユーザは軽微と言えど手等の人体の一部がウインドウに挟まれた状態となる。よって、パワーウインドウ装置に挟み込み防止機能を備え付けて、ウインドウによる挟み込みを防止したとしても、ユーザの不快感解消の解決にはなっていない問題があった。   However, when the pinching detection is a pulse signal detection type, when a foreign object is actually pinched in the window, this is detected as being pinched. In this way, when the pinching detection is a pulse signal detection type, it is assumed that a foreign object has been pinched when the pinch detection is performed. However, a part of the human body such as a hand is sandwiched between windows. Therefore, even if the power window device is provided with a pinching prevention function to prevent pinching by the window, there is a problem that the user's discomfort is not solved.

ここで、ウインドウによる挟み込みを未然に防止する一例として、例えばカメラで取り込んだ画像から異物の有無を判定する手法が考えられる。この手法としては、カメラから取得した撮影画像において、ウインドウ部分の画像(ウインドウ画像領域)を指定し、このウインドウ画像領域から異物侵入判定の際の基準となる検知エリアを設定する必要がある。この検知エリアは、撮影画像中で手や指などの異物がこのエリアに入り込めば、それを以て異物侵入があったと判定し得るエリアに相当する。   Here, as an example of preventing the pinching by the window, for example, a method of determining the presence or absence of a foreign object from an image captured by a camera is conceivable. As this method, it is necessary to specify a window portion image (window image area) in a captured image acquired from a camera and set a detection area as a reference for foreign object intrusion determination from the window image area. This detection area corresponds to an area where it can be determined that a foreign object has entered if foreign objects such as hands and fingers enter the area in the captured image.

しかし、撮影画像を用いた挟み込み検出においては、ウインドウ周辺を撮影した撮影画像を予め取り込んでおき、その撮影画像に例えばペイントソフト等で書き込みを加えるなどして検知エリアを設定した画像データを、テンプレートデータ(車両窓位置データ)としてメモリに予め登録しておく必要がある。従って、このシステムを複数車種対応のものとするためには、テンプレートデータを車種ごとに用意する必要があり、このテンプレートデータはデータサイズが大きい画像データであるため、1つのシステムで複数のテンプレートデータを持たせるのは困難である。   However, in the pinch detection using the captured image, the captured image captured around the window is captured in advance, and image data in which the detection area is set by adding the captured image to the captured image with, for example, paint software is used as a template. It is necessary to register in advance as data (vehicle window position data) in a memory. Therefore, in order to make this system compatible with a plurality of vehicle types, it is necessary to prepare template data for each vehicle type. Since this template data is image data having a large data size, a plurality of template data can be obtained in one system. It is difficult to have

本発明の目的は、カメラ等の撮影機器から得た撮影画像を用い、自動でウインドウ画像領域部分を抽出することができるウインドウ画像領域検出装置及びパワーウインドウ装置を提供することにある。   An object of the present invention is to provide a window image region detection device and a power window device that can automatically extract a window image region portion using a photographed image obtained from a photographing device such as a camera.

前記問題点を解決するために、本発明によれば、窓枠周辺を撮影する撮影手段と、前記撮影手段が撮影した画像データを用い、当該画像データの輝度の変化から撮影画像におけるウインドウ部分の領域としてウインドウ画像領域を抽出する抽出手段とを備えたことを要旨とする。   In order to solve the above problems, according to the present invention, an image capturing unit that captures the periphery of a window frame and image data captured by the image capturing unit are used, and a window portion of a captured image is detected from a change in luminance of the image data. The gist of the invention is that the image processing apparatus includes extraction means for extracting a window image area as the area.

この構成によれば、撮影手段で窓枠周辺の領域を撮影し、抽出手段がその撮影画像に映り込んだ領域の中からウインドウ画像領域を抽出する。ここで、例えば車種が異なる場合、撮影画像に映り込むウインドウ形状や位置が変わってくることから、ウインドウ画像領域は車種ごとに変わる。よって、車種ごとにウインドウ画像領域を用意することになると、ユーザが撮影手段で自ら予め撮影画像を取得し、その撮影画像に対してウインドウ画像領域が定義付けられた画像データを、テンプレートデータとして車種ごとに用意する必要がある。しかし、この種のテンプレートデータは画像データであるため、1データ当たりのデータ量が大きく、1つのシステムでテンプレートデータを複数持たせることは、現実上困難である。   According to this configuration, the area around the window frame is imaged by the imaging unit, and the extraction unit extracts the window image area from the area reflected in the captured image. Here, for example, when the vehicle type is different, the window shape and position reflected in the photographed image change, so that the window image region changes for each vehicle type. Therefore, when a window image area is prepared for each vehicle type, the user acquires a captured image in advance by the imaging unit, and image data in which the window image region is defined for the captured image is used as template data for the vehicle type. It is necessary to prepare for each. However, since this type of template data is image data, the amount of data per data is large, and it is practically difficult to have a plurality of template data in one system.

それに比べ、本発明においては、抽出手段が撮影手段の撮影画像からウインドウ画像領域を自動で抽出するため、上記したようにウインドウ画像領域が車種ごとに変わる場合であっても、車種ごとにテンプレートデータを用意する必要がなくなり、ウインドウ画像領域に関するデータを大量保持させておく必要がない。また、例えば撮影手段を設置箇所に組み付けた際、撮影手段の組付位置に組付誤差が生じたとしても、組付後にウインドウが増量域の抽出を行うことになるので、ユーザがこの誤差を手動で修正する作業も不要となる。   In contrast, in the present invention, the extraction means automatically extracts the window image area from the photographed image of the photographing means. Therefore, even if the window image area changes for each vehicle type as described above, the template data for each vehicle type is used. It is not necessary to prepare a large amount of data relating to the window image area. In addition, for example, when the photographing means is assembled at the installation location, even if an assembling error occurs at the assembling position of the photographing means, the window will extract the increase area after assembling. Manual correction work is also unnecessary.

本発明によれば、前記抽出手段は、前記撮影手段の撮影画像に映る物体の動きを検出するに際して、その時の照度に応じて変わる可変の閾値を用いて当該動き領域を抽出し、その抽出した動き領域を順次積算することにより、前記ウインドウ画像領域を抽出することを要旨とする。   According to the present invention, when detecting the movement of the object shown in the photographed image of the photographing means, the extracting means extracts the motion region using a variable threshold value that changes according to the illuminance at that time, and extracts the motion area. The gist is to extract the window image region by sequentially integrating the motion regions.

この構成によれば、動き領域を抽出してそれを積算することでウインドウ画像領域を算出するが、動き領域を抽出するに際しては、その時の照度に応じて変わる閾値を用いて動き領域を抽出する。従って、動き領域をより高い精度で抽出することが可能となり、抽出したウインドウ画像領域に誤差が発生し難くなる。   According to this configuration, the window image region is calculated by extracting the motion region and integrating the motion region. When extracting the motion region, the motion region is extracted using a threshold value that changes according to the illuminance at that time. . Therefore, it is possible to extract the motion region with higher accuracy, and errors are less likely to occur in the extracted window image region.

本発明によれば、前記抽出手段が抽出した前記ウインドウ画像領域から、前記ウインドウの画像として不適切な領域をノイズとして除去するノイズ除去手段を備えたことを要旨とする。   According to the present invention, there is provided a noise removing means for removing, from the window image area extracted by the extracting means, an area inappropriate as the window image as noise.

この構成によれば、抽出手段によって抽出されたウインドウ画像領域は、ノイズ除去手段によってノイズが除去される。従って、ウインドウ画像領域から、ウインドウとして不適切な部分が除去されるため、ウインドウ画像領域の検出精度が高くなり、抽出されたウインドウ画像領域に不要部分が映り込み難くなる。   According to this configuration, noise is removed from the window image area extracted by the extracting unit by the noise removing unit. Therefore, since an unsuitable part as a window is removed from the window image area, the detection accuracy of the window image area is increased, and an unnecessary part is hardly reflected in the extracted window image area.

本発明によれば、前記ノイズ除去手段は、前記抽出手段が求めた前記ウインドウ画像領域と、当該ウインドウ画像領域の基準サイズとを比較し、当該基準サイズからはみ出す領域をノイズと認識し、その領域を前記ウインドウ画像領域から除去することを要旨とする。   According to the present invention, the noise removing unit compares the window image area obtained by the extracting unit with a reference size of the window image area, recognizes an area protruding from the reference size as noise, and the area. Is removed from the window image area.

この構成によれば、抽出手段が求めたウインドウ画像領域とその基準サイズとを比較するという簡単な手法で、抽出したウインドウ画像領域からノイズを除去することが可能となる。   According to this configuration, it is possible to remove noise from the extracted window image region by a simple method of comparing the window image region obtained by the extraction unit with its reference size.

本発明によれば、前記ノイズ除去手段は、前記動き領域を求めてそれを積算する際に、前記積算方向とは異なる方向の動く領域をノイズと認識し、その領域を前記ウインドウ画像領域から除去することを要旨とする。   According to the present invention, the noise removing unit recognizes a moving region in a direction different from the integration direction as noise when obtaining the motion region and integrating the motion region, and removes the region from the window image region. The gist is to do.

この構成によれば、動き領域の積算方向と異なる向きの動き領域を、ノイズと認識してウインドウ画像領域から消去するというノイズ検出精度の高い手法で、抽出したウインドウ画像領域からノイズを除去することが可能となる。   According to this configuration, it is possible to remove noise from the extracted window image area by a method with high noise detection accuracy, in which a motion area having a direction different from the integration direction of the motion area is recognized as noise and deleted from the window image area. Is possible.

本発明によれば、前記ウインドウの素材に、遮熱材を使用したことを要旨とする。
この構成によれば、ウインドウの素材を遮熱材とすれば、撮影画像においてウインドウ部分が黒く映り込む、つまり他の部分に対して輝度変化が大きい状態で映り込むことになるので、ウインドウ画像領域の検出精度向上に効果が高い。
The gist of the present invention is that a heat shielding material is used as the material of the window.
According to this configuration, if the material of the window is a heat shielding material, the window portion appears black in the captured image, that is, the image is reflected in a state where the luminance change is large relative to other portions. Highly effective in improving detection accuracy.

本発明によれば、昇降動作中のウインドウにより異物が挟み込まれることを防止する挟み込み防止機能を備えたパワーウインドウ装置において、窓枠周辺を撮影する撮影手段と、前記撮影手段が撮影した画像データを用い、当該画像データの輝度の変化から撮影画像におけるウインドウ部分の領域としてウインドウ画像領域を抽出する抽出手段と、前記抽出手段が抽出した前記ウインドウ画像領域から、異物判定の際に用いる検知エリアを設定する設定手段と、前記画像データに映り込んだ輝度から求まる特徴量を用い、前記検知エリアへの異物の侵入を監視することで前記挟み込みの有無を検出する画像処理手段と、前記画像処理手段が前記挟み込みを検出した際に、前記挟み込みを防止し得る安全動作を、前記ウインドウの昇降を制御する昇降制御手段に実行させる実行手段とを備えたことを要旨とする。   According to the present invention, in a power window device having a pinching prevention function for preventing foreign objects from being pinched by a window that is moving up and down, a photographing unit that photographs the periphery of a window frame, and image data photographed by the photographing unit The extraction means for extracting the window image area as the area of the window portion in the photographed image from the change in luminance of the image data, and the detection area used for the foreign substance determination is set from the window image area extracted by the extraction means An image processing unit that detects the presence or absence of the pinching by monitoring the intrusion of foreign matter into the detection area using a feature amount obtained from the brightness reflected in the image data, and the image processing unit. When the pinching is detected, a safe operation that can prevent the pinching is controlled to raise and lower the window. And summarized in that and a running means for running the elevator control unit.

本発明によれば、カメラ等の撮影機器から得た撮影画像を用い、自動でウインドウ画像領域部分を抽出することができる。   According to the present invention, it is possible to automatically extract a window image region portion using a photographed image obtained from a photographing device such as a camera.

以下、本発明を具体化したウインドウ画像領域検出装置及びパワーウインドウ装置の一実施形態を図1〜図23に従って説明する。
図1に示すように、車両1の各ドア2には、ウインドウ3を昇降させる際に操作するパワーウインドウスイッチ(以下、PWスイッチと記す)4が配設されている。このPWスイッチ4は、例えば2段クリック式の揺動型スイッチであって、一端側(下降側)を1段クリックすると、クリック操作されている間においてウインドウ3が下降し、一端側を2段クリックすると作動モードがオート下降状態となり、再スイッチ操作されるまでウインドウ3が連続下降する。なお、PWスイッチ4を上昇操作した時も同様の動きをとる。
Hereinafter, an embodiment of a window image region detection device and a power window device embodying the present invention will be described with reference to FIGS.
As shown in FIG. 1, each door 2 of the vehicle 1 is provided with a power window switch (hereinafter referred to as a PW switch) 4 that is operated when the window 3 is moved up and down. The PW switch 4 is, for example, a two-stage click-type oscillating switch, and when one end side (downward side) is clicked one step, the window 3 is lowered while the click operation is being performed, and the one end side is moved two steps. When clicked, the operation mode is automatically lowered, and the window 3 is continuously lowered until the switch is operated again. The same movement is performed when the PW switch 4 is raised.

車両1には、操作者のスイッチ操作を基にウインドウ3を自動で昇降させるモータユニット5が、運転席、助手席、リヤ右側席及びリヤ左側席の各ドアに各々配設されている。モータユニット5には、ウインドウ3の昇降制御を行うパワーウインドウECU(El ectric Control Unit)6が搭載されている。パワーウインドウECU6には、ウインドウ3が昇降する際の駆動源となる駆動モータ7と、この駆動モータ7の回転数を検出するパルスセンサ8とが接続されている。なお、パワーウインドウECU6が昇降制御手段に相当する。   In the vehicle 1, motor units 5 that automatically raise and lower the window 3 based on an operator's switch operation are disposed on the doors of the driver's seat, front passenger seat, rear right seat, and rear left seat, respectively. The motor unit 5 is equipped with a power window ECU (Electric Control Unit) 6 that controls the raising and lowering of the window 3. Connected to the power window ECU 6 are a drive motor 7 that is a drive source when the window 3 is raised and lowered, and a pulse sensor 8 that detects the rotational speed of the drive motor 7. The power window ECU 6 corresponds to the lift control means.

パワーウインドウECU6には、このECU6を統括制御するCPU(Central Processing Unit)9が内蔵されている。CPU9の入力側には、パワーウインドウECU6内のスイッチ回路10を介してPWスイッチ4が接続されるとともに、パワーウインドウECU6内のパルス入力回路11を介してパルスセンサ8が各々接続されている。また、CPU9の出力側には、パワーウインドウECU6内の駆動回路12を介して駆動モータ7が接続されている。   The power window ECU 6 includes a CPU (Central Processing Unit) 9 that controls the ECU 6 in an integrated manner. A PW switch 4 is connected to the input side of the CPU 9 via a switch circuit 10 in the power window ECU 6, and a pulse sensor 8 is connected to each other via a pulse input circuit 11 in the power window ECU 6. A drive motor 7 is connected to the output side of the CPU 9 via a drive circuit 12 in the power window ECU 6.

CPU9は、PWスイッチ4が操作された事を検出すると、駆動モータ7の駆動力をウインドウ3の上下方向の運動力に変換するレギュレータ13を介し、駆動モータ7の駆動力をウインドウ3に伝達してウインドウ3を昇降させる。このとき、CPU9は、パルスセンサ8が出力するパルス信号Spaのパルスをカウントすることで、ウインドウ3の位置を判定する。   When the CPU 9 detects that the PW switch 4 is operated, the CPU 9 transmits the driving force of the driving motor 7 to the window 3 via the regulator 13 that converts the driving force of the driving motor 7 into the vertical movement force of the window 3. The window 3 is moved up and down. At this time, the CPU 9 determines the position of the window 3 by counting the pulses of the pulse signal Spa output from the pulse sensor 8.

各ドア2の内側面には、車内からウインドウ3の昇降動作を撮影可能な赤外線カメラ14が配設されている。この赤外線カメラ14は、カメラ撮影領域に近赤外線LED14aから近赤外線を照射するとともに、被写体で反射した近赤外線を撮影画像として撮影するカメラである。近赤外線等の赤外線は目に見えない光であることから、この種の赤外線カメラ14を用いて撮影を行えば、夜間においても運転者等に気付かれることなく、ウインドウ3の窓枠周辺を撮影可能である。なお、赤外線カメラ14が撮影手段に相当する。   On the inner surface of each door 2, an infrared camera 14 capable of photographing the ascending / descending operation of the window 3 from the inside of the vehicle is disposed. The infrared camera 14 is a camera that irradiates a near-infrared LED 14a with a near-infrared ray to a camera photographing region and photographs the near-infrared reflected by a subject as a photographed image. Infrared rays such as near infrared rays are invisible light, so if you shoot using this type of infrared camera 14, you can shoot around the window frame of window 3 without being noticed by the driver at night. Is possible. Note that the infrared camera 14 corresponds to a photographing unit.

各赤外線カメラ14には、例えばドア2の内壁などに埋設された画像処理装置15がケーブル16を介して接続されている。また、この画像処理装置15は、信号線17を介してパワーウインドウECU6に接続されている。画像処理装置15は、赤外線カメラ14の作動を制御するとともに、赤外線カメラ14から撮影画像(画像データDpic)をモノクロ画像で取得し、この画像データDpicを用いて、ウインドウ3による指や手などの人体の挟まれを防止する挟み込み防止制御を行う。なお、画像処理装置15が抽出手段、ノイズ除去手段、画像処理手段、設定手段及び実行手段を構成する。   For example, an image processing device 15 embedded in the inner wall of the door 2 is connected to each infrared camera 14 via a cable 16. The image processing device 15 is connected to the power window ECU 6 through a signal line 17. The image processing device 15 controls the operation of the infrared camera 14, acquires a captured image (image data Dpic) from the infrared camera 14 as a monochrome image, and uses this image data Dpic to display information such as a finger or a hand in the window 3. The pinch prevention control is performed to prevent the human body from being pinched. The image processing device 15 constitutes an extraction unit, a noise removal unit, an image processing unit, a setting unit, and an execution unit.

赤外線カメラ14は、画像処理装置15からパルス状の画像要求信号Sreqを入力すると、その入力タイミングで画像撮影を行い、その撮影画像Picを画像処理装置15に出力する。よって、画像処理装置15は、画像要求信号Sreを赤外線カメラ14に出力する度に赤外線カメラ14から撮影画像Picを取得し、このように画像要求信号発信の度に得られる撮影画像Picを画像データDpicとして取得する。   When the infrared camera 14 receives the pulsed image request signal Sreq from the image processing device 15, the infrared camera 14 captures an image at the input timing and outputs the captured image Pic to the image processing device 15. Therefore, the image processing device 15 acquires the captured image Pic from the infrared camera 14 each time the image request signal Sre is output to the infrared camera 14, and thus the captured image Pic obtained every time the image request signal is transmitted is converted into image data. Get as Dpic.

また、赤外線カメラ14が単位時間当たりに画像要求信号Sreqを多パルス(短い周期)で入力すれば、赤外線カメラ14は短い周期で撮影画像Picを画像処理装置15に順次送ることになる。このため、画像処理装置15が画像要求信号Sreqを赤外線カメラ14に短い周期で出力するように設定すれば、画像処理装置15が赤外線カメラ14から取得する撮影画像数はより多くなり、画像処理装置15は連続的な画像(動画)を得ることが可能でなる。   Further, if the infrared camera 14 inputs the image request signal Sreq with multiple pulses (short cycle) per unit time, the infrared camera 14 sequentially sends the captured images Pic to the image processing device 15 with a short cycle. For this reason, if the image processing device 15 is set to output the image request signal Sreq to the infrared camera 14 in a short cycle, the number of captured images that the image processing device 15 acquires from the infrared camera 14 increases, and the image processing device. No. 15 can obtain continuous images (moving images).

画像処理装置15には、同装置15を統括制御する画像処理制御部(CPU)18が内蔵されている。画像処理制御部18は、画像処理装置15内のインターフェース19を介し、赤外線カメラ14から延びるケーブル16と接続されている。画像処理制御部18とインターフェース19との間において画像データの入力ライン上には、画像データ内のノイズを除去するノイズ除去回路20が接続されている。   The image processing apparatus 15 includes an image processing control unit (CPU) 18 that controls the apparatus 15 in an integrated manner. The image processing control unit 18 is connected to a cable 16 extending from the infrared camera 14 via an interface 19 in the image processing apparatus 15. A noise removal circuit 20 for removing noise in the image data is connected between the image processing control unit 18 and the interface 19 on the input line of the image data.

画像処理制御部18には、各種プログラムを記憶したROM21と、各種処理実行時において画像処理制御部18の作業領域として用いられるRAM22と、データを書き換え可能な状態で保持するEEPROM23が接続されている。ROM21には、画像処理制御部18が挟み込み防止制御として実行する挟み込み防止制御プログラム24が記憶されている。画像処理制御部18は、挟み込み防止制御プログラム24に沿って作動することにより、赤外線カメラ14から取得した画像データから、ウインドウ3による挟み込みの有無を検知する。   Connected to the image processing control unit 18 are a ROM 21 that stores various programs, a RAM 22 that is used as a work area of the image processing control unit 18 when various types of processing are executed, and an EEPROM 23 that holds data in a rewritable state. . The ROM 21 stores an anti-pinch control program 24 that the image processing control unit 18 executes as anti-pinch control. The image processing control unit 18 operates along the pinching prevention control program 24 to detect the presence or absence of pinching by the window 3 from the image data acquired from the infrared camera 14.

画像処理制御部18は、画像処理装置15内のインターフェース25を介し、パワーウインドウECU6から延びる信号線17の一端と接続されている。また、パワーウインドウECU6のCPU9は、パワーウインドウECU6内のインターフェース26を介して、信号線17の他端と接続されている。異物の挟み込みを検出した画像処理制御部18は、信号線17を介してその旨の指令を送り、パワーウインドウECU6に各種安全動作を実行させることが可能である。   The image processing control unit 18 is connected to one end of a signal line 17 extending from the power window ECU 6 via an interface 25 in the image processing device 15. Further, the CPU 9 of the power window ECU 6 is connected to the other end of the signal line 17 via the interface 26 in the power window ECU 6. The image processing control unit 18 that has detected the inclusion of a foreign object can send a command to that effect via the signal line 17 to cause the power window ECU 6 to execute various safety operations.

挟み込み防止制御プログラム24には、挟み込み検知処理のアルゴリズム(挟み込み有無の検知手法)が複数登録されている。本例のアルゴリズムとしては、以下の4パターンがある。即ち、撮影画像からオプティカルフローを求めて異物の動きを検出する手法(オプティカルフロー検知手法)と、撮影画像の差分を求めて異物の動きを検出する手法(画像差分検知手法)と、撮影画像の特徴量(輪郭、領域面積)の変化を見る手法(特徴量検知手法)と、窓枠に付したマーカの変化を撮影画像から取得する手法(マーカ監視検知手法)とがある。   In the pinching prevention control program 24, a plurality of trapping detection processing algorithms (pinching detection methods) are registered. As an algorithm of this example, there are the following four patterns. That is, a method for detecting an optical flow from a captured image and detecting the movement of a foreign object (optical flow detection method), a method for determining a difference between captured images and detecting a movement of a foreign object (image difference detection method), There are a method (a feature amount detection method) for viewing a change in a feature amount (contour, area area) and a method (a marker monitoring detection method) for acquiring a change in a marker attached to a window frame from a captured image.

続いて、これらの検知手法の詳細を以下に順を追って説明する。
ところで、赤外線カメラ14で取り込んだ撮影画像Picは、図2に示すようにウインドウ3以外の不要な部分(周囲の風景等)も映り込むことから、挟み込み検出時に用いるべき領域を切り出し、それを検知エリアEとして設定する必要がある。そこで、本例においては、窓枠27を撮影した撮影画像を予め取得しておき、ペイントソフト等を用いてその画像から窓枠周辺領域を切り出すことによって、この領域を挟み込み検知時に用いる検知エリアEとして特定する。そして、検知エリアEを特定した画像データを、テンプレートデータDtempとして予めEEPROM23に登録しておく。
Next, details of these detection methods will be described in order.
By the way, as shown in FIG. 2, the captured image Pic captured by the infrared camera 14 also includes unnecessary portions (the surrounding scenery, etc.) other than the window 3, so that an area to be used when detecting pinching is cut out and detected. It is necessary to set as area E. Therefore, in this example, a captured image obtained by capturing the window frame 27 is acquired in advance, and a window frame peripheral region is cut out from the image using paint software or the like, thereby detecting this area when detecting pinching. As specified. Then, the image data specifying the detection area E is registered in advance in the EEPROM 23 as the template data Dtemp.

まず、オプティカルフロー検知手法を説明する。画像処理制御部18は、信号線17で繋がれたパワーウインドウECU6から、ウインドウ3の現在位置を表す窓位置情報Dwiを入力しているため、ウインドウ3が昇降中である事や、ウインドウ3の現在位置を認識可能である。よって、画像処理制御部18は、ウインドウ3が開いていることを検出すると、赤外線カメラ14への画像要求信号Sreqの出力を開始して窓枠周辺の撮影を開始し、ノイズ除去回路20でノイズを取った後の画像データDpicを用いて挟み込み検出を行う。   First, an optical flow detection method will be described. Since the image processing control unit 18 inputs the window position information Dwi indicating the current position of the window 3 from the power window ECU 6 connected by the signal line 17, the window 3 is moving up and down, The current position can be recognized. Therefore, when the image processing control unit 18 detects that the window 3 is open, it starts outputting the image request signal Sreq to the infrared camera 14 and starts photographing around the window frame. Detection is performed using the image data Dpic after the removal.

画像処理制御部18は、赤外線カメラ14から画像データDpicを取得した際、その画像データDpicから図3に示すようなオプティカルフロー28を求め、そのオプティカルフロー28を用いて、画像に映り込む図4に示す物体の動き(移動軌跡29)を特徴量Tとして検出する。そして、画像処理制御部18は、検出された物体の動きの位置、方向、面積を各々の異物判定閾値と比較し、ウインドウ3により挟み込まれる領域に異物が入り込んだか否かを判定する。なお、ここで言う異物判定閾値は、算出した画像上の特性値がこの値を超えると、その物体を異物と判断することが可能な設定値である。オプティカルフロー28の算出手法としては、例えば勾配法、ブロックマッチング法、Horn and BG Schunck法、Lucas Kanade法などが用いられる。   When the image processing control unit 18 acquires the image data Dpic from the infrared camera 14, the image processing control unit 18 obtains an optical flow 28 as shown in FIG. 3 from the image data Dpic, and reflects the image in the image using the optical flow 28. Is detected as a feature amount T (movement trajectory 29). Then, the image processing control unit 18 compares the detected position, direction, and area of the movement of the object with each foreign object determination threshold value, and determines whether or not the foreign object has entered the area sandwiched by the window 3. The foreign substance determination threshold referred to here is a set value that can determine that an object is a foreign object when the calculated characteristic value on the image exceeds this value. As a calculation method of the optical flow 28, for example, a gradient method, a block matching method, a Horn and BG Schunck method, a Lucas Kanade method, or the like is used.

オプティカルフロー28を用いて挟み込みの有無を判定するに際しては、最初に行う処理として、図5(a)に示すように、撮影画像Picにおいてピクセル(画素)ごとに輝度を求め、画面縦軸方向の各画素列と画面横軸方向の各画素列で輝度波形30を求める。例えば、図5(a)に示す例のように、ある所定の列において真ん中付近の輝度が低くなると、その真ん中部分で波形の傾きがマイナスになった輝度波形30が求まる。   When determining the presence or absence of pinching using the optical flow 28, as the first processing, as shown in FIG. 5A, the luminance is obtained for each pixel (pixel) in the photographed image Pic, and the vertical axis direction of the screen is obtained. A luminance waveform 30 is obtained for each pixel column and each pixel column in the horizontal axis direction of the screen. For example, as in the example shown in FIG. 5A, when the luminance in the vicinity of the middle in a given column decreases, a luminance waveform 30 having a negative waveform slope in the middle portion is obtained.

オプティカルフロー算出に際しては、前後する撮影画像Picを比較する処理が必要となるため、前後する撮影画像Picに連続性を持たせる、つまり前後する撮影画像Picを連続的に繋がった状態とすべく、図5(a)に示す輝度波形30を、波形傾きを緩やかにした図5(b)に示す補正波形31に変換する。この補正波形31は、輝度波形30の変曲点部分が緩やかに湾曲した波形である。この補正波形31を求める処理は、画像処理制御部18が撮影画像Picを取得する度に、画面縦軸方向及び画面横軸方向の全ての列で行う。   When calculating the optical flow, it is necessary to compare the preceding and following captured images Pic, so that the preceding and following captured images Pic are continuous, that is, the preceding and following captured images Pic are continuously connected. The luminance waveform 30 shown in FIG. 5A is converted into a correction waveform 31 shown in FIG. The correction waveform 31 is a waveform in which the inflection point of the luminance waveform 30 is gently curved. The process of obtaining the correction waveform 31 is performed in all columns in the screen vertical axis direction and the screen horizontal axis direction every time the image processing control unit 18 acquires the captured image Pic.

そして、連続的に前後する撮影画像Picにおいて、それぞれの列の補正波形31同士で図5(c)に示すような波形差La(同図の斜線領域)を算出する。例えば、図5(c)に実線で示す補正波形31aを、図5(b)に示す補正波形31bの一つ後の撮影画像Picの補正波形とすると、補正波形31aと補正波形31bとの間で差をとることによって波形差Laを算出する。そして、この波形差Laからオプティカルフロー28を算出する。また、このオプティカルフロー28は、物体が次の瞬間にどの方向へどれだけ移動するかを表す値であることから、別の言い方をすれば物体の速度として求まる値であるとも言える。そして、画像処理制御部18は、画面縦軸方向及び画面横軸方向の各画素列から求まる波形差Laを用い、撮影画像Picのピクセルごとに図3に示すようなオプティカルフロー28を算出する。   Then, in the captured images Pic that are successively moved back and forth, a waveform difference La (shaded area in FIG. 5) as shown in FIG. 5C is calculated between the correction waveforms 31 of the respective columns. For example, if the correction waveform 31a indicated by the solid line in FIG. 5C is the correction waveform of the captured image Pic immediately after the correction waveform 31b shown in FIG. 5B, the correction waveform 31a is corrected between the correction waveform 31b and the correction waveform 31b. The waveform difference La is calculated by taking the difference at. Then, the optical flow 28 is calculated from the waveform difference La. In addition, the optical flow 28 is a value that represents how much the object moves in the next moment and how much the object flows, and can be said to be a value that can be obtained as the velocity of the object in other words. Then, the image processing control unit 18 calculates an optical flow 28 as shown in FIG. 3 for each pixel of the captured image Pic using the waveform difference La obtained from each pixel column in the screen vertical axis direction and the screen horizontal axis direction.

ここで、勾配法の詳細について説明する。画像上の画素(x,y)の輝度をf (x,y,z)とし、その点が時刻(t+dt)となった時に、輝度がf(x+dx,y+dy,t+dt)に移ったとすると、次式(1)が成立する。   Here, the details of the gradient method will be described. If the luminance of the pixel (x, y) on the image is f (x, y, z) and the point reaches time (t + dt), and the luminance moves to f (x + dx, y + dy, t + dt), Formula (1) is materialized.

f(x,y,z)=f(x+dx,y+dy,t+dt) … (1)
そして、式(1)をテーラー展開し、dxとdyとdtとの2次以降を切り捨てると、次式(2)が成立する。
f (x, y, z) = f (x + dx, y + dy, t + dt) (1)
Then, when the equation (1) is Taylor-expanded and the second and subsequent dx, dy, and dt are rounded down, the following equation (2) is established.

fx(x,y,z)・u+fy(x,y,z)・v+ft(x,y,z)=0 … (2)
これにより、式(2)を解けばf(x+dx,y+dy,t+dt)を求めることができるが、係数uと係数vは未知数の値であるため、まずは係数uと係数vとを求める必要がある。そこで、次式(3),(4)に示すような2つのフィルタを用いて勾配法の拘束式を作る。
f x (x, y, z) · u + f y (x, y, z) · v + f t (x, y, z) = 0 (2)
Thus, f (x + dx, y + dy, t + dt) can be obtained by solving equation (2). However, since coefficient u and coefficient v are unknown values, it is necessary to first obtain coefficient u and coefficient v. . Therefore, a constraint equation for the gradient method is created using two filters as shown in the following equations (3) and (4).

(g*f)x・u+(g*f)y・v+(g*f)t=0 … (3)
(h*f)x・u+(h*f)y・v+(h*f)t=0 … (4)
このフィルタgとフィルタhとには、微分可能であるために連続であることと、これら2つの拘束式が独立であることという2つの条件がある。このうち、微分可能であるために連続であるという条件が、図5(a)に示す輝度波形30を図5(b)に示す補正波形31に平滑化したという部分に相当する。そして、式(3)と(4)から係数uと係数vを算出し、これら係数uと係数vとを式(2)に代入してこれを解くことにより、f(x+dx,y+dy,t+dt)を算出し、オプティカルフロー28を求める。
(g * f) x · u + (g * f) y · v + (g * f) t = 0… (3)
(h * f) x · u + (h * f) y · v + (h * f) t = 0… (4)
The filter g and the filter h have two conditions: they are different because they are differentiable and are continuous, and these two constraint equations are independent. Among these, the condition that it is continuous because it can be differentiated corresponds to a portion in which the luminance waveform 30 shown in FIG. 5A is smoothed to the correction waveform 31 shown in FIG. 5B. Then, the coefficient u and the coefficient v are calculated from the expressions (3) and (4), and the coefficient u and the coefficient v are substituted into the expression (2) and solved to obtain f (x + dx, y + dy, t + dt) And the optical flow 28 is obtained.

即ち、勾配法の概略を図6に示すと、まず元の画像をx方向に強い平滑化を行って平滑画像Pxを求めるとともに、元の画像をy方向に強い平滑化を行って平滑画像Pyを求める。そして、これら平滑画像Px,Pyを用いて係数uと係数vとを求め、これら係数u,vを用いて画像の速度や方向等を求めることになる。   That is, the outline of the gradient method is shown in FIG. 6. First, the original image is strongly smoothed in the x direction to obtain a smooth image Px, and the original image is strongly smoothed in the y direction to obtain the smoothed image Py. Ask for. The coefficients u and v are obtained using the smooth images Px and Py, and the speed and direction of the image are obtained using the coefficients u and v.

オプティカルフロー28を求めた画像処理制御部18は、このオプティカルフロー28を用いて物体の動きを検出し、検出された物体の動きの位置、方向、面積から、ウインドウ3により挟み込まれる領域に異物が入り込んだか否かを判定する。即ち、図4に示すように、同じ方向を成すオプティカルフロー28を繋げて物体の動き(移動軌跡29)を求め、この動きの位置、方向、面積を各々の閾値と比較し、全ての項目でこれらパラメータが異物判定閾値を超えると、ウインドウ3により挟み込まれる領域に異物が入り込んだと判定する。   The image processing control unit 18 that has obtained the optical flow 28 detects the movement of the object using the optical flow 28, and foreign objects are detected in the region sandwiched by the window 3 from the position, direction, and area of the detected movement of the object. It is determined whether it has entered. That is, as shown in FIG. 4, the optical flow 28 in the same direction is connected to determine the movement of the object (movement trajectory 29), and the position, direction, and area of this movement are compared with the respective threshold values. If these parameters exceed the foreign object determination threshold, it is determined that the foreign object has entered the area sandwiched by the window 3.

具体的な処理例を挙げると、画像処理制御部18は、物体の動き(移動軌跡29)を逐次監視し、その物体が人体の手や指等の動きを伴って検知エリアEに侵入してきたと検出すると、その物体が異物と判断し得る面積を有するもので、しかも移動軌跡29から求まる物体の検知エリア侵入方向が手や指の動き方向(例えば画面横軸方向)であるか否かを判定する。画像処理制御部18は、これら条件が揃うと、ウインドウ3により挟まれる領域に異物が入り込んだと判定し、信号線17を介して安全動作要求信号SsafをパワーウインドウECU6に出力する。   As a specific processing example, the image processing control unit 18 sequentially monitors the movement (movement trajectory 29) of an object, and the object has entered the detection area E with the movement of a human hand or finger. When detected, the object has an area that can be determined as a foreign object, and it is determined whether the detection area intrusion direction of the object obtained from the movement locus 29 is the direction of movement of the hand or finger (for example, the horizontal axis direction of the screen). To do. When these conditions are met, the image processing control unit 18 determines that a foreign object has entered the area sandwiched by the window 3 and outputs a safe operation request signal Ssaf to the power window ECU 6 via the signal line 17.

安全動作要求信号Ssafを受けたパワーウインドウECU6は、ウインドウ3による挟み込みを回避すべく安全動作を実行する。この安全動作としては、例えばウインドウ3が停止している場合、所定時間の間においてウインドウの上昇を禁止する動作や、ウインドウ3が上昇している場合、ウインドウ3をその位置で停止させたり、或いはウインドウ3を安全な位置まで下降させたりする動作が挙げられる。また、これら以外の安全動作としては、車内に設置した警報装置によって音声や光で操作者に警告を与える動作でもよい。   Receiving the safe operation request signal Ssaf, the power window ECU 6 executes a safe operation to avoid pinching by the window 3. As this safe operation, for example, when the window 3 is stopped, an operation of prohibiting the window from rising during a predetermined time, or when the window 3 is rising, the window 3 is stopped at that position, or There is an operation of lowering the window 3 to a safe position. Further, as other safe operation, an operation of giving a warning to the operator by voice or light by an alarm device installed in the vehicle may be used.

次に、画像差分検知手法を説明する。画像処理制御部18は、赤外線カメラ14から画像データDpicを取得すると、図7に示すような連続する2つの撮影画像Pic1,Pic2との間で、それぞれに映り込んだ認識物体32a,32bの画像差分Mをとり、この画像差分Mを用いて画像データDpicに映り込んだ図8に示すような物体の動き(移動軌跡33)を特徴量Tとして検出する。そして、画像処理制御部18は、検出された物体の動きの位置、方向、面積を各々の異物判定閾値と比較し、ウインドウ3により挟み込まれる領域に異物が入り込んだか否かを判定する。   Next, an image difference detection method will be described. When the image processing control unit 18 acquires the image data Dpic from the infrared camera 14, the images of the recognized objects 32 a and 32 b reflected between the two consecutive captured images Pic 1 and Pic 2 as shown in FIG. The difference M is taken, and using this image difference M, the movement of the object (movement trajectory 33) shown in FIG. Then, the image processing control unit 18 compares the detected position, direction, and area of the movement of the object with each foreign object determination threshold value, and determines whether or not the foreign object has entered the area sandwiched by the window 3.

画像差分Mを用いて挟み込み有無を判定するに際して、まず画像処理制御部18は、撮影画像Picに映り込んだ各個体の大きさや色等から、撮影画像Picに映った映像物が物体であるか否かを認識する。この撮影画像Pic上における個体認識は、画像上の輝度と物体判定閾値とを比較することで行い、その物体判定閾値を超える部分を認識物体32a(32b)として把握する。ここで言う物体判定閾値とは、算出した画像上の特性値がこの値を超えると、それを物体として認識可能な設定値である。物体認識を行った画像処理制御部18は、連続して前後する撮影画像Picにおいて図7に示すような認識物体の画像差分Mをとり、その画像差分Mから認識物体の動きを求める処理を、赤外線カメラ14から画像データDpicを入手する度に行い、図8に示す物体の動き(移動軌跡32)を求める。   When determining the presence / absence of pinching using the image difference M, first, the image processing control unit 18 determines whether the video object reflected in the captured image Pic is an object based on the size and color of each individual reflected in the captured image Pic. Recognize whether or not. The individual recognition on the captured image Pic is performed by comparing the brightness on the image with the object determination threshold, and the part exceeding the object determination threshold is recognized as the recognition object 32a (32b). The object determination threshold mentioned here is a set value that can be recognized as an object when the calculated characteristic value on the image exceeds this value. The image processing control unit 18 that has performed the object recognition takes the image difference M of the recognized object as shown in FIG. 7 in the captured images Pic that are successively back and forth, and obtains the movement of the recognized object from the image difference M. This is performed every time the image data Dpic is obtained from the infrared camera 14, and the movement of the object (movement locus 32) shown in FIG. 8 is obtained.

具体的な処理例を挙げると、赤外線カメラ14から撮影画像Picを取り込んで物体認識を行った画像処理制御部18は、その認識物体について画像上の重心Gを算出する。この重心Gは、撮影画像Picの画素を単位として算出される値であって、以下の方法で算出される。即ち、認識物体のx座標値及びy座標値の各々において全ての和をとり、これら和をそれぞれ認識物体の画素数で割ることによってx座標値及びy座標値の平均値を算出し、以上によって求まったx座標平均値とy座標平均値を重心座標としている。   As a specific processing example, the image processing control unit 18 that has captured an image Pic from the infrared camera 14 and performed object recognition calculates a center of gravity G on the image of the recognized object. The center of gravity G is a value calculated in units of pixels of the captured image Pic, and is calculated by the following method. That is, the sum of all of the x and y coordinate values of the recognized object is calculated, and the average value of the x and y coordinate values is calculated by dividing the sum by the number of pixels of the recognized object. The obtained x-coordinate average value and y-coordinate average value are used as the barycentric coordinates.

画像処理制御部18は、赤外線カメラ14から撮影画像Picを取得する度に認識物体32a(32b)の重心演算を行い、これら画像間における重心G(図8参照)の差を画像差分Mとして算出し、これを物体の動きとして導出する。そして、画像処理制御部18は、連続して前後する認識物体32a,32b,…の重心Gを繋げて認識物体の経路を導き出し、これを物体の動き、つまり移動軌跡33として求める。   The image processing control unit 18 calculates the center of gravity of the recognized object 32a (32b) every time the captured image Pic is acquired from the infrared camera 14, and calculates the difference between the centers of gravity G (see FIG. 8) between these images as the image difference M. This is derived as the motion of the object. Then, the image processing control unit 18 derives a path of the recognized object by connecting the centers of gravity G of the recognized objects 32a, 32b,...

画像処理制御部18は、オプティカルフロー検知手法の時と同様の手法で物体の動き(移動軌跡33)の位置、方向、面積を監視し、ウインドウ3により挟み込まれる領域に異物が入り込んだか否かを判定する。画像処理制御部18は、この判定の際において、ウインドウ3により挟み込まれる領域に異物が入り込んだと判断すると、信号線17を介して安全動作要求信号SsafをパワーウインドウECU6に出力する。パワーウインドウECU6は、安全動作要求信号Ssafを入力すると、オプティカルフロー検知手法の時に述べたような安全動作を実行する。   The image processing control unit 18 monitors the position, direction, and area of the movement (movement trajectory 33) of the object in the same manner as in the optical flow detection method, and determines whether or not a foreign object has entered the area sandwiched by the window 3. judge. In this determination, when the image processing control unit 18 determines that a foreign object has entered the region sandwiched by the window 3, the image processing control unit 18 outputs a safe operation request signal Ssaf to the power window ECU 6 via the signal line 17. When the power window ECU 6 receives the safe operation request signal Ssaf, the power window ECU 6 executes the safe operation as described in the optical flow detection method.

次に、特徴量検知手法を説明する。画像処理制御部18は、赤外線カメラ14から画像データDpicを入力した際、入力した撮影画像Picごとに検知エリアE(図2参照)部分の画像を抽出し、この検知エリアEにおける画像の特徴量Tを求める。この特徴量Tとしては、例えば図9(c)に示す窓枠27の輪郭34や、図12(a)に示す窓枠27の領域面積35などが挙げられ、更には輝度自体(輝度変化)の値を用いてもよい。画像処理制御部18は、この特徴量Tを異物判定閾値と比較し、ウインドウ3により挟み込まれる領域に異物が入り込んだか否かを判定する。   Next, a feature amount detection method will be described. When image data Dpic is input from the infrared camera 14, the image processing control unit 18 extracts an image of the detection area E (see FIG. 2) for each input captured image Pic, and the image feature amount in the detection area E T is calculated. Examples of the feature amount T include the outline 34 of the window frame 27 shown in FIG. 9C, the area 35 of the window frame 27 shown in FIG. 12A, and the luminance itself (luminance change). The value of may be used. The image processing control unit 18 compares the feature amount T with a foreign matter determination threshold value, and determines whether or not a foreign matter has entered a region sandwiched by the window 3.

ここで、例えば特徴量Tとして図9(c)に示す窓枠27の輪郭34を用いる場合、画像処理制御部18が行う処理としては、まず指や手等の異物が入り込んでいない時の窓枠27の輪郭(以下、初期輪郭34a(図9(c)参照)と記す)を認識すべく、最初に取り込んだ撮影画像Picから図9(a)に示すような輝度波形36を求める処理を行う。この輝度波形36は、撮影画像Picの各画素(ピクセル)の輝度を画面横軸方向に沿って繋げた波形であって、画面横軸方向の列ごとに各々求められる。   Here, for example, when the contour 34 of the window frame 27 shown in FIG. 9C is used as the feature amount T, the processing performed by the image processing control unit 18 is a window when no foreign matter such as a finger or a hand enters. In order to recognize the outline of the frame 27 (hereinafter referred to as the initial outline 34a (see FIG. 9C)), a process for obtaining the luminance waveform 36 as shown in FIG. Do. The luminance waveform 36 is a waveform obtained by connecting the luminances of the respective pixels (pixels) of the captured image Pic along the screen horizontal axis direction, and is obtained for each column in the screen horizontal axis direction.

画像処理制御部18は、撮影画像Picにおいて画面横軸方向に延びる列ごとに求めた輝度波形36を、波形傾き(本例は絶対値)をエッジ高さに変えた図9(b)に示す輝度エッジ波形37に各々変換する。そして、画像処理制御部18は、図9(c)に示すように互いに画面縦軸方向に隣接する輝度エッジ波形37において、エッジ38が物体判定閾値を超える部分を繋げる処理を行い、それを窓枠27の初期輪郭34aとして認識する。画像処理制御部18は、赤外線カメラ14から撮影画像Picを取得する度に、窓枠27の輪郭34を導出する。   The image processing control unit 18 shows the luminance waveform 36 obtained for each column extending in the horizontal direction of the screen in the captured image Pic, as shown in FIG. 9B in which the waveform inclination (in this example, the absolute value) is changed to the edge height. Each is converted into a luminance edge waveform 37. Then, as shown in FIG. 9C, the image processing control unit 18 performs processing for connecting portions where the edge 38 exceeds the object determination threshold in the luminance edge waveforms 37 adjacent to each other in the vertical axis direction of the screen. Recognized as the initial outline 34 a of the frame 27. The image processing control unit 18 derives the outline 34 of the window frame 27 every time the captured image Pic is acquired from the infrared camera 14.

ここで、例えば図10に示すように窓枠27が手や指などで遮られた場合、この異物によって通常よりも手前で近赤外線光が反射することから、輝度波形36は異物部分で輝度が高くなった図11(a)に示す波形(これを輝度波形36aと記す)をとる。画像処理制御部18は、この輝度波形36aを輝度エッジ波形に変換することになるが、この輝度波形36aを波形変換した際には、初期時に対してエッジ位置が変化した図11(b)に示す輝度エッジ波形37aを導出することになる。従って、画像処理制御部18は、通常とは異なる窓枠27の輪郭(以下、変形輪郭34b(図11(c)参照)と記す)を得た状態となる。   Here, for example, as shown in FIG. 10, when the window frame 27 is blocked by a hand or a finger, near infrared light is reflected by this foreign substance in front of the normal, so that the luminance waveform 36 has a luminance at the foreign substance portion. The waveform shown in FIG. 11 (a), which is increased (this is referred to as luminance waveform 36a), is taken. The image processing control unit 18 converts the luminance waveform 36a into a luminance edge waveform. When the luminance waveform 36a is converted into a waveform, the edge position changes from the initial state in FIG. 11B. The luminance edge waveform 37a shown is derived. Therefore, the image processing control unit 18 is in a state where an outline of the window frame 27 different from the normal one (hereinafter referred to as a modified outline 34b (see FIG. 11C)) is obtained.

画像処理制御部18は、窓枠27の輪郭34を常に監視し、変形輪郭34bと初期輪郭34aとの輪郭差(例えば、輪郭の線の長さの差)Lbが異物判定閾値を超えたか否かを逐次監視する。画像処理制御部18は、この輪郭差Lbが異物判定閾値を超えたと判定すると、ウインドウ3により挟まれる領域に異物が入り込んだと認識し、信号線17を介して安全動作要求信号SsafをパワーウインドウECU6に出力する。パワーウインドウECU6は、安全動作要求信号Ssafを入力すると、オプティカルフロー検知手法や画像差分検知手法の時に述べたような安全動作を実行する。なお、輝度変化を用いて異物検知を行う場合も、エッジで説明した場合と同様の原理から異物判定が可能である。   The image processing control unit 18 constantly monitors the contour 34 of the window frame 27, and whether or not the contour difference (for example, the difference in the length of the contour line) Lb between the deformed contour 34b and the initial contour 34a exceeds the foreign substance determination threshold value. Sequentially monitor. When the image processing control unit 18 determines that the contour difference Lb has exceeded the foreign object determination threshold, the image processing control unit 18 recognizes that the foreign object has entered the area sandwiched by the window 3 and sends the safe operation request signal Ssaf to the power window via the signal line 17. It outputs to ECU6. When the power window ECU 6 receives the safe operation request signal Ssaf, the power window ECU 6 executes the safe operation as described in the optical flow detection method and the image difference detection method. Note that, when foreign matter detection is performed using a luminance change, foreign matter determination can be performed based on the same principle as that described for the edge.

また、特徴量Tとして図12(a)に示す窓枠27の領域面積35を用いる場合、画像処理制御部18は、手や指等の異物が入り込んでいない時の図12(a)に示す物体の初期輪郭34aを求め、その輪郭34aによって囲まれる領域面積(以下、初期領域面積35aと記す)を求める。そして、画像処理制御部18は、赤外線カメラ14から撮影画像Picを取得する度に、輪郭34によって囲まれる領域面積35を導出する。   When the area area 35 of the window frame 27 shown in FIG. 12A is used as the feature amount T, the image processing control unit 18 shown in FIG. 12A when a foreign object such as a hand or a finger does not enter. An initial contour 34a of the object is obtained, and a region area surrounded by the contour 34a (hereinafter referred to as an initial region area 35a) is obtained. The image processing control unit 18 derives a region area 35 surrounded by the contour 34 every time the captured image Pic is acquired from the infrared camera 14.

画像処理制御部18は、窓枠27の領域面積を常に監視し、領域面積35の面積値が変化した際の領域面積(以下、変形領域面積35bと記す)と初期領域面積35aとの面積差Lcが異物判定閾値を超えたか否かを逐次監視する。画像処理制御部18は、図12(b)に示すように検知エリアEに手や指等の異物が入り込んで面積差Lcが異物判定閾値を超えたと判定すると、ウインドウ3により挟まれる領域に異物が入り込んだと認識し、信号線17を介して安全動作要求信号SsafをパワーウインドウECU6に出力し、安全動作要求信号Ssafを実行させる。   The image processing control unit 18 constantly monitors the area area of the window frame 27, and the area difference between the area area when the area value of the area area 35 is changed (hereinafter referred to as a deformed area area 35b) and the initial area area 35a. It is sequentially monitored whether or not Lc exceeds the foreign substance determination threshold value. When the image processing control unit 18 determines that a foreign matter such as a hand or a finger enters the detection area E and the area difference Lc exceeds the foreign matter determination threshold as shown in FIG. And the safe operation request signal Ssaf is output to the power window ECU 6 via the signal line 17 to cause the safe operation request signal Ssaf to be executed.

次に、マーカ監視検知手法を説明する。図13に示すように、ドア2の窓枠周辺には、赤外線カメラ14に映り込む位置にマーカ39が塗布されている。このマーカ39は、光の反射率が高い塗料や顔料から成るとともに、本例においては近赤外光の反射率が高い材質が用いられている。よって、近赤外線LED14aの近赤外線光を窓枠周辺に照射した際には、このマーカ39の部分において光が多く(強く)反射し、赤外線カメラ14の撮影画像は、マーカ39の部分において輝度が高い状態で映り込む。   Next, a marker monitoring detection method will be described. As shown in FIG. 13, a marker 39 is applied around the window frame of the door 2 at a position where it is reflected on the infrared camera 14. The marker 39 is made of a paint or pigment having a high light reflectance, and in this example, a material having a high near-infrared light reflectance is used. Therefore, when near infrared light from the near infrared LED 14a is irradiated around the window frame, a lot of light is reflected (strongly) at the marker 39 portion, and the image captured by the infrared camera 14 has a luminance at the marker 39 portion. Reflects in a high state.

画像処理制御部18は、赤外線カメラ14から画像データDpicを入力した際、マーカ39が映り込んだ撮影画像Picから、図14(c)に示すようなマーカ39の画像領域を取得し、そのマーカ画像領域40において画像の特徴量Tを求める。この特徴量Tとしては、例えば図14(c)に示すマーカ画像領域40の輪郭41や、図17(a)に示すマーカ画像領域40の領域面積42などが上げられる。画像処理制御部18は、この特徴量Tを異物判定閾値と比較し、ウインドウ3により挟み込まれる領域に異物が入り込んだか否かを判定する。画像処理制御部18は、求めた特徴量Tを用いてマーカ39の破断や輪郭変形の有無を判定する。   When the image processing control unit 18 inputs the image data Dpic from the infrared camera 14, the image processing control unit 18 acquires the image area of the marker 39 as shown in FIG. An image feature amount T is obtained in the image region 40. As the feature amount T, for example, the outline 41 of the marker image area 40 shown in FIG. 14C, the area 42 of the marker image area 40 shown in FIG. The image processing control unit 18 compares the feature amount T with a foreign matter determination threshold value, and determines whether or not a foreign matter has entered a region sandwiched by the window 3. The image processing control unit 18 determines whether or not the marker 39 is broken or contour is deformed by using the obtained feature amount T.

この処理の一例を述べると、例えば特徴量Tとして図14(c)に示すマーカ画像領域40の輪郭41を用いる場合、画像処理制御部18が行う処理としては、最初に取り込んだ撮影画像Picから、手や指等の異物がマーカ画像領域40に入り込んでいない時のマーカ画像領域40の輪郭(以下、初期輪郭41aと記す)を認識する。この処理の際、マーカ39からは輝度の高い光が反射することから、画像処理制御部18は輝度の高い部分の光をマーカ画像領域40として取り込むことになり、図14(a)に示すような輝度波形43が求まる。この輝度波形43は、撮影画像の各画素(ピクセル)の輝度を画面横軸方向に沿って繋げた波形であって、画面横軸方向の列ごとに各々求められる。   An example of this processing will be described. For example, when the contour 41 of the marker image area 40 shown in FIG. 14C is used as the feature amount T, the processing performed by the image processing control unit 18 is based on the first captured image Pic. The outline of the marker image area 40 when a foreign object such as a hand or a finger does not enter the marker image area 40 (hereinafter referred to as an initial outline 41a) is recognized. In this processing, since the light with high luminance is reflected from the marker 39, the image processing control unit 18 takes in the light with high luminance as the marker image region 40, as shown in FIG. A bright luminance waveform 43 is obtained. The luminance waveform 43 is a waveform obtained by connecting the luminance of each pixel (pixel) of the captured image along the horizontal axis direction of the screen, and is obtained for each column in the horizontal axis direction of the screen.

画像処理制御部18は、撮影画像において画面横軸方向に延びる列ごとに求めた輝度波形43を、波形傾き(本例は絶対値)をエッジ高さに変換した図14(b)に示す輝度エッジ波形44に各々変換する。そして、画像処理制御部18は、図14(c)に示すように互いに画面縦軸方向に隣接する輝度エッジ波形44において、エッジ45が物体判定閾値を超える部分を繋げる処理を行い、それをマーカ画像領域40の初期輪郭41aとして認識する。画像処理制御部18は、赤外線カメラ14から撮影画像Picを取得する度に、マーカ画像領域40の輪郭41を導出する。   The image processing control unit 18 converts the luminance waveform 43 obtained for each column extending in the horizontal direction of the screen in the captured image into the luminance shown in FIG. 14B in which the waveform inclination (absolute value in this example) is converted into the edge height. Each is converted into an edge waveform 44. Then, as shown in FIG. 14C, the image processing control unit 18 performs processing for connecting portions where the edge 45 exceeds the object determination threshold in the luminance edge waveforms 44 adjacent to each other in the vertical axis direction of the screen, It is recognized as the initial contour 41a of the image area 40. The image processing control unit 18 derives the contour 41 of the marker image area 40 every time the captured image Pic is acquired from the infrared camera 14.

ここで、例えば、図15に示すようにマーカ39が手などで遮られると、それによってマーカ39で反射する光が遮断され、赤外線カメラ14に映り込む輝度がその遮断部分において通常よりも低くなり、輝度波形43は異物部分で輝度が低くなった波形(これを輝度波形43aと記す)をとる。画像処理制御部18は、この輝度波形43aを輝度エッジ波形に変換することになるが、この輝度波形43aを波形変換した際には、初期時に対してエッジ位置が変化した図16(b)に示す輝度エッジ波形44aを導出することになる。従って、画像処理制御部18は、通常とは異なるマーカ画像領域40の輪郭(以下、変形輪郭41b(図16(c)参照)と記す)を得ることになる。   Here, for example, as shown in FIG. 15, when the marker 39 is blocked by a hand or the like, the light reflected by the marker 39 is blocked thereby, and the luminance reflected on the infrared camera 14 becomes lower than usual at the blocked portion. The luminance waveform 43 is a waveform in which the luminance is lowered at the foreign material portion (this is referred to as a luminance waveform 43a). The image processing control unit 18 converts the luminance waveform 43a into a luminance edge waveform. When the luminance waveform 43a is converted into a waveform, the edge position is changed as shown in FIG. The luminance edge waveform 44a shown will be derived. Therefore, the image processing control unit 18 obtains a contour of the marker image region 40 different from the normal one (hereinafter referred to as a modified contour 41b (see FIG. 16C)).

画像処理制御部18は、マーカ画像領域40の輪郭41を常に監視し、変形輪郭41bと初期輪郭41aとの輪郭差Ldが異物判定閾値を超えたか否かを逐次監視する。画像処理制御部18は、この輪郭差Ldが異物判定閾値を超えたと判定すると、ウインドウ3により挟まれる領域に異物が入り込んだと認識し、信号線17を介して安全動作要求信号SsafをパワーウインドウECU6に出力し、パワーウインドウECU6に安全動作を実行させる。   The image processing control unit 18 constantly monitors the contour 41 of the marker image region 40 and sequentially monitors whether or not the contour difference Ld between the deformed contour 41b and the initial contour 41a exceeds the foreign substance determination threshold value. When the image processing control unit 18 determines that the contour difference Ld has exceeded the foreign object determination threshold, the image processing control unit 18 recognizes that the foreign object has entered the region sandwiched by the window 3 and sends the safe operation request signal Ssaf to the power window via the signal line 17. It outputs to ECU6 and makes power window ECU6 perform safe operation | movement.

また、特徴量Tとしてマーカ39の領域面積を用いる場合、画像処理制御部18は、特徴量検知手法の場合と同様に、手や指等の異物が入り込んでいない時のマーカ画像領域40の初期領域面積42a(図17(a)参照)を求める。そして、画像処理制御部18は、マーカ画像領域40に手や指等の異物が入り込んだ際の変形領域面積42b(図17(b)参照)と初期領域面積42aとの間の面積差Leを逐次監視する。画像処理制御部18は、その面積差Leが異物判定閾値を超えたと判定すると、ウインドウ3により挟まれる領域に異物が入り込んだと認識し、信号線17を介して安全動作要求信号SsafをパワーウインドウECU6に出力し、安全動作要求信号Ssafを実行させる。   Further, when the area of the marker 39 is used as the feature amount T, the image processing control unit 18 initializes the marker image region 40 when a foreign object such as a hand or a finger does not enter, as in the case of the feature amount detection method. A region area 42a (see FIG. 17A) is obtained. Then, the image processing control unit 18 calculates the area difference Le between the deformation area 42b (see FIG. 17B) and the initial area 42a when a foreign object such as a hand or a finger enters the marker image area 40. Monitor sequentially. When the image processing control unit 18 determines that the area difference Le has exceeded the foreign object determination threshold value, the image processing control unit 18 recognizes that the foreign object has entered the region sandwiched by the window 3 and sends the safe operation request signal Ssaf to the power window via the signal line 17. It outputs to ECU6 and performs safe operation request signal Ssaf.

次に、画像処理制御部18が挟み込み防止制御を行う際の処理を図18に示すフローチャートに従って説明する。この挟み込み防止制御は、例えば車両のエンジンスイッチがACC位置に操作されたことを条件に処理が開始され、所定サイクル単位(例えば、数百μs単位)で繰り返し実行される。   Next, processing when the image processing control unit 18 performs the pinching prevention control will be described with reference to a flowchart shown in FIG. This pinching prevention control is started on the condition that, for example, the engine switch of the vehicle is operated to the ACC position, and is repeatedly executed in units of a predetermined cycle (for example, in units of several hundred μs).

ステップ100では、ウインドウ3が開状態か否かを判定する。即ち、画像処理制御部18は、パワーウインドウECU6から窓位置情報Dwiを取り込んでいることから、この窓位置情報Dwiを用いてウインドウ3が開状態であるか否かを判定する。このとき、ウインドウ3が閉状態であればステップ101に移行し、ウインドウ3が開状態であればステップ102に移行する。   In step 100, it is determined whether or not the window 3 is open. That is, since the image processing control unit 18 takes in the window position information Dwi from the power window ECU 6, the image processing control unit 18 determines whether or not the window 3 is in an open state using the window position information Dwi. At this time, if the window 3 is closed, the process proceeds to step 101, and if the window 3 is open, the process proceeds to step 102.

ステップ101では、赤外線カメラ14に画像要求信号Sreqを出さずに、赤外線カメラ14の起動をオフ状態のままにする。
ステップ102では、赤外線カメラ14への画像要求信号Sreqの出力を開始し、赤外線カメラ14をオン状態にする。オン状態となった赤外線カメラ14は、近赤外線LED14aから近赤外線光照射を開始するとともに、窓枠周辺の画像撮影を開始する。このとき、画像処理制御部18は、赤外線カメラ14に画像要求信号Sreqを連続的に繰り返し出力し、赤外線カメラ14から画像データDpicを連続的な撮影画像で取得する。
In step 101, without starting the image request signal Sreq to the infrared camera 14, the activation of the infrared camera 14 is left in the OFF state.
In step 102, output of the image request signal Sreq to the infrared camera 14 is started, and the infrared camera 14 is turned on. The infrared camera 14 that has been turned on starts near-infrared light irradiation from the near-infrared LED 14a and also starts image capturing around the window frame. At this time, the image processing control unit 18 continuously outputs the image request signal Sreq to the infrared camera 14 and acquires the image data Dpic from the infrared camera 14 as a continuous captured image.

ステップ103では、赤外線カメラ14から得た画像データDpicを用い、ウインドウ3の周辺の照度Kを算出する。例えば、画像処理制御部18は、連続的に取得した撮影画像のうち最初に得た撮影画像を用いて照度Kを算出する。   In step 103, the illuminance K around the window 3 is calculated using the image data Dpic obtained from the infrared camera 14. For example, the image processing control unit 18 calculates the illuminance K by using the first captured image among the continuously acquired captured images.

ステップ104では、算出した照度Kを用いて、挟み込み検知に使用するアルゴリズムを選択する。本例においては、オプティカルフロー検知手法、画像差分検知手法、特徴量検知手法及びマーカ監視検知手法の4パターンがあるので、これら4パターンの中から、その時の照度Kに合った手法を選択する。例えば、ウインドウ3の周辺照度が低いと撮影画像の輪郭が強く浮き出ることから、特徴量Tを用いて異物判定するのが好ましく、照度Kが低い時の挟み込み検知のアルゴリズムとしては、特徴量検知手法やマーカ監視検知手法が用いられる。一方、ウインドウ3の周辺照度が高い場合には、特徴量Tを用いるよりも画像の動きを見た方が異物の誤判定が生じ難いことから、照度Kが高い時の挟み込み検知のアルゴリズムとしては、オプティカルフロー検知手法や画像差分検知手法が用いられる。   In step 104, an algorithm used for pinching detection is selected using the calculated illuminance K. In this example, since there are four patterns of an optical flow detection method, an image difference detection method, a feature amount detection method, and a marker monitoring detection method, a method that matches the illuminance K at that time is selected from these four patterns. For example, since the contour of the captured image is strongly raised when the ambient illuminance of the window 3 is low, it is preferable to determine the foreign matter using the feature amount T. As an entrapment detection algorithm when the illuminance K is low, a feature amount detection method is used. And marker monitoring detection techniques are used. On the other hand, when the illuminance around the window 3 is high, it is less likely that a foreign object is erroneously detected when the image motion is observed than when the feature amount T is used. An optical flow detection method or an image difference detection method is used.

ステップ105では、算出した照度Kを用いて、アルゴリズムで使用する際の閾値(物体判定閾値、異物判定閾値)を選択する。即ち、挟み込み検知を行う際に使用する閾値を、照度Kに応じた値に設定する。   In step 105, using the calculated illuminance K, threshold values (object determination threshold value, foreign object determination threshold value) for use in the algorithm are selected. That is, the threshold used when the pinch detection is performed is set to a value corresponding to the illuminance K.

ステップ106では、選択したアルゴリズムを実行することにより、画像データDpicを用いた挟み込み検知処理を実行する。
ステップ107では、挟み込み検知処理を行った結果、ウインドウ3に挟み込まれる位置に異物が侵入したか否かを見ることで、異物の有無を判定する。ここで、異物有りと判定すればステップ108に移行し、異物無しと判定すればこのフローチャートを終了する。
In step 106, a pinching detection process using the image data Dpic is executed by executing the selected algorithm.
In step 107, the presence / absence of a foreign object is determined by checking whether or not a foreign object has entered the position of being sandwiched in the window 3 as a result of the pinching detection process. If it is determined that there is a foreign object, the process proceeds to step 108. If it is determined that there is no foreign object, this flowchart is terminated.

ステップ108では、パワーウインドウECU6に安全動作要求信号Ssafを出力し、パワーウインドウECU6に安全動作を実行させる。
従って、本例においては、赤外線カメラ14から取得した画像データDpicを用いて挟み込みの有無を検知するので、手や指等が実際にウインドウ3に挟まれなくても、ウインドウ3による挟み込みの有無を未然に検知することが可能である。よって、挟み込みを検知するにあたって、その時に手や指等がウインドウ3で挟み込まれるような状況は生じないことから、挟み込み検知に際してユーザに不快感を与えなくて済む。
In step 108, a safe operation request signal Ssaf is output to the power window ECU 6 to cause the power window ECU 6 to execute a safe operation.
Therefore, in this example, since the presence / absence of pinching is detected using the image data Dpic acquired from the infrared camera 14, the presence / absence of pinching by the window 3 can be detected even if hands or fingers are not actually pinched by the window 3. It can be detected in advance. Therefore, when detecting pinching, there is no situation in which a hand, a finger, or the like is pinched by the window 3 at that time, so that the user does not have to feel uncomfortable when pinching is detected.

次に、ペイントソフト等により検知エリアEを特定したテンプレートデータDtempを予めメモリ(EEPROM23)に登録しておくのではなく、赤外線カメラ14から取得した画像データDpicを用いて検知エリアEを自動で抽出する検知エリア抽出機能を以下に説明する。ところで、赤外線カメラ14の配置位置や窓枠形状は車種ごとに変わることから、検知エリアE(窓位置データ)も車種ごとに変わる。そこで、複数車種に対応すべくEEPROM23に複数のテンプレートデータDtempを登録することも考えられるが、テンプレートデータDtempは画像データであるため、データサイズが大きく、1つのシステムで複数のテンプレートデータDtempを登録しておくことは現実的に困難である。   Next, the template data Dtemp specifying the detection area E by paint software or the like is not registered in the memory (EEPROM 23) in advance, but the detection area E is automatically extracted using the image data Dpic acquired from the infrared camera 14. The detection area extraction function to be performed will be described below. By the way, since the arrangement position and window frame shape of the infrared camera 14 change for each vehicle type, the detection area E (window position data) also changes for each vehicle type. Therefore, it is conceivable to register a plurality of template data Dtemp in the EEPROM 23 to cope with a plurality of vehicle types. However, since the template data Dtemp is image data, the data size is large and a plurality of template data Dtemp are registered in one system. It is practically difficult to keep it.

また、実際に赤外線カメラ14をドア2に組み付ける際、赤外線カメラ14に組付誤差が生じる場合があり、実際に取得した画像データDpicと、予め登録しておいたテンプレートデータDtempとの間に差異が生じることがある。この場合には、赤外線カメラ14を組み付け直したり、或いはEEPROM23内のテンプレートデータDtempを修正したりする処理が必要となるが、この手法で組付誤差を解消したとしても、この処理に際して手間がかかることから、実際には実用的でない。   Further, when the infrared camera 14 is actually assembled to the door 2, an assembly error may occur in the infrared camera 14, and there is a difference between the actually acquired image data Dpic and the template data Dtemp registered in advance. May occur. In this case, a process of reassembling the infrared camera 14 or correcting the template data Dtemp in the EEPROM 23 is required. Even if the assembling error is eliminated by this method, this process takes time. Therefore, it is not practical in practice.

そこで、本例の画像処理制御部18は、ウインドウ3が映り込んだ画像データDpicからウインドウ3の画像領域(以下、ウインドウ画像領域46(図21参照)と記す)を抽出し、このウインドウ3の画像領域から検知エリアEを抽出することによって、検知エリアEを特定する。画像処理制御部18は、この検知エリア抽出処理を、ウインドウ3が全開状態となった時に開始する。   Therefore, the image processing control unit 18 of this example extracts an image area of the window 3 (hereinafter referred to as a window image area 46 (see FIG. 21)) from the image data Dpic in which the window 3 is reflected, and the window 3 The detection area E is specified by extracting the detection area E from the image area. The image processing control unit 18 starts this detection area extraction processing when the window 3 is fully opened.

この検知エリア抽出処理として、画像処理制御部18は、ウインドウ3を動かし、その動きをオプティカルフロー検知手法や画像差分検知手法と同様の手法で検出し、それに基づき検知エリアEを抽出する。動き検出に際して画像処理制御部18は、赤外線カメラ14から撮影画像Picを取得した際、その撮影画像Picに関するオプティカルフロー28や、連続する二画像間の輝度変化から、連続する画像間において物体がどの位置へ動いたかという図19に示すような物体の動きを検出する。このとき、画像処理制御部18が行う物体認識は、撮影画像Picにおける輝度が、物体判別の基準となる物体判定閾値を超えたか否かを見ることで行う。   As this detection area extraction processing, the image processing control unit 18 moves the window 3, detects the movement by a method similar to the optical flow detection method and the image difference detection method, and extracts the detection area E based on the detection method. When the motion detection is performed, the image processing control unit 18 obtains a captured image Pic from the infrared camera 14, and the optical flow 28 related to the captured image Pic or the luminance change between two consecutive images determines which object is between the consecutive images. The movement of the object as shown in FIG. 19 indicating whether it has moved to the position is detected. At this time, the object recognition performed by the image processing control unit 18 is performed by checking whether or not the luminance in the captured image Pic has exceeded an object determination threshold value that is a reference for object determination.

そして、画像処理制御部18は、このように撮影画像Pic上で動きがあった動き領域47を画素数の値で抽出する。画像処理制御部18は、ウインドウ3が全閉状態となるまで、抽出した動き領域47を積算する処理を行い、この積算した領域をウインドウ画像領域46として求める。なお、上述した図19や後ほど説明する図21及び図22においては、説明の便宜上、ドア2を側面から見た画像を撮影画像Picとしているが、実際の撮影画像Picは、ウインドウ3を斜め下側から撮影した図23に示すような画像となる。   Then, the image processing control unit 18 extracts the motion region 47 that has moved on the captured image Pic in this way with the value of the number of pixels. The image processing control unit 18 performs processing for integrating the extracted motion region 47 until the window 3 is fully closed, and obtains this integrated region as the window image region 46. In FIG. 19 and FIG. 21 and FIG. 22 described later, for the sake of convenience of explanation, an image of the door 2 viewed from the side is taken as a photographed image Pic. The image shown in FIG. 23 is taken from the side.

ところで、例えばウインドウ3に外乱光等の他の光が照射されている場合、図20に示すようにウインドウ3として撮影画像Picに映り込む輝度は、ウインドウ3が昇降する際に変化する。例えば、ウインドウ3が全閉状態から閉じ始めた時は、通常の輝度でウインドウ3の画像を得られるが、ウインドウ3が閉じ切る際にウインドウ上端部分が外乱光に影響を受けた場合、その部分の輝度が低くなった状態でウインドウ3の画像を得ることになる。よって、撮影画像Picからウインドウ3の部分を認識するに際して、例えば全開のウインドウ3が閉じ切るまで1つの閾値を用いて画像認識を行おうとすると、閾値のレベルをできる限り低くする必要がある。このため、実際にはウインドウ3ではない部分をウインドウ画像領域46として取り込む可能性が高くなり、ウインドウ画像領域46の誤判定に繋がる。   When the window 3 is irradiated with other light such as disturbance light, for example, the luminance reflected in the captured image Pic as the window 3 changes as the window 3 moves up and down as shown in FIG. For example, when the window 3 starts to close from the fully closed state, an image of the window 3 can be obtained with a normal luminance. However, when the window 3 is fully closed, if the upper end of the window is affected by ambient light, that portion The image of the window 3 is obtained in a state where the brightness of is low. Therefore, when recognizing the portion of the window 3 from the captured image Pic, for example, if image recognition is to be performed using one threshold value until the fully opened window 3 is closed, the threshold level needs to be as low as possible. For this reason, there is a high possibility that a portion that is not actually the window 3 is taken in as the window image area 46, which leads to erroneous determination of the window image area 46.

そこで、本例において画像処理制御部18は、撮影画像Picを取得して動き領域47を抽出する際、その都度、撮影画像Picの輝度の値からその時の照度Kを算出し、その照度Kに応じた値に閾値(物体判定閾値、異物判定閾値)を設定する。このように、動き領域47を抽出する際に物体判定閾値をその都度設定するようにすれば、動き領域抽出に際して最適な物体判定閾値を使用することが可能となり、ウインドウ3の画像認識において誤認識が生じ難くなる。   Therefore, in this example, the image processing control unit 18 calculates the illuminance K at that time from the luminance value of the captured image Pic each time the captured image Pic is acquired and the motion region 47 is extracted, and the illuminance K is calculated. Threshold values (object determination threshold value, foreign object determination threshold value) are set to the corresponding values. As described above, if the object determination threshold value is set each time when the motion region 47 is extracted, the optimum object determination threshold value can be used for the motion region extraction. Is less likely to occur.

ウインドウ画像領域46を抽出した画像処理制御部18は、このウインドウ画像領域46からノイズを除去する。ところで、画像処理制御部18は、予めウインドウ3のサイズ、つまりウインドウ3が閉じ切った時に取り得るウインドウ画像領域(以下、基準サイズ46aと記す)を、画素パターンのデータで把握している。よって、ノイズ除去処理として、まず画像処理制御部18は、ウインドウ画像領域46を算出した際、このウインドウ画像領域46と基準サイズ46aとを比較し、図21に示すように基準サイズ46aからはみ出す部分を撮影画像Picに不意に映り込んだ物体と見なしてウインドウ画像領域46から消去する。   The image processing control unit 18 that has extracted the window image area 46 removes noise from the window image area 46. By the way, the image processing control unit 18 grasps in advance the size of the window 3, that is, the window image area that can be taken when the window 3 is closed (hereinafter referred to as the reference size 46a) from the pixel pattern data. Therefore, as noise removal processing, first, when calculating the window image region 46, the image processing control unit 18 compares the window image region 46 with the reference size 46a, and a portion that protrudes from the reference size 46a as shown in FIG. Is regarded as an object unexpectedly reflected in the captured image Pic, and is erased from the window image area 46.

また、画像処理制御部18は、別のノイズ除去処理として、画像積算方向とは異なる方向に動きのあった部位をノイズと認識し、ウインドウ画像領域46から消去することも可能である。即ち、本例においては、撮影画像Picに映り込んだ物体の動きを検出することでウインドウ画像領域46を求めているので、物体の動き方向については認識可能である。よって、画像処理制御部18は、動き方向の量が多い方向を画像積算方向と認識し、例えば図22に示す矢印A方向を画像積算方向と認識すると、これ以外の方向の動きから取得した画像(図22の点領域の画像)についてはウインドウ画像領域46から消去する。   In addition, as another noise removal process, the image processing control unit 18 can recognize a part that has moved in a direction different from the image integration direction as noise and delete it from the window image area 46. That is, in this example, since the window image area 46 is obtained by detecting the movement of the object reflected in the captured image Pic, the movement direction of the object can be recognized. Therefore, when the image processing control unit 18 recognizes the direction in which the amount of the movement direction is large as the image integration direction, and recognizes the direction of the arrow A illustrated in FIG. 22 as the image integration direction, for example, the image acquired from the movement in the other direction. (The image of the dot region in FIG. 22) is deleted from the window image region 46.

ウインドウ画像領域46からノイズを消去した画像処理制御部18は、ノイズ消去後のウインドウ画像領域46を用いて検知エリアEを抽出する。即ち、撮影画像Pic上においてウインドウ画像領域46が分かれば、ウインドウ3が閉じ切った際のウインドウ3の上端縁が認識可能である。よって、画像処理制御部18は、このウインドウ3の上端縁48を基準に画面縦軸方向に沿って例えば上側数十画素分の領域(図23の点領域)を検知エリアEとして設定し、これをEEPROM23に書き込む。   The image processing control unit 18 erasing noise from the window image area 46 extracts the detection area E using the window image area 46 after noise elimination. That is, if the window image area 46 is known on the captured image Pic, the upper edge of the window 3 when the window 3 is closed can be recognized. Therefore, the image processing control unit 18 sets, for example, a region of several tens of pixels on the upper side (dot region in FIG. 23) as the detection area E along the vertical axis direction of the screen with reference to the upper edge 48 of the window 3. Is written in the EEPROM 23.

従って、本例においては、赤外線カメラ14の画像データDpicから検知エリアEを適宜設定することが可能である。よって、画像処理装置15の搭載先が複数車種に亘ったとしても、車種ごとに検知エリアE用のテンプレートデータDtempを用意せずに済むことから、容量の大きいメモリを用意するなどのコスト増に繋がる問題が生じない。また、赤外線カメラ14をドア2に組み付ける際に組付誤差が生じたとしても、組付後に検知エリア抽出処理を行って検知エリアEの設定を行えばよいことから、赤外線カメラ14を組み付け直したり、或いはテンプレートデータDtempに修正を加えたりする等の面倒な作業を行わずに済む。   Accordingly, in this example, the detection area E can be set as appropriate from the image data Dpic of the infrared camera 14. Therefore, even if the mounting destination of the image processing apparatus 15 is spread over a plurality of vehicle types, it is not necessary to prepare the template data Dtemp for the detection area E for each vehicle type, which increases costs such as preparing a large-capacity memory. There is no connection problem. Further, even if an assembly error occurs when the infrared camera 14 is assembled to the door 2, the detection area E may be set by performing the detection area extraction process after the assembly, so that the infrared camera 14 may be reassembled. Or, it is not necessary to perform troublesome work such as modifying the template data Dtemp.

本実施形態の構成によれば、以下に記載の効果を得ることができる。
(1)赤外線カメラ14の画像データDpicからウインドウ画像領域46を抽出し、そのウインドウ画像領域46から検知エリアEする検知エリア抽出機能を備えた。従って、画像処理装置15の搭載先が複数車種に亘ったとしても、車種ごとに検知エリアE用のテンプレートデータDtempを用意せずに済む、容量大のメモリを用意することが原因のコストアップが生じない。また、赤外線カメラ14をドア2に組み付ける際に組付誤差が生じたとしても、組付後に検知エリア抽出処理を行って検知エリアEの設定を行えばよいことから、赤外線カメラ14の組み直し作業や、テンプレートデータDtempのデータ修正作業などが必要とならずに済む。
According to the configuration of the present embodiment, the following effects can be obtained.
(1) A window area 46 is extracted from the image data Dpic of the infrared camera 14, and a detection area extraction function for detecting the area E from the window image area 46 is provided. Accordingly, even if the image processing apparatus 15 is mounted on a plurality of vehicle types, it is not necessary to prepare the template data Dtemp for the detection area E for each vehicle type, and the cost increases due to the provision of a large-capacity memory. Does not occur. In addition, even if an assembly error occurs when the infrared camera 14 is assembled to the door 2, the detection area E may be set by performing the detection area extraction process after the assembly. This eliminates the need for data correction work for the template data Dtemp.

(2)赤外線カメラ14から撮影画像Picを取得する度に動き領域47を抽出し、それを積算することでウインドウ画像領域46を抽出するが、動き領域47を抽出するに際しては、その時の照度Kに応じて変わる閾値(物体判定閾値、異物判定閾値)を用いて動き領域47を抽出する。従って、動き領域47がより高い精度で抽出されることになり、ウインドウ画像領域46、ひいては検知エリアEを高い精度で求めることができる。   (2) Each time the captured image Pic is acquired from the infrared camera 14, the motion region 47 is extracted, and the window image region 46 is extracted by integrating the motion region 47. When extracting the motion region 47, the illuminance K at that time is extracted. The motion region 47 is extracted using threshold values (object determination threshold value, foreign object determination threshold value) that change according to the above. Therefore, the motion region 47 is extracted with higher accuracy, and the window image region 46 and thus the detection area E can be obtained with higher accuracy.

(3)ウインドウ画像領域46を抽出するに際して、撮影画像Picに映るウインドウ3のサイズ(基準サイズ46a)や、動き領域47を求める際の動き領域47の積算方向(図22の矢印A方向)などを用いて、ウインドウ画像領域46からノイズを消去する。従って、撮影画像Picからウインドウ画像領域46を求める際の検出精度が高くなり、ひいては検知エリアEの検出精度向上に効果がある。   (3) When extracting the window image area 46, the size of the window 3 (reference size 46a) shown in the captured image Pic, the integration direction of the motion area 47 when obtaining the motion area 47 (arrow A direction in FIG. 22), etc. Is used to eliminate noise from the window image area 46. Accordingly, the detection accuracy when obtaining the window image region 46 from the captured image Pic is increased, and as a result, the detection accuracy of the detection area E is improved.

(4)ノイズ除去手法としてウインドウ画像領域46のサイズを見る手法を用いた場合、ウインドウ画像領域46と基準サイズ46aとを比較するという簡単な手法で、ウインドウ画像領域46からノイズ部分を消去することできる。   (4) When the method of viewing the size of the window image area 46 is used as the noise removal technique, the noise portion is erased from the window image area 46 by a simple technique of comparing the window image area 46 and the reference size 46a. it can.

(5)ノイズ除去手法として動き領域47の積算方向を見る手法を用いた場合、撮影画像上の動きを見るというノイズ検出精度の高い手法で、ウインドウ画像領域46からノイズ部分を消去することができる。   (5) When the method of viewing the integration direction of the motion region 47 is used as the noise removal method, the noise portion can be erased from the window image region 46 by a method with high noise detection accuracy of viewing the motion on the captured image. .

(6)ウインドウ3の素材として遮熱材を用いれば、赤外線カメラ14でウインドウ3を撮影した際、撮影画像においてウインドウ部分とそれ以外の部分との間で輝度の差が大きくなるため、撮影画像Picにはウインドウ3が撮影画像上に黒く映り込むことになる。従って、撮影画像Picからウインドウ画像領域46を求める際に、高い精度でウインドウ画像領域46を抽出することができる。   (6) When a heat shielding material is used as the material of the window 3, when the window 3 is photographed by the infrared camera 14, a difference in luminance between the window portion and the other portions in the photographed image becomes large. In Pic, the window 3 appears black on the photographed image. Therefore, when the window image area 46 is obtained from the captured image Pic, the window image area 46 can be extracted with high accuracy.

(7)赤外線カメラ14から取得した画像データDpicを用いて挟み込み検出を行うので、実際に手や指等がウインドウ3で挟み込まれる前に、未然に挟み込みを検出することができる。従って、ユーザに不快感等を与えることなく、ウインドウ3による挟み込みを検出することができる。   (7) Since the pinching detection is performed using the image data Dpic acquired from the infrared camera 14, the pinching can be detected before the hand or the finger is actually pinched in the window 3. Therefore, it is possible to detect the pinching by the window 3 without giving the user unpleasant feeling.

(8)挟み込み検出のアルゴリズムとしてオプティカルフロー検知手法や画像差分検知手法を用いた場合、撮影画像Picに映り込む物体の動きを見て、挟み込みを検出する。ところで、手や指等の人体の動きはそれ特有の動きをとるため、撮影画像Picに映る物体の動きを見て挟み込み検出を行えば、人体が検知エリアEに侵入したか否かを、より高い精度で判定することができる。従って、挟み込み検出のアルゴリズムとしてオプティカルフロー検知手法や画像差分検知手法を用いれば、挟み込み検出に際して誤検出を生じ難くすることができる。   (8) When an optical flow detection method or an image difference detection method is used as an entrapment detection algorithm, entrapment is detected by looking at the movement of an object reflected in the captured image Pic. By the way, since the movement of the human body such as a hand or a finger takes its own movement, if the pinching detection is performed by looking at the movement of the object shown in the captured image Pic, it is determined whether or not the human body has entered the detection area E. It can be determined with high accuracy. Therefore, if an optical flow detection method or an image difference detection method is used as an entrapment detection algorithm, it is possible to prevent erroneous detection during entrapment detection.

(9)挟み込み検出のアルゴリズムとしてマーカ監視検知手法を用いた場合、赤外線カメラ14の画像データDpicからマーカ画像領域40を抽出し、これを異物侵入判定の際の異物判定基準領域として使用する。従って、例えばペイントソフト等で画像にマーキングを付すことで検知エリアEを特定したテンプレートデータDtempを、予めEEPROM23等のメモリに登録する作業が不要となり、面倒なデータ編集作業などを行わずに済む。   (9) When the marker monitoring detection method is used as the trapping detection algorithm, the marker image area 40 is extracted from the image data Dpic of the infrared camera 14 and used as a foreign substance determination reference area in the foreign substance intrusion determination. Therefore, for example, it is not necessary to register the template data Dtemp specifying the detection area E in the memory such as the EEPROM 23 by marking the image with paint software or the like, and it is not necessary to perform troublesome data editing operations.

(10)画像処理を用いた挟み込み検出の手法として複数のアルゴリズムを用意し、これら複数のアルゴリズムの中から、挟み込み検出時におけるその時々の照度に応じた最適なアルゴリズムを選択して挟み込み検出を行う。従って、検知エリアE(マーカが画像領域40)に異物が侵入したか否かの判定を精度よく行うことができ、挟み込みの有無を検出するに際して誤判定が生じ難くなる。   (10) A plurality of algorithms are prepared as a method for detecting pinching using image processing, and an optimum algorithm corresponding to the illuminance at the time of pinching detection is selected from the plurality of algorithms to perform pinching detection. . Therefore, it is possible to accurately determine whether or not a foreign object has entered the detection area E (marker is the image area 40), and erroneous determination is less likely to occur when detecting the presence or absence of pinching.

(11)人の目には見えない性質のある近赤外線を近赤外線LED14aから照射し、被写体で跳ね返ってきた近赤外線を用いて窓枠周辺の画像を撮影する赤外線カメラ14を用いた。従って、夜間などの暗所において、人の視界に影響を及ぼしたり、或いは窓枠周囲に不要な光を照らし出したりすることなく、窓枠周辺の画像(動き)を撮影することができる。また、赤外線カメラ14として赤外線を照射する機種を用いることも考えられるが、赤外線には赤外線カメラ14に映り込まない波長領域もあるため、場合によっては画像の映り込まない部分が生じる可能性もあるが、近赤外線を用いれば、この種の問題が生じ難くなる。   (11) An infrared camera 14 is used that irradiates near infrared LED 14a with a near infrared ray that is invisible to human eyes, and uses the near infrared ray bounced off by the subject to capture an image around the window frame. Therefore, in a dark place such as at night, an image (motion) around the window frame can be taken without affecting the human field of view or illuminating unnecessary light around the window frame. Further, although it is conceivable to use a model that irradiates infrared rays as the infrared camera 14, since there is a wavelength region in which infrared rays are not reflected in the infrared camera 14, there is a possibility that a portion where an image is not reflected may occur depending on circumstances. However, if near infrared rays are used, this type of problem is less likely to occur.

(12)ウインドウ3が開状態のときに赤外線カメラ14が起動するようにしたので、車載バッテリの節電に効果がある。
なお、本実施形態は上記構成に限定されず、例えば以下の態様に変更してもよい。
(12) Since the infrared camera 14 is activated when the window 3 is in the open state, it is effective for power saving of the in-vehicle battery.
In addition, this embodiment is not limited to the said structure, For example, you may change to the following aspects.

・ ウインドウ3による挟み込み検出は、検知エリアE(マーカ画像領域40)に異物と思しき物体が侵入した事を条件として、挟み込み有りと判定することに限定されない。例えば、検知エリアE(マーカ画像領域40)に異物と思しき物体が侵入し、しかもその時にウインドウ3が昇降中であることを条件に挟み込み有りと判定するようにしてもよい。   The pinching detection by the window 3 is not limited to determining that pinching is present on the condition that an object that seems to be a foreign object has entered the detection area E (marker image area 40). For example, it may be determined that the object is caught on the condition that an object that seems to be a foreign object enters the detection area E (marker image area 40) and the window 3 is moving up and down at that time.

・ 画像処理を用いた本例の挟み込み検出機能と、背景技術で述べたようなパルスセンサ8の出力により挟み込みを検出する従来の挟み込み検出機能とを併用してもよい。この場合、例えば画像処理による挟み込み検出機能が故障しても、パルス出力による挟み込み検出機能により挟み込みの有無が監視可能となるため、フェールセーフを満たすことができる。   The pinching detection function of this example using image processing may be used in combination with the conventional pinching detection function for detecting pinching by the output of the pulse sensor 8 as described in the background art. In this case, for example, even if the pinching detection function based on image processing fails, the presence or absence of pinching can be monitored by the pinching detection function based on pulse output, so that fail-safe can be satisfied.

・ 挟み込み検出用のアルゴリズムは複数用意することに限らず、実施形態に述べた4パターンの中の1つのみ使用することにしてもよい。
・ 窓枠周辺を撮影する撮影手段は、必ずしも赤外線カメラ14に限らず、例えばカラーカメラを用いてもよい。撮影手段としてカラーカメラを用い、特徴量検知手法やマーカ監視検知手法で挟み込み検出を行った場合、特徴量Tとして色相や彩度を用いて異物判定を行うことが可能である。
-It is not limited to preparing a plurality of trapping detection algorithms, and only one of the four patterns described in the embodiment may be used.
The photographing means for photographing the periphery of the window frame is not necessarily limited to the infrared camera 14, and for example, a color camera may be used. When a color camera is used as the photographing means and the pinching detection is performed by the feature amount detection method or the marker monitoring detection method, it is possible to perform foreign object determination using the hue or saturation as the feature amount T.

・ 検知エリア抽出機能を用いて赤外線カメラ14の画像データDpicから検知エリアEを抽出する際、抽出したウインドウ画像領域46の上端縁から数十画素分のエリアを検知エリアEとしたが、どのエリアを検知エリアEとするかの決め方は自由に適宜設定可能である。   When extracting the detection area E from the image data Dpic of the infrared camera 14 using the detection area extraction function, the area corresponding to several tens of pixels from the upper edge of the extracted window image area 46 is set as the detection area E. Can be appropriately set as desired.

・ ウインドウ3の材質に遮熱ガラスを採用してもよい。この場合、赤外線カメラ14で撮影を行うと、ウインドウ部分が暗く映り込む状態となり、画像データDpicから物体判定を行う際の判定精度を向上することができる。   -You may employ | adopt heat insulation glass for the material of the window 3. As shown in FIG. In this case, when shooting is performed with the infrared camera 14, the window portion is reflected darkly, and the determination accuracy when performing object determination from the image data Dpic can be improved.

・ 本例の画像処理による挟み込み検出機能の採用対象は、必ずしも車両1のドア2に限定されず、例えば住宅のドアなどの他機器のパワーウインドウ装置を採用対象としてもよい。   -The adoption object of the pinching detection function by the image processing of this example is not necessarily limited to the door 2 of the vehicle 1, but may be a power window device of another device such as a door of a house, for example.

次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
(1)請求項7において、前記画像処理手段は、前記特徴量を基に前記画像データに映り込んだ物体の動きを検出し、当該動きから前記挟み込みの有無を検出する。
Next, technical ideas that can be grasped from the above-described embodiment and other examples will be described below together with their effects.
(1) In Claim 7, the image processing means detects a motion of an object reflected in the image data based on the feature amount, and detects the presence or absence of the pinching from the motion.

(2)請求項7及び前記技術的思想(1)において、前記窓枠に、光反射率の高い光反射材料を設け、前記画像処理手段は、前記光反射材料を撮影した画像から当該光反射材料の画像領域を取得し、この領域において前記特徴量を求め、当該特徴量の変化から前記挟み込みの有無を検出する。   (2) In claim 7 and the technical idea (1), the window frame is provided with a light reflecting material having a high light reflectance, and the image processing means reflects the light from an image obtained by photographing the light reflecting material. An image region of the material is acquired, the feature amount is obtained in this region, and the presence or absence of the sandwiching is detected from the change in the feature amount.

(3)請求項7及び前記技術的思想(1),(2)において、前記撮影手段の前記画像データから前記窓枠周辺の照度を算出する照度算出手段と、挟み込み有無の検出手法が各々異なる複数のアルゴリズムを記憶した記憶手段とを備え、前記画像処理手段は、前記記憶手段内の複数のアルゴリズムの中から前記照度に応じたアルゴリズムを選択し、当該アルゴリズムを用いて前記挟み込みの有無を検出する。   (3) In claim 7 and the technical ideas (1) and (2), the illuminance calculating means for calculating the illuminance around the window frame from the image data of the photographing means is different from the detection method for the presence or absence of pinching. A storage unit storing a plurality of algorithms, wherein the image processing unit selects an algorithm corresponding to the illuminance from the plurality of algorithms in the storage unit, and detects the presence or absence of the pinching using the algorithm To do.

(4)請求項7及び前記技術的思想(1)〜(3)において、前記撮影手段は、近赤外線を前記窓枠周辺に発光し、被写体で反射した前記近赤外線を用いて前記挟み込みの有無を検出する。   (4) In Claim 7 and the technical ideas (1) to (3), the photographing means emits near infrared light around the window frame and the presence or absence of the pinching using the near infrared light reflected by the subject. Is detected.

(5)請求項7及び前記技術的思想(1)〜(4)において、前記撮影手段の前記画像データから前記窓枠周辺の照度を算出する照度算出手段を備え、前記画像処理手段は、前記挟み込み有無を検出する際に実行するアルゴリズムにおいて、そのアルゴリズム内で用いる閾値を前記照度に応じた値に設定し、当該閾値を用いて前記挟み込み有無を検出する。この場合、挟み込みを検出するに際して窓枠周辺の照度が算出され、アルゴリズムを実行して挟み込み検出を行う際に用いる閾値が、その時の照度に応じた値に設定される。従って、アルゴリズムを実行する際、その時の照度に応じた最適の閾値で挟み込み検出を行うことが可能となり、挟み込み有無を判定するに際して誤判定防止に非常に効果が高い。   (5) In claim 7 and the technical ideas (1) to (4), the image processing unit includes an illuminance calculating unit that calculates an illuminance around the window frame from the image data of the imaging unit, In an algorithm executed when detecting the presence / absence of pinching, a threshold used in the algorithm is set to a value corresponding to the illuminance, and the presence / absence of pinching is detected using the threshold. In this case, when detecting pinching, the illuminance around the window frame is calculated, and the threshold used when detecting pinching by executing the algorithm is set to a value corresponding to the illuminance at that time. Therefore, when executing the algorithm, it is possible to detect pinching with an optimum threshold value according to the illuminance at that time, and it is very effective in preventing erroneous determination when determining whether pinching has occurred.

一実施形態におけるパワーウインドウ装置の構成を示すブロック図。The block diagram which shows the structure of the power window apparatus in one Embodiment. 赤外線カメラが撮影した窓枠周辺の撮影画像図。FIG. 6 is a photographed image view around a window frame photographed by an infrared camera. 撮影画像から求まるオプティカルフローを表した概念図。The conceptual diagram showing the optical flow calculated | required from a picked-up image. オプティカルフロー検知手法による物体の動きの求め方を説明する際の概念図。The conceptual diagram at the time of explaining how to obtain the movement of an object by the optical flow detection method. オプティカルフロー検知手法の説明図であり、(a)は撮影画像の輝度から求めた所定画面横軸方向の画素列の輝度波形図、(b)はその輝度エッジ波形図、(c)は連続する撮影画像間における輝度エッジ波形の波形差を表す波形図。It is explanatory drawing of an optical flow detection method, (a) is the luminance waveform figure of the pixel column of the predetermined screen horizontal axis direction calculated | required from the brightness | luminance of the picked-up image, (b) is the luminance edge waveform figure, (c) is continuous. The wave form diagram showing the waveform difference of the brightness | luminance edge waveform between picked-up images. 勾配法を説明するための概略図。Schematic for demonstrating the gradient method. 画像差分検知手法の概略を説明する概念図。The conceptual diagram explaining the outline of an image difference detection method. 画像差分検知手法による物体の動きの求め方を説明する際の概念図。The conceptual diagram at the time of explaining how to obtain the motion of an object by the image difference detection method. 特徴量として検知エリア内の輪郭を用いた時の特徴量検知手法の説明図であり、(a)は撮影画像の輝度から求めた所定画面横軸方向の画素列の輝度波形図、(b)はその輝度エッジ波形図、(c)は連続する撮影画像間における輝度エッジ波形の波形差を表す波形図。It is explanatory drawing of the feature-value detection method when the outline in a detection area is used as a feature-value, (a) is a luminance waveform figure of the pixel row of the predetermined screen horizontal axis direction calculated | required from the brightness | luminance of the picked-up image, (b). Is a luminance edge waveform diagram, (c) is a waveform diagram showing the waveform difference of the luminance edge waveform between consecutive captured images. 検知エリアに異物が侵入した際の窓枠周辺の撮影画像図。The photographed image figure of the window frame periphery when a foreign material penetrate | invades into a detection area. 特徴量検知手法により異物侵入を検出した際の説明図であり、(a)はその時の撮影画像の輝度から求めた所定画面横軸方向の画素列の輝度波形図、(b)はその輝度エッジ波形図、(c)は連続する撮影画像間における輝度エッジ波形の波形差を表す波形図。It is explanatory drawing at the time of detecting the foreign substance invasion by the feature amount detection method, (a) is a luminance waveform diagram of a pixel column in a predetermined screen horizontal axis direction obtained from the luminance of the photographed image at that time, (b) is the luminance edge The waveform diagram, (c) is a waveform diagram showing the waveform difference of the luminance edge waveform between consecutive captured images. 特徴量として検知エリア内の領域面積を用いた時の特徴量検知手法の説明図であり、(a)は検知エリアに異物が侵入していない時の撮影画像図、(b)は検知エリアに異物が侵入した時の撮影画像図。It is explanatory drawing of the feature-value detection method when the area | region area in a detection area is used as a feature-value, (a) is a picked-up image figure when the foreign material has not penetrate | invaded the detection area, (b) is a detection area. The photographed image figure when a foreign material invades. マーカ監視検知手法の概略を説明する際に用いるドアの側面図。The side view of the door used when explaining the outline of a marker monitoring detection method. マーカ監視検知手法の説明図であり、(a)は撮影画像の輝度から求めた所定画面横軸方向の画素列の輝度波形図、(b)はその輝度エッジ波形図、(c)はマーカ画像領域に異物が侵入していない時の撮影画像図。It is explanatory drawing of a marker monitoring detection method, (a) is the luminance waveform figure of the pixel row | line of the predetermined screen horizontal axis direction calculated | required from the brightness | luminance of the picked-up image, (b) is the luminance edge waveform figure, (c) is a marker image. FIG. 6 is a photographed image diagram when no foreign matter has entered the area. マーカ画像領域に異物が侵入した際の窓枠周辺の撮影画像図。FIG. 6 is a photographed image view around a window frame when a foreign object enters the marker image area. マーカ監視検知手法により異物侵入を検出した際の説明図であり、(a)はその時の撮影画像の輝度から求めた所定画面横軸方向の画素列の輝度波形図、(b)はその輝度エッジ波形図、(c)はその時の撮影画像図。It is explanatory drawing when a foreign substance intrusion is detected by the marker monitoring detection method, (a) is a luminance waveform diagram of a pixel column in a predetermined screen horizontal axis direction obtained from the luminance of a captured image at that time, and (b) is a luminance edge thereof Waveform diagram, (c) is a photographed image at that time. 特徴量としてマーカ画像領域の領域面積を用いた時のマーカ監視検知手法の説明図であり、(a)はマーカ画像領域に異物が侵入していない時の撮影画像図、(b)はマーカ画像領域に異物が侵入した時の撮影画像図。It is explanatory drawing of the marker monitoring detection method when the area | region area of a marker image area is used as a feature-value, (a) is a picked-up image figure when the foreign material has not penetrate | invaded a marker image area, (b) is a marker image. FIG. 6 is a photographed image diagram when a foreign object enters an area. 挟み込み検出時に実行する挟み込み防止制御のフローチャート。The flowchart of the pinching prevention control performed at the time of pinching detection. 検知エリア抽出機能を説明する際に用いるドアの側面図。The side view of the door used when explaining a detection area extraction function. ウインドウの所定箇所のウインドウ位置に応じた輝度変化を示す波形図。The wave form diagram which shows the luminance change according to the window position of the predetermined location of a window. ウインドウ画像領域からサイズ的なノイズを消去する際の説明図。Explanatory drawing at the time of erasing a size-like noise from a window image area. ウインドウ画像領域から積算方向でない部分をノイズとして消去する説明図。Explanatory drawing which erases the part which is not an integration direction from a window image area as noise. ウインドウ画像領域から検知エリアを特定する際の撮影画像図。The picked-up image figure at the time of specifying a detection area from a window image area | region.

符号の説明Explanation of symbols

3…ウインドウ、6…昇降制御手段としてのパワーウインドウECU、14…撮影手段としての赤外線カメラ、15…抽出手段、ノイズ除去手段、画像処理手段、設定手段及び実行手段を構成する画像処理装置、27…窓枠、46…ウインドウ画像領域、46a…基準サイズ、47…動き領域、Dpic…画像データ、Pic…撮影画像、T…特徴量、K…照度、E…検知エリア、A…積算方向としての矢印方向。   DESCRIPTION OF SYMBOLS 3 ... Window, 6 ... Power window ECU as raising / lowering control means, 14 ... Infrared camera as imaging | photography means, 15 ... Extraction means, Noise removal means, Image processing means, Setting means, The image processing apparatus which comprises an execution means, 27 ... window frame, 46 ... window image area, 46a ... reference size, 47 ... motion area, Dpic ... image data, Pic ... photographed image, T ... feature, K ... illuminance, E ... detection area, A ... accumulation direction Arrow direction.

Claims (7)

窓枠周辺を撮影する撮影手段と、
前記撮影手段が撮影した画像データを用い、当該画像データの輝度の変化から撮影画像におけるウインドウ部分の領域としてウインドウ画像領域を抽出する抽出手段と
を備えたことを特徴とするウインドウ画像領域検出装置。
Photographing means for photographing the periphery of the window frame;
A window image area detection apparatus comprising: extraction means for extracting a window image area as an area of a window portion in a photographed image using image data photographed by the photographing means from a change in luminance of the image data.
前記抽出手段は、前記撮影手段の撮影画像に映る物体の動きを検出するに際して、その時の照度に応じて変わる可変の閾値を用いて当該動き領域を抽出し、その抽出した動き領域を順次積算することにより、前記ウインドウ画像領域を抽出することを特徴とする請求項1に記載のウインドウ画像領域検出装置。   The extraction means, when detecting the motion of an object shown in the photographed image of the photographing means, extracts the motion area using a variable threshold that changes according to the illuminance at that time, and sequentially integrates the extracted motion areas. The window image area detection apparatus according to claim 1, wherein the window image area is extracted by the above-described process. 前記抽出手段が抽出した前記ウインドウ画像領域から、前記ウインドウの画像として不適切な領域をノイズとして除去するノイズ除去手段を備えたことを特徴とする請求項1又は2に記載のウインドウ画像領域検出装置。   The window image area detection apparatus according to claim 1, further comprising: a noise removal unit that removes an inappropriate area as an image of the window as noise from the window image area extracted by the extraction unit. . 前記ノイズ除去手段は、前記抽出手段が求めた前記ウインドウ画像領域と、当該ウインドウ画像領域の基準サイズとを比較し、当該基準サイズからはみ出す領域をノイズと認識し、その領域を前記ウインドウ画像領域から除去することを特徴とする請求項3に記載のウインドウ画像領域検出装置。   The noise removing unit compares the window image area obtained by the extracting unit with a reference size of the window image area, recognizes an area protruding from the reference size as noise, and extracts the area from the window image area. The window image area detecting apparatus according to claim 3, wherein the window image area detecting apparatus is removed. 前記ノイズ除去手段は、前記動き領域を求めてそれを積算する際に、前記積算方向とは異なる方向の動く領域をノイズと認識し、その領域を前記ウインドウ画像領域から除去することを特徴とする請求項3又は4に記載のウインドウ画像領域検出装置。   The noise removing means recognizes a moving area in a direction different from the accumulation direction as noise when obtaining the moving area and integrating the moving area, and removes the area from the window image area. The window image area detection device according to claim 3 or 4. 前記ウインドウの素材に、遮熱材を使用したことを特徴とする請求項1〜5のうちいずれか一項に記載のウインドウ画像領域検出装置。   The window image area detection device according to claim 1, wherein a heat shielding material is used as a material of the window. 昇降動作中のウインドウにより異物が挟み込まれることを防止する挟み込み防止機能を備えたパワーウインドウ装置において、
窓枠周辺を撮影する撮影手段と、
前記撮影手段が撮影した画像データを用い、当該画像データの輝度の変化から撮影画像におけるウインドウ部分の領域としてウインドウ画像領域を抽出する抽出手段と、
前記抽出手段が抽出した前記ウインドウ画像領域から、異物判定の際に用いる検知エリアを設定する設定手段と、
前記画像データに映り込んだ輝度から求まる特徴量を用い、前記検知エリアへの異物の侵入を監視することで前記挟み込みの有無を検出する画像処理手段と、
前記画像処理手段が前記挟み込みを検出した際に、前記挟み込みを防止し得る安全動作を、前記ウインドウの昇降を制御する昇降制御手段に実行させる実行手段と
を備えたことを特徴とするパワーウインドウ装置。







In the power window device having a pinching prevention function for preventing foreign objects from being pinched by the window during the lifting operation,
Photographing means for photographing the periphery of the window frame;
An extraction means for extracting a window image area as an area of a window part in a photographed image from a change in luminance of the image data using image data photographed by the photographing means;
Setting means for setting a detection area used in foreign object determination from the window image region extracted by the extraction means;
Image processing means for detecting the presence or absence of pinching by monitoring the intrusion of foreign matter into the detection area using a feature amount obtained from the brightness reflected in the image data;
A power window device comprising: an execution unit that causes a lifting control unit that controls the lifting and lowering of the window to perform a safe operation that can prevent the pinching when the image processing unit detects the pinching. .







JP2006006052A 2006-01-13 2006-01-13 Window image area detection device and power window device Withdrawn JP2007186916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006006052A JP2007186916A (en) 2006-01-13 2006-01-13 Window image area detection device and power window device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006006052A JP2007186916A (en) 2006-01-13 2006-01-13 Window image area detection device and power window device

Publications (2)

Publication Number Publication Date
JP2007186916A true JP2007186916A (en) 2007-07-26
JP2007186916A5 JP2007186916A5 (en) 2008-10-30

Family

ID=38342263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006006052A Withdrawn JP2007186916A (en) 2006-01-13 2006-01-13 Window image area detection device and power window device

Country Status (1)

Country Link
JP (1) JP2007186916A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103350631A (en) * 2013-06-09 2013-10-16 北京汽车股份有限公司 Vehicle
JP5813893B1 (en) * 2015-03-16 2015-11-17 株式会社城南製作所 Vehicle window glass lifting device, vehicle door, and vehicle
JP5813894B1 (en) * 2015-03-16 2015-11-17 株式会社城南製作所 Vehicle window glass lifting device, vehicle door, and vehicle
JP2016017392A (en) * 2014-07-11 2016-02-01 積水ハウス株式会社 Electric screen and control method for the same
CN105927088A (en) * 2016-06-17 2016-09-07 科世达(上海)管理有限公司 Anti-pinch device and anti-pinch system for power window
WO2016147418A1 (en) * 2015-03-16 2016-09-22 株式会社城南製作所 Vehicle window glass raising/lowering device, vehicle door, and vehicle
JP2016217092A (en) * 2015-05-26 2016-12-22 株式会社城南製作所 Vehicular window glass lifting device and vehicle
JP2017031712A (en) * 2015-08-04 2017-02-09 株式会社城南製作所 Vehicle window glass lifting device and vehicle
CN109871734A (en) * 2017-12-01 2019-06-11 爱信精机株式会社 Control device and program
CN111746235A (en) * 2019-03-29 2020-10-09 上海擎感智能科技有限公司 Vehicle window control system and method thereof
CN111927233A (en) * 2020-08-13 2020-11-13 江苏理工学院 Non-contact type car window anti-pinch system based on infrared detection
CN113686562A (en) * 2021-08-26 2021-11-23 浙江吉利控股集团有限公司 Vehicle door offline detection method and device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103350631A (en) * 2013-06-09 2013-10-16 北京汽车股份有限公司 Vehicle
JP2016017392A (en) * 2014-07-11 2016-02-01 積水ハウス株式会社 Electric screen and control method for the same
US10400497B2 (en) 2015-03-16 2019-09-03 Mitsuba Corporation Vehicle window glass raising/lowering device, vehicle door, and vehicle
JP5813893B1 (en) * 2015-03-16 2015-11-17 株式会社城南製作所 Vehicle window glass lifting device, vehicle door, and vehicle
JP5813894B1 (en) * 2015-03-16 2015-11-17 株式会社城南製作所 Vehicle window glass lifting device, vehicle door, and vehicle
US10400498B2 (en) 2015-03-16 2019-09-03 Mitsuba Corporation Vehicle window glass raising/lowering device, vehicle door, and vehicle
WO2016147418A1 (en) * 2015-03-16 2016-09-22 株式会社城南製作所 Vehicle window glass raising/lowering device, vehicle door, and vehicle
WO2016147416A1 (en) * 2015-03-16 2016-09-22 株式会社城南製作所 Vehicle window glass raising/lowering device, vehicle door, and vehicle
WO2016147417A1 (en) * 2015-03-16 2016-09-22 株式会社城南製作所 Vehicle window glass raising/lowering device, vehicle door, and vehicle
JP2016217092A (en) * 2015-05-26 2016-12-22 株式会社城南製作所 Vehicular window glass lifting device and vehicle
JP2017031712A (en) * 2015-08-04 2017-02-09 株式会社城南製作所 Vehicle window glass lifting device and vehicle
CN105927088A (en) * 2016-06-17 2016-09-07 科世达(上海)管理有限公司 Anti-pinch device and anti-pinch system for power window
CN109871734A (en) * 2017-12-01 2019-06-11 爱信精机株式会社 Control device and program
CN111746235A (en) * 2019-03-29 2020-10-09 上海擎感智能科技有限公司 Vehicle window control system and method thereof
CN111927233A (en) * 2020-08-13 2020-11-13 江苏理工学院 Non-contact type car window anti-pinch system based on infrared detection
CN113686562A (en) * 2021-08-26 2021-11-23 浙江吉利控股集团有限公司 Vehicle door offline detection method and device
CN113686562B (en) * 2021-08-26 2024-03-12 浙江吉利控股集团有限公司 Method and device for detecting off-line of vehicle door

Similar Documents

Publication Publication Date Title
JP2007186915A (en) Power window device
JP2007186916A (en) Window image area detection device and power window device
US8435188B2 (en) Eye opening detection system and method of detecting eye opening
EP1933256B1 (en) Eye closure recognition system and method
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
WO2016038784A1 (en) Driver state determination apparatus
US7912251B2 (en) Eyelid detection apparatus and program therefor
JP5127531B2 (en) Image monitoring device
WO2013157466A1 (en) Smoking detection device, method and program
JP3063504B2 (en) Image data feature detection device
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
CN111267724B (en) Method and system for protecting and reminding vehicle door opening
JP4397415B2 (en) Image processing method, image processing system, image processing apparatus, and computer program
JP4082203B2 (en) Open / close eye determination device
KR101372544B1 (en) System for controlling wheelchair using user&#39;s gesture and situation recognition
JP2019083019A (en) Driver state determination device
US11161470B2 (en) Occupant observation device
KR101669447B1 (en) System and the method for recognizing drowsiness
JP4781292B2 (en) Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program
CN113287298A (en) Image processing device, image processing method, and image processing program
WO2022269654A1 (en) State determination device and state determination method
KR102038371B1 (en) Driver eye detecting device and method thereof
KR101988581B1 (en) Method for estimating condition of driver
US20230273512A1 (en) Projection system and control method
JP2008262417A (en) Eye opening/closing state detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100729