JP5373486B2 - Detection device for opening and closing part - Google Patents

Detection device for opening and closing part Download PDF

Info

Publication number
JP5373486B2
JP5373486B2 JP2009141254A JP2009141254A JP5373486B2 JP 5373486 B2 JP5373486 B2 JP 5373486B2 JP 2009141254 A JP2009141254 A JP 2009141254A JP 2009141254 A JP2009141254 A JP 2009141254A JP 5373486 B2 JP5373486 B2 JP 5373486B2
Authority
JP
Japan
Prior art keywords
opening
area
imaging
illumination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009141254A
Other languages
Japanese (ja)
Other versions
JP2010285821A (en
Inventor
秀章 上條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Copal Corp
Original Assignee
Nidec Copal Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Copal Corp filed Critical Nidec Copal Corp
Priority to JP2009141254A priority Critical patent/JP5373486B2/en
Publication of JP2010285821A publication Critical patent/JP2010285821A/en
Application granted granted Critical
Publication of JP5373486B2 publication Critical patent/JP5373486B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Operating, Guiding And Securing Of Roll- Type Closing Members (AREA)
  • Power-Operated Mechanisms For Wings (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a detector for opening/closing part capable of accurately detecting a person or an object approaching the opening/closing part even when the environment around it is changed or disturbance light enters it. <P>SOLUTION: This detector for opening/closing part includes an illumination unit 40 for illuminating an approach detection region including an approach path when opening the opening/closing part and an imaging unit 50 for imaging the approach detection region. This detector images the predetermined number of images being different depending on luminance conditions by using an imaging means, compares a first rate of luminance with a second rate of luminance which are calculated with respect to the predetermined number of different images, and detects intrusion of the object upon the approach detection region based on change of the rates of luminance per predetermined timing. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、シャッター等の開閉装置に近づく人や物を検出する開閉部用の検出装置に関するものである。   The present invention relates to a detection device for an opening / closing unit that detects a person or an object approaching an opening / closing device such as a shutter.

従来、シャッター等の開閉装置に近づく人や物を、画像処理を行うことによって検出し、検出結果に応じて開閉装置の開閉動作を制御することが行われている。このような開閉装置付近の人や物を検出する検出装置は、例えば、特開2004−68515号公報では、シャッターカーテンなどの開閉装置の片側全面に渡る所定領域を撮影し、撮影した画像と、装置の設置時にあらかじめ撮影された原画像とを比較し、画像中において相違する部分の面積が所定の閾値以上である場合に、物体が開閉装置の開口部に進入したものとして検出を行っている。また、特開平06−200672号公報では、自動扉の前方を撮影した画像データについて微分処理等を行い、物体の輪郭を強調させることによって移動物体の検出を行っている。さらに、特開平05−113090号公報では、シャッターパネルの上方からシャッターの開口部を撮影し、撮影された画像におけるシャッターパネル近傍の領域について、動体の面積、輝度、形状等の特徴から人体の接近の有無を認識している。また、背景画像との差分を取ることにより、輝度等に変化が無い場合であっても動体を検出する構成が記載されている。   2. Description of the Related Art Conventionally, a person or an object approaching an opening / closing device such as a shutter is detected by performing image processing, and the opening / closing operation of the opening / closing device is controlled according to the detection result. For example, in Japanese Patent Application Laid-Open No. 2004-68515, a detection device that detects a person or an object in the vicinity of such an opening / closing device images a predetermined area over the entire surface of one side of the opening / closing device such as a shutter curtain, Compared with the original image taken in advance at the time of installation of the device, if the area of the different part in the image is greater than or equal to a predetermined threshold, it is detected that the object has entered the opening of the switchgear. . In Japanese Patent Application Laid-Open No. 06-200672, a moving object is detected by performing differential processing or the like on image data obtained by photographing the front of an automatic door and enhancing the contour of the object. Further, in Japanese Patent Laid-Open No. 05-113090, the shutter opening is photographed from above the shutter panel, and the human body approaches the area near the shutter panel in the photographed image based on characteristics such as the area, brightness, and shape of the moving object. Recognizes the presence or absence of In addition, a configuration is described in which a moving object is detected by taking a difference from a background image even when there is no change in luminance or the like.

特開2004−068515号公報JP 2004-068515 A 特開平06−200672号公報Japanese Patent Laid-Open No. 06-200672 特開平05−113090号公報Japanese Patent Laid-Open No. 05-113090

しかしながら、前述した従来の検出装置では、画像の比較や、微分などの画像処理を行って人や物を検出しているものの、環境変化や外乱光(車のヘッドライト等)の入射によって検出領域に輝度変化があった場合、これらを人や物として誤検出してしまうといった問題があった。   However, in the above-described conventional detection device, a person or an object is detected by performing image processing such as comparison or differentiation of images, but the detection region is affected by an environmental change or disturbance light (such as a car headlight). When there is a change in luminance, there is a problem that these are erroneously detected as people or objects.

そこで本発明は、開閉部に近づく人や物を、環境変化や外乱光の影響を受けること無く、正確に検出することができる開閉部用の検出装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a detection device for an opening / closing unit that can accurately detect a person or an object approaching the opening / closing unit without being affected by environmental changes or ambient light.

本発明は、開閉部の開放時における進入経路を含む進入検出領域を照明する照明手段と、進入検出領域を撮像する撮像手段と、所定タイミング毎に、撮像手段を用いて輝度条件の異なる所定枚数の画像を撮像し、取得する画像取得手段と、所定枚数の画像についてそれぞれ輝度を算出し、所定枚数の画像間における輝度比率を算出する輝度比率算出手段と、輝度比率算出手段により、異なる所定枚数の画像について算出された第1の輝度比率と第2の輝度比率とを比較する比較手段と、比較手段の比較結果に基づいて進入検出領域への物体の侵入を検出する検出手段とを備えるものとした。 The present invention provides an illumination means for illuminating an entry detection area including an entry path when the opening / closing part is opened, an imaging means for imaging the entry detection area, and a predetermined number of different brightness conditions using the imaging means at every predetermined timing. The image acquisition means for capturing and acquiring the images, the luminance for each of the predetermined number of images, the luminance ratio calculation means for calculating the luminance ratio between the predetermined number of images, and the luminance ratio calculation means, a different predetermined number Comparing means for comparing the first luminance ratio and the second luminance ratio calculated for the image of the image, and detecting means for detecting entry of an object into the entry detection area based on the comparison result of the comparing means It was.

この発明にあっては、異なる複数枚の画像より算出された輝度比率を用いているので、例えば、街灯の照明光が入射している状態で撮像された輝度条件の異なる複数枚の画像の輝度比率と、街灯の照明光が入射していない状態で撮影された輝度条件の異なる複数枚の画像の輝度比率とは、照明光の入射の有無にかかわらず同じとなり、輝度比率に環境変化や外乱光の影響が生じないため、開閉部に近づく物体の検出をより精度良く行うことができる。   In the present invention, since the luminance ratio calculated from a plurality of different images is used, for example, the luminance of a plurality of images with different luminance conditions captured in a state where the illumination light of a streetlight is incident The ratio and the brightness ratio of multiple images with different brightness conditions taken in the absence of streetlight illumination light are the same regardless of whether illumination light is incident. Since the influence of light does not occur, it is possible to detect an object approaching the opening / closing unit with higher accuracy.

また、照明手段および撮像手段は、開閉部の下端近傍に配置され、進入検出領域を、開口部の下端から所定高さ以上の領域とすることが好適である。これにより、例えば、進入物体として検出する必要が無いゴミ等が、地面を転がって開口部に進入したとしても、これらを進入物体として検出してしまうことが無くなり、進入物体の検出精度をより向上させることができる。また、地面以外の領域を撮像領域としているので、影等の影響によって撮像画像内に輝度変化が生じることが少なくなり、より精度良く進入物体の検出を行うことができる。   In addition, it is preferable that the illumination unit and the imaging unit are arranged in the vicinity of the lower end of the opening / closing unit, and the approach detection region is a region having a predetermined height or more from the lower end of the opening. As a result, for example, even if dust that does not need to be detected as an entering object rolls on the ground and enters the opening, it will not be detected as an entering object, and the detection accuracy of the entering object is further improved. Can be made. In addition, since an area other than the ground is used as an imaging area, a change in luminance is less likely to occur in the captured image due to the influence of a shadow or the like, and an entering object can be detected with higher accuracy.

また、照明手段によって照明がされているときに撮像手段によって撮像された画像と、照明がされていないときに撮像手段によって撮像された画像との差分画像を算出する差分画像算出手段をさらに備え、輝度比率算出手段は、差分画像に基づいて輝度比率を算出することが好適である。これにより、撮像された画像中のノイズ成分を除去することができ、進入物体の検出精度をより向上させることができる。   The image processing apparatus further includes a difference image calculation unit that calculates a difference image between an image captured by the imaging unit when illuminated by the illumination unit and an image captured by the imaging unit when not illuminated. It is preferable that the luminance ratio calculation means calculates the luminance ratio based on the difference image. Thereby, the noise component in the imaged image can be removed, and the detection accuracy of the approaching object can be further improved.

また、照明手段は、進入検出領域を配光領域とし、撮像手段は、進入検出領域を含む領域を撮像領域とすることが好適である。あるいは、撮像手段は、進入検出領域を撮像領域とし、照明手段は、進入検出領域を含む領域を配光領域とすることが好適である。これにより、配光領域または撮像領域によって進入検出領域を容易に規定することができる。   In addition, it is preferable that the illumination unit sets the entry detection region as a light distribution region, and the imaging unit sets a region including the entry detection region as an imaging region. Alternatively, it is preferable that the imaging unit sets the approach detection region as an imaging region, and the illumination unit sets a region including the approach detection region as a light distribution region. Thereby, the approach detection area can be easily defined by the light distribution area or the imaging area.

また、画像取得手段は、撮像手段の露光時間を一定時間幅とし、照明手段による照明強度を変更することにより輝度条件の異なる所定枚数の画像を撮像すること、照明手段を常時点灯とし、撮像手段の露光時間を変更することにより輝度条件の異なる所定枚数の画像を撮像すること、撮像手段の露光状態を常時開放とし、照明手段による照明強度を変更することにより輝度条件の異なる所定枚数の画像を撮像することのいずれかを行うことが好適である。これにより、輝度条件の異なる所定枚数の画像を容易に撮像することができる。   Further, the image acquisition means captures a predetermined number of images with different brightness conditions by changing the illumination intensity by the illumination means by setting the exposure time of the imaging means to a certain time width, and always turns on the illumination means. By changing the exposure time, a predetermined number of images with different luminance conditions are taken, the exposure state of the imaging means is always opened, and the illumination intensity by the illuminating means is changed to change a predetermined number of images with different luminance conditions. It is preferable to perform any one of imaging. Thereby, it is possible to easily capture a predetermined number of images having different luminance conditions.

また、輝度比率算出手段は、画像を2つ以上の領域に区分し、区分毎に輝度比率を算出することが好適である。これにより、進入物体の進行方向を検出することができる。   In addition, it is preferable that the luminance ratio calculation unit divides the image into two or more areas and calculates the luminance ratio for each of the sections. Thereby, the advancing direction of the approaching object can be detected.

また、照明手段は、赤外光線を用いて照明を行うものであり、撮像手段は、赤外光線の波長近傍の波長のみを通過させるフィルタを備えていることが好適である。この場合には、不要な光線をフィルタによって遮断して、撮像を行うことができるので、移動物体の検出精度をより向上させることができる。   In addition, the illumination unit performs illumination using infrared rays, and the imaging unit preferably includes a filter that allows only wavelengths in the vicinity of the wavelength of infrared rays to pass. In this case, since unnecessary light rays can be blocked by a filter and imaging can be performed, detection accuracy of the moving object can be further improved.

本発明によれば、開閉部に近づく人や物を、環境変化や外乱光の影響を受けること無く正確に検出することができる。   According to the present invention, it is possible to accurately detect a person or an object approaching the opening / closing unit without being affected by environmental changes or ambient light.

第1の実施形態におけるシャッター装置の機能ブロック図である。It is a functional block diagram of the shutter device in the first embodiment. 検出部の内部構成を示す一部破断図である。It is a partially broken figure which shows the internal structure of a detection part. 検出部の配光領域を示す図である。It is a figure which shows the light distribution area | region of a detection part. シャッターパネルの開閉動作を停止させる処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which stops the opening / closing operation | movement of a shutter panel. 輝度条件の異なる複数枚の画像を取得する工程を示す図である。It is a figure which shows the process of acquiring the image of several sheets from which brightness | luminance conditions differ. 差分データを算出する工程を示す図である。It is a figure which shows the process of calculating difference data. 特徴データを算出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which calculates feature data. 分割画像データおよび特徴データを示す図である。It is a figure which shows divided image data and feature data. 進入物体を検出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which detects an approaching object. 特徴データ中の変化エリアの遷移状態を示す図である。It is a figure which shows the transition state of the change area in feature data. 輝度条件の異なる複数枚の画像を取得する工程を示す図である。It is a figure which shows the process of acquiring the image of several sheets from which brightness | luminance conditions differ. 検出部の配光領域を示す図である。It is a figure which shows the light distribution area | region of a detection part. 変形例におけるシャッター装置の機能ブロック図である。It is a functional block diagram of a shutter device in a modification. 第2の実施形態におけるシャッター装置の機能ブロック図である。It is a functional block diagram of the shutter apparatus in 2nd Embodiment. パターン照明を用いて進入物体を検出する様子を示す図である。It is a figure which shows a mode that an approaching object is detected using pattern illumination. パターン照明を用いて進入物体を検出する様子を示す図である。It is a figure which shows a mode that an approaching object is detected using pattern illumination. 照射位置が切り替わるパターン照明を用いて進入物体を検出する様子を示す図である。It is a figure which shows a mode that an approaching object is detected using the pattern illumination from which an irradiation position switches. 照射位置が切り替わるパターン照明を用いて進入物体を検出する様子を示す図である。It is a figure which shows a mode that an approaching object is detected using the pattern illumination from which an irradiation position switches. 撮像領域と配光領域とを交差させて進入物体を検出する様子を示す図である。It is a figure which shows a mode that an approaching object is detected by making an imaging area and a light distribution area cross | intersect. 撮像領域と配光領域とを交差させて進入物体を検出する様子を示す図である。It is a figure which shows a mode that an approaching object is detected by making an imaging area and a light distribution area cross | intersect. 本発明に係る開閉部用の検出装置を車両のパワーウィンドウに適用した例を示す図である。It is a figure which shows the example which applied the detection apparatus for the opening / closing part which concerns on this invention to the power window of the vehicle.

以下、図面を参照しつつ、本発明に係る開閉部用の検出装置を、自動開閉機能を有するシャッター装置に適用した例について説明する。   Hereinafter, an example in which the detection device for an opening / closing part according to the present invention is applied to a shutter device having an automatic opening / closing function will be described with reference to the drawings.

まず、第1の実施形態について説明する。   First, the first embodiment will be described.

図1に示すように、シャッター装置1は、開口部を開閉するシャッターパネル2と、シャッターパネル2を駆動するシャッター駆動部3と、開口部周囲の進入検出領域に、人や物が進入したかどうかを検出する検出部4とより構成される。ここで、進入検出領域とは、シャッターパネル2によって開口部が開放された状態で、開口部への進入経路を含む領域を指すものである。   As shown in FIG. 1, the shutter device 1 includes a shutter panel 2 that opens and closes an opening, a shutter drive unit 3 that drives the shutter panel 2, and whether a person or an object has entered an entry detection area around the opening. It is comprised from the detection part 4 which detects whether. Here, the entry detection area refers to an area including an entry route to the opening in a state where the opening is opened by the shutter panel 2.

シャッター駆動部3は、シャッターパネル2を開閉動作させる駆動機構部31と、検出部4からの停止指示により駆動機構部31を制御してシャッターパネル2の開閉動作を停止させる駆動制御部32と、スイッチ33とを備えている。駆動機構部31には、シャッターパネル2を駆動するための動力源となる駆動電源5が接続されている。スイッチ33は、検出部4からの指示により、駆動電源5から駆動機構部31へ供給される電力を遮断するものである。駆動制御部32は、検出部4からの停止指示があった場合、シャッターパネル2の停止が正常に完了したかどうかを示すチェック信号を検出部4に送信する。   The shutter drive unit 3 includes a drive mechanism unit 31 that opens and closes the shutter panel 2, a drive control unit 32 that controls the drive mechanism unit 31 according to a stop instruction from the detection unit 4 and stops the opening and closing operation of the shutter panel 2, And a switch 33. A driving power source 5 serving as a power source for driving the shutter panel 2 is connected to the driving mechanism unit 31. The switch 33 cuts off the power supplied from the drive power supply 5 to the drive mechanism unit 31 according to an instruction from the detection unit 4. When receiving a stop instruction from the detection unit 4, the drive control unit 32 transmits a check signal indicating whether or not the stop of the shutter panel 2 has been normally completed to the detection unit 4.

検出部4は、進入検出領域を照明する照明ユニット40と、進入検出領域を含む領域を撮像する撮像ユニット50と、照明ユニット40の制御や撮像ユニット50による撮像画像から進入検出領域内に侵入する人や物を検出する制御部60とより構成される。   The detection unit 4 enters the entry detection area from the illumination unit 40 that illuminates the entry detection area, the imaging unit 50 that captures the area including the entry detection area, and the control of the illumination unit 40 and the image captured by the imaging unit 50. It is comprised from the control part 60 which detects a person or an object.

制御部60は、照明ユニット40の照明点灯のオンオフや照明強度などを制御する照明点灯制御部61と、撮像ユニット50の撮像タイミングや露光時間などの制御を行う撮像素子駆動制御部62とを備えている。撮像素子駆動制御部62の制御による撮像ユニット50の撮像タイミングと、照明点灯制御部61の制御による照明ユニット40の照明照射タイミングとは同期している。   The control unit 60 includes an illumination lighting control unit 61 that controls on / off of illumination lighting of the illumination unit 40, illumination intensity, and the like, and an imaging element drive control unit 62 that controls imaging timing, exposure time, and the like of the imaging unit 50. ing. The imaging timing of the imaging unit 50 controlled by the imaging element drive control unit 62 and the illumination irradiation timing of the illumination unit 40 controlled by the illumination lighting control unit 61 are synchronized.

さらに、制御部60は、撮像ユニット50で撮像された画像データを取得する画像データ取得部63と、取得された画像データより進入検出領域内に侵入する人や物の検出を行う検出処理部64と、検出処理部64による判定結果に基づいてシャッター駆動部3に対してシャッターパネル2の作動停止を要求する判定結果出力部65と、撮像ユニット50から取得された画像データなどを記憶する記憶部66と、進入検出処理を終了するかどうかを判定する終了判定部67と、を備える。   Furthermore, the control unit 60 acquires an image data acquisition unit 63 that acquires image data captured by the imaging unit 50, and a detection processing unit 64 that detects a person or an object that enters the entry detection region from the acquired image data. And a determination result output unit 65 that requests the shutter drive unit 3 to stop the operation of the shutter panel 2 based on a determination result by the detection processing unit 64, and a storage unit that stores image data acquired from the imaging unit 50, and the like 66 and an end determination unit 67 for determining whether or not to end the entry detection process.

検出部4は、具体的には図2に示すように、筐体100の内部に備えられた、光を受光する撮像素子101と、撮像素子101の前面に配置された光学フィルタ102と、光を撮像素子101上に集光させる撮像用レンズ103と、光源104と、光源104からの光を所定領域に配光するための照明用レンズ105と、撮像素子101や光源104などを制御するための制御基板106と、シャッター駆動部3に接続するためのコネクタ109と、より構成される。撮像素子101、光学フィルタ102および撮像用レンズ103より撮像ユニット50が構成され、光源104と照明用レンズ105とより照明ユニット40が構成される。撮像素子101として、例えば、CMOS(Complementary Metal Oxide Semiconductor)を用いることができる。   Specifically, as illustrated in FIG. 2, the detection unit 4 includes an imaging element 101 that receives light, an optical filter 102 that is disposed in front of the imaging element 101, For controlling the imaging lens 103 for condensing the light on the imaging device 101, the light source 104, the illumination lens 105 for distributing the light from the light source 104 to a predetermined area, the imaging device 101, the light source 104, and the like. The control board 106 and a connector 109 for connecting to the shutter driving unit 3 are configured. An imaging unit 50 is configured by the imaging element 101, the optical filter 102, and the imaging lens 103, and an illumination unit 40 is configured by the light source 104 and the illumination lens 105. As the image sensor 101, for example, a complementary metal oxide semiconductor (CMOS) can be used.

筐体100の前面には、照射窓107とセンサ窓108とが設けられている。光源104からの光は、照射窓107を介して進入検出領域に向けて照射される。撮像ユニット50は、センサ窓108を介して進入検出領域を含む領域を撮像する。   An irradiation window 107 and a sensor window 108 are provided on the front surface of the housing 100. Light from the light source 104 is irradiated toward the entry detection region through the irradiation window 107. The imaging unit 50 images an area including the entry detection area via the sensor window 108.

光源104は、赤外光線を発生させるものである。光学フィルタ102は、バンドパスフィルタであり、赤外光線近傍の波長のみを通過させるものである。制御基板106は、CPUやメモリ(記憶部66)などが搭載されており、図1の制御部60における処理を行う。   The light source 104 generates infrared rays. The optical filter 102 is a band-pass filter and passes only wavelengths near the infrared ray. The control board 106 is mounted with a CPU, a memory (storage unit 66), and the like, and performs processing in the control unit 60 of FIG.

図3(a)に示すように、検出部4は、シャッター装置1の開口部の上方位置に取り付けられ、開口部への進入経路を含む進入検出領域に向けて照明光を照射するとともに撮像を行う。照明光は、シャッター装置1の両サイドに設けられている横枠6によって、横方向への広がりが規制されている。検出部4は、照明の配光領域を含む領域を撮像する。図3(b)に示すように、検出部4は、シャッターパネル2の両面側に設けられている。   As shown in FIG. 3A, the detection unit 4 is attached to a position above the opening of the shutter device 1, and irradiates illumination light toward an entry detection region including an entry path to the opening and performs imaging. Do. The spread of the illumination light in the horizontal direction is regulated by the horizontal frames 6 provided on both sides of the shutter device 1. The detection unit 4 captures an area including a light distribution area. As shown in FIG. 3B, the detection unit 4 is provided on both sides of the shutter panel 2.

次に、図4を用いて、進入検出領域内に進入する人や物を検出し、シャッターを停止させる処理の流れについて説明する。   Next, a flow of processing for detecting a person or an object entering the entry detection area and stopping the shutter will be described with reference to FIG.

なお、この処理は、シャッター装置1の利用者によってシャッターパネル2の開閉動作の指示があった時に開始される。シャッターパネル2の開閉動作の指示があると、ステップS10において、検出部4に電源が投入される。ステップS11において検出部4は、各部の初期設定を行う。この初期設定として、例えば、撮像画像が飽和することが無い適性な露光条件となるように照明ユニット40や撮像ユニット50を設定することなどがある。   This process is started when the user of the shutter device 1 gives an instruction to open and close the shutter panel 2. When there is an instruction to open and close the shutter panel 2, the power is supplied to the detection unit 4 in step S10. In step S11, the detection unit 4 performs initial setting of each unit. As the initial setting, for example, the illumination unit 40 and the imaging unit 50 may be set so as to have an appropriate exposure condition in which the captured image is not saturated.

ステップS12において撮像素子駆動制御部62は、輝度条件の異なる複数枚の画像を撮像するように、撮像ユニット50の制御、および照明点灯制御部61に対して要求を行う。ステップS13において撮像ユニット50は、進入検出領域を含む領域について、輝度条件の異なる複数枚の画像を撮像し、撮像した画像データを画像データ取得部63へ転送する。ここで、画像データ取得部63へ転送される輝度条件の異なる複数枚の画像とは、例えば、図5に示すように、撮像ユニット50の露光時間を1/1000secとし、照明ユニット40による照明の強度を不点灯、強、中、弱の4段階に変化させて撮像したものである。また、これらの輝度条件の変更を繰り返し行って撮像するものであり、この撮像は、例えば33ms間隔で連続して行うものである。これにより、図6に示すように、照明不点灯時と輝度条件1〜nの画像データを1サイクルとして、輝度条件の異なる複数枚の画像データを繰り返し取得することができる。   In step S <b> 12, the imaging element drive control unit 62 makes a request to the control of the imaging unit 50 and the illumination lighting control unit 61 so as to capture a plurality of images having different luminance conditions. In step S <b> 13, the imaging unit 50 captures a plurality of images with different luminance conditions for the region including the entry detection region, and transfers the captured image data to the image data acquisition unit 63. Here, the plurality of images having different luminance conditions transferred to the image data acquisition unit 63 are, for example, as shown in FIG. 5, the exposure time of the imaging unit 50 is 1/1000 sec, and the illumination unit 40 performs illumination. The image is obtained by changing the intensity into four levels of non-lighting, strong, medium, and weak. Further, these luminance conditions are changed repeatedly for imaging, and this imaging is performed continuously at intervals of 33 ms, for example. As a result, as shown in FIG. 6, a plurality of pieces of image data with different luminance conditions can be repeatedly obtained with the image data of the luminance conditions 1 to n as one cycle when the illumination is not turned on.

ステップS14において画像データ取得部63は、撮像ユニット50から転送された画像データから、進入検出に用いる画像領域のみを切り出し、抽出画像データとして記憶部66に保存する。この進入検出に用いる画像領域とは、照明光の反射光が写る領域である。これにより、図6に示すように、照明不点灯時の抽出画像データと、輝度条件1〜nの抽出画像データとを取得することができる。   In step S <b> 14, the image data acquisition unit 63 cuts out only the image area used for entry detection from the image data transferred from the imaging unit 50, and stores it in the storage unit 66 as extracted image data. The image area used for this approach detection is an area where reflected light of illumination light is reflected. Thereby, as shown in FIG. 6, the extraction image data at the time of lighting non-lighting and the extraction image data of the luminance conditions 1-n are acquirable.

ステップS15において検出処理部64は、記憶部66に保存された抽出画像データから、進入検出判定に用いる特徴データを算出する。この特徴データの算出処理の詳細については後述する。   In step S <b> 15, the detection processing unit 64 calculates feature data used for the entry detection determination from the extracted image data stored in the storage unit 66. Details of the feature data calculation process will be described later.

ステップS16において検出処理部64は、記憶部66に保存された時系列の特徴データ間の比較を行い、進入検出領域に人や物が侵入したかどうかの検出を行う。この進入検出処理の詳細については後述する。   In step S <b> 16, the detection processing unit 64 compares time-series feature data stored in the storage unit 66 and detects whether a person or an object has entered the entry detection area. Details of this approach detection process will be described later.

ステップS17において判定結果出力部65は、検出処理部64によって進入検出領域に人や物が侵入したことが検出されたかどうかを判断し、進入が検出されていない場合(NO)にはステップS18へ進み、進入が検出されている場合(YES)にはステップS19へ進む。   In step S17, the determination result output unit 65 determines whether or not a person or an object has entered the entry detection area by the detection processing unit 64. If no entry has been detected (NO), the process proceeds to step S18. If the entry is detected (YES), the process proceeds to step S19.

ステップS18において終了判定部67は、進入検出処理を終了するかどうかの判断を行う。この判断は、例えば、シャッターパネル2の開閉動作の指示が終了後、一定時間経過後に進入検出処理を終了するものとして判定する。終了判定がされた場合(YES)には、検出部4の電源を切り、本処理を終了する。一方、終了判定がされていない場合(NO)には、ステップS12へ戻り、上述の進入検出処理を繰り返す。   In step S <b> 18, the end determination unit 67 determines whether to end the entry detection process. This determination is made, for example, by determining that the entry detection process is to be ended after a lapse of a certain time after the instruction to open and close the shutter panel 2 is completed. When the termination determination is made (YES), the power of the detection unit 4 is turned off and the present process is terminated. On the other hand, when the end determination has not been made (NO), the process returns to step S12 and the above-described entry detection process is repeated.

ステップS17において進入検出領域へ人や物が侵入したことが検出された場合、ステップS19において判定結果出力部65は、駆動制御部32に対してシャッターパネル2の作動を停止させる指示を行う。ステップS20において判定結果出力部65は、駆動制御部32から送信されるチェック信号を確認し、シャッターパネル2の停止が正常に行われたかどうかを判断する。シャッターパネル2の停止が正常に行われた場合(YES)には、本処理を終了し、正常に行われなかった場合(NO)にはステップS21へ進む。   When it is detected in step S17 that a person or an object has entered the entry detection area, the determination result output unit 65 instructs the drive control unit 32 to stop the operation of the shutter panel 2 in step S19. In step S20, the determination result output unit 65 confirms the check signal transmitted from the drive control unit 32, and determines whether or not the shutter panel 2 has been normally stopped. If the shutter panel 2 is normally stopped (YES), this process is terminated. If the shutter panel 2 is not normally stopped (NO), the process proceeds to step S21.

ステップS21において判定結果出力部65は、フェールセーフ機能を作動させ、スイッチ33を制御して駆動電源5から駆動機構部31への電力供給を遮断する。電力供給の遮断後、本処理を終了する。   In step S <b> 21, the determination result output unit 65 activates the fail-safe function and controls the switch 33 to cut off the power supply from the drive power supply 5 to the drive mechanism unit 31. After the power supply is cut off, this process is terminated.

次に、図4のステップS15で行われる特徴データ算出処理の詳細について、図7のフローチャートを用いて説明する。この変換処理は、検出処理部64で行われるものである。   Next, the details of the feature data calculation process performed in step S15 of FIG. 4 will be described using the flowchart of FIG. This conversion process is performed by the detection processing unit 64.

特徴データ算出処理が開始されると、ステップS30において、記憶部66から照明不点灯時の抽出画像データを取得する。ステップS31では、図4のステップS12において照明点灯時の輝度条件を何種類としたかを取得し、初期値として設定する。ここでは、照明点灯時の輝度条件をn種類とし、「輝度条件N(Nmin=1、Nmax=n)」を初期値として設定する。   When the feature data calculation process is started, extracted image data when the illumination is not turned on is acquired from the storage unit 66 in step S30. In step S31, the number of luminance conditions at the time of illumination lighting in step S12 of FIG. 4 is acquired and set as an initial value. Here, n types of luminance conditions at the time of lighting are set, and “luminance condition N (Nmin = 1, Nmax = n)” is set as an initial value.

ステップS32において、記憶部66より輝度条件Nにおける抽出画像データを取得する。ステップS33において、輝度条件Nの抽出画像データと照明不点灯時の抽出画像データの差分処理を行い、図6に示すように輝度条件Nの差分画像データを算出する。この差分処理により、輝度条件Nの抽出画像データ中のノイズ成分を除去することができる。   In step S <b> 32, the extracted image data under the brightness condition N is acquired from the storage unit 66. In step S33, a difference process is performed between the extracted image data under the brightness condition N and the extracted image data when the illumination is not turned on, and the difference image data under the brightness condition N is calculated as shown in FIG. By this difference processing, the noise component in the extracted image data with the luminance condition N can be removed.

ステップS34において、輝度条件Nの差分画像データを分割し、各分割エリア毎に輝度についての積分処理を行うことによって、輝度条件Nの分割画像データを算出する。この分割画像データは、例えば図8に示すように、差分画像データの縦方向を3分割、横方向を16分割し、分割エリア毎に、各エリアの輝度に関する画像データの積分処理を行って積分データ値を求めることによって算出される。なお、分割画像データは、差分画像データ中においてシャッター装置1の開口部に垂直に進入する方向(図8の分割画像データ中の縦方向)を、2以上に分割することが好ましい。これにより、進入検出領域内の人や物の移動方向を検出することができる。次に、ステップS35において、分割画像データの各エリアの積分データ値を記憶部66に保存する。 In step S34, it divides the difference image data of the luminance condition N, by performing integral processing for the luminance for each divided area, and calculates the divided image data of the luminance condition N. The divided image data, for example, as shown in FIG. 8, 3 divide the longitudinal direction of the difference image data, a lateral direction 16 divides, for each divided area, row the integration process of the image data relating to the luminance of each area Calculated by obtaining the integral data value . The divided image data is preferably divided into two or more in the direction (vertical direction in the divided image data in FIG. 8) that enters the opening of the shutter device 1 in the difference image data. Thereby, the moving direction of the person or thing in an approach detection area | region is detectable. Next, in step S35, the integral data value of each area of the divided image data is stored in the storage unit 66.

ステップS36において、輝度条件1〜nの全ての抽出画像データについて、差分画像データおよび分割画像データが算出されたかどうかを判断する。全ての輝度条件について差分画像データおよび分割画像データが算出されている場合(YES)にはステップS37へ進み、算出されていない場合(NO)にはステップS32へ戻り、全ての輝度条件の抽出画像データについての算出処理が終わるまで、上述の処理を繰り返す。   In step S36, it is determined whether difference image data and divided image data have been calculated for all the extracted image data with the luminance conditions 1 to n. When the difference image data and the divided image data are calculated for all the luminance conditions (YES), the process proceeds to step S37, and when not calculated (NO), the process returns to step S32, and the extracted images of all the luminance conditions are obtained. The above process is repeated until the calculation process for data is completed.

ステップS37において、算出された1サイクル分の輝度条件1〜nの分割画像データについて、分割画像データ間における、分割されたエリア毎の積分データ値の比率(輝度比率)を、特徴データとして算出する。この特徴データは、例えば図8に示すように、輝度条件NをN=1〜3とした場合、分割された全てのエリアにおいて輝度比率は、例えば「1:2:4」となる。なお、図8の特徴データにおいて、輝度比率「1:2:4」を一部の分割エリアについてのみ記載し、他は省略してある。次に、ステップS38において、算出された特徴データを記憶部66に保存する。特徴データの保存後、本処理(図7のフローチャート)を終了し、図4のフローチャートに戻る。 In step S37, for the divided image data of the calculated luminance conditions 1 to n for one cycle, the ratio (luminance ratio) of the integrated data value for each divided area between the divided image data is calculated as feature data. . For example, as shown in FIG. 8, in this feature data, when the luminance condition N is set to N = 1 to 3, the luminance ratio in all the divided areas is “1: 2: 4”, for example. In the feature data of FIG. 8, the luminance ratio “1: 2: 4” is described only for some of the divided areas, and the others are omitted. Next, in step S38, the calculated feature data is stored in the storage unit 66. After the feature data is saved, this process (the flowchart in FIG. 7) is terminated, and the process returns to the flowchart in FIG.

次に、図4のステップS16で行われる進入検出処理の詳細について、図9のフローチャート、および図10を用いて説明する。この進入検出処理は、検出処理部64で行われるものである。   Next, details of the approach detection process performed in step S16 of FIG. 4 will be described using the flowchart of FIG. 9 and FIG. This approach detection process is performed by the detection processing unit 64.

ステップS40において、記憶部66より、P時の特徴データ(記憶部66に保存された最新の特徴データ)と、P−1時の特徴データ(P時の特徴データよりも1つ前に保存された特徴データ)とを取得する。ステップS41において、P時の特徴データとP−1時の特徴データとを比較する。   In step S40, feature data at the time P (latest feature data stored in the storage unit 66) and feature data at the time P-1 (previous to the feature data at the time P) are stored from the storage unit 66. Feature data). In step S41, the feature data at P and the feature data at P-1 are compared.

ステップS42において、P時とP−1時の特徴データ間に、予め設定された閾値を超える変化エリアが所定数以上存在するかどうかを判断する。変化エリアが所定数以上存在する場合には、特徴データに変化があったものとしてステップS43へ進み、変化エリアが所定数以上存在しない場合(NO)には、特徴データに変化が無く、進入検出領域に人や物が侵入していないものとして本処理を終了し、図4のフローチャートへ戻る。具体的には、例えば図10に示すように、P時の特徴データについて、P−1時の特徴データと比較したときに輝度比率が変化した変化エリアX1、X2、X3が存在する場合に、P時とP−1時の特徴データ間に変化があるものとして判断する。なお、図10において、分割エリアが空白の箇所は、輝度比率の記載を省略したものであり、これらの箇所の輝度比率は「1:2:4」である。   In step S42, it is determined whether or not there are a predetermined number or more of change areas exceeding a preset threshold value between the feature data at P and P-1. If there are more than a predetermined number of change areas, it is determined that there is a change in the feature data, and the process proceeds to step S43. If there are no more than a predetermined number of change areas (NO), there is no change in the feature data, and entry detection is performed. This process is terminated assuming that no person or object has entered the area, and the process returns to the flowchart of FIG. Specifically, for example, as shown in FIG. 10, when there are change areas X1, X2, and X3 in which the luminance ratio has changed when the feature data at P is compared with the feature data at P-1, It is determined that there is a change between the feature data at P and P-1. In FIG. 10, the portions where the divided areas are blank are omitted from the description of the luminance ratio, and the luminance ratio of these portions is “1: 2: 4”.

特徴データ間に変化がある場合、ステップS43において、変化エリアの遷移パターンと所定の遷移パターンとの比較処理を行う。ここではまず、今回算出された変化エリアと、前回の処理において算出された変化エリアとの比較を行い、変化エリアの遷移パターンを算出する。次に、算出した変化エリアの遷移パターンと、予め設定された所定の遷移パターンとの比較を行う。この所定の遷移パターンとは、例えば、変化エリアがどの方向に遷移しているかなどを示すものである。   If there is a change between the feature data, a comparison process between the transition pattern of the change area and a predetermined transition pattern is performed in step S43. Here, first, the change area calculated this time is compared with the change area calculated in the previous process, and the transition pattern of the change area is calculated. Next, the calculated transition pattern of the change area is compared with a predetermined transition pattern set in advance. The predetermined transition pattern indicates, for example, in which direction the change area is transitioning.

ステップS44において、変化エリアの遷移パターンが所定の遷移パターンと類似しているかどうかを判断し、類似している場合(YES)には、変化エリアに遷移があったものと判断し、ステップS45へ進み、類似していない場合(NO)には、進入検出領域に人や物が侵入していないものとして本処理を終了する。   In step S44, it is determined whether or not the transition pattern of the change area is similar to the predetermined transition pattern. If they are similar (YES), it is determined that there is a transition in the change area, and the process proceeds to step S45. If the process proceeds and is not similar (NO), it is determined that no person or object has entered the entry detection area, and the process ends.

ここで、ステップS43、S44で行われる、遷移パターンの比較および類似判断の具体例について、図10を用いて説明する。また、所定の遷移パターンを、特徴データの上側から下側へ向かって変化エリアの発生位置が遷移する状態とする。さらに、前回の処理において算出された変化エリアとは、図10に示すように、P−1時の特徴データにおいて、P−2時の特徴データと比較することによって得られた変化エリアY1を指す。   Here, a specific example of transition pattern comparison and similarity determination performed in steps S43 and S44 will be described with reference to FIG. Further, the predetermined transition pattern is set to a state in which the occurrence position of the change area transitions from the upper side to the lower side of the feature data. Furthermore, as shown in FIG. 10, the change area calculated in the previous process refers to the change area Y1 obtained by comparing the feature data at P-1 with the feature data at P-2. .

図10に示すように、P−1時の特徴データについて算出された変化エリアY1(前回算出された変化エリア)と、P時の特徴データについて算出された変化エリアX1〜X3(今回算出された変化エリア)とを比較すると、変化エリアの発生位置が特徴データの下側へ向かって移動している。この場合には、変化エリアの発生位置の遷移と所定の遷移パターンとが一致しているため、変化エリアに遷移があったものと判断する。   As shown in FIG. 10, the change area Y1 calculated for the feature data at P-1 (change area calculated last time), and the change areas X1 to X3 calculated for the feature data at P (currently calculated). Compared with (change area), the occurrence position of the change area is moving toward the lower side of the feature data. In this case, since the transition of the occurrence position of the change area matches the predetermined transition pattern, it is determined that there is a transition in the change area.

図9に戻り、ステップS45において、ステップS43の処理と同様に、前回算出された変化エリアと、前々回の処理において算出された変化エリアとを比較することによって変化エリアの遷移パターンを算出し、該算出した遷移パターンと所定の遷移パターンとの比較処理を行う。具体的には、図10に示すように、P−2時の特徴データについて算出された変化エリアZ1〜Z3(前々回の処理において算出された変化エリア)と、P−1時の特徴データについて算出された変化エリアY1(前回算出された変化エリア)とを比較し、変化エリアの遷移パターンを算出するものである。   Returning to FIG. 9, in step S45, as in the process of step S43, the transition pattern of the change area is calculated by comparing the change area calculated in the previous time with the change area calculated in the previous process. A comparison process between the calculated transition pattern and a predetermined transition pattern is performed. Specifically, as shown in FIG. 10, the change areas Z1 to Z3 calculated for the feature data at P-2 (change areas calculated in the previous process) and the feature data at P-1 are calculated. The change area Y1 (change area calculated last time) is compared, and the transition pattern of the change area is calculated.

ステップS46において、ステップS44の処理と同様に、前々回の処理で算出された変化エリアと前回の処理で算出された変化エリアの遷移パターンが、所定の遷移パターンと類似しているかどうかを判断する。類似している場合(YES)には、変化エリアに遷移があったものと判断してステップS47へ進み、類似していない場合(NO)には、進入検出領域に人や物が侵入していないものとして本処理を終了する。   In step S46, similarly to the process of step S44, it is determined whether or not the transition pattern calculated in the previous process and the transition pattern calculated in the previous process are similar to a predetermined transition pattern. If they are similar (YES), it is determined that there is a transition in the change area, and the process proceeds to step S47. If they are not similar (NO), a person or an object has entered the entry detection area. This processing is terminated as if it is not present.

ステップS47において、進入検出領域内に人や物体が侵入したものと判断し、進入検出信号を判定結果出力部65へ出力する。進入検出信号の出力後、本処理を終了する。   In step S47, it is determined that a person or an object has entered the entry detection area, and an entry detection signal is output to the determination result output unit 65. After the entry detection signal is output, this process ends.

以上のように、第1の実施形態では、シャッター装置1の開口部への進入経路を含む進入検出領域について、輝度条件の異なる複数枚の画像を取得し、これらの画像の輝度比率を算出する。移動物体が進入検出領域に侵入してきた場合、時間的に連続する特徴データ(P時、P−1時、P−2時の特徴データ)間において輝度比率が変化した変化エリアが発生する。この変化エリアの遷移パターンと所定の遷移パターンとを比較することによって、進入検出領域に侵入する人や物などの検出を行う。これにより、進入検出領域に環境変化や外乱光の入射があった場合でも、人や物などを正確に検出することができる。   As described above, in the first embodiment, a plurality of images with different luminance conditions are acquired for the entry detection area including the approach path to the opening of the shutter device 1, and the luminance ratio of these images is calculated. . When a moving object enters the entry detection area, a change area in which the luminance ratio changes between temporally continuous feature data (feature data at P, P-1, and P-2) occurs. By comparing the transition pattern of the change area with a predetermined transition pattern, a person or an object entering the entry detection area is detected. Thereby, even when an environmental change or disturbance light is incident on the approach detection area, a person or an object can be accurately detected.

なお、第1の実施形態において、輝度条件の異なる複数枚の画像を撮像するために、撮像ユニット50の露光時間を一定とし、照明ユニット40による照明の強度を変更するものとしたが、例えば、図11(a)に示すように、照明点灯時の撮像画像について、照明ユニット40を一定の強度で照射したままの状態とし、露光時間を1/1000sec、1/500sec、1/250secに変化させて撮像を行うことにより、輝度条件の異なる画像を撮像してもよい。この場合には、例えば電子シャッターを用いて露光時間を制御することが好ましい。また、図11(b)に示すように、露光状態を開放状態とし、照明の強度を変化させることによって、輝度条件の異なる画像を撮像するようにしてもよい。   In the first embodiment, in order to capture a plurality of images with different luminance conditions, the exposure time of the imaging unit 50 is fixed and the intensity of illumination by the illumination unit 40 is changed. As shown in FIG. 11 (a), with respect to the captured image when the illumination is turned on, the illumination unit 40 is kept irradiated with a constant intensity, and the exposure time is changed to 1/1000 sec, 1/500 sec, 1/250 sec. Thus, images with different luminance conditions may be captured. In this case, it is preferable to control the exposure time using, for example, an electronic shutter. Further, as shown in FIG. 11B, an image with different luminance conditions may be taken by changing the illumination intensity to the open state and the illumination intensity.

また、撮像や照明を行う検出部4を、シャッター装置1の開口部の上方位置に取り付けるものとしたが、例えば図12(a)に示すシャッター装置1Aのように、検出部4Aを開口部の下端から所定高さの位置に取り付け、照明の配光領域を開口部の下端から所定高さ以上としてもよい。この場合には、シャッター装置1Aの両サイドに設けられている横枠6や、開口部の上側に設けられている上枠7に照明を照射し、横枠6や上枠7を撮像する。これにより、例えば、進入物として検出する必要が無いゴミ等が、地面を転がって開口部に進入したとしても、これらを進入物として検出してしまうことが無くなり、進入物の検出精度をより向上させることができる。さらに、横枠6や上枠7を撮像領域としているので、影等による輝度変化が少なくなり、より精度良く進入物の検出を行うことができる。   In addition, the detection unit 4 that performs imaging and illumination is attached to a position above the opening of the shutter device 1, but the detection unit 4 </ b> A is arranged at the opening of the opening as in the shutter device 1 </ b> A illustrated in FIG. It is good also as attaching to the position of predetermined height from a lower end, and making the light distribution area | region of illumination into more than predetermined height from the lower end of an opening part. In this case, illumination is applied to the horizontal frame 6 provided on both sides of the shutter device 1 </ b> A and the upper frame 7 provided on the upper side of the opening, and the horizontal frame 6 and the upper frame 7 are imaged. As a result, for example, even if garbage that does not need to be detected as an entering object rolls on the ground and enters the opening, it is not detected as an entering object, and the detection accuracy of the entering object is further improved. Can be made. Furthermore, since the horizontal frame 6 and the upper frame 7 are used as the imaging region, the luminance change due to shadows or the like is reduced, and the entering object can be detected with higher accuracy.

また、図13に示すように、照明ユニットを有していないシャッター装置1Bであっても、上記のように、輝度比率を含む特徴データを算出し、輝度比率が変化する変化エリアの遷移パターンに基づいて進入検出を行うことができる。この場合には、検出部4Bの撮像素子駆動制御部62Bは、図11(a)に示したように、撮像ユニット50Bの露光時間を変化させることによって、照明ユニットが無くとも、輝度条件の異なる複数枚の画像を撮像することができる。   In addition, as shown in FIG. 13, even in the shutter device 1B that does not have a lighting unit, as described above, the feature data including the luminance ratio is calculated, and the transition pattern of the change area where the luminance ratio changes changes. Based on this, entry detection can be performed. In this case, as shown in FIG. 11A, the imaging element drive control unit 62B of the detection unit 4B changes the exposure time of the imaging unit 50B, so that the luminance conditions are different even without the illumination unit. A plurality of images can be taken.

また、撮像ユニット50によって撮像された画像において、特徴データを算出する領域(照明光が写っている領域)は細長いライン状となっている。このライン状の領域の中心線と、撮像ユニット50の撮像用レンズ103の光学中心とを整合させて撮像を行うことにより、特徴データを算出する領域について歪みの少ない画像を得ることができる。   Further, in the image captured by the imaging unit 50, the region for calculating the feature data (the region where the illumination light is reflected) has an elongated line shape. By capturing an image by aligning the center line of the line-shaped area and the optical center of the imaging lens 103 of the imaging unit 50, an image with less distortion can be obtained in the area where the feature data is calculated.

さらに、第1の実施形態では、進入検出領域のみに照明光を照射し、この進入検出領域を覆うようにして撮像を行うものとしたが、これとは逆に、進入検出領域のみを撮像領域とし、この進入検出領域を覆うように照明光を照射しても良い。   Furthermore, in the first embodiment, only the entry detection area is irradiated with illumination light, and imaging is performed so as to cover the entry detection area. Conversely, only the entry detection area is imaged. The illumination light may be irradiated so as to cover the entry detection area.

次に、第2の実施形態について説明する。   Next, a second embodiment will be described.

本実施形態は、第1の実施形態における照明方法や、進入物の検出処理方法を変更したものである。進入検出結果に基づいてシャッターパネル2を停止させる構成については第1の実施形態と同じであり説明を省略する。また、第1の実施形態と同一構成要素については、同一番号を付して説明を省略する。   In the present embodiment, the illumination method and the detection processing method for entering objects in the first embodiment are changed. The configuration for stopping the shutter panel 2 based on the entry detection result is the same as in the first embodiment, and a description thereof is omitted. Further, the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

図14に示すように、シャッター装置1Cは、開口部を開閉するシャッターパネル2と、シャッターパネル2を駆動するシャッター駆動部3と、開口部周囲の進入検出領域に、人や物が進入したかどうかを検出する検出部4Cとより構成される。   As illustrated in FIG. 14, the shutter device 1 </ b> C includes a shutter panel 2 that opens and closes an opening, a shutter driving unit 3 that drives the shutter panel 2, and whether a person or an object has entered an entry detection area around the opening. It is comprised from the detection part 4C which detects whether.

検出部4Cは、進入検出領域を赤色光によって照明する照明ユニット40Cと、進入検出領域を撮像する撮像ユニット50Cと、撮像ユニット50Cによる撮像画像から進入検出領域内に侵入する人や物を検出する制御部60Cとより構成される。   The detection unit 4C detects an illumination unit 40C that illuminates the entry detection area with red light, an imaging unit 50C that images the entry detection area, and a person or an object that enters the entry detection area from an image captured by the imaging unit 50C. It is comprised with the control part 60C.

制御部60Cは、照明ユニット40Cの照明点灯のオンオフの制御を行う照明点灯制御部61Cと、撮像ユニット50Cの撮像タイミングなどの制御を行う撮像素子駆動制御部62Cとを備えている。撮像素子駆動制御部62Cの制御による撮像ユニット50Cの撮像タイミングと、照明点灯制御部61Cの制御による照明ユニット40Cの照明照射タイミングとは同期している。   The control unit 60C includes an illumination lighting control unit 61C that controls on / off of illumination lighting of the illumination unit 40C, and an imaging element drive control unit 62C that controls imaging timing of the imaging unit 50C. The imaging timing of the imaging unit 50C controlled by the imaging element drive control unit 62C and the illumination irradiation timing of the illumination unit 40C controlled by the illumination lighting control unit 61C are synchronized.

さらに、制御部60Cは、撮像ユニット50Cで撮像された画像データを取得する画像データ取得部63Cと、取得された画像データより進入検出領域内に侵入する人や物の検出を行う検出処理部64Cと、判定結果出力部65と、記憶部66と、終了判定部67と、を備える。   Further, the control unit 60C acquires an image data acquisition unit 63C that acquires image data captured by the imaging unit 50C, and a detection processing unit 64C that detects a person or an object that enters the entry detection region from the acquired image data. A determination result output unit 65, a storage unit 66, and an end determination unit 67.

図15(a)に示すように、検出部4Cは、シャッター装置1Cの開口部の上方位置に取り付けられ、開口部への進入経路を含む進入検出領域に向けて赤色の照明光を照射するとともに、進入検出領域を含む領域を撮像する。ここで、照明ユニット40Cは、濃淡がマトリックス状に配置されたパターン照明M1を照射する。   As shown in FIG. 15A, the detection unit 4C is attached at a position above the opening of the shutter device 1C, and emits red illumination light toward an entry detection region including an entry path to the opening. The area including the entry detection area is imaged. Here, the illumination unit 40C irradiates the pattern illumination M1 in which the shades are arranged in a matrix.

次に、進入検出領域内に進入する人や物を検出する処理について説明する。   Next, a process for detecting a person or an object entering the entry detection area will be described.

なお、この検出処理は、シャッター装置1Cの利用者によってシャッターパネル2の開閉動作の指示があった時に開始される。撮像素子駆動制御部62Cは、撮像ユニット50Cおよび照明点灯制御部61Cに指示を出し、照明光が照射されるタイミングで、進入検出領域を含む領域を撮像する。撮像された画像には、図15(b)に示すように、赤色のパターン照明M1が写っている。撮像された画像データは、画像データ取得部63Cにおいて、進入検出に用いる画像領域のみを切り出し、抽出画像データとして記憶部66に保存する。この進入検出に用いる画像領域とは、撮像された画像データ中においてパターン照明M1が写っている領域である。検出処理部64Cは、記憶部66に保存された最新の抽出画像データと、前回保存された抽出画像データとの比較を行い、進入検出領域への人や物の侵入があったかどうかを判断する。   This detection process is started when the user of the shutter device 1C gives an instruction to open and close the shutter panel 2. The imaging element drive control unit 62C issues an instruction to the imaging unit 50C and the illumination lighting control unit 61C, and images an area including the entry detection area at the timing when the illumination light is irradiated. The captured image includes red pattern illumination M1 as shown in FIG. 15 (b). In the captured image data, the image data acquisition unit 63C cuts out only the image area used for the entry detection, and stores it in the storage unit 66 as extracted image data. The image area used for the entry detection is an area where the pattern illumination M1 is captured in the captured image data. The detection processing unit 64C compares the latest extracted image data stored in the storage unit 66 with the extracted image data stored last time, and determines whether a person or an object has entered the entry detection area.

具体的には、図16(a)、図16(b)に示すように、人Hが進入検出領域に侵入し、照射された照明光に人が干渉した状態となると、撮像される照明パターンM1の形状に変化が生じる。よって、検出処理部64Cは、このパターン照明M1の形状に変化があった場合に、進入検出領域に人や物が侵入したものとして、進入検出信号を判定結果出力部65に出力するものである。   Specifically, as shown in FIGS. 16A and 16B, when the person H enters the approach detection area and the person interferes with the illuminated illumination light, the illumination pattern that is captured is captured. A change occurs in the shape of M1. Therefore, the detection processing unit 64C outputs an approach detection signal to the determination result output unit 65, assuming that a person or an object has entered the approach detection region when the shape of the pattern illumination M1 has changed. .

以上のように、第2の実施形態では、赤色のパターン照明を照射し、パターン照明の形状が変化した場合に、進入検出領域内に人や物などが進入したものとして検出するので、環境変化や外乱光の入射があった場合でも、人や物などを正確に検出することができる。また、赤色の照明を照射することによって、シャッターパネル2が作動していることを、シャッター装置1Cの周囲にいる人に視覚的に知らせることができる。   As described above, in the second embodiment, when the pattern illumination of red is irradiated and the shape of the pattern illumination is changed, it is detected that a person or an object has entered the entry detection region. Even when there is an incident of ambient light, people and objects can be accurately detected. Further, by irradiating with red illumination, it is possible to visually notify a person around the shutter device 1C that the shutter panel 2 is operating.

なお、図15(a)に示すように、パターン照明の形状として、パターン照明M2のように「注意」の文字を用いても良い。この場合には、より確実に、シャッターパネル2が作動していることをシャッター装置1の周囲にいる人に視覚的に知らせることができる。また、パターン照明M3のように複数のライン形状のパターン照明を用いても良い。   Note that, as shown in FIG. 15A, the word “caution” may be used as the pattern illumination shape as in the pattern illumination M2. In this case, the person around the shutter device 1 can be visually informed that the shutter panel 2 is operating more reliably. Moreover, you may use the pattern illumination of a some line shape like the pattern illumination M3.

さらに、パターン照明の他の例として、図17(a)、図17(b)に示すシャッター装置1Dのように、検出部4Dから照射するライン状の照明光の照射位置を順次切り替えて、進入検出領域内の異なる位置に照明光を照射しても良い。ここでは、シャッターパネル2より遠い位置から近い位置に向かって繰り返し、ライン状の照明光を照射するものとする。   Furthermore, as another example of pattern illumination, as in the shutter device 1D shown in FIGS. 17A and 17B, the irradiation position of the linear illumination light emitted from the detection unit 4D is sequentially switched to enter. Illumination light may be irradiated to different positions in the detection region. Here, it is assumed that line-shaped illumination light is irradiated repeatedly from a position far from the shutter panel 2 toward a near position.

図18(a)、図18(b)に示すように、進入検出領域内に人Hが侵入すると、撮像された画像において、開口部に遠い位置から近い位置に向けて順にライン状の照明光に変化が生じる。この照明光の形状の変化を検出することによって、進入検出領域に人や物が侵入したことを検出することができる。また、ライン状の照明光の照射位置を変えながら1本ずつ照射し、照明光の形状の変化を検出しているので、照射位置が異なる他の照明光の影響を受けること無く、それぞれの照明光の形状の変化を正確に検出することができ、進入物をより精度良く検出することができる。   As shown in FIGS. 18A and 18B, when a person H enters the entry detection area, the line-shaped illumination light sequentially from the position far from the opening to the position in the captured image. Changes. By detecting the change in the shape of the illumination light, it is possible to detect that a person or an object has entered the entry detection area. In addition, irradiation is performed one by one while changing the irradiation position of the line-shaped illumination light, and the change in the shape of the illumination light is detected, so that each illumination is not affected by other illumination lights having different irradiation positions. A change in the shape of light can be detected accurately, and an entering object can be detected with higher accuracy.

さらに他の例として、図19(a)に示すシャッター装置1Eのように、検出部4Eから照射される照明の配光領域と、撮像領域とを交差させる構成としても良い。この照明の配光領域と撮像領域とが重なる領域が進入検出領域となる。この進入検出領域は、シャッター装置1Eの開口部から所定の高さ以上となるように、検出部4Eによる照明の配光領域と撮像領域とを設定する。検出部4Eは、濃淡がマトリックス状に配置されたパターン照明M4を照射する。検出部4Eによって撮像される画像は、図19(b)に示すように、進入検出領域内にパターン照明M4が入り込んでいない状態となる。   As yet another example, as in the shutter device 1E shown in FIG. 19A, the light distribution area of illumination irradiated from the detection unit 4E and the imaging area may be crossed. The area where the illumination light distribution area and the imaging area overlap is the entry detection area. The light distribution area and the imaging area of the illumination by the detection unit 4E are set so that the entry detection area is equal to or higher than a predetermined height from the opening of the shutter device 1E. The detection unit 4E irradiates the pattern illumination M4 in which the shades are arranged in a matrix. As shown in FIG. 19B, the image captured by the detection unit 4E is in a state where the pattern illumination M4 does not enter the entry detection area.

図20(a)、図20(b)に示すように、進入検出領域内に人Hが侵入すると、人Hの頭部や肩等にパターン照明M4が照射され、進入検出領域内でパターン照明M4が検出される。このように進入検出領域内でパターン照明M4が検出されるかどうかによって、シャッター装置1Eの開口部に近づく人や物を検出することができる。また、進入検出領域がシャッター装置1Eの開口部から所定の高さ以上となるように配光領域と撮像領域とを設定しているので、進入物として検出する必要が無いゴミ等が、地面を転がって開口部に進入したとしても、これらを進入物として誤検出してしまうことが無くなる。さらに、影や天候変化によって地面の状態が変化したとしても、これらの変化に影響されること無く、進入物の検出を行うことができる。   As shown in FIGS. 20A and 20B, when a person H enters the entry detection area, the pattern illumination M4 is irradiated on the head, shoulder, etc. of the person H, and pattern illumination is performed in the entry detection area. M4 is detected. Thus, depending on whether or not the pattern illumination M4 is detected in the entry detection region, a person or an object approaching the opening of the shutter device 1E can be detected. In addition, since the light distribution area and the imaging area are set so that the entry detection area is at a predetermined height or more from the opening of the shutter device 1E, dust or the like that does not need to be detected as an entry object is removed from the ground. Even if it rolls and enters the opening, it will not be erroneously detected as an entry. Furthermore, even if the ground condition changes due to changes in shadows or weather, it is possible to detect an entering object without being affected by these changes.

なお、上記各実施形態および変形例において、シャッター装置のシャッターパネル作動時にのみ撮像を行うものとしたが、シャッターパネルの作動時以外においても、撮像ユニットによってシャッター装置の周囲を撮影することにより、進入検出に加えてシャッター装置の周囲を監視する監視カメラとしての機能を持たせることもできる。   In each of the above-described embodiments and modified examples, imaging is performed only when the shutter panel of the shutter device is operated. However, even when the shutter panel is not operated, it is possible to enter by photographing the periphery of the shutter device with the imaging unit. In addition to detection, a function as a monitoring camera for monitoring the periphery of the shutter device can be provided.

また、撮像ユニットの撮像素子の前面にMTF(Modulation Transfer Function)制御用の光学フィルタを配置し、撮像画像にボカシを入れることによって、撮像される人のプライバシー保護を図ることもできる。この場合には、例えば、プライバシー保護を行う必要がある場合のみ、MTF制御用の光学フィルタを撮像素子の前面にスライドさせるようにしても良い。また、電圧を印加することによって透明から光拡散状態に変化する材料で構成されたフィルタを用い、透明状態およびボカシ状態を切り替えるようにしても良い。   Further, by placing an optical filter for MTF (Modulation Transfer Function) control on the front surface of the image pickup device of the image pickup unit and adding blur to the picked-up image, it is possible to protect the privacy of the person being picked up. In this case, for example, the optical filter for MTF control may be slid to the front surface of the image sensor only when privacy protection needs to be performed. In addition, a transparent state and a blurred state may be switched using a filter made of a material that changes from transparent to a light diffusion state by applying a voltage.

さらに、上記各実施形態において、シャッター装置の開放時における開口部に進入する人や物を検出するものとしたが、これ以外にも、例えば図21(a)、図21(b)に示すように、車両200に備えられたパワーウィンドウ210の開放時における開口部に侵入する人Hの手などを検出するようにしても良い。この場合には、車両200内部におけるパワーウィンドウ210の上方位置に、照明および撮像を行う検出部4Fを取り付け、パワーウィンドウ210の開放時における開口部への進入経路を含む領域を進入検出領域として、進入検出領域への進入物の検出を行う。なお、進入検出方法は、第1の実施形態および第2の実施形態で説明した方法を用いるものとする。これにより、パワーウィンドウ210の作動時に、窓の開口部に近づく人Hの手などを、環境変化や外乱光の影響を受けること無く、非接触で正確に検出することができる。   Further, in each of the above embodiments, a person or an object entering the opening when the shutter device is opened is detected, but other than this, for example, as shown in FIGS. 21 (a) and 21 (b). In addition, a hand of a person H entering the opening when the power window 210 provided in the vehicle 200 is opened may be detected. In this case, a detection unit 4F that performs illumination and imaging is attached to the upper position of the power window 210 inside the vehicle 200, and an area including an approach path to the opening when the power window 210 is opened is defined as an entry detection area. Detects an entry into the entry detection area. In addition, the approach detection method shall use the method demonstrated in 1st Embodiment and 2nd Embodiment. Thereby, when the power window 210 is operated, the hand of the person H approaching the opening of the window can be accurately detected in a non-contact manner without being affected by environmental changes or ambient light.

また、シャッター装置の実施形態と同様に、パワーウィンドウの作動時以外においても、撮像ユニットによってパワーウィンドウの周囲を撮影することにより、進入検出に加えてパワーウィンドウの周囲を監視する監視カメラとしての機能を持たせることもできる。   Further, as in the embodiment of the shutter device, a function as a monitoring camera that monitors the periphery of the power window in addition to the detection of entry by photographing the periphery of the power window by the imaging unit even when the power window is not operated. Can also be given.

1…シャッター装置、2…シャッターパネル、3…シャッター駆動部、4…検出部、40…照明ユニット、50…撮像ユニット。   DESCRIPTION OF SYMBOLS 1 ... Shutter apparatus, 2 ... Shutter panel, 3 ... Shutter drive part, 4 ... Detection part, 40 ... Illumination unit, 50 ... Imaging unit.

Claims (8)

開閉部の開放時における進入経路を含む進入検出領域を照明する照明手段と、
前記進入検出領域を撮像する撮像手段と、
所定タイミング毎に、前記撮像手段を用いて輝度条件の異なる所定枚数の画像を撮像し、取得する画像取得手段と、
前記所定枚数の画像についてそれぞれ輝度を算出し、前記所定枚数の画像間における輝度比率を算出する輝度比率算出手段と、
前記輝度比率算出手段により、異なる前記所定枚数の画像について算出された第1の輝度比率と第2の輝度比率とを比較する比較手段と、
前記比較手段の比較結果に基づいて前記進入検出領域への物体の侵入を検出する検出手段と
を備えることを特徴とする開閉部用の検出装置。
Illumination means for illuminating an entry detection area including an entry route when the opening / closing part is opened,
Imaging means for imaging the entry detection area;
Image acquisition means for capturing and acquiring a predetermined number of images with different brightness conditions using the imaging means at each predetermined timing;
Luminance ratio calculating means for calculating the luminance for each of the predetermined number of images and calculating a luminance ratio between the predetermined number of images ;
Comparing means for comparing the first luminance ratio and the second luminance ratio calculated for the different predetermined number of images by the luminance ratio calculating means;
A detection device for an opening / closing part, comprising: a detection unit configured to detect entry of an object into the entry detection region based on a comparison result of the comparison unit.
前記照明手段および前記撮像手段は、前記開閉部の下端近傍に配置され、
前記進入検出領域は、前記開閉部の開放時における開口部の下端から所定高さ以上の領域であることを特徴とする請求項1に記載の開閉部用の検出装置。
The illumination means and the imaging means are arranged in the vicinity of the lower end of the opening / closing part,
2. The detection device for an opening / closing part according to claim 1, wherein the entry detection area is an area having a predetermined height or more from a lower end of the opening when the opening / closing part is opened.
前記照明手段によって照明がされているときに前記撮像手段によって撮像された画像と、照明がされていないときに前記撮像手段によって撮像された画像との差分画像を算出する差分画像算出手段をさらに備え、
前記輝度比率算出手段は、前記差分画像に基づいて輝度比率を算出することを特徴とする請求項1または2に記載の開閉部用の検出装置。
The image processing apparatus further includes a difference image calculation unit that calculates a difference image between an image captured by the imaging unit when illuminated by the illumination unit and an image captured by the imaging unit when not illuminated. ,
The detection device for an opening / closing part according to claim 1 or 2, wherein the luminance ratio calculating means calculates a luminance ratio based on the difference image.
前記照明手段は、前記進入検出領域を配光領域とし、
前記撮像手段は、前記進入検出領域を含む領域を撮像領域とすることを特徴とする請求項1〜3のいずれか1つに記載の開閉部用の検出装置。
The illumination means uses the approach detection area as a light distribution area,
The detection device for an opening / closing part according to any one of claims 1 to 3, wherein the imaging means uses an area including the entry detection area as an imaging area.
前記撮像手段は、前記進入検出領域を撮像領域とし、
前記照明手段は、前記進入検出領域を含む領域を配光領域とすることを特徴とする請求項1〜3のいずれか1つに記載の開閉部用の検出装置。
The imaging means uses the approach detection area as an imaging area,
The said illumination means makes the area | region containing the said approach detection area | region a light distribution area | region, The detection apparatus for opening-and-closing parts as described in any one of Claims 1-3 characterized by the above-mentioned.
前記画像取得手段は、
前記撮像手段の露光時間を一定時間幅とし、前記照明手段による照明強度を変更することにより前記輝度条件の異なる所定枚数の画像を撮像すること、
前記照明手段を常時点灯とし、前記撮像手段の露光時間を変更することにより前記輝度条件の異なる所定枚数の画像を撮像すること、
前記撮像手段の露光状態を常時開放とし、前記照明手段による照明強度を変更することにより前記輝度条件の異なる所定枚数の画像を撮像することのいずれかを行うことを特徴とする請求項1〜5のいずれか1つに記載の開閉部用の検出装置。
The image acquisition means includes
Taking a predetermined number of images with different brightness conditions by changing the illumination intensity by the illumination means with a constant time width of the exposure time of the imaging means,
Imaging the predetermined number of images with different brightness conditions by changing the exposure time of the imaging means, with the illumination means always on;
The exposure state of the imaging unit is always open, and a predetermined number of images with different luminance conditions are captured by changing the illumination intensity of the illumination unit. The detection apparatus for the opening-closing part as described in any one of these.
前記輝度比率算出手段は、前記画像を2つ以上の領域に区分し、前記区分毎に輝度比率を算出することを特徴とする請求項1〜6のいずれか1つに記載の開閉部用の検出装置。   The said brightness | luminance ratio calculation means divides the said image into two or more area | regions, and calculates a brightness | luminance ratio for every said division | segmentation, The opening-and-closing part use part as described in any one of Claims 1-6 characterized by the above-mentioned. Detection device. 前記照明手段は、赤外光線を用いて照明を行うものであり、
前記撮像手段は、前記赤外光線の波長近傍の波長のみを通過させるフィルタを備えていることを特徴とする請求項1〜7のいずれか1つに記載の開閉部用の検出装置。
The illumination means performs illumination using infrared rays,
The detection device for an opening / closing part according to any one of claims 1 to 7, wherein the imaging means includes a filter that allows only a wavelength near the wavelength of the infrared ray to pass.
JP2009141254A 2009-06-12 2009-06-12 Detection device for opening and closing part Expired - Fee Related JP5373486B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009141254A JP5373486B2 (en) 2009-06-12 2009-06-12 Detection device for opening and closing part

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009141254A JP5373486B2 (en) 2009-06-12 2009-06-12 Detection device for opening and closing part

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013094692A Division JP5670509B2 (en) 2013-04-26 2013-04-26 Detection device for opening and closing part

Publications (2)

Publication Number Publication Date
JP2010285821A JP2010285821A (en) 2010-12-24
JP5373486B2 true JP5373486B2 (en) 2013-12-18

Family

ID=43541724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009141254A Expired - Fee Related JP5373486B2 (en) 2009-06-12 2009-06-12 Detection device for opening and closing part

Country Status (1)

Country Link
JP (1) JP5373486B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2506034T3 (en) * 2011-04-01 2013-09-02 Cedes Ag Sensor device, safety device, door and movement control method
JP7386068B2 (en) 2019-12-18 2023-11-24 三和シヤッター工業株式会社 Sensor mounting structure

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208599A (en) * 1993-10-27 2003-07-25 Matsushita Electric Ind Co Ltd Object recognition device
JP2003270354A (en) * 2002-03-13 2003-09-25 Sanwa Shutter Corp Switch for automatic door
JP4283237B2 (en) * 2005-02-15 2009-06-24 日本自動ドア株式会社 Automatic door device
DE102007050334A1 (en) * 2007-10-18 2009-04-23 Efaflex Tor- Und Sicherheitssysteme Gmbh & Co. Kg Method and device for controlling a gate moving vertically or horizontally while protecting the gate closing plane against obstacles

Also Published As

Publication number Publication date
JP2010285821A (en) 2010-12-24

Similar Documents

Publication Publication Date Title
KR101640875B1 (en) Object detection device
JP5761074B2 (en) Imaging control apparatus and program
JP4853389B2 (en) Face image capturing device
US20070029962A1 (en) Monitoring device and self-propelled cleaner
JP2004261598A (en) Device and method for detecting pupil
JP2003075893A (en) Circumference image pickup device for vehicle
JP2007025758A (en) Face image extracting method for person, and device therefor
JP4927647B2 (en) Vehicle periphery monitoring device
JP5373486B2 (en) Detection device for opening and closing part
JP5670509B2 (en) Detection device for opening and closing part
JP2006252363A (en) Detector for object around vehicle, and method of detecting object around vehicle
JP2006205932A (en) Car washing machine
CN111034365A (en) Apparatus and method for irradiating object
JP5206190B2 (en) Driver monitoring device
EP2709356A2 (en) Method for operating a front camera of a motor vehicle considering the light of the headlight, corresponding device and motor vehicle
JP2004312832A (en) Rooftop equipment monitoring/measuring device for railway car
JP7295645B2 (en) Vehicle road sign recognition support device
JP6881853B2 (en) Elevator user detection system
JP3862558B2 (en) Image sensor and surveillance camera device
JP2003209742A (en) Imaging apparatus with infrared ray illumination
JP5161751B2 (en) Imaging apparatus and imaging system
JP5193016B2 (en) Vehicle shooting device
KR101707146B1 (en) adaptive lighting using current control means and control method therefor
JP2016220002A (en) Imaging apparatus, method for controlling the same, program, and storage medium
JPH0732907A (en) Consciousness level detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130919

R150 Certificate of patent or registration of utility model

Ref document number: 5373486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees