JP6849760B2 - Elevator user detection system - Google Patents

Elevator user detection system Download PDF

Info

Publication number
JP6849760B2
JP6849760B2 JP2019153692A JP2019153692A JP6849760B2 JP 6849760 B2 JP6849760 B2 JP 6849760B2 JP 2019153692 A JP2019153692 A JP 2019153692A JP 2019153692 A JP2019153692 A JP 2019153692A JP 6849760 B2 JP6849760 B2 JP 6849760B2
Authority
JP
Japan
Prior art keywords
door
detection
user
sill
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019153692A
Other languages
Japanese (ja)
Other versions
JP2021031243A (en
Inventor
周平 野田
周平 野田
横井 謙太朗
謙太朗 横井
紗由美 木村
紗由美 木村
田村 聡
聡 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Elevator and Building Systems Corp
Original Assignee
Toshiba Elevator Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Elevator Co Ltd filed Critical Toshiba Elevator Co Ltd
Priority to JP2019153692A priority Critical patent/JP6849760B2/en
Priority to CN202010435420.8A priority patent/CN112429609B/en
Publication of JP2021031243A publication Critical patent/JP2021031243A/en
Application granted granted Critical
Publication of JP6849760B2 publication Critical patent/JP6849760B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0012Devices monitoring the users of the elevator system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/02Door or gate operation
    • B66B13/14Control systems or devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0037Performance analysers

Description

本発明の実施形態は、エレベータの利用者検知システムに関する。 An embodiment of the present invention relates to an elevator user detection system.

通常、エレベータの乗りかごが乗場に到着して戸開すると、所定時間経過後に戸閉して出発する。その際、エレベータの利用者は乗りかごがいつ戸閉するのか分からないため、乗場から乗りかごに乗車するときに戸閉途中のドアに挟まれることがある。これは、利用者が乗りかごから降車するときも同様である。このようなドアの事故を防ぐため、乗りかごのドア付近をカメラで撮影し、その撮影画像から利用者を検知してドアの開閉制御に反映させるシステムがある。 Normally, when the elevator car arrives at the landing and opens the door, the door closes and departs after a predetermined time has passed. At that time, since the elevator user does not know when the car will close, he / she may be caught in the door in the middle of closing the car when he / she gets on the car from the landing. This also applies when the user gets off the car. In order to prevent such a door accident, there is a system that photographs the vicinity of the car door with a camera, detects the user from the captured image, and reflects it in the door opening / closing control.

特許第6092433号公報Japanese Patent No. 6092433 特開2019−108182号公報Japanese Unexamined Patent Publication No. 2019-108182

しかしながら、上述したシステムでは、例えばドア付近の構造体(シルや床面など)が所定の色に映る環境にあることを前提としており、実環境における照明条件の変化に対応できないことがあった。 However, in the above-mentioned system, for example, it is premised that the structure (sil, floor surface, etc.) near the door is in an environment in which a predetermined color is reflected, and it may not be possible to respond to changes in lighting conditions in the actual environment.

本発明が解決しようとする課題は、照明条件が変化しても、ドア付近に存在する利用者または物を正しく検知することのできるエレベータの利用者検知システムを提供することである。 An object to be solved by the present invention is to provide an elevator user detection system capable of correctly detecting a user or an object existing near a door even if the lighting conditions change.

一実施形態に係るエレベータの利用者検知システムは、撮像手段と、検知エリア設定手段と、境界検知手段と、動き検知手段と、判定手段とを備える。 The elevator user detection system according to the embodiment includes an image pickup means, a detection area setting means, a boundary detection means, a motion detection means, and a determination means.

上記撮像手段は、乗りかごから乗場に向けてドアを含む所定の範囲内を撮影する。上記検知エリア設定手段は、上記撮影手段によって撮影された画像上で上記ドアの移動経路に設けられたシルに検知エリアを設定する。上記境界検知手段は、上記検知エリア設定手段によって設定された上記検知エリア内の画像上で上記シルとエレベータ構造物との境界を検知する。上記動き検知手段は、上記検知エリア内の上記シル上における利用者または物の動きに伴う画像の輝度変化を検知する。上記判定手段は、上記境界検知手段の検知結果と上記動き検知手段の検知結果とに基づいて、上記ドア付近に利用者または物が存在するか否かを判定する。
上記構成において、上記判定手段は、上記シルの境界を表す直線の途切れが検知され、かつ、その途切れた部分の付近で利用者または物の動きに伴う画像の輝度変化が検知された場合に、上記ドア付近に利用者または物が存在すると判定することを特徴とする。
The imaging means captures a predetermined range including the door from the car to the landing. The detection area setting means sets a detection area on a sill provided in the movement path of the door on the image taken by the photographing means. The boundary detecting means detects the boundary between the sill and the elevator structure on the image in the detection area set by the detection area setting means. The motion detecting means detects a change in brightness of an image due to the movement of a user or an object on the sill in the detection area. The determination means determines whether or not a user or an object exists in the vicinity of the door based on the detection result of the boundary detection means and the detection result of the motion detection means.
In the above configuration, the determination means detects when a break in the straight line representing the boundary of the sill is detected and a change in the brightness of the image due to the movement of the user or an object is detected in the vicinity of the break. It is characterized in that it is determined that a user or an object exists in the vicinity of the door.

図1は一実施形態に係るエレベータの利用者検知システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of an elevator user detection system according to an embodiment. 図2は同実施形態における乗りかご内の出入口周辺部分の構成を示す図である。FIG. 2 is a diagram showing a configuration of a portion around an entrance / exit in the car according to the same embodiment. 図3は同実施形態におけるカメラの撮影画像の一例を示す図である。FIG. 3 is a diagram showing an example of a photographed image of the camera in the same embodiment. 図4は同実施形態における利用者検知システムの全体の処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing the overall processing flow of the user detection system according to the same embodiment. 図5は上記図4のステップS15で実行される利用者検知処理を示すフローチャートである。FIG. 5 is a flowchart showing a user detection process executed in step S15 of FIG. 図6は同実施形態における実空間での座標系を説明するための図である。FIG. 6 is a diagram for explaining a coordinate system in real space in the same embodiment. 図7は同実施形態におけるエリア設定方法を説明するための図である。FIG. 7 is a diagram for explaining an area setting method in the same embodiment. 図8は同実施形態における他のエリア設定方法を説明するための図である。FIG. 8 is a diagram for explaining another area setting method in the same embodiment. 図9は同実施形態における2値化画像の一例を示す図である。FIG. 9 is a diagram showing an example of a binarized image in the same embodiment. 図10は同実施形態における撮影画像をブロック単位で区切った状態を示す図である。FIG. 10 is a diagram showing a state in which the captured images in the same embodiment are divided into blocks. 図11は同実施形態における境界検知と動き検知を説明するための具体例を示す図である。FIG. 11 is a diagram showing a specific example for explaining boundary detection and motion detection in the same embodiment. 図12は同実施形態における検知エリア内のシルの画像が部分的に隠れた状態を示す図である。FIG. 12 is a diagram showing a state in which the image of the sill in the detection area in the same embodiment is partially hidden. 図13は同実施形態における検知エリアをマトリックス状に区切ったときの境界検知と動き検知を説明するための図である。FIG. 13 is a diagram for explaining boundary detection and motion detection when the detection area in the same embodiment is divided into a matrix. 図14は他の同実施形態として検知エリアを短冊状に区切ったときの境界検知と動き検知を説明するための図である。FIG. 14 is a diagram for explaining boundary detection and motion detection when the detection area is divided into strips as another embodiment.

以下、図面を参照して実施形態を説明する。
なお、開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
Hereinafter, embodiments will be described with reference to the drawings.
The disclosure is merely an example, and the invention is not limited by the contents described in the following embodiments. Modifications that can be easily conceived by those skilled in the art are naturally included in the scope of disclosure. In order to clarify the explanation, in the drawings, the size, shape, etc. of each part may be changed with respect to the actual embodiment and represented schematically. In a plurality of drawings, the corresponding elements may be given the same reference numbers and detailed description may be omitted.

図1は一実施形態に係るエレベータの利用者検知システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。 FIG. 1 is a diagram showing a configuration of an elevator user detection system according to an embodiment. Although the description will be given here by taking one car as an example, the same configuration is used for a plurality of cars.

乗りかご11の出入口上部にカメラ12が設置されている。具体的には、カメラ12は、乗りかご11の出入口上部を覆う幕板11aの中にレンズ部分を直下方向、もしくは、乗場15側あるいは乗りかご11内部側に所定の角度だけ傾けて設置される。 A camera 12 is installed above the doorway of the car 11. Specifically, the camera 12 is installed in the curtain plate 11a covering the upper part of the entrance / exit of the car 11 with the lens portion tilted directly downward, or on the landing 15 side or the inside of the car 11 by a predetermined angle. ..

カメラ12は、例えば車載カメラ等の小型の監視用カメラであり、広角レンズもしくは魚眼レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続的に撮影可能である。カメラ12は、乗りかご11が各階の乗場15に到着したときに起動され、かごドア13付近を含む所定の範囲Lを撮影する。 The camera 12 is a small surveillance camera such as an in-vehicle camera, has a wide-angle lens or a fisheye lens, and can continuously capture images of several frames (for example, 30 frames / second) per second. The camera 12 is activated when the car 11 arrives at the landing 15 on each floor, and photographs a predetermined range L including the vicinity of the car door 13.

各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。なお、動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明においては、かごドア13を戸開している時には乗場ドア14も戸開しており、かごドア13が戸閉している時には乗場ドア14も戸閉しているものとする。 At the landing 15 on each floor, a landing door 14 is installed at the arrival port of the car 11 so as to be openable and closable. The landing door 14 engages with the car door 13 when the car 11 arrives to open and close. The power source (door motor) is on the car 11 side, and the landing door 14 only opens and closes following the car door 13. In the following description, it is assumed that the landing door 14 is also open when the car door 13 is open, and the landing door 14 is also closed when the car door 13 is closed.

カメラ12によって連続的に撮影された各画像(映像)は、画像処理装置20によってリアルタイムに解析処理される。なお、図1では、便宜的に画像処理装置20を乗りかご11から取り出して示しているが、実際には、画像処理装置20はカメラ12と共に幕板11aの中に収納されている。 Each image (video) continuously captured by the camera 12 is analyzed and processed in real time by the image processing device 20. Although the image processing device 20 is taken out from the car 11 for convenience in FIG. 1, the image processing device 20 is actually housed in the curtain plate 11a together with the camera 12.

画像処理装置20には、記憶部21と検知部22とが備えられている。記憶部21は、カメラ12によって撮影された画像を逐次保存すると共に、検知部22の処理に必要なデータを一時的に保存しておくためのバッファエリアを有する。なお、記憶部21には、撮影画像に対する前処理として、歪み補正や拡大縮小、一部切り取り等の処理が施された画像が保存されるとしても良い。 The image processing device 20 includes a storage unit 21 and a detection unit 22. The storage unit 21 has a buffer area for sequentially storing images taken by the camera 12 and temporarily storing data necessary for processing of the detection unit 22. The storage unit 21 may store an image that has undergone processing such as distortion correction, enlargement / reduction, and partial cropping as preprocessing for the captured image.

検知部22は、カメラ12の撮影画像を用いて乗りかご11のドア付近にいる利用者または物を検知する。ここで言う「物」とは、例えば利用者の衣服や荷物、さらに車椅子等の移動体を含む。この検知部22を機能的に分けると、検知エリア設定部23と検知処理部24とで構成される。 The detection unit 22 detects a user or an object near the door of the car 11 by using the captured image of the camera 12. The "thing" referred to here includes, for example, a user's clothes and luggage, and a moving body such as a wheelchair. When the detection unit 22 is functionally divided, it is composed of a detection area setting unit 23 and a detection processing unit 24.

検知エリア設定部23は、カメラ12の撮影画像上で乗りかご11の出入口に設けられたかごシル47と乗場シル18に対して検知エリアE1を設定する(図3参照)。かごシル47は、かごドア13の開閉動作をガイドするための部材であり、かごドア13の移動経路上に設けられている。乗場シル18は、乗場ドア14の開閉動作をガイドするための部材であり、乗場ドア14の移動経路上に設けられている。 The detection area setting unit 23 sets the detection area E1 for the car sill 47 and the landing sill 18 provided at the entrance / exit of the car 11 on the captured image of the camera 12 (see FIG. 3). The car sill 47 is a member for guiding the opening / closing operation of the car door 13, and is provided on the movement path of the car door 13. The landing sill 18 is a member for guiding the opening / closing operation of the landing door 14, and is provided on the movement path of the landing door 14.

検知処理部24は、検知エリア設定部23によって設定された検知エリアE1内の画像に基づいて利用者または物の有無を検知する。ここで言う「物」とは、例えば利用者の衣服や荷物、さらに車椅子等の移動体を含む。 The detection processing unit 24 detects the presence or absence of a user or an object based on the image in the detection area E1 set by the detection area setting unit 23. The "thing" referred to here includes, for example, a user's clothes and luggage, and a moving body such as a wheelchair.

検知処理部24は、境界検知部24a、動き検知部24b、判定部24cを有する。なお、以下の説明で、「シル」と言ったときに、かごシル47と乗場シル18の両方を含むものとする。また、「ドア」と言ったときに、かごドア13と乗場ドア14の両方を含むものとする。 The detection processing unit 24 includes a boundary detection unit 24a, a motion detection unit 24b, and a determination unit 24c. In the following description, when the term "sill" is used, it is assumed that both the car sill 47 and the landing sill 18 are included. Further, when the term "door" is used, both the car door 13 and the landing door 14 are included.

境界検知部24aは、検知エリアE1内の画像上でシルとエレベータ構造物との境界を検知する。エレベータ構造物とは、乗りかご11の床面19、乗場15の床面16(図3参照)、さらに、かごシル47と乗場シル18との間の隙間48(図12参照)を含む。 The boundary detection unit 24a detects the boundary between the sill and the elevator structure on the image in the detection area E1. The elevator structure includes a floor surface 19 of the car 11 and a floor surface 16 of the landing 15 (see FIG. 3), and a gap 48 (see FIG. 12) between the car sill 47 and the landing sill 18.

動き検知部24bは、検知エリアE1内のシル上における利用者または物の動きに伴う画像の輝度変化を検知する。判定部24cは、境界検知部24aの検知結果と動き検知部24bの検知結果とに基づいて、ドア付近に利用者または物が存在するか否かを判定する。なお、画像処理装置20の一部あるいは全部の機能をかご制御装置30に持たせることでも良い。 The motion detection unit 24b detects a change in the brightness of the image due to the movement of the user or an object on the sill in the detection area E1. The determination unit 24c determines whether or not a user or an object exists in the vicinity of the door based on the detection result of the boundary detection unit 24a and the detection result of the motion detection unit 24b. The car control device 30 may have some or all of the functions of the image processing device 20.

かご制御装置30は、乗りかご11に設置される各種機器類(行先階ボタンや照明等)の動作を制御する。かご制御装置30は、戸開閉制御部31と通知部32とを備える。 The car control device 30 controls the operation of various devices (destination floor buttons, lights, etc.) installed in the car 11. The car control device 30 includes a door opening / closing control unit 31 and a notification unit 32.

戸開閉制御部31は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部31は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。ここで、かごドア13の戸開中に利用者または物が検知された場合には、戸開閉制御部31は、かごドア13の戸開状態を維持する。また、かごドア13の戸閉動作中に利用者または物が検知された場合には、戸開閉制御部31は、かごドア13の戸閉動作を中断してリオープンするか、あるいは、かごドア13の戸閉速度を通常よりも遅くする。通知部32は、検知処理部24の検知結果に基づいて利用者に注意を喚起する。 The door opening / closing control unit 31 controls the opening / closing of the car door 13 when the car 11 arrives at the landing 15. Specifically, the door opening / closing control unit 31 opens the car door 13 when the car 11 arrives at the landing 15, and closes the door after a predetermined time has elapsed. Here, when a user or an object is detected while the car door 13 is open, the door open / close control unit 31 maintains the door open state of the car door 13. If a user or an object is detected during the door closing operation of the car door 13, the door opening / closing control unit 31 interrupts the door closing operation of the car door 13 and reopens the car door 13. The door closing speed of 13 is made slower than usual. The notification unit 32 calls attention to the user based on the detection result of the detection processing unit 24.

図2は乗りかご11内の出入口周辺部分の構成を示す図である。 FIG. 2 is a diagram showing a configuration of a portion around the entrance / exit in the car 11.

乗りかご11の出入口にかごドア13が開閉自在に設けられている。図2の例では2枚戸両開きタイプのかごドア13が示されており、かごドア13を構成する2枚のドアパネル13a,13bが間口方向(水平方向)に沿って互いに逆方向に開閉動作する。なお、「間口」とは、乗りかご11の出入口と同じである。 A car door 13 is provided at the entrance and exit of the car 11 so as to be openable and closable. In the example of FIG. 2, a double door double door type car door 13 is shown, and the two door panels 13a and 13b constituting the car door 13 open and close in opposite directions along the frontage direction (horizontal direction). .. The "frontage" is the same as the entrance / exit of the car 11.

乗りかご11の出入口の両側に正面柱41a,41bが設けられており、幕板11aと共に乗りかご11の出入口を囲っている。かごドア13が戸開したときに、一方のドアパネル13aは正面柱41aの裏側に設けられた戸袋42aに収納され、他方のドアパネル13bは正面柱41bの裏側に設けられた戸袋42bに収納される。 Front pillars 41a and 41b are provided on both sides of the doorway of the car 11, and surround the doorway of the car 11 together with the curtain plate 11a. When the car door 13 is opened, one door panel 13a is housed in a door pocket 42a provided on the back side of the front pillar 41a, and the other door panel 13b is housed in the door pocket 42b provided on the back side of the front pillar 41b. ..

正面柱41a,41bの一方あるいは両方に表示器43や、行先階ボタン44などが配設された操作盤45、スピーカ46が設置されている。図2の例では、正面柱41aにスピーカ46、正面柱41bに表示器43、操作盤45が設置されている。 A display 43, an operation panel 45 on which a destination floor button 44 and the like are arranged, and a speaker 46 are installed on one or both of the front pillars 41a and 41b. In the example of FIG. 2, the speaker 46 is installed on the front pillar 41a, the display 43 and the operation panel 45 are installed on the front pillar 41b.

ここで、乗りかご11の出入口上部の幕板11aの中央部にカメラ12が設置されている。カメラ12は、かごドア13が乗場ドア14と共に戸開したときに、乗りかご11の出入口付近を含めて撮影できるように(図3参照)、幕板11aの下部から下方向に向けて設置される。 Here, the camera 12 is installed at the center of the curtain plate 11a above the doorway of the car 11. The camera 12 is installed from the lower part of the curtain plate 11a downward so that when the car door 13 is opened together with the landing door 14, the photograph including the vicinity of the entrance / exit of the car 11 can be taken (see FIG. 3). The door.

図3はカメラ12の撮影画像の一例を示す図である。かごドア13(ドアパネル13a,13b)と乗場ドア14(ドアパネル14a,14b)が全開した状態で、乗りかご11の出入口上部から下方向に撮影した場合を示している。図3において、上側は乗場15、下側は乗りかご11内を示している。 FIG. 3 is a diagram showing an example of a captured image of the camera 12. It shows a case where the car door 13 (door panels 13a and 13b) and the landing door 14 (door panels 14a and 14b) are fully opened and the image is taken downward from the upper part of the doorway of the car 11. In FIG. 3, the upper side shows the landing 15 and the lower side shows the inside of the car 11.

乗場15において、乗りかご11の到着口の両側に三方枠17a,17bが設けられており、その三方枠17a,17bの間の床面16に所定の幅を有する帯状の乗場シル18が乗場ドア14の開閉方向に沿って配設されている。また、乗りかご11の床面19の出入口側に所定の幅を有する帯状のかごシル47がかごドア13の開閉方向に沿って配設されている。 At the landing 15, three-sided frames 17a and 17b are provided on both sides of the arrival port of the car 11, and a band-shaped landing sill 18 having a predetermined width is provided on the floor surface 16 between the three-sided frames 17a and 17b. It is arranged along the opening / closing direction of 14. Further, a strip-shaped car sill 47 having a predetermined width is arranged on the entrance / exit side of the floor surface 19 of the car 11 along the opening / closing direction of the car door 13.

ここで、撮影画像上において、かごシル47と乗場シル18の両方を囲むように矩形状の検知エリアE1が設定されている。検知エリアE1は、乗りかご11のドア付近に存在する利用者または物を検知するためのエリアとして用いられる。 Here, a rectangular detection area E1 is set so as to surround both the car sill 47 and the landing sill 18 on the captured image. The detection area E1 is used as an area for detecting a user or an object existing near the door of the car 11.

次に、本システムの動作について詳しく説明する。
図4は本システムにおける全体の処理の流れを示すフローチャートである。
Next, the operation of this system will be described in detail.
FIG. 4 is a flowchart showing the overall processing flow in this system.

まず、初期設定として、画像処理装置20に備えられた検知部22の検知エリア設定部23によって検知エリア設定処理が実行される(ステップS11)。この検知エリア設定処理は、例えばカメラ12を設置したとき、あるいは、カメラ12の設置位置を調整したときに、以下のようにして実行される。 First, as an initial setting, the detection area setting process is executed by the detection area setting unit 23 of the detection unit 22 provided in the image processing device 20 (step S11). This detection area setting process is executed as follows, for example, when the camera 12 is installed or when the installation position of the camera 12 is adjusted.

すなわち、検知エリア設定部23は、カメラ12によって撮像された画像上で、かごシル47と乗場シル18が映る領域に検知エリアE1を設定する。撮影画像上でかごシル47と乗場シル18が映る領域は、乗りかご11の各構成部の設計値や、カメラ12固有の値に基づいて算出される。 That is, the detection area setting unit 23 sets the detection area E1 in the area where the car sill 47 and the landing sill 18 are reflected on the image captured by the camera 12. The area in which the car sill 47 and the landing sill 18 are projected on the captured image is calculated based on the design value of each component of the car 11 and the value peculiar to the camera 12.

・乗りかご11の間口(出入口)の横幅(X方向の幅)
・かごシル47と乗場シル18の縦幅(Y方向の幅)
・かごドア13と乗場ドア14の高さ
・かごシル47と乗場シル18に対するカメラ12の相対位置
・カメラ12の3軸の角度
・カメラ12の画角及び焦点距離
検知エリア設定部23は、これらの値に基づいて撮影画像上でかごシル47と乗場シル18が映る領域を算出する。つまり、検知エリア設定部23は、乗りかご11の床面19の出入口側に所定の幅を有する帯状のかごシル47がかごドア13の開閉方向に沿って配設されていると仮定し、カメラ12の相対位置・角度・画角等に基づいてかごシル47の3次元座標を算出する。
-Width of the frontage (doorway) of the car 11 (width in the X direction)
-Vertical width of the basket sill 47 and the landing sill 18 (width in the Y direction)
-Height of the car door 13 and the landing door 14-Relative position of the camera 12 with respect to the car sill 47 and the landing sill 18-Angle of the three axes of the camera 12-The angle of view and the focal length of the camera 12 The detection area setting unit 23 is these. The area where the car sill 47 and the landing sill 18 are reflected on the captured image is calculated based on the value of. That is, the detection area setting unit 23 assumes that a band-shaped car sill 47 having a predetermined width is arranged along the opening / closing direction of the car door 13 on the entrance / exit side of the floor surface 19 of the car 11. The three-dimensional coordinates of the car sill 47 are calculated based on the relative positions, angles, angles of view, and the like of 12.

3次元座標とは、図6に示すように、かごドア13と水平の方向をX軸とし、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸とし、乗りかご11の高さ方向をZ軸とした場合の座標である。 As shown in FIG. 6, the three-dimensional coordinates are such that the direction horizontal to the car door 13 is the X-axis and the direction from the center of the car door 13 to the landing 15 (the direction perpendicular to the car door 13) is the Y-axis. , The coordinates when the height direction of the car 11 is the Z axis.

検知エリア設定部23は、かごシル47の3次元座標を撮影画像上の2次元座標に射影して、かごシル47の位置を特定するためのx,y座標値を求める。この場合、図7に示すように、矩形状のかごシル47を構成する4点PA1〜PA4のうち、少なくとも乗りかご11の床面19に接している点PA1,PA2のx,y座標値を求めることでも良い。 The detection area setting unit 23 projects the three-dimensional coordinates of the car sill 47 onto the two-dimensional coordinates on the captured image to obtain the x and y coordinate values for specifying the position of the car sill 47. In this case, as shown in FIG. 7, among the four points PA1 to PA4 constituting the rectangular car sill 47, the x and y coordinate values of at least the points PA1 and PA2 in contact with the floor surface 19 of the car 11 are set. You may ask for it.

乗場シル18についても同様である。すなわち、検知エリア設定部23は、乗場15の床面16の出入口側に所定の幅を有する帯状の乗場シル18が乗場ドア14の開閉方向に沿って配設されていると仮定し、カメラ12の相対位置・角度・画角等に基づいて乗場シル18の3次元座標を算出する。検知エリア設定部23は、乗場シル18の3次元座標を撮影画像上の2次元座標に射影して、乗場シル18の位置を特定するためのx,y座標値を求める。この場合、図7に示すように、矩形状の乗場シル18を構成する4点PB1〜PB4のうち、少なくとも乗場15の床面16に接している点PB3,PB4のx,y座標値を求めることでも良い。 The same applies to the landing sill 18. That is, the detection area setting unit 23 assumes that a band-shaped landing sill 18 having a predetermined width is arranged along the opening / closing direction of the landing door 14 on the entrance / exit side of the floor surface 16 of the landing 15, and the camera 12 The three-dimensional coordinates of the landing sill 18 are calculated based on the relative position, angle, angle of view, and the like. The detection area setting unit 23 projects the three-dimensional coordinates of the landing sill 18 onto the two-dimensional coordinates on the captured image to obtain the x and y coordinate values for specifying the position of the landing sill 18. In this case, as shown in FIG. 7, among the four points PB1 to PB4 constituting the rectangular landing sill 18, the x and y coordinate values of the points PB3 and PB4 in contact with the floor surface 16 of the landing 15 are obtained. That's fine.

このようにして、かごシル47と乗場シル18を構成する各点のx,y座標値が得られると、検知エリア設定部23は、これらの点のx,y座標値に基づいてかごシル47と乗場シル18を囲む検知エリアE1を設定する。詳しくは、検知エリア設定部23は、かごシル47の床面19側の点PA1,PAのx,y座標値と、乗場シル18の床面16側の点PB3,PB4のx,y座標値とに基づいて、点PA1,PA2,PB3,PB4を頂点とした矩形状の検知エリアE1を設定する。 In this way, when the x and y coordinate values of the points constituting the car sill 47 and the landing sill 18 are obtained, the detection area setting unit 23 determines the car sill 47 based on the x and y coordinate values of these points. And the detection area E1 surrounding the landing sill 18 is set. Specifically, the detection area setting unit 23 uses the x and y coordinate values of the points PA1 and PA on the floor surface 19 side of the car sill 47 and the x and y coordinate values of the points PB3 and PB4 on the floor surface 16 side of the landing sill 18. Based on the above, a rectangular detection area E1 having points PA1, PA2, PB3, and PB4 as vertices is set.

なお、カメラ角度のずれなどによって生じる座標値の誤差を考慮して、検知エリアE1のX方向の幅およびY方向の幅のうち、少なくともY方向の幅を若干広めに設定しておくことが好ましい。 It is preferable to set at least the width in the Y direction to be slightly wider than the width in the X direction and the width in the Y direction of the detection area E1 in consideration of the error of the coordinate values caused by the deviation of the camera angle. ..

また、ここではかごシル47と乗場シル18を囲む1つの検知エリアE1を設定するものとしたが、図8に示すように、かごシル47を囲む検知エリアE2と乗場シル18を囲む検知エリアE3とに分けて設定することでも良い。 Further, although one detection area E1 surrounding the car sill 47 and the landing sill 18 is set here, as shown in FIG. 8, the detection area E2 surrounding the car sill 47 and the detection area E3 surrounding the landing sill 18 are set. It may be set separately for and.

検知エリアE1の設定処理は、かごドア13を戸開した状態で実行される。かごシル47と乗場シル18に対して検知エリアE1を設定しておくことで、戸開時や戸閉途中で利用者がドア付近に存在する場合にドアに挟まれる前に検知することが可能となる。 The setting process of the detection area E1 is executed with the car door 13 opened. By setting the detection area E1 for the car sill 47 and the landing sill 18, it is possible to detect when the user is near the door when the door is open or closed before being caught by the door. Will be.

以下に乗りかご11の運転時の動作について説明する。
図4に示すように、乗りかご11が任意の階の乗場15に到着すると(ステップS12のYes)、かご制御装置30は、かごドア13を戸開する(ステップS13)。
The operation of the car 11 during operation will be described below.
As shown in FIG. 4, when the car 11 arrives at the landing 15 on an arbitrary floor (Yes in step S12), the car control device 30 opens the car door 13 (step S13).

このとき、乗りかご11の出入口上部に設置されたカメラ12によってかごドア13の周辺が所定のフレームレート(例えば30コマ/秒)で撮影される。画像処理装置20は、カメラ12で撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS14)、以下のような利用者検知処理をリアルタイムで実行する(ステップS15)。なお、撮影画像に対する前処理として、歪み補正や、拡大縮小、画像の一部の切り取りなどを行っても良い。 At this time, the periphery of the car door 13 is photographed at a predetermined frame rate (for example, 30 frames / second) by the camera 12 installed at the upper part of the doorway of the car 11. The image processing device 20 acquires images taken by the camera 12 in chronological order, and while sequentially storing these images in the storage unit 21 (step S14), executes the following user detection processing in real time. (Step S15). As preprocessing for the captured image, distortion correction, enlargement / reduction, and partial cropping of the image may be performed.

利用者検知処理は、画像処理装置20に備えられた検知部22の検知処理部24によって実行される。検知処理部24は、カメラ12によって時系列で得られる複数の撮影画像から検知エリアE1内の画像を抽出することにより、これらの画像に基づいて利用者または物の有無を検知する。 The user detection process is executed by the detection processing unit 24 of the detection unit 22 provided in the image processing device 20. The detection processing unit 24 extracts images in the detection area E1 from a plurality of captured images obtained by the camera 12 in time series, and detects the presence or absence of a user or an object based on these images.

ここで、本実施形態における利用者検知処理は、(a)境界検知と、(b)動き検知の2つの検知処理を行い、これらの検知処理の結果からドア付近に利用者または物が存在するか否かを判定することを特徴としている。 Here, the user detection process in the present embodiment performs two detection processes, (a) boundary detection and (b) motion detection, and a user or an object exists near the door based on the results of these detection processes. It is characterized in determining whether or not it is.

(a)境界検知
図5に上記ステップS15で実行される利用者検知処理の詳細を示す。
(A) Boundary detection
FIG. 5 shows the details of the user detection process executed in step S15.

検知処理部24は、境界検知部24aを通じて境界検知を行う。境界検知部24aは、図3に示した検知エリアE1内の画像上でかごシル47と乗りかご11の床面19との境界、乗場シル18と乗場15の床面16との境界を検知する(ステップS21)。 The detection processing unit 24 performs boundary detection through the boundary detection unit 24a. The boundary detection unit 24a detects the boundary between the car sill 47 and the floor surface 19 of the car 11 and the boundary between the landing sill 18 and the floor surface 16 of the landing 15 on the image in the detection area E1 shown in FIG. (Step S21).

詳しくは、境界検知部24aは、検知エリアE1内の画像を「0(エッジ無)」と「1(エッジ有))で2値化処理することで、その2値化画像からかごシル47のエッジと乗場シル18のエッジを抽出する。図9に2値化画像の一例を示す。図中の白色部分がエッジに相当する。なお、図9の例では撮影画像全体を2値化しているが、少なくとも検知エリアE1内の画像を2値化すれば良い。 Specifically, the boundary detection unit 24a performs binarization processing on the image in the detection area E1 with "0 (without edge)" and "1 (with edge)), and from the binarized image, the basket sill 47 The edge and the edge of the landing sill 18 are extracted. An example of a binarized image is shown in FIG. 9. The white part in the figure corresponds to an edge. In the example of FIG. 9, the entire captured image is binarized. However, at least the image in the detection area E1 may be binarized.

エッジを抽出する方法としては、例えば、所定の画素の輝度値と当該画素に隣接する画素の輝度値とを比較し、両者の差分が予め設定された閾値以上であった場合に当該画素の部分をエッジとして抽出する方法ある。あるいは、所定の画素の輝度値と当該画素から所定画素分だけ離れた画素の輝度値とを比較することでも良い。また、複数の画素からなる画素群の平均輝度値と、当該画素群と隣接する画素群の平均輝度値とを比較し、これらの差分が予め設定された閾値以上であった場合に当該画素群の部分をエッジとして抽出することでも良い。 As a method of extracting an edge, for example, the brightness value of a predetermined pixel is compared with the brightness value of a pixel adjacent to the pixel, and when the difference between the two is equal to or more than a preset threshold value, the portion of the pixel is obtained. Is extracted as an edge. Alternatively, the brightness value of a predetermined pixel may be compared with the brightness value of a pixel separated from the pixel by a predetermined pixel. Further, the average luminance value of the pixel group composed of a plurality of pixels is compared with the average luminance value of the pixel group and the adjacent pixel group, and when the difference between them is equal to or more than a preset threshold value, the pixel group The part of may be extracted as an edge.

また、ラプラシアンフィルタやCanny法などの周知の画像処理技術を用いてエッジを抽出することでも良い。 Further, the edge may be extracted by using a well-known image processing technique such as a Laplacian filter or a Canny method.

図3に示すように、かごシル47のエッジには、長手方向の両側辺と短手方向の短側辺がある。そのうちの長手方向の両側辺のうちの一方がかごシル47と乗りかご11の床面19との境界として検知される。同様に、乗場シル18のエッジには、長手方向の両側辺と短手方向の短側辺がある。そのうちの長手方向の両側辺のうちの一方が乗場シル18と乗場15の床面16との境界として検知される。 As shown in FIG. 3, the edge of the car sill 47 has both sides in the longitudinal direction and short sides in the lateral direction. One of both sides in the longitudinal direction is detected as a boundary between the car sill 47 and the floor surface 19 of the car 11. Similarly, the edge of the landing sill 18 has both sides in the longitudinal direction and short sides in the lateral direction. One of both sides in the longitudinal direction is detected as a boundary between the landing sill 18 and the floor surface 16 of the landing 15.

ここではかごシル47と乗場シル18を検知エリアE1内における1つのシルとして考えているが、図8に示したように、検知エリアE1を検知エリアE2,E3に分けた場合には、検知エリアE2内のかごシル47、検知エリアE3内の乗場シル18のそれぞれについて境界を検知することでも良い。 Here, the car sill 47 and the landing sill 18 are considered as one sill in the detection area E1, but as shown in FIG. 8, when the detection area E1 is divided into the detection areas E2 and E3, the detection area is divided into the detection areas E2 and E3. Boundaries may be detected for each of the car sill 47 in E2 and the landing sill 18 in the detection area E3.

(b)動き検知
検知処理部24は、動き検知部24bを通じて上記(b)の動き検知を行う。動き検知部24bは、図10に示すように、検知エリアE1内の画像を所定のブロック単位でマトリックス状に分割し、これらのブロックの中で動きのあるブロックを検出する。
(B) Motion detection
The detection processing unit 24 detects the motion of (b) above through the motion detection unit 24b. As shown in FIG. 10, the motion detection unit 24b divides the image in the detection area E1 into a matrix in predetermined block units, and detects a motion block among these blocks.

詳しくは、動き検知部24bは、記憶部21に保持された各画像を時系列順に1枚ずつ読み出し、これらの画像の平均輝度値をブロック毎に算出する。その際、初期値として最初の画像が入力されたときに算出されたブロック毎の平均輝度値を記憶部21内の図示せぬ第1のバッファエリアに保持しておくものとする。 Specifically, the motion detection unit 24b reads out each image held in the storage unit 21 one by one in chronological order, and calculates the average luminance value of these images for each block. At that time, it is assumed that the average luminance value for each block calculated when the first image is input as the initial value is held in the first buffer area (not shown) in the storage unit 21.

2枚目以降の画像が得られると、動き検知部24bは、現在の画像のブロック毎の平均輝度値と上記第1のバッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較する。その結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、動き検知部24bは、当該ブロックを動きありのブロックとして判定する。現在の画像に対する動きの有無を判定すると、動き検知部24bは、当該画像のブロック毎の平均輝度値を次の画像との比較用として上記第1のバッファエリアに保持する。以後同様にして、動き検知部24bは、各画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。 When the second and subsequent images are obtained, the motion detection unit 24b sets the average luminance value for each block of the current image and the average luminance value for each block of the previous image held in the first buffer area. Compare with. As a result, when there is a block having a brightness difference equal to or larger than a preset value in the current image, the motion detection unit 24b determines the block as a block with motion. When determining the presence or absence of motion with respect to the current image, the motion detection unit 24b holds the average luminance value for each block of the image in the first buffer area for comparison with the next image. After that, in the same manner, the motion detection unit 24b repeats determining the presence or absence of motion while comparing the brightness values of each image in block units in chronological order.

なお、図5に示したフローチャートでは、境界検知の後に、動き検知を行うようにしたが(ステップS21→S22)、先に動き検知を行い、その次に境界検知を行うことでも良い(ステップS22→S21)。また、境界検知と動き検知の両方の処理を並列して行うようにしても良い。 In the flowchart shown in FIG. 5, motion detection is performed after boundary detection (step S21 → S22), but motion detection may be performed first, and then boundary detection may be performed (step S22). → S21). Further, both the boundary detection and the motion detection may be performed in parallel.

上述した境界検知と動き検知について、具体例を用いて詳しく説明する。
いま、図11に示すように、例えば戸開中に利用者がシル上を通って乗りかご11内に乗車する場合を想定する。利用者の通過に伴って、図12に示すように、検知エリアE1内のシル(かごシル47と乗場シル18)の画像が部分的に隠れる。
The above-mentioned boundary detection and motion detection will be described in detail with reference to specific examples.
Now, as shown in FIG. 11, for example, it is assumed that the user passes over the sill and gets into the car 11 while the door is open. As the user passes by, as shown in FIG. 12, the images of the sill (basket sill 47 and landing sill 18) in the detection area E1 are partially hidden.

かごシル47と乗りかご11の床面19との境界を表す直線をD1、乗場シル18と乗場15の床面16との境界を表す直線をD2としたとき、直線D1,D2の少なくとも一方が部分的に欠けるので、シル上に利用者が存在すると判定できる。なお、かごシル47と乗場シル18との間には隙間48があり、この隙間48側の境界を表す直線D3,D4を含めて判定することでも良い。この場合、直線D3,D4の少なくとも一方が部分的に欠けていれば、シル上に利用者が存在していると判定できる。 When the straight line representing the boundary between the car sill 47 and the floor surface 19 of the car 11 is D1, and the straight line representing the boundary between the landing sill 18 and the floor surface 16 of the landing 15 is D2, at least one of the straight lines D1 and D2 is Since it is partially missing, it can be determined that the user exists on the sill. There is a gap 48 between the car sill 47 and the landing sill 18, and the determination may include the straight lines D3 and D4 representing the boundary on the gap 48 side. In this case, if at least one of the straight lines D3 and D4 is partially missing, it can be determined that the user exists on the sill.

ただし、境界検知は、照明による影響を受けやすい。照明の関係で、シルが明るく撮影されている場合や、暗く撮影されている場合には、シルの境界(エッジ)を表す直線が鮮明に抽出されないことがある。特に、シルと床面が同色系であった場合には、シルの境界を表す直線が画像上で途切れてしまい、その途切れた部分で利用者と誤検知することがある。 However, boundary detection is susceptible to lighting. Due to lighting, when the sill is photographed brightly or darkly, the straight line representing the boundary (edge) of the sill may not be clearly extracted. In particular, when the sill and the floor surface have the same color system, the straight line representing the boundary of the sill is interrupted on the image, and the interrupted portion may be erroneously detected as a user.

動き検知に関しては、図13に示すように、検知エリアE1内の画像を水平方向および垂直方向にマトリックス状に区切ったブロック単位で行われる。図中のBaがマトリックス状に区切った1つのブロックを示している。各画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。この場合、利用者がシル上を通過したときに、当該利用者の足先に対応するブロックが動きありとして検出される。これにより、利用者がシル上つまりドア近くに存在しているものと判定できる。 As shown in FIG. 13, motion detection is performed in block units in which the image in the detection area E1 is divided into a matrix in the horizontal direction and the vertical direction. Ba in the figure shows one block divided in a matrix. The presence or absence of movement is repeatedly determined while comparing the brightness values of each image in chronological order in block units. In this case, when the user passes over the sill, the block corresponding to the user's toes is detected as moving. As a result, it can be determined that the user is on the sill, that is, near the door.

ただし、動き検知は、影による影響を受けやすい。乗りかご11のドア近くは、照明機器や日差しなどの影響で、人やドアの影が発生しやすい。特に、シルの色は銀色であることが多く、人やドアの影が濃く出やすい。したがって、影がシル上に入り込んでいると、その影が動いたときに利用者と誤検知することがある。 However, motion detection is susceptible to shadows. Shadows of people and doors are likely to occur near the door of the car 11 due to the influence of lighting equipment and sunlight. In particular, the color of the sill is often silver, and the shadows of people and doors tend to appear dark. Therefore, if the shadow is on the sill, it may be erroneously detected as a user when the shadow moves.

このように、境界検知についても動き検知についても、実環境における照明条件を考慮しなければならない。そこで、本実施形態では、境界検知と動き検知が所定の条件を満たす場合にそのときの検知結果を有効として扱うようにしている。具体的には、境界検知によってシルの境界を示す直線の途切れが検知されて、動き検知によってその途切れた部分の付近で動きが検知されていることを条件とする。なお、「動きが検知」とは、詳しくは、利用者または物の動きに伴う輝度変化が検知されることである。 In this way, it is necessary to consider the lighting conditions in the actual environment for both boundary detection and motion detection. Therefore, in the present embodiment, when the boundary detection and the motion detection satisfy a predetermined condition, the detection result at that time is treated as valid. Specifically, it is a condition that the boundary detection detects a break in the straight line indicating the boundary of the sill, and the motion detection detects the movement in the vicinity of the broken portion. In addition, "movement is detected" means that, in detail, a change in brightness accompanying the movement of a user or an object is detected.

図5に示すように、上記条件を満たす場合に(ステップS23のYes)、判定部24cは、ドア近くに利用者または物が存在するものと判定する(ステップS24)。詳しくは、図13において、検知エリアE1をマトリックス状に区切ったブロック単位で見たときに、シルの境界を表す直線D1,D2の少なくとも一方が部分的に欠けたブロックがあり、当該ブロックで動きが検知されていれば、利用者または物と判定する。図13の例では、Ba1,Ba2,Ba3で示されるブロックで、シルの境界を表す直線D1,D2の途切れ(シルの境界隠れ)と動き(輝度変化)が検知される。 As shown in FIG. 5, when the above conditions are satisfied (Yes in step S23), the determination unit 24c determines that a user or an object exists near the door (step S24). Specifically, in FIG. 13, when the detection area E1 is viewed in block units divided in a matrix, there is a block in which at least one of the straight lines D1 and D2 representing the boundary of the sill is partially missing, and the block moves in the block. If is detected, it is determined to be a user or a thing. In the example of FIG. 13, in the block represented by Ba1, Ba2, Ba3, the break (hidden of the boundary of the sill) and the movement (change in brightness) of the straight lines D1 and D2 representing the boundary of the sill are detected.

なお、シルの境界を示す直線の途切れが検知されない場合、または、シル上で動きが検知されない場合には(ステップS23のNo)、判定部24cは、ドア近くに利用者または物が存在しないと判定する。 If no break in the straight line indicating the boundary of the sill is detected, or if no movement is detected on the sill (No in step S23), the determination unit 24c determines that there is no user or object near the door. judge.

このように、境界検知ではシルの境界を表す直線が途切れていること、動き検知ではその途切れた部分の付近で動きが検知されていることを条件とすることで、ドア近くの利用者または物を正しく検知することができる。したがって、例えばシルと床面とが同色系であって、照明の関係でシルの境界を表す直線が鮮明に抽出されずに画像的に途切れている場合であっても、動きが検知されていなければ、利用者または物が存在しないと判定されるため、誤検知することなく、ドア近くの利用者または物を正しく検知できる。 In this way, on the condition that the straight line representing the boundary of the sill is interrupted in the boundary detection, and the movement is detected in the vicinity of the interrupted part in the motion detection, the user or object near the door Can be detected correctly. Therefore, for example, even if the sill and the floor surface have the same color system and the straight line representing the boundary of the sill is not clearly extracted due to lighting and the image is interrupted, the movement must be detected. For example, since it is determined that the user or the object does not exist, the user or the object near the door can be correctly detected without erroneous detection.

一方、動き検知についても、照明の関係でシルに影が映り込んでいても、その影の部分とシルの境界を表す直線の途切れ部分が一致しない場合には利用者または物と判定されない。したがって、照明条件が変化して影がシル上の各箇所に発生しても、誤検知することなく、利用者または物を正しく検知できる。 On the other hand, with regard to motion detection, even if a shadow is reflected on the sill due to lighting, if the shadow portion and the interrupted portion of the straight line representing the boundary of the sill do not match, it is not determined as a user or an object. Therefore, even if the lighting conditions change and shadows are generated at each location on the sill, the user or an object can be correctly detected without erroneous detection.

なお、上記ステップ21において、例えば照明の関係でシルからの反射光が強く、撮影画像上でシルの境界をまったく検知できないこともある。このような場合には、動き検知の結果だけで利用者または物の有無を判定するようにしても良い。すなわち、上記ステップ23において、境界を示す直線が検知されていない場合に、判定部24cは、動き検知の結果に基づいて利用者または物と判定する。この場合、動き検知によってシル上の動きが検知されていれば、判定部24cは、ドア近くに利用者または物が存在するものと判定する。 In step 21, for example, the reflected light from the sill is strong due to lighting, and the boundary of the sill may not be detected at all on the captured image. In such a case, the presence or absence of a user or an object may be determined only by the result of motion detection. That is, in step 23, when the straight line indicating the boundary is not detected, the determination unit 24c determines that the user or the object is a user or an object based on the result of motion detection. In this case, if the movement on the sill is detected by the motion detection, the determination unit 24c determines that a user or an object is present near the door.

図4に戻って、上述した利用者検知処理によって検知エリアE1内(つまりシル上)に利用者または物の存在が検知されると(ステップS16のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30の戸開閉制御部31は、この利用者検知信号を受信すると、かごドア13の戸開時間を通常よりも延長して、戸開状態を維持する(ステップS17)。 Returning to FIG. 4, when the presence of a user or an object is detected in the detection area E1 (that is, on the sill) by the user detection process described above (Yes in step S16), the image processing device 20 to the car control device 30 A user detection signal is output to. Upon receiving this user detection signal, the door open / close control unit 31 of the car control device 30 extends the door opening time of the car door 13 more than usual to maintain the door open state (step S17).

また、かご制御装置30の通知部32は、乗りかご11内のスピーカ46を通じて音声アナウンスを行い、利用者にドアから離れるように注意を喚起するようにしても良い(ステップS18)。なお、通知の方法は音声アナウンスに限らず、例えば「ドアに挟まれないように注意して下さい。」といったようなメッセージを表示することでも良いし、音声アナウンスとメッセージ表示を併用することでも良い。さらに、警告音を鳴らすことでも良い。 Further, the notification unit 32 of the car control device 30 may make a voice announcement through the speaker 46 in the car 11 to alert the user to move away from the door (step S18). The notification method is not limited to voice announcement, for example, a message such as "Be careful not to get caught in the door" may be displayed, or voice announcement and message display may be used together. .. Further, a warning sound may be sounded.

検知エリアE1内で利用者または物の存在が検知されている間、上記処理が繰り返される。これにより、戸開時に利用者がドア近くにいる場合に、ドアに挟まれることを未然に防ぐことができる。検知エリアE1内で利用者または物の存在が検知されなかった場合には(ステップS16のNo)、かご制御装置30は所定時間後にかごドア13の戸閉を開始し、戸閉後に乗りかご11を目的階に向けて出発させる(ステップS19)。 The above process is repeated while the presence of a user or an object is detected in the detection area E1. As a result, when the user is near the door when the door is opened, it is possible to prevent the user from being caught in the door. If the presence of a user or an object is not detected in the detection area E1 (No in step S16), the car control device 30 starts closing the car door 13 after a predetermined time, and after the door is closed, the car 11 Departs toward the destination floor (step S19).

なお、ここでは戸開時を想定して説明したが、戸閉時でも同様であり、図5に示した利用者検知処理が実行される。これにより、例えば戸閉途中に検知エリアE1内(つまりシル上)で利用者または物の存在が検知された場合には、戸開閉制御部31によって戸閉動作を中断し、かごドア13をリオープンするか、あるいは、かごドア13の戸閉速度を通常よりも遅くして、利用者がドアに挟まれることを未然に防ぐことができる。また、両開きタイプのかごドアを例にして説明したが、片開きタイプであっても同様である。 Although the description has been made assuming that the door is open, the same applies when the door is closed, and the user detection process shown in FIG. 5 is executed. As a result, for example, when the presence of a user or an object is detected in the detection area E1 (that is, on the sill) during door closing, the door opening / closing control unit 31 interrupts the door closing operation and reopens the car door 13. The door can be opened or the car door 13 can be closed at a slower speed than usual to prevent the user from being caught in the door. Further, although the explanation has been given by taking a double door type car door as an example, the same applies to the single door type.

このように本実施形態によれば、撮影画像上でシルの境界検知と動き検知を行い、これらの検知結果が所定の条件を満たすときに利用者または物と判定することで、照明条件が変化しても、ドア付近に存在する利用者または物を正しく検知して戸開閉制御に反映させることができる。これにより、戸開時または戸閉途中に利用者または物がドアに挟まれることを未然に防ぐことができる。 As described above, according to the present embodiment, the illumination conditions are changed by performing boundary detection and motion detection of the sill on the captured image and determining that the user or the object is a user or an object when these detection results satisfy predetermined conditions. Even so, it is possible to correctly detect a user or an object existing near the door and reflect it in the door opening / closing control. This makes it possible to prevent the user or an object from being caught in the door when the door is opened or closed.

(他の実施形態)
上記実施形態では、検知エリアE1をマトリックス状に区切ったブロック単位で境界検知および動き検知を行う構成としたが、検知エリアE1を別の単位で区切ることでも良い。
(Other embodiments)
In the above embodiment, the detection area E1 is divided into blocks in a matrix to perform boundary detection and motion detection, but the detection area E1 may be divided into another unit.

図14に検知エリアE1をドアの開閉方向(X方向)と直交する方向(Y方向)に短冊状に区切った例を示す。図中のBbが短冊状に区切った1つのブロックを示している。ブロックBbのY方向のサイズは、検知エリアE1のY方向のサイズと略同じである。ブロックBbのX方向のサイズは、例えば図13に示したブロックBaと同じサイズでも良いし、違うサイズでも良い。ブロックBaをY方向に長い短冊状としているのは、利用者が乗りかご11に乗車する場合でも降車する場合でも、シルに対してY方向に進むからである。 FIG. 14 shows an example in which the detection area E1 is divided into strips in a direction (Y direction) orthogonal to the door opening / closing direction (X direction). Bb in the figure shows one block divided into strips. The size of the block Bb in the Y direction is substantially the same as the size of the detection area E1 in the Y direction. The size of the block Bb in the X direction may be, for example, the same size as the block Ba shown in FIG. 13, or may be a different size. The reason why the block Ba has a long strip shape in the Y direction is that the block Ba advances in the Y direction with respect to the sill regardless of whether the user gets on or off the car 11.

このような構成において、検知エリアE1をY方向にブロック単位で見て、シルの境界を表す直線D1,D2の少なくとも一方が部分的に欠けたブロックがあり、そのブロックで動きが検知されていれば、利用者または物と判定する。図14の例では、Bb1,Bb2,Bb3で示される短冊状のブロックで、シルの境界を表す直線D1,D2の途切れ(シルの境界隠れ)と動きが検知される。 In such a configuration, when the detection area E1 is viewed in the Y direction in block units, there is a block in which at least one of the straight lines D1 and D2 representing the boundary of the sill is partially missing, and movement is detected in that block. For example, it is determined to be a user or a thing. In the example of FIG. 14, in the strip-shaped block represented by Bb1, Bb2, Bb3, the breakage (hidden of the boundary of the sill) and the movement of the straight lines D1 and D2 representing the boundary of the sill are detected.

ここで、ドア近くを撮影した場合に、その撮影画像に部分的な抜け(ノイズ)が生じることがある。図中のP1,P2,P3が画像の抜け部分を示す。このような画像の抜けがあると、図13に示したマトリックス状に区切った細かいブロック単位では、画像の抜け部分で境界検知と動き検知を正しく行えないことがある。これに対し、図14のように、検知エリアE1を短冊状に区切ったブロック単位であれば、1つのブロックBbの範囲がY方向に広がるので、画像の抜けた部分があっても他の部分で境界検知および動き検知を行うことができる。つまり、例えばP1で示す部分に画像の抜けがあっても、当該抜け部分を含む短冊状のブロックBb1内の他の部分で境界検知および動き検知を行うことができる。 Here, when a photograph is taken near the door, a partial omission (noise) may occur in the photographed image. P1, P2, and P3 in the figure indicate missing parts of the image. If there is such an image omission, the boundary detection and the motion detection may not be correctly performed in the omission portion of the image in the fine block units divided in the matrix shown in FIG. On the other hand, as shown in FIG. 14, if the detection area E1 is divided into strips in block units, the range of one block Bb expands in the Y direction. Boundary detection and motion detection can be performed with. That is, for example, even if there is an image omission in the portion indicated by P1, boundary detection and motion detection can be performed in another portion in the strip-shaped block Bb1 including the omission portion.

このように、検知エリアE1を短冊状に区切って境界検知および動き検知を行うことで、撮影時の画像抜けを起因とした境界と動きの検知漏れを防いで、シル上の利用者または物を正しく検知できる。 In this way, by dividing the detection area E1 into strips and performing boundary detection and motion detection, it is possible to prevent omission of detection of boundaries and motion due to image omission during shooting, and to prevent users or objects on the sill. Can be detected correctly.

以上述べた少なくとも1つの実施形態によれば、照明条件が変化しても、ドア付近に存在する利用者または物を正しく検知することのできるエレベータの利用者検知システムを提供することができる。 According to at least one embodiment described above, it is possible to provide an elevator user detection system capable of correctly detecting a user or an object existing near a door even if the lighting conditions change.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

11…乗りかご、11a…幕板、12…カメラ、13…かごドア、14…乗場ドア、15…乗場、16…乗場の床面、17a,17b…三方枠、18…乗場シル、19…乗りかごの床面、20…画像処理装置、21…記憶部、22…検知部、23…検知エリア設定部、24a…境界検知部、24b…動き検知部、24c…判定部、30…かご制御装置、31…戸開閉制御部、32…通知部、41a,41b…正面柱、42a,42b…戸袋、43…表示器、44…行先階ボタン、45…操作盤、46…スピーカ、47…かごシル、E1,E2,E3…検知エリア。 11 ... Car, 11a ... Curtain board, 12 ... Camera, 13 ... Car door, 14 ... Landing door, 15 ... Landing, 16 ... Landing floor, 17a, 17b ... Three-sided frame, 18 ... Landing sill, 19 ... Riding Car floor, 20 ... Image processing device, 21 ... Storage unit, 22 ... Detection unit, 23 ... Detection area setting unit, 24a ... Boundary detection unit, 24b ... Motion detection unit, 24c ... Judgment unit, 30 ... Car control device , 31 ... Door open / close control unit, 32 ... Notification unit, 41a, 41b ... Front pillar, 42a, 42b ... Door pocket, 43 ... Display, 44 ... Destination floor button, 45 ... Operation panel, 46 ... Speaker, 47 ... Basket sill , E1, E2, E3 ... Detection area.

Claims (9)

乗りかごから乗場に向けてドアを含む所定の範囲内を撮影する撮像手段と、
この撮像手段によって撮影された画像上で上記ドアの移動経路に設けられたシルに検知エリアを設定する検知エリア設定手段と、
この検知エリア設定手段によって設定された上記検知エリア内の画像上で上記シルとエレベータ構造物との境界を検知する境界検知手段と、
上記検知エリア内の上記シル上における利用者または物の動きに伴う画像の輝度変化を検知する動き検知手段と、
上記境界検知手段の検知結果と上記動き検知手段の検知結果とに基づいて、上記ドア付近に利用者または物が存在するか否かを判定する判定手段とを具備し、
上記判定手段は、
上記シルの境界を表す直線の途切れが検知され、かつ、その途切れた部分の付近で利用者または物の動きに伴う画像の輝度変化が検知された場合に、上記ドア付近に利用者または物が存在すると判定することを特徴とするエレベータの利用者検知システム。
An imaging means that captures a predetermined range including the door from the car to the landing,
A detection area setting means for setting a detection area on a sill provided in the movement path of the door on an image taken by the imaging means, and a detection area setting means.
Boundary detection means for detecting the boundary between the sill and the elevator structure on the image in the detection area set by the detection area setting means, and
A motion detecting means for detecting a change in the brightness of an image due to the movement of a user or an object on the sill in the detection area, and a motion detecting means.
A determination means for determining whether or not a user or an object exists in the vicinity of the door is provided based on the detection result of the boundary detection means and the detection result of the motion detection means.
The above-mentioned determination means
When a break in the straight line representing the boundary of the sill is detected, and a change in brightness of the image due to the movement of the user or an object is detected in the vicinity of the break, the user or the object is near the door. An elevator user detection system characterized by determining that it exists.
上記判定手段は、
上記シルの境界を表す直線が検知されなかった場合に、上記動き検知手段の検知結果に基づいて、上記ドア付近に利用者または物が存在するか否かを判定することを特徴とする請求項1記載のエレベータの利用者検知システム。
The above-mentioned determination means
The claim is characterized in that when a straight line representing the boundary of the sill is not detected, it is determined whether or not a user or an object exists in the vicinity of the door based on the detection result of the motion detecting means. 1 Elevator user detection system described.
上記判定手段は、
上記シル上で利用者または物の動きに伴う画像の輝度変化が検知されていれば、上記ドア付近に利用者または物が存在すると判定することを特徴とする請求項2記載のエレベータの利用者検知システム。
The above-mentioned determination means
The user of the elevator according to claim 2 , wherein if a change in the brightness of the image due to the movement of the user or the object is detected on the sill, it is determined that the user or the object exists in the vicinity of the door. Detection system.
上記境界検知手段による境界検知および上記動き検知手段による動き検知は、
上記検知エリアをマトリックス状に区切った単位で行われることを特徴とする請求項1記載のエレベータの利用者検知システム。
Boundary detection by the boundary detecting means and motion detection by the motion detecting means
The user detection system for an elevator according to claim 1, wherein the detection area is divided into units in a matrix.
上記境界検知手段による境界検知および上記動き検知手段による動き検知は、
上記検知エリアを上記ドアの開閉方向と直交する方向に短冊状に区切った単位で行われることを特徴とする請求項1記載のエレベータの利用者検知システム。
Boundary detection by the boundary detecting means and motion detection by the motion detecting means
The user detection system for an elevator according to claim 1, wherein the detection area is divided into strips in a direction orthogonal to the opening / closing direction of the door.
上記境界検知手段は、
上記画像上で上記シルと上記乗りかごの床面と境界、上記シルと上記乗場の床面との境界を検知することを特徴とする請求項1記載のエレベータの利用者検知システム。
The boundary detection means is
The elevator user detection system according to claim 1, wherein the sill and the floor surface and the boundary of the car are detected on the image, and the boundary between the sill and the floor surface of the landing is detected.
上記判定手段の判定結果に基づいて上記ドアの開閉動作を制御する戸開閉制御手段をさらに具備したことを特徴とする請求項1記載のエレベータの利用者検知システム。 The user detection system for an elevator according to claim 1, further comprising a door opening / closing control means for controlling the opening / closing operation of the door based on the determination result of the determination means. 上記戸開閉制御手段は、
上記ドアの戸開中に利用者または物が検知された場合に、上記ドアの戸開状態を維持することを特徴とする請求項7記載のエレベータの利用者検知システム。
The door opening / closing control means
The user detection system for an elevator according to claim 7 , wherein when a user or an object is detected while the door is open, the door is maintained in the open state.
上記戸開閉制御手段は、
上記ドアの戸閉動作中に利用者または物が検知された場合に、上記ドアの戸閉動作を中断してリオープンするか、あるいは、上記ドアの戸閉速度を通常よりも遅くすることを特徴とする請求項7記載のエレベータの利用者検知システム。
The door opening / closing control means
If a user or an object is detected during the door closing operation, the door closing operation may be interrupted and reopened, or the door closing speed may be slower than usual. The elevator user detection system according to claim 7.
JP2019153692A 2019-08-26 2019-08-26 Elevator user detection system Active JP6849760B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019153692A JP6849760B2 (en) 2019-08-26 2019-08-26 Elevator user detection system
CN202010435420.8A CN112429609B (en) 2019-08-26 2020-05-21 User detection system for elevator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019153692A JP6849760B2 (en) 2019-08-26 2019-08-26 Elevator user detection system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021032335A Division JP7077437B2 (en) 2021-03-02 2021-03-02 Elevator user detection system

Publications (2)

Publication Number Publication Date
JP2021031243A JP2021031243A (en) 2021-03-01
JP6849760B2 true JP6849760B2 (en) 2021-03-31

Family

ID=74675219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019153692A Active JP6849760B2 (en) 2019-08-26 2019-08-26 Elevator user detection system

Country Status (2)

Country Link
JP (1) JP6849760B2 (en)
CN (1) CN112429609B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187629B1 (en) 2021-08-06 2022-12-12 東芝エレベータ株式会社 Elevator user detection system
JP7276992B2 (en) * 2021-08-06 2023-05-18 東芝エレベータ株式会社 Elevator user detection system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN204873373U (en) * 2015-08-13 2015-12-16 赵雨萌 Take induction system's lift -cabin door controlling means
JP5969149B1 (en) * 2016-01-13 2016-08-17 東芝エレベータ株式会社 Elevator system
JP6068694B1 (en) * 2016-01-13 2017-01-25 東芝エレベータ株式会社 Elevator boarding detection system
JP6092433B1 (en) * 2016-01-13 2017-03-08 東芝エレベータ株式会社 Elevator boarding detection system
JP6317004B1 (en) * 2017-03-24 2018-04-25 東芝エレベータ株式会社 Elevator system
JP6377796B1 (en) * 2017-03-24 2018-08-22 東芝エレベータ株式会社 Elevator boarding detection system
JP6657167B2 (en) * 2017-12-15 2020-03-04 東芝エレベータ株式会社 User detection system

Also Published As

Publication number Publication date
CN112429609A (en) 2021-03-02
JP2021031243A (en) 2021-03-01
CN112429609B (en) 2022-09-27

Similar Documents

Publication Publication Date Title
JP6657167B2 (en) User detection system
JP6849760B2 (en) Elevator user detection system
JP6524294B1 (en) User detection system
JP2021127251A (en) User detection system of elevator
JP6702578B1 (en) Elevator user detection system
JP7077437B2 (en) Elevator user detection system
JP7187629B1 (en) Elevator user detection system
JP6843935B2 (en) Elevator user detection system
JP6828108B1 (en) Elevator user detection system
JP6702579B1 (en) Elevator user detection system
JP6871324B2 (en) Elevator user detection system
CN115108425B (en) Elevator user detection system
JP7375137B1 (en) Elevator user detection system
JP7276992B2 (en) Elevator user detection system
JP6968943B1 (en) Elevator user detection system
JP7305849B1 (en) elevator system
CN113911868B (en) Elevator user detection system
JP2020186124A (en) Elevator user detection system
JP2021042035A (en) User detection system of elevator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6849760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150