JP6828108B1 - Elevator user detection system - Google Patents

Elevator user detection system Download PDF

Info

Publication number
JP6828108B1
JP6828108B1 JP2019163781A JP2019163781A JP6828108B1 JP 6828108 B1 JP6828108 B1 JP 6828108B1 JP 2019163781 A JP2019163781 A JP 2019163781A JP 2019163781 A JP2019163781 A JP 2019163781A JP 6828108 B1 JP6828108 B1 JP 6828108B1
Authority
JP
Japan
Prior art keywords
detection
door
car
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019163781A
Other languages
Japanese (ja)
Other versions
JP2021042019A (en
Inventor
周平 野田
周平 野田
横井 謙太朗
謙太朗 横井
紗由美 木村
紗由美 木村
田村 聡
聡 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Elevator and Building Systems Corp
Original Assignee
Toshiba Elevator Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Elevator Co Ltd filed Critical Toshiba Elevator Co Ltd
Priority to JP2019163781A priority Critical patent/JP6828108B1/en
Priority to CN202010447153.6A priority patent/CN112456287B/en
Application granted granted Critical
Publication of JP6828108B1 publication Critical patent/JP6828108B1/en
Publication of JP2021042019A publication Critical patent/JP2021042019A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/02Door or gate operation
    • B66B13/14Control systems or devices
    • B66B13/16Door or gate locking devices controlled or primarily controlled by condition of cage, e.g. movement or position
    • B66B13/18Door or gate locking devices controlled or primarily controlled by condition of cage, e.g. movement or position without manually-operable devices for completing locking or unlocking of doors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B11/00Main component parts of lifts in, or associated with, buildings or other structures
    • B66B11/02Cages, i.e. cars
    • B66B11/0226Constructional features, e.g. walls assembly, decorative panels, comfort equipment, thermal or sound insulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/24Safety devices in passenger lifts, not otherwise provided for, for preventing trapping of passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0012Devices monitoring the users of the elevator system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0037Performance analysers

Abstract

【課題】調整作業を必要とせず、また、カメラの取付け位置がずれても、ドアの戸袋付近に検知エリアを正確に設定して利用者または物を検知する。【解決手段】一実施形態に係るエレベータの利用者検知システムは、撮像手段と、設定対象検出手段と、検知エリア設定手段と、検知処理手段とを備える。上記撮像手段は、乗りかご内からドアが開閉する出入口付近を含む所定の範囲を撮影する。上記設定対象検出手段は、上記撮像手段から得られる撮影画像上で上記出入口の両側の少なくとも一方に設けられた正面柱が映る領域を検知エリアの設定対象として検出する。上記検知エリア設定手段は、上記設定対象検出手段によって検出された上記正面柱が映る領域に上記検知エリアを設定する。上記検知処理手段は、上記検知エリア設定手段によって設定された上記検知エリア内の画像に基づいて利用者または物の有無を検知する。【選択図】 図1PROBLEM TO BE SOLVED: To detect a user or an object by accurately setting a detection area in the vicinity of a door pocket of a door even if an adjustment work is not required and a camera mounting position is displaced. An elevator user detection system according to an embodiment includes an image pickup means, a setting target detection means, a detection area setting means, and a detection processing means. The imaging means captures a predetermined range including the vicinity of the doorway where the door opens and closes from inside the car. The setting target detecting means detects an area in which front pillars provided on at least one of both sides of the entrance / exit are reflected on the captured image obtained from the imaging means as a setting target of the detection area. The detection area setting means sets the detection area in the area where the front pillar detected by the setting target detection means is reflected. The detection processing means detects the presence or absence of a user or an object based on the image in the detection area set by the detection area setting means. [Selection diagram] Fig. 1

Description

本発明の実施形態は、エレベータの利用者検知システムに関する。 An embodiment of the present invention relates to an elevator user detection system.

エレベータの乗りかごが戸開するときに、利用者の指などがドアの戸袋へ引き込まれることがある。このような事故を防止するため、例えば乗りかごの上部にカメラを設置し、そのカメラで撮影された画像からドア付近にいる利用者などを検知して警告するシステムが考えられている。 When the elevator car opens, the user's fingers may be pulled into the door pocket of the door. In order to prevent such an accident, for example, a system in which a camera is installed on the upper part of the car and a user near the door is detected and warned from the image taken by the camera is considered.

特開平10−152277号公報Japanese Unexamined Patent Publication No. 10-152277 特開2007−314284号公報Japanese Unexamined Patent Publication No. 2007-314284 特許第6377795号公報Japanese Patent No. 6377795

しかしながら、カメラを用いてドア付近にいる利用者を検知する場合、そのカメラで撮影された画像上でドア付近に検知エリアを設定しておく必要がある。通常は、ドア付近に置かれたマーカやドアのシルの位置を基準にして検知エリアを設定する方法が用いられる。しかし、マーカやシルの位置を基準にしても検知エリアを正確に設定することは難しく、何度も調整が必要となる。また、カメラの取付け位置がずれると、検知エリアがドア付近から外れてしまい、利用者を正しく検知できなくなる。 However, when a camera is used to detect a user near the door, it is necessary to set a detection area near the door on the image taken by the camera. Usually, a method of setting the detection area based on the position of the marker placed near the door or the sill of the door is used. However, it is difficult to set the detection area accurately even with reference to the position of the marker or sill, and adjustment is required many times. In addition, if the camera mounting position shifts, the detection area will move out of the vicinity of the door, making it impossible to detect the user correctly.

本発明が解決しようとする課題は、調整作業を必要とせず、また、カメラの取付け位置がずれても、ドアの戸袋付近に検知エリアを正確に設定して利用者または物を検知することのできるエレベータの利用者検知システムを提供することである。 The problem to be solved by the present invention is that no adjustment work is required, and even if the mounting position of the camera is displaced, the detection area is accurately set near the door pocket of the door to detect the user or an object. It is to provide a user detection system for elevators that can be used.

一実施形態に係るエレベータの利用者検知システムは、撮像手段と、設定対象検出手段と、検知エリア設定手段と、検知処理手段とを備える。 The elevator user detection system according to the embodiment includes an image pickup means, a setting target detection means, a detection area setting means, and a detection processing means.

上記撮像手段は、乗りかご内からドアが開閉する出入口付近を含む所定の範囲を撮影する。上記設定対象検出手段は、上記撮像手段から得られる撮影画像上で上記出入口の両側の少なくとも一方に設けられた正面柱が映る領域を検知エリアの設定対象として検出する。上記検知エリア設定手段は、上記設定対象検出手段によって検出された上記正面柱が映る領域に上記検知エリアを設定する。上記検知処理手段は、上記検知エリア設定手段によって設定された上記検知エリア内の画像に基づいて利用者または物の有無を検知する。
上記構成において、上記設定対象検出手段は、上記正面柱に対する上記撮像手段の相対位置、上記撮像手段の角度、画角、画像上の中心座標に基づいて、上記撮影画像上で上記正面柱が映る領域に所定のマージンを持たせた処理領域を設定し、上記処理領域内の画像のエッジ情報に基づいて上記正面柱を特定し、上記処理領域内の画像上で上記撮影画像の中心座標から放射状に延びる直線を上記正面柱の内側側面の両端部を示すエッジとして検出し、上記撮影画像の中心座標から放射状に延びる直線が2本以上存在する場合に、予め与えられた上記正面柱の内側側面の中央線に近い2本の直線を上記正面柱の内側側面の両端部を示すエッジとして選択することを特徴とする。
The imaging means captures a predetermined range including the vicinity of the doorway where the door opens and closes from inside the car. The setting target detecting means detects a region in which a front pillar provided on at least one of both sides of the entrance / exit is reflected on a captured image obtained from the imaging means as a setting target of a detection area. The detection area setting means sets the detection area in the area where the front pillar detected by the setting target detection means is reflected. The detection processing means detects the presence or absence of a user or an object based on the image in the detection area set by the detection area setting means.
In the above configuration, the setting target detecting means displays the front pillar on the captured image based on the relative position of the imaging means with respect to the front pillar, the angle and angle of view of the imaging means, and the center coordinates on the image. A processing area having a predetermined margin is set in the area, the front pillar is specified based on the edge information of the image in the processing area, and the image in the processing area is radially radial from the center coordinates of the captured image. When there are two or more straight lines extending radially from the center coordinates of the captured image, the straight line extending to is detected as an edge indicating both ends of the inner side surface of the front pillar, and the inner side surface of the front pillar given in advance. It is characterized in that two straight lines close to the center line of the above are selected as edges indicating both ends of the inner side surface of the front pillar.

図1は一実施形態に係るエレベータの利用者検知システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of an elevator user detection system according to an embodiment. 図2は同実施形態における乗りかご内の出入口周辺部分の構成を示す図である。FIG. 2 is a diagram showing a configuration of a portion around an entrance / exit in the car according to the same embodiment. 図3は同実施形態におけるカメラの撮影画像の一例を示す図である。FIG. 3 is a diagram showing an example of a photographed image of the camera in the same embodiment. 図4は同実施形態における利用者検知システムの全体の処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing the overall processing flow of the user detection system in the same embodiment. 図5は同実施形態における実空間での座標系を説明するための図である。FIG. 5 is a diagram for explaining a coordinate system in real space in the same embodiment. 図6は同実施形態における画像上の中心座標と画像に映る構造物との関係を説明するための図である。FIG. 6 is a diagram for explaining the relationship between the center coordinates on the image and the structure reflected in the image in the same embodiment. 図7は図4のステップS10で実行される設定対象検出処理の詳細を示すフローチャートである。FIG. 7 is a flowchart showing details of the setting target detection process executed in step S10 of FIG. 図8は同実施形態における設定対象検出処理に用いられる撮影画像の一例を示す図である。FIG. 8 is a diagram showing an example of a captured image used for the setting target detection process in the same embodiment. 図9は図8の撮影画像のエッジ検出結果を模式的に示す図である。FIG. 9 is a diagram schematically showing an edge detection result of the captured image of FIG. 図10は図8の撮影画像から乗りかご内の正面柱が映る領域を検出するための方法を説明するための図である。FIG. 10 is a diagram for explaining a method for detecting a region in which the front pillar is reflected in the car from the captured image of FIG. 図11は上記乗りかご内の正面柱が映る領域を特定した状態を示す図である。FIG. 11 is a diagram showing a state in which the area in which the front pillar is reflected in the car is specified. 図12は同実施形態における乗りかごの戸閉時に撮影された画像を用いて正面柱が映る領域を検出する方法を説明するための図である。FIG. 12 is a diagram for explaining a method of detecting an area in which the front pillar is reflected by using an image taken when the car door is closed in the same embodiment. 図13は同実施形態における乗りかご内の利用者と検知エリアとの関係を示す図である。FIG. 13 is a diagram showing the relationship between the user in the car and the detection area in the same embodiment. 図14は同実施形態における撮影画像上における利用者と検知エリアとの関係を示す図である。FIG. 14 is a diagram showing the relationship between the user and the detection area on the captured image in the same embodiment. 図15は同実施形態における利用者検知処理に用いられる差分法を説明するための図である。FIG. 15 is a diagram for explaining the difference method used for the user detection process in the same embodiment. 図16は同実施形態における利用者検知処理に用いられる動き検知を説明するための図である。FIG. 16 is a diagram for explaining motion detection used in the user detection process in the same embodiment. 図17は同実施形態における利用者検知処理に用いられる境界検知を説明するための図である。FIG. 17 is a diagram for explaining boundary detection used in the user detection process in the same embodiment. 図18は同実施形態における片開きタイプのかごドアが用いられた乗りかご内の出入口周辺部分の構成を示す図である。FIG. 18 is a diagram showing a configuration of a portion around an entrance / exit in a car in which a single-door type car door is used in the same embodiment. 図19は同実施形態における片開きタイプのかごドアの開閉動作を説明するための図である。FIG. 19 is a diagram for explaining an opening / closing operation of a single-door type car door in the same embodiment.

以下、実施の形態について図面を参照して説明する。
なお、開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
Hereinafter, embodiments will be described with reference to the drawings.
The disclosure is merely an example, and the invention is not limited by the contents described in the following embodiments. Modifications that can be easily conceived by those skilled in the art are naturally included in the scope of disclosure. In order to clarify the explanation, in the drawings, the size, shape, etc. of each part may be changed with respect to the actual embodiment and represented schematically. In a plurality of drawings, the corresponding elements may be given the same reference numbers and detailed description may be omitted.

図1は一実施形態に係るエレベータの利用者検知システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。 FIG. 1 is a diagram showing a configuration of an elevator user detection system according to an embodiment. Although the description will be given using one car as an example, the same configuration is used for a plurality of cars.

乗りかご11の出入口上部にカメラ12が設置されている。具体的には、カメラ12は、乗りかご11の出入口上部を覆う幕板11aの中にレンズ部分を直下方向、もしくは、乗場15側あるいは乗りかご11内部側に所定の角度だけ傾けて設置される。 A camera 12 is installed above the doorway of the car 11. Specifically, the camera 12 is installed in the curtain plate 11a covering the upper part of the entrance / exit of the car 11 with the lens portion tilted directly downward, or on the landing 15 side or the inside of the car 11 by a predetermined angle. ..

カメラ12は、例えば車載カメラ等の小型の監視用カメラであり、広角レンズもしくは魚眼レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続的に撮影可能である。カメラ12は、乗りかご11が各階の乗場15に到着したときに起動され、かごドア13付近を含む所定の範囲Lを撮影する。 The camera 12 is a small surveillance camera such as an in-vehicle camera, has a wide-angle lens or a fisheye lens, and can continuously capture images of several frames (for example, 30 frames / second) per second. The camera 12 is activated when the car 11 arrives at the landing 15 on each floor, and photographs a predetermined range L including the vicinity of the car door 13.

なお、カメラ12の設置場所は、かごドア13付近であれば、乗りかご11の出入口上部でなくても良い。例えば、乗りかご11の出入口に近い側面壁の上部など、乗りかご11の出入口付近を撮影できる場所であれば良い。このような場所にカメラ12を設置しておくことで、後述する検知エリアを適正に設定することができ、その検知エリア内の画像から利用者または物を正しく検知することができる。 The location of the camera 12 does not have to be the upper part of the doorway of the car 11 as long as it is near the car door 13. For example, it may be a place where the vicinity of the entrance / exit of the car 11 can be photographed, such as the upper part of the side wall near the entrance / exit of the car 11. By installing the camera 12 in such a place, the detection area described later can be set appropriately, and the user or an object can be correctly detected from the image in the detection area.

これに対し、一般的に監視目的の用途で用いられる監視カメラはかご奥部や天井面などに設置されるため、撮影範囲がかご内全体に広い。このため、検知エリアの設定が難しく、乗りかご11の出入口から離れている利用者も含めて検知してしまう可能性が高い。 On the other hand, since surveillance cameras generally used for surveillance purposes are installed in the back of the car or on the ceiling surface, the shooting range is wide throughout the car. For this reason, it is difficult to set the detection area, and there is a high possibility that even a user who is far from the entrance / exit of the car 11 will be detected.

各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。なお、動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明においては、かごドア13を戸開している時には乗場ドア14も戸開しており、かごドア13が戸閉している時には乗場ドア14も戸閉しているものとする。 At the landing 15 on each floor, a landing door 14 is openably and closably installed at the arrival port of the car 11. The landing door 14 engages with the car door 13 when the car 11 arrives to open and close. The power source (door motor) is on the car 11 side, and the landing door 14 only opens and closes following the car door 13. In the following description, it is assumed that the landing door 14 is also open when the car door 13 is open, and the landing door 14 is also closed when the car door 13 is closed.

カメラ12によって連続的に撮影された各画像(映像)は、画像処理装置20によってリアルタイムに解析処理される。なお、図1では、便宜的に画像処理装置20を乗りかご11から取り出して示しているが、実際には、画像処理装置20はカメラ12と共に幕板11aの中に収納されている。 Each image (video) continuously captured by the camera 12 is analyzed and processed in real time by the image processing device 20. Although the image processing device 20 is taken out from the car 11 for convenience in FIG. 1, the image processing device 20 is actually housed in the curtain plate 11a together with the camera 12.

画像処理装置20には、記憶部21と検知部22とが備えられている。記憶部21は、カメラ12によって撮影された画像を逐次保存すると共に、検知部22の処理に必要なデータを一時的に保存しておくためのバッファエリアを有する。なお、記憶部21には、撮影画像に対する前処理として、歪み補正や拡大縮小、一部切り取り等の処理が施された画像が保存されるとしても良い。 The image processing device 20 is provided with a storage unit 21 and a detection unit 22. The storage unit 21 has a buffer area for sequentially storing images taken by the camera 12 and temporarily storing data necessary for processing of the detection unit 22. It should be noted that the storage unit 21 may store an image that has undergone processing such as distortion correction, enlargement / reduction, and partial cropping as preprocessing for the captured image.

検知部22は、カメラ12の撮影画像を用いてかごドア13付近にいる利用者を検知する。この検知部22を機能的に分けると、設定対象検出部22a、検知エリア設定部22b、検知処理部22cで構成される。 The detection unit 22 detects a user near the car door 13 by using the captured image of the camera 12. When the detection unit 22 is functionally divided, it is composed of a setting target detection unit 22a, a detection area setting unit 22b, and a detection processing unit 22c.

設定対象検出部22aは、カメラ12から得られる撮影画像上で乗りかご11の出入口の両側の少なくとも一方に設けられた正面柱が映る領域を検知エリアの設定対象として検出する。 The setting target detection unit 22a detects an area on the captured image obtained from the camera 12 in which the front pillars provided on at least one of the entrances and exits of the car 11 are reflected as the setting target of the detection area.

検知エリア設定部22bは、設定対象検出部22aによって検出された正面柱が映る領域に検知エリアを設定する。具体的には、検知エリア設定部22bは、撮影画像上で正面柱の内側側面に沿って帯状の検知エリアを設定する。「正面柱」は、出入口柱あるいは出入口枠とも言い、乗りかご11の出入口の両側あるいは片側に設けられている(図2参照)。正面柱の裏側には、かごドア13を収納するための戸袋が設けられているのが一般的である。 The detection area setting unit 22b sets the detection area in the area where the front pillar detected by the setting target detection unit 22a is reflected. Specifically, the detection area setting unit 22b sets a band-shaped detection area along the inner side surface of the front pillar on the captured image. The "front pillar" is also referred to as an entrance / exit pillar or an entrance / exit frame, and is provided on both sides or one side of the entrance / exit of the car 11 (see FIG. 2). A door pocket for storing the car door 13 is generally provided on the back side of the front pillar.

検知処理部22cは、この検知エリア設定部22bによって設定された検知エリア内の画像に基づいて利用者または物の有無を検知する。ここで言う「物」とは、例えば利用者の衣服や荷物、さらに車椅子等の移動体を含む。なお、画像処理装置20の一部あるいは全部の機能をかご制御装置30に持たせることでも良い。 The detection processing unit 22c detects the presence or absence of a user or an object based on the image in the detection area set by the detection area setting unit 22b. The "thing" referred to here includes, for example, a user's clothes and luggage, and a moving body such as a wheelchair. The car control device 30 may have some or all of the functions of the image processing device 20.

かご制御装置30は、乗りかご11に設置される各種機器類(行先階ボタンや照明等)の動作を制御する。また、かご制御装置30は、戸開閉制御部31と通知部32を備える。戸開閉制御部31は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部31は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。 The car control device 30 controls the operation of various devices (destination floor buttons, lighting, etc.) installed in the car 11. Further, the car control device 30 includes a door opening / closing control unit 31 and a notification unit 32. The door opening / closing control unit 31 controls the opening / closing of the car door 13 when the car 11 arrives at the landing 15. Specifically, the door opening / closing control unit 31 opens the car door 13 when the car 11 arrives at the landing 15, and closes the door after a predetermined time has elapsed.

ここで、かごドア13の戸開中に検知処理部22cによって利用者または物が検知された場合には、戸開閉制御部31は、ドア事故(戸袋への引き込まれ事故)を回避するための戸開閉制御を行う。具体的には、戸開閉制御部31は、かごドア13の戸開動作を一時停止するか、逆方向(戸閉方向)に動かす、あるいは、かごドア13の戸開速度を遅くする。通知部32は、検知処理部22cによって検知結果に基づいて、乗りかご11内の利用者に注意を喚起する。 Here, when a user or an object is detected by the detection processing unit 22c while the door of the car door 13 is open, the door opening / closing control unit 31 is for avoiding a door accident (accident of being pulled into the door pocket). Door open / close control is performed. Specifically, the door opening / closing control unit 31 suspends the door opening operation of the car door 13, moves it in the opposite direction (door closing direction), or slows down the door opening speed of the car door 13. The notification unit 32 calls attention to the user in the car 11 based on the detection result by the detection processing unit 22c.

図2は乗りかご11内の出入口周辺部分の構成を示す図である。 FIG. 2 is a diagram showing a configuration of a portion around the entrance / exit in the car 11.

乗りかご11の出入口にかごドア13が開閉自在に設けられている。図2の例では2枚戸両開きタイプのかごドア13が示されており、かごドア13を構成する2枚のドアパネル13a,13bが間口方向(水平方向)に沿って互いに逆方向に開閉動作する。なお、「間口」とは、乗りかご11の出入口と同じである。 A car door 13 is provided at the entrance and exit of the car 11 so as to be openable and closable. In the example of FIG. 2, a double door double door type car door 13 is shown, and the two door panels 13a and 13b constituting the car door 13 open and close in opposite directions along the frontage direction (horizontal direction). .. The "frontage" is the same as the entrance / exit of the car 11.

乗りかご11の出入口の両側に正面柱41a,41bが設けられており、幕板11aと共に乗りかご11の出入口を囲っている。かごドア13が戸開したときに、一方のドアパネル13aは正面柱41aの裏側に設けられた戸袋42aに収納され、他方のドアパネル13bは正面柱41bの裏側に設けられた戸袋42bに収納される。 Front pillars 41a and 41b are provided on both sides of the doorway of the car 11, and surround the doorway of the car 11 together with the curtain plate 11a. When the car door 13 is opened, one door panel 13a is housed in a door pocket 42a provided on the back side of the front pillar 41a, and the other door panel 13b is housed in the door pocket 42b provided on the back side of the front pillar 41b. ..

正面柱41a,41bの一方あるいは両方に表示器43や、行先階ボタン44などが配設された操作盤45、スピーカ46が設置されている。図2の例では、正面柱41aにスピーカ46、正面柱41bに表示器43、操作盤45が設置されている。 A display 43, an operation panel 45 on which a destination floor button 44 and the like are arranged, and a speaker 46 are installed on one or both of the front pillars 41a and 41b. In the example of FIG. 2, the speaker 46 is installed on the front pillar 41a, the display 43 and the operation panel 45 are installed on the front pillar 41b.

ここで、乗りかご11の出入口上部の幕板11aの中央部にカメラ12が設置されている。カメラ12は、かごドア13が乗場ドア14と共に戸開したときに、出入口付近を含めて撮影できるように(図3参照)、幕板11aの下部から下方向に向けて設置される。 Here, the camera 12 is installed in the central portion of the curtain plate 11a above the doorway of the car 11. The camera 12 is installed from the lower part of the curtain plate 11a downward so that when the car door 13 is opened together with the landing door 14, the photograph including the vicinity of the doorway can be taken (see FIG. 3).

図3はカメラ12の撮影画像の一例を示す図である。かごドア13(ドアパネル13a,13b)と乗場ドア14(ドアパネル14a,14b)が全開した状態で、乗りかご11の出入口上部から下方向に撮影した場合を示している。図3において、上側は乗場15、下側は乗りかご11内を示している。 FIG. 3 is a diagram showing an example of a captured image of the camera 12. It shows a case where the car door 13 (door panels 13a and 13b) and the landing door 14 (door panels 14a and 14b) are fully opened and the image is taken downward from the upper part of the doorway of the car 11. In FIG. 3, the upper side shows the landing 15 and the lower side shows the inside of the car 11.

乗場15において、乗りかご11の到着口の両側に三方枠17a,17bが設けられており、その三方枠17a,17bの間の床面16に所定の幅を有する帯状の乗場シル18が乗場ドア14の開閉方向に沿って配設されている。また、乗りかご11の床面16の出入口側に所定の幅を有する帯状のかごシル47がかごドア13の開閉方向に沿って配設されている。 At the landing 15, three-sided frames 17a and 17b are provided on both sides of the arrival port of the car 11, and a band-shaped landing sill 18 having a predetermined width is provided on the floor surface 16 between the three-sided frames 17a and 17b. It is arranged along the opening / closing direction of 14. Further, a strip-shaped car sill 47 having a predetermined width is arranged on the entrance / exit side of the floor surface 16 of the car 11 along the opening / closing direction of the car door 13.

ここで、撮影画像上において、正面柱41a,41bの内側側面41a−1,41b−1のそれぞれに検知エリアEa,Ebが設定される。検知エリアEa,Ebは、撮影画像上で利用者または物を検知するためのエリアであり、ここでは戸開動作中における戸袋42a,42bへの引き込まれ事故を防止するために用いられる。 Here, the detection areas Ea and Eb are set on the inner side surfaces 41a-1 and 41b-1 of the front pillars 41a and 41b on the captured image, respectively. The detection areas Ea and Eb are areas for detecting a user or an object on the captured image, and are used here to prevent an accident of being pulled into the door pockets 42a and 42b during the door opening operation.

検知エリアEa,Ebは、それぞれに正面柱41a,41bの内側側面41a−1,41b−1の幅方向に所定の幅D1,D2を有して帯状に設定される。上記幅D1,D2は、例えば内側側面41a−1,41b−1の横幅(短手方向の幅)と同じか、あるいは、若干小さく設定される。上記幅D1,D2と同じ値でも、異なる値でも良い。 The detection areas Ea and Eb have predetermined widths D1 and D2 in the width direction of the inner side surfaces 41a-1 and 41b-1 of the front pillars 41a and 41b, respectively, and are set in a band shape. The widths D1 and D2 are set to be the same as or slightly smaller than the width (width in the lateral direction) of the inner side surfaces 41a-1 and 41b-1, for example. The values may be the same as or different from the widths D1 and D2.

また、上記幅D1,D2を部分的に変えて、例えば利用者の手が触れやすい部分の幅D1a,D2aを幅D1,D2よりも少し広げておくことでも良い(図14参照)。これにより、戸袋引き込まれ事故を早めに検知できる。 Further, the widths D1 and D2 may be partially changed so that, for example, the widths D1a and D2a of the portion easily touched by the user may be slightly wider than the widths D1 and D2 (see FIG. 14). As a result, it is possible to detect an accident in which the door pocket is pulled in at an early stage.

なお、正面柱41a,41bの正面はエリア設定外とする。正面柱41a,41bの正面には操作盤45などがあり、利用者が近くにいることが多いためである。正面柱41a,41bの内側側面41a−1,41b−1であれば、操作盤45を操作する利用者などを誤検知することがなく、また、かごドア13の開閉動作に影響されない検知エリアEa,Ebを設定することができる。 The front of the front pillars 41a and 41b is outside the area setting. This is because there is an operation panel 45 or the like in front of the front pillars 41a and 41b, and users are often nearby. If the inner side surfaces 41a-1 and 41b-1 of the front pillars 41a and 41b are used, the user who operates the operation panel 45 is not erroneously detected, and the detection area Ea is not affected by the opening / closing operation of the car door 13. , Eb can be set.

次に、本システムの動作について詳しく説明する。
図4は本システムにおける全体の処理の流れを示すフローチャートである。
Next, the operation of this system will be described in detail.
FIG. 4 is a flowchart showing the overall processing flow in this system.

まず、初期設定として、画像処理装置20に備えられた検知部22の設定対象検出部22aによって設定対象検出処理と、検知エリア設定部22bによって検知エリア設定処理が実行される(ステップS10−S11)。これらの処理は、例えばカメラ12を設置したとき、あるいは、カメラ12の設置位置を調整したときに、以下のようにして実行される。 First, as initial settings, the setting target detection unit 22a of the detection unit 22 provided in the image processing device 20 executes the setting target detection process, and the detection area setting unit 22b executes the detection area setting process (steps S10-S11). .. These processes are executed as follows, for example, when the camera 12 is installed or when the installation position of the camera 12 is adjusted.

(設定対象検出処理)
設定対象検出処理は、撮影画像上で予め指定された検知エリアの設定対象を検出する処理である。本実施形態では、正面柱41a,41bを検知エリアの設定対象としている。撮影画像上で正面柱41a,41bが映る領域は、下記のようなカメラ情報に基づいて算出される。
(Setting target detection process)
The setting target detection process is a process of detecting a setting target of a detection area designated in advance on a captured image. In the present embodiment, the front columns 41a and 41b are targeted for setting the detection area. The area where the front pillars 41a and 41b are projected on the captured image is calculated based on the following camera information.

・正面柱に対するカメラの相対位置(3次元座標)
・カメラの角度(3軸)
・カメラの画角(焦点距離)
・画像上の中心座標
-Relative position of the camera with respect to the front pillar (3D coordinates)
・ Camera angle (3 axes)
・ Camera angle of view (focal length)
・ Center coordinates on the image

「3次元座標」とは、図5に示すように、かごドア13と水平の方向をX軸とし、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸とし、乗りかご11の高さ方向をZ軸とした場合の座標である。また、「画像上の中心座標」とは、カメラ12のレンズ光軸が撮影画像上を通る2次元の座標位置である。 As shown in FIG. 5, "three-dimensional coordinates" means that the direction horizontal to the car door 13 is the X-axis, and the direction from the center of the car door 13 to the landing 15 (the direction perpendicular to the car door 13) is Y. These are the coordinates when the axis is the axis and the height direction of the car 11 is the Z axis. Further, the "center coordinates on the image" are two-dimensional coordinate positions where the lens optical axis of the camera 12 passes over the captured image.

ここで、図6に示すように、画像上の中心座標をPo(xo,yo)としたときに、その撮影画像に映るエレベータ構造物51,52の3三次元空間上のZ方向(垂直方向)の直線は、中心座標Poから放射状に延びる直線として映る。設定対象検出部22aは、このような画像の特性を利用して、撮影画像から正面柱41a,41bが映る領域を検出する。 Here, as shown in FIG. 6, when the center coordinates on the image are Po (xo, yo), the Z direction (vertical direction) of the elevator structures 51 and 52 reflected in the photographed image in the three-dimensional space. ) Is reflected as a straight line extending radially from the center coordinate Po. The setting target detection unit 22a detects the area where the front pillars 41a and 41b are reflected from the captured image by utilizing such characteristics of the image.

以下に、上記ステップS10で実行される設定対象検出処理について詳しく説明する。
図7は設定対象検出部22aの処理動作を示すフローチャートである。
The setting target detection process executed in step S10 will be described in detail below.
FIG. 7 is a flowchart showing the processing operation of the setting target detection unit 22a.

いま、図8に示すように、かごドア13および乗場ドア14を戸開した状態において、カメラ12で撮影された画像を用いる場合を想定する。上側は乗場15、下側は乗りかご11内を示している。図中の53,54は乗場15の床面16に置かれた任意の物体(荷物など)である。実際には、このような物体53,54は、乗りかご11の出入口近くに置かれることはないが、ここでは三方枠17a,17bや正面柱41a,41bなどのエレベータ構造物と比較するために便宜的に示されている。 Now, as shown in FIG. 8, it is assumed that the image taken by the camera 12 is used with the car door 13 and the landing door 14 opened. The upper side shows the landing 15 and the lower side shows the inside of the car 11. Reference numerals 53 and 54 in the figure are arbitrary objects (such as luggage) placed on the floor surface 16 of the landing 15. In practice, such objects 53, 54 are not placed near the doorway of the car 11, but here for comparison with elevator structures such as the three-sided frames 17a, 17b and the front columns 41a, 41b. It is shown for convenience.

なお、以下では、乗りかご11内の一方の正面柱41aに検知エリアEaを設定する場合を想定して説明するが、他方の正面柱41bに検知エリアEbを設定する場合も同様である。 In the following, the case where the detection area Ea is set on one front pillar 41a in the car 11 will be described, but the same applies to the case where the detection area Eb is set on the other front pillar 41b.

設定対象検出部22aには、上述したカメラ情報、つまり、正面柱に対するカメラ相対位置、カメラの角度、画角、中心座標などの情報が与えられている。設定対象検出部22aは、これらの情報に基づいて、撮影画像上で正面柱41aが映る領域に、正面柱41aの幅方向および高さ方向に所定のマージンを持たせた処理領域61を設定する(ステップS21)。 The setting target detection unit 22a is given the above-mentioned camera information, that is, information such as the camera relative position with respect to the front pillar, the angle of the camera, the angle of view, and the center coordinates. Based on this information, the setting target detection unit 22a sets a processing area 61 in which the front pillar 41a is projected on the captured image with predetermined margins in the width direction and the height direction of the front pillar 41a. (Step S21).

処理領域61のことを「ROI(Region Of Interest)」と呼び、撮影画像上で検知エリアの設定対象(正面柱41a,41b)が映る可能性が高い領域を示す。処理領域61に所定のマージンを持たせるのは、例えば運用中にカメラ12の取付け位置がずれるなどして、予め与えられたカメラ情報と実際のカメラ情報との間で誤差が生じる可能性を考慮してのことである。 The processing area 61 is called "ROI (Region Of Interest)", and indicates an area in which the detection area setting target (front pillars 41a, 41b) is likely to be reflected on the captured image. The reason why the processing area 61 has a predetermined margin is to consider the possibility that an error may occur between the camera information given in advance and the actual camera information, for example, because the mounting position of the camera 12 shifts during operation. That's it.

このような処理領域61を撮影画像上に設定すると、設定対象検出部22aは、当該処理領域61内の画像からエッジを検出する(ステップS22)。「エッジ」とは、画像内の直線や曲線に加えて、色・輝度・模様などの特徴が異なる領域間の境界線を意味する。このエッジの検出は、既知の手法で行えば良い。例えば、ラプラシアンフィルタやCanny法などの周知の画像処理技術を用いても良いし、画素の輝度値の分散の違いによって領域の境界位置を求めても良い。 When such a processing area 61 is set on the captured image, the setting target detection unit 22a detects an edge from the image in the processing area 61 (step S22). “Edge” means a boundary line between regions having different characteristics such as color, brightness, and pattern, in addition to straight lines and curves in the image. This edge detection may be performed by a known method. For example, a well-known image processing technique such as a Laplacian filter or the Canny method may be used, or the boundary position of the region may be obtained by the difference in the dispersion of the brightness values of the pixels.

図9に図8の撮影画像のエッジ検出結果を模式的に示す。白線で示す部分がエッジである。なお、図9の例では、エッジの直線を鮮明に表現しているが、実際には床や壁の模様や傷などの影響もあり、エッジの直線が所々欠けて検出されるのが一般的である。模様や傷などのノイズは、上記エッジの検出方法で一般的に得られるエッジの強さ情報に基づいて排除できる。また、図9の例では、撮影画像全体のエッジを図示しているが、上記処理領域61内の画像のエッジだけを検出すれば良い。 FIG. 9 schematically shows the edge detection result of the captured image of FIG. The part indicated by the white line is the edge. In the example of FIG. 9, the straight line of the edge is clearly expressed, but in reality, the straight line of the edge is generally missing in some places due to the influence of the pattern and scratches on the floor and wall. is there. Noise such as patterns and scratches can be eliminated based on the edge strength information generally obtained by the above edge detection method. Further, in the example of FIG. 9, although the edge of the entire captured image is shown, only the edge of the image in the processing area 61 may be detected.

乗りかご11内の正面柱41aは、3次元空間では床面19から天井に向けて垂直に立設されている。2次元の画像では、この正面柱41aの内側側面41a−1の両端部が当該画像の中心座標Poから放射状に延びる直線として映る。したがって、設定対象検出部22aは、「中心座標Poから放射状に延びる直線」という条件の下で、処理領域61内における画像のエッジ情報に基づいて、正面柱41aの内側側面41a−1の両端部を示すエッジ(2本の直線)を検出する(ステップS23)。 The front pillar 41a in the car 11 is erected vertically from the floor surface 19 toward the ceiling in the three-dimensional space. In the two-dimensional image, both ends of the inner side surface 41a-1 of the front pillar 41a are reflected as straight lines extending radially from the center coordinate Po of the image. Therefore, the setting target detection unit 22a is set at both ends of the inner side surface 41a-1 of the front pillar 41a based on the edge information of the image in the processing area 61 under the condition of "a straight line extending radially from the center coordinate Po". The edge (two straight lines) indicating the above is detected (step S23).

ここで、上記「中心座標Poから放射状に延びる直線」という条件を満たしていても、処理領域61内の画像には正面柱41aの内側側面41a−1の両端部でないエッジが検出されることがある。特に、乗りかご11が戸開した状態では、図8に示すようにドアパネル13aの先端部が処理領域61に含まれるので、その部分のエッジが上記条件を満たすエッジとして検出される。また、例えば正面柱41aの内側側面41a−1に直線的な模様や傷がある場合も、上記条件を満たすエッジとして検出される。 Here, even if the condition of "a straight line extending radially from the center coordinate Po" is satisfied, edges that are not both ends of the inner side surface 41a-1 of the front pillar 41a may be detected in the image in the processing area 61. is there. In particular, when the car 11 is opened, the tip of the door panel 13a is included in the processing region 61 as shown in FIG. 8, so that the edge of that portion is detected as an edge satisfying the above conditions. Further, for example, when the inner side surface 41a-1 of the front pillar 41a has a linear pattern or a scratch, it is detected as an edge satisfying the above conditions.

上記条件を満たす直線(エッジ)が2本以上検出された場合には、図10に示すように、処理領域61内の画像から検出されたエッジ情報の中で、正面柱41aの内側側面41a−1の中央線62を基準にして、その中央線62に近い2本の直線63,64を選択すれば良い。直線63,64は、3次元の実空間では床面19からZ方向(垂直方向)に延びる線である。中央線62の位置座標は、上述したカメラ情報に基づいて求められる。 When two or more straight lines (edges) satisfying the above conditions are detected, as shown in FIG. 10, in the edge information detected from the image in the processing area 61, the inner side surface 41a- of the front pillar 41a With reference to the center line 62 of 1, two straight lines 63 and 64 close to the center line 62 may be selected. The straight lines 63 and 64 are lines extending in the Z direction (vertical direction) from the floor surface 19 in a three-dimensional real space. The position coordinates of the center line 62 are obtained based on the above-mentioned camera information.

図7に戻って、処理領域61内の画像から上記条件を満たす直線(エッジ)が2本以上検出された場合には(ステップS24のYes)、設定対象検出部22aは、予め与えられた中央線62の位置座標に基づいて、中央線62に近い2本の直線63,64を正面柱41aの内側側面41a−1を示すエッジとして選択する(ステップS25)。 Returning to FIG. 7, when two or more straight lines (edges) satisfying the above conditions are detected from the image in the processing area 61 (Yes in step S24), the setting target detection unit 22a is centered in advance. Based on the position coordinates of the line 62, the two straight lines 63 and 64 near the center line 62 are selected as the edges indicating the inner side surface 41a-1 of the front pillar 41a (step S25).

このようにして、2本の直線63,64が得られると、設定対象検出部22aは、その直線63,64の上下を結ぶ矩形の内部(図11の斜線部分65)を正面柱41aの内側側面41a−1が映る領域として特定する(ステップS26)。 When the two straight lines 63 and 64 are obtained in this way, the setting target detection unit 22a has the inside of the rectangle connecting the upper and lower sides of the straight lines 63 and 64 (the shaded portion 65 in FIG. 11) inside the front pillar 41a. It is specified as an area where the side surface 41a-1 is reflected (step S26).

正面柱41bの内側側面41b−1についても同様であり、正面柱41bの内側側面41b−1付近に設定された処理領域(ROI)内の画像のエッジ情報に基づいて正面柱41bの内側側面41b−1が映る領域が特定される。 The same applies to the inner side surface 41b-1 of the front pillar 41b, and the inner side surface 41b of the front pillar 41b is based on the edge information of the image in the processing area (ROI) set near the inner side surface 41b-1 of the front pillar 41b. The area where -1 is reflected is specified.

(検知エリア設定処理)
検知エリア設定処理は、撮影画像上で利用者または物を検知するための検知エリアを設定する処理である。検知エリア設定部22bは、設定対象検出部22aによって検出された結果を受け、撮影画像上で正面柱41a,41bが映る領域に検知エリアEa,Ebを設定する(ステップS11)。詳しくは、検知エリア設定部22bは、撮影画像上で正面柱41aの内側側面41a−1が映る領域に検知エリアEaを設定する。同様に、検知エリア設定部22bは、撮影画像上で正面柱41bの内側側面41b−1が映る領域に検知エリアEbを設定する。
(Detection area setting process)
The detection area setting process is a process of setting a detection area for detecting a user or an object on a captured image. The detection area setting unit 22b receives the result detected by the setting target detection unit 22a, and sets the detection areas Ea and Eb in the area where the front pillars 41a and 41b are reflected on the captured image (step S11). Specifically, the detection area setting unit 22b sets the detection area Ea in the area where the inner side surface 41a-1 of the front pillar 41a is reflected on the captured image. Similarly, the detection area setting unit 22b sets the detection area Eb in the area where the inner side surface 41b-1 of the front pillar 41b is reflected on the captured image.

この場合、図11に示すように、設定対象検出部22aで検出された領域(斜線部分)の全体を検知エリアEaとしても良いし、ある一定の高さの範囲を検知エリアEaとしても良い。なお、画像上の高さと実空間の高さとの関係は、上述したカメラ情報を使用して算出される。また、検知エリアEaの幅についても、一定量だけ縮小する方向のマージンを設けても良い。さらに、検知エリアEaの幅を部分的に変えることでも良い(図14参照)。検知エリアEbについても同様である。 In this case, as shown in FIG. 11, the entire region (hatched portion) detected by the setting target detection unit 22a may be the detection area Ea, or a range of a certain height may be the detection area Ea. The relationship between the height on the image and the height in the real space is calculated using the above-mentioned camera information. Further, the width of the detection area Ea may also be provided with a margin in the direction of reducing by a certain amount. Further, the width of the detection area Ea may be partially changed (see FIG. 14). The same applies to the detection area Eb.

このように、正面柱41a,41bの内側側面41a−1,41b−1に検知エリアEa,Ebを設定しておくことで、例えば図13に示すように、戸開時に利用者が正面柱41aの内側側面41a−1に手をついたときに、その手が戸袋42aに引き込まれる前に検知することが可能となる。 By setting the detection areas Ea and Eb on the inner side surfaces 41a-1 and 41b-1 of the front pillars 41a and 41b in this way, for example, as shown in FIG. 13, the user can use the front pillars 41a when the door is opened. When a hand is touched on the inner side surface 41a-1, it is possible to detect the hand before it is pulled into the door pocket 42a.

(戸閉時の撮影画像を用いた正面柱の検出)
図8乃至図11の例では、乗りかご11の戸開時に撮影された画像を用いて正面柱41aを検出する場合について説明したが、乗りかご11の戸閉時に撮影された画像を用いることでも良い。
(Detection of front pillars using images taken when the door is closed)
In the examples of FIGS. 8 to 11, the case where the front pillar 41a is detected by using the image taken when the door of the car 11 is opened has been described, but the image taken when the door of the car 11 is closed can also be used. good.

図12に乗りかご11の戸閉時に撮影された画像の一例を示す。
乗りかご11の戸閉時に撮影された画像を用いる場合でも、その撮影画像上で正面柱41aが映る領域に、正面柱41aの幅方向および高さ方向に所定のマージンを持たせた処理領域(ROI)71を設定し、その処理領域71内の画像のエッジ情報から正面柱41aの内側側面41a−1を検出すれば良い。
FIG. 12 shows an example of an image taken when the car 11 is closed.
Even when an image taken when the door of the car 11 is closed is used, a processing area in which the front pillar 41a is reflected on the shot image has predetermined margins in the width direction and the height direction of the front pillar 41a ( ROI) 71 may be set, and the inner side surface 41a-1 of the front pillar 41a may be detected from the edge information of the image in the processing area 71.

この場合、処理領域71内の画像にドアパネル13aの先端部などが映り込まない分、内側側面41a−1の中央線72に近い2本の直線73,74を正面柱41aの内側側面41a−1の両端部を示すエッジとして特定しやすい。他方の正面柱41bの内側側面41b−1を検出する場合でも同様である。 In this case, since the tip of the door panel 13a is not reflected in the image in the processing area 71, the two straight lines 73 and 74 close to the center line 72 of the inner side surface 41a-1 are formed on the inner side surface 41a-1 of the front pillar 41a. It is easy to identify as an edge indicating both ends of. The same applies to the case of detecting the inner side surface 41b-1 of the other front pillar 41b.

以下に乗りかご11の運転時の動作について説明する。
図4に示すように、乗りかご11が任意の階の乗場15に到着すると(ステップS12のYes)、かご制御装置30は、かごドア13を戸開する(ステップS13)。
The operation of the car 11 during operation will be described below.
As shown in FIG. 4, when the car 11 arrives at the landing 15 on an arbitrary floor (Yes in step S12), the car control device 30 opens the car door 13 (step S13).

このとき(かごドア13の戸開動作中)、乗りかご11の出入口上部に設置されたカメラ12によってかごドア13の周辺(正面柱41a,41bなど)が所定のフレームレート(例えば30コマ/秒)で撮影される。画像処理装置20は、カメラ12で撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS14)、以下のような利用者検知処理をリアルタイムで実行する(ステップS15)。なお、撮影画像に対する前処理として、歪み補正や、拡大縮小、画像の一部の切り取りなどを行っても良い。 At this time (during the door opening operation of the car door 13), the periphery of the car door 13 (front pillars 41a, 41b, etc.) is set to a predetermined frame rate (for example, 30 frames / second) by the camera 12 installed at the upper part of the doorway of the car 11. ) Is taken. The image processing device 20 acquires images taken by the camera 12 in time series, and while sequentially storing these images in the storage unit 21 (step S14), executes the following user detection processing in real time. (Step S15). As preprocessing for the captured image, distortion correction, enlargement / reduction, and partial cropping of the image may be performed.

利用者検知処理は、画像処理装置20に備えられた検知部22の検知処理部22cによって実行される。 The user detection process is executed by the detection processing unit 22c of the detection unit 22 provided in the image processing device 20.

すなわち、検知処理部22cは、カメラ12によって時系列で得られる複数の撮影画像から検知エリアEa,Eb内の画像を抽出することにより、これらの画像に基づいて利用者また物の有無を検知する。具体的には、以下のような方法で検知する。 That is, the detection processing unit 22c detects the presence or absence of a user or an object based on these images by extracting the images in the detection areas Ea and Eb from the plurality of captured images obtained by the camera 12 in time series. .. Specifically, it is detected by the following method.

(a)差分法
図15に示すように、検知処理部22cは、検知エリアEa,Eb内の画像を時系列順に基本画像と比較して、両者の画像の差分から利用者また物の有無を検知する。図15(a)は基本画像であり、予め乗りかご11内に利用者や物が存在しない状態でカメラ12によって撮影した画像から検知エリアEa,Eb内の画像を抽出したものである。同図(b)は検知対象画像であり、戸開時の撮影画像から検知エリアEa,Eb内の画像を抽出したものである。
(A) Difference Method As shown in FIG. 15, the detection processing unit 22c compares the images in the detection areas Ea and Eb with the basic images in chronological order, and determines the presence or absence of a user or an object from the difference between the two images. Detect. FIG. 15A is a basic image, which is obtained by extracting the images in the detection areas Ea and Eb from the images taken by the camera 12 in the state where there are no users or objects in the car 11 in advance. FIG. 3B is a detection target image, which is obtained by extracting images in the detection areas Ea and Eb from the captured image when the door is opened.

検知処理部22cは、基本画像と検知対象画像とを比較し、両者の画像に画素の値が異なる部分が所定量以上あれば、戸袋42a,42bの近くに利用者また物が存在しているものと判断する。 The detection processing unit 22c compares the basic image and the detection target image, and if the two images have a predetermined amount or more of different pixel values, a user or an object exists near the door pockets 42a and 42b. Judge that.

(b)動き検知
図16に示すように、検知処理部22cは、撮影画像を所定のブロック単位でマトリックス状に分割し、これらのブロックの中で動きのあるブロックに着目して利用者また物の有無を検知する。
(B) Motion detection As shown in FIG. 16, the detection processing unit 22c divides the captured image into a matrix in predetermined block units, and pays attention to the moving blocks among these blocks, and the user or the object. Detects the presence or absence of.

詳しくは、検知処理部22cは、記憶部21に保持された各画像を時系列順に1枚ずつ読み出し、これらの画像の平均輝度値をブロック毎に算出する。その際、初期値として最初の画像が入力されたときに算出されたブロック毎の平均輝度値を記憶部21内の図示せぬ第1のバッファエリアに保持しておくものとする。 Specifically, the detection processing unit 22c reads out each image stored in the storage unit 21 one by one in chronological order, and calculates the average luminance value of these images for each block. At that time, the average luminance value for each block calculated when the first image is input as the initial value is held in the first buffer area (not shown) in the storage unit 21.

2枚目以降の画像が得られると、検知処理部22cは、現在の画像のブロック毎の平均輝度値と上記第1のバッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較する。その結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、検知処理部22cは、当該ブロックを動きありのブロックとして判定する。現在の画像に対する動きの有無を判定すると、検知処理部22cは、当該画像のブロック毎の平均輝度値を次の画像との比較用として上記第1のバッファエリアに保持する。以後同様にして、検知処理部22cは、各画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。 When the second and subsequent images are obtained, the detection processing unit 22c determines the average luminance value for each block of the current image and the average luminance value for each block of the previous image held in the first buffer area. Compare with. As a result, when there is a block having a brightness difference equal to or larger than a preset value in the current image, the detection processing unit 22c determines the block as a moving block. Upon determining the presence or absence of motion with respect to the current image, the detection processing unit 22c holds the average luminance value for each block of the image in the first buffer area for comparison with the next image. After that, in the same manner, the detection processing unit 22c repeats determining the presence or absence of movement while comparing the brightness values of each image in block units in chronological order.

検知処理部22cは、検知エリアEa,Eb内の画像に動きありのブロックがあるか否かをチェックする。その結果、検知エリアEa,Eb内の画像に動きありのブロックがあれば、検知処理部22cは、戸袋42a,42bの近くに人または物が存在するものと判断する。 The detection processing unit 22c checks whether or not there is a moving block in the images in the detection areas Ea and Eb. As a result, if there is a moving block in the image in the detection areas Ea and Eb, the detection processing unit 22c determines that a person or an object exists near the door pockets 42a and 42b.

図3に示したように、検知エリアEa,Ebは、正面柱41a,41bの内側側面41a−1,41b−1に設定されている。したがって、かごドア13(ドアパネル13a,13b)が開閉したときの動きが検知エリアEa,Eb内で検知されることはない。 As shown in FIG. 3, the detection areas Ea and Eb are set on the inner side surfaces 41a-1 and 41b-1 of the front pillars 41a and 41b. Therefore, the movement when the car doors 13 (door panels 13a and 13b) are opened and closed is not detected in the detection areas Ea and Eb.

(c)境界検知
検知処理部22cは、検知エリアEa,Eb内における画像からエレベータ構造物の境界を検知する。ここで言う「エレベータ構造物の境界」とは、正面柱41a,41bの内側側面41a−1,41b−1と戸袋42a,42bとの境界である。検知処理部22cは、上記境界が画像上で途切れていた場合(部分的に隠れていた場合)に、利用者または物の存在するものと判断する。
(C) Boundary detection The detection processing unit 22c detects the boundary of the elevator structure from the images in the detection areas Ea and Eb. The "boundary of the elevator structure" referred to here is a boundary between the inner side surfaces 41a-1, 41b-1 of the front columns 41a and 41b and the door pockets 42a and 42b. When the boundary is interrupted on the image (when it is partially hidden), the detection processing unit 22c determines that a user or an object exists.

この方法では、図17に示すように検知エリアEa,Ebを拡張して、上記境界を含むように設定しておく必要がある。なお、画像上で検知エリア内の境界を検出する方法について、例えば特願2017−240799号公報で公知であるため、ここでは詳しい説明を省略する。 In this method, it is necessary to expand the detection areas Ea and Eb as shown in FIG. 17 and set them to include the above boundary. Since the method of detecting the boundary in the detection area on the image is known, for example, in Japanese Patent Application Laid-Open No. 2017-240799, detailed description thereof will be omitted here.

カメラ12で撮影された画像には、かごドア13の開閉状態に関係なく、正面柱41a,41bの内側側面41a−1,41b−1と戸袋42a,42bとの境界が存在する。したがって、その境界が画像上で途切れているか否かを検出することで、戸袋42a,42bに近い利用者または物を確実に検知することができ、かつ、戸袋42a,42bから離れている利用者または物を誤検知することがない。 In the image taken by the camera 12, there is a boundary between the inner side surfaces 41a-1, 41b-1 of the front pillars 41a and 41b and the door pockets 42a and 42b regardless of the open / closed state of the car door 13. Therefore, by detecting whether or not the boundary is interrupted on the image, it is possible to reliably detect a user or an object close to the door pockets 42a and 42b, and a user away from the door pockets 42a and 42b. Or, there is no false detection of an object.

その他の方法として、検知エリアEa,Eb内の画像からエレベータ構造物以外の構造物を認識し、その認識結果に基づいて利用者または物の存在を判断することでも良い。構造物認識の手法は一般に知られているもので良い。例えば、ディープラーニングやSVM(Support Vector Machine)、ランダムフォレストなどがある。 As another method, a structure other than the elevator structure may be recognized from the images in the detection areas Ea and Eb, and the existence of the user or the object may be determined based on the recognition result. The method of recognizing the structure may be a generally known method. For example, there are deep learning, SVM (Support Vector Machine), and random forest.

図4に戻って、かごドア13の戸開動作中に検知エリアEa,Eb内で利用者または物の存在が検知されると(ステップS16のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30の戸開閉制御部31は、この利用者検知信号を受信すると、かごドア13の戸開動作を一時停止し、数秒後にその停止位置から戸開動作を再開する(ステップS17)。 Returning to FIG. 4, when the presence of a user or an object is detected in the detection areas Ea and Eb during the door opening operation of the car door 13 (Yes in step S16), the image processing device 20 shifts to the car control device 30. On the other hand, a user detection signal is output. When the door opening / closing control unit 31 of the car control device 30 receives the user detection signal, the door opening operation of the car door 13 is temporarily stopped, and after a few seconds, the door opening operation is restarted from the stopped position (step S17).

なお、利用者検知信号を受信したときに、かごドア13の戸開速度を通常より遅くすることや、あるいは、かごドア13を逆方向(戸閉方向)に若干移動させてから戸開動作を再開することでも良い。 When the user detection signal is received, the door opening speed of the car door 13 may be slower than usual, or the car door 13 may be slightly moved in the opposite direction (door closing direction) before the door opening operation is performed. It may be restarted.

また、かご制御装置30の通知部32は、乗りかご11内のスピーカ46を通じて音声アナウンスを行い、利用者に対して戸袋42a,42bから離れるように注意を喚起する(ステップS18)。なお、通知の方法は音声アナウンスに限らず、例えば「戸袋の近くは危険ですので、すぐに離れて下さい。」といったようなメッセージを表示することでも良いし、音声アナウンスとメッセージ表示を併用することでも良い。さらに、警告音を鳴らすことでも良い。 Further, the notification unit 32 of the car control device 30 makes a voice announcement through the speaker 46 in the car 11 to alert the user to move away from the door pockets 42a and 42b (step S18). The notification method is not limited to voice announcement, for example, it may be possible to display a message such as "Because it is dangerous near the door pocket, please leave immediately.", Or use voice announcement and message display together. But it's okay. Further, a warning sound may be sounded.

検知エリアEa,Eb内で利用者または物の存在が検知されている間、上記処理が繰り返される。これにより、例えば利用者が戸袋42aの近くに手を置いている場合に、戸袋42aに引き込まれることを未然に防ぐことができる。 The above process is repeated while the presence of a user or an object is detected in the detection areas Ea and Eb. As a result, for example, when the user puts his / her hand near the door pocket 42a, it is possible to prevent the user from being drawn into the door pocket 42a.

検知エリアEa,Eb内で利用者または物の存在が検知されなかった場合には(ステップS16のNo)、かご制御装置30はかごドア13の戸閉動作を継続し、戸閉完了後に乗りかご11を目的階に向けて出発させる(ステップS19)。 If the presence of a user or an object is not detected in the detection areas Ea and Eb (No in step S16), the car control device 30 continues the door closing operation of the car door 13, and the car is closed after the door is closed. 11 is departed toward the destination floor (step S19).

なお、上記実施形態では、両開きタイプのかごドアを例にして説明したが、図18に示すような片開きタイプであっても同様である。 In the above embodiment, the double door type car door has been described as an example, but the same applies to the single door type as shown in FIG.

図18は2枚戸片開きタイプのかごドアが用いられた乗りかご内の出入口周辺部分の構成を示す図である。この例では、乗りかご11の出入口に2枚戸片開きタイプのかごドア13が開閉自在に設置されている。かごドア13は、図19に示すように2枚のドアパネル13a,13bを有し、これらが間口方向に沿って同じ方向に開閉動作する。 FIG. 18 is a diagram showing a configuration of a portion around an entrance / exit in a car in which a two-door single-door type car door is used. In this example, a two-door single-door type car door 13 is installed at the doorway of the car 11 so as to be openable and closable. As shown in FIG. 19, the car door 13 has two door panels 13a and 13b, which open and close in the same direction along the frontage direction.

かごドア13が片開きタイプの場合、戸袋42aが出入口の片側だけに設けられる。図18の例では、出入口の左側に戸袋42aが設けられており、戸開時に2枚のドアパネル13a,13bが戸袋42aの中に重なった状態で収納される。 When the car door 13 is a single door type, the door pocket 42a is provided only on one side of the doorway. In the example of FIG. 18, a door pocket 42a is provided on the left side of the doorway, and when the door is opened, the two door panels 13a and 13b are stored in the door pocket 42a in an overlapping state.

ここで、幕板11aに設置されるカメラ12を戸袋42a側に寄せておき、戸袋42a側の正面柱41aに対して検知エリアEaを設定しておく。詳しくは、図3で説明したように、正面柱41aの内側側面41a−1に沿って所定の幅D1を有する帯状の検知エリアEaを設定しておく。これにより、例えば利用者の手が戸袋42aの近くにある場合に、検知エリアEa内の画像からその状態を検知でき、戸開閉動作に反映させることで、戸袋42aへの引き込まれ事故を未然に防ぐことができる。 Here, the camera 12 installed on the curtain plate 11a is moved closer to the door pocket 42a side, and the detection area Ea is set for the front pillar 41a on the door pocket 42a side. Specifically, as described with reference to FIG. 3, a band-shaped detection area Ea having a predetermined width D1 is set along the inner side surface 41a-1 of the front pillar 41a. As a result, for example, when the user's hand is near the door pocket 42a, the state can be detected from the image in the detection area Ea, and by reflecting it in the door opening / closing operation, an accident of being drawn into the door pocket 42a can be prevented. Can be prevented.

なお、図18において、他方の正面柱41bに対しても検知エリアEbを設定しておけば、戸閉時にかごドア13の側端部が当たる事故(戸当たり事故)を未然に防ぐことができる。 If the detection area Eb is also set for the other front pillar 41b in FIG. 18, it is possible to prevent an accident (door hit accident) in which the side end of the car door 13 hits when the door is closed. ..

以上のように本実施形態によれば、撮影画像上で乗りかご11内の正面柱41a,41bが映る領域を画像処理によって検出し、そこに検知エリアEa,Ebを正確に設定することができる。したがって、例えば戸袋42a,42bの近くにマーカを置いて、そのマーカの位置を基準にして検知エリアEa,Ebの設定位置を調整するなどの面倒な作業は不要である。また、カメラ12の取付け位置がずれた場合でも、そのカメラ12から得られる撮影画像を用いて、実際に正面柱41a,41bが映る領域を特定して、そこに検知エリアEa,Ebを正確に設定することができる。 As described above, according to the present embodiment, the area in which the front pillars 41a and 41b in the car 11 are reflected on the captured image can be detected by image processing, and the detection areas Ea and Eb can be accurately set there. .. Therefore, for example, it is not necessary to place a marker near the door pockets 42a and 42b and adjust the set position of the detection areas Ea and Eb with reference to the position of the marker. Further, even if the mounting position of the camera 12 is displaced, the area where the front pillars 41a and 41b are actually reflected is specified by using the captured image obtained from the camera 12, and the detection areas Ea and Eb are accurately set there. Can be set.

このように、正面柱41a,41bに検知エリアEa,Ebを設定しておくことにより、ドア近くにいる利用者または物を正しく検知することができ、例えば戸袋への引き込まれ事故など、ドアの開閉時に生じる事故を未然に防いで、エレベータを安全に利用できるようになる。一方、検知エリアEa,Ebを設定する場所を正面柱41a,41bに限定することにより、ドアから離れている利用者または物を誤検知することを回避でき、不要なドア制御や注意喚起を防ぐことができる。 By setting the detection areas Ea and Eb on the front pillars 41a and 41b in this way, it is possible to correctly detect a user or an object near the door, for example, an accident in which the door is pulled into a door pocket. Elevators can be used safely by preventing accidents that occur when opening and closing. On the other hand, by limiting the places where the detection areas Ea and Eb are set to the front pillars 41a and 41b, it is possible to avoid erroneous detection of a user or an object away from the door, and prevent unnecessary door control and alerting. be able to.

なお、上記実施形態では、乗りかご11の出入口の両側に検知エリアEa,Ebを設定したが、少なくとも一方だけに検知エリアを設定しておくことでも良い。 In the above embodiment, the detection areas Ea and Eb are set on both sides of the entrance and exit of the car 11, but the detection areas may be set on at least one of them.

以上述べた少なくとも1つの実施形態によれば、調整作業を必要とせず、また、カメラの取付け位置がずれても、ドアの戸袋付近に検知エリアを正確に設定して利用者または物を検知することのできるエレベータの利用者検知システムを提供することできる。 According to at least one embodiment described above, no adjustment work is required, and even if the camera mounting position is displaced, the detection area is accurately set near the door pocket of the door to detect the user or an object. It is possible to provide an elevator user detection system that can be used.

なお、上記実施形態では、エレベータの乗りかごに設けられるドアを想定して説明したが、例えばビルの玄関口などに設けられる自動ドアであっても本発明を適用することができる。すなわち、例えばビルの玄関口の自動ドアであれば、上記玄関口上部にカメラを設置し、そのカメラで撮影される画像上で上記玄関口両側の柱部分を検出し、そこに検知エリアEa,Eb(片開きであれば、どちらか一方)を設定する。以後は、上記実施形態と同様に検知エリアEa,Eb内の画像で利用者または物を検知して戸開閉制御に反映させると共に注意喚起を行う。 In the above embodiment, the door provided in the car of the elevator has been described, but the present invention can be applied to an automatic door provided at the entrance of a building, for example. That is, for example, in the case of an automatic door at the entrance of a building, a camera is installed above the entrance, pillars on both sides of the entrance are detected on an image taken by the camera, and the detection area Ea, Set Eb (if it is one-sided, either one). After that, as in the above embodiment, the user or the object is detected by the images in the detection areas Ea and Eb and reflected in the door opening / closing control, and the attention is issued.

要するに、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In short, some embodiments of the present invention have been described, but these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

11…乗りかご、11a…幕板、12…カメラ、13…かごドア、14…乗場ドア、15…乗場、16…乗場の床面、17a,17b…三方枠、18…乗場シル、19…乗りかごの床面、20…画像処理装置、21…記憶部、22…検知部、22a…設定対象検出部、22b…検知エリア設定部、22c…検知処理部、30…かご制御装置、31…戸開閉制御部、41a,41b…正面柱、41a−1,41b−1…正面柱の内側側面、42a,42b…戸袋、43…表示器、44…行先階ボタン、45…操作盤、46…スピーカ、47…かごシル、32…通知部、Ea,Eb…検知エリア、Po…中心座標、61…処理領域、62…中央線、63,64…直線、71…処理領域、72…中央線、73,74…直線。 11 ... Riding car, 11a ... Curtain board, 12 ... Camera, 13 ... Car door, 14 ... Landing door, 15 ... Landing, 16 ... Landing floor, 17a, 17b ... Three-sided frame, 18 ... Landing sill, 19 ... Riding The floor of the car, 20 ... image processing device, 21 ... storage unit, 22 ... detection unit, 22a ... setting target detection unit, 22b ... detection area setting unit, 22c ... detection processing unit, 30 ... car control device, 31 ... door Open / close control unit, 41a, 41b ... front pillar, 41a-1, 41b-1 ... inner side surface of front pillar, 42a, 42b ... door pocket, 43 ... display, 44 ... destination floor button, 45 ... operation panel, 46 ... speaker , 47 ... Basket sill, 32 ... Notification unit, Ea, Eb ... Detection area, Po ... Center coordinates, 61 ... Processing area, 62 ... Center line, 63, 64 ... Straight line, 71 ... Processing area, 72 ... Center line, 73 , 74 ... Straight line.

Claims (8)

乗りかご内からドアが開閉する出入口付近を含む所定の範囲を撮影する撮像手段と、
上記撮像手段から得られる撮影画像上で上記出入口の両側の少なくとも一方に設けられた正面柱が映る領域を検知エリアの設定対象として検出する設定対象検出手段と、
この設定対象検出手段によって検出された上記正面柱が映る領域に上記検知エリアを設定する検知エリア設定手段と、
この検知エリア設定手段によって設定された上記検知エリア内の画像に基づいて利用者または物の有無を検知する検知処理手段とを具備し
上記設定対象検出手段は、
上記正面柱に対する上記撮像手段の相対位置、上記撮像手段の角度、画角、画像上の中心座標に基づいて、上記撮影画像上で上記正面柱が映る領域に所定のマージンを持たせた処理領域を設定し、
上記処理領域内の画像のエッジ情報に基づいて上記正面柱を特定し、
上記処理領域内の画像上で上記撮影画像の中心座標から放射状に延びる直線を上記正面柱の内側側面の両端部を示すエッジとして検出し、
上記撮影画像の中心座標から放射状に延びる直線が2本以上存在する場合に、予め与えられた上記正面柱の内側側面の中央線に近い2本の直線を上記正面柱の内側側面の両端部を示すエッジとして選択することを特徴とするエレベータの利用者検知システム。
An imaging means that captures a predetermined range including the vicinity of the doorway where the door opens and closes from inside the car,
A setting target detecting means for detecting a region in which a front pillar provided on at least one of both sides of the entrance / exit is reflected as a setting target of a detection area on a captured image obtained from the imaging means.
The detection area setting means for setting the detection area in the area where the front pillar detected by the setting target detection means is reflected, and the detection area setting means.
It is provided with a detection processing means for detecting the presence or absence of a user or an object based on an image in the detection area set by the detection area setting means .
The above setting target detection means
A processing area in which a region in which the front pillar is projected on the captured image has a predetermined margin based on the relative position of the imaging means with respect to the front pillar, the angle of the imaging means, the angle of view, and the center coordinates on the image. Set and
Identify the front pillar based on the edge information of the image in the processing area,
A straight line extending radially from the center coordinates of the captured image on the image in the processing area is detected as an edge indicating both ends of the inner side surface of the front pillar.
When there are two or more straight lines extending radially from the center coordinates of the photographed image, two straight lines close to the center line of the inner side surface of the front pillar given in advance are applied to both ends of the inner side surface of the front pillar. An elevator user detection system characterized by being selected as the indicated edge .
上記設定対象検出手段は、
上記乗りかごの上記ドアが閉じた状態で上記正面柱の検出処理を行うことを特徴とする請求項1に記載のエレベータの利用者検知システム。
The above setting target detection means
The elevator user detection system according to claim 1 , wherein the front pillar detection process is performed with the door of the car closed.
上記検知エリア設定手段は、
上記正面柱の内側側面の高さ方向の一部あるいは全体に上記検知エリアを設定することを特徴とする請求項1記載のエレベータの利用者検知システム。
The above detection area setting means
The user detection system for an elevator according to claim 1, wherein the detection area is set in a part or the whole of the inner side surface of the front pillar in the height direction.
上記検知エリアは、上記正面柱の内側側面の幅方向に所定の幅を有して設定されることを特徴とする請求項3記載のエレベータの利用者検知システム。 The user detection system for an elevator according to claim 3 , wherein the detection area is set with a predetermined width in the width direction of the inner side surface of the front pillar. 上記検知処理手段は、
上記ドアの戸開動作中に上記検知エリア内の画像に基づいて利用者または物の有無を検知することを特徴とする請求項1記載のエレベータの利用者検知システム。
The above detection processing means
The user detection system for an elevator according to claim 1, wherein the presence or absence of a user or an object is detected based on an image in the detection area during the door opening operation of the door.
上記撮像手段は、
上記乗りかごの出入口上部に設置されることを特徴とする請求項1記載のエレベータの利用者検知システム。
The above imaging means
The elevator user detection system according to claim 1, wherein the elevator is installed above the entrance / exit of the car.
上記検知処理手段の検知結果に基づいて、上記ドアの開閉動作を制御する戸開閉制御手段をさらに具備したことを特徴とする請求項1記載のエレベータの利用者検知システム。 The user detection system for an elevator according to claim 1, further comprising a door opening / closing control means for controlling the opening / closing operation of the door based on the detection result of the detection processing means. 上記検知処理手段の検知結果に基づいて、上記乗りかご内の利用者に注意を喚起する通知手段をさらに具備したことを特徴とする請求項1記載のエレベータの利用者検知システム。 The user detection system for an elevator according to claim 1, further comprising a notification means for calling attention to a user in the car based on the detection result of the detection processing means.
JP2019163781A 2019-09-09 2019-09-09 Elevator user detection system Active JP6828108B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019163781A JP6828108B1 (en) 2019-09-09 2019-09-09 Elevator user detection system
CN202010447153.6A CN112456287B (en) 2019-09-09 2020-05-25 User detection system for elevator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019163781A JP6828108B1 (en) 2019-09-09 2019-09-09 Elevator user detection system

Publications (2)

Publication Number Publication Date
JP6828108B1 true JP6828108B1 (en) 2021-02-10
JP2021042019A JP2021042019A (en) 2021-03-18

Family

ID=74529700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019163781A Active JP6828108B1 (en) 2019-09-09 2019-09-09 Elevator user detection system

Country Status (2)

Country Link
JP (1) JP6828108B1 (en)
CN (1) CN112456287B (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5554236B2 (en) * 2008-07-16 2014-07-23 三菱電機株式会社 Sliding door device and elevator
JP5070187B2 (en) * 2008-11-05 2012-11-07 株式会社日立製作所 Elevator safety equipment
JP5069672B2 (en) * 2008-12-24 2012-11-07 株式会社日立製作所 Elevator safety equipment
US10674185B2 (en) * 2015-10-08 2020-06-02 Koninklijke Kpn N.V. Enhancing a region of interest in video frames of a video stream
JP6242966B1 (en) * 2016-08-24 2017-12-06 東芝エレベータ株式会社 Elevator control system
JP6377796B1 (en) * 2017-03-24 2018-08-22 東芝エレベータ株式会社 Elevator boarding detection system
JP6657167B2 (en) * 2017-12-15 2020-03-04 東芝エレベータ株式会社 User detection system
KR102001962B1 (en) * 2018-02-26 2019-07-23 세라에스이 주식회사 Apparatus for control a sliding door

Also Published As

Publication number Publication date
CN112456287B (en) 2022-12-06
JP2021042019A (en) 2021-03-18
CN112456287A (en) 2021-03-09

Similar Documents

Publication Publication Date Title
JP7230114B2 (en) Elevator user detection system
JP6702578B1 (en) Elevator user detection system
JP7043565B2 (en) Elevator user detection system
JP6849760B2 (en) Elevator user detection system
JP6878558B1 (en) Elevator user detection system
JP7009411B2 (en) Elevator user detection system
JP6828108B1 (en) Elevator user detection system
JP7187629B1 (en) Elevator user detection system
JP6843935B2 (en) Elevator user detection system
JP6702579B1 (en) Elevator user detection system
JP6871324B2 (en) Elevator user detection system
JP7077437B2 (en) Elevator user detection system
JP7305849B1 (en) elevator system
JP7155201B2 (en) Elevator user detection system
JP7135144B1 (en) Elevator user detection system
JP6833942B1 (en) Elevator user detection system
JP2024032246A (en) Elevator user detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R150 Certificate of patent or registration of utility model

Ref document number: 6828108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150