JP5969147B1 - Elevator boarding detection system - Google Patents

Elevator boarding detection system Download PDF

Info

Publication number
JP5969147B1
JP5969147B1 JP2016004594A JP2016004594A JP5969147B1 JP 5969147 B1 JP5969147 B1 JP 5969147B1 JP 2016004594 A JP2016004594 A JP 2016004594A JP 2016004594 A JP2016004594 A JP 2016004594A JP 5969147 B1 JP5969147 B1 JP 5969147B1
Authority
JP
Japan
Prior art keywords
door
person
car
estimated
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016004594A
Other languages
Japanese (ja)
Other versions
JP2017124898A (en
Inventor
周平 野田
周平 野田
横井 謙太朗
謙太朗 横井
助川 寛
寛 助川
由香里 村田
由香里 村田
紗由美 木村
紗由美 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Elevator and Building Systems Corp
Original Assignee
Toshiba Elevator Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Elevator Co Ltd filed Critical Toshiba Elevator Co Ltd
Priority to JP2016004594A priority Critical patent/JP5969147B1/en
Application granted granted Critical
Publication of JP5969147B1 publication Critical patent/JP5969147B1/en
Priority to CN201710025809.3A priority patent/CN106966277B/en
Publication of JP2017124898A publication Critical patent/JP2017124898A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/02Door or gate operation
    • B66B13/14Control systems or devices
    • B66B13/143Control systems or devices electrical
    • B66B13/146Control systems or devices electrical method or algorithm for controlling doors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/24Safety devices in passenger lifts, not otherwise provided for, for preventing trapping of passengers

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Elevator Door Apparatuses (AREA)

Abstract

【課題】乗車意思のある利用者を広範囲に正確に検知してドアの開閉制御に反映させる。【解決手段】一実施形態に係るエレベータの乗車検知システムは、撮像手段、動き検知手段、位置推定手段、履歴保持手段、乗車意思推定手段及び制御手段を備えている。位置推定手段は、動き検知手段によって検知された動きありのブロックの中からドアに最も近いブロックを画像毎に抽出し、当該ブロックにおける上記ドアの中心から乗場方向の座標位置を人物の位置として推定する。履歴保持手段は、位置推定手段によって推定された人物の位置を示す位置データのうち、現在から所定時間前までの位置データを履歴データとして保持する。位置推定手段は、履歴保持手段に保持された履歴データを参照して、推定された人物の位置を補正するかどうかを決定する。【選択図】図1A user who intends to get on a vehicle is accurately detected in a wide range and reflected in door opening / closing control. An elevator boarding detection system according to an embodiment includes an imaging unit, a motion detection unit, a position estimation unit, a history holding unit, a boarding intention estimation unit, and a control unit. The position estimation means extracts, for each image, a block closest to the door from the blocks with movement detected by the motion detection means, and estimates the coordinate position in the landing direction from the center of the door in the block as the position of the person. To do. The history holding means holds, as history data, position data from the present to a predetermined time before the position data indicating the position of the person estimated by the position estimating means. The position estimating means refers to the history data held in the history holding means and determines whether to correct the estimated person position. [Selection] Figure 1

Description

本発明の実施形態は、乗りかごに乗車する利用者を検知するエレベータの乗車検知システムに関する。   Embodiments described herein relate generally to an elevator boarding detection system that detects a user who gets in a car.

通常、エレベータの乗りかごが乗場に到着して戸開すると、所定時間経過後に戸閉して出発する。その際、エレベータの利用者は乗りかごがいつ戸閉するのか分からないため、乗場から乗りかごに乗車するときに戸閉途中のドアにぶつかることがある。   Normally, when the elevator car arrives at the landing and opens, the door is closed after a predetermined time. In that case, since the elevator user does not know when the car is closed, the user may hit the door that is in the middle of closing when getting on the car from the landing.

このような乗車時のドアの衝突を回避するため、乗りかごに乗車する利用者をセンサで検知してドアの開閉動作を制御することが考えられている。上記センサとしては一般的に光電センサが用いられる。すなわち、乗りかごの上部に光電センサを設置しておき、乗りかごに乗車する利用者を光学的に検知する。利用者が検知されている間は、ドアの戸開状態が維持されるので、利用者が戸閉途中のドアにぶつかることを回避でき、また、ドアの戸袋に引き込まれることを防止できる。   In order to avoid such a door collision during boarding, it is considered to control a door opening / closing operation by detecting a user riding in the car with a sensor. A photoelectric sensor is generally used as the sensor. That is, a photoelectric sensor is installed on the upper part of the car, and a user who gets on the car is optically detected. While the user is being detected, the door open state is maintained, so that the user can be prevented from hitting the door that is being closed, and can be prevented from being drawn into the door pocket of the door.

特許第5201826号公報Japanese Patent No. 5201826

しかしながら、光電センサの検知範囲は狭く、ピンポイントでしか利用者を検知できない。このため、乗りかごから少し離れた場所に利用者がいると、それを検知できずに戸閉を開始してしまうことや、逆に乗りかごの近くを通り過ぎただけの人物を誤検知してドアを開いてしまうことがある。   However, the detection range of the photoelectric sensor is narrow, and the user can be detected only pinpoint. For this reason, if there is a user a little away from the car, it will not be detected and the door will close, or conversely, a person who has just passed near the car will be detected incorrectly. May open the door.

本発明が解決しようとする課題は、乗車意思のある利用者を広範囲に正確に検知してドアの開閉制御に反映させることのできるエレベータの乗車検知システムを提供することである。   The problem to be solved by the present invention is to provide an elevator boarding detection system capable of accurately detecting a user who has a boarding intention in a wide range and reflecting it in door opening / closing control.

一実施形態に係るエレベータの乗車検知システムは、撮像手段、動き検知手段、位置推定手段、履歴保持手段、乗車意思推定手段及び制御手段を備えている。撮像手段は、乗りかごが乗場に到着したときに、当該乗りかごのドア付近から上記乗場の方向に向けて所定の範囲を撮影可能である。動き検知手段は、この撮像手段によって撮影された時系列的に連続した複数枚の画像の輝度をブロック単位で比較して人物の動きを検知する。位置推定手段は、この動き検知手段によって検知された動きありのブロックの中から上記ドアに最も近いブロックを上記画像毎に抽出し、当該ブロックにおける上記ドアの中心から上記乗場方向の座標位置を人物の位置として推定する。履歴保持手段は、この位置推定手段によって推定された人物の位置を示す位置データのうち、現在から所定時間前までの位置データを履歴データとして保持する。乗車意思推定手段は、上記位置推定手段によって推定された人物の位置の時系列変化に基づいて利用者の乗車意思の有無を推定する。制御手段は、この乗車意思推定手段の推定結果に基づいて上記ドアの開閉動作を制御する。上記位置推定手段は、上記履歴保持手段に保持された履歴データを参照して、上記推定された人物の位置を補正するかどうかを決定する。   An elevator boarding detection system according to an embodiment includes an imaging unit, a motion detection unit, a position estimation unit, a history holding unit, a boarding intention estimation unit, and a control unit. When the car arrives at the landing, the imaging means can photograph a predetermined range from the vicinity of the door of the car toward the landing. The motion detection means detects the movement of the person by comparing the brightness of a plurality of time-sequential images taken by the imaging means in block units. The position estimation means extracts, for each image, a block closest to the door from the blocks with motion detected by the motion detection means, and determines the coordinate position in the landing direction from the center of the door in the block. Estimated as the position of. The history holding means holds, as history data, position data from the present to a predetermined time before the position data indicating the position of the person estimated by the position estimating means. The boarding intention estimation means estimates the presence / absence of the user's boarding intention based on the time series change of the position of the person estimated by the position estimation means. The control means controls the opening / closing operation of the door based on the estimation result of the boarding intention estimation means. The position estimating means refers to the history data held in the history holding means and determines whether to correct the estimated person position.

図1は一実施形態に係るエレベータの乗車検知システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an elevator boarding detection system according to an embodiment. 図2は同実施形態におけるカメラによって撮影された画像の一例を示す図である。FIG. 2 is a view showing an example of an image taken by the camera in the embodiment. 図3は同実施形態における撮影画像をブロック単位で区切った状態を示す図である。FIG. 3 is a diagram showing a state in which the captured image is divided into blocks in the embodiment. 図4は同実施形態における実空間での検知エリアを説明するための図である。FIG. 4 is a diagram for explaining a detection area in real space in the embodiment. 図5は同実施形態における実空間での座標系を説明するための図である。FIG. 5 is a diagram for explaining a coordinate system in the real space in the embodiment. 図6は同実施形態における画像比較による動き検知を説明するための図であり、時間tで撮影された画像の一部を模式的に示す図である。FIG. 6 is a view for explaining motion detection by image comparison in the embodiment, and schematically shows a part of an image taken at time t. 図7は同実施形態における画像比較による動き検知を説明するための図であり、時間t+1で撮影された画像の一部を模式的に示す図である。FIG. 7 is a diagram for explaining motion detection by image comparison in the embodiment, and schematically shows a part of an image taken at time t + 1. 図8は同実施形態における乗車検知システムの全体の処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing the overall processing flow of the boarding detection system in the embodiment. 図9は同実施形態における乗車検知システムの動き検知処理を示すフローチャートである。FIG. 9 is a flowchart showing motion detection processing of the boarding detection system in the same embodiment. 図10は同実施形態における乗車検知システムの位置推定処理を示すフローチャートである。FIG. 10 is a flowchart showing a position estimation process of the boarding detection system in the same embodiment. 図11は同実施形態における乗車検知システムの乗車意思推定処理を示すフローチャートである。FIG. 11 is a flowchart showing a boarding intention estimation process of the boarding detection system in the embodiment. 図12は同実施形態における乗車意思ありの足元位置の変化状態を示す図である。FIG. 12 is a diagram showing a change state of the foot position with the intention to get on in the embodiment. 図13は同実施形態における乗車検知システムによる乗りかごの戸閉中の処理動作を示すフローチャートである。FIG. 13 is a flowchart showing the processing operation during the door closing of the car by the boarding detection system in the embodiment. 図14は同実施形態における移動体が乗場を横切った場合の動き検知を説明するための図であり、時間tで撮影された画像の一部を模式的に示す図である。FIG. 14 is a diagram for explaining motion detection when the moving body crosses the landing in the embodiment, and is a diagram schematically showing a part of an image photographed at time t. 図15は同実施形態における移動体が乗場を横切った場合の動き検知を説明するための図であり、時間t+1で撮影された画像の一部を模式的に示す図である。FIG. 15 is a view for explaining motion detection when the moving body crosses the landing in the embodiment, and schematically shows a part of an image taken at time t + 1. 図16は同実施形態における移動体が乗場を横切った場合の動き検知を説明するための図であり、時間t+2で撮影された画像の一部を模式的に示す図である。FIG. 16 is a diagram for explaining motion detection when the moving body crosses the landing in the embodiment, and is a diagram schematically showing a part of an image photographed at time t + 2. 図17は同実施形態における誤って乗車意思ありと判断される足元位置の変化状態を示す図である。FIG. 17 is a diagram showing a change state of the foot position that is erroneously determined to have a boarding intention in the embodiment. 図18は同実施形態における乗車検知システムの別の位置推定処理を示すフローチャートである。FIG. 18 is a flowchart showing another position estimation process of the boarding detection system in the same embodiment. 図19は同実施形態における乗車意思なしの足元位置の変化状態を示す図である。FIG. 19 is a diagram showing a change state of the foot position without intention to get on in the embodiment. 図20は同実施形態における乗車意思ありの足元位置の変化状態を示す別の図である。FIG. 20 is another diagram showing a change state of the foot position with the intention to board in the embodiment.

以下、図面を参照して実施形態を説明する。
図1は一実施形態に係るエレベータの乗車検知システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an elevator boarding detection system according to an embodiment. Note that, here, a single car will be described as an example, but a plurality of cars have the same configuration.

乗りかご11の出入口上部にカメラ12が設置されている。具体的には、乗りかご11の出入口上部を覆う幕板11aの中にカメラ12のレンズ部分を乗場15側に向けて設置されている。カメラ12は、例えば車載カメラなどの小型の監視用カメラであり、広角レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続撮影可能である。乗りかご11が各階に到着して戸開したときに、乗場15の状態を乗りかご11内のかごドア13付近の状態を含めて撮影する。   A camera 12 is installed above the entrance of the car 11. Specifically, the lens portion of the camera 12 is installed in the curtain plate 11a covering the upper part of the entrance / exit of the car 11, with the lens 15 facing the landing 15 side. The camera 12 is a small surveillance camera such as an in-vehicle camera, and has a wide-angle lens and can continuously shoot images of several frames (for example, 30 frames / second) per second. When the car 11 arrives at each floor and opens, the state of the landing 15 is photographed including the state near the car door 13 in the car 11.

このときの撮影範囲はL1+L2に調整されている(L1≫L2)。L1は乗場側の撮影範囲であり、かごドア13から乗場15に向けて例えば3mである。L2はかご側の撮影範囲であり、かごドア13からかご背面に向けて例えば50cmである。なお、L1,L2は奥行き方向の範囲であり、幅方向(奥行き方向と直交する方向)の範囲については少なくとも乗りかご11の横幅より大きいものとする。   The photographing range at this time is adjusted to L1 + L2 (L1 >> L2). L <b> 1 is a shooting range on the landing side and is, for example, 3 m from the car door 13 toward the landing 15. L2 is an imaging range on the car side, and is, for example, 50 cm from the car door 13 toward the back of the car. L1 and L2 are ranges in the depth direction, and the range in the width direction (direction orthogonal to the depth direction) is at least larger than the lateral width of the car 11.

なお、各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明において、かごドア13を戸開しているときには乗場ドア14も戸開しており、かごドア13を戸閉しているときには乗場ドア14も戸閉しているものとする。   In the landing 15 on each floor, a landing door 14 is installed at the arrival entrance of the car 11 so as to be freely opened and closed. The landing door 14 opens and closes by engaging with the car door 13 when the car 11 arrives. The power source (door motor) is on the car 11 side, and the landing door 14 simply opens and closes following the car door 13. In the following description, it is assumed that when the car door 13 is opened, the landing door 14 is also opened, and when the car door 13 is closed, the landing door 14 is also closed.

カメラ12によって撮影された各画像(映像)は、画像処理装置20によってリアルタイムに解析処理される。なお、図1では、便宜的に画像処理装置20を乗りかご11から取り出して示しているが、実際には画像処理装置20はカメラ12と共に幕板11aの中に収納されている。   Each image (video) taken by the camera 12 is analyzed and processed in real time by the image processing device 20. In FIG. 1, the image processing device 20 is taken out from the car 11 for convenience, but the image processing device 20 is actually housed in the curtain plate 11 a together with the camera 12.

ここで、画像処理装置20には、記憶部21と利用者検知部22が備えられている。記憶部21は、カメラ12によって撮影された画像を逐次保存すると共に、利用者検知部22の処理に必要なデータを一時的に保持しておくためのバッファエリアを有する。このバッファエリアの1つが足元位置履歴保持部21aである。利用者検知部22は、カメラ12によって撮影された時系列的に連続した複数枚の画像の中でかごドア13に最も近い人・物の動きに着目して乗車意思のある利用者の有無を検知する。この利用者検知部22を機能的に分けると、動き検知部22a、位置推定部22b、乗車意思推定部22cで構成される。   Here, the image processing apparatus 20 includes a storage unit 21 and a user detection unit 22. The storage unit 21 has a buffer area for sequentially storing images taken by the camera 12 and temporarily holding data necessary for processing by the user detection unit 22. One of the buffer areas is a foot position history holding unit 21a. The user detection unit 22 pays attention to the movement of a person / thing closest to the car door 13 among a plurality of time-sequential images taken by the camera 12 and determines whether there is a user who intends to get on the vehicle. Detect. If this user detection part 22 is divided functionally, it will be comprised by the motion detection part 22a, the position estimation part 22b, and the boarding intention estimation part 22c.

動き検知部22aは、各画像の輝度をブロック単位で比較して人・物の動きを検知する。ここで言う「人・物の動き」とは、乗場15の人物や車椅子等の移動体の動きのことである。   The motion detector 22a detects the motion of a person / thing by comparing the brightness of each image in units of blocks. The “movement of a person / thing” here refers to the movement of a person on the hall 15 or a moving body such as a wheelchair.

位置推定部22bは、動き検知部22aによって各画像毎に検知された動きありのブロックの中からかごドア13に最も近いブロックを抽出し、当該ブロックにおけるかごドア13の中心(ドア間口の中心)から乗場方向の座標位置(図5に示すY座標)を利用者の位置(足元位置)として推定する。乗車意思推定部22cは、位置推定部22bによって推定された位置の時系列変化に基づいて当該利用者の乗車意思の有無を判定する。   The position estimation unit 22b extracts the block closest to the car door 13 from the blocks with movement detected for each image by the motion detection unit 22a, and the center of the car door 13 in the block (center of the door front). To the coordinate position in the hall direction (Y coordinate shown in FIG. 5) is estimated as the user's position (foot position). The boarding intention estimation part 22c determines the presence or absence of the user's boarding intention based on the time-series change of the position estimated by the position estimation part 22b.

なお、これらの機能(動き検知部22a、位置推定部22b、乗車意思推定部22c)はカメラ12に設けられていても良いし、かご制御装置30に設けられていても良い。   Note that these functions (motion detection unit 22a, position estimation unit 22b, and ride intention estimation unit 22c) may be provided in the camera 12 or may be provided in the car control device 30.

かご制御装置30は、図示せぬエレベータ制御装置に接続され、このエレベータ制御装置との間で乗場呼びやかご呼びなどの各種信号を送受信する。なお、「乗場呼び」とは、各階の乗場15に設置された図示せぬ乗場呼び釦の操作により登録される呼びの信号のことであり、登録階と行先方向の情報を含む。「かご呼び」とは、乗りかご11のかご室内に設けられた図示せぬ行先呼び釦の操作により登録される呼びの信号のことであり、行き先階の情報を含む。   The car control device 30 is connected to an elevator control device (not shown), and transmits and receives various signals such as a hall call and a car call to and from this elevator control device. The “call hall” is a call signal registered by operating a hall call button (not shown) installed at the hall 15 on each floor, and includes information on the registered floor and the destination direction. The “car call” is a call signal registered by operating a destination call button (not shown) provided in the car room of the car 11, and includes information on the destination floor.

また、かご制御装置30は、戸開閉制御部31を備える。戸開閉制御部31は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部31は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。ただし、かごドア13の戸開中に画像処理装置20の利用者検知部22によって乗車意思のある人物が検知された場合には、戸開閉制御部31は、かごドア13の戸閉動作を禁止して戸開状態を維持する。   In addition, the car control device 30 includes a door opening / closing control unit 31. The door opening / closing control unit 31 controls the door opening / closing of the car door 13 when the car 11 arrives at the landing 15. Specifically, the door opening / closing control unit 31 opens the car door 13 when the car 11 arrives at the landing 15 and closes the door after a predetermined time has elapsed. However, when the person detection unit 22 of the image processing device 20 detects a person who intends to get in the vehicle while the car door 13 is open, the door opening / closing control unit 31 prohibits the door closing operation of the car door 13. And keep the door open.

次に、図2乃至図7を参照して本実施形態における乗車意思検知方法について説明する。   Next, a boarding intention detection method according to the present embodiment will be described with reference to FIGS.

図2はカメラ12によって撮影された画像の一例を示す図である。図中のE1は位置推定エリア、ynは利用者の足元位置が検知されたY座標を表している。図3は撮影画像をブロック単位で区切った状態を示す図である。なお、原画像を一辺Wblockの格子状に区切ったものを「ブロック」と呼ぶ。 FIG. 2 is a diagram illustrating an example of an image captured by the camera 12. In the figure, E1 represents a position estimation area, and yn represents a Y coordinate where a user's foot position is detected. FIG. 3 is a diagram illustrating a state in which the captured image is divided in units of blocks. An original image divided into a grid of one side W block is called a “block”.

カメラ12は乗りかご11の出入口上部に設置されている。したがって、乗りかご11が乗場15で戸開したときに、乗場側の所定範囲(L1)とかご内の所定範囲(L2)が撮影される。ここで、カメラ12を利用すると検知範囲が広がり、乗りかご11から少し離れた場所にいる利用者でも検知することができる。しかし、その一方で、乗りかご11に乗車しない人物を誤検知して、かごドア13を開いてしまう可能性がある。   The camera 12 is installed above the entrance of the car 11. Therefore, when the car 11 is opened at the landing 15, the predetermined range (L1) on the landing side and the predetermined range (L2) in the car are photographed. Here, when the camera 12 is used, the detection range is expanded, and even a user at a location slightly away from the car 11 can be detected. However, on the other hand, there is a possibility that a person who does not get on the car 11 is erroneously detected and the car door 13 is opened.

そこで、本システムでは、図3に示すように、カメラ12で撮影した画像を一定サイズのブロックに区切り、人・物の動きがあるブロックを検知し、その動きありのブロックを追うことで乗車意思のある利用者であるか否かを判断する構成としている。   Therefore, in this system, as shown in FIG. 3, the image captured by the camera 12 is divided into blocks of a certain size, a block with movement of a person / thing is detected, and the intention of boarding is detected by following the block with movement. It is set as the structure which judges whether it is a certain user.

なお、図3の例では、ブロックの縦横の長さが同じであるが、縦と横の長さが異なっていても良い。また、画像全域にわたってブロックを均一な大きさとしても良いし、例えば画像上部ほど縦(Y方向)の長さを短くするなどの不均一な大きさにしても良い。これらにより、後に推定する足元位置をより高い分解能もしくは実空間での均一な分解能で求めることができる(画像上で均一に区切ると、実空間ではかごドア13から遠い方ほど疎な分解能となる)。   In the example of FIG. 3, the vertical and horizontal lengths of the blocks are the same, but the vertical and horizontal lengths may be different. Further, the blocks may be uniform in size over the entire image, or may be non-uniform in size, such as shortening the length in the vertical direction (Y direction) toward the top of the image. Thus, the foot position estimated later can be obtained with a higher resolution or a uniform resolution in the real space (if it is divided uniformly on the image, the farther away from the car door 13 the sparser the resolution is in the real space). .

図4は実空間での検知エリアを説明するための図である。図5は実空間での座標系を説明するための図である。   FIG. 4 is a diagram for explaining a detection area in real space. FIG. 5 is a diagram for explaining a coordinate system in real space.

撮影画像から乗車意思のある利用者の動きを検知するため、まず、ブロック毎に動き検知エリアを設定しておく。具体的には、図4に示すように、少なくとも位置推定エリアE1と乗車意思推定エリアE2を設定しておく。位置推定エリアE1は、乗場15からかごドア13に向かってくる利用者の身体の一部、具体的には利用者の足元位置を推定するエリアである。乗車意思推定エリアE2は、位置推定エリアE1で検知された利用者に乗車意思があるか否かを推定するエリアである。なお、乗車意思推定エリアE2は、上記位置推定エリアE1に含まれ、利用者の足元位置を推定するエリアでもある。すなわち、乗車意思推定エリアE2では、利用者の足元位置を推定すると共に当該利用者の乗車意思を推定する。   In order to detect the movement of a user who intends to get on the vehicle from the captured image, first, a movement detection area is set for each block. Specifically, as shown in FIG. 4, at least a position estimation area E1 and a boarding intention estimation area E2 are set. The position estimation area E1 is an area for estimating a part of the user's body coming from the landing 15 toward the car door 13, specifically the position of the user's feet. The boarding intention estimation area E2 is an area for estimating whether or not the user detected in the position estimation area E1 has a boarding intention. The boarding intention estimation area E2 is included in the position estimation area E1 and is an area for estimating the user's foot position. That is, in the boarding intention estimation area E2, the user's stepping position is estimated and the user's boarding intention is estimated.

実空間において、位置推定エリアE1はかごドア13の中心から乗場方向に向かってL3の距離を有し、例えば2mに設定されている(L3≦乗場側の撮影範囲L1)。位置推定エリアE1の横幅W1は、かごドア13の横幅W0以上の距離に設定されている。乗車意思推定エリアE2はかごドア13の中心から乗場方向に向かってL4の距離を有し、例えば1mに設定されている(L4≦L3)。乗車意思推定エリアE2の横幅W2は、かごドア13の横幅W0と略同じ距離に設定されている。   In the real space, the position estimation area E1 has a distance L3 from the center of the car door 13 toward the landing, and is set to 2 m, for example (L3 ≦ shooting range L1 on the landing side). The lateral width W1 of the position estimation area E1 is set to a distance equal to or greater than the lateral width W0 of the car door 13. The boarding intention estimation area E2 has a distance L4 from the center of the car door 13 toward the boarding direction, and is set to 1 m, for example (L4 ≦ L3). The lateral width W2 of the boarding intention estimation area E2 is set to be approximately the same distance as the lateral width W0 of the car door 13.

なお、乗車意思推定エリアE2の横幅W2はW0よりも横幅が大きくても良い。また、乗車意思推定エリアE2は実空間で長方形ではなく、三方枠の死角を除く台形であっても良い。   The lateral width W2 of the boarding intention estimation area E2 may be larger than W0. Further, the boarding intention estimation area E2 may be a trapezoid excluding a blind spot in a three-sided frame instead of a rectangle in real space.

ここで、図5に示すように、カメラ12は、乗りかご11の出入口に設けられたかごドア13と水平の方向をX軸、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸、乗りかご11の高さ方向をZ軸とした画像を撮影する。このカメラ12によって撮影された各画像において、図4に示した位置推定エリアE1および乗車意思推定エリアE2の部分をブロック単位で比較することで、かごドア13の中心から乗場15の方向、つまりY軸方向に移動中の利用者の足元位置の動きを検知する。   Here, as shown in FIG. 5, the camera 12 has a horizontal direction with respect to the car door 13 provided at the entrance of the car 11 in the X axis, and from the center of the car door 13 to the landing 15 (with respect to the car door 13). The vertical direction) is taken as the Y axis, and the height direction of the car 11 is taken as the Z axis. In each image taken by the camera 12, the position estimation area E1 and the boarding intention estimation area E2 shown in FIG. 4 are compared in block units, so that the direction from the center of the car door 13 to the landing 15, that is, Y The movement of the user's foot position that is moving in the axial direction is detected.

この様子を図6および図7に示す。
図6および図7は画像比較による動き検知を説明するための図である。図6は時間tで撮影された画像の一部、図7は時間t+1で撮影された画像の一部を模式的に示している。
This state is shown in FIG. 6 and FIG.
6 and 7 are diagrams for explaining motion detection by image comparison. FIG. 6 schematically shows a part of an image taken at time t, and FIG. 7 schematically shows a part of an image taken at time t + 1.

図中のP1,P2は撮影画像上で動きありとして検知された利用者の画像部分であり、実際には画像比較により動きありとして検知されたブロックの集合体である。画像部分P1,P2の中でかごドア13に最も近い動きありのブロックBxを抽出し、そのブロックBxのY座標を追うことで乗車意思の有無を判定する。この場合、Y軸方向に点線で示すような等距離線(かごドア13と平行な等間隔の水平線)を引けば、ブロックBxとかごドア13とのY軸方向の距離が分かる。   P1 and P2 in the figure are user image portions detected as having motion on the photographed image, and are actually a collection of blocks detected as having motion by image comparison. A block Bx having a motion closest to the car door 13 is extracted from the image portions P1 and P2, and the presence or absence of a ride is determined by following the Y coordinate of the block Bx. In this case, the distance in the Y-axis direction between the block Bx and the car door 13 can be determined by drawing equidistant lines (horizontal lines at equal intervals parallel to the car door 13) as indicated by dotted lines in the Y-axis direction.

図6および図7の例では、かごドア13に最も近い動きありのブロックBxの検知位置がy→yn−1に変化しており、利用者がかごドア13に近づいてくることがわかる。 In the example of FIG. 6 and FIG. 7, the detection position of the block Bx of the most close motion to the car door 13 is changed to y n → y n-1, it can be seen that the user approaches the car door 13 .

次に、本システムの動作について詳しく説明する。
図8は本システムにおける全体の処理の流れを示すフローチャートである。
乗りかご11が任意の階の乗場15に到着すると(ステップS11のYes)、かご制御装置30は、かごドア13を戸開して乗りかご11に乗車する利用者を待つ(ステップS12)。
Next, the operation of this system will be described in detail.
FIG. 8 is a flowchart showing the overall processing flow in this system.
When the car 11 arrives at the landing 15 on an arbitrary floor (Yes in Step S11), the car control device 30 opens the car door 13 and waits for a user to get on the car 11 (Step S12).

このとき、乗りかご11の出入口上部に設置されたカメラ12によって乗場側の所定範囲(L1)とかご内の所定範囲(L2)が所定のフレームレート(例えば30コマ/秒)で撮影される。画像処理装置20は、カメラ12で撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS13)、以下のような利用者検知処理をリアルタイムで実行する(ステップS14)。   At this time, a predetermined range (L1) on the landing side and a predetermined range (L2) in the car are photographed at a predetermined frame rate (for example, 30 frames / second) by the camera 12 installed in the upper part of the entrance / exit of the car 11. The image processing apparatus 20 acquires images captured by the camera 12 in time series, and sequentially stores the images in the storage unit 21 (step S13), and executes the following user detection processing in real time. (Step S14).

利用者検知処理は、画像処理装置20に備えられた利用者検知部22によって実行される。この利用者検知処理は、動き検知処理(ステップS14a)、位置推定処理(ステップS14b)、乗車意思推定処理(ステップS14c)に分けられる。   The user detection process is executed by a user detection unit 22 provided in the image processing apparatus 20. This user detection process is divided into a motion detection process (step S14a), a position estimation process (step S14b), and a boarding intention estimation process (step S14c).

(a)動き検知処理
図9は上記ステップS14aの動き検知処理を示すフローチャートである。この動き検知処理は、上記利用者検知部22の構成要素の1つである動き検知部22aで実行される。
(A) Motion Detection Processing FIG. 9 is a flowchart showing the motion detection processing in step S14a. This motion detection process is executed by the motion detection unit 22a which is one of the components of the user detection unit 22.

動き検知部22aは、記憶部21に保持された各画像を1枚ずつ読み出し、ブロック毎に平均輝度値を算出する(ステップA11)。その際、動き検知部22aは、初期値として最初の画像が入力されたときに算出されたブロック毎の平均輝度値を記憶部21内の図示せぬバッファエリアに保持しておくものとする(ステップA12)。   The motion detection unit 22a reads out each image held in the storage unit 21 one by one, and calculates an average luminance value for each block (step A11). At this time, the motion detection unit 22a holds an average luminance value for each block calculated when the first image is input as an initial value in a buffer area (not shown) in the storage unit 21 ( Step A12).

2枚目以降の画像が得られると、動き検知部22aは、現在の画像のブロック毎の平均輝度値と上記バッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較する(ステップA13)。その結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、動き検知部22aは、当該ブロックを動きありのブロックとして判定する(ステップA14)。   When the second and subsequent images are obtained, the motion detection unit 22a compares the average luminance value for each block of the current image with the average luminance value for each block of the previous image held in the buffer area. (Step A13). As a result, when there is a block having a luminance difference equal to or larger than a preset value in the current image, the motion detection unit 22a determines the block as a block with motion (step A14).

現在の画像に対する動きの有無を判定すると、動き検知部22aは、当該画像のブロック毎の平均輝度値を次の画像との比較用として上記バッファエリアに保持する(ステップA15)。   When determining the presence or absence of motion for the current image, the motion detection unit 22a holds the average luminance value for each block of the image in the buffer area for comparison with the next image (step A15).

以後同様にして、動き検知部22aは、カメラ12によって撮影された各画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。   Thereafter, in the same manner, the motion detection unit 22a repeatedly determines the presence / absence of motion while comparing the luminance value of each image taken by the camera 12 in block order in time series.

(b)位置推定処理
図10は上記ステップS14bの位置推定処理を示すフローチャートである。この位置推定処理は、上記利用者検知部22の構成要素の1つである位置推定部22bで実行される。
(B) Position Estimation Process FIG. 10 is a flowchart showing the position estimation process in step S14b. This position estimation process is executed by the position estimation unit 22b which is one of the components of the user detection unit 22.

位置推定部22bは、動き検知部22aの検知結果に基づいて現在の画像の中で動きありのブロックをチェックする(ステップB11)。その結果、図4に示した位置推定エリアE1内に動きありのブロックが存在した場合、利用者検知部22は、その動きありのブロックのうち、かごドア13に最も近いブロックを抽出する(ステップB12)。   The position estimation unit 22b checks a block with motion in the current image based on the detection result of the motion detection unit 22a (step B11). As a result, when there is a block with movement in the position estimation area E1 shown in FIG. 4, the user detection unit 22 extracts a block closest to the car door 13 from among the blocks with movement (step). B12).

ここで、図1に示したように、カメラ12は乗りかご11の出入口上部に乗場15に向けて設置されている。したがって、利用者が乗場15からかごドア13に向かっていた場合には、その利用者の右または左の足元の部分が撮影画像の一番手前つまりかごドア13側のブロックに映っている可能性が高い。そこで、位置推定部22bは、かごドア13に最も近い動きありのブロックのY座標(かごドア13の中心から乗場15方向の座標)を利用者の足元位置のデータとして求め、記憶部21内の足元位置履歴保持部21aに保持する(ステップB13)。   Here, as shown in FIG. 1, the camera 12 is installed at the upper part of the entrance / exit of the car 11 toward the landing 15. Therefore, when the user is heading toward the car door 13 from the landing 15, there is a possibility that the right or left foot portion of the user is reflected in the foreground of the photographed image, that is, in the block on the car door 13 side. Is expensive. Therefore, the position estimating unit 22b obtains the Y coordinate (the coordinate in the direction of the landing 15 from the center of the car door 13) of the block with the movement closest to the car door 13 as data of the user's foot position, and stores it in the storage unit 21. It is held in the foot position history holding unit 21a (step B13).

以後同様にして、位置推定部22bは、各画像毎にかごドア13に最も近い動きありのブロックのY座標を利用者の足元位置のデータとして求め、記憶部21内の足元位置履歴保持部21aに保持していく。なお、このような足元位置の推定処理は、位置推定エリアE1内だけでなく、乗車意思推定エリアE2内でも同様に行われている。   Thereafter, in the same manner, the position estimating unit 22b obtains the Y coordinate of the block with the movement closest to the car door 13 for each image as the data of the user's foot position, and the foot position history holding unit 21a in the storage unit 21. Keep on. Note that such a foot position estimation process is performed not only in the position estimation area E1 but also in the boarding intention estimation area E2.

(c)乗車意思推定処理
図11は上記ステップS14cの乗車意思推定処理を示すフローチャートである。この乗車意思推定処理は、上記利用者検知部22の構成要素の1つである乗車意思推定部22cで実行される。
(C) Ride intention estimation process FIG. 11 is a flowchart showing the ride intention estimation process in step S14c. This boarding intention estimation process is executed by the boarding intention estimation unit 22c, which is one of the components of the user detection unit 22.

乗車意思推定部22cは、上記足元位置履歴保持部21aに保持された各画像の利用者の足元位置のデータを平滑化する(ステップC11)。なお、平滑化の方法としては、例えば平均値フィルタやカルマンフィルタなどの一般的に知られている方法を用いるものとし、ここではその詳しい説明を省略する。   The boarding intention estimation unit 22c smoothes the user's foot position data of each image held in the foot position history holding unit 21a (step C11). As a smoothing method, for example, a generally known method such as an average value filter or a Kalman filter is used, and detailed description thereof is omitted here.

足元位置のデータを平滑化したとき、変化量が所定値以上のデータが存在した場合(ステップC12のYes)、乗車意思推定部22cは、そのデータを外れ値として除外する(ステップC13)。なお、上記所定値は、利用者の標準的な歩行速度と撮影画像のフレームレートによって決められている。また、足元位置のデータを平滑化する前に外れ値を見つけて除外しておくことでも良い。   When the data of the foot position is smoothed and there is data whose change amount is equal to or larger than the predetermined value (Yes in Step C12), the boarding intention estimation unit 22c excludes the data as an outlier (Step C13). The predetermined value is determined by the standard walking speed of the user and the frame rate of the captured image. Further, outliers may be found and excluded before the foot position data is smoothed.

図12に足元位置の変化状態を示す。横軸が時間、縦軸が位置(Y座標値)を示している。利用者が乗場15からかごドア13に向かって歩いてくる場合、時間経過に伴い、利用者の足元位置のY座標値が徐々に小さくなる。   FIG. 12 shows a change state of the foot position. The horizontal axis indicates time, and the vertical axis indicates the position (Y coordinate value). When the user walks from the landing 15 toward the car door 13, the Y coordinate value of the user's foot position gradually decreases with time.

なお、例えば車椅子等の移動体であれば点線で示すような直線的なデータ変化になるが、利用者の場合には左右の足元が交互に検知されるので、実線のように湾曲したデータ変化になる。また、検知結果に何らかのノイズが入り込むと、瞬間的な足元位置の変化量が大きくなる。このような変化量の大きい足元位置のデータは外れ値として除外しておく。   For example, in the case of a moving body such as a wheelchair, the data changes linearly as shown by the dotted line, but in the case of a user, the left and right feet are detected alternately, so the data change curved as shown by the solid line become. Further, when some noise enters the detection result, the amount of instantaneous change in the foot position increases. Such foot position data having a large change amount is excluded as an outlier.

ここで、乗車意思推定部22cは、図2に示した乗車意思推定エリアE2内の足元位置の動き(データ変化)を確認する(ステップC14)。その結果、乗車意思推定エリアE2内でY軸方向へかごドア13に向かっている利用者の足元位置の動き(データ変化)を確認できた場合には(ステップC15のYes)、乗車意思推定部22cは、当該利用者に乗車意思ありと判断する(ステップC16)。   Here, the boarding intention estimation part 22c confirms the motion (data change) of the foot position in the boarding intention estimation area E2 shown in FIG. 2 (step C14). As a result, when the movement (data change) of the user's foot position toward the car door 13 in the Y-axis direction within the boarding intention estimation area E2 can be confirmed (Yes in step C15), the boarding intention estimation unit 22c determines that the user has an intention to board (step C16).

一方、乗車意思推定エリアE2内でY軸方向にかごドア13に向かっている利用者の足元位置の動きを確認できなかった場合には(ステップC15のNo)、乗車意思推定部22cは、当該利用者に乗車意思なしと判断する(ステップC17)。   On the other hand, when the movement of the user's foot position toward the car door 13 in the Y-axis direction within the boarding intention estimation area E2 cannot be confirmed (No in Step C15), the boarding intention estimation unit 22c It is determined that the user does not intend to board (step C17).

このように、かごドア13に最も近い動きありのブロックを利用者の足元位置とみなし、その足元位置のY軸方向の時間的な変化を追跡することで利用者の乗車意思の有無を推定することができる。   In this way, the block with the movement closest to the car door 13 is regarded as the user's foot position, and the presence / absence of the user's intention to board is estimated by tracking the temporal change of the foot position in the Y-axis direction. be able to.

図8に戻って、乗車意思ありの利用者が検知されると(ステップS15のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30は、この利用者検知信号を受信することによりかごドア13の戸閉動作を禁止して戸開状態を維持する(ステップS16)。   Returning to FIG. 8, when a user with a boarding intention is detected (Yes in step S <b> 15), a user detection signal is output from the image processing device 20 to the car control device 30. Upon receiving this user detection signal, the car control device 30 prohibits the door closing operation of the car door 13 and maintains the door open state (step S16).

詳しくは、かごドア13が全戸開状態になると、かご制御装置30は戸開時間のカウント動作を開始し、所定の時間T(例えば1分)分をカウントした時点で戸閉を行う。この間に乗車意思ありの利用者が検知され、利用者検知信号が送られてくると、かご制御装置30はカウント動作を停止してカウント値をクリアする。これにより、上記時間Tの間、かごドア13の戸開状態が維持されることになる。   Specifically, when the car door 13 is fully opened, the car control device 30 starts the door opening time counting operation and closes the door when the predetermined time T (for example, 1 minute) is counted. During this time, when a user who has a boarding intention is detected and a user detection signal is sent, the car control device 30 stops the count operation and clears the count value. Thereby, the door open state of the car door 13 is maintained during the time T.

なお、この間に新たな乗車意思ありの利用者が検知されると、再度カウント値がクリアされ、上記時間Tの間、かごドア13の戸開状態が維持されることになる。ただし、上記時間Tの間に何度も利用者が来てしまうと、かごドア13をいつまでも戸閉できない状況が続いてしまうので、許容時間Tx(例えば3分)を設けておき、この許容時間Txを経過した場合にかごドア13を強制的に戸閉することが好ましい。   If a user with a new intention to board is detected during this period, the count value is cleared again, and the car door 13 is kept open for the time T. However, if the user comes many times during the time T, a situation in which the car door 13 cannot be closed indefinitely continues. Therefore, an allowable time Tx (for example, 3 minutes) is provided, and this allowable time is set. It is preferable to forcibly close the car door 13 when Tx has elapsed.

上記時間T分のカウント動作が終了すると(ステップS17)、かご制御装置30はかごドア13を戸閉し、乗りかご11を目的階に向けて出発させる(ステップS18)。   When the counting operation for the time T is completed (step S17), the car control device 30 closes the car door 13 and leaves the car 11 toward the destination floor (step S18).

このように本実施形態によれば、乗りかご11の出入口上部に設置したカメラ12によって乗場15を撮影した画像を解析することにより、例えば乗りかご11から少し離れた場所からかごドア13に向かって来る利用者を検知して戸開閉動作に反映させることができる。   As described above, according to the present embodiment, by analyzing the image obtained by photographing the landing 15 with the camera 12 installed at the upper part of the entrance / exit of the car 11, for example, from the place slightly away from the car 11 toward the car door 13. It is possible to detect an incoming user and reflect it in the door opening / closing operation.

また、上記実施形態では乗場15で乗りかご11のかごドア13が戸開している状態を想定して説明したが、かごドア13が戸閉中であっても、カメラ12によって撮影された画像を用いて乗車意思のある利用者の有無が検知される。乗車意思のある利用者が検知されると、かご制御装置30の戸開閉制御部31によってかごドア13の戸閉動作が中断され、再度戸開動作が行われる。   Moreover, although the said embodiment demonstrated the state where the car door 13 of the passenger car 11 was opened at the landing 15, the image photographed by the camera 12 even when the car door 13 is closed. Is used to detect the presence or absence of a user who intends to get on. When a user who intends to get on is detected, the door opening / closing control unit 31 of the car control device 30 interrupts the door closing operation of the car door 13 and performs the door opening operation again.

以下に、図13のフローチャートを参照して、戸閉中の処理動作について説明する。
乗りかご11のかごドア13が全戸開の状態から所定の時間が経過すると、戸開閉制御部31によって戸閉動作が開始される(ステップS21)。このとき、カメラ12の撮影動作は継続的に行われている。上記画像処理装置20は、このカメラ12によって撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS22)、利用者検知処理をリアルタイムで実行する(ステップS23)。
The processing operation during door closing will be described below with reference to the flowchart of FIG.
When a predetermined time has elapsed since the car door 13 of the car 11 is fully open, the door opening / closing control unit 31 starts a door closing operation (step S21). At this time, the photographing operation of the camera 12 is continuously performed. The image processing device 20 acquires images taken by the camera 12 in time series, and sequentially stores these images in the storage unit 21 (step S22), and executes user detection processing in real time (step S22). S23).

利用者検知処理は、画像処理装置20に備えられた利用者検知部22によって実行される。この利用者検知処理は、動き検知処理(ステップS23a)、位置推定処理(ステップS23b)、乗車意思推定処理(ステップS23c)に分けられる。なお、これらの処理は、図8のステップS14a,S14b,S14cと同様であるため、その詳しい説明は省略する。   The user detection process is executed by a user detection unit 22 provided in the image processing apparatus 20. This user detection processing is divided into motion detection processing (step S23a), position estimation processing (step S23b), and boarding intention estimation processing (step S23c). Since these processes are the same as steps S14a, S14b, and S14c in FIG. 8, detailed description thereof is omitted.

ここで、乗車意思ありの利用者が検知されると(ステップS24のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30は、戸閉中に上記利用者検知信号を受信すると、かごドア13の戸閉動作を中断して再度戸開動作(リオープン)を行う(ステップS25)。   Here, when a user who has a boarding intention is detected (Yes in step S <b> 24), a user detection signal is output from the image processing device 20 to the car control device 30. When receiving the user detection signal while the door is closed, the car control device 30 interrupts the door closing operation of the car door 13 and performs the door opening operation (reopening) again (step S25).

以降は、図8のステップS12に戻って上記同様の処理が繰り返される。ただし、戸閉中に乗車意思のある利用者が続けて検知されると、リオープンが繰り返され、乗りかご11の出発が遅れてしまう。したがって、乗車意思のある利用者を検知した場合でも、上述した許容時間Tx(例えば3分)が経過していれば、リオープンしないで戸閉することが好ましい。   Thereafter, the process returns to step S12 in FIG. 8 and the same processing is repeated. However, if a user who intends to get on the vehicle is continuously detected while the door is closed, the reopening is repeated and the departure of the car 11 is delayed. Accordingly, even when a user who intends to get on is detected, it is preferable to close the door without reopening if the above-described allowable time Tx (for example, 3 minutes) has elapsed.

このように、戸閉中であっても乗車意思のある利用者の有無が検知され、当該検知結果を戸開閉動作に反映させることができる。したがって、利用者が戸閉途中の乗りかご11に乗ろうとしたときにドアにぶつかってしまうような事態を回避できる。   In this way, even when the door is closed, the presence or absence of a user who intends to get on is detected, and the detection result can be reflected in the door opening / closing operation. Therefore, it is possible to avoid a situation where the user hits the door when trying to get on the car 11 in the middle of the door closing.

なお、移動体が乗りかごの近くを通り過ぎた(乗場をX軸方向に横切った)だけにも関わらず、当該移動体に乗車意思があると誤って判断してしまうことを精度良く防ぐために、位置推定部22bは、図10に示した位置推定処理に代えて、後述する位置推定処理を実行しても良い。以下では、まず、移動体が乗場をX軸方向に横切っただけにも関わらず、当該移動体に乗車意思があると誤って判断してしまう様子について説明する。   In addition, in order to accurately prevent the mobile body from erroneously determining that the mobile body has a willingness to get on despite the fact that the mobile body has passed near the car (crossed the platform in the X-axis direction), The position estimation unit 22b may execute position estimation processing described later instead of the position estimation processing illustrated in FIG. In the following, a description will be given first of how the mobile body erroneously determines that the mobile body is willing to board the vehicle, even though the mobile body has just crossed the hall in the X-axis direction.

図14乃至図16は、移動体が乗場をX軸方向に横切った場合に、動き検知部22aによって動きありとして検知されたブロックの集合体を示す。図14では時間tに撮影された画像の一部、図15では時間t+1に撮影された画像の一部、図16では時間t+2に撮影された画像の一部を模式的に示している。   FIGS. 14 to 16 show an aggregate of blocks detected as having motion by the motion detector 22a when the mobile body crosses the hall in the X-axis direction. FIG. 14 schematically shows a part of an image taken at time t, FIG. 15 schematically shows a part of an image taken at time t + 1, and FIG. 16 shows a part of an image taken at time t + 2.

図14中のP3は、撮影画像上で動きありとして検知された移動体(ここでは人物)の右足の画像部分であり、図15中のP4は、当該人物の左足の画像部分であり、図16中のP5は、当該人物の右足の画像部分である。図14および図16に示すように、時間tおよび時間t+2の撮影画像上では、乗場をX軸方向に横切った人物の左足は動きありとして検知されない。これは、右足を進行方向(X軸正方向)に出すために左足を軸足とし、左足を動かしていないことに起因する。同様に、図15に示すように、時間t+1の撮影画像上では、乗場をX軸方向に横切った人物の右足は動きありとして検知されない。これは、左足を進行方向(X軸正方向)に出すために右足を軸足とし、右足を動かしていないことに起因する。   P3 in FIG. 14 is an image part of the right foot of the moving body (here, a person) detected as having motion on the captured image, and P4 in FIG. 15 is an image part of the left foot of the person. P5 in 16 is an image portion of the right foot of the person. As shown in FIGS. 14 and 16, on the captured images at time t and time t + 2, the left foot of the person who crossed the hall in the X-axis direction is not detected as having motion. This is because the left foot is used as the axial foot and the left foot is not moved in order to move the right foot in the traveling direction (X-axis positive direction). Similarly, as shown in FIG. 15, the right foot of a person who crosses the hall in the X-axis direction is not detected as having motion on the captured image at time t + 1. This is because the right foot is used as the axial foot and the right foot is not moved in order to move the left foot in the traveling direction (X-axis positive direction).

このため、時間tおよび時間t+2の撮影画像上からは、乗場をX軸方向に横切った人物の右足の画像部分P3の一部が、かごドア13に最も近い動きありのブロックBxとして抽出される。また、時間t+1の撮影画像上からは、乗場をX軸方向に横切った人物の左足の画像部分P4の一部が、かごドア13に最も近い動きありのブロックBxとして抽出される。   For this reason, from the captured images at time t and time t + 2, a part of the image portion P3 of the right leg of the person crossing the hall in the X-axis direction is extracted as a block Bx with movement closest to the car door 13. . Further, from the photographed image at time t + 1, a part of the image portion P4 of the left foot of the person who crosses the hall in the X-axis direction is extracted as the block Bx with movement closest to the car door 13.

この場合、Y軸方向に点線で示す等距離線によれば、かごドア13に最も近い動きありのブロックBxの検知位置は、時間tから時間t+2の間に、y→ym+1→yと変化している。具体的には、かごドア13に最も近い動きありのブロックBxの検知位置は、図17に示すように、y→ym+1→y→…、のように繰り返し変化する。これによれば、利用者検知部22の乗車意思推定部22cは、人物が乗場をX軸方向に横切っただけにも関わらず、例えば時間t+1から時間t+2の間に、かごドア13に最も近い動きありのブロックBxの検知位置がY軸方向にかごドア13に向かっているので、当該人物に乗車意思があると誤って判断してしまう可能性がある。 In this case, according to the equidistant line indicated by the dotted line in the Y-axis direction, the detected position of the block Bx with the movement closest to the car door 13 is y m → y m + 1 → y m between time t and time t + 2. It has changed. Specifically, the detection position of the block Bx of the most close motion to the car door 13, as shown in FIG. 17, y m → y m + 1 → y m → ..., repeatedly changes as. According to this, the boarding intention estimation unit 22c of the user detection unit 22 is closest to the car door 13 between time t + 1 and time t + 2, for example, even though the person has just crossed the hall in the X-axis direction. Since the detection position of the block Bx with movement is directed toward the car door 13 in the Y-axis direction, there is a possibility that the person is erroneously determined to have a boarding intention.

このような誤った判断を精度良く防ぐために、位置推定部22bは、図10に示した位置推定処理に代えて、図18に示す位置推定処理を実行する。なお、図10に示す位置推定処理と同様な処理については同一の符号を付し、ここではその詳しい説明は省略する。   In order to prevent such erroneous determination with high accuracy, the position estimation unit 22b executes a position estimation process shown in FIG. 18 instead of the position estimation process shown in FIG. In addition, the same code | symbol is attached | subjected about the process similar to the position estimation process shown in FIG. 10, and the detailed description is abbreviate | omitted here.

ステップB12の後、位置推定部22bは、現在の撮影画像から所定フレーム前までの各撮影画像毎に求められた足元位置のデータ(履歴データ)を記憶部21内の足元位置履歴保持部21aから取得する(ステップB21)。   After step B12, the position estimating unit 22b obtains foot position data (history data) obtained for each captured image from the current captured image to a predetermined frame before from the foot position history holding unit 21a in the storage unit 21. Obtain (step B21).

位置推定部22bは、取得された所定フレーム前までの各足元位置のデータを参照して、現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標を補正するかどうかを決定する(ステップB22)。   The position estimation unit 22b refers to the acquired data of each foot position before the predetermined frame and determines whether to correct the Y coordinate of the block closest to the car door 13 extracted from the current photographed image. (Step B22).

具体的には、位置推定部22bは、取得された所定フレーム前までの各足元位置のデータにより各々示されるかごドア13に最も近いブロックのY座標のうち、かごドア13に最も近いY座標(すなわち、最も小さいY座標)と、現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標とを比較することで、現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標を補正するかどうかを決定する。   Specifically, the position estimator 22b includes the Y coordinate closest to the car door 13 among the Y coordinates of the block closest to the car door 13 indicated by the acquired data of each foot position up to a predetermined frame. That is, by comparing the smallest Y coordinate) with the Y coordinate of the block closest to the car door 13 extracted from the current photographed image, the block closest to the car door 13 extracted from the current photographed image is compared. Determine whether to correct the Y coordinate.

現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標を補正する場合、つまり、当該Y座標が、所定フレーム前までの足元位置のデータにより示されるY座標よりも大きい場合(ステップB22のYes)、位置推定部22bは、現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標を、所定フレーム前までの足元位置のデータにより示されるY座標に補正し、補正後のY座標を、現在の足元位置のデータとして、記憶部21内の足元位置履歴保持部21aに保持する(ステップB23)。   When correcting the Y coordinate of the block closest to the car door 13 extracted from the current photographed image, that is, when the Y coordinate is larger than the Y coordinate indicated by the foot position data up to a predetermined frame (step) (Yes in B22), the position estimation unit 22b corrects the Y coordinate of the block closest to the car door 13 extracted from the current photographed image to the Y coordinate indicated by the foot position data up to a predetermined frame before the correction. The subsequent Y coordinate is held in the foot position history holding unit 21a in the storage unit 21 as current foot position data (step B23).

一方、現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標を補正しない場合、つまり、当該Y座標が、所定フレーム前までの足元位置のデータにより示されるY座標よりも小さい場合(ステップB22のNo)、位置推定部22bは、現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標を、現在の足元位置のデータとして、記憶部21内の足元位置履歴保持部21aに保持する(ステップB24)。   On the other hand, when the Y coordinate of the block closest to the car door 13 extracted from the current photographed image is not corrected, that is, when the Y coordinate is smaller than the Y coordinate indicated by the foot position data before the predetermined frame. (No in Step B22), the position estimation unit 22b holds the foot position history in the storage unit 21 using the Y coordinate of the block closest to the car door 13 extracted from the current photographed image as the current foot position data. Held in the part 21a (step B24).

なお、上記所定フレームは、標準的な歩行周期と同程度の時間(例えば0.5秒)に相当するフレームまたは標準的な歩行周期よりも長い時間に相当するフレームに設定される。例えば、カメラ12が1秒間に30コマの画像を連続撮影可能である場合、上記所定フレームは15フレームに設定される。歩行周期とは、右足および左足の各々で1歩ずつ進むのに要する時間を示す。図14乃至図17によれば、時間tから時間t+2までの時間が歩行周期に相当する。   The predetermined frame is set to a frame corresponding to a time comparable to the standard walking cycle (for example, 0.5 seconds) or a frame corresponding to a longer time than the standard walking cycle. For example, when the camera 12 can continuously capture 30 frames of images per second, the predetermined frame is set to 15 frames. The walking cycle indicates the time required to advance one step at each of the right foot and the left foot. According to FIGS. 14 to 17, the time from time t to time t + 2 corresponds to the walking cycle.

ステップB23,B24の処理が実行されると、位置推定部22bはブロックB11に戻り、以降同様にして、人物の足元位置のデータを求め、これを記憶部21内の足元位置履歴保持部21aに保持していく。なお、足元位置履歴保持部21aは、上記所定フレーム前までの足元位置のデータを保持していれば良い。つまり、上記所定フレーム前より以前の足元位置のデータは、足元位置履歴保持部21aから適宜削除される。   When the processing of steps B23 and B24 is executed, the position estimation unit 22b returns to block B11, and thereafter, similarly, obtains the data of the person's foot position and stores it in the foot position history holding unit 21a in the storage unit 21. Hold it. Note that the foot position history holding unit 21a only needs to hold the foot position data up to the predetermined frame. That is, the foot position data before the predetermined frame is appropriately deleted from the foot position history holding unit 21a.

図18に示す位置推定処理によれば、図15に示すように、右足を軸足とし、動かしていなかったとしても、時間t+1の撮影画像から抽出されたかごドア13に最も近い動きありのブロックBxのY座標ym+1を、図14に示す時間tの撮影画像から抽出されたかごドア13に最も近い動きありのブロックBxのY座標yに補正することができる。このため、移動体が乗場をX軸方向に横切った場合のかごドア13に最も近い動きありのブロックBxの検知位置は、図19の実線部分のように一定となる。つまり、移動体が乗場をX軸方向に横切ったとしても、乗車意思推定部22cによって、当該移動体に乗車意思があると誤って判断されてしまう可能性を低減させることができる。 According to the position estimation process shown in FIG. 18, as shown in FIG. 15, even if the right foot is an axis foot and it is not moved, the block with the motion closest to the car door 13 extracted from the captured image at time t + 1. the Y-coordinate y m + 1 of Bx, can be corrected to the Y-coordinate y m of the block Bx of the most close motion or car door 13 is extracted from the time t photographed image shown in FIG. 14. For this reason, the detection position of the block Bx with the movement closest to the car door 13 when the moving body crosses the landing in the X-axis direction is constant as shown by the solid line portion in FIG. In other words, even if the mobile body crosses the hall in the X-axis direction, it is possible to reduce a possibility that the boarding intention estimation unit 22c erroneously determines that the mobile body has a boarding intention.

このように、位置推定部22bが現在の撮影画像から抽出されたかごドア13に最も近いブロックのY座標を、過去の足元位置のデータを参照して補正する機能をさらに有していることにより、乗車意思のある利用者だけを正しく高精度に検知して戸開閉動作に反映させることができる。   As described above, the position estimation unit 22b further has a function of correcting the Y coordinate of the block closest to the car door 13 extracted from the current photographed image with reference to the data of the past foot position. Only users who are willing to board can be detected correctly and accurately and reflected in the door opening / closing operation.

なお上述では、移動体が乗場をX軸方向に横切る(すなわち、乗車意思がない人物を補正対象にした)場合を想定したが、移動体がかごドア13に向かう(すなわち、乗車意思がある利用者を補正対象にした)場合も同様に、図18に示す位置推定処理により、かごドア13に最も近い動きありのブロックのY座標は補正される。具体的には、図20に示すように、時間t+1の撮影画像から抽出されたかごドア13に最も近い動きありのブロックのY座標yl+1は、時間tの撮影画像から抽出されたかごドア13に最も近い動きありのブロックのY座標yに補正される。これによれば、移動体がかごドア13に向かう場合のかごドア13に最も近い動きありのブロックの検知位置は、図20の実線部分のように階段状となる。 In the above description, it is assumed that the moving body crosses the hall in the X-axis direction (that is, a person who does not intend to ride is targeted for correction). Similarly, the Y coordinate of the block with movement closest to the car door 13 is corrected by the position estimation process shown in FIG. Specifically, as shown in FIG. 20, the Y coordinate y l + 1 of the block with movement closest to the car door 13 extracted from the captured image at time t + 1 is the car door 13 extracted from the captured image at time t. Is corrected to the Y coordinate yl of the block with motion closest to. According to this, the detection position of the block with the movement closest to the car door 13 when the moving body is directed to the car door 13 is stepped like the solid line portion of FIG.

以上述べた少なくとも1つの実施形態によれば、乗車意思のある利用者を広範囲に正確に検知してドアの開閉制御に反映させることのできるエレベータの乗車検知システムを提供することができる。   According to at least one embodiment described above, it is possible to provide an elevator boarding detection system that can accurately detect a user who has a boarding intention in a wide range and reflect it in door opening / closing control.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

11…乗りかご、12…カメラ、13…かごドア、14…乗場ドア、15…乗場、20…画像処理装置、21…記憶部、21a…足元位置履歴保持部、22…利用者検知部、22a…動き検知部、22b…位置推定部、22c…乗車意志推定部、30…かご制御装置、31…戸開閉制御部、E1…利用者位置推定エリア、E2…乗車意思推定エリア。   DESCRIPTION OF SYMBOLS 11 ... Car, 12 ... Camera, 13 ... Car door, 14 ... Landing door, 15 ... Landing place, 20 ... Image processing apparatus, 21 ... Memory | storage part, 21a ... Foot position log | history holding part, 22 ... User detection part, 22a A motion detection unit, 22b a position estimation unit, 22c a ride intention estimation unit, 30 a car control device, 31 a door opening / closing control unit, E1 a user position estimation area, E2 a ride intention estimation area.

Claims (6)

乗りかごが乗場に到着したときに、当該乗りかごのドア付近から上記乗場の方向に向けて所定の範囲を撮影可能な撮像手段と、
この撮像手段によって撮影された時系列的に連続した複数枚の画像の輝度をブロック単位で比較して人物の動きを検知する動き検知手段と、
この動き検知手段によって検知された動きありのブロックの中から上記ドアに最も近いブロックを上記画像毎に抽出し、当該ブロックにおける上記ドアの中心から上記乗場方向の座標位置を人物の位置として推定する位置推定手段と、
この位置推定手段によって推定された人物の位置を示す位置データのうち、現在から所定時間前までの位置データを履歴データとして保持する履歴保持手段と、
上記位置推定手段によって推定された人物の位置の時系列変化に基づいて利用者の乗車意思の有無を推定する乗車意思推定手段と、
この乗車意思推定手段の推定結果に基づいて上記ドアの開閉動作を制御する制御手段と
を具備し、
上記位置推定手段は、
上記履歴保持手段に保持された履歴データを参照して、上記推定された人物の位置を補正するかどうかを決定することを特徴とするエレベータの乗車検知システム。
An imaging means capable of photographing a predetermined range from the vicinity of the door of the car toward the landing when the car arrives at the landing;
A motion detecting means for detecting the motion of a person by comparing the brightness of a plurality of images taken in series in time series captured by the imaging means in block units;
The block closest to the door is extracted for each image from the blocks with motion detected by the motion detection means, and the coordinate position in the landing direction is estimated as the position of the person from the center of the door in the block. Position estimation means;
Among the position data indicating the position of the person estimated by the position estimating means, history holding means for holding position data from the present to a predetermined time before as history data;
Boarding intention estimating means for estimating the presence or absence of a user's boarding intention based on a time-series change in the position of the person estimated by the position estimating means;
Control means for controlling the opening and closing operation of the door based on the estimation result of the boarding intention estimation means,
The position estimating means includes
An elevator boarding detection system characterized by determining whether or not to correct the estimated position of the person with reference to the history data held in the history holding means.
上記位置推定手段は、
上記推定された人物の位置と、上記履歴データによって示される所定時間前までの人物の位置とを比較し、
上記履歴データによって示される人物の位置が、上記推定された人物の位置に比べて上記ドアに近い場合、上記推定された人物の位置を上記履歴データによって示される人物の位置に補正することを特徴とする請求項1に記載のエレベータの乗車検知システム。
The position estimating means includes
Compare the estimated position of the person with the position of the person up to a predetermined time indicated by the history data,
When the position of the person indicated by the history data is closer to the door than the estimated person position, the estimated person position is corrected to the person position indicated by the history data. The elevator boarding detection system according to claim 1.
上記位置推定手段は、
上記推定された人物の位置が、上記履歴データによって示される人物の位置に比べて上記ドアに近い場合、上記推定された人物の位置を補正しないことを特徴とする請求項2に記載のエレベータの乗車検知システム。
The position estimating means includes
The elevator position according to claim 2, wherein the estimated person position is not corrected when the estimated person position is closer to the door than the person position indicated by the history data. Ride detection system.
上記所定時間は、
標準的な歩行周期と同程度の時間または当該歩行周期よりも長い時間であることを特徴とする請求項1に記載のエレベータの乗車検知システム。
The predetermined time is
The elevator boarding detection system according to claim 1, characterized in that the time is equal to or longer than a standard walking cycle.
上記位置推定手段は、
上記ドアに最も近い動きのありのブロックにおける上記ドアの中心から上記乗場方向の座標位置を人物の足元位置として推定し、
上記乗車意思推定手段は、
上記人物の足元位置が予め設定されたエリア内で上記ドアに近づいている状態が検知された場合に乗車意思ありと判定することを特徴とする請求項1記載のエレベータの乗車検知システム。
The position estimating means includes
Estimating the coordinate position of the landing direction from the center of the door in the block with movement closest to the door as the foot position of the person,
The above-mentioned boarding intention estimating means is
2. The elevator boarding detection system according to claim 1, wherein it is determined that there is a willingness to ride when a state in which the foot position of the person is approaching the door is detected within a preset area.
上記撮像手段は、
上記乗りかごの出入口上部に設置され、
上記ドアと水平の方向をX軸、上記ドアの中心から上記乗場の方向をY軸、上記乗りかごの高さ方向をZ軸とした画像を撮影することを特徴とする請求項1記載のエレベータの乗車検知システム。
The imaging means is
It is installed above the entrance of the above car,
2. The elevator according to claim 1, wherein an image is taken in which the horizontal direction of the door is the X axis, the landing direction from the center of the door is the Y axis, and the height direction of the car is the Z axis. Boarding detection system.
JP2016004594A 2016-01-13 2016-01-13 Elevator boarding detection system Active JP5969147B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016004594A JP5969147B1 (en) 2016-01-13 2016-01-13 Elevator boarding detection system
CN201710025809.3A CN106966277B (en) 2016-01-13 2017-01-13 The seating detection system of elevator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016004594A JP5969147B1 (en) 2016-01-13 2016-01-13 Elevator boarding detection system

Publications (2)

Publication Number Publication Date
JP5969147B1 true JP5969147B1 (en) 2016-08-17
JP2017124898A JP2017124898A (en) 2017-07-20

Family

ID=56701578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016004594A Active JP5969147B1 (en) 2016-01-13 2016-01-13 Elevator boarding detection system

Country Status (2)

Country Link
JP (1) JP5969147B1 (en)
CN (1) CN106966277B (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106219370A (en) * 2016-08-31 2016-12-14 合肥同益信息科技有限公司 A kind of intelligent elevator control system
JP6242966B1 (en) * 2016-08-24 2017-12-06 東芝エレベータ株式会社 Elevator control system
JP6271776B1 (en) * 2017-01-17 2018-01-31 東芝エレベータ株式会社 Elevator boarding detection system
JP6270948B1 (en) * 2016-09-21 2018-01-31 東芝エレベータ株式会社 Elevator user detection system
CN108116956A (en) * 2016-11-30 2018-06-05 东芝电梯株式会社 Elevator device
CN108622751A (en) * 2017-03-24 2018-10-09 东芝电梯株式会社 The boarding detection system of elevator
WO2019015691A1 (en) * 2017-07-21 2019-01-24 奥的斯电梯公司 Automatic detection for abnormal movement of passenger in elevator
CN109809263A (en) * 2017-11-21 2019-05-28 东芝电梯株式会社 Elevator group management control system and elevator control method
JP2019102105A (en) * 2019-02-21 2019-06-24 東芝エレベータ株式会社 Image detection system
CN110526062A (en) * 2018-05-24 2019-12-03 东芝电梯株式会社 The system that calls attention to of elevator

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6517306B1 (en) * 2017-11-15 2019-05-22 東芝エレベータ株式会社 Control device and control method for elevator
EP3498644B1 (en) 2017-12-12 2021-08-18 Otis Elevator Company Method and apparatus for effectively utilizing cab space
JP6567719B1 (en) * 2018-03-22 2019-08-28 東芝エレベータ株式会社 User detection system
JP6702580B1 (en) * 2019-03-20 2020-06-03 東芝エレベータ株式会社 elevator
JP6922951B2 (en) * 2019-08-09 2021-08-18 フジテック株式会社 Image processing device and image processing method
JP6874796B2 (en) * 2019-08-09 2021-05-19 フジテック株式会社 Elevator door control device and control method
JP7074161B2 (en) * 2020-07-07 2022-05-24 フジテック株式会社 Image processing device and image processing method
JP7036244B2 (en) * 2021-02-02 2022-03-15 フジテック株式会社 Ride detection system and ride detection method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0647535U (en) * 1992-12-01 1994-06-28 鉄男 中嶋 Block hole filler flow prevention tool

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE89362T1 (en) * 1988-06-03 1993-05-15 Inventio Ag METHOD AND DEVICE FOR CONTROLLING THE DOOR POSITION OF AN AUTOMATIC DOOR.
JP2006096517A (en) * 2004-09-29 2006-04-13 Mitsubishi Electric Corp Elevator control system
GB2447829B (en) * 2006-01-12 2011-11-09 Otis Elevator Co Video aided system for elevator control
CN101304939A (en) * 2006-03-20 2008-11-12 三菱电机株式会社 Elevator door device
JP5317426B2 (en) * 2007-05-01 2013-10-16 三菱電機株式会社 Elevator equipment
JP5690504B2 (en) * 2010-05-14 2015-03-25 株式会社日立製作所 Safety elevator
JP5661799B2 (en) * 2010-12-03 2015-01-28 ナブテスコ株式会社 Automatic door sensor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0647535U (en) * 1992-12-01 1994-06-28 鉄男 中嶋 Block hole filler flow prevention tool

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6242966B1 (en) * 2016-08-24 2017-12-06 東芝エレベータ株式会社 Elevator control system
CN106219370A (en) * 2016-08-31 2016-12-14 合肥同益信息科技有限公司 A kind of intelligent elevator control system
JP6270948B1 (en) * 2016-09-21 2018-01-31 東芝エレベータ株式会社 Elevator user detection system
JP2018047993A (en) * 2016-09-21 2018-03-29 東芝エレベータ株式会社 User detection system for elevator
CN108116956B (en) * 2016-11-30 2019-10-18 东芝电梯株式会社 Elevator device
CN108116956A (en) * 2016-11-30 2018-06-05 东芝电梯株式会社 Elevator device
JP2018090351A (en) * 2016-11-30 2018-06-14 東芝エレベータ株式会社 Elevator system
JP6271776B1 (en) * 2017-01-17 2018-01-31 東芝エレベータ株式会社 Elevator boarding detection system
CN108622751A (en) * 2017-03-24 2018-10-09 东芝电梯株式会社 The boarding detection system of elevator
WO2019015691A1 (en) * 2017-07-21 2019-01-24 奥的斯电梯公司 Automatic detection for abnormal movement of passenger in elevator
CN109279466A (en) * 2017-07-21 2019-01-29 奥的斯电梯公司 The extremely mobile automatic detection of elevator passenger
CN109279466B (en) * 2017-07-21 2021-08-17 奥的斯电梯公司 Automatic detection of abnormal movement of elevator passengers
CN109809263A (en) * 2017-11-21 2019-05-28 东芝电梯株式会社 Elevator group management control system and elevator control method
JP2019094157A (en) * 2017-11-21 2019-06-20 東芝エレベータ株式会社 Elevator group management control system and elevator control method
CN109809263B (en) * 2017-11-21 2021-10-01 东芝电梯株式会社 Elevator group management control system and elevator control method
CN110526062A (en) * 2018-05-24 2019-12-03 东芝电梯株式会社 The system that calls attention to of elevator
JP2019102105A (en) * 2019-02-21 2019-06-24 東芝エレベータ株式会社 Image detection system

Also Published As

Publication number Publication date
JP2017124898A (en) 2017-07-20
CN106966277A (en) 2017-07-21
CN106966277B (en) 2018-12-25

Similar Documents

Publication Publication Date Title
JP5969147B1 (en) Elevator boarding detection system
JP6092433B1 (en) Elevator boarding detection system
JP6068694B1 (en) Elevator boarding detection system
JP6377797B1 (en) Elevator boarding detection system
CN108622777B (en) Elevator riding detection system
JP6271776B1 (en) Elevator boarding detection system
JP6377795B1 (en) Elevator boarding detection system
JP6139729B1 (en) Image processing device
JP6317004B1 (en) Elevator system
JP2018090351A (en) Elevator system
JPWO2014061195A1 (en) Passenger counting system, passenger counting method and passenger counting program
CN110294391B (en) User detection system
CN109879130B (en) Image detection system
JP2018158842A (en) Image analyzer and elevator system
JP2018162114A (en) Elevator system
CN113428752B (en) User detection system for elevator
JP2018047993A (en) User detection system for elevator
CN113942905B (en) Elevator user detection system
JP6459752B2 (en) Moving object tracking device on image
WO2021090447A1 (en) Control system and control method for elevator
CN113911868B (en) Elevator user detection system
CN112441497B (en) User detection system for elevator
CN115108425B (en) Elevator user detection system
WO2022029860A1 (en) Moving body tracking system, moving body tracking device, program and moving body tracking method
US20230418916A1 (en) Authentication system, authentication method, and computer readable medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160706

R150 Certificate of patent or registration of utility model

Ref document number: 5969147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150