JP6377797B1 - Elevator boarding detection system - Google Patents

Elevator boarding detection system Download PDF

Info

Publication number
JP6377797B1
JP6377797B1 JP2017058781A JP2017058781A JP6377797B1 JP 6377797 B1 JP6377797 B1 JP 6377797B1 JP 2017058781 A JP2017058781 A JP 2017058781A JP 2017058781 A JP2017058781 A JP 2017058781A JP 6377797 B1 JP6377797 B1 JP 6377797B1
Authority
JP
Japan
Prior art keywords
user
detection
car
door
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017058781A
Other languages
Japanese (ja)
Other versions
JP2018162118A (en
Inventor
周平 野田
周平 野田
横井 謙太朗
謙太朗 横井
由香里 村田
由香里 村田
田村 聡
聡 田村
紗由美 木村
紗由美 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Elevator and Building Systems Corp
Original Assignee
Toshiba Elevator Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Elevator Co Ltd filed Critical Toshiba Elevator Co Ltd
Priority to JP2017058781A priority Critical patent/JP6377797B1/en
Priority to CN201711474231.6A priority patent/CN108622776B/en
Priority to MYPI2018700377A priority patent/MY190207A/en
Priority to SG10201800801TA priority patent/SG10201800801TA/en
Application granted granted Critical
Publication of JP6377797B1 publication Critical patent/JP6377797B1/en
Publication of JP2018162118A publication Critical patent/JP2018162118A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/02Door or gate operation
    • B66B13/14Control systems or devices
    • B66B13/143Control systems or devices electrical
    • B66B13/146Control systems or devices electrical method or algorithm for controlling doors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Elevator Door Apparatuses (AREA)
  • Cage And Drive Apparatuses For Elevators (AREA)
  • Maintenance And Inspection Apparatuses For Elevators (AREA)

Abstract

【課題】カメラによって撮影された画像を用いて利用者を検知する際に、撮影環境により利用者検知の誤作動を防ぐ。
【解決手段】一実施形態に係るエレベータの乗車検知システムは、カメラ12、利用者検知部22、戸開閉制御部31、パラメータ取得部23、誤作動防止部24を備える。パラメータ取得部23は、カメラ12から明るさ調整に関するパラメータを取得する。誤作動防止部24は、パラメータ取得部23によって得られたパラメータに基づいて、利用者検知部22に用いられる撮影画像の明るさを判断し、その判断結果に応じて利用者検知部22の誤作動を防止するための処理を実施する。
【選択図】 図1
When detecting a user using an image taken by a camera, malfunction of the user detection is prevented depending on a shooting environment.
An elevator boarding detection system according to an embodiment includes a camera, a user detection unit, a door opening / closing control unit, a parameter acquisition unit, and a malfunction prevention unit. The parameter acquisition unit 23 acquires parameters relating to brightness adjustment from the camera 12. The malfunction prevention unit 24 determines the brightness of the captured image used for the user detection unit 22 based on the parameter obtained by the parameter acquisition unit 23, and the error of the user detection unit 22 is determined according to the determination result. Implement processing to prevent operation.
[Selection] Figure 1

Description

本発明の実施形態は、乗りかごに乗車する利用者を検知するエレベータの乗車検知システムに関する。   Embodiments described herein relate generally to an elevator boarding detection system that detects a user who gets in a car.

通常、エレベータの乗りかごが乗場に到着して戸開すると、所定時間経過後に戸閉して出発する。その際、エレベータの利用者は乗りかごがいつ戸閉するのか分からないため、乗場から乗りかごに乗車するときに戸閉途中のドアにぶつかることや、挟まれることがある。   Normally, when the elevator car arrives at the landing and opens, the door is closed after a predetermined time. At that time, since the elevator user does not know when the car is closed, when the user gets on the car from the landing, the user may hit or get caught in the door.

このような乗車時における利用者とドアの衝突やドアの挟まれなどを防止するために、カメラを用いて乗場から乗りかごに向かってくる利用者を検知し、ドアの開閉制御に反映させる技術がある。   In order to prevent such a collision between the user and the door or getting caught in the door during such a ride, a technology that uses a camera to detect the user coming from the landing to the car and reflect it in the door opening / closing control There is.

特許第5977932号公報Japanese Patent No. 597932 特開2004−315186号公報JP 2004-315186 A

しかしながら、例えば乗場が極端に暗かった場合や明るかった場合など、カメラの撮影画像から利用者を正しく検知できない状況がある。このような場合、カメラによる利用者の検知精度が低下し、ドアが誤作動する可能性がある。例えば、乗場が明るすぎて、乗場に往来する人の影が撮影画像に写り込み、利用者と誤検知してドアを戸開して待機することになる。逆に、乗場が暗すぎで利用者と床面を判別できず場合には、乗りかごに乗車しようとする利用者が近付いて来ても、規定時間内にドアを戸閉してしまう。   However, there are situations in which the user cannot be detected correctly from the captured image of the camera, for example, when the landing is extremely dark or bright. In such a case, the detection accuracy of the user by the camera is lowered, and the door may malfunction. For example, because the hall is too bright, the shadow of a person coming and going to the hall is reflected in the photographed image, erroneously detected as a user, and the door is opened to wait. On the other hand, if the platform is too dark to distinguish between the user and the floor, the door will be closed within a specified time even if a user who tries to get on the car approaches.

本発明が解決しようとする課題は、カメラによって撮影された画像を用いて利用者を検知する際に、撮影環境により利用者検知の誤作動を防いで、利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることのできるエレベータの乗車検知システムを提供することである。   The problem to be solved by the present invention is that, when detecting a user using an image captured by a camera, only when the user can be detected correctly by preventing malfunction of user detection by the shooting environment, It is an object of the present invention to provide an elevator boarding detection system capable of reflecting the movement of the user in the door opening / closing control.

一実施形態に係るエレベータの乗車検知システムは、乗りかごが乗場に到着したときに、当該乗りかごのドア付近から上記乗場の方向に向けて所定の範囲を撮影可能な撮像手段と、この撮像手段によって撮影された画像を用いて利用者を検知する利用者検知手段と、この利用者検知手段の検知結果に基づいて上記ドアの開閉動作を制御する制御手段と、上記撮像手段から明るさ調整に関するパラメータを取得するパラメータ取得手段と、このパラメータ取得手段によって得られた撮影時に調整済みの上記パラメータに基づいて、上記利用者検知手段に用いられる撮影画像の明るさを判断し、当該撮影画像から利用者を正しく検知できないと判断される場合に上記利用者検知手段の誤作動を防止するための処理を実施する誤作動防止手段とを具備する。 An elevator boarding detection system according to an embodiment includes an imaging unit capable of shooting a predetermined range from the vicinity of a door of the car toward the landing when the car arrives at the landing, and the imaging unit. User detection means for detecting a user using an image taken by the user, control means for controlling the opening / closing operation of the door based on a detection result of the user detection means, and brightness adjustment from the imaging means Based on the parameter acquisition means for acquiring the parameters and the parameters adjusted by the parameter acquisition means at the time of shooting, the brightness of the shot image used for the user detection means is determined and used from the shot image ingredients and malfunction prevention means for performing the processing for preventing the malfunction of the user detecting unit when it is determined not to be correctly detect the person To.

図1は第1の実施形態に係るエレベータの乗車検知システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an elevator boarding detection system according to the first embodiment. 図2は同実施形態におけるカメラによって撮影された画像の一例を示す図である。FIG. 2 is a view showing an example of an image taken by the camera in the embodiment. 図3は同実施形態における撮影画像をブロック単位で区切った状態を示す図である。FIG. 3 is a diagram showing a state in which the captured image is divided into blocks in the embodiment. 図4は同実施形態における実空間での検知エリアを説明するための図である。FIG. 4 is a diagram for explaining a detection area in real space in the embodiment. 図5は同実施形態における実空間での座標系を説明するための図である。FIG. 5 is a diagram for explaining a coordinate system in the real space in the embodiment. 図6は同実施形態における乗車検知システムの全開中の利用者検知処理を示すフローチャートである。FIG. 6 is a flowchart showing a user detection process during full opening of the boarding detection system in the embodiment. 図7は同実施形態における乗車検知システムの戸閉中の利用者検知動作を示すフローチャートである。FIG. 7 is a flowchart showing a user detection operation while the door is closed in the boarding detection system according to the embodiment. 図8は同実施形態における乗場が暗すぎる場合の撮影画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a captured image when the hall in the embodiment is too dark. 図9は同実施形態における乗場が明るすぎる場合の撮影画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of a captured image when the hall is too bright in the embodiment. 図10は同実施形態における乗車検知システムの誤作動防止処理を示すフローチャートである。FIG. 10 is a flowchart showing a malfunction prevention process of the boarding detection system in the same embodiment. 図11は第2の実施形態における乗場が部分的に明るすぎる/暗すぎる場合の撮影画像の一例を示す図である。FIG. 11 is a diagram illustrating an example of a captured image when the hall in the second embodiment is partially too bright / too dark. 図12は同実施形態における乗車検知システムの誤作動防止処理を示すフローチャートである。FIG. 12 is a flowchart showing a malfunction prevention process of the boarding detection system in the same embodiment.

以下、図面を参照して実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

(第1の実施形態)
図1は第1の実施形態に係るエレベータの乗車検知システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration of an elevator boarding detection system according to the first embodiment. Note that, here, a single car will be described as an example, but a plurality of cars have the same configuration.

乗りかご11の出入口上部にカメラ12が設置されている。具体的には、乗りかご11の出入口上部を覆う幕板11aの中にカメラ12のレンズ部分を乗場15側に向けて設置されている。カメラ12は、例えば車載カメラなどの小型の監視用カメラであり、広角レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続撮影可能である。乗りかご11が各階に到着して戸開したときに、乗場15の状態を乗りかご11内のかごドア13付近の状態を含めて撮影する。   A camera 12 is installed above the entrance of the car 11. Specifically, the lens portion of the camera 12 is installed in the curtain plate 11a covering the upper part of the entrance / exit of the car 11, with the lens 15 facing the landing 15 side. The camera 12 is a small surveillance camera such as an in-vehicle camera, and has a wide-angle lens and can continuously shoot images of several frames (for example, 30 frames / second) per second. When the car 11 arrives at each floor and opens, the state of the landing 15 is photographed including the state near the car door 13 in the car 11.

このときの撮影範囲はL1+L2に調整されている(L1≫L2)。L1は乗場側の撮影範囲であり、かごドア13から乗場15に向けて例えば3mである。L2はかご側の撮影範囲であり、かごドア13からかご背面に向けて例えば50cmである。なお、L1,L2は奥行き方向の範囲であり、幅方向(奥行き方向と直交する方向)の範囲については少なくとも乗りかご11の横幅より大きいものとする。   The photographing range at this time is adjusted to L1 + L2 (L1 >> L2). L <b> 1 is a shooting range on the landing side and is, for example, 3 m from the car door 13 toward the landing 15. L2 is an imaging range on the car side, and is, for example, 50 cm from the car door 13 toward the back of the car. L1 and L2 are ranges in the depth direction, and the range in the width direction (direction orthogonal to the depth direction) is at least larger than the lateral width of the car 11.

なお、各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明において、かごドア13を戸開しているときには乗場ドア14も戸開しており、かごドア13を戸閉しているときには乗場ドア14も戸閉しているものとする。   In the landing 15 on each floor, a landing door 14 is installed at the arrival entrance of the car 11 so as to be freely opened and closed. The landing door 14 opens and closes by engaging with the car door 13 when the car 11 arrives. The power source (door motor) is on the car 11 side, and the landing door 14 simply opens and closes following the car door 13. In the following description, it is assumed that when the car door 13 is opened, the landing door 14 is also opened, and when the car door 13 is closed, the landing door 14 is also closed.

カメラ12によって撮影された各画像(映像)は、画像処理装置20によってリアルタイムに解析処理される。なお、図1では、便宜的に画像処理装置20を乗りかご11から取り出して示しているが、実際には画像処理装置20はカメラ12と共に幕板11aの中に収納されている。   Each image (video) taken by the camera 12 is analyzed and processed in real time by the image processing device 20. In FIG. 1, the image processing device 20 is taken out from the car 11 for convenience, but the image processing device 20 is actually housed in the curtain plate 11 a together with the camera 12.

ここで、画像処理装置20には、記憶部21と利用者検知部22が備えられている。記憶部21は、カメラ12によって撮影された画像を逐次保存すると共に、利用者検知部22の処理に必要なデータを一時的に保持しておくためのバッファエリアを有する。利用者検知部22は、カメラ12によって撮影された時系列的に連続した複数枚の画像の中でかごドア13に最も近い人・物の動きに着目して乗車意思のある利用者の有無を検知する。この利用者検知部22を機能的に分けると、動き検知部22a、位置推定部22b、乗車意思推定部22cで構成される。   Here, the image processing apparatus 20 includes a storage unit 21 and a user detection unit 22. The storage unit 21 has a buffer area for sequentially storing images taken by the camera 12 and temporarily holding data necessary for processing by the user detection unit 22. The user detection unit 22 pays attention to the movement of a person / thing closest to the car door 13 among a plurality of time-sequential images taken by the camera 12 and determines whether there is a user who intends to get on the vehicle. Detect. If this user detection part 22 is divided functionally, it will be comprised by the motion detection part 22a, the position estimation part 22b, and the boarding intention estimation part 22c.

動き検知部22aは、各画像の輝度をブロック単位で比較して人・物の動きを検知する。ここで言う「人・物の動き」とは、乗場15の人物や車椅子等の移動体の動きのことである。   The motion detector 22a detects the motion of a person / thing by comparing the brightness of each image in units of blocks. The “movement of a person / thing” here refers to the movement of a person on the hall 15 or a moving body such as a wheelchair.

位置推定部22bは、動き検知部22aによって各画像毎に検知された動きありのブロックの中からかごドア13に最も近いブロックを抽出し、当該ブロックにおけるかごドア13の中心(ドア間口の中心)から乗場方向の座標位置(図5に示すY座標)を利用者の位置(足元位置)として推定する。乗車意思推定部22cは、位置推定部22bによって推定された位置の時系列変化に基づいて当該利用者の乗車意思の有無を判定する。   The position estimation unit 22b extracts the block closest to the car door 13 from the blocks with movement detected for each image by the motion detection unit 22a, and the center of the car door 13 in the block (center of the door front). To the coordinate position in the hall direction (Y coordinate shown in FIG. 5) is estimated as the user's position (foot position). The boarding intention estimation part 22c determines the presence or absence of the user's boarding intention based on the time-series change of the position estimated by the position estimation part 22b.

ここで、本実施形態における画像処理装置20には、上記構成に加え、さらにパラメータ取得部23、誤作動防止部24が備えられている。   Here, in addition to the above configuration, the image processing apparatus 20 according to the present embodiment further includes a parameter acquisition unit 23 and a malfunction prevention unit 24.

パラメータ取得部23は、カメラ12から明るさ調整に関係したパラメータを取得する。「明るさ調整に関係したパラメータ」とは、具体的には露光時間、ゲイン、開口量などのことであり、これらは撮影時の明るさに応じて最適な値に自動調整される。   The parameter acquisition unit 23 acquires parameters related to brightness adjustment from the camera 12. Specifically, “parameters related to brightness adjustment” are exposure time, gain, aperture amount, and the like, and these are automatically adjusted to optimum values according to the brightness at the time of shooting.

誤作動防止部24は、パラメータ取得部23によって得られたパラメータに基づいて、利用者検知部22に用いられる撮影画像の明るさを判断し、その判断結果に応じて利用者検知部22の誤作動を防止するための処理を実施する。詳しくは、誤作動防止部24は、上記明るさ調整に関係したパラメータとして得られる露光時間、ゲイン、開口量の1つ以上を用いて、撮影画像の明るさを表わす指標値LUを算出し、その指標値LUが予め設定された上限値THaよりも高い場合あるいは下限値THbよりも低い場合に、誤作動を防止するための処理を実施する。   The malfunction prevention unit 24 determines the brightness of the captured image used for the user detection unit 22 based on the parameter obtained by the parameter acquisition unit 23, and the error of the user detection unit 22 is determined according to the determination result. Implement processing to prevent operation. Specifically, the malfunction prevention unit 24 calculates an index value LU representing the brightness of the captured image using one or more of the exposure time, gain, and aperture amount obtained as parameters related to the brightness adjustment. When the index value LU is higher than the preset upper limit value THa or lower than the lower limit value THb, processing for preventing malfunction is performed.

なお、画像処理装置20に備えられた各機能(利用者検知部22、パラメータ取得部23、誤動作防止部24)の一部あるいは全部をカメラ12に設けても良いし、かご制御装置30に設けることでも良い。 Note that some or all of the functions (user detection unit 22, parameter acquisition unit 23, malfunction prevention unit 24) provided in the image processing device 20 may be provided in the camera 12, or provided in the car control device 30. That's fine.

かご制御装置30は、図示せぬエレベータ制御装置に接続され、このエレベータ制御装置との間で乗場呼びやかご呼びなどの各種信号を送受信する。なお、「乗場呼び」とは、各階の乗場15に設置された図示せぬ乗場呼び釦の操作により登録される呼びの信号のことであり、登録階と行先方向の情報を含む。「かご呼び」とは、乗りかご11のかご室内に設けられた図示せぬ行先呼び釦の操作により登録される呼びの信号のことであり、行き先階の情報を含む。   The car control device 30 is connected to an elevator control device (not shown), and transmits and receives various signals such as a hall call and a car call to and from this elevator control device. The “call hall” is a call signal registered by operating a hall call button (not shown) installed at the hall 15 on each floor, and includes information on the registered floor and the destination direction. The “car call” is a call signal registered by operating a destination call button (not shown) provided in the car room of the car 11, and includes information on the destination floor.

また、かご制御装置30は、戸開閉制御部31を備える。戸開閉制御部31は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部31は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。ただし、かごドア13の戸開中に画像処理装置20の利用者検知部22によって乗車意思のある人物が検知された場合には、戸開閉制御部31は、かごドア13の戸閉動作を禁止して戸開状態を維持する。   In addition, the car control device 30 includes a door opening / closing control unit 31. The door opening / closing control unit 31 controls the door opening / closing of the car door 13 when the car 11 arrives at the landing 15. Specifically, the door opening / closing control unit 31 opens the car door 13 when the car 11 arrives at the landing 15 and closes the door after a predetermined time has elapsed. However, when the person detection unit 22 of the image processing device 20 detects a person who intends to get in the vehicle while the car door 13 is open, the door opening / closing control unit 31 prohibits the door closing operation of the car door 13. And keep the door open.

図2はカメラ12によって撮影された画像の一例を示す図である。図中のE1は位置推定エリア、ynは利用者の足元位置が検知されたY座標を表している。図3は撮影画像をブロック単位で区切った状態を示す図である。なお、原画像を一辺Wblockの格子状に区切ったものを「ブロック」と呼ぶ。 FIG. 2 is a diagram illustrating an example of an image captured by the camera 12. In the figure, E1 represents a position estimation area, and yn represents a Y coordinate where a user's foot position is detected. FIG. 3 is a diagram illustrating a state in which the captured image is divided in units of blocks. An original image divided into a grid of one side W block is called a “block”.

カメラ12は乗りかご11の出入口上部に設置されている。したがって、乗りかご11が乗場15で戸開したときに、乗場側の所定範囲(L1)とかご内の所定範囲(L2)が撮影される。ここで、カメラ12を利用すると検知範囲が広がり、乗りかご11から少し離れた場所にいる利用者でも検知することができる。しかし、その一方で、乗場15を通過しただけの人物(乗りかご11に乗車しない人物)を誤検知して、かごドア13を開いてしまう可能性がある。   The camera 12 is installed above the entrance of the car 11. Therefore, when the car 11 is opened at the landing 15, the predetermined range (L1) on the landing side and the predetermined range (L2) in the car are photographed. Here, when the camera 12 is used, the detection range is expanded, and even a user at a location slightly away from the car 11 can be detected. However, on the other hand, there is a possibility that a person who has just passed through the hall 15 (person who does not get on the car 11) is erroneously detected and the car door 13 is opened.

そこで、本システムでは、図3に示すように、カメラ12で撮影した画像を一定サイズのブロックに区切り、人・物の動きがあるブロックを検知し、その動きありのブロックを追うことで乗車意思のある利用者であるか否かを判断する構成としている。   Therefore, in this system, as shown in FIG. 3, the image captured by the camera 12 is divided into blocks of a certain size, a block with movement of a person / thing is detected, and the intention of boarding is detected by following the block with movement. It is set as the structure which judges whether it is a certain user.

なお、図3の例では、ブロックの縦横の長さが同じであるが、縦と横の長さが異なっていても良い。また、画像全域に渡ってブロックを均一な大きさとしても良いし、例えば画像上部ほど縦(Y方向)の長さを短くするなどの不均一な大きさにしても良い。これらにより、後に推定する足元位置をより高い分解能もしくは実空間での均一な分解能で求めることができる(画像上で均一に区切ると、実空間ではかごドア13から遠い方ほど疎な分解能となる)。   In the example of FIG. 3, the vertical and horizontal lengths of the blocks are the same, but the vertical and horizontal lengths may be different. Further, the blocks may be uniform in size over the entire image, or may be non-uniform in size, for example, the length in the vertical direction (Y direction) is shortened toward the top of the image. Thus, the foot position estimated later can be obtained with a higher resolution or a uniform resolution in the real space (if it is divided uniformly on the image, the farther away from the car door 13 the sparser the resolution is in the real space). .

図4は実空間での検知エリアを説明するための図である。図5は実空間での座標系を説明するための図である。   FIG. 4 is a diagram for explaining a detection area in real space. FIG. 5 is a diagram for explaining a coordinate system in real space.

撮影画像から乗車意思のある利用者の動きを検知するため、まず、ブロック毎に利用者検知エリアを設定しておく。具体的には、図4に示すように、少なくとも位置推定エリアE1と乗車意思推定エリアE2を利用者検知エリアとして設定しておく。   In order to detect the movement of the user who intends to get on the board from the photographed image, first, a user detection area is set for each block. Specifically, as shown in FIG. 4, at least a position estimation area E1 and a boarding intention estimation area E2 are set as user detection areas.

位置推定エリアE1は、乗場15からかごドア13に向かってくる利用者の身体の一部、具体的には利用者の足元位置を推定するエリアである。乗車意思推定エリアE2は、位置推定エリアE1で検知された利用者に乗車意思があるか否かを推定するエリアである。なお、乗車意思推定エリアE2は、上記位置推定エリアE1に含まれ、利用者の足元位置を推定するエリアでもある。すなわち、乗車意思推定エリアE2では、利用者の足元位置を推定すると共に当該利用者の乗車意思を推定する。   The position estimation area E1 is an area for estimating a part of the user's body coming from the landing 15 toward the car door 13, specifically the position of the user's feet. The boarding intention estimation area E2 is an area for estimating whether or not the user detected in the position estimation area E1 has a boarding intention. The boarding intention estimation area E2 is included in the position estimation area E1 and is an area for estimating the user's foot position. That is, in the boarding intention estimation area E2, the user's stepping position is estimated and the user's boarding intention is estimated.

実空間において、位置推定エリアE1はかごドア13の中心から乗場方向に向かってL3の距離を有し、例えば2mに設定されている(L3≦乗場側の撮影範囲L1)。位置推定エリアE1の横幅W1は、かごドア13の横幅W0以上の距離に設定されている。乗車意思推定エリアE2はかごドア13の中心から乗場方向に向かってL4の距離を有し、例えば1mに設定されている(L4≦L3)。乗車意思推定エリアE2の横幅W2は、かごドア13の横幅W0と略同じ距離に設定されている。   In the real space, the position estimation area E1 has a distance L3 from the center of the car door 13 toward the landing, and is set to 2 m, for example (L3 ≦ shooting range L1 on the landing side). The lateral width W1 of the position estimation area E1 is set to a distance equal to or greater than the lateral width W0 of the car door 13. The boarding intention estimation area E2 has a distance L4 from the center of the car door 13 toward the boarding direction, and is set to 1 m, for example (L4 ≦ L3). The lateral width W2 of the boarding intention estimation area E2 is set to be approximately the same distance as the lateral width W0 of the car door 13.

なお、乗車意思推定エリアE2の横幅W2はW0の横幅と同じか、あるいはW0の横幅よりも少し広くても良い。また、位置推定エリアE1および乗車意思推定エリアE2は実空間で図中の点線で示すような矩形ではなく、乗場側に設置された三方枠の両側の死角を除く台形であっても良い。   The lateral width W2 of the boarding intention estimation area E2 may be the same as the lateral width of W0 or may be a little wider than the lateral width of W0. Further, the position estimation area E1 and the boarding intention estimation area E2 may be trapezoids excluding the blind spots on both sides of the three-sided frame installed on the landing side, instead of the rectangle as shown by the dotted line in the drawing in the real space.

また、利用者検知エリアをさらに細かく分けて、かごドア13の手前に近接検知エリアE3を設定しておくことでも良い。   Further, the user detection area may be further divided and the proximity detection area E3 may be set in front of the car door 13.

近接検知エリアE3は、利用者の足元位置を推定すると共に、当該利用者の足元位置が乗場15からかごドア13に近づいて来ているか否かに関係なく、当該利用者には乗車意思があるとみなすエリアである。近接検知エリアE3は、かごドア13の中心から乗場方向に向かってL5の距離を有し、例えば30cmに設定されている(L5≦L4)。近接検知エリアE3の横幅は、乗車意思推定エリアE2の横幅W2と同じに設定されている。   The proximity detection area E3 estimates the user's foot position, and the user has a willingness to get on regardless of whether the user's foot position is approaching the car door 13 from the landing 15 or not. It is an area to be considered. The proximity detection area E3 has a distance L5 from the center of the car door 13 toward the landing, and is set to 30 cm, for example (L5 ≦ L4). The lateral width of the proximity detection area E3 is set to be the same as the lateral width W2 of the boarding intention estimation area E2.

各利用者検知エリア(E1,E2,E3)とかご制御装置30による戸開閉制御処理との関係は次の通りとなる。   The relationship between each user detection area (E1, E2, E3) and the door opening / closing control process by the car control device 30 is as follows.

位置推定エリアE1は、当該エリアにおいて利用者が検知されたとしても、その結果がかご制御装置30による戸開閉制御処理に反映されることのないエリアである。   The position estimation area E1 is an area where even if a user is detected in the area, the result is not reflected in the door opening / closing control process by the car control device 30.

乗車意思推定エリアE2は、当該エリアにおいて利用者が検知され、かつその利用者に乗車意思がある場合に、その結果がかご制御装置30による戸開閉制御処理に反映されるエリアである。具体的には、かご制御装置30により戸開時間を延長する等の処理が実行される。   The boarding intention estimation area E2 is an area in which, when a user is detected in the area and the user has a boarding intention, the result is reflected in the door opening / closing control process by the car control device 30. Specifically, processing such as extending the door opening time is executed by the car control device 30.

近接検知エリアE3は、当該エリアにおいて利用者が検知されただけで、その結果がかご制御装置30による戸開閉制御処理に反映されるエリアである。具体的には、かご制御装置30により戸開時間を延長する等の処理が実行される。   The proximity detection area E3 is an area in which the user is detected in the area and the result is reflected in the door opening / closing control process by the car control device 30. Specifically, processing such as extending the door opening time is executed by the car control device 30.

ここで、図5に示すように、カメラ12は、乗りかご11の出入口に設けられたかごドア13と水平の方向をX軸、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸、乗りかご11の高さ方向をZ軸とした画像を撮影する。このカメラ12によって撮影された各画像において、図4に示した位置推定エリアE1および乗車意思推定エリアE2の部分をブロック単位で比較することで、かごドア13の中心から乗場15の方向、つまりY軸方向に移動中の利用者の足元位置の動きを検知する。   Here, as shown in FIG. 5, the camera 12 has a horizontal direction with respect to the car door 13 provided at the entrance of the car 11 in the X axis, and from the center of the car door 13 to the landing 15 (with respect to the car door 13). The vertical direction) is taken as the Y axis, and the height direction of the car 11 is taken as the Z axis. In each image taken by the camera 12, the position estimation area E1 and the boarding intention estimation area E2 shown in FIG. 4 are compared in block units, so that the direction from the center of the car door 13 to the landing 15, that is, Y The movement of the user's foot position that is moving in the axial direction is detected.

次に、本システムの動作について詳しく説明する。   Next, the operation of this system will be described in detail.

(全開中の利用者検知動作)
図6は本システムにおける全開中の利用者検知処理を示すフローチャートである。
(User detection operation when fully open)
FIG. 6 is a flowchart showing user detection processing during full opening in this system.

乗りかご11が任意の階の乗場15に到着すると(ステップS11のYes)、かご制御装置30は、かごドア13を戸開して乗りかご11に乗車する利用者を待つ(ステップS12)。   When the car 11 arrives at the landing 15 on an arbitrary floor (Yes in Step S11), the car control device 30 opens the car door 13 and waits for a user to get on the car 11 (Step S12).

このとき、乗りかご11の出入口上部に設置されたカメラ12によって乗場側の所定範囲(L1)とかご内の所定範囲(L2)が所定のフレームレート(例えば30コマ/秒)で撮影される。画像処理装置20は、カメラ12で撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS13)、以下のような利用者検知処理をリアルタイムで実行する(ステップS14)。   At this time, a predetermined range (L1) on the landing side and a predetermined range (L2) in the car are photographed at a predetermined frame rate (for example, 30 frames / second) by the camera 12 installed in the upper part of the entrance / exit of the car 11. The image processing apparatus 20 acquires images captured by the camera 12 in time series, and sequentially stores the images in the storage unit 21 (step S13), and executes the following user detection processing in real time. (Step S14).

利用者検知処理は、画像処理装置20に備えられた利用者検知部22によって実行される。この利用者検知処理は、以下のように動き検知処理(ステップS14a)、位置推定処理(ステップS14b)、乗車意思推定処理(ステップS14c)に分けられる。   The user detection process is executed by a user detection unit 22 provided in the image processing apparatus 20. This user detection process is divided into a motion detection process (step S14a), a position estimation process (step S14b), and a boarding intention estimation process (step S14c) as follows.

(a)動き検知処理
この動き検知処理は、上記利用者検知部22の構成要素の1つである動き検知部22aで実行される。
(A) Motion Detection Processing This motion detection processing is executed by the motion detection unit 22a that is one of the components of the user detection unit 22.

動き検知部22aは、記憶部21に保持された各画像を1枚ずつ読み出し、ブロック毎に平均輝度値を算出する。その際、動き検知部22aは、初期値として最初の画像が入力されたときに算出されたブロック毎の平均輝度値を記憶部21内の図示せぬ第1のバッファエリアに保持しておくものとする。2枚目以降の画像が得られると、動き検知部22aは、現在の画像のブロック毎の平均輝度値と上記第1のバッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較する。その結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、動き検知部22aは、当該ブロックを動きありのブロックとして判定する。   The motion detection unit 22a reads out each image held in the storage unit 21 one by one, and calculates an average luminance value for each block. At this time, the motion detection unit 22a holds an average luminance value for each block calculated when the first image is input as an initial value in a first buffer area (not shown) in the storage unit 21. And When the second and subsequent images are obtained, the motion detection unit 22a determines the average luminance value for each block of the current image and the average luminance value for each block of the previous image held in the first buffer area. And compare. As a result, when there is a block having a luminance difference equal to or larger than a preset value in the current image, the motion detection unit 22a determines the block as a block with motion.

現在の画像に対する動きの有無を判定すると、動き検知部22aは、当該画像のブロック毎の平均輝度値を次の画像との比較用として上記第1のバッファエリアに保持する。以後同様にして、動き検知部22aは、カメラ12によって撮影された各画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。   When the presence / absence of motion with respect to the current image is determined, the motion detection unit 22a holds the average luminance value for each block of the image in the first buffer area for comparison with the next image. Thereafter, in the same manner, the motion detection unit 22a repeatedly determines the presence / absence of motion while comparing the luminance value of each image taken by the camera 12 in block order in time series.

(b)位置推定処理
この位置推定処理は、上記利用者検知部22の構成要素の1つである位置推定部22bで実行される。
(B) Position Estimation Process This position estimation process is executed by the position estimation unit 22b that is one of the components of the user detection unit 22.

位置推定部22bは、動き検知部22aの検知結果に基づいて現在の画像の中で動きありのブロックをチェックする。その結果、図4に示した位置推定エリアE1内に動きありのブロックが存在した場合、利用者検知部22は、その動きありのブロックのうち、かごドア13に最も近いブロックを抽出する。   The position estimation unit 22b checks a block with motion in the current image based on the detection result of the motion detection unit 22a. As a result, when there is a block with movement in the position estimation area E1 shown in FIG. 4, the user detection unit 22 extracts a block closest to the car door 13 from the blocks with movement.

ここで、図1に示したように、カメラ12は乗りかご11の出入口上部に乗場15に向けて設置されている。したがって、利用者が乗場15からかごドア13に向かっていた場合には、その利用者の右または左の足元の部分が撮影画像の一番手前つまりかごドア13側のブロックに映っている可能性が高い。そこで、位置推定部22bは、かごドア13に最も近い動きありのブロックのY座標(かごドア13の中心から乗場15方向の座標)を利用者の足元位置のデータとして求め、記憶部21内の図示せぬ第2のバッファエリアに保持する。   Here, as shown in FIG. 1, the camera 12 is installed at the upper part of the entrance / exit of the car 11 toward the landing 15. Therefore, when the user is heading toward the car door 13 from the landing 15, there is a possibility that the right or left foot portion of the user is reflected in the foreground of the photographed image, that is, in the block on the car door 13 side. Is expensive. Therefore, the position estimating unit 22b obtains the Y coordinate (the coordinate in the direction of the landing 15 from the center of the car door 13) of the block with the movement closest to the car door 13 as data of the user's foot position, It is held in a second buffer area (not shown).

以後同様にして、位置推定部22bは、各画像毎にかごドア13に最も近い動きありのブロックのY座標を利用者の足元位置のデータとして求め、記憶部21内の図示せぬ第2のバッファエリアに保持していく。なお、このような足元位置の推定処理は、位置推定エリアE1内だけでなく、乗車意思推定エリアE2内でも同様に行われている。   Thereafter, in the same manner, the position estimation unit 22b obtains the Y coordinate of the block with the movement closest to the car door 13 for each image as the data of the user's foot position, and the second unillustrated second data in the storage unit 21 is obtained. Keep it in the buffer area. Note that such a foot position estimation process is performed not only in the position estimation area E1 but also in the boarding intention estimation area E2.

(c)乗車意思推定処理
この乗車意思推定処理は、上記利用者検知部22の構成要素の1つである乗車意思推定部22cで実行される。
(C) Boarding intention estimation process This boarding intention estimation process is performed by the boarding intention estimation part 22c which is one of the components of the said user detection part 22. FIG.

乗車意思推定部22cは、上記第2のバッファエリアに保持された各画像の利用者の足元位置のデータを平滑化する。なお、平滑化の方法としては、例えば平均値フィルタやカルマンフィルタなどの一般的に知られている方法を用いるものとし、ここではその詳しい説明を省略する。   The boarding intention estimation part 22c smoothes the data of the user's foot position of each image held in the second buffer area. As a smoothing method, for example, a generally known method such as an average value filter or a Kalman filter is used, and detailed description thereof is omitted here.

足元位置のデータを平滑化したとき、変化量が所定値以上のデータが存在した場合、乗車意思推定部22cは、そのデータを外れ値として除外する。なお、上記所定値は、利用者の標準的な歩行速度と撮影画像のフレームレートによって決められている。また、足元位置のデータを平滑化する前に外れ値を見つけて除外しておくことでも良い。   When the data at the foot position is smoothed and there is data whose change amount is equal to or greater than a predetermined value, the boarding intention estimation unit 22c excludes the data as an outlier. The predetermined value is determined by the standard walking speed of the user and the frame rate of the captured image. Further, outliers may be found and excluded before the foot position data is smoothed.

利用者が乗場15からかごドア13に向かって歩いてくる場合、時間経過に伴い、利用者の足元位置のY座標値が徐々に小さくなる。なお、例えば車椅子等の移動体であれば点線で示すような直線的なデータ変化になるが、利用者の場合には左右の足元が交互に検知されるので、実線のように湾曲したデータ変化になる。また、検知結果に何らかのノイズが入り込むと、瞬間的な足元位置の変化量が大きくなる。このような変化量の大きい足元位置のデータは外れ値として除外しておく。   When the user walks from the landing 15 toward the car door 13, the Y coordinate value of the user's foot position gradually decreases with time. For example, in the case of a moving body such as a wheelchair, the data changes linearly as shown by the dotted line, but in the case of a user, the left and right feet are detected alternately, so the data change curved as shown by the solid line become. Further, when some noise enters the detection result, the amount of instantaneous change in the foot position increases. Such foot position data having a large change amount is excluded as an outlier.

ここで、乗車意思推定部22cは、図2に示した乗車意思推定エリアE2内の足元位置の動き(データ変化)を確認する。その結果、乗車意思推定エリアE2内でY軸方向へかごドア13に向かっている利用者の足元位置の動き(データ変化)を確認できた場合には、乗車意思推定部22cは、当該利用者に乗車意思ありと判断する。   Here, the boarding intention estimation part 22c confirms the motion (data change) of the foot position in the boarding intention estimation area E2 shown in FIG. As a result, if the movement (data change) of the user's foot position toward the car door 13 in the Y-axis direction within the boarding intention estimation area E2 can be confirmed, the boarding intention estimation unit 22c It is determined that there is a willingness to get on.

一方、乗車意思推定エリアE2内でY軸方向にかごドア13に向かっている利用者の足元位置の動きを確認できなかった場合には、乗車意思推定部22cは、当該利用者に乗車意思なしと判断する。例えば、乗りかご11の正面を人物がX軸方向に横切ると、乗車意思推定エリアE2内でY軸方向に時間的に変化しない足元位置が検知される。このような場合には乗車意思なしと判断される。   On the other hand, when the movement of the user's foot position toward the car door 13 in the Y-axis direction in the boarding intention estimation area E2 cannot be confirmed, the boarding intention estimation unit 22c does not make a boarding intention to the user. Judge. For example, when a person crosses the front of the car 11 in the X-axis direction, a foot position that does not change in time in the Y-axis direction in the boarding intention estimation area E2 is detected. In such a case, it is determined that there is no intention to board.

このように、かごドア13に最も近い動きありのブロックを利用者の足元位置とみなし、その足元位置のY軸方向の時間的な変化を追跡することで利用者の乗車意思の有無を推定することができる。   In this way, the block with the movement closest to the car door 13 is regarded as the user's foot position, and the presence / absence of the user's intention to board is estimated by tracking the temporal change of the foot position in the Y-axis direction. be able to.

乗車意思ありの利用者が検知されると(ステップS15のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30は、この利用者検知信号を受信することによりかごドア13の戸閉動作を禁止して戸開状態を維持する(ステップS16)。   When a user with a boarding intention is detected (Yes in step S15), a user detection signal is output from the image processing device 20 to the car control device 30. Upon receiving this user detection signal, the car control device 30 prohibits the door closing operation of the car door 13 and maintains the door open state (step S16).

詳しくは、かごドア13が全戸開状態になると、かご制御装置30は戸開時間のカウント動作を開始し、所定の時間T(例えば1分)分をカウントした時点で戸閉を行う。この間に乗車意思ありの利用者が検知され、利用者検知信号が送られてくると、かご制御装置30はカウント動作を停止してカウント値をクリアする。これにより、上記時間Tの間、かごドア13の戸開状態が維持されることになる。   Specifically, when the car door 13 is fully opened, the car control device 30 starts the door opening time counting operation and closes the door when the predetermined time T (for example, 1 minute) is counted. During this time, when a user who has a boarding intention is detected and a user detection signal is sent, the car control device 30 stops the count operation and clears the count value. Thereby, the door open state of the car door 13 is maintained during the time T.

この間に新たな乗車意思ありの利用者が検知されると、再度カウント値がクリアされ、上記時間Tの間、かごドア13の戸開状態が維持されることになる。ただし、上記時間Tの間に何度も利用者が来てしまうと、かごドア13をいつまでも戸閉できない状況が続いてしまうので、許容時間Tx(例えば3分)を設けておき、この許容時間Txを経過した場合にかごドア13を強制的に戸閉することが好ましい。   If a user with a new intention to board is detected during this time, the count value is cleared again, and the car door 13 is kept open for the time T. However, if the user comes many times during the time T, a situation in which the car door 13 cannot be closed indefinitely continues. Therefore, an allowable time Tx (for example, 3 minutes) is provided, and this allowable time is set. It is preferable to forcibly close the car door 13 when Tx has elapsed.

上記時間T分のカウント動作が終了すると(ステップS17)、かご制御装置30はかごドア13を戸閉し、乗りかご11を目的階に向けて出発させる(ステップS18)。   When the counting operation for the time T is completed (step S17), the car control device 30 closes the car door 13 and leaves the car 11 toward the destination floor (step S18).

なお、図4に示した近接検知エリアE3が設定されている場合には、乗車意思推定部22cは、当該近接検知エリアE3内で利用者の足元位置を確認すると、当該利用者の足元位置が乗場15からかごドア13に近づいて来ているか否かに関係なく、乗車意思があるとみなして処理することになる。   If the proximity detection area E3 shown in FIG. 4 is set, the boarding intention estimation unit 22c confirms the user's foot position in the proximity detection area E3, and the user's foot position is determined. Regardless of whether or not the car door 13 is approaching from the landing 15, it is assumed that there is a boarding intention and is processed.

このように、乗りかご11の出入口上部に設置したカメラ12によって乗場15を撮影した画像を解析することにより、例えば乗りかご11から少し離れた場所からかごドア13に向かって来る利用者を検知して戸開閉動作に反映させることができる。   In this way, by analyzing an image obtained by capturing the landing 15 with the camera 12 installed at the upper part of the entrance of the car 11, for example, a user coming toward the car door 13 from a place slightly away from the car 11 is detected. Can be reflected in the door opening and closing operation.

特に、撮影画像の中で利用者の足元位置に注視し、かごドア13から乗場15に向かう方向(Y軸方向)の足元位置の時間的変化を追うことで、例えば乗りかごの近くを通り過ぎただけの人物を誤検知することを防ぎ、乗車意思のある利用者だけを正しく検知して戸開閉動作に反映させることができる。この場合、乗車意思のある利用者が検知されている間は戸開状態が維持されるので、利用者が乗りかご11に乗ろうとしたときに戸閉動作が開始されてドアにぶつかってしまうような事態を回避できる。   In particular, by watching the user's foot position in the captured image and following the temporal change in the foot position in the direction from the car door 13 toward the landing 15 (Y-axis direction), the vehicle passes, for example, near the car. It is possible to prevent erroneous detection of only a person, and to correctly detect only a user who intends to get on and reflect it in the door opening / closing operation. In this case, the door open state is maintained while a user who intends to get on is detected, so that when the user tries to get on the car 11, a door closing operation is started and the door is hit. Can avoid the situation.

(戸閉中の利用者検知動作)
図6のフローチャートでは、乗場15で乗りかご11のかごドア13が戸開している状態を想定して説明したが、かごドア13が戸閉中(戸閉途中)であっても、カメラ12によって撮影された画像を用いて乗車意思のある利用者の有無が検知される。乗車意思のある利用者が検知されると、かご制御装置30の戸開閉制御部31によってかごドア13の戸閉動作が中断され、再度戸開動作が行われる。
(User detection when the door is closed)
In the flowchart of FIG. 6, the description has been made assuming that the car door 13 of the car 11 is open at the landing 15. However, even when the car door 13 is closed (in the middle of closing), the camera 12 The presence / absence of a user who intends to get on the vehicle is detected using the image taken by the above. When a user who intends to get on is detected, the door opening / closing control unit 31 of the car control device 30 interrupts the door closing operation of the car door 13 and performs the door opening operation again.

図7は本システムにおける戸閉中の利用者検知動作を示すフローチャートである。   FIG. 7 is a flowchart showing the user detection operation when the door is closed in this system.

乗りかご11のかごドア13が全戸開の状態から所定の時間が経過すると、戸開閉制御部31によって戸閉動作が開始される(ステップS21)。このとき、カメラ12の撮影動作は継続的に行われている。上記画像処理装置20は、このカメラ12によって撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS22)、利用者検知処理をリアルタイムで実行する(ステップS23)。   When a predetermined time has elapsed since the car door 13 of the car 11 is fully open, the door opening / closing control unit 31 starts a door closing operation (step S21). At this time, the photographing operation of the camera 12 is continuously performed. The image processing device 20 acquires images taken by the camera 12 in time series, and sequentially stores these images in the storage unit 21 (step S22), and executes user detection processing in real time (step S22). S23).

利用者検知処理は、画像処理装置20に備えられた利用者検知部22によって実行される。この利用者検知処理は、動き検知処理(ステップS23a)、位置推定処理(ステップS23b)、乗車意思推定処理(ステップS23c)に分けられる。なお、これらの処理は、上記図6のステップS14a,S14b,S14cと同様であるため、その詳しい説明は省略する。   The user detection process is executed by a user detection unit 22 provided in the image processing apparatus 20. This user detection processing is divided into motion detection processing (step S23a), position estimation processing (step S23b), and boarding intention estimation processing (step S23c). Since these processes are the same as steps S14a, S14b, and S14c in FIG. 6, detailed description thereof is omitted.

ここで、乗車意思ありの利用者が検知されると(ステップS24のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30は、戸閉中に上記利用者検知信号を受信すると、かごドア13の戸閉動作を中断して再度戸開動作(リオープン)を行う(ステップS25)。   Here, when a user who has a boarding intention is detected (Yes in step S <b> 24), a user detection signal is output from the image processing device 20 to the car control device 30. When receiving the user detection signal while the door is closed, the car control device 30 interrupts the door closing operation of the car door 13 and performs the door opening operation (reopening) again (step S25).

以後は、上記同様の処理が繰り返される。ただし、戸閉中に乗車意思のある利用者が続けて検知されると、リオープンが繰り返され、乗りかご11の出発が遅れてしまう。したがって、乗車意思のある利用者を検知した場合でも、上述した許容時間Tx(例えば3分)が経過していれば、リオープンしないで戸閉することが好ましい。   Thereafter, the same processing as described above is repeated. However, if a user who intends to get on the vehicle is continuously detected while the door is closed, the reopening is repeated and the departure of the car 11 is delayed. Accordingly, even when a user who intends to get on is detected, it is preferable to close the door without reopening if the above-described allowable time Tx (for example, 3 minutes) has elapsed.

なお、図4に示した近接検知エリアE3が設定されている場合は、乗車意思推定部22cは、当該近接検知エリアE3内で利用者の足元位置を確認すると、当該利用者の足元位置が乗場15からかごドア13に近づいて来ているか否かに関係なく、乗車意思があるとみなして処理することになる。   If the proximity detection area E3 shown in FIG. 4 is set, the boarding intention estimation unit 22c confirms the user's foot position in the proximity detection area E3, and the user's foot position is the landing. Regardless of whether or not the car door 13 is approaching from 15, it is assumed that there is an intention to get on and processing is performed.

このように、戸閉中であっても乗車意思のある利用者の有無が検知され、戸開閉動作に戸開閉動作に反映させることができる。したがって、利用者が戸閉途中の乗りかご11に乗ろうとしたときにドアにぶつかってしまうような事態を回避できる。   In this manner, even when the door is closed, the presence or absence of a user who intends to get on is detected and can be reflected in the door opening / closing operation. Therefore, it is possible to avoid a situation where the user hits the door when trying to get on the car 11 in the middle of the door closing.

(全閉または戸開中の利用者検知動作:引き込まれ検知)
かごドア13が全閉状態の場合、またはかごドア13が戸開中の場合、利用者検知エリアは乗りかご11側に設定される。図示を省略するが、乗りかご11側の利用者検知エリアは、かごドア13の中心から乗りかご15方向に向かって所定の距離(L6)を有し、例えば30cmに設定される(L6≦乗りかご11側の撮影範囲L2)。横幅はかごドア13の横幅W0と略同じである。
(User detection operation when fully closed or door open: Pulled-in detection)
When the car door 13 is in the fully closed state or when the car door 13 is open, the user detection area is set on the car 11 side. Although not shown, the user detection area on the car 11 side has a predetermined distance (L6) from the center of the car door 13 toward the car 15 and is set to 30 cm, for example (L6 ≦ ride). Shooting range L2 on the car 11 side). The lateral width is substantially the same as the lateral width W0 of the car door 13.

この乗りかご11側の利用者検知エリアは、「引き込まれ検知エリア」として用いられ、当該エリアにおいて利用者が検知された場合、その結果がかご制御装置30による戸開閉制御処理に反映される。具体的には、かご制御装置30によりかごドア13の戸開動作を禁止する、かごドア13の戸開速度を遅くする、かごドア13から離れるよう促す旨のメッセージを利用者に通知する等の処理が実行される。   The user detection area on the car 11 side is used as a “drawn detection area”, and when a user is detected in the area, the result is reflected in the door opening / closing control process by the car control device 30. Specifically, the car control device 30 prohibits the door opening operation of the car door 13, slows the door opening speed of the car door 13, notifies the user of a message prompting the user to leave the car door 13, etc. Processing is executed.

(誤作動防止処理)
本システムでは、カメラ12によって撮影された画像を用いて利用者を検知する構成のため、撮影画像の状態が利用者の検知精度を左右する。例えば、図8に示ように乗場15が暗すぎる場合や、図9に示ように乗場15が明るすぎて、人の影などが強く映り込んでしまうような場合には、撮影画像から利用者を正しく検知できず、誤作動する可能性が高まる。乗りかご11内が暗すぎる場合や明るすぎる場合も同様である。そこで、本システムでは、カメラ12によって撮影された画像が暗すぎる場合あるいは明るすぎる場合に、検知処理(センシング)を一時的に中止するか、検知結果の出力を禁じるか、あるいは、検知処理の感度を下げることで誤作動を予防する。
(Malfunction prevention processing)
In this system, since the user is detected using an image captured by the camera 12, the state of the captured image affects the detection accuracy of the user. For example, when the hall 15 is too dark as shown in FIG. 8 or when the hall 15 is too bright and people's shadows are reflected strongly as shown in FIG. Cannot be detected correctly and the possibility of malfunctioning increases. The same applies when the inside of the car 11 is too dark or too bright. Therefore, in this system, when the image captured by the camera 12 is too dark or too bright, the detection process (sensing) is temporarily stopped, the output of the detection result is prohibited, or the sensitivity of the detection process To prevent malfunction.

図10は本システムにおける誤作動防止処理を示すフローチャートである。なお、この誤作動防止処理は、図6のフローチャートではステップS13の撮影画像取得後に実行され、図7のフローチャートではステップS22の撮影画像取得後に実行される。   FIG. 10 is a flowchart showing a malfunction prevention process in the present system. This malfunction prevention process is executed after the captured image is acquired in step S13 in the flowchart of FIG. 6, and is executed after the captured image is acquired in step S22 in the flowchart of FIG.

まず、前提として、カメラ12には所定の明るさで撮影するための機能として、露光時間、ゲイン、開口量のうちの1つ以上を自動調整可能な機能が備えられているものとする。なお、その自動調整機能をカメラ外部の装置で実装されていても良い。   First, as a premise, it is assumed that the camera 12 has a function capable of automatically adjusting one or more of exposure time, gain, and aperture as a function for photographing at a predetermined brightness. The automatic adjustment function may be implemented by a device outside the camera.

・開口量:一般には「絞り」と呼ばれる。絞りの値が大きいほど開口量が小さくなる。ここでは、絞りのことを「開口量」と表現し、値が大きいほど多くの光を取り入れる、つまり、明るく映るものとする。また、説明を簡単にするため、開口量の値が2倍になると、取り入れる光の量が2倍になるものとする。   Aperture: Generally called “aperture”. The larger the aperture value, the smaller the aperture. Here, the aperture is expressed as “aperture”, and the larger the value, the more light is taken in, that is, the image is brighter. For the sake of simplicity, it is assumed that when the aperture value is doubled, the amount of light taken in is doubled.

一般に「絞り」の値は、1.4倍になる毎に取り入れる光の量が1/2になるため、実際に値を求める際には、開口量=1/絞りを用いる。開口量に単位はない(絞りにもないが、便宜的にF値と呼ばれる)。値域は、例えば1/4〜1/64(絞りが2〜8)。 In general, the value of “aperture” is halved as the amount of light taken in every 1.4 times. Therefore, aperture value = 1 / aperture 2 is used when actually obtaining the value. There is no unit for the opening amount (there is no diaphragm, but it is called F value for convenience). The value range is, for example, 1/4 to 1/64 (aperture is 2 to 8).

・露光時間:シャッタースピードとも呼ばれる。単位は秒。値域は、例えば1/1000〜1/30である。   ・ Exposure time: Also called shutter speed. The unit is seconds. The value range is, for example, 1/1000 to 1/30.

・ゲイン:入力信号を何倍にするかの値である。単位は無い(倍率)。値域は、例えば1〜30である。   ・ Gain: The value of how many times the input signal is multiplied. There is no unit (magnification). The value range is, for example, 1-30.

ここで、カメラ12によって撮影された画像の明るさを定量化する。これを「明るさ指標値」と呼ぶ。カメラの原理として、撮影画像の輝度値は以下のような比例の関係がある。   Here, the brightness of the image photographed by the camera 12 is quantified. This is called “brightness index value”. As a principle of the camera, the luminance value of the captured image has the following proportional relationship.

輝度値∝(物理的な)光量×開口量×露光時間×ゲイン
光量を明るさとみなすと、以下のような式(1)で明るさ指標値が求められる。
明るさ指標値=輝度値/(開口量×露光時間×ゲイン)…(1)
画像処理装置20に設けられたパラメータ取得部23は、カメラ12から明るさ調整に関するパラメータとして、上述した露光時間、ゲイン、開口量のうちの自動調整される値を取得する(ステップS31)。
Luminance value ∝ (physical) light quantity × aperture amount × exposure time × gain If the light quantity is regarded as brightness, the brightness index value is obtained by the following equation (1).
Brightness index value = luminance value / (aperture amount × exposure time × gain) (1)
The parameter acquisition unit 23 provided in the image processing apparatus 20 acquires a value to be automatically adjusted from the above-described exposure time, gain, and opening amount as a parameter relating to brightness adjustment from the camera 12 (step S31).

誤作動防止部24は、パラメータ取得部23によって得られたパラメータに基づいて、利用者検知部22に用いられる撮影画像の明るさを表わす指標値LUを算出する(ステップS32)。ここで言う「撮影画像の明るさ」とは、具体的には図1のL1+L2で示される撮影範囲の明るさのことである。   The malfunction prevention unit 24 calculates an index value LU representing the brightness of the captured image used for the user detection unit 22 based on the parameter obtained by the parameter acquisition unit 23 (step S32). The “brightness of the photographed image” here means specifically the brightness of the photographing range indicated by L1 + L2 in FIG.

ここで、本実施形態において、カメラ12は露光時間とゲインを自動調整可能であり、開口量は固定であるとする。また、上記(1)式の輝度値を一定とすると、誤作動防止部24は、以下のようにして明るさ指標値LUを求めることになる。   Here, in the present embodiment, it is assumed that the camera 12 can automatically adjust the exposure time and gain, and the opening amount is fixed. Further, assuming that the luminance value of the above equation (1) is constant, the malfunction prevention unit 24 obtains the brightness index value LU as follows.

LU=1/(露光時間×ゲイン)
誤作動防止部24は、この明るさ指標値LUと予め設定された明るさの上限値THa,下限値THbとを比較する(ステップS33)。THa>THbであり、例えばTHa=300、THb=3である。
LU = 1 / (exposure time x gain)
The malfunction prevention unit 24 compares the brightness index value LU with preset upper limit value THa and lower limit value THb (step S33). THa> THb, for example, THa = 300, THb = 3.

LU>THaまたはLU<THbであった場合つまり撮影画像が全体的に明るすぎ/暗すぎの場合には(ステップS33のYes)、誤作動防止部24は、撮影画像から利用者を正しく検知できないと判断し、利用者検知部22の誤作動を防止するための特定の処理を実施する(ステップS34)。詳しくは、誤作動防止部24は、利用者検知部22の検知処理を一時的に中止する、検知結果の出力を禁じる、検知処理の感度を下げることのいずれか1つを実施する。   If LU> THa or LU <THb, that is, if the captured image is overall too bright / dark (Yes in step S33), the malfunction prevention unit 24 cannot correctly detect the user from the captured image. And specific processing for preventing malfunction of the user detection unit 22 is performed (step S34). Specifically, the malfunction prevention unit 24 performs any one of temporarily stopping the detection process of the user detection unit 22, prohibiting the output of the detection result, and reducing the sensitivity of the detection process.

「検知処理を一時的に中止」とは、利用者検知(センシング)を行わないことである。つまり、当該撮影画像に関しては、利用者検知処理(図6のステップS14〜S15/図7のステップS23〜S24)を行わないことである。この場合、検知結果が戸開閉制御に反映されないので、通常の戸開閉制御が実行されることになる。   “Temporarily canceling detection processing” means not performing user detection (sensing). That is, the user detection process (steps S14 to S15 in FIG. 6 / steps S23 to S24 in FIG. 7) is not performed on the captured image. In this case, since the detection result is not reflected in the door opening / closing control, normal door opening / closing control is executed.

「検知結果の出力を禁じる」とは、利用者検知を行っても、その検知結果を無効としてかご制御装置30に出力させないことである。この場合も検知結果が戸開閉制御に反映されないので、通常の戸開閉制御が実行されることになる。   “Forbid the output of detection results” means that even if user detection is performed, the detection results are invalid and are not output to the car control device 30. Also in this case, since the detection result is not reflected in the door opening / closing control, normal door opening / closing control is executed.

「検知処理の感度を下げる」とは、利用者検知の精度を下げることである。具体的には、図6のステップS14aで説明した動き検知処理において、時間的に連続する各撮影画像の輝度値をブロック単位で比較するときの輝度差の閾値を通常時よりも上げることで、動きありブロックの検出率を低くすることである。   “Decrease the sensitivity of detection processing” is to decrease the accuracy of user detection. Specifically, in the motion detection process described in step S14a of FIG. 6, by increasing the threshold value of the luminance difference when comparing the luminance value of each captured image that is temporally continuous in units of blocks, This is to lower the detection rate of blocks with motion.

なお、LU>THaまたはLU<THbの場合に、そのときのLUの値に応じて当該撮影画像に対する検知処理の感度を段階的に下げることでも良い(LUの値がTHaまたはTHbから離れるほど、当該撮影画像に対する感度を下げる)。   In the case of LU> THa or LU <THb, the sensitivity of the detection processing for the captured image may be decreased in stages according to the LU value at that time (the more the LU value is away from THa or THb, Decrease sensitivity to the captured image).

このように第1の実施形態によれば、カメラ12によって撮影された画像を用いて利用者を検知するシステムにおいて、撮影画像が明るすぎる場合や暗すぎる場合での利用者検知の誤作動を防ぐことができる。これにより、利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることができる。   As described above, according to the first embodiment, in the system that detects the user using the image captured by the camera 12, the malfunction of the user detection when the captured image is too bright or too dark is prevented. be able to. Thereby, only when the user can be detected correctly, the movement of the user can be reflected in the door opening / closing control.

(変形例)
上記第1の実施形態の変形例として、以下のような方法で明るさ指標値LUを算出することでも良い。
(Modification)
As a modification of the first embodiment, the brightness index value LU may be calculated by the following method.

(1)平均輝度値を用いる場合
カメラ12から露光時間とゲインを取得できるとする。誤作動防止部24は、撮影画像全体、もしくは検知に使う領域の平均輝度値を求め、以下のようにして明るさ指標値LUを求める。
(1) When using average luminance value It is assumed that the exposure time and gain can be acquired from the camera 12. The malfunction prevention unit 24 obtains the average luminance value of the entire captured image or the area used for detection, and obtains the brightness index value LU as follows.

LU=平均輝度値/(露光時間×ゲイン)
(2)露光時間とゲインと開口量の3つを用いる方法
カメラ12から露光時間とゲインと開口量を取得できるとする。誤作動防止部24は、これらの値を用いて以下のようにして明るさ指標値LUを求める。
LU = average luminance value / (exposure time × gain)
(2) Method Using Three Exposure Times, Gain, and Aperture Value Assume that the exposure time, gain, and aperture amount can be acquired from the camera 12. The malfunction prevention unit 24 uses these values to determine the brightness index value LU as follows.

LU=1/(露光時間×ゲイン×開口量)
(3)使う値の組み合わせ
誤作動防止部24は、露光時間とゲインと開口量、平均輝度の組み合わせにより、以下のようにして明るさ指標値LUを求める。
LU = 1 / (exposure time × gain × aperture)
(3) Combination of values to be used The malfunction prevention unit 24 obtains the brightness index value LU as follows by combining the exposure time, the gain, the aperture amount, and the average luminance.

・露光時間とゲインと開口量、平均輝度を用いる場合
LU=平均輝度値/(露光時間×ゲイン×開口量)
・露光時間を用いる場合(ゲインと開口量が固定)
LU=1/露光時間
・ゲインを用いる場合(露光時間と開口量が固定)
LU=1/ゲイン
上記のような方法により明るさ指標値LUを求めた場合でも、上記第1の実施形態と同様に、撮影画像が明るすぎる場合や暗すぎる場合での利用者検知の誤作動を防ぐことができる。
When using exposure time, gain, aperture, and average brightness LU = average brightness / (exposure time x gain x aperture)
・ When using exposure time (gain and aperture are fixed)
LU = 1 / exposure time • When gain is used (exposure time and aperture are fixed)
LU = 1 / gain Even when the brightness index value LU is obtained by the method as described above, as in the first embodiment, malfunction of user detection when the captured image is too bright or too dark. Can be prevented.

(第2の実施形態)
次に、第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment will be described.

上記第1の実施形態では、カメラ12の撮影画像全体の明るさを基準にして誤作動防止処理を実施する構成としたが、第2の実施形態では、撮影画像の中で明るすぎる部分あるいは暗すぎる部分を検出し、その部分に対して誤作動防止処理を実施するものである。   In the first embodiment, the malfunction prevention process is performed on the basis of the brightness of the entire captured image of the camera 12, but in the second embodiment, a portion of the captured image that is too bright or dark An excessive portion is detected, and a malfunction prevention process is performed on the portion.

すなわち、図11に示ように、照明光や自然光などの関係で部分的に明るい場所あるいは暗い場所が発生することがある。図3で説明したように、本システムでは、カメラ12で撮影した画像を一定サイズのブロックに区切り、人・物の動きがあるブロックを検知し、その動きありのブロックを追うことで乗車意思のある利用者であるか否かを判断する構成としている。そこで、このブロック毎に明るさ指標値LUi(iはブロック数)を算出し、上限値THaよりも高い部分あるいは下限値THbよりも低い部分に対して誤作動防止処理を実施する。   That is, as shown in FIG. 11, a bright place or a dark place may occur partially due to illumination light or natural light. As described with reference to FIG. 3, in this system, the image captured by the camera 12 is divided into blocks of a certain size, a block with movement of a person or an object is detected, and the block with the movement is followed, thereby It is configured to determine whether or not the user is a certain user. Therefore, the brightness index value LUi (i is the number of blocks) is calculated for each block, and malfunction prevention processing is performed on a portion that is higher than the upper limit value THa or lower than the lower limit value THb.

以下に、具体的な処理動作について説明する。   A specific processing operation will be described below.

図12は第2の実施形態における誤作動防止処理を示すフローチャートである。なお、この誤作動防止処理は、図6のフローチャートではステップS13の撮影画像取得後に実行され、図7のフローチャートではステップS22の撮影画像取得後に実行される。   FIG. 12 is a flowchart showing a malfunction prevention process in the second embodiment. This malfunction prevention process is executed after the captured image is acquired in step S13 in the flowchart of FIG. 6, and is executed after the captured image is acquired in step S22 in the flowchart of FIG.

上記第1の実施形態と同様に、カメラ12には所定の明るさで撮影するための機能として、露光時間、ゲイン、開口量のうちの1つ以上を自動調整可能な機能が備えられているものとする。なお、その自動調整機能をカメラ外部の装置で実装されていても良い。   Similar to the first embodiment, the camera 12 has a function capable of automatically adjusting one or more of exposure time, gain, and aperture as a function for photographing at a predetermined brightness. Shall. The automatic adjustment function may be implemented by a device outside the camera.

画像処理装置20に設けられたパラメータ取得部23は、カメラ12から明るさ調整に関するパラメータとして、上述した露光時間、ゲイン、開口量のうちの自動調整される値を取得する(ステップS41)。   The parameter acquisition unit 23 provided in the image processing apparatus 20 acquires a value to be automatically adjusted from the above-described exposure time, gain, and opening amount as a parameter relating to brightness adjustment from the camera 12 (step S41).

ここで、第2の実施形態では、誤作動防止部24は、利用者検知部22に用いられる撮影画像を所定サイズのブロックで分割し(ステップS42)、そのブロック毎に以下のような処理を行う。なお、図中の点線で囲んだステップS43〜S46の処理は各ブロックで実行される。   Here, in the second embodiment, the malfunction prevention unit 24 divides the photographed image used for the user detection unit 22 into blocks of a predetermined size (step S42), and performs the following processing for each block. Do. In addition, the process of step S43-S46 enclosed with the dotted line in a figure is performed by each block.

すなわち、まず、誤作動防止部24は、各ブロックの輝度値をそれぞれ求める(ステップS43)。この場合、ブロック毎にそのブロックに属する各画素の輝度値を平均化した値を当該ブロックの輝度値として求める。   That is, first, the malfunction prevention unit 24 obtains the luminance value of each block (step S43). In this case, for each block, a value obtained by averaging the luminance values of the pixels belonging to the block is obtained as the luminance value of the block.

次に、誤作動防止部24は、ブロック毎に得られる輝度値を用いて、以下のようにしてブロック単位の明るさ指標値LUiをそれぞれ求める(ステップS44)。   Next, the malfunction prevention unit 24 obtains the brightness index value LUi for each block as follows using the luminance value obtained for each block (step S44).

LUi=ブロックiの輝度値/(露光時間×ゲイン)
なお、カメラ12は露光時間とゲインを自動調整可能であり、開口量は固定であるとする。iはブロック数である。
LUi = luminance value of block i / (exposure time × gain)
Note that the camera 12 can automatically adjust the exposure time and gain, and the opening amount is fixed. i is the number of blocks.

誤作動防止部24は、このブロック単位の明るさ指標値LUiと予め設定された明るさの上限値THa,下限値THbとを比較する(ステップS44)。THa>THbであり、例えばTHa=300、THb=3である。   The malfunction prevention unit 24 compares the brightness index value LUi for each block with the preset upper limit value THa and lower limit value THb (step S44). THa> THb, for example, THa = 300, THb = 3.

LUi>THaまたはLUi<THbであった場合つまり撮影範囲の当該ブロックに対応した部分が明るすぎ/暗すぎの場合には(ステップS45のYes)、誤作動防止部24は、撮影画像から利用者を正しく検知できないと判断し、利用者検知部22の誤作動を防止するための特定の処理を実施する(ステップS46)。詳しくは、誤作動防止部24は、利用者検知部22の当該ブロックに対する検知処理を一時的に中止するか、当該ブロックに対する検知結果の出力を禁じるか、当該ブロックに対する検出処理の感度を下げることのいずれか1つを実施する。   If LUi> THa or LUi <THb, that is, if the portion corresponding to the block in the shooting range is too bright / dark (Yes in step S45), the malfunction prevention unit 24 determines that the user Is not correctly detected, and a specific process for preventing malfunction of the user detection unit 22 is performed (step S46). Specifically, the malfunction prevention unit 24 temporarily stops the detection process for the block of the user detection unit 22, prohibits the output of the detection result for the block, or lowers the sensitivity of the detection process for the block. Implement one of the following:

「当該ブロックに対する検知処理を一時的に中止」とは、撮影画像の中の明るすぎる部分あるいは暗すぎる部分に対しては利用者検知(センシング)を行わないことである。つまり、当該撮影画像の中の明るすぎる部分あるいは暗すぎる部分に関しては、利用者検知処理(図6のステップS14〜S15の処理/図7のステップS23〜S25)を行わないことである。この場合、他の部分で利用者が検知されれば、その検知結果がかご制御装置30に出力されて戸開閉制御に反映される。   “Temporarily canceling the detection processing for the block” means that user detection (sensing) is not performed on a portion that is too bright or too dark in the captured image. In other words, the user detection process (the process of steps S14 to S15 in FIG. 6 / the steps S23 to S25 of FIG. 7) is not performed for a part that is too bright or too dark in the captured image. In this case, if the user is detected in another part, the detection result is output to the car control device 30 and reflected in the door opening / closing control.

「当該ブロックに対する検知結果の出力を禁じる」とは、撮影画像の中の明るすぎる部分あるいは暗すぎる部分に対する利用者検知を行っても、その検知結果を無効としてかご制御装置30に出力させないことである。この場合、撮影画像の中の他の部分で利用者が検知されれば、その検知結果がかご制御装置30に出力されて戸開閉制御に反映される。   “Prohibit output of detection results for the block” means that even if user detection is performed on a too bright or too dark portion of the captured image, the detection result is invalidated and not output to the car control device 30. is there. In this case, if the user is detected in another part of the captured image, the detection result is output to the car control device 30 and reflected in the door opening / closing control.

「当該ブロックに対する検知処理の感度を下げる」とは、利用者検知の精度を下げることである。具体的には、図6のステップS14aで説明した動き検知処理において、時間的に連続する各撮影画像の輝度値をブロック単位で比較するときの輝度差の閾値を当該ブロックに関してのみ通常時よりも上げることで、明るすぎる部分あるいは暗すぎる部分に対する動きありブロックの検出率を低くすることである。   “Decrease the sensitivity of detection processing for the block” means to decrease the accuracy of user detection. Specifically, in the motion detection process described in step S14a of FIG. 6, the threshold value of the luminance difference when comparing the luminance value of each captured image that is temporally continuous for each block is set only for the block as compared with the normal time. By increasing the value, the detection rate of a block with motion for a portion that is too bright or too dark is lowered.

なお、LUi>THaまたはLUi<THbの場合に、そのときのLUiの値に応じて当該ブロックに対する検知処理の感度を段階的に下げることでも良い(LUiの値がTHaまたはTHbから離れるほど、当該ブロックに対する感度を下げる)。   In the case of LUi> THa or LUi <THb, the sensitivity of the detection processing for the block may be decreased in stages according to the value of LUi at that time (the more the value of LUi is away from THa or THb, the more Reduce sensitivity to block).

このように第2の実施形態によれば、乗場15や乗りかご11内の撮影範囲の中で明るすぎる部分や暗すぎる部分に対する利用者検知の誤作動を防ぐことができ、その他の部分で利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることができる。これにより、例えば乗場15側は全体的に暗く、乗りかご11内は適度な明るさを有する場合には、乗場15はセンシングしない、乗りかご11内はセンシングするといった切り分けができる。   As described above, according to the second embodiment, it is possible to prevent malfunction of user detection for a too bright part or a too dark part in the shooting range in the hall 15 or the car 11, and use in other parts. Only when the person can be detected correctly, the movement of the user can be reflected in the door opening / closing control. Thereby, for example, when the hall 15 side is generally dark and the inside of the car 11 has appropriate brightness, the hall 15 is not sensed and the inside of the car 11 is sensed.

(変形例)
上記第2の実施形態の変形例として、以下のような方法でブロック単位の明るさ指標値LUiを算出することでも良い。
(Modification)
As a modification of the second embodiment, the brightness index value LUi in units of blocks may be calculated by the following method.

(1)露光時間とゲインと開口量の3つを用いる方法
カメラ12から露光時間とゲインと開口量を取得できるとする。誤作動防止部24は、これらの値を用いて以下のようにしてブロック単位の明るさ指標値LUiを求める。
(1) Method using three of exposure time, gain, and opening amount Assume that the exposure time, gain, and opening amount can be acquired from the camera 12. The malfunction prevention unit 24 uses these values to determine the brightness index value LUi for each block as follows.

LUi=ブロックiの輝度値/(露光時間×ゲイン×開口量)
(2)使う値の組み合わせ
誤作動防止部24は、露光時間とゲインと開口量の組み合わせにより、以下のようにして明るさ指標値LUを求める。
LUi = luminance value of block i / (exposure time × gain × aperture amount)
(2) Combination of values to be used The malfunction prevention unit 24 obtains the brightness index value LU as follows, based on the combination of the exposure time, the gain, and the aperture amount.

・露光時間を用いる場合(ゲインと開口量が固定)
LUi=ブロックiの輝度値/露光時間
・ゲインを用いる場合(露光時間と開口量が固定)
LUi=ブロックiの輝度値/ゲイン
上記のような方法によりブロック単位の明るさ指標値LUiを求めた場合でも、上記第1の実施形態と同様に、撮影画像が部分的に明るすぎる場合や暗すぎる場合での利用者検知の誤作動を防ぐことができる。
・ When using exposure time (gain and aperture are fixed)
LUi = luminance value of block i / exposure time When gain is used (exposure time and aperture are fixed)
LUi = luminance value / gain of block i Even when the brightness index value LUi in units of blocks is obtained by the method as described above, as in the first embodiment, when the captured image is partially too bright or dark It is possible to prevent a malfunction of user detection when it is too much.

以上述べた少なくとも1つの実施形態によれば、カメラによって撮影された画像を用いて利用者を検知する際に、撮影環境により利用者検知の誤作動を防いで、利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることのできるエレベータの乗車検知システムを提供することができる。   According to at least one embodiment described above, when a user is detected using an image captured by a camera, the user can be detected correctly by preventing malfunction of the user detection depending on the shooting environment. It is possible to provide an elevator boarding detection system that can reflect the movement of the user in the door opening / closing control.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

11…乗りかご、12…カメラ、13…かごドア、14…乗場ドア、15…乗場、20…画像処理装置、21…記憶部、22…利用者検知部、22a…動き検知部、22b…位置推定部、22c…乗車意思推定部、23…パラメータ取得部、24…誤作動防止部、30…かご制御装置、31…戸開閉制御部、E1…利用者位置推定エリア、E2…乗車意思推定エリア、E3…近接検知エリア。   DESCRIPTION OF SYMBOLS 11 ... Ride car, 12 ... Camera, 13 ... Car door, 14 ... Landing door, 15 ... Landing place, 20 ... Image processing apparatus, 21 ... Memory | storage part, 22 ... User detection part, 22a ... Motion detection part, 22b ... Position Estimating unit, 22c ... Riding intention estimating unit, 23 ... Parameter acquiring unit, 24 ... Malfunction prevention unit, 30 ... Car control device, 31 ... Door opening / closing control unit, E1 ... User position estimation area, E2 ... Riding intention estimation area , E3 ... proximity detection area.

Claims (7)

乗りかごが乗場に到着したときに、当該乗りかごのドア付近から上記乗場の方向に向けて所定の範囲を撮影可能な撮像手段と、
この撮像手段によって撮影された画像を用いて利用者を検知する利用者検知手段と、
この利用者検知手段の検知結果に基づいて上記ドアの開閉動作を制御する制御手段と、
上記撮像手段から明るさ調整に関するパラメータを取得するパラメータ取得手段と、
このパラメータ取得手段によって得られた撮影時に調整済みの上記パラメータに基づいて、上記利用者検知手段に用いられる撮影画像の明るさを判断し、当該撮影画像から利用者を正しく検知できないと判断される場合に上記利用者検知手段の誤作動を防止するための処理を実施する誤作動防止手段と
を具備したことを特徴とするエレベータの乗車検知システム。
An imaging means capable of photographing a predetermined range from the vicinity of the door of the car toward the landing when the car arrives at the landing;
User detection means for detecting a user using an image taken by the imaging means;
Control means for controlling the opening and closing operation of the door based on the detection result of the user detection means;
Parameter acquisition means for acquiring parameters relating to brightness adjustment from the imaging means;
Based on the parameter adjusted at the time of shooting obtained by the parameter acquisition unit, the brightness of the shot image used for the user detection unit is determined, and it is determined that the user cannot be correctly detected from the shot image. The elevator boarding detection system comprising: a malfunction prevention means for performing a process for preventing malfunction of the user detection means.
上記パラメータは、少なくとも露光時間、ゲイン、開口量のいずれかを含むことを特徴とする請求項1記載のエレベータの乗車検知システム。   The elevator boarding detection system according to claim 1, wherein the parameters include at least one of an exposure time, a gain, and an opening amount. 上記誤作動防止手段は、
上記露光時間、ゲイン、開口量の中の1つ以上を用いて、上記撮影画像の明るさを表わす指標値を算出し、上記指標値が予め設定された上限値よりも高い場合あるいは予め設定された下限値よりも低い場合に上記利用者検知手段の誤作動を防止するための処理を実施することを特徴とする請求項2記載のエレベータの乗車検知システム。
The malfunction prevention means is
An index value representing the brightness of the captured image is calculated using one or more of the exposure time, gain, and aperture, and the index value is higher than or set in advance. 3. The elevator boarding detection system according to claim 2, wherein a process for preventing malfunction of the user detection means is performed when the value is lower than the lower limit.
上記誤作動防止手段は、
上記撮影画像をブロック単位で分割し、上記露光時間、ゲイン、開口量の中の1つ以上を用いて、上記ブロック単位で明るさを表わす指標値を算出し、上記指標値が予め設定された上限値よりも高い場合あるいは予め設定された下限値よりも低い場合に当該ブロックに対して上記利用者検知手段の誤作動を防止するための処理を実施することを特徴とする請求項2記載のエレベータの乗車検知システム。
The malfunction prevention means is
The photographed image is divided in units of blocks, and an index value representing brightness is calculated in units of blocks using one or more of the exposure time, gain, and aperture, and the index values are preset. The process for preventing malfunction of the user detecting means is performed on the block when it is higher than the upper limit value or lower than a preset lower limit value. Elevator boarding detection system.
上記誤作動防止手段は、
上記利用者検知手段の誤作動を防止するための処理として、検知処理を一時的に中止することを特徴とする請求項1記載のエレベータの乗車検知システム。
The malfunction prevention means is
The elevator boarding detection system according to claim 1, wherein the detection process is temporarily stopped as a process for preventing the user detection means from malfunctioning.
上記誤作動防止手段は、
上記利用者検知手段の誤作動を防止するための処理として、上記制御手段に対する検知結果の出力を禁じることを特徴とする請求項1記載のエレベータの乗車検知システム。
The malfunction prevention means is
The elevator boarding detection system according to claim 1, wherein output of detection results to the control means is prohibited as processing for preventing malfunction of the user detection means.
上記誤作動防止手段は、
上記利用者検知手段の誤作動を防止するための処理として、検知処理の感度を下げることを特徴とする請求項1記載のエレベータの乗車検知システム。
The malfunction prevention means is
The elevator boarding detection system according to claim 1, wherein the sensitivity of detection processing is lowered as processing for preventing malfunction of the user detection means.
JP2017058781A 2017-03-24 2017-03-24 Elevator boarding detection system Active JP6377797B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017058781A JP6377797B1 (en) 2017-03-24 2017-03-24 Elevator boarding detection system
CN201711474231.6A CN108622776B (en) 2017-03-24 2017-12-29 Elevator riding detection system
MYPI2018700377A MY190207A (en) 2017-03-24 2018-01-29 Elevator boarding detection system
SG10201800801TA SG10201800801TA (en) 2017-03-24 2018-01-30 Elevator boarding detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058781A JP6377797B1 (en) 2017-03-24 2017-03-24 Elevator boarding detection system

Publications (2)

Publication Number Publication Date
JP6377797B1 true JP6377797B1 (en) 2018-08-22
JP2018162118A JP2018162118A (en) 2018-10-18

Family

ID=63249998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058781A Active JP6377797B1 (en) 2017-03-24 2017-03-24 Elevator boarding detection system

Country Status (4)

Country Link
JP (1) JP6377797B1 (en)
CN (1) CN108622776B (en)
MY (1) MY190207A (en)
SG (1) SG10201800801TA (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111942981A (en) * 2019-05-16 2020-11-17 东芝电梯株式会社 Image processing apparatus
CN115108425A (en) * 2021-03-18 2022-09-27 东芝电梯株式会社 User detection system of elevator

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6646169B1 (en) * 2019-01-18 2020-02-14 東芝エレベータ株式会社 Elevator system
JP6716741B1 (en) * 2019-03-20 2020-07-01 東芝エレベータ株式会社 Elevator user detection system
JP6795266B1 (en) * 2019-08-08 2020-12-02 東芝エレベータ株式会社 Elevator user detection system
JP6896808B2 (en) * 2019-08-09 2021-06-30 東芝エレベータ株式会社 Elevator user detection system
JP6881853B2 (en) * 2019-08-09 2021-06-02 東芝エレベータ株式会社 Elevator user detection system
JP6871324B2 (en) * 2019-08-28 2021-05-12 東芝エレベータ株式会社 Elevator user detection system
JP6843935B2 (en) * 2019-09-05 2021-03-17 東芝エレベータ株式会社 Elevator user detection system
JP6833942B1 (en) * 2019-09-10 2021-02-24 東芝エレベータ株式会社 Elevator user detection system
JP6874104B1 (en) * 2019-12-06 2021-05-19 東芝エレベータ株式会社 Elevator system and elevator control method
JP7009537B2 (en) * 2020-03-23 2022-01-25 東芝エレベータ株式会社 Elevator user detection system
JP6985443B2 (en) * 2020-03-23 2021-12-22 東芝エレベータ株式会社 Elevator user detection system
JP7183457B2 (en) * 2020-03-23 2022-12-05 東芝エレベータ株式会社 Elevator user detection system
JP7019740B2 (en) * 2020-03-23 2022-02-15 東芝エレベータ株式会社 Elevator user detection system
JP6968943B1 (en) * 2020-07-15 2021-11-24 東芝エレベータ株式会社 Elevator user detection system
JP7276992B2 (en) * 2021-08-06 2023-05-18 東芝エレベータ株式会社 Elevator user detection system
JP7242820B1 (en) 2021-12-10 2023-03-20 東芝エレベータ株式会社 Elevator control system and elevator control method
JP7516582B1 (en) 2023-01-12 2024-07-16 東芝エレベータ株式会社 Elevator System

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261994A (en) * 1998-03-11 1999-09-24 Mitsubishi Electric Corp Object detector and user number detector for elevator
JP6068694B1 (en) * 2016-01-13 2017-01-25 東芝エレベータ株式会社 Elevator boarding detection system
JP6092434B1 (en) * 2016-01-13 2017-03-08 東芝エレベータ株式会社 Elevator system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5788843B2 (en) * 2012-08-30 2015-10-07 株式会社日立製作所 Elevator door system and elevator with elevator door system
JP6235326B2 (en) * 2013-12-12 2017-11-22 株式会社日立製作所 Elevator system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261994A (en) * 1998-03-11 1999-09-24 Mitsubishi Electric Corp Object detector and user number detector for elevator
JP6068694B1 (en) * 2016-01-13 2017-01-25 東芝エレベータ株式会社 Elevator boarding detection system
JP6092434B1 (en) * 2016-01-13 2017-03-08 東芝エレベータ株式会社 Elevator system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111942981A (en) * 2019-05-16 2020-11-17 东芝电梯株式会社 Image processing apparatus
CN115108425A (en) * 2021-03-18 2022-09-27 东芝电梯株式会社 User detection system of elevator
CN115108425B (en) * 2021-03-18 2024-02-27 东芝电梯株式会社 Elevator user detection system

Also Published As

Publication number Publication date
SG10201800801TA (en) 2018-10-30
MY190207A (en) 2022-04-04
CN108622776A (en) 2018-10-09
CN108622776B (en) 2020-05-01
JP2018162118A (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP6377797B1 (en) Elevator boarding detection system
JP6092433B1 (en) Elevator boarding detection system
JP5969147B1 (en) Elevator boarding detection system
JP6068694B1 (en) Elevator boarding detection system
JP6367411B1 (en) Elevator system
JP6377795B1 (en) Elevator boarding detection system
JP6317004B1 (en) Elevator system
JP6139729B1 (en) Image processing device
JP2018090351A (en) Elevator system
CN113428752B (en) User detection system for elevator
JP6271776B1 (en) Elevator boarding detection system
JP2018158842A (en) Image analyzer and elevator system
JP2018030676A (en) Elevator control system
CN109879130B (en) Image detection system
JP6524294B1 (en) User detection system
CN113942905B (en) Elevator user detection system
JP6270948B1 (en) Elevator user detection system
JP6806414B2 (en) Image processing device and image processing method
JP7135144B1 (en) Elevator user detection system
JP6881853B2 (en) Elevator user detection system
JP7367174B1 (en) elevator system
JP6693624B2 (en) Image detection system
JP2020114777A (en) Elevator system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180725

R150 Certificate of patent or registration of utility model

Ref document number: 6377797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150