JP2023024068A - User detection system of elevator - Google Patents

User detection system of elevator Download PDF

Info

Publication number
JP2023024068A
JP2023024068A JP2021130126A JP2021130126A JP2023024068A JP 2023024068 A JP2023024068 A JP 2023024068A JP 2021130126 A JP2021130126 A JP 2021130126A JP 2021130126 A JP2021130126 A JP 2021130126A JP 2023024068 A JP2023024068 A JP 2023024068A
Authority
JP
Japan
Prior art keywords
reflection
detection
car
moving object
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021130126A
Other languages
Japanese (ja)
Other versions
JP7276992B2 (en
Inventor
孝明 榎原
Takaaki Enohara
学 野本
Manabu Nomoto
邦彦 白倉
Kunihiko Shirokura
紗由美 木村
Sayumi Kimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Elevator and Building Systems Corp
Original Assignee
Toshiba Elevator Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Elevator Co Ltd filed Critical Toshiba Elevator Co Ltd
Priority to JP2021130126A priority Critical patent/JP7276992B2/en
Priority to CN202210486735.4A priority patent/CN115703608A/en
Publication of JP2023024068A publication Critical patent/JP2023024068A/en
Application granted granted Critical
Publication of JP7276992B2 publication Critical patent/JP7276992B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Elevator Door Apparatuses (AREA)

Abstract

To suppress erroneous detection of a shade caused by lighting environment and correctly detect a user in a car and at an elevator hall.SOLUTION: A user detection system of an elevator includes: reflection estimation means for estimating a reflection region including a part where illumination light is reflected in a photographic image of a camera installed in a car and its periphery; moving body detection means for changing processing when detecting a moving body from the photographic image according to a reflection level of the reflection region estimated by the reflection estimation means; and person detection means for detecting the moving body as a person on the basis of information on the moving body detected by the moving body detection means.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、エレベータの利用者検知システムに関する。 Embodiments of the present invention relate to elevator occupant detection systems.

エレベータの乗りかごのドアが戸開するときに、乗りかご内にいる利用者の指などが戸袋へ引き込まれることがある。また、乗場にいる利用者が乗りかごに乗り込むときに、戸閉途中のドアの先端にぶつかることがある。このようなドアの事故を防止するため、乗りかごに設置された1台のカメラを用いて、乗場の利用者や乗りかご内の利用者を検知して、戸開閉制御に反映させるシステムが知られている。 When the door of the car of the elevator is opened, the fingers of the user in the car may be drawn into the door pocket. In addition, when a user at the boarding point gets into the car, he or she may bump into the tip of the door that is in the middle of closing. In order to prevent such door accidents, a camera installed in the car is used to detect users at the boarding point and inside the car, and a system that reflects this information in door opening/closing control is developed. It is

特開平5-151356号公報JP-A-5-151356 特許第3933453号公報Japanese Patent No. 3933453

上述したシステムでは、撮影画像のフレーム間の輝度差分によって、利用者の有無を検知していた。しかしながら、乗りかごや乗場において、照明の光が利用者を介して床面で反射している場合に、カメラに入射される光量が変化することで輝度変化が生じる。このとき、光の反射部分とその周囲に「陰」と呼ばれる現象が発生し、その「陰」が利用者として過検知される可能性がある(図7のS2参照)。なお、「過検知」とは、陰を利用者として誤って検知するといった意味で「誤検知」と同じである。 In the system described above, the presence or absence of a user is detected based on the luminance difference between the frames of the captured image. However, in a car or a hall, when the light of illumination is reflected on the floor through the user, the amount of light incident on the camera changes, resulting in a change in brightness. At this time, a phenomenon called "shadow" occurs in and around the light-reflecting portion, and the "shadow" may be over-detected as the user (see S2 in FIG. 7). It should be noted that "excessive detection" is the same as "erroneous detection" in the sense that shadows are erroneously detected as a user.

本発明が解決しようとする課題は、照明環境に起因した陰の過検知を抑制して、乗りかご内や乗場にいる利用者を正しく検知することのできるエレベータの利用者検知システムを提供することである。 The problem to be solved by the present invention is to provide an elevator user detection system capable of suppressing over-detection of shadows caused by the lighting environment and correctly detecting a user in a car or at a landing. is.

一実施形態に係るエレベータの利用者検知システムは、乗りかご内に設置されたカメラの撮影画像の中で照明光が反射している部分とその周囲を含む反射領域を推定する反射推定手段と、上記反射推定手段によって推定された上記反射領域の反射レベルに応じて、上記撮影画像から動体を検知するときの処理を変更する動体検知手段と、上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段とを具備する。 An elevator user detection system according to one embodiment includes reflection estimation means for estimating a reflection area including a portion where illumination light is reflected and its surroundings in an image captured by a camera installed in a car; moving object detection means for changing processing when detecting a moving object from the photographed image according to the reflection level of the reflection area estimated by the reflection estimation means; and moving object information detected by the moving object detection means. a person detection means for detecting the moving object as a person based on the above.

図1は一実施形態に係るエレベータの利用者検知システムの構成を示す図である。FIG. 1 is a diagram showing the configuration of an elevator user detection system according to an embodiment. 図2は同実施形態における乗りかご内の出入口周辺部分の構成を示す図である。FIG. 2 is a diagram showing the configuration of the entrance and exit peripheral portion in the car in the same embodiment. 図3は同実施形態における実空間での座標系を説明するための図である。FIG. 3 is a diagram for explaining a coordinate system in real space in the embodiment. 図4は同実施形態におけるカメラの撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of an image captured by a camera in the same embodiment. 図5は同実施形態における乗車検知エリアの構成を模式的に示す図である。FIG. 5 is a diagram schematically showing the configuration of a boarding detection area in the same embodiment. 図6は同実施形態における引き込まれ検知エリアに生じる影の誤検知を説明するための図である。FIG. 6 is a diagram for explaining erroneous detection of a shadow that is drawn into the detection area in the same embodiment. 図7は同実施形態における照明光の反射によって生じる陰を説明するための図である。FIG. 7 is a diagram for explaining shadows caused by reflection of illumination light in the same embodiment. 図8は同実施形態における反射領域の一例を示す図である。FIG. 8 is a diagram showing an example of a reflective area in the same embodiment. 図9は同実施形態における人物と影を含んだ撮影画像の一例を示す図である。FIG. 9 is a diagram showing an example of a photographed image including a person and a shadow in the same embodiment. 図10は上記図9の撮影画像上の人物の輝度値の変化をx軸方向に見た状態を示す図である。FIG. 10 is a diagram showing changes in the luminance value of a person on the photographed image of FIG. 9 as viewed in the x-axis direction. 図11は上記図9の撮影画像上の影の輝度値の変化をx軸方向に見た状態を示す図である。FIG. 11 is a diagram showing changes in luminance values of shadows on the photographed image of FIG. 9 as viewed in the x-axis direction. 図12は同実施形態における山型エッジの強度を算出する方法を説明するための図である。FIG. 12 is a diagram for explaining a method of calculating the strength of a mountain-shaped edge in the same embodiment. 図13は上記山型エッジの強度算出の具体例を示す図である。FIG. 13 is a diagram showing a concrete example of calculating the strength of the mountain-shaped edge. 図14は上記利用者検知システムの処理動作を示すフローチャートである。FIG. 14 is a flow chart showing the processing operation of the user detection system. 図15は上記図14のステップS103で実行される検知処理を示すフローチャートである。FIG. 15 is a flow chart showing the detection process executed in step S103 of FIG. 14 above.

以下、実施の形態について図面を参照して説明する。
なお、開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
Embodiments will be described below with reference to the drawings.
The disclosure is merely an example, and the invention is not limited by the contents described in the following embodiments. Modifications that can be easily conceived by those skilled in the art are naturally included in the scope of the disclosure. In order to make the explanation clearer, in the drawings, the size, shape, etc. of each part may be changed from the actual embodiment and shown schematically. Corresponding elements in multiple drawings may be denoted by the same reference numerals and detailed descriptions thereof may be omitted.

図1は一実施形態に係るエレベータの利用者検知システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。 FIG. 1 is a diagram showing the configuration of an elevator user detection system according to an embodiment. Here, one car will be described as an example, but the configuration is the same for a plurality of cars.

乗りかご11の出入口上部にカメラ12が設置されている。具体的には、カメラ12は、乗りかご11の出入口上部を覆う幕板11aの中にレンズ部分を直下方向、もしくは、乗場15側あるいは乗りかご11内部側に所定の角度だけ傾けて設置される。 A camera 12 is installed above the doorway of the car 11 . Specifically, the camera 12 is installed in the curtain plate 11a that covers the upper part of the doorway of the car 11 with the lens portion tilted directly below, or toward the hall 15 side or inside the car 11 by a predetermined angle. .

カメラ12は、例えば車載カメラ等の小型の監視用カメラであり、広角レンズもしくは魚眼レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続的に撮影可能である。カメラ12は、例えば乗りかご11が各階の乗場15に到着したときに起動され、かごドア13付近と乗場15を含めて撮影する。なお、カメラ12は、乗りかご11の運転時に常時動作中であっても良い。 The camera 12 is, for example, a small surveillance camera such as an in-vehicle camera, has a wide-angle lens or a fish-eye lens, and is capable of continuously photographing several frames per second (for example, 30 frames/second). The camera 12 is activated, for example, when the car 11 arrives at the landing 15 of each floor, and photographs the vicinity of the car door 13 and the landing 15 as well. Note that the camera 12 may always be in operation while the car 11 is running.

このときの撮影範囲はL1+L2に調整されている(L1≫L2)。L1は乗場側の撮影範囲であり、かごドア13から乗場15に向けて所定の距離を有する。L2はかご側の撮影範囲であり、かごドア13からかご背面に向けて所定の距離を有する。なお、L1,L2は奥行き方向の範囲であり、幅方向(奥行き方向と直交する方向)の範囲については少なくとも乗りかご11の横幅より大きいものとする。 The shooting range at this time is adjusted to L1+L2 (L1>>L2). L1 is an imaging range on the landing side, and has a predetermined distance from the car door 13 toward the landing 15 . L2 is an imaging range on the car side, and has a predetermined distance from the car door 13 toward the back of the car. Note that L1 and L2 are ranges in the depth direction, and the range in the width direction (direction perpendicular to the depth direction) is at least greater than the width of the car 11 .

各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。なお、動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明においては、かごドア13を戸開している時には乗場ドア14も戸開しており、かごドア13が戸閉している時には乗場ドア14も戸閉しているものとする。 At the landing 15 of each floor, a landing door 14 is installed at the arrival gate of the car 11 so as to be openable and closable. The landing door 14 engages with the car door 13 to open and close when the car 11 arrives. The power source (door motor) is located on the car 11 side, and the landing door 14 simply follows the car door 13 to open and close. In the following description, it is assumed that when the car door 13 is open, the landing door 14 is also open, and when the car door 13 is closed, the landing door 14 is also closed.

カメラ12によって連続的に撮影された各画像(映像)は、画像処理装置20によってリアルタイムに解析処理される。なお、図1では、便宜的に画像処理装置20を乗りかご11から取り出して示しているが、実際には、画像処理装置20はカメラ12と共に幕板11aの中に収納されている。 Each image (video) captured continuously by the camera 12 is analyzed and processed in real time by the image processing device 20 . Although FIG. 1 shows the image processing device 20 removed from the car 11 for the sake of convenience, the image processing device 20 is actually housed in the curtain plate 11a together with the camera 12. As shown in FIG.

画像処理装置20は、記憶部21と検知部22とを備える。記憶部21は、例えばRAM等のメモリデバイスからなる。記憶部21は、カメラ12によって撮影された画像を逐次保存すると共に、検知部22の処理に必要なデータを一時的に保存しておくためのバッファエリアを有する。なお、記憶部21には、撮影画像に対する前処理として、歪み補正や拡大縮小、一部切り取り等の処理が施された画像が保存されるとしても良い。 The image processing device 20 includes a storage section 21 and a detection section 22 . The storage unit 21 is composed of a memory device such as a RAM, for example. The storage unit 21 sequentially stores images captured by the camera 12 and has a buffer area for temporarily storing data required for processing by the detection unit 22 . Note that the storage unit 21 may store an image that has undergone processing such as distortion correction, enlargement/reduction, and partial cutout as preprocessing for the captured image.

検知部22は、例えばマイクロプロセッサからなり、カメラ12の撮影画像を用いて、乗りかご11内または乗場15にいる利用者を検知する。この検知部22を機能的に分けると、検知エリア設定部23、検知処理部24で構成される。なお、これらは、ソフトウェアによって実現しても良いし、IC(Integrated Circuit)等のハードウェアにより実現しても良いし、ソフトウェアおよびハードウェアを併用して実現しても良い。また、画像処理装置20の一部あるいは全部の機能をエレベータ制御装置30に持たせることでも良い。 The detection unit 22 is composed of, for example, a microprocessor, and uses the image captured by the camera 12 to detect a user in the car 11 or at the hall 15 . The detection unit 22 is functionally divided into a detection area setting unit 23 and a detection processing unit 24 . Note that these may be realized by software, hardware such as an IC (Integrated Circuit), or both software and hardware. Alternatively, the elevator control device 30 may have a part or all of the functions of the image processing device 20 .

検知エリア設定部23は、カメラ12から得られる撮影画像上に利用者を検知するための検知エリアを少なくとも1つ以上設定する。本実施形態では、乗場15の利用者を検知するための検知エリアE1と、乗りかご11内の利用者を検知するための検知エリアE2,E3が設定される。検知エリアE1は、乗車検知エリアとして用いられ、乗りかご11の出入口(かごドア13)から乗場15に向けて設定される。検知エリアE2は、引き込まれ検知エリアとして用いられ、乗りかご11内の入口柱41a,41bに設定される。検知エリアE3は、検知エリアE2と同様に引き込まれ検知エリアとして用いられ、乗りかご11内の出入口側の床面19に設定される(図3参照)。 The detection area setting unit 23 sets at least one or more detection areas for detecting the user on the captured image obtained from the camera 12 . In this embodiment, a detection area E1 for detecting a user of the hall 15 and detection areas E2 and E3 for detecting a user inside the car 11 are set. The detection area E<b>1 is used as a boarding detection area and is set from the doorway (car door 13 ) of the car 11 toward the hall 15 . The detection area E<b>2 is used as a retraction detection area and is set at the entrance pillars 41 a and 41 b inside the car 11 . The detection area E3 is drawn in and used as a detection area in the same manner as the detection area E2, and is set on the floor surface 19 on the entrance/exit side of the car 11 (see FIG. 3).

検知処理部24は、エッジ抽出部24a、動体検知部24b、人物検知部24c、反射推定部24dを有し、カメラ12から得られる撮影画像を解析処理して、乗りかご11内または乗場15に存在する利用者を検知する。なお、エッジ抽出部24a、動体検知部24b、人物検知部24c、反射推定部24dについては、後に図7乃至図13を参照して詳しく説明する。検知処理部24によって検知された利用者が上記検知エリアE1~E3のいずれかに存在した場合に、所定の対応処理(戸開閉制御)が実行される。 The detection processing unit 24 includes an edge extraction unit 24a, a moving object detection unit 24b, a person detection unit 24c, and a reflection estimation unit 24d, and analyzes the photographed image obtained from the camera 12 to detect the inside of the car 11 or the landing 15. Detect existing users. The edge extraction unit 24a, the moving object detection unit 24b, the person detection unit 24c, and the reflection estimation unit 24d will be described later in detail with reference to FIGS. 7 to 13. FIG. When the user detected by the detection processing unit 24 exists in one of the detection areas E1 to E3, a predetermined corresponding process (door opening/closing control) is executed.

エレベータ制御装置30は、CPU、ROM、RAM等を備えたコンピュータからなる。エレベータ制御装置30は、乗りかご11の運転制御などを行う。また、エレベータ制御装置30は、戸開閉制御部31と警告部32を備える。 The elevator control device 30 is composed of a computer having a CPU, a ROM, a RAM, and the like. The elevator control device 30 performs operation control of the car 11 and the like. The elevator control device 30 also includes a door opening/closing control section 31 and a warning section 32 .

戸開閉制御部31は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部31は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。ただし、かごドア13の戸閉動作中に、検知処理部22bによって検知エリアE1内で利用者が検知された場合には、戸開閉制御部31は、かごドア13の戸閉動作を禁止して、かごドア13を全開方向にリオープンして戸開状態を維持する。 The door opening/closing control unit 31 controls opening/closing of the car door 13 when the car 11 arrives at the hall 15 . Specifically, the door opening/closing control unit 31 opens the car door 13 when the car 11 arrives at the hall 15, and closes the car door 13 after a predetermined time has elapsed. However, when the user is detected within the detection area E1 by the detection processing unit 22b during the closing operation of the car door 13, the door opening/closing control unit 31 prohibits the closing operation of the car door 13. , the car door 13 is reopened in the fully open direction to maintain the door open state.

また、かごドア13の戸開動作中に検知処理部22bによって検知エリアE2またはE3内で利用者が検知された場合には、戸開閉制御部31は、ドア事故(戸袋への引き込まれ事故)を回避するための戸開閉制御を行う。具体的には、戸開閉制御部31は、かごドア13の戸開動作を一時停止するか、逆方向(戸閉方向)に動かす、あるいは、かごドア13の戸開速度を遅くする。 Further, when the detection processing unit 22b detects a user within the detection area E2 or E3 during the opening operation of the car door 13, the door opening/closing control unit 31 detects a door accident (an accident caused by being pulled into the door pocket). Door opening/closing control is performed to avoid Specifically, the door opening/closing control unit 31 temporarily stops the door opening operation of the car door 13, moves the car door 13 in the opposite direction (door closing direction), or slows down the door opening speed of the car door 13.

図2は乗りかご11内の出入口周辺部分の構成を示す図である。
乗りかご11の出入口にかごドア13が開閉自在に設けられている。図2の例では両開きタイプのかごドア13が示されており、かごドア13を構成する2枚のドアパネル13a,13bが間口方向(水平方向)に沿って互いに逆方向に開閉動作する。なお、「間口」とは、乗りかご11の出入口と同じである。
FIG. 2 is a diagram showing the configuration of the entrance and exit peripheral portion in the car 11. As shown in FIG.
A car door 13 is provided at the doorway of the car 11 so as to be freely opened and closed. In the example of FIG. 2, a car door 13 of a double-opening type is shown, and two door panels 13a and 13b constituting the car door 13 open and close in opposite directions along the frontage direction (horizontal direction). Note that the “frontage” is the same as the doorway of the car 11 .

乗りかご11の出入口の両側に入口柱41a,41bが設けられており、幕板11aと共に乗りかご11の出入口を囲っている。「入口柱」は、正面柱とも言い、裏側にはかごドア13を収納するための戸袋が設けられているのが一般的である。図2の例では、かごドア13が戸開したときに、一方のドアパネル13aが入口柱41aの裏側に設けられた戸袋42aに収納され、他方のドアパネル13bが入口柱41bの裏側に設けられた戸袋42bに収納される。入口柱41a,41bの一方あるいは両方に表示器43や、行先階ボタン44などが配設された操作盤45、スピーカ46が設置されている。図2の例では、入口柱41aにスピーカ46、入口柱41bに表示器43、操作盤45が設置されている。 Entrance pillars 41a and 41b are provided on both sides of the doorway of the car 11, and surround the doorway of the car 11 together with the curtain plate 11a. The "entrance pillar" is also called a front pillar, and is generally provided with a door pocket for housing the car door 13 on the back side. In the example of FIG. 2, when the car door 13 is opened, one door panel 13a is accommodated in the door pocket 42a provided on the back side of the entrance pillar 41a, and the other door panel 13b is provided on the back side of the entrance pillar 41b. It is housed in the door pocket 42b. One or both of the entrance pillars 41a and 41b are provided with a display 43, an operating panel 45 having destination floor buttons 44, and a speaker 46. As shown in FIG. In the example of FIG. 2, a speaker 46 is installed on the entrance pillar 41a, and a display 43 and an operation panel 45 are installed on the entrance pillar 41b.

カメラ12は、乗りかご11の出入口上部に水平方向に配設された幕板11aの中に設けられる。ここで、乗場15の利用者を戸閉直前まで検知するため、かごドア13の戸閉位置に合わせてカメラ12が取り付けられている。具体的には、かごドア13が両開きタイプであれば、幕板11aの中央部にカメラ12が取り付けられる。また、乗りかご11内の天井面には、例えばLEDを用いた照明機器48が設置されている。 The camera 12 is provided in a panel 11a horizontally arranged above the doorway of the car 11. - 特許庁Here, a camera 12 is attached in accordance with the closed position of the car door 13 in order to detect the user of the hall 15 until just before the door closes. Specifically, if the car door 13 is of a double-opening type, the camera 12 is attached to the central portion of the curtain plate 11a. A lighting device 48 using, for example, an LED is installed on the ceiling surface inside the car 11 .

図3に示すように、カメラ12は、乗りかご11の出入口に設けられたかごドア13と水平の方向をX軸、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸、乗りかご11の高さ方向をZ軸とした画像を撮影する。 As shown in FIG. 3, the camera 12 measures the direction horizontal to the car door 13 provided at the entrance of the car 11 as the X axis, and the direction from the center of the car door 13 to the landing 15 (vertical to the car door 13). direction) is taken as the Y-axis, and the height direction of the car 11 is taken as the Z-axis.

図4はカメラ12の撮影画像の一例を示す図である。上側は乗場15、下側は乗りかご11内である。図中の16は乗場15の床面、19は乗りかご11の床面を示している。E1,E2,E3は検知エリアを表している。 FIG. 4 is a diagram showing an example of an image captured by the camera 12. As shown in FIG. The upper side is the landing 15 and the lower side is the inside of the car 11 . In the figure, 16 indicates the floor of the landing 15 and 19 indicates the floor of the car 11 . E1, E2, and E3 represent detection areas.

かごドア13は、かごシル47上を互いに逆方向に移動する2枚のドアパネル13a,13bを有する。乗場ドア14も同様であり、乗場シル18上を互いに逆方向に移動する2枚のドアパネル14a,14bを有する。乗場ドア14のドアパネル14a,14bは、かごドア13のドアパネル13a,13bと共に戸開閉方向に移動する。 The car door 13 has two door panels 13a, 13b that move on the car sill 47 in opposite directions. The landing door 14 is similar and has two door panels 14a, 14b that move in opposite directions on the landing sill 18. As shown in FIG. The door panels 14a and 14b of the landing door 14 move together with the door panels 13a and 13b of the car door 13 in the door opening/closing direction.

カメラ12は乗りかご11の出入口上部に設置されている。したがって、乗りかご11が乗場15で戸開したときに、図1に示したように、乗場側の所定範囲(L1)とかご内の所定範囲(L2)が撮影される。このうち、乗場側の所定範囲(L1)に、乗りかご11に乗車する利用者を検知するための検知エリアE1が設定されている。 A camera 12 is installed above the doorway of the car 11 . Therefore, when the car 11 is opened at the landing 15, as shown in FIG. 1, a predetermined range (L1) on the landing side and a predetermined range (L2) inside the car are photographed. Among them, a detection area E1 for detecting a user getting on the car 11 is set in a predetermined range (L1) on the platform side.

実空間において、検知エリアE1は、出入口(間口)の中心から乗場方向に向かってL3の距離を有する(L3≦乗場側の撮影範囲L1)。全開時における検知エリアE1の横幅W1は、出入口(間口)の横幅W0以上の距離に設定されている。検知エリアE1は、図4に斜線で示すように、シル18,47を含み、三方枠17a,17bの死角を除いて設定される。なお、検知エリアE1の横方向(X軸方向)のサイズは、かごドア13の開閉動作に合わせて変更される構成としても良い。また、検知エリアE1の縦方向(Y軸方向)のサイズについても、かごドア13の開閉動作に合わせて変更される構成としても良い。 In the real space, the detection area E1 has a distance of L3 from the center of the doorway (frontage) toward the hall (L3 ≤ hall-side shooting range L1). The width W1 of the detection area E1 when fully open is set to a distance equal to or greater than the width W0 of the entrance (frontage). The detection area E1 includes the sills 18 and 47 and is set excluding blind spots of the three-sided frames 17a and 17b, as indicated by diagonal lines in FIG. The size of the detection area E<b>1 in the horizontal direction (X-axis direction) may be changed in accordance with the opening/closing operation of the car door 13 . Further, the size of the detection area E1 in the vertical direction (Y-axis direction) may also be changed according to the opening/closing operation of the car door 13 .

図5に示すように、乗車検知エリアとして用いられる検知エリアE1は、乗車意思推定エリアE1a,近接検知エリアE1b,シル上検知エリアE1cからなる。乗車意思推定エリアE1aは、利用者が乗車意思を持って乗りかご11に向かっているか否かを推定するためのエリアである。近接検知エリアE1bは、利用者が乗りかご11の出入口に近接していることを検知するためのエリアである。シル上検知エリアE1cは、利用者がシル18,47上を通過していることを検知するためのエリアである。 As shown in FIG. 5, the detection area E1 used as the boarding detection area consists of a boarding intention estimation area E1a, a proximity detection area E1b, and an on-sill detection area E1c. The boarding intention estimation area E1a is an area for estimating whether or not the user is heading toward the car 11 with the boarding intention. The proximity detection area E1b is an area for detecting that the user is approaching the doorway of the car 11 . The on-sill detection area E1c is an area for detecting that the user is passing over the sills 18,47.

ここで、本システムでは、乗車検知用の検知エリアE1とは別に、検知エリアE2,E3を有する。検知エリアE2,E3は、引き込まれ検知エリアとして用いられる。検知エリアE2は、乗りかご11の入口柱41a,41bの内側側面41a-1,41b-1に沿って、所定の幅を有して設定される。なお、内側側面41a-1,41b-1の横幅に合わせて検知エリアE2を設定しても良い。検知エリアE3は、乗りかご11の床面19のかごシル47に沿って、所定の幅を有して設定される。 Here, in this system, detection areas E2 and E3 are provided separately from the detection area E1 for boarding detection. The detection areas E2 and E3 are drawn in and used as detection areas. The detection area E2 is set along the inner side surfaces 41a-1 and 41b-1 of the entrance pillars 41a and 41b of the car 11 with a predetermined width. Note that the detection area E2 may be set according to the width of the inner side surfaces 41a-1 and 41b-1. The detection area E3 is set with a predetermined width along the car sill 47 on the floor 19 of the car 11 .

かごドア13の戸開動作中に、検知エリアE2またはE3内で利用者が検知されると、例えばかごドア13の戸開動作を一時停止するか、逆方向(戸閉方向)に動かす、あるいは、かごドア13の戸開速度を遅くするなどの対応処理が実行される。また、音声アナウンスにより、例えば「ドアから離れてください」などの警告が発せられる。 When the user is detected within the detection area E2 or E3 during the opening operation of the car door 13, for example, the opening operation of the car door 13 is temporarily stopped, moved in the opposite direction (door closing direction), or , a corresponding process such as slowing down the opening speed of the car door 13 is executed. In addition, a warning, such as "Keep away from the door", is issued by voice announcement.

(検知処理の問題)
通常、引き込まれ検知は、引き込まれ検知エリアである検知エリアE2,E3内の画像の輝度変化が利用者の侵入によって正しく表れることを前提としている。ところが、検知エリアE2,E3は、乗りかご11内に設定されているため、かご室内の照明環境の影響を強く受ける。つまり、図6に示すように、利用者P1がかごドア13から離れた場所に乗車している場合であっても、照明機器48の照明光の関係で、利用者P1の影S1が検知エリアE2またはE3に入り込むことがある。検知エリアE2またはE3に影S1が入り込むと、影S1の動きに伴い、画像上で輝度変化が大きく生じ、影S1が利用者P1として過検知される可能性がある。
(Problem of detection processing)
Usually, the attraction detection is based on the premise that the change in brightness of the image in the detection areas E2 and E3, which are the attraction detection areas, is correctly displayed by the user's intrusion. However, since the detection areas E2 and E3 are set within the car 11, they are strongly affected by the lighting environment inside the car. In other words, as shown in FIG. 6, even when the user P1 gets on the car at a place away from the car door 13, the shadow S1 of the user P1 is in the detection area due to the illumination light of the lighting device 48. It may enter E2 or E3. If the shadow S1 enters the detection area E2 or E3, there is a possibility that the shadow S1 will be over-detected as the user P1 due to a large change in luminance on the image as the shadow S1 moves.

これは、乗車検知処理でも同様である。すなわち、乗車検知エリアである検知エリアE1は、乗りかご11の出入口周辺の乗場15に設定される。乗場15の照明環境の関係で、検知エリアE1に影が入り込むと、画像上で輝度変化により、影の過検知が生じる可能性がある。 This also applies to boarding detection processing. That is, the detection area E<b>1 that is the boarding detection area is set at the landing 15 around the entrance/exit of the car 11 . If a shadow enters the detection area E1 due to the lighting environment of the hall 15, there is a possibility that the shadow will be over-detected due to a change in luminance on the image.

・陰による輝度変化
図7は照明光の反射によって生じる陰を説明するための図であり、図7(a)は乗りかご11内に利用者P1がいない場合、同図(b)は乗りかご11内に利用者P1がいる場合を示している。
・Brightness change due to shadows Fig. 7 is a diagram for explaining shadows caused by reflection of illumination light. 11 shows a case where the user P1 is present.

図7(a)に示すように、乗りかご11内に利用者P1がいない場合には、照明機器48から照射された光が床面19で反射したときに、照射光とほぼ同じ量の反射光がカメラ12に入射される。ところが、図7(b)に示すように、照明機器48と床面19との間に利用者P1が立っていると、照明機器48の光が利用者P1を介して床面19で反射するので、カメラ12に入射される反射光の量が変化して輝度変化が生じる。このとき、利用者P1の近くで「陰」と呼ばれる現象が生じており、この陰が利用者P1として過検知されることがある。図中のS2が陰である。図6に示した影S1は床面19よりも暗い輝度変化となるが、陰S2は床面19よりも明るい輝度変化となる。 As shown in FIG. 7(a), when there is no user P1 in the car 11, when the light emitted from the lighting equipment 48 is reflected on the floor surface 19, almost the same amount of light is reflected as the emitted light. Light is incident on camera 12 . However, as shown in FIG. 7B, when the user P1 stands between the lighting device 48 and the floor surface 19, the light from the lighting device 48 is reflected by the floor surface 19 through the user P1. Therefore, the amount of reflected light incident on the camera 12 changes, resulting in a luminance change. At this time, a phenomenon called "shadow" occurs near the user P1, and this shadow may be over-detected as the user P1. S2 in the figure is the shadow. The shadow S1 shown in FIG.

乗場15でも同様であり、乗場15の照明環境によって、利用者の近くに、反射光による陰が発生すると、その陰が利用者として過検知される可能性がある。特に、照明機器として、例えばダウンライトが用いられている場合に、床面が局所的に照らされるので、反射光による陰が発生しやすい。 The same applies to the hall 15. If a shadow due to reflected light is generated near the user due to the lighting environment of the hall 15, the shadow may be over-detected as the user. In particular, when a downlight is used as the lighting equipment, the floor surface is locally illuminated, so shadows due to reflected light are likely to occur.

そこで、本実施形態では、図1に示した画像処理装置20の検知処理部24に下記のような機能(エッジ抽出、動体検知、人物検知、反射推定部)を持たせ、撮影画像として連続的に得られる各画像間(フレーム間)のエッジ変化を利用して利用者を検知する場合に、陰が存在する反射領域を推定して、当該反射領域における検知処理を変更する構成としている。「エッジ変化」とは、画像間の同じ位置から抽出されたエッジが変化した状態を言う。「エッジ変化」は、エッジ強度の差分である「エッジ差分」を含む。以下では、エッジ変化の一例として、エッジ差分を求める場合を例にして、検知処理部24に備えられた機能(エッジ抽出、動体検知、人物検知、反射推定部)について、詳しく説明する。 Therefore, in this embodiment, the detection processing unit 24 of the image processing apparatus 20 shown in FIG. When the user is detected using the edge change between images (between frames) obtained in the above, a reflection area in which a shadow exists is estimated, and detection processing in the reflection area is changed. "Edge change" refers to a change in an edge extracted from the same position between images. "Edge change" includes "edge difference" which is the difference in edge strength. In the following, the functions (edge extraction, moving object detection, human detection, and reflection estimation section) provided in the detection processing section 24 will be described in detail, taking a case of obtaining an edge difference as an example of edge change.

(a)反射推定
まず、反射推定について説明する。
反射推定は、「陰」の誤検知を抑制するために必要な機能の1つである。「陰」の発生場所を特定できないため、反射推定部24dは、撮影画像の中で照明光が反射している部分とその周囲(床面や陰)を含む反射領域を推定する。反射領域の推定は、撮影画像の各画素の輝度値のばらつき(輝度分布)を解析することで行う。これは、輝度値だけに着目すると、例えば白い服を着た人がいた場合に、反射領域と白い服とを区別できないからである。
(a) Reflection Estimation First, reflection estimation will be described.
Reflection estimation is one of the functions necessary to suppress false detection of "shadow". Since the place where the "shadow" occurs cannot be specified, the reflection estimation unit 24d estimates a reflection area including a part where the illumination light is reflected in the captured image and its surroundings (floor surface and shadow). The reflective area is estimated by analyzing variations in luminance value (luminance distribution) of each pixel in the captured image. This is because if only the luminance value is focused, for example, when there is a person wearing white clothes, it is impossible to distinguish between the reflective area and the white clothes.

反射領域の推測は、1枚の画像、もしくは、複数枚の画像を用いて、例えば13×13画素の範囲で各画素の輝度分布を解析することで行う。輝度分布の解析範囲は固定化されていても良いし、パラメータ設定あるいは撮影対象に応じて自動変更されても良い。 The reflective area is estimated by analyzing the luminance distribution of each pixel in a range of 13×13 pixels, for example, using one image or a plurality of images. The analysis range of the luminance distribution may be fixed, or may be automatically changed according to parameter settings or an object to be photographed.

カメラ12の設置位置の高さや、照明機器のタイプなどによって輝度分布の解析範囲を変更することでも良い。カメラ12の高さが床面から離れているほど、「陰」の発生場所が広がる傾向にあるため、各画素の輝度分布を広範囲に解析することが好ましい。また、照明機器としてダウンライトが用いられている場合には、「陰」が発生しやすいので、各画素の輝度分布を広範囲に解析することが好ましい。 The analysis range of the luminance distribution may be changed depending on the height of the installation position of the camera 12, the type of lighting equipment, and the like. As the height of the camera 12 is farther from the floor, there is a tendency for the occurrence of "shadows" to expand. Therefore, it is preferable to analyze the luminance distribution of each pixel over a wide range. Further, when a downlight is used as the lighting equipment, "shadows" are likely to occur, so it is preferable to analyze the luminance distribution of each pixel over a wide range.

また、反射領域を推定する場合には、エッジ分布を解析することでも良い。エッジ分布も各画像の輝度値のばらつきを反映したものであるため、輝度分布と同様に反射領域を推定できる。なお、エッジの抽出方法については後述する。 Moreover, when estimating the reflection area, the edge distribution may be analyzed. Since the edge distribution also reflects the variation in the luminance value of each image, the reflection area can be estimated in the same manner as the luminance distribution. A method for extracting edges will be described later.

図8は反射領域の一例を示す図である。図中の51は人物であり、具体的には乗りかご11内にいる利用者である。 FIG. 8 is a diagram showing an example of a reflective area. Reference numeral 51 in the figure denotes a person, specifically a user in the car 11 .

反射領域REは、反射レベルが異なる複数の領域RE-1~RE-4を含む。明るい輝度値を多く含む領域ほど、反射レベルが高くなる。図8の例では、人物51の近くに存在する反射領域REの反射レベルを0~4段階に分けて分類している(0<1<2<3<4,0は反射なし)。
領域RE-1:反射レベル4
領域RE-2:反射レベル3
領域RE-3:反射レベル2
領域RE-4:反射レベル1
The reflection area RE includes a plurality of areas RE-1 to RE-4 with different reflection levels. Regions containing more bright luminance values have a higher reflection level. In the example of FIG. 8, the reflection level of the reflection area RE existing near the person 51 is classified into 0 to 4 stages (0<1<2<3<4, 0 means no reflection).
Region RE-1: reflection level 4
Region RE-2: Reflection level 3
Region RE-3: Reflection level 2
Region RE-4: Reflection level 1

図8の例では、説明を簡単にするため、領域RE-1~RE-4を模式的に表したが、実際にはもっと複雑な形態になる。通常、乗りかご11内であれば、かごシル47などの金属部分で照射光が強く反射するため、反射レベルが高くなる。しかし、照明光が反射している部分の周囲に、人物51の陰が発生していると、その陰によって反射レベルが一様でなくなる。例えば、照明の光が人物51を介して床面で反射している場合に、人物51の手の指と指との隙間を通る光と、手のひらなどで遮られる光などによって、人物51の周囲の反射レベルが複雑に変わってくる。 In the example of FIG. 8, the regions RE-1 to RE-4 are schematically shown for the sake of simplicity of explanation, but in reality the form will be more complicated. Normally, within the car 11, since the irradiated light is strongly reflected by metal parts such as the car sill 47, the reflection level is high. However, if the shadow of the person 51 occurs around the portion where the illumination light is reflected, the reflection level will not be uniform due to the shadow. For example, when the light of illumination is reflected on the floor through the person 51, the light passing through the gaps between the fingers of the person 51 and the light blocked by the palm of the person 51 may affect the surroundings of the person 51. The reflection level of the changes in a complicated manner.

このように、人物51の近くで反射レベルが変化している部分、つまりは、陰か発生している部分では輝度変化が生じ、陰が人物51として過検知される可能性がある。したがって、本実施形態では、このような陰の過検知を抑制するために、人物51の近くで、輝度値がばらついている領域を陰が存在する反射領域REとして推定することで、その反射領域RE内における検知処理(後述する動体検知の処理)を変更している。 In this way, a portion where the reflection level changes near the person 51 , that is, a portion where a shadow occurs, causes a luminance change, and the shadow may be over-detected as the person 51 . Therefore, in the present embodiment, in order to suppress such over-detection of shadows, an area near the person 51 in which luminance values vary is estimated as a reflection area RE in which shadows exist. The detection processing (moving object detection processing, which will be described later) in the RE is changed.

(b)エッジ抽出
エッジ抽出は、「影」の誤検知を抑制するために必要な機能であり、「陰」の誤検知だけに着目した場合には必ずしも必要としない。エッジ抽出部24aは、カメラ12の撮影画像からエッジの情報を抽出する。この場合、1枚の画像、もしくは、複数枚の画像からエッジの情報を抽出することでも良い。「エッジ」とは、画像の各画素の輝度値が不連続に変化している境界線のことである。例えば、ソーベルフイルタやラプラシアンフイルタなどのエッジ抽出フィルタを用いて、画像上で輝度値が特徴的に変化する部分をエッジとして抽出する。エッジの情報には、輝度勾配の方向と強度などが含まれる。
(b) Edge Extraction Edge extraction is a function necessary to suppress erroneous detection of "shadow", and is not necessarily required when focusing only on erroneous detection of "shadow". The edge extraction unit 24 a extracts edge information from the image captured by the camera 12 . In this case, edge information may be extracted from one image or from a plurality of images. An "edge" is a boundary line where the luminance value of each pixel of an image changes discontinuously. For example, an edge extraction filter such as a Sobel filter or a Laplacian filter is used to extract, as an edge, a portion in which the luminance value characteristically changes on the image. The edge information includes the direction and strength of the luminance gradient.

エッジ強度は、輝度勾配によって求められる。輝度勾配を求める範囲は、例えば3×3画素の範囲でも良いし、それ以外の範囲で求めても良い。また、輝度勾配を求める範囲は固定化されていても良いし、パラメータ設定あるいは撮影対象に応じて自動変更されても良い。 Edge strength is determined by a luminance gradient. The range for obtaining the luminance gradient may be, for example, a range of 3×3 pixels, or may be obtained in a range other than that. Also, the range for obtaining the luminance gradient may be fixed, or may be automatically changed according to parameter settings or an object to be photographed.

・輝度勾配の方向と強度の組み合わせ
エッジ抽出部24aは、撮影画像の各画素毎に輝度勾配の方向と強度を求め、これらを組み合わせた情報に基づいて、影の領域を除いたエッジを抽出する。輝度勾配の方向には、上→下,下→上,左→右,右→左の4方向(水平垂直方向)の他に、左上→右下,左下→右上,右上→左下,右下→左上の4方向(斜め方向)がある。影の過検知を抑制するためには、少なくとも2方向以上の輝度勾配を求めることが好ましい。
・Combination of direction and strength of luminance gradient The edge extracting unit 24a obtains the direction and strength of the luminance gradient for each pixel of the captured image, and extracts edges excluding shadow regions based on the combined information. . In addition to the four directions (horizontal and vertical directions) of top-to-bottom, bottom-to-top, left-to-right, and right-to-left, there are four directions of luminance gradient: upper-left to lower-right, lower-left to upper-right, upper-right to lower-left, and lower-right to There are four directions (diagonal directions) to the upper left. In order to suppress over-detection of shadows, it is preferable to obtain luminance gradients in at least two directions.

なお、共起が成立するエッジを抽出しても良い。例えば、着目画素に対して、左方向と右方向に輝度勾配の方向を有するエッジを抽出することでも良い。エッジ強度は、選定した各方向の輝度値の平均などで算出する。 It should be noted that it is also possible to extract edges for which co-occurrence is established. For example, it is also possible to extract edges having luminance gradient directions in the left and right directions with respect to the pixel of interest. The edge strength is calculated by averaging luminance values in each selected direction.

・山型エッジ
エッジ抽出部24aは、上記影の領域を除いたエッジとして、輝度値が山型状に変化するエッジを抽出する。
Mountain-Shaped Edge The edge extraction unit 24a extracts an edge whose luminance value changes in a mountain-like shape as an edge excluding the shadow region.

図9は人物と影を含んだ撮影画像の一例を示す図である。図中の51は人物であり、具体的には乗りかご11内にいる利用者である。図中の52は乗りかご11内の床面に生じている影であり、人物51が前方に突き出した手の影を模式的に表している。図10は人物51に対応した画像53の輝度値の変化をx軸方向に見た状態を示す図である。図11は影52に対応した画像54の輝度値の変化をx軸方向に見た状態を示す図である。 FIG. 9 is a diagram showing an example of a photographed image including a person and a shadow. Reference numeral 51 in the figure denotes a person, specifically a user in the car 11 . Reference numeral 52 in the drawing denotes a shadow that appears on the floor inside the car 11, and schematically represents a shadow of the hand of the person 51 protruding forward. FIG. 10 is a diagram showing changes in luminance values of an image 53 corresponding to a person 51 as seen in the x-axis direction. FIG. 11 is a diagram showing changes in the luminance value of the image 54 corresponding to the shadow 52 as seen in the x-axis direction.

図10に示すように、人物51に対応した画像53には、人物51の手の指や服のしわなどによって、輝度値が不連続に変化するエッジが多数存在する。これに対し、図11に示すように、影52に対応した画像54の内部の輝度値の変化は平坦であり、境界部では輝度値が変化するが、輝度勾配の方向が一方向となる。したがって、影52の過検知を抑制するためには、二方向以上の輝度勾配とその強度の組み合わせを有し、輝度値が山型状に連続的に変化するエッジ(以下、山型エッジと称す)を抽出することが効果的である。このような山型エッジに着目してエッジ抽出を行うことで、撮影画像から影の領域以外のエッジを効率的に抽出することができ、そのエッジの変化つまりエッジ差分を利用して、影の動きに影響されない検知処理を実現できる。 As shown in FIG. 10, an image 53 corresponding to a person 51 has many edges whose luminance values change discontinuously due to the fingers of the person 51, creases in clothes, and the like. On the other hand, as shown in FIG. 11, the change in the brightness value inside the image 54 corresponding to the shadow 52 is flat, and the brightness value changes at the boundary, but the direction of the brightness gradient is unidirectional. Therefore, in order to suppress over-detection of the shadow 52, an edge having a combination of luminance gradients and their intensities in two or more directions and whose luminance value changes continuously in a mountain-like shape (hereinafter referred to as a mountain-shaped edge) ) is effective. By performing edge extraction focusing on such mountain-shaped edges, it is possible to efficiently extract edges other than the shadow area from the captured image. Detection processing unaffected by movement can be realized.

図12および図13を用いて、山型エッジの強度の算出方法を説明する。
例えば3×3画素の範囲の中心に位置する画素を着目画素とし、その着目画素に対し、上下左右の4つの向きの輝度差を求める。これらの輝度差を平均した値を山型エッジの強度として算出する。
12 and 13, a method for calculating the strength of the mountain-shaped edge will be described.
For example, a pixel located in the center of a range of 3×3 pixels is taken as a pixel of interest, and luminance differences in four directions of up, down, left, and right are obtained for the pixel of interest. A value obtained by averaging these luminance differences is calculated as the intensity of the mountain-shaped edge.

256階調において、着目画素の輝度値が「191」とする。着目画素の上に位置する画素の輝度値が「0(黒)」、着目画素の右に位置する画素の輝度値が「64」、着目画素の下に位置する画素の輝度値が「127」、着目画素の左に位置する画素の輝度値が「255(白)」であった場合、下記のような計算によって山型エッジの強度が求められる。
{(191-0)+(191-64)+(191-127)+0}/4=95.5
なお、着目画素の左に位置する画素の輝度値は、着目画素より大きいため、「0」として計算している。上記式により、当該画素の位置におけるエッジ強度は、「96(95.5を整数に正規化)」として求められる。
Assume that the luminance value of the pixel of interest is "191" in 256 gradations. The luminance value of the pixel positioned above the pixel of interest is "0 (black)", the luminance value of the pixel positioned to the right of the pixel of interest is "64", and the luminance value of the pixel positioned below the pixel of interest is "127". , the luminance value of the pixel positioned to the left of the pixel of interest is "255 (white)", the intensity of the mountain-shaped edge is obtained by the following calculation.
{(191-0)+(191-64)+(191-127)+0}/4=95.5
Note that the luminance value of the pixel positioned to the left of the pixel of interest is greater than that of the pixel of interest, and is therefore calculated as "0." According to the above formula, the edge intensity at the position of the pixel is obtained as "96 (95.5 normalized to an integer)".

(c)動体検知
動体検知は、撮影画像上で何らかの動きを有する物体を検知する機能である。通常、画像間の輝度変化(輝度差分)によって動体の有無を検知する方法が用いられる。しかしながら、「影」が発生している部分でも輝度変化が生じているため、その部分を動体(つまりは利用者)として過検知する可能性がある。
(c) Moving Object Detection Moving object detection is a function of detecting an object that has some kind of movement on a captured image. Usually, a method of detecting the presence or absence of a moving object based on a luminance change (luminance difference) between images is used. However, since luminance changes occur even in a portion where a "shadow" occurs, there is a possibility that that portion will be over-detected as a moving object (that is, a user).

そこで、本実施形態では、エッジ差分を利用して動体検知を行う構成としている。動体検知部24bは、エッジ抽出部24aによって抽出されたエッジを撮影画像として連続的に得られる各画像間で比較してエッジ差分を求め、このエッジ差分に基づいて動体を検知する。 Therefore, in the present embodiment, the moving object detection is performed using the edge difference. The moving object detection unit 24b compares the edges extracted by the edge extraction unit 24a between images continuously obtained as captured images to obtain edge differences, and detects a moving object based on the edge differences.

「エッジ差分」とは、具体的にはエッジ強度の差である。図13の例で説明すると、いま、1枚目の画像の着目画素におけるエッジ強度が「96」として算出されたとする。次の画像の同じ着目画素のエッジ強度が「10」であった場合、エッジ強度の差は、96-10=86である。例えば、閾値を「40」とすると、「86」は閾値以上なので、当該着目画素の部分で動きありとして判定される。 "Edge difference" is specifically a difference in edge intensity. In the example of FIG. 13, assume that the edge strength of the target pixel of the first image is calculated as "96". If the edge strength of the same pixel of interest in the next image is "10", the edge strength difference is 96-10=86. For example, if the threshold value is "40", "86" is greater than or equal to the threshold value, so it is determined that there is movement at the pixel of interest.

別の方法として、エッジ強度を二値化してから差分を求めることでも良い。
例えば、閾値を「40」とした場合に、エッジ強度「96」は「255」、エッジ強度「40」は「0」に二値化される。両者の差分は、255-0=255となり、「0」ではないので、動きありとして判定される。
As another method, it is also possible to obtain the difference after binarizing the edge strength.
For example, when the threshold value is "40", edge strength "96" is binarized to "255" and edge strength "40" is binarized to "0". The difference between the two is 255-0=255, which is not "0", so it is determined that there is movement.

図9の例で、図中の55は動きありとして判定された画素(動き画素)を示す。人物51の画像53には、手や服の部分に動き画素55が多数存在するが、影52の画像54には動き画素55が存在しない。後述するように、この動き画素55の分布から動体が人物であるか否かを判断できる。 In the example of FIG. 9, 55 in the figure indicates pixels (moving pixels) determined to have motion. The image 53 of the person 51 has many motion pixels 55 in the hands and clothes, but the image 54 of the shadow 52 has no motion pixels 55 . As will be described later, it can be determined from the distribution of the motion pixels 55 whether or not the moving object is a person.

・エッジ差分と輝度差分
エッジ差分と輝度差分を併用して、動体検知を行う構成としても良い。この場合、動体検知部24bは、エッジ差分とは別に、撮影画像として連続して得られる各画像間の輝度差分(輝度値の差分)を求め、その輝度差分とエッジ差分とに基づいて動体を検知する。エッジ差分の結果と輝度差分の結果を統合する方法としては、以下のような論理演算(AND/OR演算など)やパラメータ変更などがある。
- Edge difference and luminance difference Moving object detection may be performed using both the edge difference and the luminance difference. In this case, in addition to the edge difference, the moving object detection unit 24b obtains the luminance difference (difference in luminance value) between the images successively obtained as the captured images, and detects the moving object based on the luminance difference and the edge difference. detect. As a method of integrating the result of the edge difference and the result of the luminance difference, there are the following logical operation (AND/OR operation, etc.), parameter change, and the like.

AND演算:エッジ差分と輝度差分の両方で画像上の動き画素が検知された場合に、当該動き画素を含む所定の範囲に動体が存在するものと判定する。 AND operation: When a motion pixel on the image is detected by both the edge difference and the luminance difference, it is determined that a moving object exists in a predetermined range including the motion pixel.

OR演算:エッジが多い領域(影の可能性が少ない領域)に対しては輝度差分を用い、エッジが少ない領域(影の可能性が高い領域)に対してはエッジ差分を用いる。「エッジが多い領域」とは、エッジ抽出部24aによって抽出されたエッジの数(画素数)が影の判定基準として定められた規定数以上の領域のことである。「エッジが少ない領域」とは、エッジ抽出部24aによって抽出されたエッジの数(画素数)が影の判定基準として定められた規定数より少ない領域のことである。 OR operation: The luminance difference is used for areas with many edges (areas with low possibility of being shadowed), and the edge difference is used for areas with few edges (areas with high possibility of being shadowed). A “region with many edges” is a region in which the number of edges (the number of pixels) extracted by the edge extraction unit 24a is equal to or greater than a prescribed number defined as a shadow determination criterion. A “area with few edges” is an area in which the number of edges (the number of pixels) extracted by the edge extracting unit 24a is smaller than the specified number defined as the shadow determination criterion.

パラメータ変更:エッジが多い領域(影の可能性が少ない領域)に対しては輝度差分のパラメータを検知しやすくし(つまり、輝度差分の閾値を標準値よりも下げておく)、エッジが少ない領域(影の可能性が高い領域)に対しては輝度差分のパラメータを検知しにくくする(つまり、輝度差分の閾値を標準値よりも上げておく)。 Parameter change: For areas with many edges (areas with little possibility of shadows), the luminance difference parameter is made easier to detect (that is, the luminance difference threshold is set lower than the standard value), and for areas with few edges For (regions with a high possibility of being shadowed), the parameter of the luminance difference is made difficult to detect (that is, the threshold of the luminance difference is set higher than the standard value).

・反射領域を考慮した動体検知
輝度変化の要因は「影」だけでなく、照明光によって生じる「陰」にもある。したがって、単純にエッジ変化だけで動体検知を行うと、陰が発生している部分を動体(つまりは利用者)として過検知する可能性がある。図8で説明したように、撮影画像上で陰が発生している領域は、照明光が反射している部分とその周囲を含む反射領域によって推定される。
・Moving object detection considering reflective areas Not only “shadows” but also “shadows” caused by illumination light are factors of brightness changes. Therefore, if a moving object is simply detected based on only edge changes, there is a possibility that the shaded portion may be over-detected as a moving object (that is, the user). As described with reference to FIG. 8, the area where the shadow occurs on the captured image is estimated by the reflection area including the part where the illumination light is reflected and its surroundings.

動体検知部24bは、反射推定部24dによって推定された反射領域の反射レベルに応じて、撮影画像から動体を検知するときの処理を変更する。「撮影画像から動体を検知するときの処理を変更する」とは、具体的には、エッジ差分に対する閾値を変更することである。この場合、反射レベルが高い領域(つまり、明るい領域)ほど、陰による過検知が発生しやすい領域と考えられる。したがって、エッジ差分に対する閾値を標準値よりも上げて、動体として検知しづらくする。 The moving object detection unit 24b changes the processing when detecting a moving object from the captured image according to the reflection level of the reflection area estimated by the reflection estimation unit 24d. Specifically, "changing the processing when detecting a moving object from a captured image" means changing the threshold value for the edge difference. In this case, an area with a higher reflection level (that is, a brighter area) is considered to be an area where overdetection due to shadows is more likely to occur. Therefore, the threshold for the edge difference is raised above the standard value to make it difficult to detect the object as a moving object.

例えば、エッジ差分に対する閾値をTH1とすると、図8に示した反射レベル1の領域RE-4ではTH1を1段階上げる。同様にして、反射レベル2の領域RE-3ではTH1を2段階上げ、反射レベル3の領域RE-3ではTH1を3段階上げ、反射レベル4の領域RE-4ではTH1を4段階上げる。 For example, if the threshold value for the edge difference is TH1, TH1 is increased by one step in the region RE-4 of reflection level 1 shown in FIG. Similarly, in the region RE-3 of the reflection level 2, TH1 is raised by two steps, in the region RE-3 of the reflection level 3, TH1 is raised by three steps, and in the region RE-4 of the reflection level 4, TH1 is raised by four steps.

なお、輝度差分だけを利用して動体検知する構成とした場合でも、反射レベルに応じて輝度差分に対する閾値を段階的に変更するようにしても良い。これにより、反射レベルが高い領域に対する輝度差分の判定が厳しくなり、陰による過検知を抑制することができる。 Note that even when the moving object is detected using only the luminance difference, the threshold for the luminance difference may be changed stepwise according to the reflection level. As a result, the determination of the luminance difference for the region with a high reflection level becomes stricter, and overdetection due to shadows can be suppressed.

また、輝度差分とエッジ差分を併用して動体検知する構成としても良い。この場合、動体検知部24bは、反射領域の反射レベルに応じて輝度差分とエッジ差分を使い分ける。つまり、反射領域の反射レベルが一定レベルよりも低い場合(陰による過検知が発生しにくい領域)には輝度差分を使用し、反射領域の反射レベルが一定レベル以上の場合(陰による過検知が発生しやすい領域)にはエッジ差分を使用して動体検知を行う。上記「一定レベル」は、任意に設定可能であり、例えば反射レベル0~4の中のレベル3としても良い。 Moreover, it is good also as a structure which detects a moving body using both a luminance difference and an edge difference. In this case, the moving object detection unit 24b selectively uses the luminance difference and the edge difference according to the reflection level of the reflection area. In other words, when the reflection level of the reflection area is lower than a certain level (an area where overdetection due to shadows is unlikely), the luminance difference is used, and when the reflection level of the reflection area is above a certain level (overdetection due to shadows is unlikely) moving object detection is performed using the edge difference in the area where it is likely to occur). The "constant level" can be arbitrarily set, and may be level 3 among reflection levels 0 to 4, for example.

(d)人物検知
人物検知部24cは、動体検知部24bによって検知された動体の情報に基づいて、上記動体を人物として検知する。「人物」とは、具体的には乗りかご11内または乗場15に存在する利用者のことである。「動体の情報」は、動き画素の分布、動体サイズ、動体検知回数のいずれか少なくとも1つを含む。
(d) Person Detection The person detection unit 24c detects the moving object as a person based on the information on the moving object detected by the moving object detection unit 24b. A “person” specifically means a user present in the car 11 or at the hall 15 . The “moving object information” includes at least one of motion pixel distribution, moving object size, and number of times of moving object detection.

「動き画素の分布」は、所定範囲内における動き画素の分布状態を示す。例えば、20×20画素の範囲の中に動き画素が40個(つまり、10%程度)以上存在すれば、人物の動きであると判断する。「動体サイズ」は、動き画素が連続する集合体のサイズを示す。例えば、40個以上の動き画素が連続した集合体として存在すれば、人物の動きであると判断する。「動体検知回数」は、各画像毎に動体として検知された回数を示す。例えば、画像上の同じ位置で一定回数以上、動体として検知されていれば、人物の動きであると判断する。 “Motion pixel distribution” indicates the distribution state of motion pixels within a predetermined range. For example, if there are 40 motion pixels (that is, about 10%) or more in a range of 20×20 pixels, it is determined that the motion is that of a person. "Moving object size" indicates the size of an aggregate of continuous motion pixels. For example, if 40 or more motion pixels exist as a continuous aggregate, it is determined that the motion is that of a person. “Number of moving object detections” indicates the number of times each image is detected as a moving object. For example, if the same position on the image is detected as a moving object more than a certain number of times, it is determined that the movement is that of a person.

・エッジの情報と動体の情報
エッジの情報と動体の情報を併用して人物検知を行う構成としても良い。この場合、人物検知部24cは、エッジの情報に基づいて、動体の情報として得られる動き画素の分布、動体サイズ、動体検知回数のいずれかを用いた人物検知の判定基準を変更して、人物検知を行う。
- Edge information and moving object information A configuration may be adopted in which the edge information and the moving object information are used together to detect a person. In this case, the human detection unit 24c changes the determination criteria for human detection using any one of the motion pixel distribution obtained as the moving object information, the moving object size, and the number of times of moving object detection based on the edge information. detect.

詳しくは、人物検知部24cは、撮影画像の中でエッジが多い領域(影の可能性が少ない領域)に対しては、動き画素の分布あるいは動体サイズをエッジが少ない領域よりも小さくして、人物検知を行う。あるいは、撮影画像の中でエッジが多い領域(影の可能性が少ない領域)に対し、動体検知回数をエッジが少ない領域よりも少なくし、例えば1回でも動体として検知されている領域は人物と判定しても良い。 Specifically, the human detection unit 24c makes the distribution of motion pixels or the size of the moving object smaller for areas with many edges (areas with less possibility of shadows) in the captured image than areas with few edges. Perform person detection. Alternatively, for areas with many edges in the captured image (areas with little possibility of shadows), the number of moving object detections is set to be lower than for areas with few edges. You can judge.

・反射レベルに応じて人物検知のパラメータを変更
反射推定部24dによって推定された反射領域の反射レベルに応じて、人物検知のパラメータを変更する構成としても良い。例えば、反射領域の反射レベルが一定レベル以上の場合(陰による過検知が発生しやすい領域)には、動き画素の分布あるいは動体サイズの判定基準を他の領域よりも高くして人物検知を行う。また、反射領域の反射レベルが一定レベル以上の場合(陰による過検知が発生しやすい領域)には、動体検知回数の判定基準を他の領域よりも高くし、一定回数以上、動体として検知された場合に人物と判定する。上記「一定レベル」は、任意に設定可能であり、例えば反射レベル0~4の中のレベル3としても良い。
- Change the parameter for human detection according to the reflection level The parameter for human detection may be changed according to the reflection level of the reflection area estimated by the reflection estimation unit 24d. For example, when the reflection level of the reflective area is above a certain level (an area where over-detection due to shadows is likely to occur), human detection is performed by setting the motion pixel distribution or moving object size judgment criteria higher than those in other areas. . In addition, when the reflection level of a reflective area is above a certain level (an area where over-detection due to shadows is likely to occur), the determination criteria for the number of moving object detections is set higher than for other areas, and a moving object is detected more than a certain number of times. is determined to be a person. The "constant level" can be arbitrarily set, and may be level 3 among reflection levels 0 to 4, for example.

本システムは、上記のような構成を有する検知処理部24を用いて撮影画像の中から人物(利用者)を検知し、その人物が図3に示した検知エリアE1~E3のいずれかに存在した場合に、所定の対応処理(戸開閉制御)を実行する。以下に、引き込まれ検知を例にして、本システムの処理動作について説明する。 This system uses the detection processing unit 24 having the configuration described above to detect a person (user) from the captured image, and the person exists in one of the detection areas E1 to E3 shown in FIG. If so, a predetermined response process (door opening/closing control) is executed. The processing operation of this system will be described below using the detection of being pulled in as an example.

図14は本システムの処理動作を示すフローチャートである。このフローチャートで示される処理は、図1に示した画像処理装置20とエレベータ制御装置30とで実行される。 FIG. 14 is a flow chart showing the processing operation of this system. The processing shown in this flowchart is executed by the image processing device 20 and the elevator control device 30 shown in FIG.

まず、初期設定として、画像処理装置20に備えられた検知部22の検知エリア設定部23によって検知エリア設定処理が実行される(ステップS100)。この検知エリア設定処理は、例えばカメラ12を設置したとき、あるいは、カメラ12の設置位置を調整したときに、以下のようにして実行される。 First, as an initial setting, detection area setting processing is executed by the detection area setting unit 23 of the detection unit 22 provided in the image processing apparatus 20 (step S100). This detection area setting process is executed as follows, for example, when the camera 12 is installed or when the installation position of the camera 12 is adjusted.

すなわち、検知エリア設定部22aは、かごドア13が全開した状態で、出入口から乗場15に向けて距離L3を有する検知エリアE1を設定する。図4に示したように、検知エリアE1は、シル18,47を含み、三方枠17a,17bの死角を除いて設定される。ここで、かごドア13が全開した状態では、検知エリアE1の横方向(X軸方向)のサイズはW1であり、出入口(間口)の横幅W0以上の距離を有する。また、検知エリア設定部22aは、乗りかご11の入口柱41a,41bの内側側面41a-1,41b-1に沿って、所定の幅を有する検知エリアE2を設定すると共に、乗りかご11の床面19のかごシル47に沿って所定の幅を有する検知エリアE3を設定する。 That is, the detection area setting unit 22a sets a detection area E1 having a distance L3 from the entrance toward the landing 15 with the car door 13 fully opened. As shown in FIG. 4, the detection area E1 includes the sills 18 and 47 and is set excluding the blind spots of the three-sided frames 17a and 17b. Here, when the car door 13 is fully open, the size of the detection area E1 in the lateral direction (X-axis direction) is W1, and has a distance equal to or greater than the lateral width W0 of the entrance (frontage). Further, the detection area setting unit 22a sets a detection area E2 having a predetermined width along the inner side surfaces 41a-1 and 41b-1 of the entrance pillars 41a and 41b of the car 11, and also sets a detection area E2 having a predetermined width. A detection area E3 having a predetermined width is set along the car sill 47 of the surface 19. As shown in FIG.

通常の運転中において、乗りかご11が任意の階の乗場15に到着すると(ステップS101のYes)、エレベータ制御装置30は、かごドア13の戸開動作を開始する(ステップS102)。この戸開動作に伴い、カメラ12によって乗場側の所定範囲(L1)とかご内の所定範囲(L2)が所定のフレームレート(例えば30コマ/秒)で撮影される。なお、カメラ12の撮影は、乗りかご11が戸閉した状態から連続的に行われていても良い。 During normal operation, when the car 11 reaches the landing 15 of an arbitrary floor (Yes in step S101), the elevator control device 30 starts opening the car door 13 (step S102). Along with this door opening operation, the camera 12 photographs a predetermined range (L1) on the landing side and a predetermined range (L2) in the car at a predetermined frame rate (eg, 30 frames/second). It should be noted that the camera 12 may take pictures continuously from the state where the door of the car 11 is closed.

画像処理装置20は、カメラ12で撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら、以下のような検知処理(引き込まれ検知処理)をリアルタイムで実行する(ステップS103)。なお、撮影画像に対する前処理として、歪み補正や、拡大縮小、画像の一部の切り取りなどを行っても良い。 The image processing device 20 acquires images captured by the camera 12 in time series, and while sequentially storing these images in the storage unit 21, performs the following detection processing (pull-in detection processing) in real time. (Step S103). It should be noted that distortion correction, enlargement/reduction, cutout of a part of the image, and the like may be performed as preprocessing for the captured image.

図15に上記ステップS103で実行される検知処理を示す。この検知処理は、画像処理装置20の検知処理部24によって実行される。以下では、撮影画像から山型エッジを抽出する場合を想定して説明する。 FIG. 15 shows the detection process executed in step S103. This detection processing is executed by the detection processing unit 24 of the image processing device 20 . In the following description, it is assumed that mountain-shaped edges are extracted from a photographed image.

まず、撮影画像に含まれる「陰」の影響を排除するため、検知処理部24は、カメラ12の撮影画像(原画像)を取得したときに(ステップS201)、当該撮影画像の各画素の輝度値の分布を解析して、輝度分布を表した画像(以下、輝度分布のばらつき画像と称す)を作成する(ステップS202)。図8に示したように、反射領域REには、照明光の反射部分の明るい輝度値と、床や陰の暗い輝度値が混在しており、輝度分布のばらつきが大きい。 First, in order to eliminate the influence of “shadow” included in the captured image, when the captured image (original image) of the camera 12 is acquired (step S201), the detection processing unit 24 sets the luminance of each pixel of the captured image. By analyzing the value distribution, an image representing the luminance distribution (hereinafter referred to as a luminance distribution variation image) is created (step S202). As shown in FIG. 8, the reflection area RE has a mixture of bright luminance values of the reflected portion of the illumination light and dark luminance values of the floor and shadows, and the luminance distribution varies greatly.

検知処理部24は、輝度分布のばらつき画像を用いて反射領域REを推定する(ステップS302)。検知処理部24は、この反射領域REに含まれる各領域RE-1~RE4の反射レベルに基づいて、エッジ差分の閾値画像を作成する(ステップS303)。「エッジ差分の閾値画像」とは、エッジ差分を二値化するときに用いられる閾値TH1を画素単位で表した画像のことである。閾値TH1は、各領域RE-1~RE4の反射レベルによって設定される。この場合、反射レベルが高いほど、陰による過検知が発生しやすい領域であるため、閾値TH1は標準値よりも高く設定される。逆に、反射レベルが低いほど、陰による過検知が発生しにくい領域であるため、閾値TH1は標準値よりも低く設定される。 The detection processing unit 24 estimates the reflection area RE using the luminance distribution variation image (step S302). The detection processing unit 24 creates an edge difference threshold image based on the reflection levels of the regions RE-1 to RE4 included in the reflection region RE (step S303). The “edge difference threshold image” is an image in which the threshold TH1 used when binarizing the edge difference is expressed in units of pixels. The threshold TH1 is set according to the reflection level of each region RE-1 to RE4. In this case, the higher the reflection level, the more likely the area is to be over-detected due to shadows, so the threshold TH1 is set higher than the standard value. Conversely, the lower the reflection level, the less likely the area is to be overdetected due to shadows, so the threshold TH1 is set lower than the standard value.

このようにして、各領域RE-1~RE4の反射レベルに応じて閾値TH1が設定されると、検知処理部24は、記憶部21から各画像(原画像)を時系列順に取得し(ステップS201)、これらの画像毎に山型エッジのみで構成される画像を作成する(ステップS202)。詳しくは、検知処理部24は、二方向以上の輝度勾配の方向と強度の組み合わせを有し、輝度値が山型状に変化するエッジを山型エッジとして抽出し、山型エッジのみで構成される画像(以下、山型エッジ画像と称す)を作成する。 When the threshold value TH1 is set according to the reflection level of each of the regions RE-1 to RE4 in this way, the detection processing unit 24 acquires each image (original image) from the storage unit 21 in chronological order (step S201), and for each of these images, an image composed only of chevron-shaped edges is created (step S202). More specifically, the detection processing unit 24 extracts an edge that has a combination of two or more luminance gradient directions and intensities and whose luminance value changes in a mountain-like shape as a mountain-shaped edge. An image (hereinafter referred to as a chevron-shaped edge image) is created.

続いて、検知処理部24は、上記ステップS303で作成された閾値画像を用いて、山型エッジ画像の差分二値化を行う(ステップS203)。詳しくは、図13で説明したように、検知処理部24は、山型エッジ画像の各画素毎に輝度勾配を求め、その輝度勾配の強度を次の画像の同じ画素位置で比較したときのエッジ差分を求める。検知処理部24は、上記閾値画像から反射領域毎に設定された閾値TH1を取得し、この閾値TH1に基づいてエッジ差分を二値化する。この場合、反射レベルが高い領域(陰による過検知が発生しやすい領域)では、閾値TH1が高く設定されているので、陰による過検知を抑制して、山型エッジ画像の差分二値化を行うことができる。 Subsequently, the detection processing unit 24 performs differential binarization of the mountain-shaped edge image using the threshold image created in step S303 (step S203). Specifically, as described with reference to FIG. 13, the detection processing unit 24 obtains the luminance gradient for each pixel of the mountain-shaped edge image, and compares the intensity of the luminance gradient at the same pixel position in the next image. Find the difference. The detection processing unit 24 acquires the threshold TH1 set for each reflection area from the threshold image, and binarizes the edge difference based on the threshold TH1. In this case, since the threshold value TH1 is set high in areas where the reflection level is high (areas where over-detection due to shadows is likely to occur), over-detection due to shadows is suppressed, and differential binarization of mountain-shaped edge images is performed. It can be carried out.

また、検知処理部24は、撮影画像である原画像の差分二値化を行う(ステップS204)。詳しくは、検知処理部24は、画像の各画素の輝度値を次の画像の同じ画素位置で比較して輝度差分を求め、その輝度差分を予め設定された閾値TH2で二値化する。このときの閾値TH2についても、上記閾値TH1と同様に、反射領域の反射レベルを反映させて、反射レベルに応じた値に設定しておくことでも良い。 Further, the detection processing unit 24 performs differential binarization of the original image, which is the captured image (step S204). Specifically, the detection processing unit 24 compares the luminance value of each pixel of the image at the same pixel position of the next image to obtain a luminance difference, and binarizes the luminance difference with a preset threshold TH2. As with the threshold TH1, the threshold TH2 at this time may also be set to a value corresponding to the reflection level by reflecting the reflection level of the reflection area.

検知処理部24は、山型エッジ画像から求められた各画素のエッジ差分を二値化した値と原画像から求められた各画素の輝度差分を二値化した値とを統合処理し(ステップS205)、その統合処理した結果から動体の有無を検知する(ステップS206)。エッジ差分と輝度差分を統合する方法については、上述したように論理演算(AND/OR演算など)やパラメータ変更などがある。 The detection processing unit 24 integrates the value obtained by binarizing the edge difference of each pixel obtained from the mountain-shaped edge image and the value obtained by binarizing the luminance difference of each pixel obtained from the original image (step S205), the presence or absence of a moving object is detected from the result of the integrated processing (step S206). Methods for integrating the edge difference and the luminance difference include logical operation (AND/OR operation, etc.) and parameter change, as described above.

このようにして、動体(動き画素)が検知されると、検知処理部24は、その動体の情報に基づいて人物を検知する(ステップS207)。詳しくは、検知処理部24は、動体の情報として得られる動き画素の分布、動体サイズ、動体検知回数のいずれか少なくとも1つに基づいて、当該動体が人物の動きであるか否かを判定する。例えば、動き画素の分布によって人物検知を行う場合であれば、所定の画素範囲の中に動き画素が10%程度以上存在すれば、人物検知部24cは、当該動き画素を含む範囲を人物の動きと判定する。 When a moving object (moving pixels) is detected in this manner, the detection processing unit 24 detects a person based on information on the moving object (step S207). Specifically, the detection processing unit 24 determines whether or not the moving object is the movement of a person, based on at least one of the motion pixel distribution, the moving object size, and the number of moving object detections obtained as moving object information. . For example, in the case of detecting a person based on the distribution of motion pixels, if about 10% or more motion pixels exist in a predetermined pixel range, the human detection unit 24c detects the motion of the person in the range including the motion pixels. I judge.

また、検知処理部24は、反射領域の反射レベルに応じて、人物検知のパラメータを変更する。例えば、反射領域の反射レベルが一定レベル以上の場合(陰による過検知が発生しやすい領域)には、動き画素の分布あるいは動体サイズの判定基準を高くして人物検知を行う。あるいは、動体検知回数の判定基準を高くし、一定回数以上、動体として検知された場合に人物と判定する。 Further, the detection processing unit 24 changes parameters for human detection according to the reflection level of the reflection area. For example, when the reflection level of the reflection area is a certain level or higher (area where over-detection due to shadows is likely to occur), human detection is performed by increasing the motion pixel distribution or moving object size determination criteria. Alternatively, the determination criterion for the number of moving body detections is set high, and when a moving body is detected a certain number of times or more, it is determined to be a person.

本実施形態において、「人物」とは、乗りかご11内または乗場15にいる利用者のことであり、撮影画像上では、その利用者の服や手の動きなどが動き画素として表れる(図7参照)。 In this embodiment, the "person" means a user in the car 11 or at the boarding hall 15, and on the photographed image, the movement of the user's clothes or hands appears as motion pixels (FIG. 7). reference).

なお、図15の例では、エッジ差分と輝度差分を併用したが、エッジ差分のみで動体検知処理を行い、検知結果として得られる動き画素の分布などから人物(利用者)を検知することでも良い。この場合、図15のステップS204とS205の処理は不要となる。 In the example of FIG. 15, the edge difference and the luminance difference are used in combination, but it is also possible to perform the moving object detection processing using only the edge difference and detect a person (user) from the distribution of motion pixels obtained as a detection result. . In this case, the processing of steps S204 and S205 of FIG. 15 becomes unnecessary.

図14に戻って、戸開動作中に上記検知処理によって利用者が検知された場合、検知処理部24は、当該利用者が乗りかご11内に引き込まれ検知エリアとして設定された検知エリアE2または検知エリアE3内にいるか否かを判断する(ステップS104)。当該利用者が検知エリアE2または検知エリアE3内にいれば(ステップS104のYes)、検知処理部24からエレベータ制御装置30に対して引き込まれ検知信号が出力される。これにより、エレベータ制御装置30は、引き込まれ検知エリアに関連した対応処理として、戸開閉制御部31を通じてかごドア13の戸開動作を一時停止し、数秒後にその停止位置から戸開動作を再開する(ステップS105)。 Returning to FIG. 14, when the user is detected by the above-described detection processing during the door opening operation, the detection processing unit 24 detects the user drawn into the car 11 and the detection area E2 or the detection area set as the detection area. It is determined whether or not the object is within the detection area E3 (step S104). If the user is in the detection area E2 or the detection area E3 (Yes in step S104), the detection processing unit 24 is pulled in to the elevator control device 30 and a detection signal is output. As a result, the elevator control device 30 suspends the door-opening operation of the car door 13 through the door opening/closing control unit 31 as a corresponding process related to the detection area of being pulled in, and after a few seconds resumes the door-opening operation from the stop position. (Step S105).

上記対応処理として、かごドア13の戸開速度を通常より遅くすることや、あるいは、かごドア13を逆方向(戸閉方向)に若干移動させてから戸開動作を再開することでも良い。また、エレベータ制御装置30の警告部32の起動により、乗りかご11内のスピーカ46を通じて音声アナウンスを行い、利用者に対してかごドア13から離れるように注意を喚起することで良いし、警告音を鳴らすことでも良い(ステップS106)。検知エリアE2または検知エリアE3内で利用者が検知されている間、上記処理が繰り返される。これにより、例えば利用者がかごドア13の近くにいる場合に、戸袋42aまたは42bに引き込まれることを未然に防ぐことができる。 As the countermeasure, the door opening speed of the car door 13 may be made slower than usual, or the car door 13 may be slightly moved in the opposite direction (door closing direction) before resuming the door opening operation. Also, by starting the warning unit 32 of the elevator control device 30, a voice announcement may be made through the speaker 46 in the car 11 to alert the user to move away from the car door 13. (step S106). The above process is repeated while the user is detected in the detection area E2 or the detection area E3. As a result, for example, when the user is near the car door 13, it is possible to prevent the user from being pulled into the door pocket 42a or 42b.

(乗車検知処理)
図14の例では、引き込まれ検知処理を例にして説明したが、乗車検知処理でも同様である。すなわち、乗りかご11が任意の階で戸閉を開始したときに、図15で説明した検知処理が実行される。この場合、乗場15の照明環境によって生じる「陰」を考慮して、乗場15における照明光の反射部分とその周囲を含む反射領域を推定し、その反射領域の反射レベルに応じてエッジ差分の閾値を設定しておく。なお、輝度差分の閾値についても、反射領域の反射レベルに応じて設定しておくことでも良い。
(boarding detection processing)
In the example of FIG. 14, the pulled-in detection process has been described as an example, but the boarding detection process is the same. That is, when the car 11 starts closing the door on an arbitrary floor, the detection process described with reference to FIG. 15 is executed. In this case, considering the "shadow" caused by the lighting environment of the hall 15, the reflection area including the reflection part of the illumination light in the hall 15 and its surroundings is estimated, and the edge difference threshold value is calculated according to the reflection level of the reflection area. be set. Note that the luminance difference threshold may also be set according to the reflection level of the reflection area.

上述したように、撮影画像のエッジ差分と輝度差分とに基づいて利用者が検知されると、乗場15に乗車検知エリアとして設定された検知エリアE1内にいるか否かが判断される。当該利用者が検知エリアE1内にいて、かつ、乗りかご11のドア13に向かっていることが検知された場合に、検知処理部24からエレベータ制御装置30に対して乗車検知信号が出力される。これにより、エレベータ制御装置30は、乗車検知エリアに関連した対応処理として、戸開閉制御部31を通じてかごドア13の戸閉動作を一時停止するか、かごドア13を逆方向(戸閉方向)に動かす、あるいは、かごドア13の戸開速度を通常よりも下げる。 As described above, when the user is detected based on the edge difference and the luminance difference of the captured image, it is determined whether or not the user is within the detection area E1 set as the boarding detection area in the hall 15 . When it is detected that the user is in the detection area E1 and is facing the door 13 of the car 11, the detection processing unit 24 outputs a boarding detection signal to the elevator control device 30. . As a result, the elevator control device 30 temporarily stops the door closing operation of the car door 13 through the door opening/closing control unit 31, or moves the car door 13 in the opposite direction (door closing direction) as a corresponding process related to the boarding detection area. or lower the opening speed of the car door 13 than usual.

このように本実施形態によれば、照明光の反射部分とその周囲を含む反射領域を推定し、その反射領域の反射レベルに応じて動体検知の処理を変更することで、照明光によって生じる陰の過検知を抑制して、利用者を検知することができる。 As described above, according to the present embodiment, by estimating the reflection area including the reflection portion of the illumination light and its surroundings and changing the moving object detection processing according to the reflection level of the reflection area, the shadow caused by the illumination light can be detected. It is possible to suppress the over-detection of the user and detect the user.

特に、エッジ差分を利用して検知処理を行う構成とした場合に、反射領域の反射レベルに応じてエッジ差分の閾値を設定することで、陰の影響を確実に排除して利用者を正しく検知することができ、その検知結果に応じた対応処理を実現することができる。 In particular, when the detection process is performed using the edge difference, by setting the threshold value of the edge difference according to the reflection level of the reflection area, the influence of the shadow is reliably eliminated and the user is detected correctly. It is possible to realize a corresponding process according to the detection result.

なお、上記実施形態では、撮影画像全体から利用者を検知する場合を想定して説明したが、撮影画像上に予め設定されている検知エリア毎に利用者を検知する構成としても良い。例えば、戸開動作中であれば、図4に示した検知エリアE2,E3内の画像に着目し、当該画像のエッジ差分により検知エリアE2またはE3にいる利用者を検知する。また、戸閉動作中であれば、図4に示した検知エリアE1内の画像に着目し、当該画像のエッジ差分により検知エリアE1内にいる利用者を検知する。 In the above embodiment, the user is detected from the entire photographed image. However, the user may be detected for each detection area preset on the photographed image. For example, if the door is being opened, attention is focused on the images within the detection areas E2 and E3 shown in FIG. 4, and the user in the detection areas E2 or E3 is detected from the edge difference of the images. If the door is being closed, attention is paid to the image within the detection area E1 shown in FIG. 4, and the user within the detection area E1 is detected from the edge difference of the image.

また、上記実施形態では、エッジ変化の一例として、エッジ差分(エッジ強度の差分)を例にして説明したが、例えば正規化相関のような矩形を用いてエッジの変化を判定することでも良い。要は、画像間でエッジが変化している状態を検出できれば、エッジ差分に限られず、どのような方法を用いても良い。 Further, in the above-described embodiment, edge difference (difference in edge intensity) was used as an example of edge change, but edge change may be determined using a rectangle such as normalized correlation. In short, any method other than the edge difference may be used as long as it can detect a state in which edges change between images.

以上述べた少なくとも1つの実施形態によれば、照明環境に起因した陰の過検知を抑制して、乗りかご内や乗場にいる利用者を正しく検知することのできるエレベータの利用者検知システムを提供することができる。 According to at least one embodiment described above, there is provided an elevator user detection system capable of suppressing over-detection of shadows caused by the lighting environment and correctly detecting users in the car or at the landing. can do.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 It should be noted that although several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

11…乗りかご、11a…幕板、12…カメラ、13…かごドア、13a,13b…ドアパネル、14…乗場ドア、14a,14b…ドアパネル、15…乗場、17a,17b…三方枠、18…乗場シル、47…かごシル、48…照明機器、20…画像処理装置、21…記憶部、22…検知部、23…検知エリア設定部、24…検知処理部、24a…エッジ抽出部、24b…動体検知部、24c…人物検知部、24d…反射推定部、30…エレベータ制御装置、31…戸開閉制御部、32…警告部、E1,E2,E3…検知エリア。 DESCRIPTION OF SYMBOLS 11... Car, 11a... Curtain plate, 12... Camera, 13... Car door, 13a, 13b... Door panel, 14... Hall door, 14a, 14b... Door panel, 15... Hall, 17a, 17b... Three-way frame, 18... Hall sill 47 basket sill 48 illumination device 20 image processing device 21 storage unit 22 detection unit 23 detection area setting unit 24 detection processing unit 24a edge extraction unit 24b moving object Detection unit 24c Person detection unit 24d Reflection estimation unit 30 Elevator control device 31 Door opening/closing control unit 32 Warning unit E1, E2, E3 Detection area.

一実施形態に係るエレベータの利用者検知システムは、乗りかご内に設置されたカメラの撮影画像の中で照明光が反射している部分とその周囲を含む反射領域を推定する反射推定手段と、上記反射推定手段によって推定された上記反射領域の反射レベルに応じて、上記乗りかご内の床面に発生している陰の過検知を抑制するように、上記撮影画像から動体を検知するときの処理を変更する動体検知手段と、上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段とを具備する。 An elevator user detection system according to one embodiment includes reflection estimation means for estimating a reflection area including a portion where illumination light is reflected and its surroundings in an image captured by a camera installed in a car; when detecting a moving object from the photographed image so as to suppress over-detection of shadows occurring on the floor surface of the car according to the reflection level of the reflection area estimated by the reflection estimation means; A moving body detecting means for changing processing, and a person detecting means for detecting the moving body as a person based on information of the moving body detected by the moving body detecting means.

一実施形態に係るエレベータの利用者検知システムは、乗りかご内に設置されたカメラの撮影画像の中で照明光が反射している部分とその周囲を含む反射領域を推定する反射推定手段と、上記反射推定手段によって推定された上記反射領域の反射レベルに応じて、上記照明光が上記乗りかご内の利用者を介して上記反射領域において反射することに起因する過検知を抑制するように、上記撮影画像から動体を検知するときの処理を変更する動体検知手段と、上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段とを具備する。 An elevator user detection system according to one embodiment includes reflection estimation means for estimating a reflection area including a portion where illumination light is reflected and its surroundings in an image captured by a camera installed in a car; According to the reflection level of the reflection area estimated by the reflection estimation means, so as to suppress overdetection caused by reflection of the illumination light in the reflection area via the user in the car, A moving body detecting means for changing processing when detecting a moving body from the photographed image, and a person detecting means for detecting the moving body as a person based on the information of the moving body detected by the moving body detecting means.

Claims (10)

乗りかご内に設置され、上記乗りかご内を含む所定の範囲を撮影するカメラを備えたエレベータの利用者検知システムにおいて、
上記カメラの撮影画像の中で照明光が反射している部分とその周囲を含む反射領域を推定する反射推定手段と、
上記反射推定手段によって推定された上記反射領域の反射レベルに応じて、上記撮影画像から動体を検知するときの処理を変更する動体検知手段と、
上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段と
を具備したことを特徴とするエレベータの利用者検知システム。
In an elevator user detection system equipped with a camera installed in a car and photographing a predetermined range including the inside of the car,
Reflection estimating means for estimating a reflection area including a portion where the illumination light is reflected and its surroundings in the captured image of the camera;
moving body detection means for changing processing when detecting a moving body from the captured image according to the reflection level of the reflection area estimated by the reflection estimation means;
and person detection means for detecting the moving object as a person based on information on the moving object detected by the moving object detection means.
上記反射推定手段は、
上記撮影画像の各画素の輝度値の分布に基づいて、上記反射領域を推定することを特徴とする請求項1記載のエレベータの利用者検知システム。
The reflection estimation means includes:
2. The elevator user detection system according to claim 1, wherein said reflection area is estimated based on a distribution of luminance values of pixels of said photographed image.
上記反射推定手段は、
上記撮影画像から抽出されるエッジの分布に基づいて、上記反射領域を推定することを特徴とする請求項1記載のエレベータの利用者検知システム。
The reflection estimation means includes:
2. The elevator user detection system according to claim 1, wherein said reflection area is estimated based on a distribution of edges extracted from said photographed image.
上記動体検知手段は、
上記撮影画像として連続的に得られる各画像のエッジ変化に基づいて動体を検知する処理を有し、上記反射領域の反射レベルが高いほど、上記エッジ変化に対する閾値を上げることを特徴とする請求項1記載のエレベータの利用者検知システム。
The moving body detection means is
2. The method according to claim 1, further comprising processing for detecting a moving object based on an edge change of each image successively obtained as the photographed images, wherein the higher the reflection level of the reflection area, the higher the threshold for the edge change. 2. The elevator user detection system according to claim 1.
上記動体検知手段は、
上記撮影画像として連続的に得られる各画像の輝度差分とエッジ変化に基づいて動体を検知する処理を有し、上記反射領域の反射レベルが一定レベルよりも低い場合には上記輝度差分を使用し、上記反射領域の反射レベルが上記一定レベル以上の場合には上記エッジ変化を使用して動体検知を行うことを特徴とする請求項1記載のエレベータの利用者検知システム。
The moving body detection means is
It has a process of detecting a moving object based on the luminance difference and edge change of each image continuously obtained as the photographed image, and uses the luminance difference when the reflection level of the reflection area is lower than a certain level. 2. The elevator user detection system according to claim 1, wherein when the reflection level of said reflection area is equal to or higher than said predetermined level, said edge change is used to detect a moving object.
上記人物検知手段は、
上記動体の情報として得られる動き画素の分布、動体サイズ、動体検知回数のいずれか少なくとも1つに基づいて、上記動体を人物として検知することを特徴とする請求項1記載のエレベータの利用者検知システム。
The person detection means is
2. The elevator user detection according to claim 1, wherein the moving object is detected as a person based on at least one of a motion pixel distribution, a moving object size, and a moving object detection frequency obtained as information on the moving object. system.
上記人物検知手段は、
上記反射領域の反射レベルが一定レベル以上の場合には、上記動き画素の分布あるいは上記動体サイズの判定基準を高くすることを特徴とする請求項6記載のエレベータの利用者検知システム。
The person detection means is
7. The elevator user detection system according to claim 6, wherein when the reflection level of said reflection area is equal to or higher than a predetermined level, the determination criterion for said motion pixel distribution or said moving object size is increased.
上記人物検知手段は、
上記反射領域の反射レベルが一定レベル以上の場合には、上記動体検知回数の判定基準を高くすることを特徴とする請求項6記載のエレベータの利用者検知システム。
The person detection means is
7. The elevator user detection system according to claim 6, wherein when the reflection level of said reflection area is equal to or higher than a predetermined level, the criterion for determining the number of moving body detections is increased.
上記人物が上記撮影画像上に予め設定された検知エリア内で検知された場合に、上記検知エリアに関連付けられた対応処理を実行する制御手段をさらに具備したことを特徴とする請求項1記載のエレベータの利用者検知システム。 2. The apparatus according to claim 1, further comprising control means for executing a corresponding process associated with said detection area when said person is detected within a preset detection area on said photographed image. Elevator user detection system. 上記検知エリアは、上記乗りかご内のドア付近に設定され、
上記制御手段は、
上記対応処理として、上記乗りかごの戸開動作中に上記人物がドアに挟まれないように戸開閉動作を制御することを特徴とする請求項9記載のエレベータの利用者検知システム。
The detection area is set near the door in the car,
The control means are
10. The elevator user detection system according to claim 9, wherein, as the corresponding processing, door opening/closing operation is controlled so that the person is not caught in the door while the car door is being opened.
JP2021130126A 2021-08-06 2021-08-06 Elevator user detection system Active JP7276992B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021130126A JP7276992B2 (en) 2021-08-06 2021-08-06 Elevator user detection system
CN202210486735.4A CN115703608A (en) 2021-08-06 2022-05-06 User detection system of elevator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021130126A JP7276992B2 (en) 2021-08-06 2021-08-06 Elevator user detection system

Publications (2)

Publication Number Publication Date
JP2023024068A true JP2023024068A (en) 2023-02-16
JP7276992B2 JP7276992B2 (en) 2023-05-18

Family

ID=85180647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021130126A Active JP7276992B2 (en) 2021-08-06 2021-08-06 Elevator user detection system

Country Status (2)

Country Link
JP (1) JP7276992B2 (en)
CN (1) CN115703608A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346348A (en) * 2004-06-02 2005-12-15 Matsushita Electric Ind Co Ltd Image processing method, device, and program
JP2009266052A (en) * 2008-04-28 2009-11-12 Hitachi Ltd Abnormal behavior detector
JP2012084012A (en) * 2010-10-13 2012-04-26 Canon Inc Image processing device, processing method therefor, and program
JP2018162118A (en) * 2017-03-24 2018-10-18 東芝エレベータ株式会社 Elevator riding detection system
WO2020008538A1 (en) * 2018-07-03 2020-01-09 三菱電機株式会社 Material estimation device and robot
JP2021031243A (en) * 2019-08-26 2021-03-01 東芝エレベータ株式会社 User detection system of elevator

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346348A (en) * 2004-06-02 2005-12-15 Matsushita Electric Ind Co Ltd Image processing method, device, and program
JP2009266052A (en) * 2008-04-28 2009-11-12 Hitachi Ltd Abnormal behavior detector
JP2012084012A (en) * 2010-10-13 2012-04-26 Canon Inc Image processing device, processing method therefor, and program
JP2018162118A (en) * 2017-03-24 2018-10-18 東芝エレベータ株式会社 Elevator riding detection system
WO2020008538A1 (en) * 2018-07-03 2020-01-09 三菱電機株式会社 Material estimation device and robot
JP2021031243A (en) * 2019-08-26 2021-03-01 東芝エレベータ株式会社 User detection system of elevator

Also Published As

Publication number Publication date
CN115703608A (en) 2023-02-17
JP7276992B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP7230114B2 (en) Elevator user detection system
JP7187629B1 (en) Elevator user detection system
CN112429609B (en) User detection system for elevator
CN113023518B (en) Elevator user detection system
JP7276992B2 (en) Elevator user detection system
JP7375137B1 (en) Elevator user detection system
JP7019740B2 (en) Elevator user detection system
JP6843935B2 (en) Elevator user detection system
CN113428751A (en) User detection system of elevator
JP6871324B2 (en) Elevator user detection system
JP7077437B2 (en) Elevator user detection system
JP7305849B1 (en) elevator system
JP6828108B1 (en) Elevator user detection system
JP7155201B2 (en) Elevator user detection system
JP7135144B1 (en) Elevator user detection system
JP6693624B2 (en) Image detection system
JP7282952B1 (en) elevator system
JP6968943B1 (en) Elevator user detection system
JP7367174B1 (en) elevator system
JP2022036276A (en) User detection system of elevator
JP2020152470A (en) Elevator user detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7276992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150