JP6377797B1 - Elevator boarding detection system - Google Patents
Elevator boarding detection system Download PDFInfo
- Publication number
- JP6377797B1 JP6377797B1 JP2017058781A JP2017058781A JP6377797B1 JP 6377797 B1 JP6377797 B1 JP 6377797B1 JP 2017058781 A JP2017058781 A JP 2017058781A JP 2017058781 A JP2017058781 A JP 2017058781A JP 6377797 B1 JP6377797 B1 JP 6377797B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- detection
- car
- door
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 162
- 230000007257 malfunction Effects 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims abstract description 49
- 230000002265 prevention Effects 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims description 52
- 230000035945 sensitivity Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- GOLXNESZZPUPJE-UHFFFAOYSA-N spiromesifen Chemical compound CC1=CC(C)=CC(C)=C1C(C(O1)=O)=C(OC(=O)CC(C)(C)C)C11CCCC1 GOLXNESZZPUPJE-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B13/00—Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
- B66B13/02—Door or gate operation
- B66B13/14—Control systems or devices
- B66B13/143—Control systems or devices electrical
- B66B13/146—Control systems or devices electrical method or algorithm for controlling doors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Indicating And Signalling Devices For Elevators (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Elevator Door Apparatuses (AREA)
- Cage And Drive Apparatuses For Elevators (AREA)
- Maintenance And Inspection Apparatuses For Elevators (AREA)
Abstract
【課題】カメラによって撮影された画像を用いて利用者を検知する際に、撮影環境により利用者検知の誤作動を防ぐ。
【解決手段】一実施形態に係るエレベータの乗車検知システムは、カメラ12、利用者検知部22、戸開閉制御部31、パラメータ取得部23、誤作動防止部24を備える。パラメータ取得部23は、カメラ12から明るさ調整に関するパラメータを取得する。誤作動防止部24は、パラメータ取得部23によって得られたパラメータに基づいて、利用者検知部22に用いられる撮影画像の明るさを判断し、その判断結果に応じて利用者検知部22の誤作動を防止するための処理を実施する。
【選択図】 図1When detecting a user using an image taken by a camera, malfunction of the user detection is prevented depending on a shooting environment.
An elevator boarding detection system according to an embodiment includes a camera, a user detection unit, a door opening / closing control unit, a parameter acquisition unit, and a malfunction prevention unit. The parameter acquisition unit 23 acquires parameters relating to brightness adjustment from the camera 12. The malfunction prevention unit 24 determines the brightness of the captured image used for the user detection unit 22 based on the parameter obtained by the parameter acquisition unit 23, and the error of the user detection unit 22 is determined according to the determination result. Implement processing to prevent operation.
[Selection] Figure 1
Description
本発明の実施形態は、乗りかごに乗車する利用者を検知するエレベータの乗車検知システムに関する。 Embodiments described herein relate generally to an elevator boarding detection system that detects a user who gets in a car.
通常、エレベータの乗りかごが乗場に到着して戸開すると、所定時間経過後に戸閉して出発する。その際、エレベータの利用者は乗りかごがいつ戸閉するのか分からないため、乗場から乗りかごに乗車するときに戸閉途中のドアにぶつかることや、挟まれることがある。 Normally, when the elevator car arrives at the landing and opens, the door is closed after a predetermined time. At that time, since the elevator user does not know when the car is closed, when the user gets on the car from the landing, the user may hit or get caught in the door.
このような乗車時における利用者とドアの衝突やドアの挟まれなどを防止するために、カメラを用いて乗場から乗りかごに向かってくる利用者を検知し、ドアの開閉制御に反映させる技術がある。 In order to prevent such a collision between the user and the door or getting caught in the door during such a ride, a technology that uses a camera to detect the user coming from the landing to the car and reflect it in the door opening / closing control There is.
しかしながら、例えば乗場が極端に暗かった場合や明るかった場合など、カメラの撮影画像から利用者を正しく検知できない状況がある。このような場合、カメラによる利用者の検知精度が低下し、ドアが誤作動する可能性がある。例えば、乗場が明るすぎて、乗場に往来する人の影が撮影画像に写り込み、利用者と誤検知してドアを戸開して待機することになる。逆に、乗場が暗すぎで利用者と床面を判別できず場合には、乗りかごに乗車しようとする利用者が近付いて来ても、規定時間内にドアを戸閉してしまう。 However, there are situations in which the user cannot be detected correctly from the captured image of the camera, for example, when the landing is extremely dark or bright. In such a case, the detection accuracy of the user by the camera is lowered, and the door may malfunction. For example, because the hall is too bright, the shadow of a person coming and going to the hall is reflected in the photographed image, erroneously detected as a user, and the door is opened to wait. On the other hand, if the platform is too dark to distinguish between the user and the floor, the door will be closed within a specified time even if a user who tries to get on the car approaches.
本発明が解決しようとする課題は、カメラによって撮影された画像を用いて利用者を検知する際に、撮影環境により利用者検知の誤作動を防いで、利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることのできるエレベータの乗車検知システムを提供することである。 The problem to be solved by the present invention is that, when detecting a user using an image captured by a camera, only when the user can be detected correctly by preventing malfunction of user detection by the shooting environment, It is an object of the present invention to provide an elevator boarding detection system capable of reflecting the movement of the user in the door opening / closing control.
一実施形態に係るエレベータの乗車検知システムは、乗りかごが乗場に到着したときに、当該乗りかごのドア付近から上記乗場の方向に向けて所定の範囲を撮影可能な撮像手段と、この撮像手段によって撮影された画像を用いて利用者を検知する利用者検知手段と、この利用者検知手段の検知結果に基づいて上記ドアの開閉動作を制御する制御手段と、上記撮像手段から明るさ調整に関するパラメータを取得するパラメータ取得手段と、このパラメータ取得手段によって得られた撮影時に調整済みの上記パラメータに基づいて、上記利用者検知手段に用いられる撮影画像の明るさを判断し、当該撮影画像から利用者を正しく検知できないと判断される場合に上記利用者検知手段の誤作動を防止するための処理を実施する誤作動防止手段とを具備する。 An elevator boarding detection system according to an embodiment includes an imaging unit capable of shooting a predetermined range from the vicinity of a door of the car toward the landing when the car arrives at the landing, and the imaging unit. User detection means for detecting a user using an image taken by the user, control means for controlling the opening / closing operation of the door based on a detection result of the user detection means, and brightness adjustment from the imaging means Based on the parameter acquisition means for acquiring the parameters and the parameters adjusted by the parameter acquisition means at the time of shooting, the brightness of the shot image used for the user detection means is determined and used from the shot image ingredients and malfunction prevention means for performing the processing for preventing the malfunction of the user detecting unit when it is determined not to be correctly detect the person To.
以下、図面を参照して実施形態を説明する。 Hereinafter, embodiments will be described with reference to the drawings.
(第1の実施形態)
図1は第1の実施形態に係るエレベータの乗車検知システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration of an elevator boarding detection system according to the first embodiment. Note that, here, a single car will be described as an example, but a plurality of cars have the same configuration.
乗りかご11の出入口上部にカメラ12が設置されている。具体的には、乗りかご11の出入口上部を覆う幕板11aの中にカメラ12のレンズ部分を乗場15側に向けて設置されている。カメラ12は、例えば車載カメラなどの小型の監視用カメラであり、広角レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続撮影可能である。乗りかご11が各階に到着して戸開したときに、乗場15の状態を乗りかご11内のかごドア13付近の状態を含めて撮影する。
A
このときの撮影範囲はL1+L2に調整されている(L1≫L2)。L1は乗場側の撮影範囲であり、かごドア13から乗場15に向けて例えば3mである。L2はかご側の撮影範囲であり、かごドア13からかご背面に向けて例えば50cmである。なお、L1,L2は奥行き方向の範囲であり、幅方向(奥行き方向と直交する方向)の範囲については少なくとも乗りかご11の横幅より大きいものとする。
The photographing range at this time is adjusted to L1 + L2 (L1 >> L2). L <b> 1 is a shooting range on the landing side and is, for example, 3 m from the
なお、各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明において、かごドア13を戸開しているときには乗場ドア14も戸開しており、かごドア13を戸閉しているときには乗場ドア14も戸閉しているものとする。
In the
カメラ12によって撮影された各画像(映像)は、画像処理装置20によってリアルタイムに解析処理される。なお、図1では、便宜的に画像処理装置20を乗りかご11から取り出して示しているが、実際には画像処理装置20はカメラ12と共に幕板11aの中に収納されている。
Each image (video) taken by the
ここで、画像処理装置20には、記憶部21と利用者検知部22が備えられている。記憶部21は、カメラ12によって撮影された画像を逐次保存すると共に、利用者検知部22の処理に必要なデータを一時的に保持しておくためのバッファエリアを有する。利用者検知部22は、カメラ12によって撮影された時系列的に連続した複数枚の画像の中でかごドア13に最も近い人・物の動きに着目して乗車意思のある利用者の有無を検知する。この利用者検知部22を機能的に分けると、動き検知部22a、位置推定部22b、乗車意思推定部22cで構成される。
Here, the
動き検知部22aは、各画像の輝度をブロック単位で比較して人・物の動きを検知する。ここで言う「人・物の動き」とは、乗場15の人物や車椅子等の移動体の動きのことである。
The
位置推定部22bは、動き検知部22aによって各画像毎に検知された動きありのブロックの中からかごドア13に最も近いブロックを抽出し、当該ブロックにおけるかごドア13の中心(ドア間口の中心)から乗場方向の座標位置(図5に示すY座標)を利用者の位置(足元位置)として推定する。乗車意思推定部22cは、位置推定部22bによって推定された位置の時系列変化に基づいて当該利用者の乗車意思の有無を判定する。
The
ここで、本実施形態における画像処理装置20には、上記構成に加え、さらにパラメータ取得部23、誤作動防止部24が備えられている。
Here, in addition to the above configuration, the
パラメータ取得部23は、カメラ12から明るさ調整に関係したパラメータを取得する。「明るさ調整に関係したパラメータ」とは、具体的には露光時間、ゲイン、開口量などのことであり、これらは撮影時の明るさに応じて最適な値に自動調整される。
The
誤作動防止部24は、パラメータ取得部23によって得られたパラメータに基づいて、利用者検知部22に用いられる撮影画像の明るさを判断し、その判断結果に応じて利用者検知部22の誤作動を防止するための処理を実施する。詳しくは、誤作動防止部24は、上記明るさ調整に関係したパラメータとして得られる露光時間、ゲイン、開口量の1つ以上を用いて、撮影画像の明るさを表わす指標値LUを算出し、その指標値LUが予め設定された上限値THaよりも高い場合あるいは下限値THbよりも低い場合に、誤作動を防止するための処理を実施する。
The
なお、画像処理装置20に備えられた各機能(利用者検知部22、パラメータ取得部23、誤動作防止部24)の一部あるいは全部をカメラ12に設けても良いし、かご制御装置30に設けることでも良い。
Note that some or all of the functions (
かご制御装置30は、図示せぬエレベータ制御装置に接続され、このエレベータ制御装置との間で乗場呼びやかご呼びなどの各種信号を送受信する。なお、「乗場呼び」とは、各階の乗場15に設置された図示せぬ乗場呼び釦の操作により登録される呼びの信号のことであり、登録階と行先方向の情報を含む。「かご呼び」とは、乗りかご11のかご室内に設けられた図示せぬ行先呼び釦の操作により登録される呼びの信号のことであり、行き先階の情報を含む。
The
また、かご制御装置30は、戸開閉制御部31を備える。戸開閉制御部31は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部31は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。ただし、かごドア13の戸開中に画像処理装置20の利用者検知部22によって乗車意思のある人物が検知された場合には、戸開閉制御部31は、かごドア13の戸閉動作を禁止して戸開状態を維持する。
In addition, the
図2はカメラ12によって撮影された画像の一例を示す図である。図中のE1は位置推定エリア、ynは利用者の足元位置が検知されたY座標を表している。図3は撮影画像をブロック単位で区切った状態を示す図である。なお、原画像を一辺Wblockの格子状に区切ったものを「ブロック」と呼ぶ。
FIG. 2 is a diagram illustrating an example of an image captured by the
カメラ12は乗りかご11の出入口上部に設置されている。したがって、乗りかご11が乗場15で戸開したときに、乗場側の所定範囲(L1)とかご内の所定範囲(L2)が撮影される。ここで、カメラ12を利用すると検知範囲が広がり、乗りかご11から少し離れた場所にいる利用者でも検知することができる。しかし、その一方で、乗場15を通過しただけの人物(乗りかご11に乗車しない人物)を誤検知して、かごドア13を開いてしまう可能性がある。
The
そこで、本システムでは、図3に示すように、カメラ12で撮影した画像を一定サイズのブロックに区切り、人・物の動きがあるブロックを検知し、その動きありのブロックを追うことで乗車意思のある利用者であるか否かを判断する構成としている。
Therefore, in this system, as shown in FIG. 3, the image captured by the
なお、図3の例では、ブロックの縦横の長さが同じであるが、縦と横の長さが異なっていても良い。また、画像全域に渡ってブロックを均一な大きさとしても良いし、例えば画像上部ほど縦(Y方向)の長さを短くするなどの不均一な大きさにしても良い。これらにより、後に推定する足元位置をより高い分解能もしくは実空間での均一な分解能で求めることができる(画像上で均一に区切ると、実空間ではかごドア13から遠い方ほど疎な分解能となる)。
In the example of FIG. 3, the vertical and horizontal lengths of the blocks are the same, but the vertical and horizontal lengths may be different. Further, the blocks may be uniform in size over the entire image, or may be non-uniform in size, for example, the length in the vertical direction (Y direction) is shortened toward the top of the image. Thus, the foot position estimated later can be obtained with a higher resolution or a uniform resolution in the real space (if it is divided uniformly on the image, the farther away from the
図4は実空間での検知エリアを説明するための図である。図5は実空間での座標系を説明するための図である。 FIG. 4 is a diagram for explaining a detection area in real space. FIG. 5 is a diagram for explaining a coordinate system in real space.
撮影画像から乗車意思のある利用者の動きを検知するため、まず、ブロック毎に利用者検知エリアを設定しておく。具体的には、図4に示すように、少なくとも位置推定エリアE1と乗車意思推定エリアE2を利用者検知エリアとして設定しておく。 In order to detect the movement of the user who intends to get on the board from the photographed image, first, a user detection area is set for each block. Specifically, as shown in FIG. 4, at least a position estimation area E1 and a boarding intention estimation area E2 are set as user detection areas.
位置推定エリアE1は、乗場15からかごドア13に向かってくる利用者の身体の一部、具体的には利用者の足元位置を推定するエリアである。乗車意思推定エリアE2は、位置推定エリアE1で検知された利用者に乗車意思があるか否かを推定するエリアである。なお、乗車意思推定エリアE2は、上記位置推定エリアE1に含まれ、利用者の足元位置を推定するエリアでもある。すなわち、乗車意思推定エリアE2では、利用者の足元位置を推定すると共に当該利用者の乗車意思を推定する。
The position estimation area E1 is an area for estimating a part of the user's body coming from the landing 15 toward the
実空間において、位置推定エリアE1はかごドア13の中心から乗場方向に向かってL3の距離を有し、例えば2mに設定されている(L3≦乗場側の撮影範囲L1)。位置推定エリアE1の横幅W1は、かごドア13の横幅W0以上の距離に設定されている。乗車意思推定エリアE2はかごドア13の中心から乗場方向に向かってL4の距離を有し、例えば1mに設定されている(L4≦L3)。乗車意思推定エリアE2の横幅W2は、かごドア13の横幅W0と略同じ距離に設定されている。
In the real space, the position estimation area E1 has a distance L3 from the center of the
なお、乗車意思推定エリアE2の横幅W2はW0の横幅と同じか、あるいはW0の横幅よりも少し広くても良い。また、位置推定エリアE1および乗車意思推定エリアE2は実空間で図中の点線で示すような矩形ではなく、乗場側に設置された三方枠の両側の死角を除く台形であっても良い。 The lateral width W2 of the boarding intention estimation area E2 may be the same as the lateral width of W0 or may be a little wider than the lateral width of W0. Further, the position estimation area E1 and the boarding intention estimation area E2 may be trapezoids excluding the blind spots on both sides of the three-sided frame installed on the landing side, instead of the rectangle as shown by the dotted line in the drawing in the real space.
また、利用者検知エリアをさらに細かく分けて、かごドア13の手前に近接検知エリアE3を設定しておくことでも良い。
Further, the user detection area may be further divided and the proximity detection area E3 may be set in front of the
近接検知エリアE3は、利用者の足元位置を推定すると共に、当該利用者の足元位置が乗場15からかごドア13に近づいて来ているか否かに関係なく、当該利用者には乗車意思があるとみなすエリアである。近接検知エリアE3は、かごドア13の中心から乗場方向に向かってL5の距離を有し、例えば30cmに設定されている(L5≦L4)。近接検知エリアE3の横幅は、乗車意思推定エリアE2の横幅W2と同じに設定されている。
The proximity detection area E3 estimates the user's foot position, and the user has a willingness to get on regardless of whether the user's foot position is approaching the
各利用者検知エリア(E1,E2,E3)とかご制御装置30による戸開閉制御処理との関係は次の通りとなる。
The relationship between each user detection area (E1, E2, E3) and the door opening / closing control process by the
位置推定エリアE1は、当該エリアにおいて利用者が検知されたとしても、その結果がかご制御装置30による戸開閉制御処理に反映されることのないエリアである。
The position estimation area E1 is an area where even if a user is detected in the area, the result is not reflected in the door opening / closing control process by the
乗車意思推定エリアE2は、当該エリアにおいて利用者が検知され、かつその利用者に乗車意思がある場合に、その結果がかご制御装置30による戸開閉制御処理に反映されるエリアである。具体的には、かご制御装置30により戸開時間を延長する等の処理が実行される。
The boarding intention estimation area E2 is an area in which, when a user is detected in the area and the user has a boarding intention, the result is reflected in the door opening / closing control process by the
近接検知エリアE3は、当該エリアにおいて利用者が検知されただけで、その結果がかご制御装置30による戸開閉制御処理に反映されるエリアである。具体的には、かご制御装置30により戸開時間を延長する等の処理が実行される。
The proximity detection area E3 is an area in which the user is detected in the area and the result is reflected in the door opening / closing control process by the
ここで、図5に示すように、カメラ12は、乗りかご11の出入口に設けられたかごドア13と水平の方向をX軸、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸、乗りかご11の高さ方向をZ軸とした画像を撮影する。このカメラ12によって撮影された各画像において、図4に示した位置推定エリアE1および乗車意思推定エリアE2の部分をブロック単位で比較することで、かごドア13の中心から乗場15の方向、つまりY軸方向に移動中の利用者の足元位置の動きを検知する。
Here, as shown in FIG. 5, the
次に、本システムの動作について詳しく説明する。 Next, the operation of this system will be described in detail.
(全開中の利用者検知動作)
図6は本システムにおける全開中の利用者検知処理を示すフローチャートである。
(User detection operation when fully open)
FIG. 6 is a flowchart showing user detection processing during full opening in this system.
乗りかご11が任意の階の乗場15に到着すると(ステップS11のYes)、かご制御装置30は、かごドア13を戸開して乗りかご11に乗車する利用者を待つ(ステップS12)。
When the
このとき、乗りかご11の出入口上部に設置されたカメラ12によって乗場側の所定範囲(L1)とかご内の所定範囲(L2)が所定のフレームレート(例えば30コマ/秒)で撮影される。画像処理装置20は、カメラ12で撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS13)、以下のような利用者検知処理をリアルタイムで実行する(ステップS14)。
At this time, a predetermined range (L1) on the landing side and a predetermined range (L2) in the car are photographed at a predetermined frame rate (for example, 30 frames / second) by the
利用者検知処理は、画像処理装置20に備えられた利用者検知部22によって実行される。この利用者検知処理は、以下のように動き検知処理(ステップS14a)、位置推定処理(ステップS14b)、乗車意思推定処理(ステップS14c)に分けられる。
The user detection process is executed by a
(a)動き検知処理
この動き検知処理は、上記利用者検知部22の構成要素の1つである動き検知部22aで実行される。
(A) Motion Detection Processing This motion detection processing is executed by the
動き検知部22aは、記憶部21に保持された各画像を1枚ずつ読み出し、ブロック毎に平均輝度値を算出する。その際、動き検知部22aは、初期値として最初の画像が入力されたときに算出されたブロック毎の平均輝度値を記憶部21内の図示せぬ第1のバッファエリアに保持しておくものとする。2枚目以降の画像が得られると、動き検知部22aは、現在の画像のブロック毎の平均輝度値と上記第1のバッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較する。その結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、動き検知部22aは、当該ブロックを動きありのブロックとして判定する。
The
現在の画像に対する動きの有無を判定すると、動き検知部22aは、当該画像のブロック毎の平均輝度値を次の画像との比較用として上記第1のバッファエリアに保持する。以後同様にして、動き検知部22aは、カメラ12によって撮影された各画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。
When the presence / absence of motion with respect to the current image is determined, the
(b)位置推定処理
この位置推定処理は、上記利用者検知部22の構成要素の1つである位置推定部22bで実行される。
(B) Position Estimation Process This position estimation process is executed by the
位置推定部22bは、動き検知部22aの検知結果に基づいて現在の画像の中で動きありのブロックをチェックする。その結果、図4に示した位置推定エリアE1内に動きありのブロックが存在した場合、利用者検知部22は、その動きありのブロックのうち、かごドア13に最も近いブロックを抽出する。
The
ここで、図1に示したように、カメラ12は乗りかご11の出入口上部に乗場15に向けて設置されている。したがって、利用者が乗場15からかごドア13に向かっていた場合には、その利用者の右または左の足元の部分が撮影画像の一番手前つまりかごドア13側のブロックに映っている可能性が高い。そこで、位置推定部22bは、かごドア13に最も近い動きありのブロックのY座標(かごドア13の中心から乗場15方向の座標)を利用者の足元位置のデータとして求め、記憶部21内の図示せぬ第2のバッファエリアに保持する。
Here, as shown in FIG. 1, the
以後同様にして、位置推定部22bは、各画像毎にかごドア13に最も近い動きありのブロックのY座標を利用者の足元位置のデータとして求め、記憶部21内の図示せぬ第2のバッファエリアに保持していく。なお、このような足元位置の推定処理は、位置推定エリアE1内だけでなく、乗車意思推定エリアE2内でも同様に行われている。
Thereafter, in the same manner, the
(c)乗車意思推定処理
この乗車意思推定処理は、上記利用者検知部22の構成要素の1つである乗車意思推定部22cで実行される。
(C) Boarding intention estimation process This boarding intention estimation process is performed by the boarding intention estimation part 22c which is one of the components of the said
乗車意思推定部22cは、上記第2のバッファエリアに保持された各画像の利用者の足元位置のデータを平滑化する。なお、平滑化の方法としては、例えば平均値フィルタやカルマンフィルタなどの一般的に知られている方法を用いるものとし、ここではその詳しい説明を省略する。 The boarding intention estimation part 22c smoothes the data of the user's foot position of each image held in the second buffer area. As a smoothing method, for example, a generally known method such as an average value filter or a Kalman filter is used, and detailed description thereof is omitted here.
足元位置のデータを平滑化したとき、変化量が所定値以上のデータが存在した場合、乗車意思推定部22cは、そのデータを外れ値として除外する。なお、上記所定値は、利用者の標準的な歩行速度と撮影画像のフレームレートによって決められている。また、足元位置のデータを平滑化する前に外れ値を見つけて除外しておくことでも良い。 When the data at the foot position is smoothed and there is data whose change amount is equal to or greater than a predetermined value, the boarding intention estimation unit 22c excludes the data as an outlier. The predetermined value is determined by the standard walking speed of the user and the frame rate of the captured image. Further, outliers may be found and excluded before the foot position data is smoothed.
利用者が乗場15からかごドア13に向かって歩いてくる場合、時間経過に伴い、利用者の足元位置のY座標値が徐々に小さくなる。なお、例えば車椅子等の移動体であれば点線で示すような直線的なデータ変化になるが、利用者の場合には左右の足元が交互に検知されるので、実線のように湾曲したデータ変化になる。また、検知結果に何らかのノイズが入り込むと、瞬間的な足元位置の変化量が大きくなる。このような変化量の大きい足元位置のデータは外れ値として除外しておく。
When the user walks from the landing 15 toward the
ここで、乗車意思推定部22cは、図2に示した乗車意思推定エリアE2内の足元位置の動き(データ変化)を確認する。その結果、乗車意思推定エリアE2内でY軸方向へかごドア13に向かっている利用者の足元位置の動き(データ変化)を確認できた場合には、乗車意思推定部22cは、当該利用者に乗車意思ありと判断する。
Here, the boarding intention estimation part 22c confirms the motion (data change) of the foot position in the boarding intention estimation area E2 shown in FIG. As a result, if the movement (data change) of the user's foot position toward the
一方、乗車意思推定エリアE2内でY軸方向にかごドア13に向かっている利用者の足元位置の動きを確認できなかった場合には、乗車意思推定部22cは、当該利用者に乗車意思なしと判断する。例えば、乗りかご11の正面を人物がX軸方向に横切ると、乗車意思推定エリアE2内でY軸方向に時間的に変化しない足元位置が検知される。このような場合には乗車意思なしと判断される。
On the other hand, when the movement of the user's foot position toward the
このように、かごドア13に最も近い動きありのブロックを利用者の足元位置とみなし、その足元位置のY軸方向の時間的な変化を追跡することで利用者の乗車意思の有無を推定することができる。
In this way, the block with the movement closest to the
乗車意思ありの利用者が検知されると(ステップS15のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30は、この利用者検知信号を受信することによりかごドア13の戸閉動作を禁止して戸開状態を維持する(ステップS16)。
When a user with a boarding intention is detected (Yes in step S15), a user detection signal is output from the
詳しくは、かごドア13が全戸開状態になると、かご制御装置30は戸開時間のカウント動作を開始し、所定の時間T(例えば1分)分をカウントした時点で戸閉を行う。この間に乗車意思ありの利用者が検知され、利用者検知信号が送られてくると、かご制御装置30はカウント動作を停止してカウント値をクリアする。これにより、上記時間Tの間、かごドア13の戸開状態が維持されることになる。
Specifically, when the
この間に新たな乗車意思ありの利用者が検知されると、再度カウント値がクリアされ、上記時間Tの間、かごドア13の戸開状態が維持されることになる。ただし、上記時間Tの間に何度も利用者が来てしまうと、かごドア13をいつまでも戸閉できない状況が続いてしまうので、許容時間Tx(例えば3分)を設けておき、この許容時間Txを経過した場合にかごドア13を強制的に戸閉することが好ましい。
If a user with a new intention to board is detected during this time, the count value is cleared again, and the
上記時間T分のカウント動作が終了すると(ステップS17)、かご制御装置30はかごドア13を戸閉し、乗りかご11を目的階に向けて出発させる(ステップS18)。
When the counting operation for the time T is completed (step S17), the
なお、図4に示した近接検知エリアE3が設定されている場合には、乗車意思推定部22cは、当該近接検知エリアE3内で利用者の足元位置を確認すると、当該利用者の足元位置が乗場15からかごドア13に近づいて来ているか否かに関係なく、乗車意思があるとみなして処理することになる。
If the proximity detection area E3 shown in FIG. 4 is set, the boarding intention estimation unit 22c confirms the user's foot position in the proximity detection area E3, and the user's foot position is determined. Regardless of whether or not the
このように、乗りかご11の出入口上部に設置したカメラ12によって乗場15を撮影した画像を解析することにより、例えば乗りかご11から少し離れた場所からかごドア13に向かって来る利用者を検知して戸開閉動作に反映させることができる。
In this way, by analyzing an image obtained by capturing the landing 15 with the
特に、撮影画像の中で利用者の足元位置に注視し、かごドア13から乗場15に向かう方向(Y軸方向)の足元位置の時間的変化を追うことで、例えば乗りかごの近くを通り過ぎただけの人物を誤検知することを防ぎ、乗車意思のある利用者だけを正しく検知して戸開閉動作に反映させることができる。この場合、乗車意思のある利用者が検知されている間は戸開状態が維持されるので、利用者が乗りかご11に乗ろうとしたときに戸閉動作が開始されてドアにぶつかってしまうような事態を回避できる。
In particular, by watching the user's foot position in the captured image and following the temporal change in the foot position in the direction from the
(戸閉中の利用者検知動作)
図6のフローチャートでは、乗場15で乗りかご11のかごドア13が戸開している状態を想定して説明したが、かごドア13が戸閉中(戸閉途中)であっても、カメラ12によって撮影された画像を用いて乗車意思のある利用者の有無が検知される。乗車意思のある利用者が検知されると、かご制御装置30の戸開閉制御部31によってかごドア13の戸閉動作が中断され、再度戸開動作が行われる。
(User detection when the door is closed)
In the flowchart of FIG. 6, the description has been made assuming that the
図7は本システムにおける戸閉中の利用者検知動作を示すフローチャートである。 FIG. 7 is a flowchart showing the user detection operation when the door is closed in this system.
乗りかご11のかごドア13が全戸開の状態から所定の時間が経過すると、戸開閉制御部31によって戸閉動作が開始される(ステップS21)。このとき、カメラ12の撮影動作は継続的に行われている。上記画像処理装置20は、このカメラ12によって撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら(ステップS22)、利用者検知処理をリアルタイムで実行する(ステップS23)。
When a predetermined time has elapsed since the
利用者検知処理は、画像処理装置20に備えられた利用者検知部22によって実行される。この利用者検知処理は、動き検知処理(ステップS23a)、位置推定処理(ステップS23b)、乗車意思推定処理(ステップS23c)に分けられる。なお、これらの処理は、上記図6のステップS14a,S14b,S14cと同様であるため、その詳しい説明は省略する。
The user detection process is executed by a
ここで、乗車意思ありの利用者が検知されると(ステップS24のYes)、画像処理装置20からかご制御装置30に対して利用者検知信号が出力される。かご制御装置30は、戸閉中に上記利用者検知信号を受信すると、かごドア13の戸閉動作を中断して再度戸開動作(リオープン)を行う(ステップS25)。
Here, when a user who has a boarding intention is detected (Yes in step S <b> 24), a user detection signal is output from the
以後は、上記同様の処理が繰り返される。ただし、戸閉中に乗車意思のある利用者が続けて検知されると、リオープンが繰り返され、乗りかご11の出発が遅れてしまう。したがって、乗車意思のある利用者を検知した場合でも、上述した許容時間Tx(例えば3分)が経過していれば、リオープンしないで戸閉することが好ましい。
Thereafter, the same processing as described above is repeated. However, if a user who intends to get on the vehicle is continuously detected while the door is closed, the reopening is repeated and the departure of the
なお、図4に示した近接検知エリアE3が設定されている場合は、乗車意思推定部22cは、当該近接検知エリアE3内で利用者の足元位置を確認すると、当該利用者の足元位置が乗場15からかごドア13に近づいて来ているか否かに関係なく、乗車意思があるとみなして処理することになる。
If the proximity detection area E3 shown in FIG. 4 is set, the boarding intention estimation unit 22c confirms the user's foot position in the proximity detection area E3, and the user's foot position is the landing. Regardless of whether or not the
このように、戸閉中であっても乗車意思のある利用者の有無が検知され、戸開閉動作に戸開閉動作に反映させることができる。したがって、利用者が戸閉途中の乗りかご11に乗ろうとしたときにドアにぶつかってしまうような事態を回避できる。
In this manner, even when the door is closed, the presence or absence of a user who intends to get on is detected and can be reflected in the door opening / closing operation. Therefore, it is possible to avoid a situation where the user hits the door when trying to get on the
(全閉または戸開中の利用者検知動作:引き込まれ検知)
かごドア13が全閉状態の場合、またはかごドア13が戸開中の場合、利用者検知エリアは乗りかご11側に設定される。図示を省略するが、乗りかご11側の利用者検知エリアは、かごドア13の中心から乗りかご15方向に向かって所定の距離(L6)を有し、例えば30cmに設定される(L6≦乗りかご11側の撮影範囲L2)。横幅はかごドア13の横幅W0と略同じである。
(User detection operation when fully closed or door open: Pulled-in detection)
When the
この乗りかご11側の利用者検知エリアは、「引き込まれ検知エリア」として用いられ、当該エリアにおいて利用者が検知された場合、その結果がかご制御装置30による戸開閉制御処理に反映される。具体的には、かご制御装置30によりかごドア13の戸開動作を禁止する、かごドア13の戸開速度を遅くする、かごドア13から離れるよう促す旨のメッセージを利用者に通知する等の処理が実行される。
The user detection area on the
(誤作動防止処理)
本システムでは、カメラ12によって撮影された画像を用いて利用者を検知する構成のため、撮影画像の状態が利用者の検知精度を左右する。例えば、図8に示ように乗場15が暗すぎる場合や、図9に示ように乗場15が明るすぎて、人の影などが強く映り込んでしまうような場合には、撮影画像から利用者を正しく検知できず、誤作動する可能性が高まる。乗りかご11内が暗すぎる場合や明るすぎる場合も同様である。そこで、本システムでは、カメラ12によって撮影された画像が暗すぎる場合あるいは明るすぎる場合に、検知処理(センシング)を一時的に中止するか、検知結果の出力を禁じるか、あるいは、検知処理の感度を下げることで誤作動を予防する。
(Malfunction prevention processing)
In this system, since the user is detected using an image captured by the
図10は本システムにおける誤作動防止処理を示すフローチャートである。なお、この誤作動防止処理は、図6のフローチャートではステップS13の撮影画像取得後に実行され、図7のフローチャートではステップS22の撮影画像取得後に実行される。 FIG. 10 is a flowchart showing a malfunction prevention process in the present system. This malfunction prevention process is executed after the captured image is acquired in step S13 in the flowchart of FIG. 6, and is executed after the captured image is acquired in step S22 in the flowchart of FIG.
まず、前提として、カメラ12には所定の明るさで撮影するための機能として、露光時間、ゲイン、開口量のうちの1つ以上を自動調整可能な機能が備えられているものとする。なお、その自動調整機能をカメラ外部の装置で実装されていても良い。
First, as a premise, it is assumed that the
・開口量:一般には「絞り」と呼ばれる。絞りの値が大きいほど開口量が小さくなる。ここでは、絞りのことを「開口量」と表現し、値が大きいほど多くの光を取り入れる、つまり、明るく映るものとする。また、説明を簡単にするため、開口量の値が2倍になると、取り入れる光の量が2倍になるものとする。 Aperture: Generally called “aperture”. The larger the aperture value, the smaller the aperture. Here, the aperture is expressed as “aperture”, and the larger the value, the more light is taken in, that is, the image is brighter. For the sake of simplicity, it is assumed that when the aperture value is doubled, the amount of light taken in is doubled.
一般に「絞り」の値は、1.4倍になる毎に取り入れる光の量が1/2になるため、実際に値を求める際には、開口量=1/絞り2を用いる。開口量に単位はない(絞りにもないが、便宜的にF値と呼ばれる)。値域は、例えば1/4〜1/64(絞りが2〜8)。 In general, the value of “aperture” is halved as the amount of light taken in every 1.4 times. Therefore, aperture value = 1 / aperture 2 is used when actually obtaining the value. There is no unit for the opening amount (there is no diaphragm, but it is called F value for convenience). The value range is, for example, 1/4 to 1/64 (aperture is 2 to 8).
・露光時間:シャッタースピードとも呼ばれる。単位は秒。値域は、例えば1/1000〜1/30である。 ・ Exposure time: Also called shutter speed. The unit is seconds. The value range is, for example, 1/1000 to 1/30.
・ゲイン:入力信号を何倍にするかの値である。単位は無い(倍率)。値域は、例えば1〜30である。 ・ Gain: The value of how many times the input signal is multiplied. There is no unit (magnification). The value range is, for example, 1-30.
ここで、カメラ12によって撮影された画像の明るさを定量化する。これを「明るさ指標値」と呼ぶ。カメラの原理として、撮影画像の輝度値は以下のような比例の関係がある。
Here, the brightness of the image photographed by the
輝度値∝(物理的な)光量×開口量×露光時間×ゲイン
光量を明るさとみなすと、以下のような式(1)で明るさ指標値が求められる。
明るさ指標値=輝度値/(開口量×露光時間×ゲイン)…(1)
画像処理装置20に設けられたパラメータ取得部23は、カメラ12から明るさ調整に関するパラメータとして、上述した露光時間、ゲイン、開口量のうちの自動調整される値を取得する(ステップS31)。
Luminance value ∝ (physical) light quantity × aperture amount × exposure time × gain If the light quantity is regarded as brightness, the brightness index value is obtained by the following equation (1).
Brightness index value = luminance value / (aperture amount × exposure time × gain) (1)
The
誤作動防止部24は、パラメータ取得部23によって得られたパラメータに基づいて、利用者検知部22に用いられる撮影画像の明るさを表わす指標値LUを算出する(ステップS32)。ここで言う「撮影画像の明るさ」とは、具体的には図1のL1+L2で示される撮影範囲の明るさのことである。
The
ここで、本実施形態において、カメラ12は露光時間とゲインを自動調整可能であり、開口量は固定であるとする。また、上記(1)式の輝度値を一定とすると、誤作動防止部24は、以下のようにして明るさ指標値LUを求めることになる。
Here, in the present embodiment, it is assumed that the
LU=1/(露光時間×ゲイン)
誤作動防止部24は、この明るさ指標値LUと予め設定された明るさの上限値THa,下限値THbとを比較する(ステップS33)。THa>THbであり、例えばTHa=300、THb=3である。
LU = 1 / (exposure time x gain)
The
LU>THaまたはLU<THbであった場合つまり撮影画像が全体的に明るすぎ/暗すぎの場合には(ステップS33のYes)、誤作動防止部24は、撮影画像から利用者を正しく検知できないと判断し、利用者検知部22の誤作動を防止するための特定の処理を実施する(ステップS34)。詳しくは、誤作動防止部24は、利用者検知部22の検知処理を一時的に中止する、検知結果の出力を禁じる、検知処理の感度を下げることのいずれか1つを実施する。
If LU> THa or LU <THb, that is, if the captured image is overall too bright / dark (Yes in step S33), the
「検知処理を一時的に中止」とは、利用者検知(センシング)を行わないことである。つまり、当該撮影画像に関しては、利用者検知処理(図6のステップS14〜S15/図7のステップS23〜S24)を行わないことである。この場合、検知結果が戸開閉制御に反映されないので、通常の戸開閉制御が実行されることになる。 “Temporarily canceling detection processing” means not performing user detection (sensing). That is, the user detection process (steps S14 to S15 in FIG. 6 / steps S23 to S24 in FIG. 7) is not performed on the captured image. In this case, since the detection result is not reflected in the door opening / closing control, normal door opening / closing control is executed.
「検知結果の出力を禁じる」とは、利用者検知を行っても、その検知結果を無効としてかご制御装置30に出力させないことである。この場合も検知結果が戸開閉制御に反映されないので、通常の戸開閉制御が実行されることになる。
“Forbid the output of detection results” means that even if user detection is performed, the detection results are invalid and are not output to the
「検知処理の感度を下げる」とは、利用者検知の精度を下げることである。具体的には、図6のステップS14aで説明した動き検知処理において、時間的に連続する各撮影画像の輝度値をブロック単位で比較するときの輝度差の閾値を通常時よりも上げることで、動きありブロックの検出率を低くすることである。 “Decrease the sensitivity of detection processing” is to decrease the accuracy of user detection. Specifically, in the motion detection process described in step S14a of FIG. 6, by increasing the threshold value of the luminance difference when comparing the luminance value of each captured image that is temporally continuous in units of blocks, This is to lower the detection rate of blocks with motion.
なお、LU>THaまたはLU<THbの場合に、そのときのLUの値に応じて当該撮影画像に対する検知処理の感度を段階的に下げることでも良い(LUの値がTHaまたはTHbから離れるほど、当該撮影画像に対する感度を下げる)。 In the case of LU> THa or LU <THb, the sensitivity of the detection processing for the captured image may be decreased in stages according to the LU value at that time (the more the LU value is away from THa or THb, Decrease sensitivity to the captured image).
このように第1の実施形態によれば、カメラ12によって撮影された画像を用いて利用者を検知するシステムにおいて、撮影画像が明るすぎる場合や暗すぎる場合での利用者検知の誤作動を防ぐことができる。これにより、利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることができる。
As described above, according to the first embodiment, in the system that detects the user using the image captured by the
(変形例)
上記第1の実施形態の変形例として、以下のような方法で明るさ指標値LUを算出することでも良い。
(Modification)
As a modification of the first embodiment, the brightness index value LU may be calculated by the following method.
(1)平均輝度値を用いる場合
カメラ12から露光時間とゲインを取得できるとする。誤作動防止部24は、撮影画像全体、もしくは検知に使う領域の平均輝度値を求め、以下のようにして明るさ指標値LUを求める。
(1) When using average luminance value It is assumed that the exposure time and gain can be acquired from the
LU=平均輝度値/(露光時間×ゲイン)
(2)露光時間とゲインと開口量の3つを用いる方法
カメラ12から露光時間とゲインと開口量を取得できるとする。誤作動防止部24は、これらの値を用いて以下のようにして明るさ指標値LUを求める。
LU = average luminance value / (exposure time × gain)
(2) Method Using Three Exposure Times, Gain, and Aperture Value Assume that the exposure time, gain, and aperture amount can be acquired from the
LU=1/(露光時間×ゲイン×開口量)
(3)使う値の組み合わせ
誤作動防止部24は、露光時間とゲインと開口量、平均輝度の組み合わせにより、以下のようにして明るさ指標値LUを求める。
LU = 1 / (exposure time × gain × aperture)
(3) Combination of values to be used The
・露光時間とゲインと開口量、平均輝度を用いる場合
LU=平均輝度値/(露光時間×ゲイン×開口量)
・露光時間を用いる場合(ゲインと開口量が固定)
LU=1/露光時間
・ゲインを用いる場合(露光時間と開口量が固定)
LU=1/ゲイン
上記のような方法により明るさ指標値LUを求めた場合でも、上記第1の実施形態と同様に、撮影画像が明るすぎる場合や暗すぎる場合での利用者検知の誤作動を防ぐことができる。
When using exposure time, gain, aperture, and average brightness LU = average brightness / (exposure time x gain x aperture)
・ When using exposure time (gain and aperture are fixed)
LU = 1 / exposure time • When gain is used (exposure time and aperture are fixed)
LU = 1 / gain Even when the brightness index value LU is obtained by the method as described above, as in the first embodiment, malfunction of user detection when the captured image is too bright or too dark. Can be prevented.
(第2の実施形態)
次に、第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment will be described.
上記第1の実施形態では、カメラ12の撮影画像全体の明るさを基準にして誤作動防止処理を実施する構成としたが、第2の実施形態では、撮影画像の中で明るすぎる部分あるいは暗すぎる部分を検出し、その部分に対して誤作動防止処理を実施するものである。
In the first embodiment, the malfunction prevention process is performed on the basis of the brightness of the entire captured image of the
すなわち、図11に示ように、照明光や自然光などの関係で部分的に明るい場所あるいは暗い場所が発生することがある。図3で説明したように、本システムでは、カメラ12で撮影した画像を一定サイズのブロックに区切り、人・物の動きがあるブロックを検知し、その動きありのブロックを追うことで乗車意思のある利用者であるか否かを判断する構成としている。そこで、このブロック毎に明るさ指標値LUi(iはブロック数)を算出し、上限値THaよりも高い部分あるいは下限値THbよりも低い部分に対して誤作動防止処理を実施する。
That is, as shown in FIG. 11, a bright place or a dark place may occur partially due to illumination light or natural light. As described with reference to FIG. 3, in this system, the image captured by the
以下に、具体的な処理動作について説明する。 A specific processing operation will be described below.
図12は第2の実施形態における誤作動防止処理を示すフローチャートである。なお、この誤作動防止処理は、図6のフローチャートではステップS13の撮影画像取得後に実行され、図7のフローチャートではステップS22の撮影画像取得後に実行される。 FIG. 12 is a flowchart showing a malfunction prevention process in the second embodiment. This malfunction prevention process is executed after the captured image is acquired in step S13 in the flowchart of FIG. 6, and is executed after the captured image is acquired in step S22 in the flowchart of FIG.
上記第1の実施形態と同様に、カメラ12には所定の明るさで撮影するための機能として、露光時間、ゲイン、開口量のうちの1つ以上を自動調整可能な機能が備えられているものとする。なお、その自動調整機能をカメラ外部の装置で実装されていても良い。
Similar to the first embodiment, the
画像処理装置20に設けられたパラメータ取得部23は、カメラ12から明るさ調整に関するパラメータとして、上述した露光時間、ゲイン、開口量のうちの自動調整される値を取得する(ステップS41)。
The
ここで、第2の実施形態では、誤作動防止部24は、利用者検知部22に用いられる撮影画像を所定サイズのブロックで分割し(ステップS42)、そのブロック毎に以下のような処理を行う。なお、図中の点線で囲んだステップS43〜S46の処理は各ブロックで実行される。
Here, in the second embodiment, the
すなわち、まず、誤作動防止部24は、各ブロックの輝度値をそれぞれ求める(ステップS43)。この場合、ブロック毎にそのブロックに属する各画素の輝度値を平均化した値を当該ブロックの輝度値として求める。
That is, first, the
次に、誤作動防止部24は、ブロック毎に得られる輝度値を用いて、以下のようにしてブロック単位の明るさ指標値LUiをそれぞれ求める(ステップS44)。
Next, the
LUi=ブロックiの輝度値/(露光時間×ゲイン)
なお、カメラ12は露光時間とゲインを自動調整可能であり、開口量は固定であるとする。iはブロック数である。
LUi = luminance value of block i / (exposure time × gain)
Note that the
誤作動防止部24は、このブロック単位の明るさ指標値LUiと予め設定された明るさの上限値THa,下限値THbとを比較する(ステップS44)。THa>THbであり、例えばTHa=300、THb=3である。
The
LUi>THaまたはLUi<THbであった場合つまり撮影範囲の当該ブロックに対応した部分が明るすぎ/暗すぎの場合には(ステップS45のYes)、誤作動防止部24は、撮影画像から利用者を正しく検知できないと判断し、利用者検知部22の誤作動を防止するための特定の処理を実施する(ステップS46)。詳しくは、誤作動防止部24は、利用者検知部22の当該ブロックに対する検知処理を一時的に中止するか、当該ブロックに対する検知結果の出力を禁じるか、当該ブロックに対する検出処理の感度を下げることのいずれか1つを実施する。
If LUi> THa or LUi <THb, that is, if the portion corresponding to the block in the shooting range is too bright / dark (Yes in step S45), the
「当該ブロックに対する検知処理を一時的に中止」とは、撮影画像の中の明るすぎる部分あるいは暗すぎる部分に対しては利用者検知(センシング)を行わないことである。つまり、当該撮影画像の中の明るすぎる部分あるいは暗すぎる部分に関しては、利用者検知処理(図6のステップS14〜S15の処理/図7のステップS23〜S25)を行わないことである。この場合、他の部分で利用者が検知されれば、その検知結果がかご制御装置30に出力されて戸開閉制御に反映される。
“Temporarily canceling the detection processing for the block” means that user detection (sensing) is not performed on a portion that is too bright or too dark in the captured image. In other words, the user detection process (the process of steps S14 to S15 in FIG. 6 / the steps S23 to S25 of FIG. 7) is not performed for a part that is too bright or too dark in the captured image. In this case, if the user is detected in another part, the detection result is output to the
「当該ブロックに対する検知結果の出力を禁じる」とは、撮影画像の中の明るすぎる部分あるいは暗すぎる部分に対する利用者検知を行っても、その検知結果を無効としてかご制御装置30に出力させないことである。この場合、撮影画像の中の他の部分で利用者が検知されれば、その検知結果がかご制御装置30に出力されて戸開閉制御に反映される。
“Prohibit output of detection results for the block” means that even if user detection is performed on a too bright or too dark portion of the captured image, the detection result is invalidated and not output to the
「当該ブロックに対する検知処理の感度を下げる」とは、利用者検知の精度を下げることである。具体的には、図6のステップS14aで説明した動き検知処理において、時間的に連続する各撮影画像の輝度値をブロック単位で比較するときの輝度差の閾値を当該ブロックに関してのみ通常時よりも上げることで、明るすぎる部分あるいは暗すぎる部分に対する動きありブロックの検出率を低くすることである。 “Decrease the sensitivity of detection processing for the block” means to decrease the accuracy of user detection. Specifically, in the motion detection process described in step S14a of FIG. 6, the threshold value of the luminance difference when comparing the luminance value of each captured image that is temporally continuous for each block is set only for the block as compared with the normal time. By increasing the value, the detection rate of a block with motion for a portion that is too bright or too dark is lowered.
なお、LUi>THaまたはLUi<THbの場合に、そのときのLUiの値に応じて当該ブロックに対する検知処理の感度を段階的に下げることでも良い(LUiの値がTHaまたはTHbから離れるほど、当該ブロックに対する感度を下げる)。 In the case of LUi> THa or LUi <THb, the sensitivity of the detection processing for the block may be decreased in stages according to the value of LUi at that time (the more the value of LUi is away from THa or THb, the more Reduce sensitivity to block).
このように第2の実施形態によれば、乗場15や乗りかご11内の撮影範囲の中で明るすぎる部分や暗すぎる部分に対する利用者検知の誤作動を防ぐことができ、その他の部分で利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることができる。これにより、例えば乗場15側は全体的に暗く、乗りかご11内は適度な明るさを有する場合には、乗場15はセンシングしない、乗りかご11内はセンシングするといった切り分けができる。
As described above, according to the second embodiment, it is possible to prevent malfunction of user detection for a too bright part or a too dark part in the shooting range in the
(変形例)
上記第2の実施形態の変形例として、以下のような方法でブロック単位の明るさ指標値LUiを算出することでも良い。
(Modification)
As a modification of the second embodiment, the brightness index value LUi in units of blocks may be calculated by the following method.
(1)露光時間とゲインと開口量の3つを用いる方法
カメラ12から露光時間とゲインと開口量を取得できるとする。誤作動防止部24は、これらの値を用いて以下のようにしてブロック単位の明るさ指標値LUiを求める。
(1) Method using three of exposure time, gain, and opening amount Assume that the exposure time, gain, and opening amount can be acquired from the
LUi=ブロックiの輝度値/(露光時間×ゲイン×開口量)
(2)使う値の組み合わせ
誤作動防止部24は、露光時間とゲインと開口量の組み合わせにより、以下のようにして明るさ指標値LUを求める。
LUi = luminance value of block i / (exposure time × gain × aperture amount)
(2) Combination of values to be used The
・露光時間を用いる場合(ゲインと開口量が固定)
LUi=ブロックiの輝度値/露光時間
・ゲインを用いる場合(露光時間と開口量が固定)
LUi=ブロックiの輝度値/ゲイン
上記のような方法によりブロック単位の明るさ指標値LUiを求めた場合でも、上記第1の実施形態と同様に、撮影画像が部分的に明るすぎる場合や暗すぎる場合での利用者検知の誤作動を防ぐことができる。
・ When using exposure time (gain and aperture are fixed)
LUi = luminance value of block i / exposure time When gain is used (exposure time and aperture are fixed)
LUi = luminance value / gain of block i Even when the brightness index value LUi in units of blocks is obtained by the method as described above, as in the first embodiment, when the captured image is partially too bright or dark It is possible to prevent a malfunction of user detection when it is too much.
以上述べた少なくとも1つの実施形態によれば、カメラによって撮影された画像を用いて利用者を検知する際に、撮影環境により利用者検知の誤作動を防いで、利用者を正しく検知できる場合にのみ、その利用者の動きをドアの開閉制御に反映させることのできるエレベータの乗車検知システムを提供することができる。 According to at least one embodiment described above, when a user is detected using an image captured by a camera, the user can be detected correctly by preventing malfunction of the user detection depending on the shooting environment. It is possible to provide an elevator boarding detection system that can reflect the movement of the user in the door opening / closing control.
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
11…乗りかご、12…カメラ、13…かごドア、14…乗場ドア、15…乗場、20…画像処理装置、21…記憶部、22…利用者検知部、22a…動き検知部、22b…位置推定部、22c…乗車意思推定部、23…パラメータ取得部、24…誤作動防止部、30…かご制御装置、31…戸開閉制御部、E1…利用者位置推定エリア、E2…乗車意思推定エリア、E3…近接検知エリア。
DESCRIPTION OF
Claims (7)
この撮像手段によって撮影された画像を用いて利用者を検知する利用者検知手段と、
この利用者検知手段の検知結果に基づいて上記ドアの開閉動作を制御する制御手段と、
上記撮像手段から明るさ調整に関するパラメータを取得するパラメータ取得手段と、
このパラメータ取得手段によって得られた撮影時に調整済みの上記パラメータに基づいて、上記利用者検知手段に用いられる撮影画像の明るさを判断し、当該撮影画像から利用者を正しく検知できないと判断される場合に上記利用者検知手段の誤作動を防止するための処理を実施する誤作動防止手段と
を具備したことを特徴とするエレベータの乗車検知システム。 An imaging means capable of photographing a predetermined range from the vicinity of the door of the car toward the landing when the car arrives at the landing;
User detection means for detecting a user using an image taken by the imaging means;
Control means for controlling the opening and closing operation of the door based on the detection result of the user detection means;
Parameter acquisition means for acquiring parameters relating to brightness adjustment from the imaging means;
Based on the parameter adjusted at the time of shooting obtained by the parameter acquisition unit, the brightness of the shot image used for the user detection unit is determined, and it is determined that the user cannot be correctly detected from the shot image. The elevator boarding detection system comprising: a malfunction prevention means for performing a process for preventing malfunction of the user detection means.
上記露光時間、ゲイン、開口量の中の1つ以上を用いて、上記撮影画像の明るさを表わす指標値を算出し、上記指標値が予め設定された上限値よりも高い場合あるいは予め設定された下限値よりも低い場合に上記利用者検知手段の誤作動を防止するための処理を実施することを特徴とする請求項2記載のエレベータの乗車検知システム。 The malfunction prevention means is
An index value representing the brightness of the captured image is calculated using one or more of the exposure time, gain, and aperture, and the index value is higher than or set in advance. 3. The elevator boarding detection system according to claim 2, wherein a process for preventing malfunction of the user detection means is performed when the value is lower than the lower limit.
上記撮影画像をブロック単位で分割し、上記露光時間、ゲイン、開口量の中の1つ以上を用いて、上記ブロック単位で明るさを表わす指標値を算出し、上記指標値が予め設定された上限値よりも高い場合あるいは予め設定された下限値よりも低い場合に当該ブロックに対して上記利用者検知手段の誤作動を防止するための処理を実施することを特徴とする請求項2記載のエレベータの乗車検知システム。 The malfunction prevention means is
The photographed image is divided in units of blocks, and an index value representing brightness is calculated in units of blocks using one or more of the exposure time, gain, and aperture, and the index values are preset. The process for preventing malfunction of the user detecting means is performed on the block when it is higher than the upper limit value or lower than a preset lower limit value. Elevator boarding detection system.
上記利用者検知手段の誤作動を防止するための処理として、検知処理を一時的に中止することを特徴とする請求項1記載のエレベータの乗車検知システム。 The malfunction prevention means is
The elevator boarding detection system according to claim 1, wherein the detection process is temporarily stopped as a process for preventing the user detection means from malfunctioning.
上記利用者検知手段の誤作動を防止するための処理として、上記制御手段に対する検知結果の出力を禁じることを特徴とする請求項1記載のエレベータの乗車検知システム。 The malfunction prevention means is
The elevator boarding detection system according to claim 1, wherein output of detection results to the control means is prohibited as processing for preventing malfunction of the user detection means.
上記利用者検知手段の誤作動を防止するための処理として、検知処理の感度を下げることを特徴とする請求項1記載のエレベータの乗車検知システム。 The malfunction prevention means is
The elevator boarding detection system according to claim 1, wherein the sensitivity of detection processing is lowered as processing for preventing malfunction of the user detection means.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017058781A JP6377797B1 (en) | 2017-03-24 | 2017-03-24 | Elevator boarding detection system |
CN201711474231.6A CN108622776B (en) | 2017-03-24 | 2017-12-29 | Elevator riding detection system |
MYPI2018700377A MY190207A (en) | 2017-03-24 | 2018-01-29 | Elevator boarding detection system |
SG10201800801TA SG10201800801TA (en) | 2017-03-24 | 2018-01-30 | Elevator boarding detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017058781A JP6377797B1 (en) | 2017-03-24 | 2017-03-24 | Elevator boarding detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6377797B1 true JP6377797B1 (en) | 2018-08-22 |
JP2018162118A JP2018162118A (en) | 2018-10-18 |
Family
ID=63249998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017058781A Active JP6377797B1 (en) | 2017-03-24 | 2017-03-24 | Elevator boarding detection system |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP6377797B1 (en) |
CN (1) | CN108622776B (en) |
MY (1) | MY190207A (en) |
SG (1) | SG10201800801TA (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111942981A (en) * | 2019-05-16 | 2020-11-17 | 东芝电梯株式会社 | Image processing apparatus |
CN115108425A (en) * | 2021-03-18 | 2022-09-27 | 东芝电梯株式会社 | User detection system of elevator |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6646169B1 (en) * | 2019-01-18 | 2020-02-14 | 東芝エレベータ株式会社 | Elevator system |
JP6716741B1 (en) * | 2019-03-20 | 2020-07-01 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6795266B1 (en) * | 2019-08-08 | 2020-12-02 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6896808B2 (en) * | 2019-08-09 | 2021-06-30 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6881853B2 (en) * | 2019-08-09 | 2021-06-02 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6871324B2 (en) * | 2019-08-28 | 2021-05-12 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6843935B2 (en) * | 2019-09-05 | 2021-03-17 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6833942B1 (en) * | 2019-09-10 | 2021-02-24 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6874104B1 (en) * | 2019-12-06 | 2021-05-19 | 東芝エレベータ株式会社 | Elevator system and elevator control method |
JP7009537B2 (en) * | 2020-03-23 | 2022-01-25 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6985443B2 (en) * | 2020-03-23 | 2021-12-22 | 東芝エレベータ株式会社 | Elevator user detection system |
JP7183457B2 (en) * | 2020-03-23 | 2022-12-05 | 東芝エレベータ株式会社 | Elevator user detection system |
JP7019740B2 (en) * | 2020-03-23 | 2022-02-15 | 東芝エレベータ株式会社 | Elevator user detection system |
JP6968943B1 (en) * | 2020-07-15 | 2021-11-24 | 東芝エレベータ株式会社 | Elevator user detection system |
JP7276992B2 (en) * | 2021-08-06 | 2023-05-18 | 東芝エレベータ株式会社 | Elevator user detection system |
JP7242820B1 (en) | 2021-12-10 | 2023-03-20 | 東芝エレベータ株式会社 | Elevator control system and elevator control method |
JP7516582B1 (en) | 2023-01-12 | 2024-07-16 | 東芝エレベータ株式会社 | Elevator System |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261994A (en) * | 1998-03-11 | 1999-09-24 | Mitsubishi Electric Corp | Object detector and user number detector for elevator |
JP6068694B1 (en) * | 2016-01-13 | 2017-01-25 | 東芝エレベータ株式会社 | Elevator boarding detection system |
JP6092434B1 (en) * | 2016-01-13 | 2017-03-08 | 東芝エレベータ株式会社 | Elevator system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5788843B2 (en) * | 2012-08-30 | 2015-10-07 | 株式会社日立製作所 | Elevator door system and elevator with elevator door system |
JP6235326B2 (en) * | 2013-12-12 | 2017-11-22 | 株式会社日立製作所 | Elevator system |
-
2017
- 2017-03-24 JP JP2017058781A patent/JP6377797B1/en active Active
- 2017-12-29 CN CN201711474231.6A patent/CN108622776B/en active Active
-
2018
- 2018-01-29 MY MYPI2018700377A patent/MY190207A/en unknown
- 2018-01-30 SG SG10201800801TA patent/SG10201800801TA/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261994A (en) * | 1998-03-11 | 1999-09-24 | Mitsubishi Electric Corp | Object detector and user number detector for elevator |
JP6068694B1 (en) * | 2016-01-13 | 2017-01-25 | 東芝エレベータ株式会社 | Elevator boarding detection system |
JP6092434B1 (en) * | 2016-01-13 | 2017-03-08 | 東芝エレベータ株式会社 | Elevator system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111942981A (en) * | 2019-05-16 | 2020-11-17 | 东芝电梯株式会社 | Image processing apparatus |
CN115108425A (en) * | 2021-03-18 | 2022-09-27 | 东芝电梯株式会社 | User detection system of elevator |
CN115108425B (en) * | 2021-03-18 | 2024-02-27 | 东芝电梯株式会社 | Elevator user detection system |
Also Published As
Publication number | Publication date |
---|---|
SG10201800801TA (en) | 2018-10-30 |
MY190207A (en) | 2022-04-04 |
CN108622776A (en) | 2018-10-09 |
CN108622776B (en) | 2020-05-01 |
JP2018162118A (en) | 2018-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6377797B1 (en) | Elevator boarding detection system | |
JP6092433B1 (en) | Elevator boarding detection system | |
JP5969147B1 (en) | Elevator boarding detection system | |
JP6068694B1 (en) | Elevator boarding detection system | |
JP6367411B1 (en) | Elevator system | |
JP6377795B1 (en) | Elevator boarding detection system | |
JP6317004B1 (en) | Elevator system | |
JP6139729B1 (en) | Image processing device | |
JP2018090351A (en) | Elevator system | |
CN113428752B (en) | User detection system for elevator | |
JP6271776B1 (en) | Elevator boarding detection system | |
JP2018158842A (en) | Image analyzer and elevator system | |
JP2018030676A (en) | Elevator control system | |
CN109879130B (en) | Image detection system | |
JP6524294B1 (en) | User detection system | |
CN113942905B (en) | Elevator user detection system | |
JP6270948B1 (en) | Elevator user detection system | |
JP6806414B2 (en) | Image processing device and image processing method | |
JP7135144B1 (en) | Elevator user detection system | |
JP6881853B2 (en) | Elevator user detection system | |
JP7367174B1 (en) | elevator system | |
JP6693624B2 (en) | Image detection system | |
JP2020114777A (en) | Elevator system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6377797 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |