JP2023024069A - User detection system of elevator - Google Patents
User detection system of elevator Download PDFInfo
- Publication number
- JP2023024069A JP2023024069A JP2021130127A JP2021130127A JP2023024069A JP 2023024069 A JP2023024069 A JP 2023024069A JP 2021130127 A JP2021130127 A JP 2021130127A JP 2021130127 A JP2021130127 A JP 2021130127A JP 2023024069 A JP2023024069 A JP 2023024069A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- edge
- car
- moving object
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 210
- 230000008859 change Effects 0.000 claims abstract description 24
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 52
- 238000000034 method Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 17
- 239000000284 extract Substances 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Indicating And Signalling Devices For Elevators (AREA)
- Elevator Door Apparatuses (AREA)
Abstract
Description
本発明の実施形態は、エレベータの利用者検知システムに関する。 Embodiments of the present invention relate to elevator occupant detection systems.
エレベータの乗りかごのドアが戸開するときに、乗りかご内にいる利用者の指などが戸袋へ引き込まれることがある。また、乗場にいる利用者が乗りかごに乗り込むときに、戸閉途中のドアの先端にぶつかることがある。このようなドアの事故を防止するため、乗りかごに設置された1台のカメラを用いて、乗場の利用者や乗りかご内の利用者を検知して、戸開閉制御に反映させるシステムが知られている。 When the door of the car of the elevator is opened, the fingers of the user in the car may be drawn into the door pocket. In addition, when a user at the boarding point gets into the car, he or she may bump into the tip of the door that is in the middle of closing. In order to prevent such door accidents, a camera installed in the car is used to detect users at the boarding point and inside the car, and a system that reflects this information in door opening/closing control is developed. It is
上述したシステムでは、撮影画像のフレーム間の輝度差分によって、利用者の有無を検知していた。しかしながら、例えば乗りかご内や乗場の照明環境により、利用者の影が撮影画像に入り込んだ場合に、その影の動きに伴う輝度変化によって過検知が発生していた。なお、「過検知」とは、影を利用者として誤って検知するといった意味で「誤検知」と同じである。 In the system described above, the presence or absence of a user is detected based on the luminance difference between the frames of the captured image. However, for example, when the shadow of the user enters the captured image due to the lighting environment inside the car or at the hall, over-detection occurs due to the change in luminance associated with the movement of the shadow. It should be noted that "over-detection" is the same as "erroneous detection" in the sense that a shadow is mistakenly detected as a user.
本発明が解決しようとする課題は、照明環境に起因した影の過検知を抑制して、乗りかご内や乗場にいる利用者を正しく検知することのできるエレベータの利用者検知システムを提供することである。 The problem to be solved by the present invention is to provide an elevator user detection system capable of suppressing over-detection of shadows caused by the lighting environment and correctly detecting users in the car or at the landing. is.
一実施形態に係るエレベータの利用者検知システムは、乗りかご内に設置されたカメラの撮影画像からエッジの情報を抽出するエッジ抽出手段と、上記エッジ抽出手段によって抽出されたエッジを上記撮影画像として連続して得られる各画像間で比較して得られるエッジ変化に基づいて、上記撮影画像から動体を検知する動体検知手段と、上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段とを具備する。 An elevator user detection system according to one embodiment includes edge extraction means for extracting edge information from an image captured by a camera installed in a car, and edges extracted by the edge extraction means as the captured image. moving object detection means for detecting a moving object from the photographed image based on an edge change obtained by comparing successively obtained images; and a person detection means for detecting a moving object as a person.
以下、実施の形態について図面を参照して説明する。
なお、開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
Embodiments will be described below with reference to the drawings.
The disclosure is merely an example, and the invention is not limited by the contents described in the following embodiments. Modifications that can be easily conceived by those skilled in the art are naturally included in the scope of the disclosure. In order to make the explanation clearer, in the drawings, the size, shape, etc. of each part may be changed from the actual embodiment and shown schematically. Corresponding elements in multiple drawings may be denoted by the same reference numerals and detailed descriptions thereof may be omitted.
図1は一実施形態に係るエレベータの利用者検知システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。 FIG. 1 is a diagram showing the configuration of an elevator user detection system according to an embodiment. Here, one car will be described as an example, but the configuration is the same for a plurality of cars.
乗りかご11の出入口上部にカメラ12が設置されている。具体的には、カメラ12は、乗りかご11の出入口上部を覆う幕板11aの中にレンズ部分を直下方向、もしくは、乗場15側あるいは乗りかご11内部側に所定の角度だけ傾けて設置される。
A
カメラ12は、例えば車載カメラ等の小型の監視用カメラであり、広角レンズもしくは魚眼レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続的に撮影可能である。カメラ12は、例えば乗りかご11が各階の乗場15に到着したときに起動され、かごドア13付近と乗場15を含めて撮影する。なお、カメラ12は、乗りかご11の運転時に常時動作中であっても良い。
The
このときの撮影範囲はL1+L2に調整されている(L1≫L2)。L1は乗場側の撮影範囲であり、かごドア13から乗場15に向けて所定の距離を有する。L2はかご側の撮影範囲であり、かごドア13からかご背面に向けて所定の距離を有する。なお、L1,L2は奥行き方向の範囲であり、幅方向(奥行き方向と直交する方向)の範囲については少なくとも乗りかご11の横幅より大きいものとする。
The shooting range at this time is adjusted to L1+L2 (L1>>L2). L1 is an imaging range on the landing side, and has a predetermined distance from the
各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。なお、動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明においては、かごドア13を戸開している時には乗場ドア14も戸開しており、かごドア13が戸閉している時には乗場ドア14も戸閉しているものとする。
At the
カメラ12によって連続的に撮影された各画像(映像)は、画像処理装置20によってリアルタイムに解析処理される。なお、図1では、便宜的に画像処理装置20を乗りかご11から取り出して示しているが、実際には、画像処理装置20はカメラ12と共に幕板11aの中に収納されている。
Each image (video) captured continuously by the
画像処理装置20は、記憶部21と検知部22とを備える。記憶部21は、例えばRAM等のメモリデバイスからなる。記憶部21は、カメラ12によって撮影された画像を逐次保存すると共に、検知部22の処理に必要なデータを一時的に保存しておくためのバッファエリアを有する。なお、記憶部21には、撮影画像に対する前処理として、歪み補正や拡大縮小、一部切り取り等の処理が施された画像が保存されるとしても良い。
The
検知部22は、例えばマイクロプロセッサからなり、カメラ12の撮影画像を用いて、乗りかご11内または乗場15にいる利用者を検知する。この検知部22を機能的に分けると、検知エリア設定部23、検知処理部24で構成される。なお、これらは、ソフトウェアによって実現しても良いし、IC(Integrated Circuit)等のハードウェアにより実現しても良いし、ソフトウェアおよびハードウェアを併用して実現しても良い。また、画像処理装置20の一部あるいは全部の機能をエレベータ制御装置30に持たせることでも良い。
The
検知エリア設定部23は、カメラ12から得られる撮影画像上に利用者を検知するための検知エリアを少なくとも1つ以上設定する。本実施形態では、乗場15の利用者を検知するための検知エリアE1と、乗りかご11内の利用者を検知するための検知エリアE2,E3が設定される。検知エリアE1は、乗車検知エリアとして用いられ、乗りかご11の出入口(かごドア13)から乗場15に向けて設定される。検知エリアE2は、引き込まれ検知エリアとして用いられ、乗りかご11内の入口柱41a,41bに設定される。検知エリアE3は、検知エリアE2と同様に引き込まれ検知エリアとして用いられ、乗りかご11内の出入口側の床面19に設定される(図3参照)。
The detection area setting unit 23 sets at least one or more detection areas for detecting the user on the captured image obtained from the
検知処理部24は、エッジ抽出部24a、動体検知部24b、人物検知部24cを有し、カメラ12から得られる撮影画像を解析処理して、乗りかご11内または乗場15に存在する利用者を検知する。なお、エッジ抽出部24a、動体検知部24b、人物検知部24cについては、後に図7乃至図11を参照して詳しく説明する。検知処理部24によって検知された利用者が上記検知エリアE1~E3のいずれかに存在した場合に、所定の対応処理(戸開閉制御)が実行される。
The
エレベータ制御装置30は、CPU、ROM、RAM等を備えたコンピュータからなる。エレベータ制御装置30は、乗りかご11の運転制御などを行う。また、エレベータ制御装置30は、戸開閉制御部31と警告部32を備える。
The
戸開閉制御部31は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部31は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。ただし、かごドア13の戸閉動作中に、検知処理部22bによって検知エリアE1内で利用者が検知された場合には、戸開閉制御部31は、かごドア13の戸閉動作を禁止して、かごドア13を全開方向にリオープンして戸開状態を維持する。
The door opening/closing control unit 31 controls opening/closing of the
また、かごドア13の戸開動作中に検知処理部22bによって検知エリアE2またはE3内で利用者が検知された場合には、戸開閉制御部31は、ドア事故(戸袋への引き込まれ事故)を回避するための戸開閉制御を行う。具体的には、戸開閉制御部31は、かごドア13の戸開動作を一時停止するか、逆方向(戸閉方向)に動かす、あるいは、かごドア13の戸開速度を遅くする。
Further, when the detection processing unit 22b detects a user within the detection area E2 or E3 during the opening operation of the
図2は乗りかご11内の出入口周辺部分の構成を示す図である。
乗りかご11の出入口にかごドア13が開閉自在に設けられている。図2の例では両開きタイプのかごドア13が示されており、かごドア13を構成する2枚のドアパネル13a,13bが間口方向(水平方向)に沿って互いに逆方向に開閉動作する。なお、「間口」とは、乗りかご11の出入口と同じである。
FIG. 2 is a diagram showing the configuration of the entrance and exit peripheral portion in the
A
乗りかご11の出入口の両側に入口柱41a,41bが設けられており、幕板11aと共に乗りかご11の出入口を囲っている。「入口柱」は、正面柱とも言い、裏側にはかごドア13を収納するための戸袋が設けられているのが一般的である。図2の例では、かごドア13が戸開したときに、一方のドアパネル13aが入口柱41aの裏側に設けられた戸袋42aに収納され、他方のドアパネル13bが入口柱41bの裏側に設けられた戸袋42bに収納される。入口柱41a,41bの一方あるいは両方に表示器43や、行先階ボタン44などが配設された操作盤45、スピーカ46が設置されている。図2の例では、入口柱41aにスピーカ46、入口柱41bに表示器43、操作盤45が設置されている。
カメラ12は、乗りかご11の出入口上部に水平方向に配設された幕板11aの中に設けられる。ここで、乗場15の利用者を戸閉直前まで検知するため、かごドア13の戸閉位置に合わせてカメラ12が取り付けられている。具体的には、かごドア13が両開きタイプであれば、幕板11aの中央部にカメラ12が取り付けられる。また、乗りかご11内の天井面には、例えばLEDを用いた照明機器48が設置されている。
The
図3に示すように、カメラ12は、乗りかご11の出入口に設けられたかごドア13と水平の方向をX軸、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸、乗りかご11の高さ方向をZ軸とした画像を撮影する。
As shown in FIG. 3, the
図4はカメラ12の撮影画像の一例を示す図である。上側は乗場15、下側は乗りかご11内である。図中の16は乗場15の床面、19は乗りかご11の床面を示している。E1,E2,E3は検知エリアを表している。
FIG. 4 is a diagram showing an example of an image captured by the
かごドア13は、かごシル47上を互いに逆方向に移動する2枚のドアパネル13a,13bを有する。乗場ドア14も同様であり、乗場シル18上を互いに逆方向に移動する2枚のドアパネル14a,14bを有する。乗場ドア14のドアパネル14a,14bは、かごドア13のドアパネル13a,13bと共に戸開閉方向に移動する。
The
カメラ12は乗りかご11の出入口上部に設置されている。したがって、乗りかご11が乗場15で戸開したときに、図1に示したように、乗場側の所定範囲(L1)とかご内の所定範囲(L2)が撮影される。このうち、乗場側の所定範囲(L1)に、乗りかご11に乗車する利用者を検知するための検知エリアE1が設定されている。
A
実空間において、検知エリアE1は、出入口(間口)の中心から乗場方向に向かってL3の距離を有する(L3≦乗場側の撮影範囲L1)。全開時における検知エリアE1の横幅W1は、出入口(間口)の横幅W0以上の距離に設定されている。検知エリアE1は、図4に斜線で示すように、シル18,47を含み、三方枠17a,17bの死角を除いて設定される。なお、検知エリアE1の横方向(X軸方向)のサイズは、かごドア13の開閉動作に合わせて変更される構成としても良い。また、検知エリアE1の縦方向(Y軸方向)のサイズについても、かごドア13の開閉動作に合わせて変更される構成としても良い。
In the real space, the detection area E1 has a distance of L3 from the center of the doorway (frontage) toward the hall (L3 ≤ hall-side shooting range L1). The width W1 of the detection area E1 when fully open is set to a distance equal to or greater than the width W0 of the entrance (frontage). The detection area E1 includes the
図5に示すように、乗車検知エリアとして用いられる検知エリアE1は、乗車意思推定エリアE1a,近接検知エリアE1b,シル上検知エリアE1cからなる。乗車意思推定エリアE1aは、利用者が乗車意思を持って乗りかご11に向かっているか否かを推定するためのエリアである。近接検知エリアE1bは、利用者が乗りかご11の出入口に近接していることを検知するためのエリアである。シル上検知エリアE1cは、利用者がシル18,47上を通過していることを検知するためのエリアである。
As shown in FIG. 5, the detection area E1 used as the boarding detection area consists of a boarding intention estimation area E1a, a proximity detection area E1b, and an on-sill detection area E1c. The boarding intention estimation area E1a is an area for estimating whether or not the user is heading toward the
ここで、本システムでは、乗車検知用の検知エリアE1とは別に、検知エリアE2,E3を有する。検知エリアE2,E3は、引き込まれ検知エリアとして用いられる。検知エリアE2は、乗りかご11の入口柱41a,41bの内側側面41a-1,41b-1に沿って、所定の幅を有して設定される。なお、内側側面41a-1,41b-1の横幅に合わせて検知エリアE2を設定しても良い。検知エリアE3は、乗りかご11の床面19のかごシル47に沿って、所定の幅を有して設定される。
Here, in this system, detection areas E2 and E3 are provided separately from the detection area E1 for boarding detection. The detection areas E2 and E3 are drawn in and used as detection areas. The detection area E2 is set along the inner side surfaces 41a-1 and 41b-1 of the
かごドア13の戸開動作中に、検知エリアE2またはE3内で利用者が検知されると、例えばかごドア13の戸開動作を一時停止するか、逆方向(戸閉方向)に動かす、あるいは、かごドア13の戸開速度を遅くするなどの対応処理が実行される。また、音声アナウンスにより、例えば「ドアから離れてください」などの警告が発せられる。
When the user is detected within the detection area E2 or E3 during the opening operation of the
(検知処理の問題)
通常、引き込まれ検知は、引き込まれ検知エリアである検知エリアE2,E3内の画像の輝度変化が利用者の侵入によって正しく表れることを前提としている。ところが、検知エリアE2,E3は、乗りかご11内に設定されているため、かご室内の照明環境の影響を強く受ける。つまり、図6に示すように、利用者P1がかごドア13から離れた場所に乗車している場合であっても、照明機器48の照明光の関係で、利用者P1の影S1が検知エリアE2またはE3に入り込むことがある。検知エリアE2またはE3に影S1が入り込むと、影S1の動きに伴い、画像上で輝度変化が大きく生じ、影S1が利用者P1として過検知される可能性がある。
(Problem of detection processing)
Usually, the attraction detection is based on the premise that the change in brightness of the image in the detection areas E2 and E3, which are the attraction detection areas, is correctly displayed by the user's intrusion. However, since the detection areas E2 and E3 are set within the
これは、乗車検知処理でも同様である。すなわち、乗車検知エリアである検知エリアE1は、乗りかご11の出入口周辺の乗場15に設定される。乗場15の照明環境の関係で、検知エリアE1に影が入り込むと、画像上で輝度変化により、影の過検知が生じる可能性がある。
This also applies to boarding detection processing. That is, the detection area E<b>1 that is the boarding detection area is set at the landing 15 around the entrance/exit of the
そこで、本実施形態では、図1に示した画像処理装置20の検知処理部24に下記のような機能(エッジ抽出、動体検知、人物検知)を持たせ、撮影画像として連続的に得られる各画像間(フレーム間)のエッジ変化を利用して利用者の有無を検知する構成としている。「エッジ変化」とは、画像間の同じ位置から抽出されたエッジが変化した状態を言う。「エッジ変化」は、エッジ強度の差分である「エッジ差分」を含む。以下では、エッジ変化の一例として、エッジ差分を求める場合を例にして、検知処理部24に備えられた機能(エッジ抽出、動体検知、人物検知)について、詳しく説明する。
Therefore, in this embodiment, the
(a)エッジ抽出
エッジ抽出部24aは、カメラ12の撮影画像からエッジの情報を抽出する。この場合、1枚の画像、もしくは、複数枚の画像からエッジの情報を抽出することでも良い。「エッジ」とは、画像の各画素の輝度値が不連続に変化している境界線のことである。例えば、ソーベルフイルタやラプラシアンフイルタなどのエッジ抽出フィルタを用いて、画像上で輝度値が特徴的に変化する部分をエッジとして抽出する。エッジの情報には、輝度勾配の方向と強度などが含まれる。
(a) Edge Extraction The
エッジ強度は、輝度勾配によって求められる。輝度勾配を求める範囲は、例えば3×3画素の範囲でも良いし、それ以外の範囲で求めても良い。また、輝度勾配を求める範囲は固定化されていても良いし、パラメータ設定あるいは撮影対象に応じて自動変更されても良い。 Edge strength is determined by a luminance gradient. The range for obtaining the luminance gradient may be, for example, a range of 3×3 pixels, or may be obtained in a range other than that. Also, the range for obtaining the luminance gradient may be fixed, or may be automatically changed according to parameter settings or an object to be photographed.
・輝度勾配の方向と強度の組み合わせ
エッジ抽出部24aは、撮影画像の各画素毎に輝度勾配の方向と強度を求め、これらを組み合わせた情報に基づいて、影の領域を除いたエッジを抽出する。輝度勾配の方向には、上→下,下→上,左→右,右→左の4方向(水平垂直方向)の他に、左上→右下,左下→右上,右上→左下,右下→左上の4方向(斜め方向)がある。影の過検知を抑制するためには、少なくとも2方向以上の輝度勾配を求めることが好ましい。
・Combination of direction and strength of luminance gradient The
なお、共起が成立するエッジを抽出しても良い。例えば、着目画素に対して、左方向と右方向に輝度勾配の方向を有するエッジを抽出することでも良い。エッジ強度は、選定した各方向の輝度値の平均などで算出する。 It should be noted that it is also possible to extract edges for which co-occurrence is established. For example, it is also possible to extract edges having luminance gradient directions in the left and right directions with respect to the pixel of interest. The edge strength is calculated by averaging luminance values in each selected direction.
・山型エッジ
エッジ抽出部24aは、上記影の領域を除いたエッジとして、輝度値が山型状に変化するエッジを抽出する。
Mountain-Shaped Edge The
図7は人物と影を含んだ撮影画像の一例を示す図である。図中の51は人物であり、具体的には乗りかご11内にいる利用者である。図中の52は乗りかご11内の床面に生じている影であり、人物51が前方に突き出した手の影を模式的に表している。図8は人物51に対応した画像53の輝度値の変化をx軸方向に見た状態を示す図である。図9は影52に対応した画像54の輝度値の変化をx軸方向に見た状態を示す図である。
FIG. 7 is a diagram showing an example of a photographed image including a person and a shadow.
図8に示すように、人物51に対応した画像53には、人物51の手の指や服のしわなどによって、輝度値が不連続に変化するエッジが多数存在する。これに対し、図9に示すように、影52に対応した画像54の内部の輝度値の変化は平坦であり、境界部では輝度値が変化するが、輝度勾配の方向が一方向となる。したがって、影52の過検知を抑制するためには、二方向以上の輝度勾配とその強度の組み合わせを有し、輝度値が山型状に連続的に変化するエッジ(以下、山型エッジと称す)を抽出することが効果的である。このような山型エッジに着目してエッジ抽出を行うことで、撮影画像から影の領域以外のエッジを効率的に抽出することができ、そのエッジの変化つまりエッジ差分を利用して、影の動きに影響されない検知処理を実現できる。
As shown in FIG. 8, an
図10および図11を用いて、山型エッジの強度の算出方法を説明する。
例えば3×3画素の範囲の中心に位置する画素を着目画素とし、その着目画素に対し、上下左右の4つの向きの輝度差を求める。これらの輝度差を平均した値を山型エッジの強度として算出する。
A method for calculating the strength of the mountain-shaped edge will be described with reference to FIGS. 10 and 11. FIG.
For example, a pixel located in the center of a range of 3×3 pixels is taken as a pixel of interest, and luminance differences in four directions of up, down, left, and right are obtained for the pixel of interest. A value obtained by averaging these luminance differences is calculated as the intensity of the mountain-shaped edge.
256階調において、着目画素の輝度値が「191」とする。着目画素の上に位置する画素の輝度値が「0(黒)」、着目画素の右に位置する画素の輝度値が「64」、着目画素の下に位置する画素の輝度値が「127」、着目画素の左に位置する画素の輝度値が「255(白)」であった場合、下記のような計算によって山型エッジの強度が求められる。
{(191-0)+(191-64)+(191-127)+0}/4=95.5
なお、着目画素の左に位置する画素の輝度値は、着目画素より大きいため、「0」として計算している。上記式により、当該画素の位置におけるエッジ強度は、「96(95.5を整数に正規化)」として求められる。
Assume that the luminance value of the pixel of interest is "191" in 256 gradations. The luminance value of the pixel positioned above the pixel of interest is "0 (black)", the luminance value of the pixel positioned to the right of the pixel of interest is "64", and the luminance value of the pixel positioned below the pixel of interest is "127". , the luminance value of the pixel positioned to the left of the pixel of interest is "255 (white)", the intensity of the mountain-shaped edge is obtained by the following calculation.
{(191-0)+(191-64)+(191-127)+0}/4=95.5
Note that the luminance value of the pixel positioned to the left of the pixel of interest is greater than that of the pixel of interest, and is therefore calculated as "0." According to the above formula, the edge intensity at the position of the pixel is obtained as "96 (95.5 normalized to an integer)".
(b)動体検知
動体検知部24bは、エッジ抽出部24aによって抽出されたエッジを撮影画像として連続的に得られる各画像間で比較してエッジ差分を求め、このエッジ差分に基づいて動体を検知する。ここで言う「動体」とは、撮影画像上で何らかの動きを有する物体が撮影されている領域のことである。
(b) Moving Object Detection The moving
「エッジ差分」とは、具体的にはエッジ強度の差である。図11の例で説明すると、いま、1枚目の画像の着目画素におけるエッジ強度が「96」として算出されたとする。次の画像の同じ着目画素のエッジ強度が「10」であった場合、エッジ強度の差は、96-10=86である。例えば、閾値を「40」とすると、「86」は閾値以上なので、当該着目画素の部分で動きありとして判定される。 "Edge difference" is specifically a difference in edge intensity. In the example of FIG. 11, assume that the edge strength of the target pixel of the first image is calculated as "96". If the edge strength of the same pixel of interest in the next image is "10", the edge strength difference is 96-10=86. For example, if the threshold value is "40", "86" is greater than or equal to the threshold value, so it is determined that there is movement at the pixel of interest.
別の方法として、エッジ強度を二値化してから差分を求めることでも良い。
例えば、閾値を「40」とした場合に、エッジ強度「96」は「255」、エッジ強度「40」は「0」に二値化される。両者の差分は、255-0=255となり、「0」ではないので、動きありとして判定される。
As another method, it is also possible to obtain the difference after binarizing the edge strength.
For example, when the threshold value is "40", edge strength "96" is binarized to "255" and edge strength "40" is binarized to "0". The difference between the two is 255-0=255, which is not "0", so it is determined that there is movement.
図7の例で、図中の55は動きありとして判定された画素(動き画素)を示す。人物51の画像53には、手や服の部分に動き画素55が多数存在するが、影52の画像54には動き画素55が存在しない。後述するように、この動き画素55の分布から動体が人物であるか否かを判断できる。
In the example of FIG. 7, 55 in the figure indicates pixels (moving pixels) determined to have motion. The
・エッジ差分と輝度差分
エッジ差分と輝度差分を併用して、動体検知を行う構成としても良い。この場合、動体検知部24bは、エッジ差分とは別に、撮影画像として連続して得られる各画像間の輝度差分(輝度値の差分)を求め、その輝度差分とエッジ差分とに基づいて動体を検知する。エッジ差分の結果と輝度差分の結果を統合する方法としては、以下のような論理演算(AND/OR演算など)やパラメータ変更などがある。
- Edge difference and luminance difference Moving object detection may be performed using both the edge difference and the luminance difference. In this case, in addition to the edge difference, the moving
AND演算:エッジ差分と輝度差分の両方で画像上の動き画素が検知された場合に、当該動き画素を含む所定の範囲に動体が存在するものと判定する。 AND operation: When a motion pixel on the image is detected by both the edge difference and the luminance difference, it is determined that a moving object exists in a predetermined range including the motion pixel.
OR演算:エッジが多い領域(影の可能性が少ない領域)に対しては輝度差分を用い、エッジが少ない領域(影の可能性が高い領域)に対してはエッジ差分を用いる。「エッジが多い領域」とは、エッジ抽出部24aによって抽出されたエッジの数(画素数)が影の判定基準として定められた規定数以上の領域のことである。「エッジが少ない領域」とは、エッジ抽出部24aによって抽出されたエッジの数(画素数)が影の判定基準として定められた規定数より少ない領域のことである。
OR operation: The luminance difference is used for areas with many edges (areas with low possibility of being shadowed), and the edge difference is used for areas with few edges (areas with high possibility of being shadowed). A “region with many edges” is a region in which the number of edges (the number of pixels) extracted by the
パラメータ変更:エッジが多い領域(影の可能性が少ない領域)に対しては輝度差分のパラメータを検知しやすくし(つまり、輝度差分の閾値を標準値よりも下げておく)、エッジが少ない領域(影の可能性が高い領域)に対しては輝度差分のパラメータを検知しにくくする(つまり、輝度差分の閾値を標準値よりも上げておく)。 Parameter change: For areas with many edges (areas with little possibility of shadows), the luminance difference parameter is made easier to detect (that is, the luminance difference threshold is set lower than the standard value), and for areas with few edges For (regions with a high possibility of being shadowed), the parameter of the luminance difference is made difficult to detect (that is, the threshold of the luminance difference is set higher than the standard value).
(c)人物検知
人物検知部24cは、動体検知部24bによって検知された動体の情報に基づいて、上記動体を人物として検知する。「人物」とは、具体的には乗りかご11内または乗場15に存在する利用者のことである。「動体の情報」は、動き画素の分布、動体サイズ、動体検知回数のいずれか少なくとも1つを含む。
(c) Person detection The
「動き画素の分布」は、所定範囲内における動き画素の分布状態を示す。例えば、20×20画素の範囲の中に動き画素が40個(つまり、10%程度)以上存在すれば、人物の動きであると判断する。「動体サイズ」は、動き画素が連続する集合体のサイズを示す。例えば、40個以上の動き画素が連続した集合体として存在すれば、人物の動きであると判断する。「動体検知回数」は、各画像毎に動体として検知された回数を示す。例えば、画像上の同じ位置で一定回数以上、動体として検知されていれば、人物の動きであると判断する。 “Motion pixel distribution” indicates the distribution state of motion pixels within a predetermined range. For example, if there are 40 motion pixels (that is, approximately 10%) or more in a range of 20×20 pixels, it is determined that the motion is that of a person. "Moving object size" indicates the size of an aggregate of continuous motion pixels. For example, if 40 or more motion pixels exist as a continuous aggregate, it is determined that the motion is that of a person. “Number of moving object detections” indicates the number of times each image is detected as a moving object. For example, if the same position on the image is detected as a moving object more than a certain number of times, it is determined that the movement is that of a person.
・エッジの情報と動体の情報
エッジの情報と動体の情報を併用して人物検知を行う構成としても良い。この場合、人物検知部24cは、エッジの情報に基づいて、動体の情報として得られる動き画素の分布、動体サイズ、動体検知回数のいずれかを用いた人物検知の判定基準を変更して、人物検知を行う。
- Edge information and moving object information A configuration may be adopted in which the edge information and the moving object information are used together to detect a person. In this case, the
詳しくは、人物検知部24cは、撮影画像の中でエッジが多い領域(影の可能性が少ない領域)に対しては、動き画素の分布あるいは動体サイズをエッジが少ない領域よりも小さくして、人物検知を行う。あるいは、撮影画像の中でエッジが多い領域(影の可能性が少ない領域)に対し、動体検知回数をエッジが少ない領域よりも少なくし、例えば1回でも動体として検知されている領域は人物と判定しても良い。
Specifically, the
本システムは、上記のような構成を有する検知処理部24を用いて撮影画像の中から人物(利用者)を検知し、その人物が図3に示した検知エリアE1~E3のいずれかに存在した場合に、所定の対応処理(戸開閉制御)を実行する。以下に、引き込まれ検知を例にして、本システムの処理動作について説明する。
This system uses the
図12は本システムの処理動作を示すフローチャートである。このフローチャートで示される処理は、図1に示した画像処理装置20とエレベータ制御装置30とで実行される。
FIG. 12 is a flow chart showing the processing operation of this system. The processing shown in this flowchart is executed by the
まず、初期設定として、画像処理装置20に備えられた検知部22の検知エリア設定部23によって検知エリア設定処理が実行される(ステップS100)。この検知エリア設定処理は、例えばカメラ12を設置したとき、あるいは、カメラ12の設置位置を調整したときに、以下のようにして実行される。
First, as an initial setting, detection area setting processing is executed by the detection area setting unit 23 of the
すなわち、検知エリア設定部22aは、かごドア13が全開した状態で、出入口から乗場15に向けて距離L3を有する検知エリアE1を設定する。図4に示したように、検知エリアE1は、シル18,47を含み、三方枠17a,17bの死角を除いて設定される。ここで、かごドア13が全開した状態では、検知エリアE1の横方向(X軸方向)のサイズはW1であり、出入口(間口)の横幅W0以上の距離を有する。また、検知エリア設定部22aは、乗りかご11の入口柱41a,41bの内側側面41a-1,41b-1に沿って、所定の幅を有する検知エリアE2を設定すると共に、乗りかご11の床面19のかごシル47に沿って所定の幅を有する検知エリアE3を設定する。
That is, the detection area setting unit 22a sets a detection area E1 having a distance L3 from the entrance toward the landing 15 with the
通常の運転中において、乗りかご11が任意の階の乗場15に到着すると(ステップS101のYes)、エレベータ制御装置30は、かごドア13の戸開動作を開始する(ステップS102)。この戸開動作に伴い、カメラ12によって乗場側の所定範囲(L1)とかご内の所定範囲(L2)が所定のフレームレート(例えば30コマ/秒)で撮影される。なお、カメラ12の撮影は、乗りかご11が戸閉した状態から連続的に行われていても良い。
During normal operation, when the
画像処理装置20は、カメラ12で撮影された画像を時系列で取得し、これらの画像を記憶部21に逐次保存しながら、以下のような検知処理(引き込まれ検知処理)をリアルタイムで実行する(ステップS103)。なお、撮影画像に対する前処理として、歪み補正や、拡大縮小、画像の一部の切り取りなどを行っても良い。
The
図13に上記ステップS103で実行される検知処理を示す。この検知処理は、画像処理装置20の検知処理部24によって実行される。以下では、撮影画像から山型エッジを抽出する場合を想定して説明する。
FIG. 13 shows the detection process executed in step S103. This detection processing is executed by the
まず、検知処理部24は、記憶部21から各画像(原画像)を時系列順に取得し(ステップS201)、これらの画像毎に山型エッジのみで構成される画像を作成する(ステップS202)。詳しくは、検知処理部24は、二方向以上の輝度勾配の方向と強度の組み合わせを有し、輝度値が山型状に変化するエッジを山型エッジとして抽出し、山型エッジのみで構成される画像(以下、山型エッジ画像と称す)を作成する。
First, the
続いて、検知処理部24は、山型エッジ画像の差分二値化を行う(ステップS203)。図11で説明したように、検知処理部24は、山型エッジ画像の各画素毎に輝度勾配を求め、その輝度勾配の強度を次の画像の同じ画素位置で比較したときの差分を予め設定された閾値TH1で二値化する。閾値TH1は、乗りかご11内や乗場15の照明環境等によって最適な値に設定されている。
Subsequently, the
また、検知処理部24は、撮影画像である原画像の差分二値化を行う(ステップS204)。詳しくは、検知処理部24は、画像の各画素の輝度値を次の画像の同じ画素位置で比較して輝度差分を求め、その輝度差分を予め設定された閾値TH2で二値化する。閾値TH2は、上記閾値TH1と同様に、乗りかご11内や乗場15の照明環境等によって最適な値に設定されている。
Further, the
検知処理部24は、山型エッジ画像から求められた各画素のエッジ差分を二値化した値と原画像から求められた各画素の輝度差分を二値化した値とを統合処理し(ステップS205)、その統合処理した結果から動体の有無を検知する(ステップS206)。エッジ差分と輝度差分を統合する方法については、上述したように論理演算(AND/OR演算など)やパラメータ変更などがある。
The
このようにして、動体(動き画素)が検知されると、検知処理部24は、その動体の情報に基づいて人物を検知する(ステップS207)。詳しくは、検知処理部24は、動体の情報として得られる動き画素の分布、動体サイズ、動体検知回数のいずれか少なくとも1つに基づいて、当該動体が人物の動きであるか否かを判定する。例えば、動き画素の分布によって人物検知を行う場合であれば、所定の画素範囲の中に動き画素が10%程度以上存在すれば、人物検知部24cは、当該動き画素を含む範囲を人物の動きと判定する。本実施形態において、「人物」とは、乗りかご11内または乗場15にいる利用者のことであり、撮影画像上では、その利用者の服や手の動きなどが動き画素として表れる(図7参照)。
When a moving object (moving pixels) is detected in this manner, the
なお、図13の例では、エッジ差分と輝度差分を併用したが、エッジ差分のみで動体検知処理を行い、検知結果として得られる動き画素の分布などから人物(利用者)を検知することでも良い。この場合、図13のステップS204とS205の処理は不要となる。 In the example of FIG. 13, the edge difference and the luminance difference are used in combination, but it is also possible to perform the moving object detection processing using only the edge difference and detect a person (user) from the distribution of motion pixels obtained as a detection result. . In this case, the processing of steps S204 and S205 in FIG. 13 becomes unnecessary.
図12に戻って、戸開動作中に上記検知処理によって利用者が検知された場合、検知処理部24は、当該利用者が乗りかご11内に引き込まれ検知エリアとして設定された検知エリアE2または検知エリアE3内にいるか否かを判断する(ステップS104)。当該利用者が検知エリアE2または検知エリアE3内にいれば(ステップS104のYes)、検知処理部24からエレベータ制御装置30に対して引き込まれ検知信号が出力される。これにより、エレベータ制御装置30は、引き込まれ検知エリアに関連した対応処理として、戸開閉制御部31を通じてかごドア13の戸開動作を一時停止し、数秒後にその停止位置から戸開動作を再開する(ステップS105)。
Returning to FIG. 12, when the user is detected by the above-described detection processing during the door opening operation, the
上記対応処理として、かごドア13の戸開速度を通常より遅くすることや、あるいは、かごドア13を逆方向(戸閉方向)に若干移動させてから戸開動作を再開することでも良い。また、エレベータ制御装置30の警告部32の起動により、乗りかご11内のスピーカ46を通じて音声アナウンスを行い、利用者に対してかごドア13から離れるように注意を喚起することで良いし、警告音を鳴らすことでも良い(ステップS106)。検知エリアE2または検知エリアE3内で利用者が検知されている間、上記処理が繰り返される。これにより、例えば利用者がかごドア13の近くにいる場合に、戸袋42aまたは42bに引き込まれることを未然に防ぐことができる。
As the countermeasure, the door opening speed of the
(乗車検知処理)
図12の例では、引き込まれ検知処理を例にして説明したが、乗車検知処理でも同様である。
(boarding detection processing)
In the example of FIG. 12, the pulling-in detection process has been described as an example, but the boarding detection process is the same.
すなわち、乗りかご11が任意の階で戸閉を開始したときに、図13で説明した検知処理が実行される。上述したように、撮影画像のエッジ差分と輝度差分とに基づいて利用者が検知されると、乗場15に乗車検知エリアとして設定された検知エリアE1内にいるか否かが判断される。当該利用者が検知エリアE1内にいて、かつ、乗りかご11のドア13に向かっていることが検知された場合に、検知処理部24からエレベータ制御装置30に対して乗車検知信号が出力される。これにより、エレベータ制御装置30は、乗車検知エリアに関連した対応処理として、戸開閉制御部31を通じてかごドア13の戸閉動作を一時停止するか、かごドア13を逆方向(戸閉方向)に動かす、あるいは、かごドア13の戸開速度を通常よりも下げる。
That is, when the
このように本実施形態によれば、エッジ差分を利用することで、撮影画像に入り込んでいた影の過検知を抑制して、利用者を検知することができる。特に、人物と影の輝度特性の違いを考慮して、輝度値が山型状に変化する山型エッジを抽出対象とすれば、影の影響を排除して利用者を正しく検知することができ、その検知結果に応じた対応処理を実現することができる。 As described above, according to the present embodiment, by using the edge difference, it is possible to suppress over-detection of the shadow that has entered the captured image and detect the user. In particular, taking into consideration the difference in luminance characteristics between people and shadows, if we extract mountain-shaped edges whose luminance values change in a mountain-like shape, we can eliminate the influence of shadows and accurately detect users. , it is possible to realize a corresponding process according to the detection result.
なお、上記実施形態では、撮影画像全体から利用者を検知する場合を想定して説明したが、撮影画像上に予め設定されている検知エリア毎に利用者を検知する構成としても良い。例えば、戸開動作中であれば、図4に示した検知エリアE2,E3内の画像に着目し、当該画像のエッジ差分により検知エリアE2またはE3にいる利用者を検知する。また、戸閉動作中であれば、図4に示した検知エリアE1内の画像に着目し、当該画像のエッジ差分により検知エリアE1内にいる利用者を検知する。 In the above embodiment, the user is detected from the entire photographed image. However, the user may be detected for each detection area preset on the photographed image. For example, if the door is being opened, attention is focused on the images within the detection areas E2 and E3 shown in FIG. 4, and the user in the detection areas E2 or E3 is detected from the edge difference of the images. If the door is being closed, attention is paid to the image within the detection area E1 shown in FIG. 4, and the user within the detection area E1 is detected from the edge difference of the image.
また、上記実施形態では、エッジ変化の一例として、エッジ差分(エッジ強度の差分)を例にして説明したが、例えば正規化相関のような矩形を用いてエッジの変化を判定することでも良い。要は、画像間でエッジが変化している状態を検出できれば、エッジ差分に限られず、どのような方法を用いても良い。 Further, in the above-described embodiment, edge difference (difference in edge intensity) was used as an example of edge change, but edge change may be determined using a rectangle such as normalized correlation. In short, any method other than the edge difference may be used as long as it can detect a state in which edges change between images.
以上述べた少なくとも1つの実施形態によれば、照明環境に起因した影の過検知を抑制して、乗りかご内や乗場にいる利用者を正しく検知することのできるエレベータの利用者検知システムを提供することができる。 According to at least one embodiment described above, there is provided an elevator user detection system capable of suppressing over-detection of shadows caused by the lighting environment and correctly detecting users in the car or at the landing. can do.
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 It should be noted that although several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
11…乗りかご、11a…幕板、12…カメラ、13…かごドア、13a,13b…ドアパネル、14…乗場ドア、14a,14b…ドアパネル、15…乗場、17a,17b…三方枠、18…乗場シル、47…かごシル、48…照明機器、20…画像処理装置、21…記憶部、22…検知部、23…検知エリア設定部、24…検知処理部、24a…エッジ抽出部、24b…動体検知部、24c…人物検知部、30…エレベータ制御装置、31…戸開閉制御部、32…警告部、E1,E2,E3…検知エリア。
DESCRIPTION OF
一実施形態に係るエレベータの利用者検知システムは、乗りかご内に設置されたカメラの撮影画像の各画素から得られる二方向以上の輝度勾配の方向と強度との組み合わせを有し、輝度値が山型状に変化する山型エッジを人物の特徴を表しているエッジとして抽出するエッジ抽出手段と、上記エッジ抽出手段によって抽出された上記山型エッジを上記撮影画像として連続して得られる各画像間で比較して得られるエッジ変化に基づいて、上記撮影画像から動体を検知する動体検知手段と、上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段とを具備する。
また、一実施形態に係るエレベータの利用者検知システムは、乗りかご内に設置されたカメラの撮影画像からエッジの情報を抽出するエッジ抽出手段と、上記エッジ抽出手段によって抽出されたエッジを上記撮影画像から連続的に得られる各画像間で比較して得られるエッジ変化に基づいて、上記撮影画像から動体を検知する動体検知手段と、上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段とを具備し、上記動体検知手段は、上記各画像間の輝度差分と上記各画像間のエッジ変化とに基づいて、上記撮影画像から動体を検知し、上記撮影画像の中でエッジが多い領域に対しては上記輝度差分のパラメータを検知しやすく、上記撮影画像の中でエッジが少ない領域に対しては上記輝度差分のパラメータを検知しにくくすることを特徴とする。
An elevator user detection system according to one embodiment has a combination of the direction and intensity of luminance gradients in two or more directions obtained from each pixel of an image captured by a camera installed in a car, and the luminance value is Edge extracting means for extracting a mountain-shaped edge changing in a mountain-like shape as an edge representing a feature of a person , and each image obtained by continuously obtaining the mountain-shaped edge extracted by the edge extraction means as the photographed image. A moving body detection means for detecting a moving body from the photographed image based on edge changes obtained by comparing between them, and a person for detecting the moving body as a person based on information on the moving body detected by the moving body detection means. and detection means.
Further, an elevator user detection system according to an embodiment includes: edge extraction means for extracting edge information from an image captured by a camera installed in a car; moving object detection means for detecting a moving object from the photographed image based on an edge change obtained by comparing each image continuously obtained from the images; and based on information of the moving object detected by the moving object detecting means and person detecting means for detecting the moving object as a person, wherein the moving object detecting means detects the moving object from the photographed images based on the luminance difference between the images and the edge change between the images. and facilitating detection of the parameter of the luminance difference for an area having many edges in the photographed image, and making it difficult to detect the parameter of the luminance difference for an area having few edges in the photographed image. characterized by
Claims (12)
上記カメラの撮影画像からエッジの情報を抽出するエッジ抽出手段と、
上記エッジ抽出手段によって抽出されたエッジを上記撮影画像から連続的に得られる各画像間で比較して得られるエッジ変化に基づいて、上記撮影画像から動体を検知する動体検知手段と、
上記動体検知手段によって検知された上記動体の情報に基づいて、上記動体を人物として検知する人物検知手段と
を具備したことを特徴とするエレベータの利用者検知システム。 In an elevator user detection system equipped with a camera installed in a car and photographing a predetermined range including the inside of the car,
edge extracting means for extracting edge information from the image captured by the camera;
moving body detection means for detecting a moving body from the captured images based on edge changes obtained by comparing the edges extracted by the edge extraction means between images continuously obtained from the captured images;
and person detection means for detecting the moving object as a person based on information on the moving object detected by the moving object detection means.
上記撮影画像の各画素から得られる二方向以上の輝度勾配の方向と強度との組み合わせを有するエッジを抽出することを特徴とする請求項1記載のエレベータの利用者検知システム。 The edge extraction means is
2. The elevator user detection system according to claim 1, wherein an edge having a combination of two or more luminance gradient directions and intensities obtained from each pixel of said photographed image is extracted.
輝度値が山型状に変化するエッジを抽出することを特徴とする請求項2記載のエレベータの利用者検知システム。 The edge extraction means is
3. The elevator user detection system according to claim 2, wherein edges whose luminance values change in a mountain shape are extracted.
上記各画像間の輝度差分と上記各画像間のエッジ変化とに基づいて、上記撮影画像から動体を検知することを特徴とする請求項1記載のエレベータの利用者検知システム。 The moving body detection means is
2. The elevator user detection system according to claim 1, wherein a moving object is detected from said photographed images based on a luminance difference between said images and an edge change between said images.
上記撮影画像の中でエッジが多い領域に対しては上記輝度差分のパラメータを検知しやすく、上記撮影画像の中でエッジが少ない領域に対しては上記輝度差分のパラメータを検知しにくくすることを特徴とする請求項4記載のエレベータの利用者検知システム。 The moving body detection means is
The luminance difference parameter is made easier to detect for areas with many edges in the photographed image, and the luminance difference parameter is made difficult to detect for areas with few edges in the photographed image. 5. The elevator user detection system according to claim 4.
上記撮影画像の中でエッジが多い領域に対しては上記輝度差分を用い、上記撮影画像の中でエッジが少ない領域に対しては上記エッジ変化を用いることを特徴とする請求項4記載のエレベータの利用者検知システム。 The moving body detection means is
5. The elevator according to claim 4, wherein the luminance difference is used for an area with many edges in the photographed image, and the edge change is used for an area with few edges in the photographed image. user detection system.
上記動体の情報として得られる動き画素の分布、動体サイズ、動体検知回数のいずれか少なくとも1つに基づいて、上記動体を人物として検知することを特徴とする請求項1記載のエレベータの利用者検知システム。 The person detection means is
2. The elevator user detection according to claim 1, wherein the moving object is detected as a person based on at least one of a motion pixel distribution, a moving object size, and a moving object detection frequency obtained as information on the moving object. system.
上記動体の情報と上記エッジの情報とに基づいて、上記動体を人物として検知することを特徴とする請求項7記載のエレベータの利用者検知システム。 The person detection means is
8. The elevator user detection system according to claim 7, wherein said moving body is detected as a person based on said moving body information and said edge information.
上記撮影画像の中でエッジが多い領域に対しては、上記動き画素の分布あるいは上記動体サイズの判定基準を低くすることを特徴とする請求項8記載のエレベータの利用者検知システム。 The person detection means is
9. The elevator user detection system according to claim 8, wherein the determination criterion for the distribution of the moving pixels or the size of the moving object is lowered for an area with many edges in the photographed image.
上記撮影画像の中でエッジが多い領域に対しては、上記動体検知回数の判定基準を低くすることを特徴とする請求項8記載のエレベータの利用者検知システム。 The person detection means is
9. The elevator user detection system according to claim 8, wherein the determination criterion for the number of times of moving object detection is set low for an area having many edges in the photographed image.
上記制御手段は、
上記対応処理として、上記乗りかごの戸開動作中に上記人物がドアに挟まれないように戸開閉動作を制御することを特徴とする請求項11記載のエレベータの利用者検知システム。 The detection area is set near the door in the car,
The control means are
12. The elevator user detection system according to claim 11, wherein as the corresponding processing, the door opening/closing operation is controlled so that the person is not caught in the door while the car door is being opened.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021130127A JP7187629B1 (en) | 2021-08-06 | 2021-08-06 | Elevator user detection system |
CN202210487118.6A CN115703609A (en) | 2021-08-06 | 2022-05-06 | Elevator user detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021130127A JP7187629B1 (en) | 2021-08-06 | 2021-08-06 | Elevator user detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7187629B1 JP7187629B1 (en) | 2022-12-12 |
JP2023024069A true JP2023024069A (en) | 2023-02-16 |
Family
ID=84418204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021130127A Active JP7187629B1 (en) | 2021-08-06 | 2021-08-06 | Elevator user detection system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7187629B1 (en) |
CN (1) | CN115703609A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116040432B (en) * | 2023-03-07 | 2023-05-30 | 成都睿瞳科技有限责任公司 | Elevator image processing method, system and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156939A (en) * | 2005-12-07 | 2007-06-21 | Honda Motor Co Ltd | Person detector, person detection method, and person detection program |
JP2009266052A (en) * | 2008-04-28 | 2009-11-12 | Hitachi Ltd | Abnormal behavior detector |
JP2012084012A (en) * | 2010-10-13 | 2012-04-26 | Canon Inc | Image processing device, processing method therefor, and program |
JP2019101909A (en) * | 2017-12-06 | 2019-06-24 | 東芝エレベータ株式会社 | Image detection system |
JP2019108182A (en) * | 2017-12-15 | 2019-07-04 | 東芝エレベータ株式会社 | User detection system |
JP2021031243A (en) * | 2019-08-26 | 2021-03-01 | 東芝エレベータ株式会社 | User detection system of elevator |
-
2021
- 2021-08-06 JP JP2021130127A patent/JP7187629B1/en active Active
-
2022
- 2022-05-06 CN CN202210487118.6A patent/CN115703609A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156939A (en) * | 2005-12-07 | 2007-06-21 | Honda Motor Co Ltd | Person detector, person detection method, and person detection program |
JP2009266052A (en) * | 2008-04-28 | 2009-11-12 | Hitachi Ltd | Abnormal behavior detector |
JP2012084012A (en) * | 2010-10-13 | 2012-04-26 | Canon Inc | Image processing device, processing method therefor, and program |
JP2019101909A (en) * | 2017-12-06 | 2019-06-24 | 東芝エレベータ株式会社 | Image detection system |
JP2019108182A (en) * | 2017-12-15 | 2019-07-04 | 東芝エレベータ株式会社 | User detection system |
JP2021031243A (en) * | 2019-08-26 | 2021-03-01 | 東芝エレベータ株式会社 | User detection system of elevator |
Also Published As
Publication number | Publication date |
---|---|
CN115703609A (en) | 2023-02-17 |
JP7187629B1 (en) | 2022-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7230114B2 (en) | Elevator user detection system | |
JP6139729B1 (en) | Image processing device | |
JP6702579B1 (en) | Elevator user detection system | |
JP7187629B1 (en) | Elevator user detection system | |
CN112429609B (en) | User detection system for elevator | |
CN113023518B (en) | Elevator user detection system | |
JP2020152469A (en) | Elevator user detection system | |
JP7276992B2 (en) | Elevator user detection system | |
CN113428751A (en) | User detection system of elevator | |
JP7375137B1 (en) | Elevator user detection system | |
JP2022018411A (en) | Elevator user detection system | |
JP7077437B2 (en) | Elevator user detection system | |
JP6828108B1 (en) | Elevator user detection system | |
JP7135144B1 (en) | Elevator user detection system | |
CN112441490B (en) | User detection system for elevator | |
JP6871324B2 (en) | Elevator user detection system | |
JP7155201B2 (en) | Elevator user detection system | |
JP7305849B1 (en) | elevator system | |
JP7282952B1 (en) | elevator system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7187629 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |