JP7455284B2 - Dirt determination device - Google Patents
Dirt determination device Download PDFInfo
- Publication number
- JP7455284B2 JP7455284B2 JP2023541612A JP2023541612A JP7455284B2 JP 7455284 B2 JP7455284 B2 JP 7455284B2 JP 2023541612 A JP2023541612 A JP 2023541612A JP 2023541612 A JP2023541612 A JP 2023541612A JP 7455284 B2 JP7455284 B2 JP 7455284B2
- Authority
- JP
- Japan
- Prior art keywords
- dirt
- degree
- contamination
- determination
- car
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011109 contamination Methods 0.000 claims description 142
- 238000000034 method Methods 0.000 claims description 82
- 238000000605 extraction Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000002950 deficient Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000010186 staining Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本開示は、汚れ判定装置、汚れ判定方法、および汚れ判定プログラムに関する。 The present disclosure relates to a dirt determination device, a dirt determination method, and a dirt determination program.
特許第6616906号公報(特許文献1)には、監視カメラで撮影した撮影データが、欠陥を含んでいる欠陥有り撮影データであるか否かを識別モデルを用いて判定する検知装置が開示されている。この識別モデルは、撮影データから特徴量を抽出し、抽出した特徴に基づいて欠陥有り撮影データを検知するためのモデルである。欠陥有り撮影データは、カメラのレンズに汚れが付着した場合に撮影されたような撮影データである。 Patent No. 6,616,906 (Patent Document 1) discloses a detection device that uses an identification model to determine whether photographic data photographed by a surveillance camera is defective photographic data that includes a defect. There is. This identification model is a model for extracting feature amounts from photographic data and detecting defective photographic data based on the extracted features. The defective photographic data is photographic data that was photographed when the lens of the camera was contaminated.
上記識別モデルを用いて判定を行った場合、欠陥でない画像の変化が欠陥データとして認識されてしまう可能性がある。たとえば、エレベーターのかご内を撮影しているような場合、監視カメラのレンズの汚れを検知したいにも関わらず、人や物が映り込んだり、扉の開閉など定期的に変化するものなど、汚れ以外の要素が汚れとして検知されてしまうことがある。 When making a determination using the above-mentioned identification model, there is a possibility that a change in an image that is not a defect may be recognized as defect data. For example, if you are photographing the inside of an elevator car, you may want to detect dirt on the surveillance camera lens; Other elements may be detected as dirt.
この場合、汚れ以外の要素を排除した状態で撮影された学習用データを増やして学習を行うことで、推定精度を上げることが可能である。しかしながら、このような状態の発生確率が低い場合、学習データを収集することが困難であり、推定精度を上げることが難しくなる。 In this case, it is possible to increase the estimation accuracy by performing learning by increasing the amount of learning data taken with elements other than dirt removed. However, when the probability of occurrence of such a state is low, it is difficult to collect learning data and it becomes difficult to improve estimation accuracy.
本開示は、このような課題を解決するためになされたものであって、その目的は、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる汚れ判定装置、汚れ判定方法、および汚れ判定プログラムを提供することである。 The present disclosure has been made in order to solve such problems, and the purpose is to accurately determine whether or not the lens of a surveillance camera is in a dirty state where there is a certain amount of dirt. An object of the present invention is to provide a dirt determination device, a dirt determination method, and a dirt determination program.
本開示に係る汚れ判定装置は、取得部と、抽出部と、推定部と、判定部とを備える。取得部は、監視カメラにより撮影された撮影データを定期的に取得する。抽出部は、取得された撮影データの特徴量を抽出する。推定部は、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力する。判定部は、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定する。 A dirt determination device according to the present disclosure includes an acquisition section, an extraction section, an estimation section, and a determination section. The acquisition unit periodically acquires photographic data photographed by the surveillance camera. The extraction unit extracts feature amounts of the acquired photographic data. The estimation unit inputs information based on the extracted feature amounts to the trained model and outputs the degree of dirt on the lens of the surveillance camera. The determination unit determines that there is a certain level of dirt on the lens when the degree of dirt is equal to or greater than a threshold regarding the degree of dirt, and the degree of dirt does not become less than the threshold even after a predetermined time has elapsed since the degree of dirt became equal to or greater than the threshold. It is determined that there is dirt.
本開示に係る汚れ判定方法は、監視カメラにより撮影された撮影データを定期的に取得するステップと、取得された撮影データの特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを備える。 The dirt determination method according to the present disclosure includes the steps of periodically acquiring photographic data taken by a surveillance camera, extracting feature quantities of the acquired photographic data, and learning information based on the extracted feature quantities. The step of outputting the degree of contamination of the lens of the surveillance camera by inputting the degree of contamination to a model, and the step of outputting the degree of contamination of the lens of the surveillance camera. and determining that the lens is in a contamination state where there is a certain level of contamination if the degree of contamination does not become less than a threshold value.
本開示に係る汚れ判定プログラムは、コンピュータに、監視カメラにより撮影された撮影データを定期的に取得するステップと、取得された撮影データの特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを実行させる。 A dirt determination program according to the present disclosure includes a step of periodically acquiring photographic data photographed by a surveillance camera, a step of extracting a feature amount of the acquired photographic data, and a step based on the extracted feature amount. a step of inputting information into a trained model and outputting the degree of contamination of the lens of the surveillance camera; and a step of inputting information into the trained model and outputting the degree of contamination of the lens of the surveillance camera; If the degree of contamination does not become less than the threshold value even if the degree of contamination does not become less than the threshold value, the step of determining that the lens is in a contamination state where there is a certain degree of contamination is executed.
本開示によれば、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。 According to the present disclosure, it is possible to accurately determine whether or not the lens of a surveillance camera is in a dirty state with a certain amount of dirt.
以下、図面を参照しつつ、実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Embodiments will be described below with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed descriptions thereof will not be repeated.
[汚れ判定システム1]
まず、本実施の形態に係る汚れ判定装置200を備える汚れ判定システム1について説明する。図1は、汚れ判定システム1のハードウェア構成の一例を示す図である。
[Dirty determination system 1]
First, a
汚れ判定システム1は、映像記録装置100と、エレベーターのかご401と、かご401内に設置された監視カメラ400と、汚れ判定装置200と、端末300とを備える。映像記録装置100は、監視カメラ400および汚れ判定装置200と通信可能である。端末300は、汚れ判定装置200と通信可能である。
The
監視カメラ400は、ビル内に設置されたエレベーターのかご401内を監視するためのカメラである。監視カメラ400は、たとえば、1秒間に30のフレーム画像を生成する。連続して生成されたフレーム画像は、連続して再生されることで動画像として再生される。
The
本実施の形態における撮影データは、フレーム画像に相当する。映像記録装置100は、監視カメラ400により撮影された撮影データ(フレーム画像)を記録するとともに、監視カメラ400のレンズの汚れの状態を判定する装置である。
The photographic data in this embodiment corresponds to a frame image. The
なお、ビル内には複数のかごが設置されていてもよい。この場合、かごごとに監視カメラ400が設置される。映像記録装置100は、かごごとに監視カメラ400のレンズの汚れの状態を判定する。また、監視カメラ400は、エレベーターのかご401内に設置されるものに限らず、エレベーターの乗場、エスカレーター、その他のビル設備を監視するために設置されるものであってもよい。
Note that a plurality of cages may be installed within the building. In this case, a
映像記録装置100は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、記憶部114と、通信インターフェイス115と、I/Oインターフェイス116とを有する。これらは、バスを介して相互に通信可能に接続されている。
The
CPU111は、映像記録装置100全体を総括的に制御する。CPU111は、ROM112に格納されているプログラムをRAM113に展開して実行する。ROM112は、映像記録装置100が行う処理の処理手順が記されたプログラムを格納する。
The
RAM113は、CPU111がプログラムを実行する際の作業領域となるものであり、プログラムやプログラムを実行する際のデータ等を一時的に記憶する。また、記憶部114は、不揮発性の記憶装置であり、たとえば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等である。
The
映像記録装置100は、通信インターフェイス115を介して汚れ判定装置200と通信可能である。I/Oインターフェイス116は、CPU111が監視カメラ400と接続するためのインターフェイスである。
The
汚れ判定装置200は、CPU211と、ROM212と、RAM213と、記憶部214と、通信インターフェイス215と、I/Oインターフェイス216とを有する。これらは、バスを介して相互に通信可能に接続されている。
The
CPU211は、汚れ判定装置200全体を総括的に制御する。CPU211は、ROM212に格納されているプログラムをRAM213に展開して実行する。ROM212は、汚れ判定装置200が行う処理の処理手順が記されたプログラムを格納する。
The
RAM213は、CPU211がプログラムを実行する際の作業領域となるものであり、プログラムやプログラムを実行する際のデータ等を一時的に記憶する。また、記憶部214は、不揮発性の記憶装置であり、たとえば、HDDやSSD等である。
The
汚れ判定装置200は、通信インターフェイス215を介して映像記録装置100および端末300と通信可能である。I/Oインターフェイス216は、CPU211が表示装置、あるいは入力装置と接続するためのインターフェイスである。
The
表示装置は、たとえば、ディスプレイである。表示装置では、撮影データを確認したり、レンズの汚れの状態等を確認することができる。入力装置は、たとえば、キーボードやマウスである。たとえば、入力装置の操作により、汚れ判定装置200に指示を与えることができる。
The display device is, for example, a display. On the display device, it is possible to check photographic data, the state of dirt on the lens, etc. The input device is, for example, a keyboard or a mouse. For example, instructions can be given to the
図示しないが、端末300も、汚れ判定装置200と同様に、CPUと、ROMと、RAMと、記憶部と、通信インターフェイスと、I/Oインターフェイスとを有する。端末300は、パーソナルコンピュータ、タブレット端末、スマートフォン等であってもよい。端末300においても、監視カメラ400に記録された撮影データやレンズの汚れの状態等を確認することができる。
Although not shown, the terminal 300 also includes a CPU, a ROM, a RAM, a storage section, a communication interface, and an I/O interface, like the
図2は、汚れ判定システム1の機能ブロック図の一例を示す図である。映像記録装置100は、取得部121を備える。取得部121は、監視カメラ400が撮影した撮影データを取得し、記憶部114に撮影データ122として記憶する。
FIG. 2 is a diagram showing an example of a functional block diagram of the
汚れ判定装置200は、取得部131と、抽出部132と、正規化部133と、推定部141と、モデル生成部134と、判定部143と、予測部145、通知部144とを備える。
The
これらの一連の処理により、汚れ判定装置200は、監視カメラ400が撮影した撮影データ122を用いて、学習済モデル135を生成する。また、監視カメラ400が撮影した撮影データ122を取得し、最終的には、端末300に対して汚れの判定結果を通知する。
Through these series of processes, the
端末300では、汚れ判定装置200によって通知された判定結果を確認することができる。記憶部214は、モデル生成部134が生成した学習済モデル135および推定部141が生成した推定結果142を記憶する。以下、フローチャート等を用いて処理の流れを説明する。
At the terminal 300, the determination result notified by the
[第1処理のフローチャート]
汚れ判定装置200は、第1モードと第2モードとを含む実行モードを設定可能である。判定部143は、第1モードが設定されている場合は、時間T1ごとに判定を行う。判定部143は、第2モードが設定されている場合は、時間T1よりも長い時間T2ごとに判定を行う。本実施の形態においては、時間T1=10分であり、時間T2=1日である。
[Flowchart of first process]
The
具体的には、汚れ判定装置200は、第1モードが設定されている場合は、第1処理を起動し、第2モードが設定されている場合は、第2処理を起動する。本実施の形態においては、第1モードおよび第2モードのいずれもが設定されているとする。
Specifically, the
図3は、汚れ判定装置200が実行する第1処理のフローチャートである。第1処理は、時間T1の周期で汚れを判定する処理である。以下、「ステップ」を単に「S」とも称する。
FIG. 3 is a flowchart of the first process executed by the
図3に示すように、第1処理が開始すると、S11において、汚れ判定装置200は、時間T1が経過した否かを判定する。汚れ判定装置200は、時間T1が経過したと判定した場合(S11でYES)、S12に処理を進める。汚れ判定装置200は、時間T1が経過したと判定しなかった場合(S11でNO)、処理をS11に戻す。
As shown in FIG. 3, when the first process starts, in S11, the
S12において、汚れ判定装置200は、判定処理(図4参照)を行う。判定処理は、監視カメラ400で撮影された撮影データ122に基づき、監視カメラ400のレンズの汚れ状態を判定する処理である。
In S12, the
S13において、通知部144は、判定部143の判定結果を端末300に通知し、処理をS11に戻す。このように、第1処理は、時間T1が経過するごとに判定処理を行う。
In S13, the
図4は、汚れ判定装置200が実行する判定処理のフローチャートである。図4に示すように、判定処理が開始すると、S21において、取得部131は、監視カメラ400で撮影された撮影データ122を取得し、処理をS22に進める。撮影データ122は、エレベーターのかご401内が撮影されたデータである。
FIG. 4 is a flowchart of the determination process executed by the
S22において、抽出部132は、取得された撮影データ122の特徴量を抽出し、処理をS23に進める。S23において、正規化部133は、抽出された特徴量を正規化し、処理をS24に進める。抽出部132および正規化部133の処理は、図5を用いて後述する学習時の処理と同様である。
In S22, the
推定部141は、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力する。汚れ度合は、監視カメラ400のレンズがどの程度汚れているかを、0~1の数値を用いて示したものである。
The
具体的には、S24において、推定部141は、抽出された特徴量に基づく情報として、正規化されたデータを、記憶部214が記憶する全ての学習済モデル135(後述する図5の学習済モデルA~E等)に入力し、それぞれ汚れ度合を出力し、処理をS25に進める。S25において、推定部141は、出力された全ての汚れ度合のうち、最も小さい汚れ度合を選択し、処理をS26に進める。
Specifically, in S24, the
このように、推定部141は、汚れ度合の出力結果に基づき、全ての学習済モデル135(学習済モデルA~E等)のうちのいずれかのモデルを選択している。具体的には、推定部141は、複数のモデルのうち、出力結果が最も小さくなるモデルを選択している。詳細は図5を用いて後述するが、その理由は、出力結果(汚れ度合)が最も小さくなるモデルが、最適なモデルであると考えられるからである。
In this way, the
判定部143は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間(たとえば、8分)が経過するまでに汚れ度合が閾値未満になった場合に、汚れ有状態であると判定する(以下のS26~S28)。
The determining
詳細については、具体例も含めて図6~図10を用いて後述するが、本実施の形態においては、汚れとは無関係な要素が「汚れ」として誤検出されることがある。これらの要素は、時間の経過とともに検出されなくなることが想定されるため、所定時間が経過するまでの汚れ度合の推移を確認するようにしている。 Details will be described later with reference to FIGS. 6 to 10, including specific examples, but in this embodiment, elements unrelated to dirt may be erroneously detected as "stain". Since it is assumed that these elements become undetectable over time, the change in the degree of contamination is checked until a predetermined period of time has elapsed.
ここで、「閾値」は、汚れ度合に関して事前に設定された閾値であり、本実施の形態においては、「0.3」が設定されている。また、「汚れ有状態」は、監視カメラ400のレンズに一定の汚れがある状態であり、具体的には、汚れ度合が閾値以上となった状態を指す。
Here, the "threshold value" is a threshold value set in advance regarding the degree of contamination, and in this embodiment, "0.3" is set. Moreover, the "stain state" is a state in which the lens of the
S26において、推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないか否かを判定する。
In S26, the estimating
具体的には、汚れ度合が閾値以上である場合には、所定期間(8分)が経過するまで、特定時間(たとえば、30秒)ごとS21~S25のステップを繰り返す。そして、所定期間(8分)が経過するまでに得られた汚れ度合のうち、最も小さいものを正しい汚れ度合として選択する。S26においては、正しい汚れ度合として選択された値が閾値未満にならないか否かを判定している。 Specifically, if the degree of contamination is equal to or greater than the threshold value, steps S21 to S25 are repeated at specific time intervals (for example, 30 seconds) until a predetermined time period (8 minutes) has elapsed. Then, among the degrees of contamination obtained before a predetermined period (8 minutes) has elapsed, the smallest degree of contamination is selected as the correct degree of contamination. In S26, it is determined whether the value selected as the correct degree of dirt is less than a threshold value.
推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないと判定した場合(S26でYES)は、処理をS27に進める。S27において、判定部143は、汚れ有状態であると判定し、判定処理を終了する。
If the
推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないと判定しなかった(つまり、所定時間が経過するまでに汚れ度合が閾値未満になったと判定した)場合(S26でNO)は、処理をS28に進める。S28において、判定部143は、汚れ有状態でないと判定し、判定処理を終了する。
The estimating
端末300で、汚れ有状態であることを確認したエレベーターの保守員あるいはビルの管理者は、監視カメラ400のレンズに付着した汚れを取り除くよう清掃する。
After confirming that there is dirt on the terminal 300, the elevator maintenance worker or the building manager cleans the lens of the
[学習済モデル]
図5は、各種学習済モデルを説明するための図である。学習済モデル135は、特徴量に基づく情報が入力された際に、汚れ度合を出力するために学習処理が行われたモデルである。
[Trained model]
FIG. 5 is a diagram for explaining various learned models. The learned
図5に示すように、学習済モデル135は、学習済モデルA~E等を含む。学習済モデルA~E等の各々は、複数の撮影環境のいずれかで撮影された撮影データ122群を用いて学習処理が行われたモデルである。
As shown in FIG. 5, the trained
学習済モデルAは、撮影環境として朝に撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルBは、撮影環境として昼に撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルCは、撮影環境として夜に撮影された撮影データ122群を用いて学習処理が行われたモデルである。朝と昼と夜とでは、光の入り具合によってかご401内の明るさがそれぞれ異なる。
The trained model A is a model in which learning processing has been performed using 122 groups of photographic data taken in the morning as a photographing environment. The trained model B is a model in which learning processing has been performed using 122 groups of photographic data taken in the daytime as a photographing environment. The learned model C is a model in which a learning process is performed using 122 groups of photographic data taken at night as a photographing environment. The brightness inside the
学習済モデルDは、撮影環境としてかご401の扉が開いた状態(戸開状態)で撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルEは、撮影環境としてかご401の扉が閉じた状態(戸閉状態)で撮影された撮影データ122群を用いて学習処理が行われたモデルである。
The trained model D is a model in which a learning process is performed using a group of
本実施の形態においては、予め汚れ度合が判定されている撮影データのセット(撮影データ群)を用いて学習処理を行う。取得部131は、予め汚れ度合が判定されている撮影データ122を学習データとして取得する。
In this embodiment, learning processing is performed using a set of photographic data (a group of photographic data) whose degree of contamination has been determined in advance. The acquisition unit 131 acquires photographed
その際、たとえば、学習済モデルD(戸開状態)を生成する場合、予め汚れ度合が判定されており、かつ、戸開状態で撮影された撮影データ122を学習データとして取得する。学習処理のための撮影データ122は、汚れ度合と撮影環境とを事前に紐付けた上で、教師用データとして記憶部114に記憶させておけばよい。
At this time, for example, when generating the learned model D (door open state), the degree of dirt has been determined in advance and
次に、抽出部132は、取得した撮影データ122の特徴量を抽出する。たとえば、撮影データ122の色の特性に基づき特徴量を抽出してもよい。撮影データ122がカラー画像の場合、1画素毎に色の特性データを持っている。具体的には、彩度、明度、色相等がある。また、撮影データ全体としては、配色、ばらつき、構造等がある。これらの色の特性を組み合わせることで、汚れ度合が低い場合と汚れ度合が高い場合とで差が現れる特徴量を抽出する。汚れ度合が高い場合は、レンズに付着している汚れの画像(汚れ部分の撮影領域)は黒色、つまり明るさが低下すると推測される。したがって、汚れが付着していない場合と比較すると特徴量が大きく異なってくると考えられる。このように、汚れ度合が高い場合に差異が現れるように特徴量を抽出すればよい。
Next, the
次に、正規化部133は、抽出部132が抽出した特徴量を正規化する。モデル生成部134は、正規化された撮影データ122と紐付けられた汚れ度合とに基づき学習処理を行って、学習済モデルを生成する。
Next, the
判定対象となる撮影データの撮影環境と、学習済モデルの撮影環境とが近い場合、判定部143の判定精度が高くなることが期待できる。たとえば、図7のように、取得された撮影データが戸開状態で撮影されたものであれば、戸開状態で撮影された撮影データ122群を用いて学習処理が行われた学習済モデルDを用いると、より判定精度が高くなることが期待できる。
If the shooting environment of the shooting data to be determined is close to the shooting environment of the learned model, it can be expected that the judgment accuracy of the
そして、算出された汚れ度合が最も小さくなるモデルが、判定部143の判定精度が最も高いモデルであることが期待できる。たとえば、戸開状態で撮影された撮影データと、戸閉状態での撮影データを用いた学習済モデルEとでは、扉の状態が異なることにより、その分が汚れ度合として誤検知される可能性が高い。これに対して、戸開状態で撮影された撮影データと、同じく戸開状態での撮影データを用いた学習済モデルDとでは、扉の状態が同じであるため、扉の領域において汚れ度合として誤検知される可能性が低くなる。
It can be expected that the model for which the calculated degree of contamination is the smallest is the model for which the
このため、上述のように、推定部141は、全ての学習済モデル135(学習済モデルA~E等)を用いて、それぞれの汚れ度合を出力する。そして、汚れ度合が最も小さくなるモデルを最適なモデルとして選択している(最も小さい汚れ度合が、正しい汚れ度合であると判断している)。
Therefore, as described above, the
なお、学習済モデルは、上記学習済モデルA~Eに限らず、乗客が乗車した状態で学習処理が行われたモデルや、複数の撮影環境が組み合わされた環境で学習処理が行われたモデルを含んでもよい。また、1つの学習済モデルのみを用いて推定部141により汚れ度合を出力させるようにしてもよい。この場合、学習処理が簡易になる。
Note that the trained models are not limited to the trained models A to E above, but also include models in which learning processing was performed with a passenger on board, and models in which learning processing was performed in an environment in which multiple shooting environments were combined. May include. Alternatively, the
なお、画像中の類似する領域をひとまとまりとして分割されるようにしてもよい。この場合、推定部141は、分割された領域ごとに汚れ度合を出力するようにする。推定部141は、領域ごとに、「汚れ度合」×「画像全体のうち分割された領域が占める割合」を算出し、これらを合算して「汚れ度合」として算出する。
Note that similar regions in the image may be divided as a group. In this case, the
[汚れ度合の時間変化]
図6は、レンズの汚れ度合の時間変化を説明するための図である。図6において、縦軸は、汚れ度合を示す。横軸は、時間を示す。
[Time change in degree of contamination]
FIG. 6 is a diagram for explaining the change over time in the degree of contamination of the lens. In FIG. 6, the vertical axis indicates the degree of contamination. The horizontal axis indicates time.
図6に示すように、レンズが全く汚れていない場合(「正常時」とも称する)の汚れ度合は0である。閾値は、0.3である。 As shown in FIG. 6, when the lens is not dirty at all (also referred to as "normal time"), the degree of dirt is 0. The threshold value is 0.3.
時刻t1(場面1)おいて、汚れ度合は0である。その後、汚れ度合が急上昇し0.9になった時刻t2が場面2である。このとき、汚れ度合は、閾値(0.3)以上になっている。その後、汚れ度合が急激に下がり、0.1になった時刻t3が場面3である。このとき、汚れ度合(0.1)は、閾値(0.3)を下回っている。このような場合、汚れ有状態ではないと判断される。 At time t1 (scene 1), the degree of contamination is 0. After that, scene 2 occurs at time t2 when the degree of contamination rapidly increases to 0.9. At this time, the degree of contamination is equal to or higher than the threshold value (0.3). After that, scene 3 occurs at time t3 when the degree of contamination rapidly decreases to 0.1. At this time, the degree of contamination (0.1) is below the threshold value (0.3). In such a case, it is determined that there is no dirt.
次に、汚れ度合が急上昇して0.8になった時刻t4が場面4である。このとき、汚れ度合(0.8)は、閾値(0.3)以上になっている。その後、汚れ度合が急激に下がり、0.4になった時刻t5が場面5である。このとき、汚れ度合(0.4)は、閾値(0.3)以上になったままである。このような場合、汚れ有状態であると判断される。 Next, scene 4 occurs at time t4 when the degree of contamination rapidly increases to 0.8. At this time, the degree of contamination (0.8) is equal to or higher than the threshold value (0.3). After that, scene 5 occurs at time t5 when the degree of contamination rapidly decreases to 0.4. At this time, the degree of contamination (0.4) remains equal to or higher than the threshold value (0.3). In such a case, it is determined that there is dirt.
以下、場面1~5の状況をかご401内を撮影した画像を用いて説明する。図7~図11は、かご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。
Below, the situations of
場面1では、図7に示すように、かご401内を撮影した画像80a(撮影データ)において、出入口51は、かご401の扉が開いた状態(戸開状態)である。かご401内には、乗客はいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合=0が出力されている。
In
場面2では、図8に示すように、かご401内を撮影した画像80bにおいて、かご401内に乗客53が4人乗り込み、出入口51はかご401の扉が閉じた状態(戸閉状態)になっている。また、レンズには汚れが付着している。このとき、汚れ度合=0.9に上がっている。
In scene 2, as shown in FIG. 8, in an
場面3では、図9に示すように、かご401内を撮影した画像80cにおいて、出入口51の扉が開き(戸開状態)、かご401内の乗客が全員降車している。このとき、レンズの汚れは場面2と同程度付着している。このとき、汚れ度合=0.1に下がっている。
In scene 3, as shown in FIG. 9, in an
場面1および場面3においては、いずれも戸開状態かつ乗客=0人である。場面1と場面3との画像の違いは、レンズについた汚れのみであるため、汚れ度合=0.1は、純粋にレンズの汚れのみによるものと考えられる。
In both
一方で、場面2と場面3とでは、レンズに汚れがついている点は同じであるものの、場面2において戸閉状態かつ乗客=4人である点で異なる。このため、場面2で汚れ度合=0.9であるのは、レンズの汚れに加えて、かご401の戸開閉状態とかご401内の乗客による誤検知を含むものと考えられる。
On the other hand, scenes 2 and 3 are the same in that the lenses are dirty, but they differ in that in scene 2 the door is closed and there are four passengers. Therefore, the reason why the degree of contamination is 0.9 in scene 2 is considered to include not only the contamination of the lens but also the open/closed state of the door of the
以上のように、本実施の形態においては、かご401が戸開状態、乗客=0人、かつ、レンズの汚れなしである場合(場面1)に、汚れ度合=0と算出される。その後、レンズに汚れ度合=0.1の汚れが付着するが、さらに、乗客が4人乗り込み、戸閉状態となることで、汚れ度合が0.9まで上昇する。
As described above, in this embodiment, when the
この場合、汚れ度合が閾値(0.3)以上になっているものの、実際には、汚れではなく、戸閉状態となり乗客が乗車したことによる画像変化により、汚れ度合が上昇しているだけである。そのため、戸開状態かつ乗客=0人に戻った場面3においては、純粋なレンズの汚れ(汚れ度合=0.1)のみが検知されている。 In this case, although the degree of contamination is higher than the threshold value (0.3), in reality, the degree of contamination is only increasing due to an image change due to the door being closed and a passenger getting on board, rather than due to contamination. be. Therefore, in scene 3 when the door is open and the number of passengers is zero, only pure lens dirt (stain level = 0.1) is detected.
このように、汚れ度合は、レンズの汚れと、かご401内の積載量(たとえば、乗車人数)と、かご401の戸開閉状態との少なくともいずれかに応じて変化する。このため、本実施の形態においては、推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過するまでに汚れ度合が閾値未満になったと判定した場合には、汚れ有状態でないと判定している(S26,S28)。なお、汚れ度合が変化する各種要因について、図15を用いてより詳しく説明する。
In this way, the degree of contamination changes depending on at least one of the contamination of the lens, the load inside the car 401 (for example, the number of passengers), and the open/closed state of the door of the
次に、場面4では、図10に示すように、かご401内を撮影した画像80dにおいて、かご401内に乗客53が2人乗り込み、戸閉状態になっている。さらに、乗客53のいたずらにより、監視カメラ400のレンズの左下が汚されている。このとき、汚れ度合は0.8に上がっている。
Next, in scene 4, as shown in FIG. 10, in an
場面5では、図11に示すように、かご401内を撮影した画像80eにおいて、戸開状態となり、かご401内の乗客が全員降車している。このとき、汚れ度合=0.4に下がっている。
In scene 5, as shown in FIG. 11, in an
場面3および場面5においては、いずれも戸開状態かつ乗客=0人である。場面3と場面5との画像の違いは、乗客53がいたずらでつけたレンズの左下の汚れのみである。これにより、汚れ度合は0.1から0.4に上昇しており、閾値(0.3)を超えている。
In both scenes 3 and 5, the door is open and there are no passengers. The only difference between the images of Scene 3 and Scene 5 is the dirt on the lower left of the lens, which was added as a prank by
一方で、場面4と場面5とでは、レンズに汚れがついている点は同じであるものの、場面4において戸閉状態かつ乗客=2人である点で異なる。このため、場面4で汚れ度合=0.8であるのは、レンズの汚れに加えて、かご401の戸開閉状態とかご401内の乗客による誤検知を含むものと考えられる。
On the other hand, scenes 4 and 5 are the same in that the lenses are dirty, but they differ in that in scene 4 the door is closed and there are two passengers. Therefore, the reason why the degree of contamination is 0.8 in scene 4 is considered to include not only the contamination of the lens but also the open/closed state of the door of the
このように、戸開状態、乗客=0人、かつ、レンズの汚れありである場合(場面3)に、汚れ度合=0.1と算出されている。その後、乗客が2人乗り込み、戸閉状態となり、いたずらによるレンズの汚れで、汚れ度合が0.8まで上昇する。 In this way, when the door is open, there are no passengers, and the lens is dirty (scene 3), the degree of dirt is calculated to be 0.1. After that, two passengers boarded the vehicle, the door was closed, and the lens became dirty due to mischief, increasing the degree of contamination to 0.8.
この場合、汚れ度合が閾値(0.3)を超えているが、戸閉状態となり乗客が乗車したことによる画像変化による汚れ度合の上昇分も含まれる。そのため、戸開状態かつ乗客=0人に戻った場面5において、純粋なレンズの汚れ(汚れ度合=0.4)のみが検知される。そして、この場合においても、汚れ度合(0.4)が閾値(0.3)未満とならないため、汚れ有状態であると判定される。 In this case, the degree of contamination exceeds the threshold value (0.3), but it also includes an increase in the degree of contamination due to an image change caused by the door being closed and a passenger getting on board. Therefore, in scene 5 when the door is open and the number of passengers is zero, only pure lens dirt (stain level = 0.4) is detected. Also in this case, since the degree of contamination (0.4) does not become less than the threshold value (0.3), it is determined that there is contamination.
このように、判定部143は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、汚れ有状態であると判定している(S26,S27)。
In this way, the determining
ここで、学習済モデルを用いて汚れ度合を推定しようとした場合、汚れ以外の要素(たとえば、戸開閉状態や乗客)による誤検知(値が大きくなってしまうこと)が発生する可能性がある。この場合、汚れと汚れ以外の要素を区別可能にするために、より精度の高い学習処理を行うことで、汚れ度合の推定精度を高めることが考えられる。そのためには、汚れ以外の要素を排除した状態での学習データを増やして学習の精度を高めることが考えられる。しかしながら、このような状態の発生確率が低い場合、学習データを収集することが困難であり、推定精度を上げることが難しくなる。 If you try to estimate the degree of dirt using a trained model, there is a possibility that false detections (increasing values) may occur due to factors other than dirt (for example, door opening/closing status or passengers). . In this case, in order to be able to distinguish between dirt and factors other than dirt, it is possible to improve the accuracy of estimating the degree of dirt by performing a more accurate learning process. To this end, it is possible to improve the accuracy of learning by increasing the amount of learning data with elements other than dirt removed. However, when the probability of occurrence of such a state is low, it is difficult to collect learning data and it becomes difficult to improve estimation accuracy.
このため、本実施の形態においては、学習済モデルによる推定以外の手法も併用して、汚れ以外の要素を除外し、これにより汚れ度合の推定精度を高めた。上述したように、「汚れ」による汚れ度合は時間が経過しても減少することはなく、「汚れ以外の要素」による汚れ度合は時間の経過とともに減少する。たとえば、汚れ以外の要素である「戸開閉状態」は時間の経過とともに戸開状態に戻り、乗客は時間の経過とともに0人に戻る。このように、汚れ以外の要素により閾値以上となるケースが発生する。このため、所定期間待つことで汚れ以外の要素による誤検出を減少させ、極力、汚れのみによる汚れ度合が検出できるように構成した。このようにすることで、学習データを追加することなく、汚れ有状態であるか否かを精度よく判定することができる。 For this reason, in the present embodiment, a method other than estimation using the trained model is also used to exclude factors other than dirt, thereby increasing the accuracy of estimating the degree of dirt. As described above, the degree of contamination due to "dirt" does not decrease over time, and the degree of contamination due to "elements other than contamination" decreases over time. For example, the "door open/closed state", which is a factor other than dirt, returns to the door open state over time, and the number of passengers returns to zero over time. In this way, cases occur where the threshold value is exceeded due to factors other than dirt. Therefore, by waiting for a predetermined period of time, false detections due to factors other than dirt are reduced, and the system is configured to detect the degree of dirt only due to dirt as much as possible. By doing so, it is possible to accurately determine whether or not there is dirt without adding learning data.
次に、第1処理および第2処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明する。図12は、第1処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。
Next, the relationship between the images taken inside the
第1処理においては、図3,図4のフローチャートを用いて説明したように、T1(10分)ごとに判定処理を行う。これに対して、第2処理においては、図14のフローチャートを用いて後述するようにT2(1日)ごとに判定処理を行う。 In the first process, as explained using the flowcharts of FIGS. 3 and 4, the determination process is performed every T1 (10 minutes). On the other hand, in the second process, the determination process is performed every T2 (one day) as described later using the flowchart of FIG.
まず、第1処理において10分ごとに判定処理を行う例について説明する。図12に示すように、画像80jにおいて、出入口51は戸閉状態であり、かご401内には乗客53がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合は0である。
First, an example in which the determination process is performed every 10 minutes in the first process will be described. As shown in FIG. 12, in the
この状態以降、10分ごとに判定処理が行われる。その際、汚れ度合が閾値以上と判定された場合は、所定時間が経過しても閾値以上であるか否かが判断される。図6~図11を用いて説明したように、場面2(t2)のように汚れ度合が閾値以上であると判断された場合であっても、所定時間が経過するまでの場面3(t3)において、汚れ度合が閾値未満になっている場合は、汚れ有状態ではないと判断される。 After this state, determination processing is performed every 10 minutes. At that time, if it is determined that the degree of contamination is equal to or greater than the threshold value, it is determined whether or not the degree of contamination remains equal to or greater than the threshold value even after a predetermined period of time has elapsed. As explained using FIGS. 6 to 11, even if it is determined that the degree of contamination is equal to or higher than the threshold value as in scene 2 (t2), scene 3 (t3) until the predetermined time elapses. If the degree of contamination is less than the threshold value, it is determined that there is no contamination.
一方、場面4(t4)のように汚れ度合が閾値以上であると判断された場合であって、所定時間が経過しても、場面3(t5)において汚れ度合が閾値以上のままであるので、汚れ有状態であると判断される。 On the other hand, in the case where the degree of contamination is determined to be equal to or higher than the threshold value as in scene 4 (t4), the degree of contamination remains equal to or greater than the threshold value in scene 3 (t5) even after the predetermined time has elapsed. , it is determined that there is dirt.
画像80jの状態において、たとえば、乗客のいたずらによって監視カメラ400のレンズが汚されたとする。画像80jの状態から10分が経過した状態が画像80kである。画像80kにおいて、出入口51は戸閉状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズの右側には汚れが付着しており、汚れ度合は0.4になっている。この場合、汚れ度合が閾値(0.3)以上であるため、汚れ有状態であると判断される。
In the state of the
このように、第1処理においては、10分ごとに判定処理を行うため、いたずらによってレンズが汚された場合のような、突発的な汚れを検出することができる。 In this way, in the first process, since the determination process is performed every 10 minutes, it is possible to detect sudden stains such as when the lens is dirty due to a prank.
次に、第2処理において1日ごとに判定処理を行う例について説明する。図13は、第2処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。図13に示すように、画像80fにおいて、出入口51は戸開状態であり、かご401内には乗客53がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合は0である。
Next, an example in which the determination process is performed every day in the second process will be described. FIG. 13 is a diagram for explaining the relationship between the image taken inside the
1日ごとに判定処理が実行され、画像80fの状態から30日が経過した(30回の判定処理が行われた)状態が画像80gである。画像80gにおいても、出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズには汚れが付着しており、汚れ度合は0.1になっている。
The determination process is executed every day, and the
なお、判定処理が実行されるタイミングにおいて、乗客がおり、これにより閾値以上となる場合には、所定期間内に汚れ度合が閾値未満になるかが判定される。本例では、乗客が降車したタイミングで、汚れ度合は0.1まで低下する。 Note that, if there is a passenger at the timing when the determination process is executed and the level becomes equal to or higher than the threshold value, it is determined whether the degree of contamination becomes less than the threshold value within a predetermined period of time. In this example, the degree of contamination decreases to 0.1 at the timing when the passenger gets off the vehicle.
画像80gの状態から30日が経過した(30回の判定処理が行われた)状態が画像80hである。画像80fの状態から数えると、60日が経過している。画像80hにおいて、も出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズにはさらに汚れが蓄積されており、汚れ度合は0.2になっている。
An
画像80hの状態から30日が経過した状態(30回の判定処理が行われた)が画像80iである。画像80fの状態から数えると、90日が経過している。画像80gにおいても、出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズにはさらに汚れが蓄積されており、汚れ度合は0.3になっている。この場合、汚れ度合が閾値に到達しているので、汚れ有状態であると判断される。
The
画像80f~80iによれば、汚れ度合は、30日ごとに0.1ずつ増加している。このため、たとえば、0日~60日までの汚れ度合の経時変化から、さらに30日後の90日後には、汚れ度合が閾値に到達することを予測することができる。これにより、保守員は、レンズのクリーニングをすべき時期を知ることができる。以下、第2処理について、フローチャートを用いて説明する。
According to
[第2処理のフローチャート]
上述したように第1処理は、時間T1(10分)の周期で汚れを判定する処理である。これに対して、第2処理は、時間T2(1日)の周期で汚れを判定する。さらに、第2処理は、将来のレンズの汚れを推定する。
[Flowchart of second process]
As described above, the first process is a process of determining dirt at intervals of time T1 (10 minutes). On the other hand, in the second process, dirt is determined at a cycle of time T2 (one day). Furthermore, the second process estimates future lens dirt.
以下、第2処理について説明する。図14は、汚れ判定装置200が実行する第2処理のフローチャートである。
The second process will be explained below. FIG. 14 is a flowchart of the second process executed by the
図14に示すように、第2処理が開始すると、S31において、汚れ判定装置200は、時間T2が経過した否かを判定する。汚れ判定装置200は、時間T2が経過したと判定した場合(S31でYES)、S32に処理を進める。汚れ判定装置200は、時間T2が経過したと判定しなかった場合(S31でNO)、処理をS31に戻す。
As shown in FIG. 14, when the second process starts, in S31, the
S32において、汚れ判定装置200は、判定処理を行い、処理をS33に進める。つまり、汚れ判定装置200は、時間T2が経過するごとに判定処理等を行う。In S32, the
S33において、汚れ判定装置200の予測部145は、汚れ度合いを記憶部214に記憶し、処理をS33に進める。
In S33, the
S34において、予測部145は、記憶部214に記憶された汚れ度合いの時系列データに基づき、汚れ有状態であると判定される時期を推定し、処理をS35に進める。
In S34, the
図13を用いて示した例では、0日目は汚れ度合=0である。30日目は汚れ度合=0.1である。60日目は汚れ度合=0.2である。現在、60日目であるとする。記憶部214は、0日目~60日目までの汚れ度合のデータを記憶している。
In the example shown using FIG. 13, the degree of staining is 0 on
そして、これらのデータによれば、30日ごとに汚れ度合が0.1ずつ増加するため、予測部145は、90日目(30日後)に汚れ度合が閾値である0.3に到達すると予測する。つまり、汚れ有状態であると判定される時期は、30日後であると予測する。
According to these data, the degree of contamination increases by 0.1 every 30 days, so the
たとえば、予測部145は、汚れ度合いの時系列データを用いて、最小自乗法等により予測モデルを生成させてもよい。予測部145は、予測モデルを用いて、汚れ有状態であると判定される時期を予測する。
For example, the
S35において、通知部144は、判定部143の判定結果および予測部145の推定結果を端末300に送信し、S31に処理を戻す。
In S35, the
[汚れ度合が変化する各種要因]
図6~図11等で説明したように、汚れ度合は、「レンズの汚れ」と、「かご401内の積載量」と、「かご401の戸開閉状態」との少なくともいずれかに応じて変化する。ここでは、汚れ度合が変化する各種要因について、図15を用いてより詳しく説明する。
[Various factors that change the degree of contamination]
As explained in FIGS. 6 to 11, the degree of contamination changes depending on at least one of "dirty lenses", "loading amount in the
図15は、かご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。図15に示すように、かご401内を撮影した画像80jにおいて、出入口51は戸開状態であり、かご401内には乗客がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合=0が出力されている。
FIG. 15 is a diagram for explaining the relationship between an image taken inside the
図6~図11の例では、かご401内に乗客が乗車した例について説明したが、かご401内を撮影した画像80kに示すように、かご401内には乗客とともに大きな荷物が積載される場合もある。上記「かご401内の積載量」としては、乗車人数のみならず荷物の量も含まれる。なお、「かご401内の積載量」は、画像80kから推定される乗客や荷物の総面積を示すものあってもよい。
In the examples shown in FIGS. 6 to 11, an example was explained in which a passenger boarded the
画像80kの例では、かご401内に乗客とともに荷物が積載されることにより、汚れ度合は0.2まで上昇している。この場合、かご401内の積載量に応じて汚れ度合が変化しているが、目的階に到着すると乗客および荷物はかご401の外に出るため、汚れ度合は再び0に戻る。このため、乗客および荷物に基づき、「汚れ有状態」とは判定されない。
In the example of
また、上述の「かご401の戸開閉状態」には、「乗場の状態」も含まれる。かご401内を撮影した画像80lでは、画像80jと同じく戸開状態であるが、乗場の状態が変化している。具体的には、画像80jでは日中の太陽の光で乗場が明るいのに対し、画像80lでは夜になって乗場が暗いために汚れ度合が0.15まで上昇している。上述のように、戸開状態と戸閉状態とでは汚れ度合が異なるが、戸開状態においては時間帯に応じても汚れ度合が異なる。
Moreover, the above-mentioned "door opening/closing state of the
図5の例においては、撮影環境として、朝と昼と夜とで学習済モデルを異ならせ(学習済モデルA~C)、戸開状態と戸閉状態とで学習済モデルを異ならせる(学習済モデルD,E)ように構成することで、汚れ度合の判定精度を高めるようにした。本例では、たとえば、戸開状態においてさらに時間帯に応じて学習モデルを異ならせることで、汚れ度合の判定精度をさらに高めることができる。 In the example shown in Fig. 5, different trained models are used for morning, noon, and night shooting environments (trained models A to C), and different trained models are used for the door open state and the door closed state (learned models A to C). By configuring the models D and E), the accuracy of determining the degree of contamination is improved. In this example, for example, by making the learning model different depending on the time period when the door is open, it is possible to further improve the accuracy of determining the degree of dirt.
また、「乗場の状態」には、乗場の混雑状況も含まれる。たとえば、出勤時や退勤時などのピーク時間帯(戸開状態において複数の待ち客が映り込む)と、閑散時(乗場に人がいない)とでは、汚れ度合が異なる。この場合においても、たとえば、撮影環境として、ピーク時間帯とそれ以外の時間帯とで学習モデルを異ならせることで、汚れ度合の判定精度をさらに高めることができる。 Further, the "landing state" includes the crowded state of the landing. For example, the degree of dirtiness is different during peak hours such as when people come to work and when they leave work (when multiple waiting passengers are visible when the door is open) and during quiet times (when there are no people on board). Even in this case, for example, the accuracy of determining the degree of dirt can be further improved by using different learning models for peak time periods and other time periods as the photographing environment.
上記以外にも、汚れ度合は、「かご401内に設置された監視カメラ400の状態」によっても変化する。たとえば、かご401内を撮影した画像80mでは、乗客のいたずら等により、かご401内に設置された監視カメラ400の設置方向がずれてしまい、画像80jに比べると、かご401のやや左側が撮影されている。これにより、画像80jと画像80mとの差分により、汚れ度合が0.4に変化している。
In addition to the above, the degree of contamination also changes depending on "the state of the
本ケースでは、所定時間が経過しても汚れ度合が低下しないため、「汚れ有状態」として誤検知される。この場合、エレベーターの保守員あるいはビルの管理者は、監視カメラ400の設置状態を確認し、監視カメラ400を正常な設置状態に戻す作業を行う。これにより、汚れ度合が0に戻り、汚れ度合が正常に検知されるようになる。「かご401内に設置された監視カメラ400の状態」としては、上記のような監視カメラ400の設置方向や設置位置であってもよいし、監視カメラ400の焦点がぼやけているような状態も想定され得る。
In this case, since the degree of contamination does not decrease even after a predetermined period of time has elapsed, it is erroneously detected as a "contamination presence state". In this case, the elevator maintenance worker or the building manager checks the installation state of the
[主な構成および効果]
以下、前述した実施の形態の主な構成および効果を説明する。
[Main composition and effects]
The main configuration and effects of the embodiment described above will be explained below.
(1) 汚れ判定装置200は、取得部131と、抽出部132と、推定部141と、判定部143とを備える。取得部131は、監視カメラ400により撮影された撮影データ122を定期的に取得する。抽出部132は、取得された撮影データ122の特徴量を抽出する。推定部141は、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力する。判定部143は、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定する。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。
(1) The
(2) 学習済モデル135は、複数のモデル(学習済モデルA~E等)を含む。複数のモデルの各々は、複数の撮影環境のいずれかで撮影された撮影データ122群を用いて、特徴量に基づく情報が入力された際に、汚れ度合を出力するために学習処理が行われたモデルである。推定部141は、複数のモデルのうちのいずれかのモデルを選択し、選択した当該モデルを用いて汚れ度合を出力する。撮影環境に応じて適切なモデルを用いることで、周囲の環境変化による誤検出を減少させ、汚れ有状態であるか否かを判定することができる。
(2) The trained
(3) 推定部141は、複数のモデルのうち、出力結果が最も小さくなるモデルを選択する。撮影環境に応じて適切なモデルを用いることで、周囲の環境変化による誤検出を減少させ、汚れ有状態であるか否かを判定することができる。
(3) The
(4) 汚れ判定装置200は、第1モードと第2モードとを含む実行モードを設定可能である。判定部143は、第1モードが設定されている場合は、第1周期ごとに判定を行う。判定部143は、第2モードが設定されている場合は、前記第1周期よりも長い第2周期ごとに判定を行う。これにより、第1モードにより突発的に発生する汚れを検知することができ、第2モードにより経時変化により蓄積する汚れを検知することができる。経時変化により蓄積する汚れを検知することで、汚れ有状態となってレンズのクリーニングが必要となる時期を予想することができる。
(4) The
(5) 撮影データ122は、エレベーターのかご401内が撮影されたデータである。汚れ度合は、レンズの汚れとかご401内の積載量(乗車人数や荷物の量)とかご401の戸開閉状態との少なくともいずれかに応じて変化する。これにより、所定時間が経過しても汚れ度合が低下しないレンズの汚れと、所定時間が経過するまでに汚れ度合を低下させる可能性のある積載量および戸開閉状態を識別して、汚れ有状態であるか否かを精度よく判定することができる。
(5) The
(6) 汚れ判定方法は、監視カメラ400により撮影された撮影データ122を定期的に取得するステップと、取得された撮影データ122の特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを備える。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。
(6) The stain determination method includes the steps of periodically acquiring
(7) 汚れ判定プログラムは、コンピュータに、監視カメラ400により撮影された撮影データ122を定期的に取得するステップと、取得された撮影データ122の特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを実行させる。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。
(7) The dirt determination program includes a step of periodically acquiring
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the claims rather than the above description, and it is intended that equivalent meanings and all changes within the scope of the claims are included.
1 汚れ判定システム、51,52 出入口、53 乗客、80a~80i 画像、100 映像記録装置、111,211 CPU、112,212 ROM、113,213 RAM、114,214 記憶部、115,215 通信インターフェイス、116,216 I/Oインターフェイス、121 取得部、122 撮影データ、131 取得部、132 抽出部、133 正規化部、134 モデル生成部、135 学習済モデル、141 推定部、142 推定結果、143 判定部、144 通知部、200 汚れ判定装置、300 端末、400 監視カメラ。 1 dirt determination system, 51, 52 doorway, 53 passenger, 80a-80i image, 100 video recording device, 111,211 CPU, 112,212 ROM, 113,213 RAM, 114,214 storage unit, 115,215 communication interface, 116, 216 I/O interface, 121 acquisition unit, 122 imaging data, 131 acquisition unit, 132 extraction unit, 133 normalization unit, 134 model generation unit, 135 learned model, 141 estimation unit, 142 estimation result, 143 determination unit , 144 notification unit, 200 dirt determination device, 300 terminal, 400 surveillance camera.
Claims (4)
取得された前記撮影データの特徴量を抽出する抽出部と、
抽出された前記特徴量に基づく情報を学習済モデルに入力して、前記監視カメラのレンズの汚れ度合を出力する推定部と、
前記汚れ度合が前記汚れ度合に関する閾値以上になり、かつ、前記汚れ度合が前記閾値以上になってから所定時間が経過しても前記汚れ度合が前記閾値未満にならない場合に、前記レンズに一定の汚れがある汚れ有状態であると判定する判定部とを備え、
前記学習済モデルは、複数のモデルを含み、
前記複数のモデルの各々は、複数の撮影環境のいずれかで撮影された撮影データ群を用いて、前記特徴量に基づく情報が入力された際に、前記汚れ度合を出力するために学習処理が行われたモデルであり、
前記推定部は、前記複数のモデルの各々による前記汚れ度合の出力結果に基づき、前記複数のモデルのうちのいずれかのモデルを選択する、汚れ判定装置。 an acquisition unit that periodically acquires photographic data photographed by a surveillance camera;
an extraction unit that extracts a feature amount of the acquired photographic data;
an estimator that inputs information based on the extracted feature amounts into a learned model and outputs a degree of dirt on a lens of the surveillance camera;
When the degree of contamination becomes equal to or greater than the threshold value regarding the degree of contamination, and the degree of contamination does not become less than the threshold value even after a predetermined period of time has elapsed since the degree of contamination became equal to or greater than the threshold value, a certain level of contamination is applied to the lens. and a determination unit that determines that there is dirt.
The trained model includes a plurality of models,
Each of the plurality of models performs a learning process to output the degree of contamination when information based on the feature amount is input using a group of photographic data taken in one of a plurality of photographing environments. It is a model that was carried out,
The estimating unit is a dirt determination device that selects one of the plurality of models based on an output result of the dirt degree by each of the plurality of models.
前記判定部は、
前記第1モードが設定されている場合は、第1周期ごとに判定を行い、
前記第2モードが設定されている場合は、前記第1周期よりも長い第2周期ごとに判定を行う、請求項1または請求項2に記載の汚れ判定装置。 The dirt determination device is capable of setting execution modes including a first mode and a second mode,
The determination unit includes:
If the first mode is set, a determination is made every first cycle,
The dirt determination device according to claim 1 or 2, wherein when the second mode is set, the determination is performed every second cycle that is longer than the first cycle.
前記汚れ度合は、前記レンズの汚れと前記かご内の積載量と前記かごの戸開閉状態との少なくともいずれかに応じて変化する、請求項1~請求項3のいずれか1項に記載の汚れ判定装置。 The photographic data is data in which the inside of an elevator car is photographed;
The dirt according to any one of claims 1 to 3, wherein the degree of dirt changes depending on at least one of the dirt on the lens, the loading amount in the car, and the open/closed state of the door of the car. Judgment device.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/040401 WO2023079593A1 (en) | 2021-11-02 | 2021-11-02 | Stain determination device, stain determination method, and stain determination program |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2023079593A1 JPWO2023079593A1 (en) | 2023-05-11 |
JPWO2023079593A5 JPWO2023079593A5 (en) | 2023-10-04 |
JP7455284B2 true JP7455284B2 (en) | 2024-03-25 |
Family
ID=86240779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023541612A Active JP7455284B2 (en) | 2021-11-02 | 2021-11-02 | Dirt determination device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7455284B2 (en) |
WO (1) | WO2023079593A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003189294A (en) | 2001-12-13 | 2003-07-04 | Secom Co Ltd | Image monitoring device |
JP2019029897A (en) | 2017-08-01 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image monitor, image monitoring method and image monitoring program |
JP2019096320A (en) | 2017-11-24 | 2019-06-20 | フィコサ アダス,ソシエダッド リミタダ ユニペルソナル | Determination of clear or dirty captured image |
WO2019146097A1 (en) | 2018-01-29 | 2019-08-01 | 三菱電機ビルテクノサービス株式会社 | Sensing device and sensing system for defective photographic data |
JP2020190181A (en) | 2019-05-17 | 2020-11-26 | 株式会社Lixil | Determination device, determination method and program |
WO2020250296A1 (en) | 2019-06-11 | 2020-12-17 | 三菱電機ビルテクノサービス株式会社 | Image processing device, image processing method and program |
-
2021
- 2021-11-02 JP JP2023541612A patent/JP7455284B2/en active Active
- 2021-11-02 WO PCT/JP2021/040401 patent/WO2023079593A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003189294A (en) | 2001-12-13 | 2003-07-04 | Secom Co Ltd | Image monitoring device |
JP2019029897A (en) | 2017-08-01 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image monitor, image monitoring method and image monitoring program |
JP2019096320A (en) | 2017-11-24 | 2019-06-20 | フィコサ アダス,ソシエダッド リミタダ ユニペルソナル | Determination of clear or dirty captured image |
WO2019146097A1 (en) | 2018-01-29 | 2019-08-01 | 三菱電機ビルテクノサービス株式会社 | Sensing device and sensing system for defective photographic data |
JP2020190181A (en) | 2019-05-17 | 2020-11-26 | 株式会社Lixil | Determination device, determination method and program |
WO2020250296A1 (en) | 2019-06-11 | 2020-12-17 | 三菱電機ビルテクノサービス株式会社 | Image processing device, image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
WO2023079593A1 (en) | 2023-05-11 |
JPWO2023079593A1 (en) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111144247B (en) | Escalator passenger reverse detection method based on deep learning | |
JP4631806B2 (en) | Object detection apparatus, object detection method, and object detection program | |
US8660700B2 (en) | Video-based system and method of elevator door detection | |
JP5459674B2 (en) | Moving object tracking system and moving object tracking method | |
CN109409315B (en) | Method and system for detecting remnants in panel area of ATM (automatic Teller machine) | |
JP2008257693A (en) | Method for detecting object left-behind in scene | |
KR20090086898A (en) | Detection of smoke with a video camera | |
CN106559647B (en) | Door opening and closing detection device and method, people flow detection system and vehicle | |
US20160335552A1 (en) | Method and sytem for crowd detection in an area | |
CN110526058A (en) | Elevator door monitoring system, elevator device and elevator door monitoring method | |
CN110189355A (en) | Safe escape channel occupies detection method, device, electronic equipment and storage medium | |
JP6199216B2 (en) | Elevator monitoring device | |
JP6616906B1 (en) | Detection device and detection system for defective photographing data | |
CN112347862A (en) | Elevator door fault real-time detection method based on machine vision | |
KR101651410B1 (en) | Violence Detection System And Method Based On Multiple Time Differences Behavior Recognition | |
JP7455284B2 (en) | Dirt determination device | |
EP2447912B1 (en) | Method and device for the detection of change in illumination for vision systems | |
JP2009032116A (en) | Face authentication apparatus, face authentication method, and access management apparatus | |
Wang et al. | Specular reflection removal for human detection under aquatic environment | |
KR102525491B1 (en) | Method of providing structure damage detection report | |
Suresh et al. | An efficient low cost background subtraction method to extract foreground object during human tracking | |
CN115797770A (en) | Continuous image target detection method, system and terminal considering relative movement of target | |
CN114359839A (en) | Method and system for identifying entrance of electric vehicle into elevator | |
JP6977200B2 (en) | Image processing equipment, image processing methods and programs | |
CN113936250A (en) | Method and device for calculating opening and closing amplitude of elevator door, computer equipment and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230707 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7455284 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |