JP7455284B2 - Dirt determination device - Google Patents

Dirt determination device Download PDF

Info

Publication number
JP7455284B2
JP7455284B2 JP2023541612A JP2023541612A JP7455284B2 JP 7455284 B2 JP7455284 B2 JP 7455284B2 JP 2023541612 A JP2023541612 A JP 2023541612A JP 2023541612 A JP2023541612 A JP 2023541612A JP 7455284 B2 JP7455284 B2 JP 7455284B2
Authority
JP
Japan
Prior art keywords
dirt
degree
contamination
determination
car
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023541612A
Other languages
Japanese (ja)
Other versions
JPWO2023079593A5 (en
JPWO2023079593A1 (en
Inventor
健太 久瀬
恭平 濱田
拓弥 橋口
猛 大佐賀
淳志 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Building Solutions Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023079593A1 publication Critical patent/JPWO2023079593A1/ja
Publication of JPWO2023079593A5 publication Critical patent/JPWO2023079593A5/en
Application granted granted Critical
Publication of JP7455284B2 publication Critical patent/JP7455284B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本開示は、汚れ判定装置、汚れ判定方法、および汚れ判定プログラムに関する。 The present disclosure relates to a dirt determination device, a dirt determination method, and a dirt determination program.

特許第6616906号公報(特許文献1)には、監視カメラで撮影した撮影データが、欠陥を含んでいる欠陥有り撮影データであるか否かを識別モデルを用いて判定する検知装置が開示されている。この識別モデルは、撮影データから特徴量を抽出し、抽出した特徴に基づいて欠陥有り撮影データを検知するためのモデルである。欠陥有り撮影データは、カメラのレンズに汚れが付着した場合に撮影されたような撮影データである。 Patent No. 6,616,906 (Patent Document 1) discloses a detection device that uses an identification model to determine whether photographic data photographed by a surveillance camera is defective photographic data that includes a defect. There is. This identification model is a model for extracting feature amounts from photographic data and detecting defective photographic data based on the extracted features. The defective photographic data is photographic data that was photographed when the lens of the camera was contaminated.

特許第6616906号公報Patent No. 6616906

上記識別モデルを用いて判定を行った場合、欠陥でない画像の変化が欠陥データとして認識されてしまう可能性がある。たとえば、エレベーターのかご内を撮影しているような場合、監視カメラのレンズの汚れを検知したいにも関わらず、人や物が映り込んだり、扉の開閉など定期的に変化するものなど、汚れ以外の要素が汚れとして検知されてしまうことがある。 When making a determination using the above-mentioned identification model, there is a possibility that a change in an image that is not a defect may be recognized as defect data. For example, if you are photographing the inside of an elevator car, you may want to detect dirt on the surveillance camera lens; Other elements may be detected as dirt.

この場合、汚れ以外の要素を排除した状態で撮影された学習用データを増やして学習を行うことで、推定精度を上げることが可能である。しかしながら、このような状態の発生確率が低い場合、学習データを収集することが困難であり、推定精度を上げることが難しくなる。 In this case, it is possible to increase the estimation accuracy by performing learning by increasing the amount of learning data taken with elements other than dirt removed. However, when the probability of occurrence of such a state is low, it is difficult to collect learning data and it becomes difficult to improve estimation accuracy.

本開示は、このような課題を解決するためになされたものであって、その目的は、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる汚れ判定装置、汚れ判定方法、および汚れ判定プログラムを提供することである。 The present disclosure has been made in order to solve such problems, and the purpose is to accurately determine whether or not the lens of a surveillance camera is in a dirty state where there is a certain amount of dirt. An object of the present invention is to provide a dirt determination device, a dirt determination method, and a dirt determination program.

本開示に係る汚れ判定装置は、取得部と、抽出部と、推定部と、判定部とを備える。取得部は、監視カメラにより撮影された撮影データを定期的に取得する。抽出部は、取得された撮影データの特徴量を抽出する。推定部は、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力する。判定部は、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定する。 A dirt determination device according to the present disclosure includes an acquisition section, an extraction section, an estimation section, and a determination section. The acquisition unit periodically acquires photographic data photographed by the surveillance camera. The extraction unit extracts feature amounts of the acquired photographic data. The estimation unit inputs information based on the extracted feature amounts to the trained model and outputs the degree of dirt on the lens of the surveillance camera. The determination unit determines that there is a certain level of dirt on the lens when the degree of dirt is equal to or greater than a threshold regarding the degree of dirt, and the degree of dirt does not become less than the threshold even after a predetermined time has elapsed since the degree of dirt became equal to or greater than the threshold. It is determined that there is dirt.

本開示に係る汚れ判定方法は、監視カメラにより撮影された撮影データを定期的に取得するステップと、取得された撮影データの特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを備える。 The dirt determination method according to the present disclosure includes the steps of periodically acquiring photographic data taken by a surveillance camera, extracting feature quantities of the acquired photographic data, and learning information based on the extracted feature quantities. The step of outputting the degree of contamination of the lens of the surveillance camera by inputting the degree of contamination to a model, and the step of outputting the degree of contamination of the lens of the surveillance camera. and determining that the lens is in a contamination state where there is a certain level of contamination if the degree of contamination does not become less than a threshold value.

本開示に係る汚れ判定プログラムは、コンピュータに、監視カメラにより撮影された撮影データを定期的に取得するステップと、取得された撮影データの特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを実行させる。 A dirt determination program according to the present disclosure includes a step of periodically acquiring photographic data photographed by a surveillance camera, a step of extracting a feature amount of the acquired photographic data, and a step based on the extracted feature amount. a step of inputting information into a trained model and outputting the degree of contamination of the lens of the surveillance camera; and a step of inputting information into the trained model and outputting the degree of contamination of the lens of the surveillance camera; If the degree of contamination does not become less than the threshold value even if the degree of contamination does not become less than the threshold value, the step of determining that the lens is in a contamination state where there is a certain degree of contamination is executed.

本開示によれば、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。 According to the present disclosure, it is possible to accurately determine whether or not the lens of a surveillance camera is in a dirty state with a certain amount of dirt.

汚れ判定システムのハードウェア構成の一例を示す図である。FIG. 1 is a diagram showing an example of a hardware configuration of a dirt determination system. 汚れ判定システムの機能ブロック図の一例を示す図である。FIG. 1 is a diagram showing an example of a functional block diagram of a dirt determination system. 汚れ判定装置が実行する第1処理のフローチャートである。It is a flowchart of the 1st process performed by a dirt judging device. 汚れ判定装置が実行する判定処理のフローチャートである。It is a flowchart of the judgment process which a dirt judgment device performs. 各種学習済モデルを説明するための図である。FIG. 3 is a diagram for explaining various learned models. レンズの汚れ度合の時間変化を説明するための図である。FIG. 3 is a diagram for explaining changes over time in the degree of contamination of a lens. かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 3 is a diagram for explaining the relationship between an image taken of the inside of a car and the degree of dirt. かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 3 is a diagram for explaining the relationship between an image taken of the inside of a car and the degree of dirt. かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 3 is a diagram for explaining the relationship between an image taken of the inside of a car and the degree of dirt. かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 3 is a diagram for explaining the relationship between an image taken of the inside of a car and the degree of dirt. かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 3 is a diagram for explaining the relationship between an image taken of the inside of a car and the degree of dirt. 第1処理におけるかご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 6 is a diagram for explaining the relationship between an image of the inside of the car and the degree of dirt in the first process. 第2処理におけるかご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 7 is a diagram for explaining the relationship between an image of the inside of the car and the degree of dirt in the second process. 汚れ判定装置が実行する第2処理のフローチャートである。It is a flowchart of the 2nd process performed by a dirt judging device. かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。FIG. 3 is a diagram for explaining the relationship between an image taken of the inside of a car and the degree of dirt.

以下、図面を参照しつつ、実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Embodiments will be described below with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed descriptions thereof will not be repeated.

[汚れ判定システム1]
まず、本実施の形態に係る汚れ判定装置200を備える汚れ判定システム1について説明する。図1は、汚れ判定システム1のハードウェア構成の一例を示す図である。
[Dirty determination system 1]
First, a dirt determination system 1 including a dirt determination device 200 according to the present embodiment will be described. FIG. 1 is a diagram showing an example of the hardware configuration of the stain determination system 1. As shown in FIG.

汚れ判定システム1は、映像記録装置100と、エレベーターのかご401と、かご401内に設置された監視カメラ400と、汚れ判定装置200と、端末300とを備える。映像記録装置100は、監視カメラ400および汚れ判定装置200と通信可能である。端末300は、汚れ判定装置200と通信可能である。 The dirt determination system 1 includes a video recording device 100, an elevator car 401, a surveillance camera 400 installed in the car 401, a dirt determination device 200, and a terminal 300. The video recording device 100 can communicate with the surveillance camera 400 and the dirt determination device 200. The terminal 300 can communicate with the dirt determination device 200.

監視カメラ400は、ビル内に設置されたエレベーターのかご401内を監視するためのカメラである。監視カメラ400は、たとえば、1秒間に30のフレーム画像を生成する。連続して生成されたフレーム画像は、連続して再生されることで動画像として再生される。 The surveillance camera 400 is a camera for monitoring the inside of an elevator car 401 installed in a building. Surveillance camera 400 generates, for example, 30 frame images per second. The continuously generated frame images are played back as a moving image by being played back continuously.

本実施の形態における撮影データは、フレーム画像に相当する。映像記録装置100は、監視カメラ400により撮影された撮影データ(フレーム画像)を記録するとともに、監視カメラ400のレンズの汚れの状態を判定する装置である。 The photographic data in this embodiment corresponds to a frame image. The video recording device 100 is a device that records photographic data (frame images) photographed by the surveillance camera 400 and determines the state of dirt on the lens of the surveillance camera 400.

なお、ビル内には複数のかごが設置されていてもよい。この場合、かごごとに監視カメラ400が設置される。映像記録装置100は、かごごとに監視カメラ400のレンズの汚れの状態を判定する。また、監視カメラ400は、エレベーターのかご401内に設置されるものに限らず、エレベーターの乗場、エスカレーター、その他のビル設備を監視するために設置されるものであってもよい。 Note that a plurality of cages may be installed within the building. In this case, a surveillance camera 400 is installed for each car. The video recording device 100 determines the state of dirt on the lens of the surveillance camera 400 for each car. Moreover, the surveillance camera 400 is not limited to one installed in the elevator car 401, but may be installed to monitor an elevator landing, an escalator, or other building equipment.

映像記録装置100は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、記憶部114と、通信インターフェイス115と、I/Oインターフェイス116とを有する。これらは、バスを介して相互に通信可能に接続されている。 The video recording device 100 includes a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, a RAM (Random Access Memory) 113, a storage section 114, a communication interface 115, and an I/O interface 116. have These are communicably connected to each other via a bus.

CPU111は、映像記録装置100全体を総括的に制御する。CPU111は、ROM112に格納されているプログラムをRAM113に展開して実行する。ROM112は、映像記録装置100が行う処理の処理手順が記されたプログラムを格納する。 The CPU 111 comprehensively controls the entire video recording device 100. The CPU 111 expands the program stored in the ROM 112 into the RAM 113 and executes it. The ROM 112 stores a program in which processing procedures for processing performed by the video recording device 100 are written.

RAM113は、CPU111がプログラムを実行する際の作業領域となるものであり、プログラムやプログラムを実行する際のデータ等を一時的に記憶する。また、記憶部114は、不揮発性の記憶装置であり、たとえば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等である。 The RAM 113 serves as a work area when the CPU 111 executes a program, and temporarily stores programs and data used when executing the program. Furthermore, the storage unit 114 is a nonvolatile storage device, such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

映像記録装置100は、通信インターフェイス115を介して汚れ判定装置200と通信可能である。I/Oインターフェイス116は、CPU111が監視カメラ400と接続するためのインターフェイスである。 The video recording device 100 can communicate with the stain determination device 200 via the communication interface 115. The I/O interface 116 is an interface for connecting the CPU 111 to the surveillance camera 400.

汚れ判定装置200は、CPU211と、ROM212と、RAM213と、記憶部214と、通信インターフェイス215と、I/Oインターフェイス216とを有する。これらは、バスを介して相互に通信可能に接続されている。 The dirt determination device 200 includes a CPU 211 , a ROM 212 , a RAM 213 , a storage section 214 , a communication interface 215 , and an I/O interface 216 . These are communicably connected to each other via a bus.

CPU211は、汚れ判定装置200全体を総括的に制御する。CPU211は、ROM212に格納されているプログラムをRAM213に展開して実行する。ROM212は、汚れ判定装置200が行う処理の処理手順が記されたプログラムを格納する。 The CPU 211 comprehensively controls the stain determination device 200 as a whole. The CPU 211 expands the program stored in the ROM 212 into the RAM 213 and executes it. The ROM 212 stores a program in which a procedure for processing performed by the stain determination device 200 is written.

RAM213は、CPU211がプログラムを実行する際の作業領域となるものであり、プログラムやプログラムを実行する際のデータ等を一時的に記憶する。また、記憶部214は、不揮発性の記憶装置であり、たとえば、HDDやSSD等である。 The RAM 213 serves as a work area when the CPU 211 executes a program, and temporarily stores programs and data used when executing the program. Furthermore, the storage unit 214 is a nonvolatile storage device, such as an HDD or an SSD.

汚れ判定装置200は、通信インターフェイス215を介して映像記録装置100および端末300と通信可能である。I/Oインターフェイス216は、CPU211が表示装置、あるいは入力装置と接続するためのインターフェイスである。 The dirt determination device 200 can communicate with the video recording device 100 and the terminal 300 via the communication interface 215. The I/O interface 216 is an interface for connecting the CPU 211 to a display device or an input device.

表示装置は、たとえば、ディスプレイである。表示装置では、撮影データを確認したり、レンズの汚れの状態等を確認することができる。入力装置は、たとえば、キーボードやマウスである。たとえば、入力装置の操作により、汚れ判定装置200に指示を与えることができる。 The display device is, for example, a display. On the display device, it is possible to check photographic data, the state of dirt on the lens, etc. The input device is, for example, a keyboard or a mouse. For example, instructions can be given to the stain determination device 200 by operating an input device.

図示しないが、端末300も、汚れ判定装置200と同様に、CPUと、ROMと、RAMと、記憶部と、通信インターフェイスと、I/Oインターフェイスとを有する。端末300は、パーソナルコンピュータ、タブレット端末、スマートフォン等であってもよい。端末300においても、監視カメラ400に記録された撮影データやレンズの汚れの状態等を確認することができる。 Although not shown, the terminal 300 also includes a CPU, a ROM, a RAM, a storage section, a communication interface, and an I/O interface, like the dirt determination device 200. The terminal 300 may be a personal computer, a tablet terminal, a smartphone, or the like. Also on the terminal 300, it is possible to check the photographic data recorded on the surveillance camera 400, the state of dirt on the lens, etc.

図2は、汚れ判定システム1の機能ブロック図の一例を示す図である。映像記録装置100は、取得部121を備える。取得部121は、監視カメラ400が撮影した撮影データを取得し、記憶部114に撮影データ122として記憶する。 FIG. 2 is a diagram showing an example of a functional block diagram of the stain determination system 1. The video recording device 100 includes an acquisition section 121. The acquisition unit 121 acquires photographic data taken by the surveillance camera 400 and stores it in the storage unit 114 as photographic data 122.

汚れ判定装置200は、取得部131と、抽出部132と、正規化部133と、推定部141と、モデル生成部134と、判定部143と、予測部145、通知部144とを備える。 The dirt determination device 200 includes an acquisition section 131, an extraction section 132, a normalization section 133, an estimation section 141, a model generation section 134, a determination section 143, a prediction section 145, and a notification section 144.

これらの一連の処理により、汚れ判定装置200は、監視カメラ400が撮影した撮影データ122を用いて、学習済モデル135を生成する。また、監視カメラ400が撮影した撮影データ122を取得し、最終的には、端末300に対して汚れの判定結果を通知する。 Through these series of processes, the dirt determination device 200 generates the learned model 135 using the photographic data 122 photographed by the surveillance camera 400. It also acquires photographic data 122 photographed by the surveillance camera 400, and finally notifies the terminal 300 of the dirt determination result.

端末300では、汚れ判定装置200によって通知された判定結果を確認することができる。記憶部214は、モデル生成部134が生成した学習済モデル135および推定部141が生成した推定結果142を記憶する。以下、フローチャート等を用いて処理の流れを説明する。 At the terminal 300, the determination result notified by the dirt determination device 200 can be confirmed. The storage unit 214 stores the trained model 135 generated by the model generation unit 134 and the estimation result 142 generated by the estimation unit 141. The flow of processing will be explained below using flowcharts and the like.

[第1処理のフローチャート]
汚れ判定装置200は、第1モードと第2モードとを含む実行モードを設定可能である。判定部143は、第1モードが設定されている場合は、時間T1ごとに判定を行う。判定部143は、第2モードが設定されている場合は、時間T1よりも長い時間T2ごとに判定を行う。本実施の形態においては、時間T1=10分であり、時間T2=1日である。
[Flowchart of first process]
The dirt determination device 200 can set execution modes including a first mode and a second mode. The determination unit 143 performs determination at every time T1 when the first mode is set. When the second mode is set, the determination unit 143 performs determination every time T2, which is longer than time T1. In this embodiment, time T1=10 minutes and time T2=1 day.

具体的には、汚れ判定装置200は、第1モードが設定されている場合は、第1処理を起動し、第2モードが設定されている場合は、第2処理を起動する。本実施の形態においては、第1モードおよび第2モードのいずれもが設定されているとする。 Specifically, the dirt determination device 200 starts the first process when the first mode is set, and starts the second process when the second mode is set. In this embodiment, it is assumed that both the first mode and the second mode are set.

図3は、汚れ判定装置200が実行する第1処理のフローチャートである。第1処理は、時間T1の周期で汚れを判定する処理である。以下、「ステップ」を単に「S」とも称する。 FIG. 3 is a flowchart of the first process executed by the stain determination device 200. The first process is a process of determining dirt at a period of time T1. Hereinafter, the "step" will also be simply referred to as "S".

図3に示すように、第1処理が開始すると、S11において、汚れ判定装置200は、時間T1が経過した否かを判定する。汚れ判定装置200は、時間T1が経過したと判定した場合(S11でYES)、S12に処理を進める。汚れ判定装置200は、時間T1が経過したと判定しなかった場合(S11でNO)、処理をS11に戻す。 As shown in FIG. 3, when the first process starts, in S11, the stain determination device 200 determines whether or not time T1 has elapsed. When the stain determination device 200 determines that the time T1 has elapsed (YES in S11), the process proceeds to S12. When the stain determination device 200 does not determine that the time T1 has elapsed (NO in S11), the process returns to S11.

S12において、汚れ判定装置200は、判定処理(図4参照)を行う。判定処理は、監視カメラ400で撮影された撮影データ122に基づき、監視カメラ400のレンズの汚れ状態を判定する処理である。 In S12, the stain determination device 200 performs determination processing (see FIG. 4). The determination process is a process of determining the dirt status of the lens of the surveillance camera 400 based on the photographic data 122 photographed by the surveillance camera 400.

S13において、通知部144は、判定部143の判定結果を端末300に通知し、処理をS11に戻す。このように、第1処理は、時間T1が経過するごとに判定処理を行う。 In S13, the notification unit 144 notifies the terminal 300 of the determination result of the determination unit 143, and returns the process to S11. In this way, in the first process, the determination process is performed every time the time T1 elapses.

図4は、汚れ判定装置200が実行する判定処理のフローチャートである。図4に示すように、判定処理が開始すると、S21において、取得部131は、監視カメラ400で撮影された撮影データ122を取得し、処理をS22に進める。撮影データ122は、エレベーターのかご401内が撮影されたデータである。 FIG. 4 is a flowchart of the determination process executed by the stain determination device 200. As shown in FIG. 4, when the determination process starts, in S21, the acquisition unit 131 acquires the photographic data 122 photographed by the surveillance camera 400, and advances the process to S22. The photographic data 122 is data obtained by photographing the inside of the elevator car 401.

S22において、抽出部132は、取得された撮影データ122の特徴量を抽出し、処理をS23に進める。S23において、正規化部133は、抽出された特徴量を正規化し、処理をS24に進める。抽出部132および正規化部133の処理は、図5を用いて後述する学習時の処理と同様である。 In S22, the extraction unit 132 extracts the feature amount of the acquired photographic data 122, and advances the process to S23. In S23, the normalization unit 133 normalizes the extracted feature amount, and advances the process to S24. The processing of the extraction unit 132 and the normalization unit 133 is similar to the processing during learning, which will be described later with reference to FIG.

推定部141は、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力する。汚れ度合は、監視カメラ400のレンズがどの程度汚れているかを、0~1の数値を用いて示したものである。 The estimation unit 141 inputs information based on the extracted feature amounts to the learned model 135 and outputs the degree of dirt on the lens of the surveillance camera 400. The degree of dirtiness indicates how dirty the lens of the surveillance camera 400 is using a numerical value between 0 and 1.

具体的には、S24において、推定部141は、抽出された特徴量に基づく情報として、正規化されたデータを、記憶部214が記憶する全ての学習済モデル135(後述する図5の学習済モデルA~E等)に入力し、それぞれ汚れ度合を出力し、処理をS25に進める。S25において、推定部141は、出力された全ての汚れ度合のうち、最も小さい汚れ度合を選択し、処理をS26に進める。 Specifically, in S24, the estimation unit 141 uses the normalized data as information based on the extracted feature amount for all the trained models 135 stored in the storage unit 214 (the trained models 135 in FIG. (Models A to E, etc.), the degree of contamination is output for each, and the process proceeds to S25. In S25, the estimation unit 141 selects the smallest degree of contamination among all the output degrees of contamination, and advances the process to S26.

このように、推定部141は、汚れ度合の出力結果に基づき、全ての学習済モデル135(学習済モデルA~E等)のうちのいずれかのモデルを選択している。具体的には、推定部141は、複数のモデルのうち、出力結果が最も小さくなるモデルを選択している。詳細は図5を用いて後述するが、その理由は、出力結果(汚れ度合)が最も小さくなるモデルが、最適なモデルであると考えられるからである。 In this way, the estimation unit 141 selects one of all the learned models 135 (learned models A to E, etc.) based on the output result of the degree of contamination. Specifically, the estimating unit 141 selects the model with the smallest output result from among the plurality of models. The details will be described later using FIG. 5, but the reason is that the model that provides the smallest output result (degree of contamination) is considered to be the optimal model.

判定部143は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間(たとえば、8分)が経過するまでに汚れ度合が閾値未満になった場合に、汚れ有状態であると判定する(以下のS26~S28)。 The determining unit 143 determines that dirt is present when the dirt degree becomes equal to or greater than the threshold value and becomes less than the threshold value before a predetermined time (e.g., 8 minutes) elapses after the dirt degree becomes equal to or greater than the threshold value. (S26 to S28 below).

詳細については、具体例も含めて図6~図10を用いて後述するが、本実施の形態においては、汚れとは無関係な要素が「汚れ」として誤検出されることがある。これらの要素は、時間の経過とともに検出されなくなることが想定されるため、所定時間が経過するまでの汚れ度合の推移を確認するようにしている。 Details will be described later with reference to FIGS. 6 to 10, including specific examples, but in this embodiment, elements unrelated to dirt may be erroneously detected as "stain". Since it is assumed that these elements become undetectable over time, the change in the degree of contamination is checked until a predetermined period of time has elapsed.

ここで、「閾値」は、汚れ度合に関して事前に設定された閾値であり、本実施の形態においては、「0.3」が設定されている。また、「汚れ有状態」は、監視カメラ400のレンズに一定の汚れがある状態であり、具体的には、汚れ度合が閾値以上となった状態を指す。 Here, the "threshold value" is a threshold value set in advance regarding the degree of contamination, and in this embodiment, "0.3" is set. Moreover, the "stain state" is a state in which the lens of the surveillance camera 400 has a certain amount of dirt, and specifically refers to a state in which the degree of dirt is equal to or higher than a threshold value.

S26において、推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないか否かを判定する。 In S26, the estimating unit 141 determines whether the degree of contamination becomes equal to or greater than the threshold value and whether the degree of contamination does not become less than the threshold value even after a predetermined period of time has elapsed since the degree of contamination became equal to or greater than the threshold value.

具体的には、汚れ度合が閾値以上である場合には、所定期間(8分)が経過するまで、特定時間(たとえば、30秒)ごとS21~S25のステップを繰り返す。そして、所定期間(8分)が経過するまでに得られた汚れ度合のうち、最も小さいものを正しい汚れ度合として選択する。S26においては、正しい汚れ度合として選択された値が閾値未満にならないか否かを判定している。 Specifically, if the degree of contamination is equal to or greater than the threshold value, steps S21 to S25 are repeated at specific time intervals (for example, 30 seconds) until a predetermined time period (8 minutes) has elapsed. Then, among the degrees of contamination obtained before a predetermined period (8 minutes) has elapsed, the smallest degree of contamination is selected as the correct degree of contamination. In S26, it is determined whether the value selected as the correct degree of dirt is less than a threshold value.

推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないと判定した場合(S26でYES)は、処理をS27に進める。S27において、判定部143は、汚れ有状態であると判定し、判定処理を終了する。 If the estimation unit 141 determines that the degree of contamination is equal to or greater than the threshold value and that the degree of contamination does not become less than the threshold value even after a predetermined time has elapsed since the degree of contamination exceeded the threshold value (YES in S26), the estimation unit 141 performs processing. Proceed to S27. In S27, the determination unit 143 determines that there is dirt, and ends the determination process.

推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないと判定しなかった(つまり、所定時間が経過するまでに汚れ度合が閾値未満になったと判定した)場合(S26でNO)は、処理をS28に進める。S28において、判定部143は、汚れ有状態でないと判定し、判定処理を終了する。 The estimating unit 141 did not determine that the degree of contamination is equal to or greater than the threshold value, and that the degree of contamination does not become less than the threshold value even after a predetermined period of time has passed since the degree of contamination has exceeded the threshold value (that is, the degree of contamination does not become less than the threshold value even after the degree of contamination has exceeded the threshold value). (NO in S26), the process advances to S28. In S28, the determination unit 143 determines that there is no dirt, and ends the determination process.

端末300で、汚れ有状態であることを確認したエレベーターの保守員あるいはビルの管理者は、監視カメラ400のレンズに付着した汚れを取り除くよう清掃する。 After confirming that there is dirt on the terminal 300, the elevator maintenance worker or the building manager cleans the lens of the surveillance camera 400 to remove the dirt attached thereto.

[学習済モデル]
図5は、各種学習済モデルを説明するための図である。学習済モデル135は、特徴量に基づく情報が入力された際に、汚れ度合を出力するために学習処理が行われたモデルである。
[Trained model]
FIG. 5 is a diagram for explaining various learned models. The learned model 135 is a model that has been subjected to a learning process to output the degree of contamination when information based on the feature amount is input.

図5に示すように、学習済モデル135は、学習済モデルA~E等を含む。学習済モデルA~E等の各々は、複数の撮影環境のいずれかで撮影された撮影データ122群を用いて学習処理が行われたモデルである。 As shown in FIG. 5, the trained models 135 include trained models A to E and the like. Each of the trained models A to E, etc. is a model that has been subjected to learning processing using a group of photographic data 122 photographed in any of a plurality of photographing environments.

学習済モデルAは、撮影環境として朝に撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルBは、撮影環境として昼に撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルCは、撮影環境として夜に撮影された撮影データ122群を用いて学習処理が行われたモデルである。朝と昼と夜とでは、光の入り具合によってかご401内の明るさがそれぞれ異なる。 The trained model A is a model in which learning processing has been performed using 122 groups of photographic data taken in the morning as a photographing environment. The trained model B is a model in which learning processing has been performed using 122 groups of photographic data taken in the daytime as a photographing environment. The learned model C is a model in which a learning process is performed using 122 groups of photographic data taken at night as a photographing environment. The brightness inside the car 401 differs in the morning, noon, and night depending on the amount of light entering.

学習済モデルDは、撮影環境としてかご401の扉が開いた状態(戸開状態)で撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルEは、撮影環境としてかご401の扉が閉じた状態(戸閉状態)で撮影された撮影データ122群を用いて学習処理が行われたモデルである。 The trained model D is a model in which a learning process is performed using a group of photographic data 122 photographed with the door of the car 401 open (door open state) as a photographic environment. The trained model E is a model in which a learning process is performed using a group of photographic data 122 photographed with the door of the car 401 closed (door closed state) as a photographic environment.

本実施の形態においては、予め汚れ度合が判定されている撮影データのセット(撮影データ群)を用いて学習処理を行う。取得部131は、予め汚れ度合が判定されている撮影データ122を学習データとして取得する。 In this embodiment, learning processing is performed using a set of photographic data (a group of photographic data) whose degree of contamination has been determined in advance. The acquisition unit 131 acquires photographed data 122 whose degree of contamination has been determined in advance as learning data.

その際、たとえば、学習済モデルD(戸開状態)を生成する場合、予め汚れ度合が判定されており、かつ、戸開状態で撮影された撮影データ122を学習データとして取得する。学習処理のための撮影データ122は、汚れ度合と撮影環境とを事前に紐付けた上で、教師用データとして記憶部114に記憶させておけばよい。 At this time, for example, when generating the learned model D (door open state), the degree of dirt has been determined in advance and photographic data 122 taken with the door open is acquired as learning data. The photographic data 122 for learning processing may be stored in the storage unit 114 as teacher data after linking the degree of dirt and the photographing environment in advance.

次に、抽出部132は、取得した撮影データ122の特徴量を抽出する。たとえば、撮影データ122の色の特性に基づき特徴量を抽出してもよい。撮影データ122がカラー画像の場合、1画素毎に色の特性データを持っている。具体的には、彩度、明度、色相等がある。また、撮影データ全体としては、配色、ばらつき、構造等がある。これらの色の特性を組み合わせることで、汚れ度合が低い場合と汚れ度合が高い場合とで差が現れる特徴量を抽出する。汚れ度合が高い場合は、レンズに付着している汚れの画像(汚れ部分の撮影領域)は黒色、つまり明るさが低下すると推測される。したがって、汚れが付着していない場合と比較すると特徴量が大きく異なってくると考えられる。このように、汚れ度合が高い場合に差異が現れるように特徴量を抽出すればよい。 Next, the extraction unit 132 extracts the feature amount of the acquired photographic data 122. For example, the feature amount may be extracted based on the color characteristics of the photographic data 122. When the photographic data 122 is a color image, each pixel has color characteristic data. Specifically, there are saturation, brightness, hue, etc. In addition, the overall photographic data includes color scheme, variation, structure, etc. By combining these color characteristics, feature amounts that show a difference between a low degree of contamination and a high degree of contamination are extracted. If the degree of contamination is high, it is assumed that the image of the contamination attached to the lens (the photographed area of the contamination portion) will be black, that is, the brightness will be reduced. Therefore, it is thought that the feature amount will be significantly different compared to the case where no dirt is attached. In this way, feature amounts may be extracted such that differences appear when the degree of contamination is high.

次に、正規化部133は、抽出部132が抽出した特徴量を正規化する。モデル生成部134は、正規化された撮影データ122と紐付けられた汚れ度合とに基づき学習処理を行って、学習済モデルを生成する。 Next, the normalization unit 133 normalizes the feature amount extracted by the extraction unit 132. The model generation unit 134 performs a learning process based on the normalized photographic data 122 and the linked degree of dirt to generate a learned model.

判定対象となる撮影データの撮影環境と、学習済モデルの撮影環境とが近い場合、判定部143の判定精度が高くなることが期待できる。たとえば、図7のように、取得された撮影データが戸開状態で撮影されたものであれば、戸開状態で撮影された撮影データ122群を用いて学習処理が行われた学習済モデルDを用いると、より判定精度が高くなることが期待できる。 If the shooting environment of the shooting data to be determined is close to the shooting environment of the learned model, it can be expected that the judgment accuracy of the judgment unit 143 will be high. For example, as shown in FIG. 7, if the acquired photographic data was photographed with the door open, then the learned model D is subjected to learning processing using 122 groups of photographic data photographed with the door open. By using , it can be expected that the determination accuracy will be higher.

そして、算出された汚れ度合が最も小さくなるモデルが、判定部143の判定精度が最も高いモデルであることが期待できる。たとえば、戸開状態で撮影された撮影データと、戸閉状態での撮影データを用いた学習済モデルEとでは、扉の状態が異なることにより、その分が汚れ度合として誤検知される可能性が高い。これに対して、戸開状態で撮影された撮影データと、同じく戸開状態での撮影データを用いた学習済モデルDとでは、扉の状態が同じであるため、扉の領域において汚れ度合として誤検知される可能性が低くなる。 It can be expected that the model for which the calculated degree of contamination is the smallest is the model for which the determination unit 143 has the highest determination accuracy. For example, because the condition of the door is different between photographic data taken with the door open and trained model E using photographic data with the door closed, there is a possibility that the degree of dirt will be incorrectly detected. is high. On the other hand, since the door condition is the same between photographic data taken with the door open and trained model D that also uses photographic data with the door open, the degree of dirt in the door area is Less chance of false positives.

このため、上述のように、推定部141は、全ての学習済モデル135(学習済モデルA~E等)を用いて、それぞれの汚れ度合を出力する。そして、汚れ度合が最も小さくなるモデルを最適なモデルとして選択している(最も小さい汚れ度合が、正しい汚れ度合であると判断している)。 Therefore, as described above, the estimation unit 141 uses all the learned models 135 (learned models A to E, etc.) and outputs the degree of dirt for each. Then, the model with the smallest degree of contamination is selected as the optimal model (the lowest degree of contamination is determined to be the correct degree of contamination).

なお、学習済モデルは、上記学習済モデルA~Eに限らず、乗客が乗車した状態で学習処理が行われたモデルや、複数の撮影環境が組み合わされた環境で学習処理が行われたモデルを含んでもよい。また、1つの学習済モデルのみを用いて推定部141により汚れ度合を出力させるようにしてもよい。この場合、学習処理が簡易になる。 Note that the trained models are not limited to the trained models A to E above, but also include models in which learning processing was performed with a passenger on board, and models in which learning processing was performed in an environment in which multiple shooting environments were combined. May include. Alternatively, the estimation unit 141 may output the degree of contamination using only one learned model. In this case, the learning process becomes simple.

なお、画像中の類似する領域をひとまとまりとして分割されるようにしてもよい。この場合、推定部141は、分割された領域ごとに汚れ度合を出力するようにする。推定部141は、領域ごとに、「汚れ度合」×「画像全体のうち分割された領域が占める割合」を算出し、これらを合算して「汚れ度合」として算出する。 Note that similar regions in the image may be divided as a group. In this case, the estimation unit 141 outputs the degree of contamination for each divided area. The estimating unit 141 calculates, for each area, "stain level" x "proportion occupied by the divided area in the entire image", and adds these together to calculate the "stain level".

[汚れ度合の時間変化]
図6は、レンズの汚れ度合の時間変化を説明するための図である。図6において、縦軸は、汚れ度合を示す。横軸は、時間を示す。
[Time change in degree of contamination]
FIG. 6 is a diagram for explaining the change over time in the degree of contamination of the lens. In FIG. 6, the vertical axis indicates the degree of contamination. The horizontal axis indicates time.

図6に示すように、レンズが全く汚れていない場合(「正常時」とも称する)の汚れ度合は0である。閾値は、0.3である。 As shown in FIG. 6, when the lens is not dirty at all (also referred to as "normal time"), the degree of dirt is 0. The threshold value is 0.3.

時刻t1(場面1)おいて、汚れ度合は0である。その後、汚れ度合が急上昇し0.9になった時刻t2が場面2である。このとき、汚れ度合は、閾値(0.3)以上になっている。その後、汚れ度合が急激に下がり、0.1になった時刻t3が場面3である。このとき、汚れ度合(0.1)は、閾値(0.3)を下回っている。このような場合、汚れ有状態ではないと判断される。 At time t1 (scene 1), the degree of contamination is 0. After that, scene 2 occurs at time t2 when the degree of contamination rapidly increases to 0.9. At this time, the degree of contamination is equal to or higher than the threshold value (0.3). After that, scene 3 occurs at time t3 when the degree of contamination rapidly decreases to 0.1. At this time, the degree of contamination (0.1) is below the threshold value (0.3). In such a case, it is determined that there is no dirt.

次に、汚れ度合が急上昇して0.8になった時刻t4が場面4である。このとき、汚れ度合(0.8)は、閾値(0.3)以上になっている。その後、汚れ度合が急激に下がり、0.4になった時刻t5が場面5である。このとき、汚れ度合(0.4)は、閾値(0.3)以上になったままである。このような場合、汚れ有状態であると判断される。 Next, scene 4 occurs at time t4 when the degree of contamination rapidly increases to 0.8. At this time, the degree of contamination (0.8) is equal to or higher than the threshold value (0.3). After that, scene 5 occurs at time t5 when the degree of contamination rapidly decreases to 0.4. At this time, the degree of contamination (0.4) remains equal to or higher than the threshold value (0.3). In such a case, it is determined that there is dirt.

以下、場面1~5の状況をかご401内を撮影した画像を用いて説明する。図7~図11は、かご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。 Below, the situations of scenes 1 to 5 will be explained using images taken inside the car 401. 7 to 11 are diagrams for explaining the relationship between images taken inside the car 401 and the degree of dirt.

場面1では、図7に示すように、かご401内を撮影した画像80a(撮影データ)において、出入口51は、かご401の扉が開いた状態(戸開状態)である。かご401内には、乗客はいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合=0が出力されている。 In scene 1, as shown in FIG. 7, in an image 80a (photographed data) of the inside of the car 401, the door of the car 401 is in an open state (door open state) at the entrance 51. There are no passengers in the car 401. Furthermore, there is no dirt attached to the lens of the surveillance camera 400, and the dirt degree=0 is output.

場面2では、図8に示すように、かご401内を撮影した画像80bにおいて、かご401内に乗客53が4人乗り込み、出入口51はかご401の扉が閉じた状態(戸閉状態)になっている。また、レンズには汚れが付着している。このとき、汚れ度合=0.9に上がっている。 In scene 2, as shown in FIG. 8, in an image 80b taken inside the car 401, four passengers 53 get into the car 401, and the door 51 of the car 401 is in a closed state (door closed state). ing. Also, the lens has dirt attached to it. At this time, the degree of contamination has increased to 0.9.

場面3では、図9に示すように、かご401内を撮影した画像80cにおいて、出入口51の扉が開き(戸開状態)、かご401内の乗客が全員降車している。このとき、レンズの汚れは場面2と同程度付着している。このとき、汚れ度合=0.1に下がっている。 In scene 3, as shown in FIG. 9, in an image 80c taken of the inside of the car 401, the door of the entrance 51 is open (door open state), and all passengers in the car 401 are getting off the car. At this time, the lens is contaminated to the same extent as in Scene 2. At this time, the degree of contamination has decreased to 0.1.

場面1および場面3においては、いずれも戸開状態かつ乗客=0人である。場面1と場面3との画像の違いは、レンズについた汚れのみであるため、汚れ度合=0.1は、純粋にレンズの汚れのみによるものと考えられる。 In both scenes 1 and 3, the door is open and there are no passengers. Since the difference between the images of Scene 1 and Scene 3 is only the dirt on the lens, it is considered that the dirt degree = 0.1 is purely due to the dirt on the lens.

一方で、場面2と場面3とでは、レンズに汚れがついている点は同じであるものの、場面2において戸閉状態かつ乗客=4人である点で異なる。このため、場面2で汚れ度合=0.9であるのは、レンズの汚れに加えて、かご401の戸開閉状態とかご401内の乗客による誤検知を含むものと考えられる。 On the other hand, scenes 2 and 3 are the same in that the lenses are dirty, but they differ in that in scene 2 the door is closed and there are four passengers. Therefore, the reason why the degree of contamination is 0.9 in scene 2 is considered to include not only the contamination of the lens but also the open/closed state of the door of the car 401 and the false detection caused by the passenger inside the car 401.

以上のように、本実施の形態においては、かご401が戸開状態、乗客=0人、かつ、レンズの汚れなしである場合(場面1)に、汚れ度合=0と算出される。その後、レンズに汚れ度合=0.1の汚れが付着するが、さらに、乗客が4人乗り込み、戸閉状態となることで、汚れ度合が0.9まで上昇する。 As described above, in this embodiment, when the car 401 is in an open state, there are 0 passengers, and the lenses are not dirty (scene 1), the degree of dirt is calculated to be 0. After that, dirt with a dirt level of 0.1 adheres to the lens, but when four more passengers get on board and the door is closed, the dirt level increases to 0.9.

この場合、汚れ度合が閾値(0.3)以上になっているものの、実際には、汚れではなく、戸閉状態となり乗客が乗車したことによる画像変化により、汚れ度合が上昇しているだけである。そのため、戸開状態かつ乗客=0人に戻った場面3においては、純粋なレンズの汚れ(汚れ度合=0.1)のみが検知されている。 In this case, although the degree of contamination is higher than the threshold value (0.3), in reality, the degree of contamination is only increasing due to an image change due to the door being closed and a passenger getting on board, rather than due to contamination. be. Therefore, in scene 3 when the door is open and the number of passengers is zero, only pure lens dirt (stain level = 0.1) is detected.

このように、汚れ度合は、レンズの汚れと、かご401内の積載量(たとえば、乗車人数)と、かご401の戸開閉状態との少なくともいずれかに応じて変化する。このため、本実施の形態においては、推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過するまでに汚れ度合が閾値未満になったと判定した場合には、汚れ有状態でないと判定している(S26,S28)。なお、汚れ度合が変化する各種要因について、図15を用いてより詳しく説明する。 In this way, the degree of contamination changes depending on at least one of the contamination of the lens, the load inside the car 401 (for example, the number of passengers), and the open/closed state of the door of the car 401. Therefore, in the present embodiment, the estimation unit 141 determines that the degree of contamination becomes equal to or greater than the threshold value, and that the degree of contamination becomes less than the threshold value by the time a predetermined time elapses after the degree of contamination becomes equal to or greater than the threshold value. If so, it is determined that there is no dirt (S26, S28). Note that various factors that cause the degree of contamination to change will be explained in more detail using FIG. 15.

次に、場面4では、図10に示すように、かご401内を撮影した画像80dにおいて、かご401内に乗客53が2人乗り込み、戸閉状態になっている。さらに、乗客53のいたずらにより、監視カメラ400のレンズの左下が汚されている。このとき、汚れ度合は0.8に上がっている。 Next, in scene 4, as shown in FIG. 10, in an image 80d taken inside the car 401, two passengers 53 are in the car 401, and the door is closed. Furthermore, the lower left corner of the lens of the surveillance camera 400 has been soiled due to a prank by the passenger 53. At this time, the degree of contamination has increased to 0.8.

場面5では、図11に示すように、かご401内を撮影した画像80eにおいて、戸開状態となり、かご401内の乗客が全員降車している。このとき、汚れ度合=0.4に下がっている。 In scene 5, as shown in FIG. 11, in an image 80e of the interior of the car 401, the door is open and all passengers in the car 401 have exited the car. At this time, the degree of contamination has decreased to 0.4.

場面3および場面5においては、いずれも戸開状態かつ乗客=0人である。場面3と場面5との画像の違いは、乗客53がいたずらでつけたレンズの左下の汚れのみである。これにより、汚れ度合は0.1から0.4に上昇しており、閾値(0.3)を超えている。 In both scenes 3 and 5, the door is open and there are no passengers. The only difference between the images of Scene 3 and Scene 5 is the dirt on the lower left of the lens, which was added as a prank by passenger 53. As a result, the degree of contamination has increased from 0.1 to 0.4, which exceeds the threshold (0.3).

一方で、場面4と場面5とでは、レンズに汚れがついている点は同じであるものの、場面4において戸閉状態かつ乗客=2人である点で異なる。このため、場面4で汚れ度合=0.8であるのは、レンズの汚れに加えて、かご401の戸開閉状態とかご401内の乗客による誤検知を含むものと考えられる。 On the other hand, scenes 4 and 5 are the same in that the lenses are dirty, but they differ in that in scene 4 the door is closed and there are two passengers. Therefore, the reason why the degree of contamination is 0.8 in scene 4 is considered to include not only the contamination of the lens but also the open/closed state of the door of the car 401 and the false detection caused by the passenger inside the car 401.

このように、戸開状態、乗客=0人、かつ、レンズの汚れありである場合(場面3)に、汚れ度合=0.1と算出されている。その後、乗客が2人乗り込み、戸閉状態となり、いたずらによるレンズの汚れで、汚れ度合が0.8まで上昇する。 In this way, when the door is open, there are no passengers, and the lens is dirty (scene 3), the degree of dirt is calculated to be 0.1. After that, two passengers boarded the vehicle, the door was closed, and the lens became dirty due to mischief, increasing the degree of contamination to 0.8.

この場合、汚れ度合が閾値(0.3)を超えているが、戸閉状態となり乗客が乗車したことによる画像変化による汚れ度合の上昇分も含まれる。そのため、戸開状態かつ乗客=0人に戻った場面5において、純粋なレンズの汚れ(汚れ度合=0.4)のみが検知される。そして、この場合においても、汚れ度合(0.4)が閾値(0.3)未満とならないため、汚れ有状態であると判定される。 In this case, the degree of contamination exceeds the threshold value (0.3), but it also includes an increase in the degree of contamination due to an image change caused by the door being closed and a passenger getting on board. Therefore, in scene 5 when the door is open and the number of passengers is zero, only pure lens dirt (stain level = 0.4) is detected. Also in this case, since the degree of contamination (0.4) does not become less than the threshold value (0.3), it is determined that there is contamination.

このように、判定部143は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、汚れ有状態であると判定している(S26,S27)。 In this way, the determining unit 143 determines that the dirt presence state is present when the dirt degree is equal to or greater than the threshold and the dirt degree does not become less than the threshold even after a predetermined time has elapsed since the dirt degree became equal to or greater than the threshold. It is determined that (S26, S27).

ここで、学習済モデルを用いて汚れ度合を推定しようとした場合、汚れ以外の要素(たとえば、戸開閉状態や乗客)による誤検知(値が大きくなってしまうこと)が発生する可能性がある。この場合、汚れと汚れ以外の要素を区別可能にするために、より精度の高い学習処理を行うことで、汚れ度合の推定精度を高めることが考えられる。そのためには、汚れ以外の要素を排除した状態での学習データを増やして学習の精度を高めることが考えられる。しかしながら、このような状態の発生確率が低い場合、学習データを収集することが困難であり、推定精度を上げることが難しくなる。 If you try to estimate the degree of dirt using a trained model, there is a possibility that false detections (increasing values) may occur due to factors other than dirt (for example, door opening/closing status or passengers). . In this case, in order to be able to distinguish between dirt and factors other than dirt, it is possible to improve the accuracy of estimating the degree of dirt by performing a more accurate learning process. To this end, it is possible to improve the accuracy of learning by increasing the amount of learning data with elements other than dirt removed. However, when the probability of occurrence of such a state is low, it is difficult to collect learning data and it becomes difficult to improve estimation accuracy.

このため、本実施の形態においては、学習済モデルによる推定以外の手法も併用して、汚れ以外の要素を除外し、これにより汚れ度合の推定精度を高めた。上述したように、「汚れ」による汚れ度合は時間が経過しても減少することはなく、「汚れ以外の要素」による汚れ度合は時間の経過とともに減少する。たとえば、汚れ以外の要素である「戸開閉状態」は時間の経過とともに戸開状態に戻り、乗客は時間の経過とともに0人に戻る。このように、汚れ以外の要素により閾値以上となるケースが発生する。このため、所定期間待つことで汚れ以外の要素による誤検出を減少させ、極力、汚れのみによる汚れ度合が検出できるように構成した。このようにすることで、学習データを追加することなく、汚れ有状態であるか否かを精度よく判定することができる。 For this reason, in the present embodiment, a method other than estimation using the trained model is also used to exclude factors other than dirt, thereby increasing the accuracy of estimating the degree of dirt. As described above, the degree of contamination due to "dirt" does not decrease over time, and the degree of contamination due to "elements other than contamination" decreases over time. For example, the "door open/closed state", which is a factor other than dirt, returns to the door open state over time, and the number of passengers returns to zero over time. In this way, cases occur where the threshold value is exceeded due to factors other than dirt. Therefore, by waiting for a predetermined period of time, false detections due to factors other than dirt are reduced, and the system is configured to detect the degree of dirt only due to dirt as much as possible. By doing so, it is possible to accurately determine whether or not there is dirt without adding learning data.

次に、第1処理および第2処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明する。図12は、第1処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。 Next, the relationship between the images taken inside the car 401 and the degree of dirt in the first process and the second process will be described. FIG. 12 is a diagram for explaining the relationship between the image taken inside the car 401 and the degree of dirt in the first process.

第1処理においては、図3,図4のフローチャートを用いて説明したように、T1(10分)ごとに判定処理を行う。これに対して、第2処理においては、図14のフローチャートを用いて後述するようにT2(1日)ごとに判定処理を行う。 In the first process, as explained using the flowcharts of FIGS. 3 and 4, the determination process is performed every T1 (10 minutes). On the other hand, in the second process, the determination process is performed every T2 (one day) as described later using the flowchart of FIG.

まず、第1処理において10分ごとに判定処理を行う例について説明する。図12に示すように、画像80jにおいて、出入口51は戸閉状態であり、かご401内には乗客53がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合は0である。 First, an example in which the determination process is performed every 10 minutes in the first process will be described. As shown in FIG. 12, in the image 80j, the doorway 51 is in a closed state, and there is no passenger 53 inside the car 401. Furthermore, there is no dirt attached to the lens of the surveillance camera 400, and the degree of dirt is 0.

この状態以降、10分ごとに判定処理が行われる。その際、汚れ度合が閾値以上と判定された場合は、所定時間が経過しても閾値以上であるか否かが判断される。図6~図11を用いて説明したように、場面2(t2)のように汚れ度合が閾値以上であると判断された場合であっても、所定時間が経過するまでの場面3(t3)において、汚れ度合が閾値未満になっている場合は、汚れ有状態ではないと判断される。 After this state, determination processing is performed every 10 minutes. At that time, if it is determined that the degree of contamination is equal to or greater than the threshold value, it is determined whether or not the degree of contamination remains equal to or greater than the threshold value even after a predetermined period of time has elapsed. As explained using FIGS. 6 to 11, even if it is determined that the degree of contamination is equal to or higher than the threshold value as in scene 2 (t2), scene 3 (t3) until the predetermined time elapses. If the degree of contamination is less than the threshold value, it is determined that there is no contamination.

一方、場面4(t4)のように汚れ度合が閾値以上であると判断された場合であって、所定時間が経過しても、場面3(t5)において汚れ度合が閾値以上のままであるので、汚れ有状態であると判断される。 On the other hand, in the case where the degree of contamination is determined to be equal to or higher than the threshold value as in scene 4 (t4), the degree of contamination remains equal to or greater than the threshold value in scene 3 (t5) even after the predetermined time has elapsed. , it is determined that there is dirt.

画像80jの状態において、たとえば、乗客のいたずらによって監視カメラ400のレンズが汚されたとする。画像80jの状態から10分が経過した状態が画像80kである。画像80kにおいて、出入口51は戸閉状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズの右側には汚れが付着しており、汚れ度合は0.4になっている。この場合、汚れ度合が閾値(0.3)以上であるため、汚れ有状態であると判断される。 In the state of the image 80j, for example, suppose that the lens of the surveillance camera 400 is dirty due to a prank by a passenger. An image 80k is a state 10 minutes have passed since the state of the image 80j. In the image 80k, the doorway 51 is in a closed state, and there is no passenger 53 inside the car 401. However, there is dirt on the right side of the lens of the surveillance camera 400, and the dirt level is 0.4. In this case, since the degree of contamination is equal to or greater than the threshold value (0.3), it is determined that there is contamination.

このように、第1処理においては、10分ごとに判定処理を行うため、いたずらによってレンズが汚された場合のような、突発的な汚れを検出することができる。 In this way, in the first process, since the determination process is performed every 10 minutes, it is possible to detect sudden stains such as when the lens is dirty due to a prank.

次に、第2処理において1日ごとに判定処理を行う例について説明する。図13は、第2処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。図13に示すように、画像80fにおいて、出入口51は戸開状態であり、かご401内には乗客53がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合は0である。 Next, an example in which the determination process is performed every day in the second process will be described. FIG. 13 is a diagram for explaining the relationship between the image taken inside the car 401 and the degree of dirt in the second process. As shown in FIG. 13, in the image 80f, the doorway 51 is in an open state, and there is no passenger 53 inside the car 401. Furthermore, there is no dirt attached to the lens of the surveillance camera 400, and the degree of dirt is 0.

1日ごとに判定処理が実行され、画像80fの状態から30日が経過した(30回の判定処理が行われた)状態が画像80gである。画像80gにおいても、出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズには汚れが付着しており、汚れ度合は0.1になっている。 The determination process is executed every day, and the image 80g is the state in which 30 days have passed (the determination process has been performed 30 times) from the state of the image 80f. Also in the image 80g, the doorway 51 is in an open state, and there is no passenger 53 inside the car 401. However, the lens of the surveillance camera 400 is contaminated, and the degree of contamination is 0.1.

なお、判定処理が実行されるタイミングにおいて、乗客がおり、これにより閾値以上となる場合には、所定期間内に汚れ度合が閾値未満になるかが判定される。本例では、乗客が降車したタイミングで、汚れ度合は0.1まで低下する。 Note that, if there is a passenger at the timing when the determination process is executed and the level becomes equal to or higher than the threshold value, it is determined whether the degree of contamination becomes less than the threshold value within a predetermined period of time. In this example, the degree of contamination decreases to 0.1 at the timing when the passenger gets off the vehicle.

画像80gの状態から30日が経過した(30回の判定処理が行われた)状態が画像80hである。画像80fの状態から数えると、60日が経過している。画像80hにおいて、も出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズにはさらに汚れが蓄積されており、汚れ度合は0.2になっている。 An image 80h is a state in which 30 days have passed since the state of the image 80g (30 determination processes have been performed). Counting from the state of image 80f, 60 days have passed. In the image 80h, the doorway 51 is in an open state, and there is no passenger 53 inside the car 401. However, more dirt has accumulated on the lens of the surveillance camera 400, and the dirt level is 0.2.

画像80hの状態から30日が経過した状態(30回の判定処理が行われた)が画像80iである。画像80fの状態から数えると、90日が経過している。画像80gにおいても、出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズにはさらに汚れが蓄積されており、汚れ度合は0.3になっている。この場合、汚れ度合が閾値に到達しているので、汚れ有状態であると判断される。 The image 80i is a state in which 30 days have passed since the state of the image 80h (30 determination processes have been performed). Counting from the state of image 80f, 90 days have passed. Also in the image 80g, the doorway 51 is in an open state, and there is no passenger 53 inside the car 401. However, more dirt has accumulated on the lens of the surveillance camera 400, and the dirt level is 0.3. In this case, since the degree of contamination has reached the threshold value, it is determined that there is contamination.

画像80f~80iによれば、汚れ度合は、30日ごとに0.1ずつ増加している。このため、たとえば、0日~60日までの汚れ度合の経時変化から、さらに30日後の90日後には、汚れ度合が閾値に到達することを予測することができる。これにより、保守員は、レンズのクリーニングをすべき時期を知ることができる。以下、第2処理について、フローチャートを用いて説明する。 According to images 80f to 80i, the degree of contamination increases by 0.1 every 30 days. Therefore, for example, based on the change in the degree of contamination over time from day 0 to day 60, it is possible to predict that the degree of contamination will reach the threshold value after another 30 days or 90 days. This allows maintenance personnel to know when to clean the lens. The second process will be explained below using a flowchart.

[第2処理のフローチャート]
上述したように第1処理は、時間T1(10分)の周期で汚れを判定する処理である。これに対して、第2処理は、時間T2(1日)の周期で汚れを判定する。さらに、第2処理は、将来のレンズの汚れを推定する。
[Flowchart of second process]
As described above, the first process is a process of determining dirt at intervals of time T1 (10 minutes). On the other hand, in the second process, dirt is determined at a cycle of time T2 (one day). Furthermore, the second process estimates future lens dirt.

以下、第2処理について説明する。図14は、汚れ判定装置200が実行する第2処理のフローチャートである。 The second process will be explained below. FIG. 14 is a flowchart of the second process executed by the stain determination device 200.

図14に示すように、第2処理が開始すると、S31において、汚れ判定装置200は、時間T2が経過した否かを判定する。汚れ判定装置200は、時間T2が経過したと判定した場合(S31でYES)、S32に処理を進める。汚れ判定装置200は、時間T2が経過したと判定しなかった場合(S31でNO)、処理をS31に戻す。 As shown in FIG. 14, when the second process starts, in S31, the stain determination device 200 determines whether or not time T2 has elapsed. When the stain determination device 200 determines that the time T2 has elapsed (YES in S31), the process proceeds to S32. When the stain determination device 200 does not determine that the time T2 has elapsed (NO in S31), the process returns to S31.

S32において、汚れ判定装置200は、判定処理を行い、処理をS33に進める。つまり、汚れ判定装置200は、時間T2が経過するごとに判定処理等を行う。In S32, the dirt determination device 200 performs a determination process and proceeds to S33. In other words, the dirt determination device 200 performs a determination process, etc., every time the time T2 elapses.

S33において、汚れ判定装置200の予測部145は、汚れ度合いを記憶部214に記憶し、処理をS33に進める。 In S33, the prediction unit 145 of the stain determination device 200 stores the degree of stain in the storage unit 214, and advances the process to S33.

S34において、予測部145は、記憶部214に記憶された汚れ度合いの時系列データに基づき、汚れ有状態であると判定される時期を推定し、処理をS35に進める。 In S34, the prediction unit 145 estimates the time when it is determined that there is dirt based on the time series data of the degree of dirt stored in the storage unit 214, and the process proceeds to S35.

図13を用いて示した例では、0日目は汚れ度合=0である。30日目は汚れ度合=0.1である。60日目は汚れ度合=0.2である。現在、60日目であるとする。記憶部214は、0日目~60日目までの汚れ度合のデータを記憶している。 In the example shown using FIG. 13, the degree of staining is 0 on day 0. On the 30th day, the degree of staining was 0.1. On the 60th day, the degree of staining was 0.2. Assume that it is currently the 60th day. The storage unit 214 stores data on the degree of contamination from day 0 to day 60.

そして、これらのデータによれば、30日ごとに汚れ度合が0.1ずつ増加するため、予測部145は、90日目(30日後)に汚れ度合が閾値である0.3に到達すると予測する。つまり、汚れ有状態であると判定される時期は、30日後であると予測する。 According to these data, the degree of contamination increases by 0.1 every 30 days, so the prediction unit 145 predicts that the degree of contamination will reach the threshold value of 0.3 on the 90th day (30 days later). do. In other words, it is predicted that the time when it will be determined that there is dirt is 30 days later.

たとえば、予測部145は、汚れ度合いの時系列データを用いて、最小自乗法等により予測モデルを生成させてもよい。予測部145は、予測モデルを用いて、汚れ有状態であると判定される時期を予測する。 For example, the prediction unit 145 may generate a prediction model using the least squares method or the like using time-series data on the degree of contamination. The prediction unit 145 uses the prediction model to predict the time when it will be determined that there is dirt.

S35において、通知部144は、判定部143の判定結果および予測部145の推定結果を端末300に送信し、S31に処理を戻す。 In S35, the notification unit 144 transmits the determination result of the determination unit 143 and the estimation result of the prediction unit 145 to the terminal 300, and returns the process to S31.

[汚れ度合が変化する各種要因]
図6~図11等で説明したように、汚れ度合は、「レンズの汚れ」と、「かご401内の積載量」と、「かご401の戸開閉状態」との少なくともいずれかに応じて変化する。ここでは、汚れ度合が変化する各種要因について、図15を用いてより詳しく説明する。
[Various factors that change the degree of contamination]
As explained in FIGS. 6 to 11, the degree of contamination changes depending on at least one of "dirty lenses", "loading amount in the car 401", and "open/closed state of the door of the car 401". do. Here, various factors that cause the degree of contamination to change will be explained in more detail using FIG. 15.

図15は、かご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。図15に示すように、かご401内を撮影した画像80jにおいて、出入口51は戸開状態であり、かご401内には乗客がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合=0が出力されている。 FIG. 15 is a diagram for explaining the relationship between an image taken inside the car 401 and the degree of dirt. As shown in FIG. 15, in an image 80j of the inside of the car 401, the doorway 51 is in an open state, and there are no passengers inside the car 401. Furthermore, there is no dirt attached to the lens of the surveillance camera 400, and the dirt degree=0 is output.

図6~図11の例では、かご401内に乗客が乗車した例について説明したが、かご401内を撮影した画像80kに示すように、かご401内には乗客とともに大きな荷物が積載される場合もある。上記「かご401内の積載量」としては、乗車人数のみならず荷物の量も含まれる。なお、「かご401内の積載量」は、画像80kから推定される乗客や荷物の総面積を示すものあってもよい。 In the examples shown in FIGS. 6 to 11, an example was explained in which a passenger boarded the car 401. However, as shown in an image 80k taken inside the car 401, there is a case where a large baggage is loaded in the car 401 along with the passenger. There is also. The above-mentioned "loading amount in the car 401" includes not only the number of passengers but also the amount of luggage. Note that the "loading amount in the car 401" may indicate the total area of passengers and luggage estimated from the image 80k.

画像80kの例では、かご401内に乗客とともに荷物が積載されることにより、汚れ度合は0.2まで上昇している。この場合、かご401内の積載量に応じて汚れ度合が変化しているが、目的階に到着すると乗客および荷物はかご401の外に出るため、汚れ度合は再び0に戻る。このため、乗客および荷物に基づき、「汚れ有状態」とは判定されない。 In the example of image 80k, the degree of dirt has increased to 0.2 due to luggage being loaded into the car 401 along with passengers. In this case, the degree of contamination changes depending on the load inside the car 401, but when the passengers and luggage arrive at the destination floor they exit the car 401, so the degree of contamination returns to zero again. Therefore, it is not determined that the vehicle is in a "dirty state" based on the passengers and luggage.

また、上述の「かご401の戸開閉状態」には、「乗場の状態」も含まれる。かご401内を撮影した画像80lでは、画像80jと同じく戸開状態であるが、乗場の状態が変化している。具体的には、画像80jでは日中の太陽の光で乗場が明るいのに対し、画像80lでは夜になって乗場が暗いために汚れ度合が0.15まで上昇している。上述のように、戸開状態と戸閉状態とでは汚れ度合が異なるが、戸開状態においては時間帯に応じても汚れ度合が異なる。 Moreover, the above-mentioned "door opening/closing state of the car 401" also includes the "landing state". In the image 80l taken inside the car 401, the door is in an open state like the image 80j, but the state of the landing has changed. Specifically, in the image 80j, the landing area is bright due to sunlight during the day, whereas in the image 80l, the dirt level has increased to 0.15 because the landing area is dark at night. As described above, the degree of contamination differs between when the door is open and when the door is closed, and when the door is open, the degree of contamination also differs depending on the time of day.

図5の例においては、撮影環境として、朝と昼と夜とで学習済モデルを異ならせ(学習済モデルA~C)、戸開状態と戸閉状態とで学習済モデルを異ならせる(学習済モデルD,E)ように構成することで、汚れ度合の判定精度を高めるようにした。本例では、たとえば、戸開状態においてさらに時間帯に応じて学習モデルを異ならせることで、汚れ度合の判定精度をさらに高めることができる。 In the example shown in Fig. 5, different trained models are used for morning, noon, and night shooting environments (trained models A to C), and different trained models are used for the door open state and the door closed state (learned models A to C). By configuring the models D and E), the accuracy of determining the degree of contamination is improved. In this example, for example, by making the learning model different depending on the time period when the door is open, it is possible to further improve the accuracy of determining the degree of dirt.

また、「乗場の状態」には、乗場の混雑状況も含まれる。たとえば、出勤時や退勤時などのピーク時間帯(戸開状態において複数の待ち客が映り込む)と、閑散時(乗場に人がいない)とでは、汚れ度合が異なる。この場合においても、たとえば、撮影環境として、ピーク時間帯とそれ以外の時間帯とで学習モデルを異ならせることで、汚れ度合の判定精度をさらに高めることができる。 Further, the "landing state" includes the crowded state of the landing. For example, the degree of dirtiness is different during peak hours such as when people come to work and when they leave work (when multiple waiting passengers are visible when the door is open) and during quiet times (when there are no people on board). Even in this case, for example, the accuracy of determining the degree of dirt can be further improved by using different learning models for peak time periods and other time periods as the photographing environment.

上記以外にも、汚れ度合は、「かご401内に設置された監視カメラ400の状態」によっても変化する。たとえば、かご401内を撮影した画像80mでは、乗客のいたずら等により、かご401内に設置された監視カメラ400の設置方向がずれてしまい、画像80jに比べると、かご401のやや左側が撮影されている。これにより、画像80jと画像80mとの差分により、汚れ度合が0.4に変化している。 In addition to the above, the degree of contamination also changes depending on "the state of the surveillance camera 400 installed in the car 401." For example, in the image 80m taken inside the car 401, the installation direction of the surveillance camera 400 installed inside the car 401 has shifted due to a prank by a passenger, and the slightly left side of the car 401 is photographed compared to the image 80j. ing. As a result, the degree of contamination changes to 0.4 due to the difference between the image 80j and the image 80m.

本ケースでは、所定時間が経過しても汚れ度合が低下しないため、「汚れ有状態」として誤検知される。この場合、エレベーターの保守員あるいはビルの管理者は、監視カメラ400の設置状態を確認し、監視カメラ400を正常な設置状態に戻す作業を行う。これにより、汚れ度合が0に戻り、汚れ度合が正常に検知されるようになる。「かご401内に設置された監視カメラ400の状態」としては、上記のような監視カメラ400の設置方向や設置位置であってもよいし、監視カメラ400の焦点がぼやけているような状態も想定され得る。 In this case, since the degree of contamination does not decrease even after a predetermined period of time has elapsed, it is erroneously detected as a "contamination presence state". In this case, the elevator maintenance worker or the building manager checks the installation state of the surveillance camera 400 and performs work to return the surveillance camera 400 to the normal installation state. As a result, the degree of contamination returns to 0, and the degree of contamination can be detected normally. The "state of the surveillance camera 400 installed in the car 401" may be the installation direction and position of the surveillance camera 400 as described above, or a state where the surveillance camera 400 is out of focus. It can be assumed.

[主な構成および効果]
以下、前述した実施の形態の主な構成および効果を説明する。
[Main composition and effects]
The main configuration and effects of the embodiment described above will be explained below.

(1) 汚れ判定装置200は、取得部131と、抽出部132と、推定部141と、判定部143とを備える。取得部131は、監視カメラ400により撮影された撮影データ122を定期的に取得する。抽出部132は、取得された撮影データ122の特徴量を抽出する。推定部141は、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力する。判定部143は、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定する。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。 (1) The stain determination device 200 includes an acquisition section 131, an extraction section 132, an estimation section 141, and a determination section 143. The acquisition unit 131 periodically acquires photographic data 122 photographed by the surveillance camera 400. The extraction unit 132 extracts the feature amount of the acquired photographic data 122. The estimation unit 141 inputs information based on the extracted feature amounts to the learned model 135 and outputs the degree of dirt on the lens of the surveillance camera 400. The determination unit 143 determines that a certain amount of dirt is present on the lens when the degree of dirt is equal to or higher than a threshold regarding the degree of dirt, and the degree of dirt does not become less than the threshold even after a predetermined period of time has passed since the degree of dirt became equal to or greater than the threshold. It is determined that there is a certain dirt state. By waiting for a predetermined period of time, false detections due to factors other than dirt can be reduced, and it is possible to accurately determine whether or not there is a certain amount of dirt on the lens of the surveillance camera.

(2) 学習済モデル135は、複数のモデル(学習済モデルA~E等)を含む。複数のモデルの各々は、複数の撮影環境のいずれかで撮影された撮影データ122群を用いて、特徴量に基づく情報が入力された際に、汚れ度合を出力するために学習処理が行われたモデルである。推定部141は、複数のモデルのうちのいずれかのモデルを選択し、選択した当該モデルを用いて汚れ度合を出力する。撮影環境に応じて適切なモデルを用いることで、周囲の環境変化による誤検出を減少させ、汚れ有状態であるか否かを判定することができる。 (2) The trained model 135 includes a plurality of models (trained models A to E, etc.). Each of the plurality of models uses 122 groups of photographic data taken in one of a plurality of photographing environments, and performs a learning process to output the degree of contamination when information based on feature quantities is input. It is a model that The estimation unit 141 selects one of the plurality of models and outputs the degree of dirt using the selected model. By using an appropriate model according to the shooting environment, false detections due to changes in the surrounding environment can be reduced, and it is possible to determine whether or not there is dirt.

(3) 推定部141は、複数のモデルのうち、出力結果が最も小さくなるモデルを選択する。撮影環境に応じて適切なモデルを用いることで、周囲の環境変化による誤検出を減少させ、汚れ有状態であるか否かを判定することができる。 (3) The estimation unit 141 selects the model that provides the smallest output result from among the plurality of models. By using an appropriate model according to the shooting environment, false detections due to changes in the surrounding environment can be reduced, and it is possible to determine whether or not there is dirt.

(4) 汚れ判定装置200は、第1モードと第2モードとを含む実行モードを設定可能である。判定部143は、第1モードが設定されている場合は、第1周期ごとに判定を行う。判定部143は、第2モードが設定されている場合は、前記第1周期よりも長い第2周期ごとに判定を行う。これにより、第1モードにより突発的に発生する汚れを検知することができ、第2モードにより経時変化により蓄積する汚れを検知することができる。経時変化により蓄積する汚れを検知することで、汚れ有状態となってレンズのクリーニングが必要となる時期を予想することができる。 (4) The dirt determination device 200 can set execution modes including a first mode and a second mode. If the first mode is set, the determination unit 143 performs determination every first cycle. When the second mode is set, the determination unit 143 performs determination every second period that is longer than the first period. Thereby, dirt that suddenly occurs can be detected in the first mode, and dirt that accumulates over time can be detected in the second mode. By detecting dirt that accumulates over time, it is possible to predict when the lens will need to be cleaned due to dirt.

(5) 撮影データ122は、エレベーターのかご401内が撮影されたデータである。汚れ度合は、レンズの汚れとかご401内の積載量(乗車人数や荷物の量)とかご401の戸開閉状態との少なくともいずれかに応じて変化する。これにより、所定時間が経過しても汚れ度合が低下しないレンズの汚れと、所定時間が経過するまでに汚れ度合を低下させる可能性のある積載量および戸開閉状態を識別して、汚れ有状態であるか否かを精度よく判定することができる。 (5) The photographic data 122 is data obtained by photographing the inside of the elevator car 401. The degree of dirt changes depending on at least one of the dirt on the lens, the loading amount (number of passengers and amount of luggage) in the car 401, and the open/closed state of the door of the car 401. This allows us to identify dirt on the lens that does not reduce the degree of dirt even after a predetermined period of time has passed, and the loading amount and door opening/closing conditions that may reduce the degree of dirt before the elapse of a predetermined period of time. It is possible to accurately determine whether or not it is.

(6) 汚れ判定方法は、監視カメラ400により撮影された撮影データ122を定期的に取得するステップと、取得された撮影データ122の特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを備える。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。 (6) The stain determination method includes the steps of periodically acquiring photographic data 122 photographed by the surveillance camera 400, extracting feature quantities of the acquired photographic data 122, and information based on the extracted feature quantities. is inputted into the learned model 135 to output the degree of contamination of the lens of the surveillance camera 400, and the degree of contamination is equal to or higher than a threshold value regarding the degree of contamination, and a predetermined period of time has elapsed since the degree of contamination exceeds the threshold value. If the degree of contamination does not become less than a threshold value even if the degree of contamination does not become less than a threshold value, determining that the lens is in a contamination state where there is a certain degree of contamination. By waiting for a predetermined period of time, false detections due to factors other than dirt can be reduced, and it is possible to accurately determine whether or not there is a certain amount of dirt on the lens of the surveillance camera.

(7) 汚れ判定プログラムは、コンピュータに、監視カメラ400により撮影された撮影データ122を定期的に取得するステップと、取得された撮影データ122の特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを実行させる。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。 (7) The dirt determination program includes a step of periodically acquiring photographic data 122 photographed by the surveillance camera 400, a step of extracting a feature amount of the acquired photographic data 122, and a step of extracting the extracted feature amount. inputting information based on the learned model 135 into the learned model 135 and outputting the degree of contamination of the lens of the surveillance camera 400; If the degree of contamination does not become less than the threshold value even after a period of time has elapsed, a step of determining that the lens is in a contamination state with a certain degree of contamination is executed. By waiting for a predetermined period of time, false detections due to factors other than dirt can be reduced, and it is possible to accurately determine whether or not there is a certain amount of dirt on the lens of the surveillance camera.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the claims rather than the above description, and it is intended that equivalent meanings and all changes within the scope of the claims are included.

1 汚れ判定システム、51,52 出入口、53 乗客、80a~80i 画像、100 映像記録装置、111,211 CPU、112,212 ROM、113,213 RAM、114,214 記憶部、115,215 通信インターフェイス、116,216 I/Oインターフェイス、121 取得部、122 撮影データ、131 取得部、132 抽出部、133 正規化部、134 モデル生成部、135 学習済モデル、141 推定部、142 推定結果、143 判定部、144 通知部、200 汚れ判定装置、300 端末、400 監視カメラ。 1 dirt determination system, 51, 52 doorway, 53 passenger, 80a-80i image, 100 video recording device, 111,211 CPU, 112,212 ROM, 113,213 RAM, 114,214 storage unit, 115,215 communication interface, 116, 216 I/O interface, 121 acquisition unit, 122 imaging data, 131 acquisition unit, 132 extraction unit, 133 normalization unit, 134 model generation unit, 135 learned model, 141 estimation unit, 142 estimation result, 143 determination unit , 144 notification unit, 200 dirt determination device, 300 terminal, 400 surveillance camera.

Claims (4)

監視カメラにより撮影された撮影データを定期的に取得する取得部と、
取得された前記撮影データの特徴量を抽出する抽出部と、
抽出された前記特徴量に基づく情報を学習済モデルに入力して、前記監視カメラのレンズの汚れ度合を出力する推定部と、
前記汚れ度合が前記汚れ度合に関する閾値以上になり、かつ、前記汚れ度合が前記閾値以上になってから所定時間が経過しても前記汚れ度合が前記閾値未満にならない場合に、前記レンズに一定の汚れがある汚れ有状態であると判定する判定部とを備え、
前記学習済モデルは、複数のモデルを含み、
前記複数のモデルの各々は、複数の撮影環境のいずれかで撮影された撮影データ群を用いて、前記特徴量に基づく情報が入力された際に、前記汚れ度合を出力するために学習処理が行われたモデルであり、
前記推定部は、前記複数のモデルの各々による前記汚れ度合の出力結果に基づき、前記複数のモデルのうちのいずれかのモデルを選択する、汚れ判定装置。
an acquisition unit that periodically acquires photographic data photographed by a surveillance camera;
an extraction unit that extracts a feature amount of the acquired photographic data;
an estimator that inputs information based on the extracted feature amounts into a learned model and outputs a degree of dirt on a lens of the surveillance camera;
When the degree of contamination becomes equal to or greater than the threshold value regarding the degree of contamination, and the degree of contamination does not become less than the threshold value even after a predetermined period of time has elapsed since the degree of contamination became equal to or greater than the threshold value, a certain level of contamination is applied to the lens. and a determination unit that determines that there is dirt.
The trained model includes a plurality of models,
Each of the plurality of models performs a learning process to output the degree of contamination when information based on the feature amount is input using a group of photographic data taken in one of a plurality of photographing environments. It is a model that was carried out,
The estimating unit is a dirt determination device that selects one of the plurality of models based on an output result of the dirt degree by each of the plurality of models.
前記推定部は、前記複数のモデルのうち、前記汚れ度合の出力結果が最も小さくなるモデルを選択する、請求項1に記載の汚れ判定装置。 The dirt determination device according to claim 1, wherein the estimation unit selects a model that provides the smallest output result of the dirt degree from among the plurality of models. 前記汚れ判定装置は、第1モードと第2モードとを含む実行モードを設定可能であり、
前記判定部は、
前記第1モードが設定されている場合は、第1周期ごとに判定を行い、
前記第2モードが設定されている場合は、前記第1周期よりも長い第2周期ごとに判定を行う、請求項1または請求項2に記載の汚れ判定装置。
The dirt determination device is capable of setting execution modes including a first mode and a second mode,
The determination unit includes:
If the first mode is set, a determination is made every first cycle,
The dirt determination device according to claim 1 or 2, wherein when the second mode is set, the determination is performed every second cycle that is longer than the first cycle.
前記撮影データは、エレベーターのかご内が撮影されたデータであり、
前記汚れ度合は、前記レンズの汚れと前記かご内の積載量と前記かごの戸開閉状態との少なくともいずれかに応じて変化する、請求項1~請求項3のいずれか1項に記載の汚れ判定装置。
The photographic data is data in which the inside of an elevator car is photographed;
The dirt according to any one of claims 1 to 3, wherein the degree of dirt changes depending on at least one of the dirt on the lens, the loading amount in the car, and the open/closed state of the door of the car. Judgment device.
JP2023541612A 2021-11-02 2021-11-02 Dirt determination device Active JP7455284B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040401 WO2023079593A1 (en) 2021-11-02 2021-11-02 Stain determination device, stain determination method, and stain determination program

Publications (3)

Publication Number Publication Date
JPWO2023079593A1 JPWO2023079593A1 (en) 2023-05-11
JPWO2023079593A5 JPWO2023079593A5 (en) 2023-10-04
JP7455284B2 true JP7455284B2 (en) 2024-03-25

Family

ID=86240779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023541612A Active JP7455284B2 (en) 2021-11-02 2021-11-02 Dirt determination device

Country Status (2)

Country Link
JP (1) JP7455284B2 (en)
WO (1) WO2023079593A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189294A (en) 2001-12-13 2003-07-04 Secom Co Ltd Image monitoring device
JP2019029897A (en) 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 Image monitor, image monitoring method and image monitoring program
JP2019096320A (en) 2017-11-24 2019-06-20 フィコサ アダス,ソシエダッド リミタダ ユニペルソナル Determination of clear or dirty captured image
WO2019146097A1 (en) 2018-01-29 2019-08-01 三菱電機ビルテクノサービス株式会社 Sensing device and sensing system for defective photographic data
JP2020190181A (en) 2019-05-17 2020-11-26 株式会社Lixil Determination device, determination method and program
WO2020250296A1 (en) 2019-06-11 2020-12-17 三菱電機ビルテクノサービス株式会社 Image processing device, image processing method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189294A (en) 2001-12-13 2003-07-04 Secom Co Ltd Image monitoring device
JP2019029897A (en) 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 Image monitor, image monitoring method and image monitoring program
JP2019096320A (en) 2017-11-24 2019-06-20 フィコサ アダス,ソシエダッド リミタダ ユニペルソナル Determination of clear or dirty captured image
WO2019146097A1 (en) 2018-01-29 2019-08-01 三菱電機ビルテクノサービス株式会社 Sensing device and sensing system for defective photographic data
JP2020190181A (en) 2019-05-17 2020-11-26 株式会社Lixil Determination device, determination method and program
WO2020250296A1 (en) 2019-06-11 2020-12-17 三菱電機ビルテクノサービス株式会社 Image processing device, image processing method and program

Also Published As

Publication number Publication date
WO2023079593A1 (en) 2023-05-11
JPWO2023079593A1 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
CN111144247B (en) Escalator passenger reverse detection method based on deep learning
JP4631806B2 (en) Object detection apparatus, object detection method, and object detection program
US8660700B2 (en) Video-based system and method of elevator door detection
JP5459674B2 (en) Moving object tracking system and moving object tracking method
CN109409315B (en) Method and system for detecting remnants in panel area of ATM (automatic Teller machine)
JP2008257693A (en) Method for detecting object left-behind in scene
KR20090086898A (en) Detection of smoke with a video camera
CN106559647B (en) Door opening and closing detection device and method, people flow detection system and vehicle
US20160335552A1 (en) Method and sytem for crowd detection in an area
CN110526058A (en) Elevator door monitoring system, elevator device and elevator door monitoring method
CN110189355A (en) Safe escape channel occupies detection method, device, electronic equipment and storage medium
JP6199216B2 (en) Elevator monitoring device
JP6616906B1 (en) Detection device and detection system for defective photographing data
CN112347862A (en) Elevator door fault real-time detection method based on machine vision
KR101651410B1 (en) Violence Detection System And Method Based On Multiple Time Differences Behavior Recognition
JP7455284B2 (en) Dirt determination device
EP2447912B1 (en) Method and device for the detection of change in illumination for vision systems
JP2009032116A (en) Face authentication apparatus, face authentication method, and access management apparatus
Wang et al. Specular reflection removal for human detection under aquatic environment
KR102525491B1 (en) Method of providing structure damage detection report
Suresh et al. An efficient low cost background subtraction method to extract foreground object during human tracking
CN115797770A (en) Continuous image target detection method, system and terminal considering relative movement of target
CN114359839A (en) Method and system for identifying entrance of electric vehicle into elevator
JP6977200B2 (en) Image processing equipment, image processing methods and programs
CN113936250A (en) Method and device for calculating opening and closing amplitude of elevator door, computer equipment and medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230707

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240312

R150 Certificate of patent or registration of utility model

Ref document number: 7455284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150