JP7219834B1 - 状態判定装置、状態判定方法及び状態判定プログラム - Google Patents
状態判定装置、状態判定方法及び状態判定プログラム Download PDFInfo
- Publication number
- JP7219834B1 JP7219834B1 JP2022045187A JP2022045187A JP7219834B1 JP 7219834 B1 JP7219834 B1 JP 7219834B1 JP 2022045187 A JP2022045187 A JP 2022045187A JP 2022045187 A JP2022045187 A JP 2022045187A JP 7219834 B1 JP7219834 B1 JP 7219834B1
- Authority
- JP
- Japan
- Prior art keywords
- state
- states
- determination
- unit
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 19
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000003860 storage Methods 0.000 description 27
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000014759 maintenance of location Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】処理を複雑化することなく、対象物の状態を適切に判定可能にする。【解決手段】モデル実行部213は、複数の状態それぞれを対象の状態として設けられた学習済モデルであって、対象の状態であるか、又は、対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得する。組合判定部214は、複数の状態それぞれについての判定結果から、複数の状態と、複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する。【選択図】図3
Description
本開示は、画像データから2つ以上の状態のいずれであるかを判定する技術に関する。
複数の状態が切り替わる対象物がどの状態であるかを、監視カメラ等で得られた画像データから判定することが行われている。対象物は、具体例としては、扉と照明と信号機とである。対象物が扉の場合には、扉が開いている状態と閉じている状態とが切り替わる。対象物が照明の場合には、点灯している状態と消灯している状態とが切り替わる。対象物が信号機である場合には、青が点灯している状態と黄が点灯している状態と赤が点灯している状態とが切り替わる。
特許文献1には、監視カメラで得られた画像データから、エレベータの扉の開閉状態を判定することが記載されている。特許文献1では、余計な物が何も映っていない、扉が閉じた状態の画像データが基準画像として予め取得される。そして、監視カメラで得られた画像データについて、基準画像と差分が規定値以上であるか否かにより、扉の開閉状態が判定される。
ディープラーニングを用いた学習済モデルにより、2つ以上の状態のどの状態であるかを判定することも考えられる。ディープラーニングを用いた学習済モデルでは、2つ以上の状態それぞれについて該当する確率が0~100%で計算される。この際、全ての状態についての確率の和が100%になるように計算される。例えば、扉の開閉状態を判定する場合には、開状態の確率と閉状態の確率との和が100%になるように、開状態の確率と閉状態の確率とが計算される。つまり、開状態の確率が20%、かつ、閉状態の確率が10%というような、確率の和が100%にならない計算がされることはない。
特許文献1では、いわゆる背景差分を用いた判定が行われている。背景差分を用いた判定では、外光及び照明の影響を受けやすい。また、扉の前に異物が映っている場合には、別途処理を加えて対応しなければならず、処理が複雑化してしまう。
ディープラーニングを用いた学習済モデルを用いた判定は、背景差分を用いた判定よりも、外光及び照明の影響には強い傾向がある。しかし、ディープラーニングを用いた学習済モデルを用いた判定は、全ての状態についての確率の和が100%になるように計算される。そのため、いずれの状態にも該当しないような状態であっても、いずれかの状態であると判定されてしまう。
本開示は、処理を複雑化することなく、対象物の状態を適切に判定可能にすることを目的とする。
本開示に係る状態判定装置は、
複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得するモデル実行部と、
前記モデル実行部によって取得された前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する組合判定部と
を備える。
複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得するモデル実行部と、
前記モデル実行部によって取得された前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する組合判定部と
を備える。
前記判定結果は、前記対象の状態である確率を示し、
前記組合判定部は、前記複数の状態それぞれについての前記判定結果が示す確率が閾値未満である場合には、前記不明状態であると判定する。
前記組合判定部は、前記複数の状態それぞれについての前記判定結果が示す確率が閾値未満である場合には、前記不明状態であると判定する。
前記組合判定部は、
前記複数の状態のうちの1つの状態についての前記判定結果が示す確率だけが閾値以上である場合には、前記1つの状態であると判定し、
前記複数の状態のうちの2つ以上の状態についての前記判定結果が示す確率が前記閾値以上である場合には、前記2つ以上の状態についての前記判定結果が示す確率の比較により、前記2つ以上の状態のうちのどの状態であるかを判定する。
前記複数の状態のうちの1つの状態についての前記判定結果が示す確率だけが閾値以上である場合には、前記1つの状態であると判定し、
前記複数の状態のうちの2つ以上の状態についての前記判定結果が示す確率が前記閾値以上である場合には、前記2つ以上の状態についての前記判定結果が示す確率の比較により、前記2つ以上の状態のうちのどの状態であるかを判定する。
前記モデル実行部は、映像データを構成する複数のフレームの画像データについて順に、前記複数の状態それぞれを対象の状態として設けられた前記学習済モデルから前記判定結果を取得し、
前記状態判定装置は、さらに、
前記組合判定部によって判定された結果を通知する通知部であって、前記不明状態であると判定された場合には、前記組合判定部によって前に判定された結果を通知する通知部を備える。
前記状態判定装置は、さらに、
前記組合判定部によって判定された結果を通知する通知部であって、前記不明状態であると判定された場合には、前記組合判定部によって前に判定された結果を通知する通知部を備える。
前記モデル実行部は、映像データを構成する複数のフレームの画像データについて順に、前記複数の状態それぞれを対象の状態として設けられた前記学習済モデルから前記判定結果を取得し、
前記状態判定装置は、さらに、
直近基準回に前記組合判定部によって判定された結果を総合して、前記複数の状態と、前記不明状態とのうちのどの状態であるかを判定する総合判定部
を備える。
前記状態判定装置は、さらに、
直近基準回に前記組合判定部によって判定された結果を総合して、前記複数の状態と、前記不明状態とのうちのどの状態であるかを判定する総合判定部
を備える。
前記閾値は、前記複数の状態それぞれについて別々に定められた。
本開示に係る状態判定方法は、
コンピュータが、複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得し、
コンピュータが、前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する。
コンピュータが、複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得し、
コンピュータが、前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する。
本開示に係る状態判定プログラムは、
複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得するモデル実行処理と、
前記モデル実行処理によって取得された前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する組合判定処理と
を行う状態判定装置としてコンピュータを機能させる。
複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得するモデル実行処理と、
前記モデル実行処理によって取得された前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する組合判定処理と
を行う状態判定装置としてコンピュータを機能させる。
本開示では、複数の状態それぞれを対象の状態として、対象の状態であるか、又は、対象の状態以外の状態であるかを判定する学習済モデルによる判定結果を組み合わせて、複数の状態と不明状態とのうちのどの状態であるかを判定する。これにより、処理を複雑化することなく、複数の状態ではないような状態も含めたどの状態であるかを適切に判定可能である。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る状態判定システム100の構成を説明する。
状態判定システム100は、学習装置10と、状態判定装置20と、モデル記憶装置30とを備える。学習装置10及び状態判定装置20は、モデル記憶装置30と伝送路90を介して接続されている。伝送路90は、具体例としては、LANである。LANは、Local Area Networkの略である。
学習装置10は、ディープラーニングにより学習済モデルを生成するコンピュータである。状態判定装置20は、学習装置10によって生成された学習済モデルを用いて、対象物の状態を判定するコンピュータである。モデル記憶装置30は、学習装置10によって生成された学習済モデルを記憶する装置である。
***構成の説明***
図1を参照して、実施の形態1に係る状態判定システム100の構成を説明する。
状態判定システム100は、学習装置10と、状態判定装置20と、モデル記憶装置30とを備える。学習装置10及び状態判定装置20は、モデル記憶装置30と伝送路90を介して接続されている。伝送路90は、具体例としては、LANである。LANは、Local Area Networkの略である。
学習装置10は、ディープラーニングにより学習済モデルを生成するコンピュータである。状態判定装置20は、学習装置10によって生成された学習済モデルを用いて、対象物の状態を判定するコンピュータである。モデル記憶装置30は、学習装置10によって生成された学習済モデルを記憶する装置である。
図2を参照して、実施の形態1に係る学習装置10の構成を説明する。
学習装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
学習装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
学習装置10は、機能構成要素として、画像登録部111と、モデル学習部112と、モデル出力部113とを備える。学習装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、学習装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、学習装置10の各機能構成要素の機能が実現される。
ストレージ13には、学習装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、学習装置10の各機能構成要素の機能が実現される。
図3を参照して、実施の形態1に係る状態判定装置20の構成を説明する。
状態判定装置20は、プロセッサ21と、メモリ22と、ストレージ23と、通信インタフェース24とのハードウェアを備える。プロセッサ21は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
状態判定装置20は、通信インタフェース24を介して、カメラ241と、表示装置242と接続されている。
状態判定装置20は、プロセッサ21と、メモリ22と、ストレージ23と、通信インタフェース24とのハードウェアを備える。プロセッサ21は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
状態判定装置20は、通信インタフェース24を介して、カメラ241と、表示装置242と接続されている。
状態判定装置20は、機能構成要素として、映像受信部211と、領域切出部212と、モデル実行部213と、組合判定部214と、通知部215とを備える。状態判定装置20の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ23には、状態判定装置20の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ21によりメモリ22に読み込まれ、プロセッサ21によって実行される。これにより、状態判定装置20の各機能構成要素の機能が実現される。
ストレージ23には、状態判定装置20の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ21によりメモリ22に読み込まれ、プロセッサ21によって実行される。これにより、状態判定装置20の各機能構成要素の機能が実現される。
プロセッサ11,21は、プロセッシングを行うICである。ICはIntegrated Circuitの略である。プロセッサ11,21は、具体例としては、CPU、DSP、GPUである。CPUは、Central Processing Unitの略である。DSPは、Digital Signal Processorの略である。GPUは、Graphics Processing Unitの略である。
メモリ12,22は、データを一時的に記憶する記憶装置である。メモリ12,22は、具体例としては、SRAM、DRAMである。SRAMは、Static Random Access Memoryの略である。DRAMは、Dynamic Random Access Memoryの略である。
ストレージ13,23は、データを保管する記憶装置である。ストレージ13,23は、具体例としては、HDDである。HDDは、Hard Disk Driveの略である。また、ストレージ13,23は、SD(登録商標)メモリカード、CompactFlash(登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、Blu-ray(登録商標)ディスク、DVDといった可搬記録媒体であってもよい。SDは、Secure Digitalの略である。DVDは、Digital Versatile Diskの略である。
通信インタフェース14,24は、外部の装置と通信するためのインタフェースである。通信インタフェース14,24は、具体例としては、Ethernet(登録商標)、USB、HDMI(登録商標)のポートである。USBは、Universal Serial Busの略である。HDMIは、High-Definition Multimedia Interfaceの略である。
図2では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。同様に、図3では、プロセッサ21は、1つだけ示されていた。しかし、プロセッサ21は、複数であってもよく、複数のプロセッサ21が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図4から図9を参照して、実施の形態1に係る状態判定システム100の動作を説明する。
状態判定システム100は、複数の状態が切り替わる対象物がどの状態であるかを、カメラ241等で得られた画像データから判定する。状態判定システム100の動作は、学習装置10による学習フェーズと、状態判定装置20による実行フェーズとに分けられる。
図4から図9を参照して、実施の形態1に係る状態判定システム100の動作を説明する。
状態判定システム100は、複数の状態が切り替わる対象物がどの状態であるかを、カメラ241等で得られた画像データから判定する。状態判定システム100の動作は、学習装置10による学習フェーズと、状態判定装置20による実行フェーズとに分けられる。
図4を参照して、実施の形態1に係る学習装置10による学習フェーズを説明する。
実施の形態1に係る学習装置10の動作手順は、実施の形態1に係る学習方法に相当する。また、実施の形態1に係る学習装置10の動作を実現するプログラムは、実施の形態1に係る学習プログラムに相当する。
実施の形態1に係る学習装置10の動作手順は、実施の形態1に係る学習方法に相当する。また、実施の形態1に係る学習装置10の動作を実現するプログラムは、実施の形態1に係る学習プログラムに相当する。
(ステップS11:画像登録処理)
画像登録部111は、複数の画像データそれぞれを学習用データとしてストレージ13に登録する。学習用データには、対象物の状態を示す属性が設定される。属性は、ユーザ等により対象物の状態が判断され、設定される。複数の状態それぞれと、複数の状態のいずれでもない状態との属性が設定された学習用データが登録される。
図5に示すように、対象物が扉であるとする。この場合には、扉を撮影した画像データが学習用データになる。扉の状態としては、扉が開いた開状態と、扉が閉じた閉状態とがある。画像登録部111は、開状態と、閉状態と、開状態及び閉状態以外の状態との属性が設定された学習用データを登録する。開状態及び閉状態以外の状態としては、扉の前に遮蔽物があり、扉の大部分が隠れてしまっている遮蔽状態等がある。
画像登録部111は、複数の画像データそれぞれを学習用データとしてストレージ13に登録する。学習用データには、対象物の状態を示す属性が設定される。属性は、ユーザ等により対象物の状態が判断され、設定される。複数の状態それぞれと、複数の状態のいずれでもない状態との属性が設定された学習用データが登録される。
図5に示すように、対象物が扉であるとする。この場合には、扉を撮影した画像データが学習用データになる。扉の状態としては、扉が開いた開状態と、扉が閉じた閉状態とがある。画像登録部111は、開状態と、閉状態と、開状態及び閉状態以外の状態との属性が設定された学習用データを登録する。開状態及び閉状態以外の状態としては、扉の前に遮蔽物があり、扉の大部分が隠れてしまっている遮蔽状態等がある。
(ステップS12:モデル学習処理)
モデル学習部112は、ステップS11で登録された複数の学習用データを用いて、学習済モデルを生成する。この際、モデル学習部112は、対象物の各状態を対象の状態として、対象の状態であるか、対象の状態以外の状態であるかを判定する学習済モデルを生成する。
具体的には、モデル学習部112は、対象物の各状態を対象の状態に設定する。モデル学習部112は、対象の状態を示す属性が設定された学習用データを対象の状態の学習用データとする。モデル学習部112は、対象の状態以外を示す属性が設定された学習用データを他の状態の学習用データとする。そして、モデル学習部112は、対象の状態の学習用データと、他の状態の学習用データとを入力として、ディープラーニングにより、対象の状態についての学習済モデルを生成する。つまり、モデル学習部112は、対象の状態についての2属性モデルを学習済モデルとして生成する。
モデル学習部112は、ステップS11で登録された複数の学習用データを用いて、学習済モデルを生成する。この際、モデル学習部112は、対象物の各状態を対象の状態として、対象の状態であるか、対象の状態以外の状態であるかを判定する学習済モデルを生成する。
具体的には、モデル学習部112は、対象物の各状態を対象の状態に設定する。モデル学習部112は、対象の状態を示す属性が設定された学習用データを対象の状態の学習用データとする。モデル学習部112は、対象の状態以外を示す属性が設定された学習用データを他の状態の学習用データとする。そして、モデル学習部112は、対象の状態の学習用データと、他の状態の学習用データとを入力として、ディープラーニングにより、対象の状態についての学習済モデルを生成する。つまり、モデル学習部112は、対象の状態についての2属性モデルを学習済モデルとして生成する。
図5に示すように、対象物が扉であるとする。この場合には、モデル学習部112は、開状態と閉状態とをそれぞれ対象の状態に設定する。
開状態を対象の状態とする場合には、モデル学習部112は、開状態の属性が設定された学習用データを開状態の学習用データに設定する。モデル学習部112は、閉状態の属性が設定された学習用データと、開状態及び閉状態以外の状態の属性が設定された学習用データとを他の状態の学習用データに設定する。そして、モデル学習部112は、ディープラーニングにより、開状態であるか、開状態以外の状態であるかを判定する学習済モデルである開判定モデルを生成する。
閉状態を対象の状態とする場合には、モデル学習部112は、閉状態の属性が設定された学習用データを閉状態の学習用データに設定する。モデル学習部112は、開状態の属性が設定された学習用データと、開状態及び閉状態以外の状態の属性が設定された学習用データとを他の状態の学習用データに設定する。そして、モデル学習部112は、ディープラーニングにより、閉状態であるか、閉状態以外の状態であるかを判定する学習済モデルである閉判定モデルを生成する。
開状態を対象の状態とする場合には、モデル学習部112は、開状態の属性が設定された学習用データを開状態の学習用データに設定する。モデル学習部112は、閉状態の属性が設定された学習用データと、開状態及び閉状態以外の状態の属性が設定された学習用データとを他の状態の学習用データに設定する。そして、モデル学習部112は、ディープラーニングにより、開状態であるか、開状態以外の状態であるかを判定する学習済モデルである開判定モデルを生成する。
閉状態を対象の状態とする場合には、モデル学習部112は、閉状態の属性が設定された学習用データを閉状態の学習用データに設定する。モデル学習部112は、開状態の属性が設定された学習用データと、開状態及び閉状態以外の状態の属性が設定された学習用データとを他の状態の学習用データに設定する。そして、モデル学習部112は、ディープラーニングにより、閉状態であるか、閉状態以外の状態であるかを判定する学習済モデルである閉判定モデルを生成する。
(ステップS13:モデル出力処理)
モデル出力部113は、ステップS12で生成された各状態についての学習済モデルをモデル記憶装置30に出力する。
モデル出力部113は、ステップS12で生成された各状態についての学習済モデルをモデル記憶装置30に出力する。
図6を参照して、実施の形態1に係る状態判定装置20による実行フェーズを説明する。
実施の形態1に係る状態判定装置20の動作手順は、実施の形態1に係る状態判定方法に相当する。また、実施の形態1に係る状態判定装置20の動作を実現するプログラムは、実施の形態1に係る状態判定プログラムに相当する。
実施の形態1に係る状態判定装置20の動作手順は、実施の形態1に係る状態判定方法に相当する。また、実施の形態1に係る状態判定装置20の動作を実現するプログラムは、実施の形態1に係る状態判定プログラムに相当する。
(ステップS21:映像受信処理)
映像受信部211は、カメラ241によって取得された映像データを構成する最新フレームの画像データを受信する。ここでは、カメラ241は、固定されており、同じ領域を撮影領域として、撮影領域の映像データを取得するものとする。
映像受信部211は、カメラ241によって取得された映像データを構成する最新フレームの画像データを受信する。ここでは、カメラ241は、固定されており、同じ領域を撮影領域として、撮影領域の映像データを取得するものとする。
(ステップS22:領域切出処理)
領域切出部212は、ステップS21で受信された画像データから、対象物がある領域の部分画像を切り出す。対象物がある領域は、ユーザ等によって事前に設定される。対象物がある領域は、画像データにおける対象物を包含する矩形領域である。対象物が扉である場合には、対象物がある領域は、画像データにおける扉が映る部分を包含する矩形領域である。
領域切出部212は、ステップS21で受信された画像データから、対象物がある領域の部分画像を切り出す。対象物がある領域は、ユーザ等によって事前に設定される。対象物がある領域は、画像データにおける対象物を包含する矩形領域である。対象物が扉である場合には、対象物がある領域は、画像データにおける扉が映る部分を包含する矩形領域である。
(ステップS23:モデル実行処理)
モデル実行部213は、複数の状態それぞれを対象の状態として設けられた学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得する。
具体的には、モデル実行部213は、学習フェーズで生成された各状態についての学習済モデルをモデル記憶装置30から取得する。モデル実行部213は、ステップS22で切り出された部分画像から特徴量を抽出する。モデル実行部213は、各状態についての学習済モデルを対象の学習済モデルとして、特徴量を対象の学習済モデルに入力して、判定結果を取得する。学習済モデルは、対象の状態であるか、又は、対象の状態以外の状態であるかを判定する。そのため、判定結果は、対象の状態である確率と、対象の状態以外の状態である確率とを示す。対象の状態である確率と、対象の状態以外の状態である確率との和は100%になる。
モデル実行部213は、複数の状態それぞれを対象の状態として設けられた学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得する。
具体的には、モデル実行部213は、学習フェーズで生成された各状態についての学習済モデルをモデル記憶装置30から取得する。モデル実行部213は、ステップS22で切り出された部分画像から特徴量を抽出する。モデル実行部213は、各状態についての学習済モデルを対象の学習済モデルとして、特徴量を対象の学習済モデルに入力して、判定結果を取得する。学習済モデルは、対象の状態であるか、又は、対象の状態以外の状態であるかを判定する。そのため、判定結果は、対象の状態である確率と、対象の状態以外の状態である確率とを示す。対象の状態である確率と、対象の状態以外の状態である確率との和は100%になる。
図5に示すように、対象物が扉であるとする。この場合には、図7に示すように、モデル実行部213は、開判定モデルと、閉判定モデルとのそれぞれに特徴量を入力して判定結果を取得する。
開判定モデルは、開状態である確率と、開状態以外の状態である確率とを示す判定結果を出力する。開状態である確率と、開状態以外の状態である確率との和は100%である。開状態以外の状態には、閉状態だけでなく、遮蔽状態等も含まれる。
閉判定モデルは、閉状態である確率と、閉状態以外の状態である確率とを示す判定結果を出力する。閉状態である確率と、閉状態以外の状態である確率との和は100%である。閉状態以外の状態には、開状態だけでなく、遮蔽状態等も含まれる。
開判定モデルは、開状態である確率と、開状態以外の状態である確率とを示す判定結果を出力する。開状態である確率と、開状態以外の状態である確率との和は100%である。開状態以外の状態には、閉状態だけでなく、遮蔽状態等も含まれる。
閉判定モデルは、閉状態である確率と、閉状態以外の状態である確率とを示す判定結果を出力する。閉状態である確率と、閉状態以外の状態である確率との和は100%である。閉状態以外の状態には、開状態だけでなく、遮蔽状態等も含まれる。
ここでは、学習済モデルは、特徴量を入力とした。しかし、学習済モデルの作りによっては、部分画像から特徴量を抽出する処理を含んだ構成とすることも考えられる。つまり、ここでは、図8の(A)に示すように、モデル実行部213が部分画像から特徴量を抽出し、学習済モデルは特徴量を入力として判定結果を出力した。しかし、図8の(B)に示すように、学習済モデルが、部分画像から特徴量を抽出する処理を含んでいる場合もある。しかし、いずれの場合であっても、モデル実行部213は、学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得する点には変わりはない。
学習済モデルが、部分画像から特徴量を抽出する処理を含んでいる場合には、図9の(A)及び(B)に示すように2つの構成が考えられる。図9の(A)では、状態毎の学習済モデルにそれぞれ特徴量を抽出する処理を含む。図9の(B)では、特徴量を抽出する処理は共通化され、状態の判定処理だけが分かれている。
(ステップS24:組合判定処理)
組合判定部214は、ステップS23で取得された複数の状態それぞれについての判定結果から、複数の状態と、複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する。
具体的には、組合判定部214は、複数の状態のうちの1つの状態についての判定結果が示す確率だけが閾値以上である場合には、その1つの状態であると判定する。組合判定部214は、複数の状態のうちの2つ以上の状態についての判定結果が示す確率が閾値以上である場合には、2つ以上の状態についての判定結果が示す確率の比較により、2つ以上の状態のうちのどの状態であるかを判定する。ここでは、組合判定部214は、2つ以上の状態についての判定結果が示す確率のうち最も高い確率の状態であると判定する。組合判定部214は、複数の状態それぞれについての判定結果が示す確率が閾値未満である場合には、不明状態であると判定する。
組合判定部214は、ステップS23で取得された複数の状態それぞれについての判定結果から、複数の状態と、複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する。
具体的には、組合判定部214は、複数の状態のうちの1つの状態についての判定結果が示す確率だけが閾値以上である場合には、その1つの状態であると判定する。組合判定部214は、複数の状態のうちの2つ以上の状態についての判定結果が示す確率が閾値以上である場合には、2つ以上の状態についての判定結果が示す確率の比較により、2つ以上の状態のうちのどの状態であるかを判定する。ここでは、組合判定部214は、2つ以上の状態についての判定結果が示す確率のうち最も高い確率の状態であると判定する。組合判定部214は、複数の状態それぞれについての判定結果が示す確率が閾値未満である場合には、不明状態であると判定する。
図10に示すように、対象物が扉であるとする。ここでは、閾値を50%としている。
(A)では、開判定モデルの判定結果は、開状態である確率が80%であり、開状態以外の状態である確率が20%である。閉判定モデルの判定結果は、閉状態である確率が30%であり、閉状態以外の状態である確率が70%である。したがって、組合判定部214は、開状態であると判定する。
(B)では、開判定モデルの判定結果は、開状態である確率が65%であり、開状態以外の状態である確率が35%である。閉判定モデルの判定結果は、閉状態である確率が55%であり、閉状態以外の状態である確率が45%である。したがって、組合判定部214は、開状態である確率と、閉状態である確率とを比較して、開状態であると判定する。
(C)では、開判定モデルの判定結果は、開状態である確率が30%であり、開状態以外の状態である確率が70%である。閉判定モデルの判定結果は、閉状態である確率が25%であり、閉状態以外の状態である確率が75%である。したがって、組合判定部214は、不明状態であると判定する。
(A)では、開判定モデルの判定結果は、開状態である確率が80%であり、開状態以外の状態である確率が20%である。閉判定モデルの判定結果は、閉状態である確率が30%であり、閉状態以外の状態である確率が70%である。したがって、組合判定部214は、開状態であると判定する。
(B)では、開判定モデルの判定結果は、開状態である確率が65%であり、開状態以外の状態である確率が35%である。閉判定モデルの判定結果は、閉状態である確率が55%であり、閉状態以外の状態である確率が45%である。したがって、組合判定部214は、開状態である確率と、閉状態である確率とを比較して、開状態であると判定する。
(C)では、開判定モデルの判定結果は、開状態である確率が30%であり、開状態以外の状態である確率が70%である。閉判定モデルの判定結果は、閉状態である確率が25%であり、閉状態以外の状態である確率が75%である。したがって、組合判定部214は、不明状態であると判定する。
(ステップS25:通知処理)
通知部215は、ステップS24で判定された結果を通知する。
具体例としては、通知部215は、ステップS21で取得された画像データに、判定された状態を示す情報を示して、表示装置242に表示する。例えば、通知部215は、画像データの隅に状態を示す印を表示する。通知部215は、対象物が信号機である場合には、画像データに映った信号機における点灯していると判定された色の発光部を枠で囲ってもよい。
通知部215は、ステップS24で判定された結果を通知する。
具体例としては、通知部215は、ステップS21で取得された画像データに、判定された状態を示す情報を示して、表示装置242に表示する。例えば、通知部215は、画像データの隅に状態を示す印を表示する。通知部215は、対象物が信号機である場合には、画像データに映った信号機における点灯していると判定された色の発光部を枠で囲ってもよい。
その後、処理がステップS21に戻される。そして、ステップS21で、一定時間経過後に、次のフレームの画像データが取得される。
上記説明では、対象物が扉である場合を主な具体例として説明した。扉は2つの状態が切り替わった。しかし、切り替わる状態は3つ以上であってもよい。
例えば、図11に示すように、対象物は信号機であってもよい。図11に示す信号機では、青が点灯している状態と黄が点灯している状態と赤が点灯している状態とが切り替わる。
例えば、図11に示すように、対象物は信号機であってもよい。図11に示す信号機では、青が点灯している状態と黄が点灯している状態と赤が点灯している状態とが切り替わる。
この場合には、図4のステップS11では、青状態と黄状態と赤状態とそれ以外の状態との属性が設定された学習用データが登録される。ステップS12では、青状態と黄状態と赤状態とのそれぞれについて、その状態であるか、その状態以外の状態であるかを判定する学習済モデルが生成される。
図6のステップS23では、青状態と黄状態と赤状態とのそれぞれについて、その状態である確率と、その状態以外の状態である確率とを示す判定結果が取得される。ステップS24では、青状態と黄状態と赤状態とのうちいずれか1つの状態についての判定結果が示す確率だけが閾値以上である場合には、その1つの状態であると判定される。青状態と黄状態と赤状態とのうちの2つ以上の状態についての判定結果が示す確率が閾値以上である場合には、最も高い確率の状態であると判定される。青状態と黄状態と赤状態との判定結果が示す確率がいずれも閾値未満である場合には、不明状態であると判定される。
図6のステップS23では、青状態と黄状態と赤状態とのそれぞれについて、その状態である確率と、その状態以外の状態である確率とを示す判定結果が取得される。ステップS24では、青状態と黄状態と赤状態とのうちいずれか1つの状態についての判定結果が示す確率だけが閾値以上である場合には、その1つの状態であると判定される。青状態と黄状態と赤状態とのうちの2つ以上の状態についての判定結果が示す確率が閾値以上である場合には、最も高い確率の状態であると判定される。青状態と黄状態と赤状態との判定結果が示す確率がいずれも閾値未満である場合には、不明状態であると判定される。
***実施の形態1の効果***
以上のように、実施の形態1に係る状態判定システム100は、複数の状態それぞれを対象の状態として、対象の状態であるか、又は、対象の状態以外の状態であるかを判定する学習済モデルによる判定結果を組み合わせて、複数の状態と不明状態とのうちのどの状態であるかを判定する。これにより、処理を複雑化することなく、複数の状態ではないような状態も含めたどの状態であるかを適切に判定可能である。
以上のように、実施の形態1に係る状態判定システム100は、複数の状態それぞれを対象の状態として、対象の状態であるか、又は、対象の状態以外の状態であるかを判定する学習済モデルによる判定結果を組み合わせて、複数の状態と不明状態とのうちのどの状態であるかを判定する。これにより、処理を複雑化することなく、複数の状態ではないような状態も含めたどの状態であるかを適切に判定可能である。
実施の形態1に係る状態判定システム100は、学習済モデルを用いた判定を行う。そのため、背景差分を用いた判定に比べて、外光及び照明の影響に強い。また、背景差分を用いた判定では、差分の有無による2状態の判定だけしかできない。つまり、3状態以上の判定はできない。しかし、実施の形態1に係る状態判定システム100は、3状態以上の判定も可能である。
***他の構成***
<変形例1>
実施の形態1では、対象物は扉や信号機のように固定されたものであるとした。しかし対象物は動体でもよい。例えば対象物が人の場合、対象の状態として人が手を挙げている、手を挙げていないという2つの状態が考えられる。このとき、図4のステップS12で手を挙げている状態、手を挙げていない状態の2属性モデルを学習済みモデルとして生成する。
また図6のステップS22では領域切出部212は、対象物が含まれるように事前に設定された領域の部分画像を切り出すように動作した。対象物が動体のとき、領域切出部212は、SSD(Single Shot MultiBox Dstector)を用いて、画像データから対象物が含まれる領域を検知しその領域を部分画像として切り出すように動作する。
また危険予知の判定等をするために、対象物が人、対象の状態として車椅子に座っている、車椅子に座っていないの2つの状態が考えられる。また対象物が人、対象の状態としてベビーカに座っている、ベビーカに座っていないの2つの状態が考えられる。また対象物が人、対象の状態として白杖を持っている、白杖を持っていないの2つの状態が考えられる。またこれらの状態を組み合わせて、対象の状態として車椅子に座っているか、ベビーカに座っているかのいずれかの状態と、車椅子に座っていないし、ベビーカにも座っていない状態の2つの状態が考えられる。対象の状態として車椅子に座っているか、ベビーカに座っているか、白杖を持っているかのいずれかの状態と、車椅子に座っていないし、ベビーカにも座っていないし、白杖も持っていない状態の2つの状態も考えられる。
このように判定したい状態に合わせて学習済みモデルを生成することにより、対象物が動体であり、対象の状態が2つ以上の状態のいずれかと、2つ以上の状態のいずれかでもないとする場合であっても状態を判定することができる。
また対象物が人で、対象の状態を性別や、大人か子供とすることも可能である。
<変形例1>
実施の形態1では、対象物は扉や信号機のように固定されたものであるとした。しかし対象物は動体でもよい。例えば対象物が人の場合、対象の状態として人が手を挙げている、手を挙げていないという2つの状態が考えられる。このとき、図4のステップS12で手を挙げている状態、手を挙げていない状態の2属性モデルを学習済みモデルとして生成する。
また図6のステップS22では領域切出部212は、対象物が含まれるように事前に設定された領域の部分画像を切り出すように動作した。対象物が動体のとき、領域切出部212は、SSD(Single Shot MultiBox Dstector)を用いて、画像データから対象物が含まれる領域を検知しその領域を部分画像として切り出すように動作する。
また危険予知の判定等をするために、対象物が人、対象の状態として車椅子に座っている、車椅子に座っていないの2つの状態が考えられる。また対象物が人、対象の状態としてベビーカに座っている、ベビーカに座っていないの2つの状態が考えられる。また対象物が人、対象の状態として白杖を持っている、白杖を持っていないの2つの状態が考えられる。またこれらの状態を組み合わせて、対象の状態として車椅子に座っているか、ベビーカに座っているかのいずれかの状態と、車椅子に座っていないし、ベビーカにも座っていない状態の2つの状態が考えられる。対象の状態として車椅子に座っているか、ベビーカに座っているか、白杖を持っているかのいずれかの状態と、車椅子に座っていないし、ベビーカにも座っていないし、白杖も持っていない状態の2つの状態も考えられる。
このように判定したい状態に合わせて学習済みモデルを生成することにより、対象物が動体であり、対象の状態が2つ以上の状態のいずれかと、2つ以上の状態のいずれかでもないとする場合であっても状態を判定することができる。
また対象物が人で、対象の状態を性別や、大人か子供とすることも可能である。
<変形例2>
図6のステップS25で通知部215は、ステップS24で判定された結果が不明状態である場合には、前の状態を通知してもよい。言い換えると、結果が不明状態である場合には、通知を保留してもよい。
図12に示すように、対象物の前を何らかの物体が通る場合がある。この場合には、対象物が一時的に遮蔽されてしまい、不明状態と判定される可能性がある。そこで、不明状態と判定された場合には、通知部215は、直前で判定された不明状態以外の結果を通知する。
図6のステップS25で通知部215は、ステップS24で判定された結果が不明状態である場合には、前の状態を通知してもよい。言い換えると、結果が不明状態である場合には、通知を保留してもよい。
図12に示すように、対象物の前を何らかの物体が通る場合がある。この場合には、対象物が一時的に遮蔽されてしまい、不明状態と判定される可能性がある。そこで、不明状態と判定された場合には、通知部215は、直前で判定された不明状態以外の結果を通知する。
<変形例3>
直近基準回に実行された図6のステップS24の処理で判定された結果を総合して、複数の状態と、不明状態とのうちのどの状態であるかが判定されてもよい。
この場合には、図13に示すように、状態判定装置20は、機能構成要素として、総合判定部216を備える。総合判定部216は、直近基準回おける組合判定部214に判定された結果を総合して、状態を判定する。通知部215は、総合判定部216によって判定された結果を通知する。
直近基準回に実行された図6のステップS24の処理で判定された結果を総合して、複数の状態と、不明状態とのうちのどの状態であるかが判定されてもよい。
この場合には、図13に示すように、状態判定装置20は、機能構成要素として、総合判定部216を備える。総合判定部216は、直近基準回おける組合判定部214に判定された結果を総合して、状態を判定する。通知部215は、総合判定部216によって判定された結果を通知する。
具体的には、総合判定部216は、図14に示すように、多数決により判定を行う。つまり、総合判定部216は、直近基準回の結果のうち、最も多い結果が示す状態と判定する。図14の例では、基準回を5回とし、時刻t0からt5のタイミングでステップS24の判定がされるものとする。時刻t4では、時刻t0から時刻t4の結果のうち最も多い開状態であると判定される。時刻t5では、時刻t1から時刻t5の結果のうち最も多い開状態であると判定される。
また、総合判定部216は、結果の連続性を考慮してもよい。総合判定部216は、図15に示すように、基準回連続して同じ状態を示す結果であった場合に、その状態であると判定する。図15では、基準回を3回としている。つまり、時刻t4では、時刻t2から時刻t4のうち、時刻t2が不明状態を示すため、開状態と判定されない。この場合には、判定が保留される。その結果、通知部215は、前に判定された結果を通知する。これに対して、時刻t5では、時刻t3から時刻t5の結果がいずれも開状態を示すため、開状態であるとは判定される。
総合判定部216は、多数決による判定と、結果の連続性を考慮した判定とを組み合わせて用いてもよい。例えば、総合判定部216は、多数決による判定と結果の連続性を考慮した判定との結果が同一でない場合には判定を保留してもよい。
<変形例4>
図6のステップS24では、閾値が用いられた。閾値は、複数の状態それぞれについて別々に定められてもよい。
具体例としては、複数の状態のうち優先的に判定される状態がある場合には、その状態の閾値だけを低くすることが考えられる。例えば、対象物が信号機であるとする。そして判定結果に従い移動体が制御されているとする。赤状態であるにも関わらず、誤って青状態であると判定されると事故が発生する可能性が高くなる。そこで、赤状態と判定され易くなるように、青状態及び黄状態よりも赤状態の閾値を低く設定することが考えられる。
また、複数の状態それぞれについての学習済モデルの判定精度に応じて閾値を設定することが考えられる。判定精度が低く、確率が低く出てしまう状態については閾値を低くする。これにより、その状態と判定されづらくなることを防止できる。
図6のステップS24では、閾値が用いられた。閾値は、複数の状態それぞれについて別々に定められてもよい。
具体例としては、複数の状態のうち優先的に判定される状態がある場合には、その状態の閾値だけを低くすることが考えられる。例えば、対象物が信号機であるとする。そして判定結果に従い移動体が制御されているとする。赤状態であるにも関わらず、誤って青状態であると判定されると事故が発生する可能性が高くなる。そこで、赤状態と判定され易くなるように、青状態及び黄状態よりも赤状態の閾値を低く設定することが考えられる。
また、複数の状態それぞれについての学習済モデルの判定精度に応じて閾値を設定することが考えられる。判定精度が低く、確率が低く出てしまう状態については閾値を低くする。これにより、その状態と判定されづらくなることを防止できる。
<変形例5>
図1を用いて説明した状態判定システム100は、学習装置10と、状態判定装置20と、モデル記憶装置30とが別の装置として構成していた。しかし、学習装置10と、状態判定装置20と、モデル記憶装置30とは同一装置でもよい。また学習装置10とモデル記憶装置30とが同一装置でもよいし、状態判定装置20とモデル記憶装置30とが同一装置でもよい。
図1を用いて説明した状態判定システム100は、学習装置10と、状態判定装置20と、モデル記憶装置30とが別の装置として構成していた。しかし、学習装置10と、状態判定装置20と、モデル記憶装置30とは同一装置でもよい。また学習装置10とモデル記憶装置30とが同一装置でもよいし、状態判定装置20とモデル記憶装置30とが同一装置でもよい。
<変形例6>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例6として、各機能構成要素はハードウェアで実現されてもよい。この変形例6について、実施の形態1と異なる点を説明する。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例6として、各機能構成要素はハードウェアで実現されてもよい。この変形例6について、実施の形態1と異なる点を説明する。
図16を参照して、変形例6に係る学習装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、学習装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素がハードウェアで実現される場合には、学習装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
図17を参照して、変形例6に係る状態判定装置20の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、状態判定装置20は、プロセッサ21とメモリ22とストレージ23とに代えて、電子回路25を備える。電子回路25は、各機能構成要素と、メモリ22と、ストレージ23との機能とを実現する専用の回路である。
各機能構成要素がハードウェアで実現される場合には、状態判定装置20は、プロセッサ21とメモリ22とストレージ23とに代えて、電子回路25を備える。電子回路25は、各機能構成要素と、メモリ22と、ストレージ23との機能とを実現する専用の回路である。
電子回路15,25としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、FPGAが想定される。GAは、Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。FPGAは、Field-Programmable Gate Arrayの略である。
各機能構成要素を1つの電子回路15,25で実現してもよいし、各機能構成要素を複数の電子回路15,25に分散させて実現してもよい。
各機能構成要素を1つの電子回路15,25で実現してもよいし、各機能構成要素を複数の電子回路15,25に分散させて実現してもよい。
<変形例7>
変形例7として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
変形例7として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ11,21とメモリ12,22とストレージ13,23と電子回路15,25とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
また、以上の説明における「部」を、「回路」、「工程」、「手順」、「処理」又は「処理回路」に読み替えてもよい。
以上、本開示の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本開示は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。
100 状態判定システム、10 学習装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、111 画像登録部、112 モデル学習部、113 モデル出力部、20 状態判定装置、21 プロセッサ、22 メモリ、23 ストレージ、24 通信インタフェース、25 電子回路、211 映像受信部、212 領域切出部、213 モデル実行部、214 組合判定部、215 通知部、216 総合判定部、241 カメラ、242 表示装置、30 モデル記憶装置、90 伝送路。
Claims (8)
- 複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得するモデル実行部と、
前記モデル実行部によって取得された前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する組合判定部と
を備える状態判定装置。 - 前記判定結果は、前記対象の状態である確率を示し、
前記組合判定部は、前記複数の状態それぞれについての前記判定結果が示す確率が閾値未満である場合には、前記不明状態であると判定する
請求項1に記載の状態判定装置。 - 前記組合判定部は、
前記複数の状態のうちの1つの状態についての前記判定結果が示す確率だけが閾値以上である場合には、前記1つの状態であると判定し、
前記複数の状態のうちの2つ以上の状態についての前記判定結果が示す確率が前記閾値以上である場合には、前記2つ以上の状態についての前記判定結果が示す確率の比較により、前記2つ以上の状態のうちのどの状態であるかを判定する
請求項1又は2に記載の状態判定装置。 - 前記モデル実行部は、映像データを構成する複数のフレームの画像データについて順に、前記複数の状態それぞれを対象の状態として設けられた前記学習済モデルから前記判定結果を取得し、
前記状態判定装置は、さらに、
前記組合判定部によって判定された結果を通知する通知部であって、前記不明状態であると判定された場合には、前記組合判定部によって前に判定された結果を通知する通知部
を備える請求項1から3までのいずれか1項に記載の状態判定装置。 - 前記モデル実行部は、映像データを構成する複数のフレームの画像データについて順に、前記複数の状態それぞれを対象の状態として設けられた前記学習済モデルから前記判定結果を取得し、
前記状態判定装置は、さらに、
直近基準回に前記組合判定部によって判定された結果を総合して、前記複数の状態と、前記不明状態とのうちのどの状態であるかを判定する総合判定部
を備える請求項1から4までのいずれか1項に記載の状態判定装置。 - 前記閾値は、前記複数の状態それぞれについて別々に定められた
請求項2に記載の状態判定装置。 - コンピュータが、複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得し、
コンピュータが、前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する状態判定方法。 - 複数の状態それぞれを対象の状態として設けられた学習済モデルであって、前記対象の状態であるか、又は、前記対象の状態以外の状態であるかを判定する学習済モデルから、画像データから抽出された特徴量を入力とした場合の判定結果を取得するモデル実行処理と、
前記モデル実行処理によって取得された前記複数の状態それぞれについての前記判定結果から、前記複数の状態と、前記複数の状態のいずれでもない不明状態とのうちのどの状態であるかを判定する組合判定処理と
を行う状態判定装置としてコンピュータを機能させる状態判定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022045187A JP7219834B1 (ja) | 2022-03-22 | 2022-03-22 | 状態判定装置、状態判定方法及び状態判定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022045187A JP7219834B1 (ja) | 2022-03-22 | 2022-03-22 | 状態判定装置、状態判定方法及び状態判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7219834B1 true JP7219834B1 (ja) | 2023-02-08 |
JP2023139590A JP2023139590A (ja) | 2023-10-04 |
Family
ID=85172237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022045187A Active JP7219834B1 (ja) | 2022-03-22 | 2022-03-22 | 状態判定装置、状態判定方法及び状態判定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7219834B1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020169680A (ja) | 2019-04-03 | 2020-10-15 | 株式会社Ihiインフラシステム | ボルトの締結状態検知装置及び方法、並びにプログラム |
JP2021125076A (ja) | 2020-02-07 | 2021-08-30 | 亮輔 奥田 | 歩行者信号識別装置 |
-
2022
- 2022-03-22 JP JP2022045187A patent/JP7219834B1/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020169680A (ja) | 2019-04-03 | 2020-10-15 | 株式会社Ihiインフラシステム | ボルトの締結状態検知装置及び方法、並びにプログラム |
JP2021125076A (ja) | 2020-02-07 | 2021-08-30 | 亮輔 奥田 | 歩行者信号識別装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2023139590A (ja) | 2023-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106878668B (zh) | 对物体的移动检测 | |
US8731302B2 (en) | Moving image extracting apparatus, program and moving image extracting method | |
US9031280B2 (en) | Temporal-correlations-based mode connection | |
CN102917159B (zh) | 用于改进的多模式背景去除的模式移除 | |
JP2016085487A (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
US11956567B2 (en) | Image capturing apparatus, control method, and computer-readable storage medium | |
US20230013850A1 (en) | Image capturing apparatus, control method, and computer-readable storage medium | |
WO2019109722A1 (zh) | 隐私遮蔽处理方法、装置、电子设备及存储介质 | |
US10614336B2 (en) | Method, system, and computer-readable recording medium for image-based object tracking | |
JP7219834B1 (ja) | 状態判定装置、状態判定方法及び状態判定プログラム | |
US8660361B2 (en) | Image processing device and recording medium storing image processing program | |
US10725817B2 (en) | Reducing spin count in work-stealing for copying garbage collection based on average object references | |
US20220318954A1 (en) | Real time machine learning-based privacy filter for removing reflective features from images and video | |
US11295457B2 (en) | Tracking apparatus and computer readable medium | |
US20230316531A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6660501B1 (ja) | データ抽出装置、データ抽出方法及びデータ抽出プログラム | |
JP7411752B1 (ja) | 置去人特定装置、置去人特定方法及び置去人特定プログラム | |
JP6602521B1 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
WO2024018876A1 (ja) | 被写体検出装置、被写体検出方法及び被写体検出プログラム | |
JP6782826B1 (ja) | 画像判定装置、画像判定方法及び画像判定プログラム | |
JP7427820B1 (ja) | 状態解析装置、状態解析方法及び状態解析プログラム | |
US20230103764A1 (en) | Information processing apparatus, and control method | |
JP7412614B1 (ja) | 追跡装置、追跡方法及び追跡プログラム | |
WO2024190123A1 (ja) | 処理装置、処理方法、及び記録媒体 | |
WO2021096026A1 (en) | Adaptable presentation for network-connected electronic devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7219834 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |