JP2024049181A - Information processor and information processing method - Google Patents
Information processor and information processing method Download PDFInfo
- Publication number
- JP2024049181A JP2024049181A JP2022155486A JP2022155486A JP2024049181A JP 2024049181 A JP2024049181 A JP 2024049181A JP 2022155486 A JP2022155486 A JP 2022155486A JP 2022155486 A JP2022155486 A JP 2022155486A JP 2024049181 A JP2024049181 A JP 2024049181A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information processing
- determination
- result
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 107
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 230000005856 abnormality Effects 0.000 claims abstract description 65
- 238000001514 detection method Methods 0.000 claims abstract description 35
- 238000012790 confirmation Methods 0.000 claims description 48
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 abstract description 15
- 238000012795 verification Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 78
- 230000008569 process Effects 0.000 description 65
- 238000004891 communication Methods 0.000 description 21
- 230000002159 abnormal effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、情報処理装置および情報処理方法に関する。 Embodiments of the present invention relate to an information processing device and an information processing method.
従来、撮像画像から人物を検出し、検出した人物の移動速度に基づいて異常を検知する技術が知られている。たとえば、監視映像に写っている人物(例えば、警備員)の移動速度が予め設定された閾値を超えている場合に、監視映像に映っている区域の異常を検知する技術が知られている。 Conventionally, there is known a technique for detecting a person from a captured image and detecting an abnormality based on the movement speed of the detected person. For example, there is known a technique for detecting an abnormality in an area captured in surveillance video when the movement speed of a person (e.g., a security guard) captured in the surveillance video exceeds a preset threshold.
しかしながら、従来技術には、異常判定処理における誤判定を低減するという点で更なる改善の余地があった。 However, the conventional technology still had room for improvement in terms of reducing erroneous judgments in the anomaly judgment process.
本発明が解決しようとする課題は、異常判定処理における誤判定を低減することができる情報処理装置および情報処理方法を提供することを目的とする。 The problem that the present invention aims to solve is to provide an information processing device and an information processing method that can reduce erroneous judgments in anomaly judgment processing.
実施形態に係る情報処理装置は、検出部と、推定部と、判定部と、学習部とを具備する。検出部は、撮像部によって撮像された撮像画像から人物を検出する。推定部は、検出部によって検出された人物の移動速度を推定する。判定部は、推定部によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する。学習部は、判定部による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する。 The information processing device according to the embodiment includes a detection unit, an estimation unit, a determination unit, and a learning unit. The detection unit detects a person from an image captured by the imaging unit. The estimation unit estimates the movement speed of the person detected by the detection unit. The determination unit determines that an abnormality has occurred when the movement speed estimated by the estimation unit exceeds a threshold. The learning unit learns the threshold according to the determination result by the determination unit and the result of the user's confirmation of the captured image.
以下で説明する実施形態に係る情報処理装置300は、撮像部31によって撮像された撮像画像から人物を検出する検出部122と、検出部122によって検出された人物の移動速度を推定する推定部123と、推定部123によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定部126と、判定部126による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する学習部128とを具備する。
The
また、以下で説明する実施形態に係る情報処理装置300は、判定部126による判定結果を利用者が使用する端末装置400に通知する通知部127と、端末装置400から確認結果を取得する取得部121とを具備する。
The
また、以下で説明する実施形態に係る情報処理装置300において、学習部128は、判定結果と確認結果とに応じて、人物が検出された時間帯、同時に検出された人物の人数および推定部によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルを学習する。
In addition, in the
また、以下で説明する実施形態に係る情報処理装置300は、状況を特定する状況特定部124と、学習部128によって学習されたモデルを用いて、状況特定部124によって特定された状況から閾値を決定する閾値決定部125とを具備する。
The
また、以下で説明する実施形態に係る情報処理方法は、撮像部31によって撮像された撮像画像から人物を検出する検出工程と、検出工程によって検出された人物の移動速度を推定する推定工程と、推定工程によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定工程と、判定工程による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する学習工程とを含む。
The information processing method according to the embodiment described below includes a detection process for detecting a person from an image captured by the
以下、図面を参照して、実施形態に係る情報処理装置および情報処理方法について説明する。なお、以下に示す実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, an information processing device and an information processing method according to an embodiment will be described with reference to the drawings. Note that in the embodiments described below, the same components are given the same reference numerals, and duplicated descriptions will be omitted.
<情報処理装置300による情報処理>
まず、図1を用いて、実施形態に係る情報処理装置300によって実行される処理の概要について説明する。図1は、実施形態に係る情報処理装置300によって実行される処理の概要を示す図である。
<Information processing by
First, an overview of the process executed by the
実施形態に係る情報処理システム1は、例えば、照明装置100と、情報処理装置300と、端末装置400とを含む。
The
照明装置100は、例えば、工場等の建物の天井に取り付けられる照明装置である。情報処理装置300は、例えば、クラウドサーバである。端末装置400は、例えば、デスクトップ型PC(Personal Computer)や、ノート型PC、スマートフォン、タブレット型端末、PDA(Personal Digital Assistant)である。端末装置400は、例えば、照明装置100が設置された建物を管理する利用者によって使用される。
The
照明装置100は、照明ユニット20とカメラユニット30とを有する。かかる照明装置100は、照明ユニット20によって照明されるエリアをカメラユニット30により撮像することができる。照明装置100は、カメラユニット30を用いて照明エリアを撮像し(ステップS1)、撮像された撮像画像を情報処理装置300に送信する(ステップS2)。
The
情報処理装置300は、照明装置100から取得した撮像画像に対して所定の画像処理を行うことによって撮像画像から人物TGを検出する(ステップS3)。
The
つづいて、情報処理装置300は、検出した人物TGの移動速度を推定する(ステップS4)。例えば、情報処理装置300は、撮像画像から抽出された人物TGの特徴量に基づいて人物TGを識別することで複数フレーム間においてその人物TGを追跡することができる。情報処理装置300は、例えば、カメラユニット30のフレームレートと、連続する複数のフレーム間における人物TGの移動距離とに基づいて人物TGの移動速度を推定することができる。
Next, the
つづいて、情報処理装置300は、人物TGの移動速度と閾値とを用いて異常判定処理を行う(ステップS5)。具体的には、情報処理装置300は、人物TGの移動速度が閾値を超えた場合に、異常が発生したと判定する。なお、異常とは、例えば、照明装置100が設置された建物において発生した異常のことである。
Next, the
ここで、撮像画像に写り込む人物(例えば、工場で働く作業員等)は、状況によっては、異常が発生していない場合であっても通常より速い速度で移動することがあり得る。このため、人物の移動速度に基づいて異常判定を行う場合において、固定化された単一の閾値を用いることとすると、正常であるにもかかわらず異常と判定する誤判定が生じるおそれがある。このような誤判定を低減するためには、異常判定処理に用いる閾値は、例えば、検出された人数や時間帯等の状況に応じて最適化されることが望ましい。そこで、実施形態に係る情報処理装置300では、異常判定処理の判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習することとした。これにより閾値が最適化されることで、異常判定処理における誤判定を低減することができる。
Here, depending on the situation, a person appearing in the captured image (e.g., a worker working in a factory) may move faster than normal even when no abnormality is occurring. For this reason, if a fixed single threshold is used when performing an abnormality determination based on the speed at which a person moves, there is a risk of an erroneous determination that an abnormality exists when in fact it is normal. In order to reduce such erroneous determinations, it is desirable to optimize the threshold used in the abnormality determination process according to the circumstances, such as the number of people detected and the time of day. Therefore, in the
情報処理装置300は、異常判定処理の判定結果を含む確認要求を端末装置400に送信する(ステップS6)。確認要求には、例えば、異常判定処理の判定結果の他、異常判定処理に用いられた撮像画像、異常が検出された日時、検出された人物TGの人数、検出された人物TGの移動速度等の状況に関する情報が含まれる。
The
端末装置400は、情報処理装置300から異常判定処理の判定結果を取得した場合に、利用者による撮像画像の確認結果を情報処理装置300に送信する(ステップS7)。
When the
例えば、端末装置400は、判定結果を取得した場合に、判定結果(異常が発生した旨の情報)、異常判定処理に用いられた撮像画像、異常が検出された日時、検出された人数、推定された移動速度、確認結果の選択ボタン等を含む確認画面を表示部に表示させる。利用者は、かかる確認画面を参照して、異常判定処理の判定結果が実際の状況と一致しているか否かを確認する。言い換えれば、利用者は、撮像画像に写っている状況が異常であるか否かを確認する。
For example, when the
利用者は、異常判定処理の判定結果が実際の状況と一致していると判断した場合、例えば、端末装置400の表示部に表示された「Yes」ボタンをマウス等の入力操作部を用いて選択する。また、利用者は、異常判定処理の判定結果が実際の状況と一致していないと判断した場合、端末装置400の表示部に表示された「No」ボタンを入力操作部を用いて選択する。端末装置400は、利用者による入力操作に応じた確認結果を情報処理装置300に送信する。確認結果には、異常判定処理の判定結果と実際の状況とが一致しているか否かの情報、つまり、異常判定処理の判定結果の正否に関する情報が含まれる。
If the user determines that the determination result of the anomaly determination process matches the actual situation, the user selects, for example, the "Yes" button displayed on the display unit of the
そして、情報処理装置300は、異常判定処理の判定結果と、端末装置400から取得した確認結果とに応じて、異常判定処理に用いる閾値を学習する(ステップS8)。
Then, the
例えば、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致していない旨の確認結果を取得した場合、異常判定処理に用いた閾値の値を高くする。これにより閾値が最適化されることで、異常判定処理における誤判定を低減することができる。
For example, when the
なお、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合には閾値の値を維持する。あるいは、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合に閾値の値を低くしてもよい。
The
ここでは、情報処理装置300によって異常と判定された場合の例について説明したが、情報処理装置300は、異常ではないと判定した場合にも、異常判定処理の判定結果を端末装置400に送信してもよい。この場合、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致していない旨の確認結果を端末装置400から取得した場合には閾値の値を下げる。また、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合には閾値の値を維持する。あるいは、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合には閾値の値を上げてもよい。
Here, an example has been described in which the
情報処理装置300は、人物が検出された時間帯、同時に検出された人物の人数および推定された移動速度の少なくとも一つを含む状況と、異常判定処理に用いられる閾値との関係性を示すモデルを記憶していてもよい。この場合、情報処理装置300は、人物が検出された時間帯、同時に検出された人物の人数および推定部によって推定された移動速度の少なくとも一つを含む状況を特定し、特定した状況から上記モデルを用いて閾値を出力させてもよい。そして、情報処理装置300は、異常判定処理の判定結果と、利用者による撮像画像の確認結果とに応じて、上記モデルを学習してもよい。例えば、情報処理装置300は、判定結果が「異常」であり、確認結果が「異常でない」である場合、閾値の値が高くなるようにモデルのパラメータを更新する。このようにしてモデルを学習することで、状況に応じて適切な値に変動する閾値を用いて異常判定処理を実施することができ、これにより、異常判定処理の誤判定を低減することができる。
The
<情報処理システム1の構成例>
次に、図2を用いて、実施形態に係る情報処理システム1の構成例について説明する。図2は、実施形態に係る情報処理システム1の構成例を示すブロック図である。
<Configuration example of
Next, a configuration example of the
図2に示すように、情報処理システム1は、複数の照明装置100と、情報処理装置300と、端末装置400とを有する。複数の照明装置100、情報処理装置300および端末装置400は、インターネット等のネットワークNを介して互いに通信可能に接続される。
As shown in FIG. 2, the
照明装置100は、例えば、工場等の建物の天井に取り付けられる。上述したように、照明装置100は、照明ユニット20に加えてカメラユニット30を有しており、照明ユニット20によって照明されるエリアをカメラユニット30により撮像することができる。照明装置100の構成については図3および図4を参照して説明する。
The
ここでは、情報処理システム1が複数の照明装置100を備える場合の例を示しているが、情報処理システム1は、少なくとも1つの照明装置100を備えていればよい。
Here, an example is shown in which the
情報処理装置300は、ネットワークNを介して照明装置100から撮像画像を取得し、取得した撮像画像に基づいて人物の移動速度の推定処理および異常判定処理を行う。また、情報処理装置300は、異常判定処理の判定結果をネットワークN経由で端末装置400に送信する。情報処理装置300の構成については図6を参照して説明する。
The
端末装置400は、情報処理装置300からネットワークNを介して異常判定処理の判定結果を取得した場合に、判定結果に対応する画像の利用者による確認結果をネットワークN経由で情報処理装置300に送信する。
When the
なお、情報処理システム1の構成は、図2に示す例に限定されない。例えば、情報処理システム1は、照明装置100、情報処理装置300および端末装置400の他に、中継器を含んでいてもよい。中継器は、中継処理を行う機能を有する装置である。例えば、中継器は、いわゆるゲートウェイとして機能する情報処理装置(コンピュータ)である。この場合、照明装置100は、中継器とLAN(Local Area Network)等を介して、有線または無線により通信可能に接続され、中継器を介して情報処理装置300と通信する。
The configuration of the
<照明装置100の構成例>
次に、照明装置100の構成の一例について図3および図4を参照して説明する。図3は、実施形態に係る照明装置100の側面図である。図4は、実施形態に係る照明装置100の下面図である。
<Configuration example of
Next, an example of the configuration of the
図3に示すように、実施形態に係る照明装置100は、照明ユニット20と、カメラユニット30と、電源ユニット40とを備える。また、照明ユニット20と、カメラユニット30とは、L字金具を介してネジ止めされ、照明ユニット20と、電源ユニット40とは、連結部12を介して連結される。
As shown in FIG. 3, the
連結部12は、さらに、取付部11と接合し、取付部11を介して、照明装置100が天井などの設置面に取り付けられる。
The connecting
照明ユニット20は、光源部21と、フィン25とを備える。フィン25は、光源部21の上部に設けられ、光源部21の発光による発熱を冷却する。図4に示すように、光源部21は、基板21a上にLED(Light Emitting Diode)等の発光素子21bが設けられる。
The
光源部21の出射面は、不図示のカバーによって覆われる。なお、カバーは、例えば、透過性のガラスや樹脂である。なお、図4に示す例では、光源部21が4つの基板21aから構成される場合を示しているが、これに限定されるものではない。
The light output surface of the
カメラユニット30は、撮像部31と、レンズ32とを備える。撮像部31は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像センサや、画像または映像を撮影するのに必要となる各種部品が含まれる。また、撮像部31の下面は、レンズ32によって覆われる。
The
図4に示すように、光源部21と、撮像部31との向きは、それぞれ取り付け時に同一の方向を向くことになる。これにより、光源部21によって光が照射されたエリアを撮像部31によって撮像することができるので、撮影対象の照度を確保することができるので、鮮明な画像を撮像することができる。
As shown in FIG. 4, the
照明装置100は、天井に設置されるので、天井から空間内を俯瞰した画像を撮影することができる。なお、図3および図4に示す照明装置100の外観形状は、一例であり、ベースライト、シーリングライトなど、その他の形状であってもよい。
Since the
<照明装置100の機能構成例>
次に、図5を用いて、実施形態に係る照明装置100の機能構成の一例について説明する。図5は、実施形態に係る照明装置の構成を示すブロック図である。図5に示すように、照明装置100は、通信部10と、照明ユニット20と、カメラユニット30と、制御部50とを有する。
<Example of functional configuration of
Next, an example of a functional configuration of the
通信部10は、情報処理装置300等の他の装置との間で情報の送受信を行う。通信部10は、例えば、所定の通信回路またはNIC(Network Interface Card)等によって実現される。通信部10による通信方式は、例えば、ローカルエリアネットワーク(LAN)などの無線通信であってよい。なお、通信部10による通信方式は、任意の通信方式であってよく、例えば、有線通信等であってもよい。
The
カメラユニット30は、撮像部31と、撮像制御部33と、記憶部34とを有する。撮像部31は、特定の画角(以下、「撮像領域」と記載する)を撮影して画像データ(「撮像画像」ともいう)を生成する。なお、画像データは、動画データであってもよく、静止画データであってもよい。画像データには、撮像日時(日付、曜日、時刻等)、フレームレート、撮像部31の識別情報等が含まれてもよい。
The
撮像制御部33は、撮像部31による撮影を制御する。また、撮像制御部33は、撮像部31の撮影により生成した画像データを制御部50に出力する。
The
記憶部34は、カメラユニット30の各種制御を実現するためのプログラムやデータを記憶する。記憶部34は、撮像部31によって生成された画像データを記憶してもよい。記憶部34は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置によって実装される。
The storage unit 34 stores programs and data for implementing various controls of the
制御部50は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部メモリに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。制御部50は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部50は、取得部51と、送信処理部52とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部50の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
The
取得部51は、各種情報を取得する。例えば、取得部51は、カメラユニット30から各種情報を取得する。送信処理部52は、通信部10を介して外部装置に各種情報を送信する処理を行う。例えば、送信処理部52は、取得部51によって取得された画像データを通信部10およびネットワークNを介して情報処理装置300へ送信する処理を行う。
The acquisition unit 51 acquires various information. For example, the acquisition unit 51 acquires various information from the
<情報処理装置300の機能構成例>
次に、図6を用いて、実施形態に係る情報処理装置300の構成例について説明する。図6は、実施形態に係る情報処理装置300の構成を示すブロック図である。図6に示すように、情報処理装置300は、通信部110と、制御部120と、記憶部130とを具備する。
<Example of functional configuration of
Next, a configuration example of the
通信部110は、例えば、所定の通信回路またはNIC等によって実現される。通信部10による通信方式は、例えば、ローカルエリアネットワーク(LAN)などの無線通信であってよい。
The
記憶部130は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部130は、画像記憶部131と、追跡情報記憶部132と、モデル記憶部133とを有する。
The
画像記憶部131は、撮像部31によって撮影された撮像画像を格納するデータベースである。画像記憶部131には、例えば、画素データ、撮像日時(日付、曜日、時刻等)、フレームレート、撮像部31の識別情報等が互いに関連づけられて格納される。
The
追跡情報記憶部132は、後述する検出部122によって生成される人物の追跡情報を格納するデータベースである。図7は、実施形態に係る追跡情報記憶部132の一例を示す図である。
The tracking
図7に示す例において、追跡情報記憶部132は、例えば、「人物ID」と「追跡情報」とを互いに対応付けて記憶する。「人物ID」は、後述する検出部122によって検出された人物を識別する識別情報である。
In the example shown in FIG. 7, the tracking
「追跡情報」は、例えば、「日付」、「曜日」、「時刻」、「位置」、「移動速度」といった項目を有する。「日付」項目には、人物が検出された日付、例えば、年月日が格納される。「曜日」項目には、人物が検出された曜日が格納される。「時刻」項目には、人物が検出された時刻が格納される。「位置」項目には、検出したカメラユニット30の情報(例えば、カメラユニット30の設置位置に関する情報やカメラユニット30の識別情報など)が格納される。「移動速度」項目には、後述する推定部123によって推定された移動速度が格納される。
"Tracking information" has items such as "date", "day of the week", "time", "location", and "movement speed". The "date" item stores the date on which the person was detected, for example, the year, month, and day. The "day of the week" item stores the day of the week on which the person was detected. The "time" item stores the time on which the person was detected. The "location" item stores information on the detected camera unit 30 (for example, information on the installation location of the
モデル記憶部133は、撮像画像が撮像された際の各種状況に関する情報と、後述する判定部126によって用いられる閾値との関係性を示すモデルを記憶する。具体的には、このモデルは、撮像画像が撮像された際の各種状況に関する情報が入力された場合に、後述する判定部126によって用いられる閾値の値を算出するモデルである。
The
図6の説明に戻り、制御部120について説明する。制御部120は、例えば、CPUやMPU等によって、内部メモリに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。制御部120は、例えば、ASICやFPGA等の集積回路により実現されてもよい。
Returning to the explanation of FIG. 6, the
制御部120は、取得部121と、検出部122と、推定部123と、状況特定部124と、閾値決定部125と、判定部126と、通知部127と、学習部128とを有する。
The
取得部121は、照明装置100から撮像画像を取得する。取得部121は、取得した撮像画像を画像記憶部131に記憶させる。画像記憶部131には、例えば、画素データ、撮像日時(日付、曜日、時刻等)、フレームレート、撮像部31の識別情報等が互いに関連づけられて格納される。
The
また、取得部121は、利用者による撮像画像の確認結果を端末装置400から取得する。取得部121は、取得した確認結果を学習部128へ渡す。
In addition, the
検出部122は、画像記憶部131に記憶された撮像画像を画像解析することにより、撮像画像から人物を検出する。画像解析は、たとえば、検出モデルを用いることで実行されてもよい。検出モデルは、例えば、ディープニューラルネットワーク(DNN:Deep Neural Network)等の機械学習のアルゴリズムにより学習を行うことで得られる。検出モデルは、例えば、HOG(Histogram Of Gradient)特徴量を利用したSVM(Support Vector Machine)等の機械学習のアルゴリズムを用いる構成であってもよい。また、検出部122は、機械学習を行った検出モデルを用いることなく、例えば、テンプレートマッチング等を用いて各種検出を実行する構成であってもよい。検出部122は、例えば、フレーム毎に検出処理を行う。
The
また、検出部122は、検出した人物の追跡を行う。例えば、検出部122は、撮像画像から特徴量を抽出し、抽出した特徴量を多次元の特徴ベクトルへ変換することで、検出した人物の特徴情報を生成する。検出部122は、この特徴情報を用いて人物を識別することで、その人物を複数フレーム間で追跡することができる。
The
検出部122は、人物の識別情報である人物IDごとに、例えば、日付、曜日、時刻および位置等を含む追跡情報を追跡情報記憶部132に記憶させる。
The
推定部123は、追跡情報に基づき、検出部122によって検出された人物の移動速度を推定する。例えば、推定部123は、連続する複数のフレーム間における人物の移動距離を算出する。そして、推定部123は、算出した移動距離と、カメラユニット30のフレームレートとに基づいて人物の移動速度を推定する。推定部123は、推定した移動速度を追跡情報記憶部132に追加する。
The
状況特定部124は、人物が検出されたときの状況を特定する。例えば、状況特定部124は、人物が検出されたときの時間帯、曜日、同時に検出された人数、移動速度等を追跡情報記憶部132から特定する。
The situation identification unit 124 identifies the situation when a person is detected. For example, the situation identification unit 124 identifies the time period, day of the week, number of people detected at the same time, and moving speed when the person is detected from the tracking
閾値決定部125は、モデル記憶部133に記憶されたモデルを用いて、状況特定部124によって特定された各種状況から閾値を出力させる。閾値決定部125は、モデルから出力された閾値を、判定部126による異常判定処理に用いられる閾値として決定する。
The
例えば、モデル記憶部133に記憶されるモデルは、TH=f(x)のように表されてもよい。ここで、xは、人物が検出された際の状況に関する情報であり、モデルの特徴量である。モデルは、線形又は非線形の回帰モデルであってもよい。例えば、モデルは、xを説明変数とし、TH(閾値)を目的変数とする回帰モデルであってもよい。一例として、モデルは、TH=ax1+bx2+cx3+dx4・・・のような回帰モデルであってもよい。ここで、xn(nは正の整数)は特徴量である。例えば、x1、x2、x3、x4は、それぞれ時間帯、曜日、検出された人物の人数、人物の移動速度に相当する特徴量であってもよい。a~dは、x1、x2、x3、x4の係数であり、後述する学習部128による学習処理によって得られるパラメータである。
For example, the model stored in the
閾値決定部125は、状況特定部124によって特定された各種状況の特徴量をモデルに入力し、TH(閾値)を出力させる。閾値決定部125は、出力された閾値を判定部126へ渡す。
The
判定部126は、推定部123によって推定された移動速度と、閾値決定部125から取得した閾値とを用いて異常判定処理を行う。具体的には、判定部126は、移動速度と閾値とを比較し、移動速度の値が閾値よりも大きい場合に、異常が発生したと判定する。
The
なお、推定部123、状況特定部124、閾値決定部125および判定部126による処理は、例えば、単位時間ごと、言い換えれば、複数フレームごとに実行されてもよい。例えば、カメラユニット30のフレームレートが30fpsであると仮定すると、推定部123、状況特定部124、閾値決定部125および判定部126による処理は、例えば、1秒ごと、言い換えれば、30フレームごとに行われてもよい。また、これに限らず、推定部123、状況特定部124、閾値決定部125および判定部126による処理は、フレームごとに実行されてもよい。
The processing by the
通知部127は、判定部126による判定結果を通信部110およびネットワークNを介して端末装置400へ送信する。例えば、通知部127は、判定部126によって異常と判定された場合に、異常が発生した旨の情報、異常判定処理に用いられた撮像画像および異常が検出された際の状況を含む確認要求を通知する。
The
学習部128は、端末装置400から確認結果を取得した場合に、取得した確認結果と、判定部126による判定結果とに応じて閾値を学習する。具体的には、学習部128は、取得した確認結果と、判定部126による判定結果とに応じて、人物が検出された時間帯、同時に検出された人物の人数および推定部123によって推定された移動速度等を含む状況と閾値との関係性を示すモデルを学習する。
When the
例えば、判定結果が「異常」であり、確認結果が「異常でない」である場合、学習部128は、閾値の値が高くなるようにモデルのパラメータを更新する。また、判定結果が「異常」であり、確認結果も「異常」である場合、学習部128は、パラメータの更新を行わない。なお、これに限らず、学習部128は、判定結果が「異常」であり、確認結果も「異常」である場合に、閾値の値が低くなるようにモデルのパラメータを更新してもよい。
For example, if the judgment result is "abnormal" and the confirmation result is "not abnormal", the
なお、確認結果には、閾値の正解値が含まれていてもよい。閾値の正解値は、例えば、端末装置400の利用者によって入力される。この場合、学習部128は、モデルが出力した閾値と確認結果に含まれる閾値の正解値との差分が小さくなるようにモデルのパラメータを更新してもよい。
The confirmation result may include the correct value of the threshold. The correct value of the threshold is input, for example, by the user of the
ここでは、判定部126によって異常が判定された場合に、利用者に対して判定結果の確認要求を行うこととしたが、利用者による確認のタイミングは必ずしも異常が判定されたタイミングであることを要しない。例えば、情報処理装置300は、判定部126による判定結果(「異常でない」との判定結果も含む)をその判定処理が行われた際の状況とともに記憶部130に蓄積してもよい。この場合、端末装置400は、記憶部130に蓄積された情報を取得し、利用者は、蓄積された情報に対して「異常」か「異常でない」かの確認を行い、学習部128は、かかる確認結果に基づいて閾値を学習してもよい。なお、判定結果が「異常でない」であり、確認結果が「異常」である場合、学習部128は、閾値の値が低くなるようにモデルのパラメータを更新する。また、判定結果が「異常でない」であり、確認結果も「異常でない」である場合、学習部128は、パラメータの更新を行わない。なお、これに限らず、学習部128は、判定結果が「異常でない」であり、確認結果も「異常でない」である場合に、閾値の値が高くなるようにモデルのパラメータを更新してもよい。
Here, when the
<情報処理装置300の具体的動作>
次に、図8および図9を用いて、実施形態に係る情報処理装置300が実行する処理手順について説明する。まず、図8を用いて、実施形態に係る情報処理装置300が実行する異常判定処理の手順について説明する。図8は、実施形態に係る情報処理装置300が実行する異常判定処理の手順を示すフローチャートである。
<Specific Operation of
Next, a process procedure executed by the
図8に示すように、情報処理装置300は、照明装置100から撮像画像を取得し(ステップS101)、取得した撮像画像から人物を検出し、検出した人物を追跡する(ステップS102)。そして、情報処理装置300は、人物の追跡情報に基づき、人物の移動速度を推定する(ステップS103)。
As shown in FIG. 8, the
つづいて、情報処理装置300は、追跡情報に基づいて、人物が検出されたときの状況を特定し(ステップS104)、特定した状況を特徴量としてモデルに入力することで、その状況に応じた閾値を出力させる(ステップS105)。
Next, the
つづいて、情報処理装置300は、ステップS103において推定した移動速度が、ステップS105においてモデルから出力させた閾値を超えているか否かを判定する(ステップS106)。この処理において、移動速度が閾値を超えていると判定した場合(ステップS106,Yes)、情報処理装置300は、端末装置400に対して異常を通知する(ステップS107)。具体的には、情報処理装置300は、異常を検出した旨の情報、異常判定処理に用いられた撮像画像および異常が検出された際の状況を含む確認要求を通知する。
The
ステップS107の処理を終えた場合、または、ステップS106において移動速度が閾値を超えていない場合(ステップS106,No)、情報処理装置300は、処理を終了する。
When the processing of step S107 is completed, or when the moving speed does not exceed the threshold value in step S106 (step S106, No), the
次に、図9を用いて、実施形態に係る情報処理装置300が実行する学習処理の手順について説明する。図9は、実施形態に係る情報処理装置300が実行する学習処理の手順を示すフローチャートである。
Next, the procedure of the learning process executed by the
図9に示すように、情報処理装置300は、端末装置400から確認結果を取得する(ステップS201)。そして、情報処理装置300は、ステップS106における判定結果とステップS201において取得した確認結果とに基づいてモデルのパラメータを更新する(ステップS202)。
As shown in FIG. 9, the
(その他の実施形態)
上述した実施形態では、学習部128が、人物が検出された時間帯、曜日、同時に検出された人数および推定部123によって推定された移動速度を含む状況と閾値との関係性を示すモデルを学習する場合の例について説明した。これに限らず、学習部128は、人物が検出された時間帯、曜日、同時に検出された人物の人数および推定部123によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルを学習してもよい。言い換えれば、モデル記憶部133に記憶されるモデルは、人物が検出された時間帯、同時に検出された人物の人数および推定部123によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルであってもよい。
Other Embodiments
In the above-described embodiment, an example has been described in which the
上述したように、実施形態に係る情報処理装置300は、検出部122と、推定部123と、判定部126と、学習部128とを備える。検出部122は、撮像部31によって撮像された撮像画像から人物を検出する。推定部123は、検出部122によって検出された人物の移動速度を推定する。判定部126は、推定部123によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する。学習部128は、判定部126による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する。
As described above, the
したがって、実施形態に係る情報処理装置300によれば、異常判定処理における誤判定を低減することができる。
Therefore, the
実施形態に係る情報処理装置300は、通知部127と、取得部121とを具備していてもよい。通知部127は、判定部126による判定結果を利用者が使用する端末装置400に通知する。取得部121は、端末装置400から確認結果を取得する。かかる構成によれば、閾値の学習に必要な確認結果を収集することができる。
The
実施形態に係る情報処理装置300において、学習部128は、判定結果と確認結果とに応じて、人物が検出された時間帯、同時に検出された人物の人数および推定部によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルを学習してもよい。かかる構成によれば、状況に応じて最適化された閾値を出力するモデルを生成することができる。
In the
実施形態に係る情報処理装置300は、状況特定部124と、閾値決定部125とを具備してもよい。状況特定部124は、状況を特定する。閾値決定部125は、学習部128によって学習されたモデルを用いて、状況特定部124によって特定された状況から閾値を決定する。かかる構成によれば、状況に応じて最適化された閾値を用いて異常判定処理を実施することができ、これにより、異常判定処理の誤判定を低減することができる。
The
本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although an embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. This embodiment and its variations are within the scope of the invention and its equivalents as described in the claims, as well as the scope and gist of the invention.
20 照明ユニット
30 カメラユニット
31 撮像部
100 照明装置
110 通信部
120 制御部
121 取得部
122 検出部
123 推定部
124 状況特定部
125 閾値決定部
126 判定部
127 通知部
128 学習部
130 記憶部
131 画像記憶部
132 追跡情報記憶部
133 モデル記憶部
300 情報処理装置
400 端末装置
20
Claims (5)
前記検出部によって検出された人物の移動速度を推定する推定部と;
前記推定部によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定部と;
前記判定部による判定結果と、利用者による前記撮像画像の確認結果とに応じて前記閾値を学習する学習部と;
を具備する情報処理装置。 a detection unit that detects a person from an image captured by the imaging unit;
an estimation unit that estimates a moving speed of the person detected by the detection unit;
a determination unit that determines that an abnormality has occurred when the moving speed estimated by the estimation unit exceeds a threshold;
a learning unit that learns the threshold value in accordance with a result of the determination by the determination unit and a result of confirmation of the captured image by a user;
An information processing device comprising:
前記端末装置から前記確認結果を取得する取得部と;
を具備する請求項1に記載の情報処理装置。 a notification unit that notifies a terminal device used by the user of a result of the determination made by the determination unit;
an acquisition unit that acquires the confirmation result from the terminal device;
The information processing apparatus according to claim 1 , further comprising:
前記学習部によって学習された前記モデルを用いて、前記状況特定部によって特定された状況から前記閾値を決定する閾値決定部と;
を具備する請求項3に記載の情報処理装置。 A situation identification unit that identifies the situation;
a threshold determination unit that determines the threshold from the situation identified by the situation identification unit using the model trained by the learning unit;
The information processing apparatus according to claim 3 , further comprising:
前記検出工程によって検出された人物の移動速度を推定する推定工程と;
前記推定工程によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定工程と;
前記判定工程による判定結果と、利用者による前記撮像画像の確認結果とに応じて前記閾値を学習する学習工程と;
を含む情報処理方法。 a detection step of detecting a person from an image captured by the imaging unit;
an estimation step of estimating a moving speed of the person detected by the detection step;
a determination step of determining that an abnormality has occurred when the moving speed estimated by the estimation step exceeds a threshold value;
a learning step of learning the threshold value in accordance with a result of the determination step and a confirmation result of the captured image by a user;
An information processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022155486A JP2024049181A (en) | 2022-09-28 | 2022-09-28 | Information processor and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022155486A JP2024049181A (en) | 2022-09-28 | 2022-09-28 | Information processor and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024049181A true JP2024049181A (en) | 2024-04-09 |
Family
ID=90609712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022155486A Pending JP2024049181A (en) | 2022-09-28 | 2022-09-28 | Information processor and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024049181A (en) |
-
2022
- 2022-09-28 JP JP2022155486A patent/JP2024049181A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10558863B2 (en) | Video surveillance system and video surveillance method | |
CN102162667B (en) | Image processing apparatus, image processing method, and air conditioning control apparatus | |
JP5567853B2 (en) | Image recognition apparatus and method | |
TWI430186B (en) | Image processing apparatus and image processing method | |
US9813643B2 (en) | Thermal recognition systems and methods | |
US20160142680A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20210185987A1 (en) | Rearing place management device and method | |
US20190019013A1 (en) | Facial recognition apparatus, recognition method and program therefor, and information device | |
JP6572535B2 (en) | Image recognition system, server device, and image recognition method | |
WO2019138840A1 (en) | Facial recognition device | |
JP6163466B2 (en) | Authentication device | |
US12041341B2 (en) | Information processing apparatus, camera control method, program, camera apparatus, and image processing system | |
JP6025557B2 (en) | Image recognition apparatus, control method thereof, and program | |
US20130293721A1 (en) | Imaging apparatus, imaging method, and program | |
US20220083811A1 (en) | Monitoring camera, part association method and program | |
KR101396838B1 (en) | Video stabilization method and system by selection one of various motion models | |
EP3529788B1 (en) | Presence detection system and method | |
US20170112381A1 (en) | Heart rate sensing using camera-based handheld device | |
JP6495691B2 (en) | Moving object detection device, moving object detection method, and computer program | |
JP2024049181A (en) | Information processor and information processing method | |
KR20240044162A (en) | Hybrid unmanned store management platform based on self-supervised and multi-camera | |
US11507768B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6301202B2 (en) | Shooting condition setting device and shooting condition setting method | |
JP7228509B2 (en) | Identification device and electronic equipment | |
JP2018033103A (en) | Frame rate determination device, frame rate determination method and computer program for frame rate determination |