JP2022112917A - 監視カメラおよび学習モデル設定支援システム - Google Patents

監視カメラおよび学習モデル設定支援システム Download PDF

Info

Publication number
JP2022112917A
JP2022112917A JP2021008947A JP2021008947A JP2022112917A JP 2022112917 A JP2022112917 A JP 2022112917A JP 2021008947 A JP2021008947 A JP 2021008947A JP 2021008947 A JP2021008947 A JP 2021008947A JP 2022112917 A JP2022112917 A JP 2022112917A
Authority
JP
Japan
Prior art keywords
learning model
detection
person
detected
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021008947A
Other languages
English (en)
Inventor
英作 宮田
Eisaku Miyata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I Pro Co Ltd filed Critical I Pro Co Ltd
Priority to JP2021008947A priority Critical patent/JP2022112917A/ja
Priority to US17/581,195 priority patent/US20220237918A1/en
Publication of JP2022112917A publication Critical patent/JP2022112917A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザによる監視カメラの設定を効率的に支援し、監視カメラの運用中のユーザビリティを向上できる。【解決手段】監視カメラは、人工知能を備える監視カメラであって、監視エリアを撮像する撮像部と、対象物の検知を行う人工知能に用いる少なくとも1つの学習モデルを有効にする時間帯を示すスケジュール情報を取得する取得部と、学習モデルに基づいて、撮像部により撮像された撮像画像から対象物を検知する検知部と、検知部により対象物が検知された場合、対象物を検知した旨のアラームを生成して出力するプロセッサと、を備え、プロセッサは、スケジュール情報に基づいて、学習モデルを切り替える。【選択図】図3

Description

本開示は、監視カメラおよび学習モデル設定支援システムに関する。
特許文献1には、人工知能を備える監視カメラが開示されている。監視カメラは、検知対象に関連するパラメータを端末装置から受信し、パラメータに基づいて人工知能を構築し、構築した人工知能を用いて、撮像部が撮像する映像から検知対象を検知する。
特開2020-113945号公報
特許文献1では、検知対象ごとに設定されたパラメータ(例えば、検知対象を検知するためのAI(Artificial Intelligence)の学習モデル)を切り替えて検知対象を検知する。ところが、監視カメラを利用するユーザは、例えば、検知すべき対象物あるいは事象が異なることがあるので、監視カメラで使用可能なパラメータを時間帯によって使い分けたいという要望があり、監視カメラのユーザビリティの向上に関して改善の余地があったと言える。
本開示は、上述した従来の事情に鑑みて案出され、ユーザによる監視カメラの設定を効率的に支援し、監視カメラの運用中のユーザビリティを向上できる監視カメラおよび学習モデル設定支援システムを提供することを目的とする。
本開示は、人工知能を備える監視カメラであって、監視エリアを撮像する撮像部と、対象物の検知を行う人工知能に用いる少なくとも1つの学習モデルを有効にする時間帯を示すスケジュール情報を取得する取得部と、前記学習モデルに基づいて、前記撮像部により撮像された撮像画像から前記対象物を検知する検知部と、前記検知部により前記対象物が検知された場合、前記対象物を検知した旨のアラームを生成して出力するプロセッサと、を備え、前記プロセッサは、前記スケジュール情報に基づいて、前記学習モデルを切り替える、監視カメラを提供する。
また、本開示は、ユーザ操作を受け付け可能な端末装置と、前記端末装置と通信可能であって、人工知能を備え、監視エリアを撮像する少なくとも1台の監視カメラと、を備える学習モデル設定支援システムであって、前記端末装置は、前記ユーザ操作に基づいて、対象物の検知を行う前記人工知能に用いる少なくとも1つの学習モデルを有効にする時間帯の情報を示すスケジュール情報を生成して、前記監視カメラに送信し、前記監視カメラは、送信された前記スケジュール情報に基づいて、前記学習モデルを切り替えて、前記対象物が検知された場合、前記対象物を検知した旨のアラームを生成して出力する、学習モデル設定支援システムを提供する。
本開示によれば、ユーザによる監視カメラの設定を効率的に支援し、監視カメラの運用中のユーザビリティを向上できる。
実施の形態に係る学習モデル設定支援システムの内部構成例を示すブロック図 実施の形態における監視カメラのスケジュール設定画面の一例を示す図 監視カメラのアプリケーション切り替え例を説明する図 実施の形態における監視カメラの動作手順例を示すフローチャート アラーム画面の一例を示す図 アラーム画面の一例を示す図
以下、添付図面を適宜参照しながら、本開示に係る監視カメラおよび学習モデル設定支援システムを具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
図1を参照して、実施の形態に係る学習モデル設定支援システム100の内部構成について説明する。図1は、実施の形態に係る学習モデル設定支援システム100の内部構成例を示す図である。
学習モデル設定支援システム100は、少なくとも1台以上の監視カメラC1,…のそれぞれにより監視される監視エリアから検知対象を検知するためのアプリケーションを曜日、時間帯等によって切り替え可能にするシステムである。学習モデル設定支援システム100は、監視カメラC1,…のそれぞれを所有または使用するユーザによって操作される端末装置P1により、検知対象を検知するためのアプリケーションのスケジュール設定を監視カメラごとに受け付けて設定する。学習モデル設定支援システム100は、1台以上の監視カメラC1,…のそれぞれと、端末装置P1と、ネットワークNWと、外部記憶媒体M1と、を含んで構成される。なお、図1に示す例において、外部記憶媒体M1は1台である例を示すが、複数台であってもよい。
学習モデル設定支援システム100における監視カメラC1,…のそれぞれは、人工知能(AI:Artificial Intelligence)が搭載されたカメラであって、AIの学習済みモデルを用いて撮像された撮像映像(撮像画像)を解析し、ユーザにより設定された特定の検知対象または検知オブジェクトの検知を実行する。監視カメラC1,…のそれぞれは、ネットワークNWを介して、端末装置P1との間でデータ通信可能に接続され、端末装置P1から送信された検知対象を検知するための各種設定情報に基づいて、撮像部13によって撮像された撮像画像に画像処理を実行し、検知対象の検知を行う。
ここでいう各種設定情報は、一例として検知対象(例えば、人,二輪車,車両等)、検知対象を検知する検知エリアあるいは検知ライン、各検知エリアあるいは各検知ラインで検知対象を検知する検知モード(例えば、検知エリアへの侵入検知,滞留検知,方向検知,ラインクロス等)、検知設定等の検知設定と、検知設定で設定された検知対象を検知するためのアプリケーションと、各監視カメラC1,…のそれぞれで使用(有効化)されるアプリケーションを有効化するスケジュール等の情報である。なお、検知設定は、少なくとも有効にする少なくとも1つのアプリケーションの情報を含む。また、各種設定情報は、上述の例に限定されないことは言うまでもない。
監視カメラC1,…のそれぞれは、通信部10と、プロセッサ11と、メモリ12と、撮像部13と、AI処理部14と、外部記憶媒体I/F(Interface)15と、登録データベースDBと、を含んで構成される。なお、図1に示す登録データベースDBは、監視カメラC1,…のそれぞれと一体的に構成される例を示すが、別体であってもよいし、別体に構成され、かつ、複数の監視カメラC1,…のそれぞれとの間でデータ通信可能に接続されてもよい。
取得部の一例としての通信部10は、端末装置P1との間でネットワークNWを介してデータ通信可能に接続される。なお、通信部10は、端末装置P1との間で有線通信可能に接続されてよいし、無線LANなどの無線ネットワークを介して接続されてもよい。ここでいう無線通信は、例えばBluetooth(登録商標)、NFC(登録商標)などの近距離無線通信、またはWi-Fi(登録商標)などの無線LAN(Local Area Network)を介した通信である。
通信部10は、AI処理部14により生成された検知対象が検知された旨のアラームを、ネットワークNWを介して端末装置P1に送信する。また、通信部10は、ネットワークNWを介して、端末装置P1から送信された各種設定情報を取得し、取得された各種設定情報をプロセッサ11に出力する。
プロセッサ11は、例えばCPU(Central Processing Unit)またはFPGA(Field Programmable Gate Array)を用いて構成され、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11はメモリ12に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。なお、ここでいう機能は、例えば各種設定情報に基づいて撮像画像を画像処理する機能、スケジュール情報に基づいて、AI処理部14により使用されるアプリケーションを切り替える機能、AI処理部14により検知された検知データに基づいて、検知対象を検知した旨を通知するアラームを生成する機能等を実現する。
プロセッサ11は、端末装置P1から送信された各種設定情報に基づいて、撮像部13により撮像された撮像画像を画像処理して、AI処理部14に出力する。また、プロセッサ11は、AI処理部14から検知対象を検知した旨の制御信号または検知データが出力された場合、制御信号または検知データに基づいて、検知対象が検知された旨を通知するアラームを生成する。プロセッサ11は、通信部10を介して端末装置P1にアラームを送信する。
メモリ12は、例えばプロセッサ11の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ11の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ11により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ11の動作を規定するプログラムが書き込まれている。メモリ12は、撮像部13によって撮像された撮像画像、端末装置P1から送信された各種設定情報等を記憶する。
撮像部13は、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charged-Coupled Device)あるいはCMOS(Complementary Metal-Oxide-Semiconductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。撮像部13は、撮像された撮像画像をプロセッサ11に出力する。
AI処理部14は、例えばCPU、DSP(Digital Signal Processor)またはFPGAを用いて構成され、スケジュール情報に基づいて、有効化されるアプリケーションを切り替える。AI処理部14は、有効化されたアプリケーションに対応する学習データに基づいて、撮像部13によって撮像された撮像画像に画像処理および解析処理を実行する。AI処理部14は、AI演算処理部14Aと、復号処理部14Bと、学習モデルデータベース14Cと、を含んで構成される。
検知部の一例としてのAI演算処理部14Aは、プロセッサ11から出力された各種設定情報と、学習モデルデータベース14Cに記憶され、プロセッサ11により有効化されたアプリケーション(学習モデル)に基づいて、撮像部13により撮像された撮像画像に画像処理および解析処理を実行し、検知対象を検知したと判定した場合、検知された検知対象に関する検知データ(例えば、検知された人物の顔画像あるいは簡易録画映像データ、検知対象の位置を示す検知枠が重畳された撮像画像等)を生成する。AI演算処理部14Aは、生成された検知データをプロセッサ11に出力する。
復号処理部14Bは、学習データが端末装置P1から送信された場合、プロセッサ11から出力された学習データを復号処理する。復号処理部14Bは、学習モデルデータベース14Cに復号された学習データを出力して記憶させる。
学習モデルデータベース14Cは、RAMおよびROMなどによる半導体メモリと、SSD(Solid State Drive)あるいはHDD(Hard Disk Drive)等によるストレージデバイスのうちいずれかを含む記憶デバイスを有する。また、学習モデルデータベース14Cは、例えばAI演算処理部14Aが実行する画像処理を規定するプログラム、AI演算処理部14Aにより実行される検知対象の検知処理に用いられる各種アプリケーション(つまり、学習モデル)を生成または記憶する。
なお、ここでいう各種アプリケーションは、登録データベースDBに登録された複数の人物のそれぞれを顔認証処理により検知する顔認証アプリケーション141A、人物が起こす所定の行動(例えば人物のふらつき、喧嘩、拳銃所持、万引き等の事件等の引き金となりかねない行為等)を検知する不審行動検知アプリケーション141B、動体を検知する動体検知アプリケーション141C等である。なお、上述した各種アプリケーションは、一例であってこれに限定されない。学習モデルデータベース14Cは、他のアプリケーションとして、例えば、二輪車あるいは車両の色、車型、ナンバープレート等を検知するアプリケーション等を記憶していてもよい。また、不審行動検知アプリケーション141Bにより検知される所定の行動は、上述の例に限定されなくてよい。
学習データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が挙げられる。但し、使用される統計的分類技術はこれらに限定されない。また、学習データの生成は、監視カメラC1,…のそれぞれのAI処理部14で行われても良いし、例えばネットワークNWを用いて監視カメラC1,…のそれぞれとの間で通信可能に接続された端末装置P1により行われてもよい。さらに、学習データは、ネットワークNWを介して端末装置P1から受信(取得)されてもよいし、外部記憶媒体I/F15を介して通信可能に接続された外部記憶媒体M1から受信(取得)されてもよい。
外部記憶媒体I/F15は、外部記憶媒体M1(例えば、USB(Universal Serial Bus)メモリ,SD(Secure Digital Memory)(登録商標)カード等)を挿抜可能に設けられ、外部記憶媒体M1との間でデータ通信可能に接続される。外部記憶媒体I/F15は、プロセッサ11の要求に基づいて、外部記憶媒体M1に記憶された学習データを取得し、プロセッサ11に出力する。また、外部記憶媒体I/F15は、プロセッサ11の要求に基づいて、撮像部13によって撮像された撮像画像(撮像映像)のデータ、あるいは監視カメラC1,…のそれぞれにおけるAI処理部14により生成された学習データ等を外部記憶媒体M1に送信し、記憶させる。なお、外部記憶媒体I/F15は、複数の外部記憶媒体のそれぞれを同時にデータ通信可能に接続可能であってよい。
外部記憶媒体M1は、例えばUSBメモリあるいはSD(登録商標)カード等の記憶媒体であって、撮像部13により撮像された撮像画像(撮像映像)する。なお、外部記憶媒体M1は、他の監視カメラあるいは端末装置P1によって生成された学習データ等を記憶してよい。
登録データベースDBは、RAMおよびROMなどによる半導体メモリと、SSDあるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスにより構成される。登録データベースDBは、特定の検知対象に関する検知対象情報、特定の検知対象の撮像画像(例えば、検知対象となる人物の顔画像、二輪車または車両の撮像画像,ナンバープレート画像等)、特定の検知対象の撮像映像データ、過去に特定の検知対象が検知された検知履歴情報等を登録(格納)する。なお、登録データベースDBは、複数の監視カメラC1,…のそれぞれと別体で構成されてもよいし、複数の監視カメラC1,…のそれぞれと別体に構成、かつ、複数の監視カメラC1,…のそれぞれとの間でデータ通信可能に接続されてもよい。
また、実施の形態における登録データベースDBは、一例として、複数の人物のそれぞれの顔画像を登録(格納)する例を示すが、これに限定されない。登録データベースDBは、AI処理部14が備えるアプリケーションにより検知される特定の検知対象(つまり、ユーザにより指定された人物、二輪車、車両等の検知対象)の検知処理あるいは認証処理で使用される撮像画像あるいは録画映像を登録(格納)する。例えば、登録データベースDBに登録(格納)されるデータは、二輪車あるいは車両の撮像画像、二輪車あるいは車両のナンバープレートの撮像画像、人物の全身画像等であってもよい。さらに、登録データベースDBは、登録(格納)された撮像画像あるいは録画映像のそれぞれに、検知対象の特徴等を示す情報(例えば、人物の属性情報(性別、身長、体格等)、二輪車あるいは車両のナンバープレート情報、二輪車あるいは車両の車種、二輪車あるいは車両の色情報等)、過去の検知履歴(アラーム履歴)等が対応付けて登録(格納)されてもよい。
端末装置P1は、例えばPC(Personal Computer),タブレット,スマートフォン等の装置であって、ユーザの入力操作(ユーザ操作)を受け付け可能なインターフェース(例えば、キーボード,マウス,タッチパネルディスプレイ等)を備える。端末装置P1は、ネットワークNWを介して監視カメラC1,…のそれぞれとの間でデータ通信可能に接続され、ユーザ操作に基づいて生成された信号(例えば、各種設定情報,学習データ,アプリケーション等)を、ネットワークNWを介して監視カメラC1,…のそれぞれに送信する。また、端末装置P1は、ネットワークNWを介して監視カメラC1,…のそれぞれから送信された撮像画像、あるいは監視カメラC1,…のそれぞれから送信されたアラームに基づくアラーム画面(例えば、図5および図6に示すアラーム画面SC2,SC3等)を生成して、モニタ(不図示)に表示する。
ネットワークNWは、端末装置P1および監視カメラC1,…のそれぞれとの間で無線通信ネットワークまたは有線通信ネットワークによって通信可能に接続される。ここでいう無線通信ネットワークは、例えば無線LAN、無線WAN、4G(第4世代移動通信システム)、5G(第5世代移動通信システム)、またはWi-Fi(登録商標)等の無線通信規格に準じて提供される。
次に、図2を参照して、監視カメラC1,…のそれぞれに設定されるスケジュール設定画面SC1について説明する。図2は、実施の形態における監視カメラC1,…のスケジュール設定画面SC1の一例を示す図である。なお、図2に示すスケジュール設定画面SC1は、一例であってこれに限定されないことは言うまでもない。
スケジュール設定画面SC1は、端末装置P1により生成されて、端末装置P1が備えるモニタ(不図示)に出力されて表示される。スケジュール設定画面SC1は、端末装置P1を操作するユーザにより監視カメラC1,…のそれぞれのスケジュールの設定操作を受け付ける。
スケジュール設定画面SC1は、タイムテーブル一覧TTと、タイムテーブル一覧TTで設定された1つ以上のタイムテーブルTBA,TBBのそれぞれの詳細設定欄TBA1,TBB1のそれぞれと、設定ボタンBT0と、を含んで生成される。なお、図2に示すスケジュール設定画面SC1は、1台以上の監視カメラC1,…のそれぞれに2つのタイムテーブルTBA,TBBのそれぞれが設定される例について説明するが、設定されるタイムテーブルの数はこれに限定されず、少なくとも1つ以上であればよい。また、スケジュール設定画面SC1により設定されるスケジュールは、ユーザ操作により指定された1台以上の監視カメラに設定適用される。
タイムテーブル一覧TTは、ユーザ操作により指定された1台以上の監視カメラC1,…のそれぞれに設定される1つ以上のタイムテーブルTBA,TBBのそれぞれと、監視カメラC1,…のそれぞれにより実現される検知機能をOFFに設定するOffテーブルTBCとを含んで構成される。タイムテーブル一覧TTは、ユーザによる1台以上の監視カメラC1,…のそれぞれにタイムテーブル(具体的に、タイムテーブルTBA,TBB、およびOffテーブルTBC)を適用する曜日の指定操作を受け付ける。例えば、図2に示す例において、タイムテーブル一覧TTは、監視カメラC1,…のそれぞれに、曜日「月、火、水、木、金」にタイムテーブルTBAを設定し、曜日「土、日」にタイムテーブルTBBを設定する。
詳細設定欄TBA1,TBB1のそれぞれは、ユーザによるタイムテーブル一覧TTで設定された各タイムテーブルTBA,TBBのそれぞれで、各検知設定を設定する時間帯を1台以上の監視カメラC1,…のそれぞれのすべてのアプリケーションを無効状態(つまり、オフ状態)に設定する時間帯について指定操作を受け付ける。詳細設定欄TBA1,TBB1のそれぞれは、時間帯指定欄TBA11,TBB11と、検知設定有効時間帯欄TBA12,TBB12と、検知設定指定欄TBA13,TBB13と、を含んで構成される。
時間帯指定欄TBA11,TBB11は、検知設定指定欄TBA13,TBB13で指定された各検知設定を有効にする時間帯についてユーザによる指定操作を受け付ける。
検知設定有効時間帯欄TBA12,TBB12は、時間帯指定欄TBA11,TBB11で指定された各時間帯を可視化する。検知設定有効時間帯欄TBA12,TBB12は、ユーザ操作により検知設定指定欄TBA13,TBB13で指定された各検知設定が、時間帯指定欄TBA11,TBB11で指定された各時間帯で有効化されることを示す。
検知設定指定欄TBA13,TBB13は、時間帯指定欄TBA11,TBB11で指定された各時間帯において、監視カメラC1,…のそれぞれで有効化される検知設定についてユーザによる指定操作を受け付ける。
例えば、図2に示す例において、「タイムテーブル1」で示されるタイムテーブルTBAは、時間帯「9:00~12:00」に動作内容「検知設定1」で示される検知設定(アプリケーション)を有効にし、時間帯「12:00~21:00」に動作内容「検知設定2」で示される検知設定(アプリケーション)を有効にし、時間帯「21:00~9:00」に動作内容「検知設定3」で示される検知設定(アプリケーション)を有効にするスケジュールを示す。また、「タイムテーブル2」で示されるタイムテーブルTBBは、時間帯「00:00~24:00」に動作内容「検知設定3」で示される検知設定(アプリケーション)を有効にするスケジュールを示す。
設定ボタンBT0は、ユーザ操作により設定されたタイムテーブル一覧TTおよび1つ以上のタイムテーブルTBA,TBBのそれぞれを、所定の監視カメラで有効にするアプリケーションのスケジュールを設定するためのボタンである。端末装置P1は、ユーザ操作により設定ボタンBT0が選択(押下)されると、タイムテーブル一覧TTおよび1つ以上のタイムテーブルTBA,TBBのそれぞれに指定された各時間帯および検知設定に基づくスケジュール情報を生成して、ユーザにより指定された監視カメラに送信し、スケジュール情報の設定を実行させる。
ここで、図3を参照して、図2に示すスケジュール設定画面SC1で設定されたスケジュールに基づく監視カメラC1のアプリケーションの切り替えについて具体例を用いて説明する。図3は、監視カメラC1のアプリケーション切り替え例を説明する図である。なお、以下で説明する監視カメラC1の設置場所、監視エリア、および監視カメラC1に設定されたタイムテーブルは一例であって、これに限定されないことは言うまでもない。また、以下に示す検知設定は一例であってこれに限定されない。
図3に示す監視カメラC1は、一例として店舗の出入り口を撮像する監視カメラであって、スケジュール設定画面SC1で設定された「タイムテーブル1」で設定されたスケジュールが設定される。
また、図3に示す例において「検知設定1」は、時間帯「9:00~12:00」に顔認証アプリケーション141Aと、不審行動検知アプリケーション141Bとを同時に有効にする設定である。「検知設定2」は、時間帯「12:00~21:00」に顔認証アプリケーション141Aを有効にする設定である。「検知設定3」は、時間帯「21:00~9:00」に動体検知アプリケーション141Cを有効にする設定である。
監視カメラC1は、「タイムテーブル1」に基づいて、現在の時間が「9:00」であると判定した場合、顔認証アプリケーション141Aと、不審行動検知アプリケーション141Bとを同時に有効するアプリケーション切り替え処理を実行する。監視カメラC1は、「タイムテーブル1」に基づいて、現在の時間が「12:00」であると判定した場合、顔認証アプリケーション141Aを有効にするアプリケーション切り替え処理を実行する。また、監視カメラC1は、「タイムテーブル1」に基づいて、現在の時間が「21:00」であると判定した場合、動体検知アプリケーション141Cを有効にするアプリケーション切り替え処理を実行する。
このようなスケジュールの設定により、ユーザは、例えば、監視カメラC1が設置された店舗の出入り口付近で行われるタイムセールの時間帯「9:00~12:00」に、店舗の出入り口付近を訪れる複数の人物のそれぞれについて、監視カメラC1により店舗への出入りが禁止されている人物を検知したり、所定の行動(例えば、万引き、スリ等)があるか否かを検知したりできる。また、ユーザは、例えば、監視カメラC1が設置された店舗の出入り口付近で行われるタイムセールが終了してから店舗が閉店する時間帯「12:00~21:00」までの間、監視カメラC1により店舗を訪れる複数の人物のそれぞれのうち店舗への出入りが禁止されている人物を検知したり、店舗が閉店してから翌朝に店舗が開店するまでの時間帯「21:00~9:00」に店舗に侵入しようとする人物を検知したりできる。つまり、ユーザは、例えば、各監視カメラで検知したい検知対象あるいは検知条件等に基づくスケジュールの設定を行うことにより、監視カメラで行われる検知処理に用いられるアプリケーション、およびアプリケーションの設定を自動で切り替えることができる。
以上により、実施の形態に係る学習モデル設定支援システム100は、スケジュール設定画面SC1によりユーザによる監視カメラC1,…のそれぞれの設定を支援し、監視カメラC1,…のそれぞれの運用におけるユーザビリティを向上できる。
次に、図4を参照して、実施の形態における監視カメラC1,…の動作手順について説明する。図4は、実施の形態における監視カメラC1,…の動作手順例を示すフローチャートである。
監視カメラC1,…のそれぞれは、事前あるいは任意のタイミングで端末装置P1から送信されたスケジュール情報に基づいて、有効にするアプリケーションの切り替えを実行する。
監視カメラC1,…のそれぞれは、現在の時刻をカウントし(St1)、メモリ12に記憶されたスケジュール情報を参照する(St2)。監視カメラC1,…のそれぞれは、スケジュール情報に基づいて、カウントされた現在の時刻で有効にすべきアプリケーションの有無(つまり、設定されたスケジュールの有無)を判定する(St3)。
監視カメラC1,…のそれぞれは、カウントされた現在の時刻で有効にすべきアプリケーションがある(つまり、設定されたスケジュールがある)と判定した場合(St3,YES)、スケジュール情報に基づくアプリケーションに切り替えて(St4)、アプリケーションに基づいて、検知対象の検知処理を開始する。
なお、ステップSt4の処理において、スケジュール情報が監視カメラにより実行される検知対象の検知機能をオフする(つまり、すべてのアプリケーションを無効にする)旨の情報である場合、監視カメラC1,…のそれぞれは、すべてのアプリケーションを無効にして、ステップSt1の処理に戻る。
一方、監視カメラC1,…のそれぞれは、カウントされた現在の時刻で有効にすべきアプリケーションがない(つまり、設定されたスケジュールがない)と判定した場合(St3,YES)、現在有効に設定されているアプリケーションに基づく検知対象の検知処理を継続する。
次に、図5を参照して、アラーム画面SC2について説明する。図5は、端末装置P1に表示されるアラーム画面SC2の一例を示す図である。なお、図5に示すアラーム画面SC2は、一例であってこれに限定されない。また、図5に示す例では、顔認証アプリケーション141Aが有効である場合に生成されるアラーム画面SC2について説明する。
アラーム画面SC2は、監視カメラC1,…のそれぞれから送信されたアラームに基づいて、端末装置P1によって生成されて、端末装置P1のモニタ(不図示)に表示される。例えば、図5に示すアラーム画面SC2は、事前に検知対象として監視カメラC1,…のそれぞれの登録データベースDBに登録された人物の撮像画像あるいは録画映像と、監視カメラC1,…のそれぞれにより撮像された人物の撮像画像(図5に示す例では、顔画像)あるいは録画映像とを含んで生成され、検知対象として登録された人物と検知された人物とを比較可能に表示される。
アラーム画面SC2は、検知履歴欄HSと、登録顔画像RGFと、顔画像DFTと、サムネイル画像RGV,DTVのそれぞれと、映像再生ボタンBT1,BT2のそれぞれと、正報判断ボタンBT3と、動画ダウンロードボタンBT4と、メール通知ボタンBT5と、検知情報MS1と、登録情報MS2と、を含む。
検知履歴欄HSは、複数の監視カメラC1,…のそれぞれから送信されたアラームのそれぞれの検知履歴情報として、アラームのそれぞれに対応する人物が検知された検知日時情報と、人物が検知された監視カメラの監視カメラ情報(例えば、監視カメラが監視(撮像)するエリア情報、監視カメラ名、各監視カメラに割り当てられた識別番号等)とが表示される。例えば、図5に示す検知履歴欄HSは、アラーム通知情報のそれぞれに対応する6つの検知履歴情報のそれぞれが「12:34:56 〇店 店舗入口」,「12:00:00 〇店 店舗入口」,「11:00:00 〇店 店舗入口」,「10:00:00 〇店 店舗入口」,「9:00:00 〇店 店舗入口」,「8:00:00 〇店 店舗入口」のように表示される。なお、図5に示す検知履歴欄HSは、紙面上側に最新のアラーム通知情報に対応する検知履歴情報が表示されるが、一例であってこれに限定されない。
端末装置P1は、ユーザにより検知履歴欄HSに表示された少なくとも1つの検知履歴情報のそれぞれのうちいずれかの検知履歴情報が選択(押下)操作されると、選択(押下)された検知履歴情報に対応するアラームに基づいて、アラーム画面を生成して表示する。また、端末装置P1は、現在モニタに表示されているアラーム画面に対応する検知履歴情報を太字、枠線、文字色の変更等により強調表示する。また、端末装置P1は、検知履歴欄HS内におけるいずれか1つ以上の検知履歴情報が選択操作された状態で、クリアボタンBT6がユーザ操作により選択(押下)された場合、検知履歴欄HSに表示された検知履歴情報を削除する。
顔画像DFTは、複数の監視カメラC1,…のそれぞれにより撮像された人物の顔画像である。また、登録顔画像RGFは、事前に登録データベースDBに登録(格納)され、複数の監視カメラC1,…のそれぞれにより顔画像DFTに対応する人物と同一あるいは類似すると判定された人物の顔画像である。
サムネイル画像RGVは、事前に登録データベースDBに登録(格納)され、登録顔画像RGFの人物の録画映像データのサムネイル画像である。サムネイル画像RGVは、再生ボタンBTRが重畳表示される。端末装置P1は、ユーザ操作により映像再生ボタンBT1あるいは再生ボタンBTRが選択(押下)されると、録画映像データを再生する。
サムネイル画像DTVは、事前に登録データベースDBに登録(格納)され、監視カメラにより撮像された顔画像DFTに対応する録画映像データのサムネイル画像である。サムネイル画像DTVは、再生ボタンBTDが重畳表示される。端末装置P1は、ユーザ操作により映像再生ボタンBT2あるいは再生ボタンBTDが選択(押下)されると、録画映像データを再生する。
検知情報MS1は、顔画像DFTが撮像された監視カメラの監視カメラ情報「〇店 店舗入口 カメラ」と、撮像日時情報「2021年1月5日 12:34:56」とが表示される。
登録情報MS2は、登録データベースDBに登録(格納)された登録顔画像RGFに対応する人物のカテゴリ情報「カテゴリ:万引き犯」と、登録顔画像RGFが撮像された撮像日時情報「2020年8月1日」および監視カメラの監視カメラ情報「〇店 車用品」と、登録データベースDBに登録(格納)された登録顔画像RGFに対応する人物の属性情報「40代男性 180cm」および特徴情報「がっちり体型」と、を含んで表示される。なお、図5に示す登録情報MS2は、一例であってこれに限定されない。例えば、登録情報MS2は、登録顔画像RGFが撮像された撮像日時情報および監視カメラ情報のみであってもよい。
正報判断ボタンBT3は、このアラームに対応する人物の動画ファイルの生成を監視カメラに要求するためのボタンである。ユーザは、アラーム画面SC2に表示された登録顔画像RGF、顔画像DFT、サムネイル画像RGVが示す録画映像データ、あるいはサムネイル画像DTVが示す録画映像データのそれぞれの目視確認により、このアラーム画面SC2に対応するアラームが誤報でないと判断した場合に、正報判断ボタンBT3が選択(押下)する。端末装置P1は、ユーザにより正報判断ボタンBT3を選択(押下)操作された場合、録画映像データに対応する動画ファイルの生成を要求する制御指令を生成して、アラームの送信元である監視カメラに送信する。複数の監視カメラC1,…のそれぞれは、端末装置P1から送信された制御指令に基づいて動画ファイルを生成した後、この動画ファイルあるいは動画ファイルのURLを端末装置P1に送信する。
動画ダウンロードボタンBT4は、複数の監視カメラC1,…のそれぞれにより生成された動画ファイルを端末装置P1のメモリ(不図示)内にダウンロードするためのボタンである。端末装置P1は、ユーザにより動画ダウンロードボタンBT4が選択(押下)操作された場合、生成された動画ファイルの送信を要求する制御指令を生成して送信する。端末装置P1は、複数の監視カメラC1,…のそれぞれから送信された動画ファイルをダウンロードする。
メール通知ボタンBT5は、ユーザにより事前に登録された端末(例えば、スマートフォン、タブレット端末、PC等)に、このアラームが発報された旨の通知メールを送信するためのボタンである。端末装置P1は、ユーザによりメール通知ボタンBT5が選択(押下)操作された場合、登録顔画像RGF、顔画像DFT、サムネイル画像RGVが示す登録簡易映像データ、あるいはサムネイル画像DTVが示す簡易録画映像データのそれぞれと、検知情報MS1と、登録情報MS2とを含む通知メールを生成して、事前に登録された少なくとも1台の端末に送信する。
なお、端末装置P1は、動画ファイルが生成済みである場合、この動画ファイルのURLを含む通知メールを生成したり、ユーザ操作により作成されたこの人物の特徴(例えば、服装、体型、装飾品、所持品等)、この人物が最後に撮像(検知)された監視カメラの場所(例えば、監視カメラの位置情報,エリア情報等)のテキストデータが作成されている場合、作成されたテキストデータを含む通知メールを生成したりする。
次に、図6を参照して、アラーム画面SC3について説明する。図6は、端末装置P1に表示されるアラーム画面SC3の一例を示す図である。なお、図6に示すアラーム画面SC3は、一例であってこれに限定されない。また、図6に示す例では、不審行動検知アプリケーション141Bが有効である場合に生成されるアラーム画面SC3について説明する。
アラーム画面SC3は、監視カメラC1,…のそれぞれから送信されたアラームに基づいて、端末装置P1によって生成されて、端末装置P1のモニタ(不図示)に表示される。例えば、図6に示すアラーム画面SC3は、監視カメラC1,…のそれぞれにより撮像された撮像映像(ライブ映像)に、所定の行動が検知された箇所を示す検知枠FRが重畳されたライブ映像を含んで生成される。なお、ライブ映像は、監視カメラC1,…のそれぞれにより撮像された撮像画像に、所定の行動が検知された箇所を示す検知枠が重畳された検知画像であってもよい。
アラーム画面SC3は、ライブ画欄STL1と、設定欄STL2と、ライブ映像表示領域SC31と、検知アラーム欄ARLと、を含む。
ライブ画欄STL1は、現在ライブ映像表示領域SC31に表示されている監視カメラのライブ映像の表示に関する設定が可能な各種項目を含む。ライブ画欄STL1は、監視カメラ情報LT1と、ズーム調整欄LT2と、明るさ調整欄LT3と、ログ表示再生ボタンBT9と、を含む。
監視カメラ情報LT1は、ライブ映像表示領域SC31に表示されているライブ映像が撮像された監視カメラに関する情報が表示される。例えば、図6に示す例における監視カメラ情報LT1は、例えば、ライブ映像表示領域SC31に表示されているライブ映像を撮像した監視カメラの解像度情報「解像度:2560×1440」、監視カメラに設定された撮像モード情報「モード:フレームレート指定」、FPS情報「FPS:30fps」、画質設定情報「画質:normal」、通信速度情報「速度:6144kbps」等が示される。
ズーム調整欄LT2は、ユーザ操作に基づいて、ライブ映像表示領域SC31に表示されているライブ映像を拡大または縮小する。端末装置P1は、ユーザ操作により、ズーム調整欄LT2に示された各種倍率(図6に示す例では、1倍,2倍,4倍)のうちいずれかの倍率が選択(押下)されると、ライブ映像表示領域SC31に表示されているライブ映像を選択された倍率に拡大または縮小して表示する。なお、図6に示す各種倍率は、一例であってこれに限定されないことは言うまでもない。
明るさ調整欄LT3は、ライブ映像表示領域SC31に表示されているライブ映像の明るさを明るくするボタンBT7と、ライブ映像の明るさを暗くするボタンBT8とを含む。端末装置P1は、ユーザによるボタンBT7またはボタンBT8の選択(押下)操作に基づいて、ライブ映像表示領域SC31に表示されているライブ映像の明るさを調整(変更)して表示する。
ログ表示再生ボタンBT9は、レコーダRDに録画された録画映像の表示または再生するボタンである。端末装置P1は、ユーザ操作によりログ表示再生ボタンBT9が選択(押下)されると、ライブ映像表示領域SC31が撮像された監視カメラにより撮像され、レコーダRDに録画された録画映像を表示または再生する。
設定欄STL2は、ユーザ操作により選択されると、監視カメラC1,…のそれぞれで有効なアプリケーションにより検知処理を実行する検知エリアの設定、検知エリアのそれぞれで検知される検知モードの設定、検知対象(例えば、人物、二輪車、車両等)に関する設定、監視カメラC1,…のそれぞれのスケジュール設定等の各種設定を受け付け可能な画面(例えば、図2に示すスケジュール設定画面SC1等)を表示する。端末装置P1は、ユーザ操作により設定された各種設定情報をメモリ(不図示)に記憶するとともに、ユーザにより指定された監視カメラに送信する。
ライブ映像表示領域SC31は、ユーザ操作により指定された監視カメラのライブ映像を表示する。端末装置P1は、AI処理部14により検知対象を検知した場合、ライブ映像上に検知対象を示す検知枠FRを重畳したライブ映像を表示する。ここで、図6に示すライブ映像表示領域SC31は、不審行動検知アプリケーション141Bにより検知された所定の行動として万引きを検知した例を示し、所定の行動として検知された箇所(領域)に検知枠FRが重畳されたライブ映像が表示される例を示す。なお、検知枠FRは、監視カメラC1,…のそれぞれにより重畳処理されて端末装置P1に送信され、端末装置P1のモニタ(不図示)に表示されてもよい。
検知アラーム欄ARLは、現在有効なアプリケーションおよびアプリケーションに設定された検知モードにより検知対象を検知した旨を通知する。検知アラーム欄ARLは、各検知モードに対応する1つ以上のアイコンとして例えば、アラームアイコンAR1、ラインクロスアイコンAR2、侵入検知アイコンAR3、滞留検知アイコンAR4、方向検知アイコンAR5等を含む。
アラームアイコンAR1は、少なくとも1つの検知モードで検知対象が検知された場合に点灯する。また、端末装置P1は、アラームアイコンAR1が点灯した状態で、アラームアイコンAR1がユーザ操作により選択(押下)されると、検知アラーム欄ARLで点灯状態にあるすべてのアイコンのアラーム状態(点灯状態)を解除し、消灯させる。
ラインクロスアイコンAR2は、検知対象(例えば、人物、二輪車、車両等)がユーザにより指定された指定方向に所定の検知ラインを通過した旨を通知するアイコンである。監視カメラC1,…のそれぞれは、所定の検知ラインに検知対象が進入したと判定した場合、この検知モード(ここでは、ラインクロス)の情報を含むアラームを生成して、端末装置P1に送信する。端末装置P1は、監視カメラC1,…のそれぞれから送信されたアラームを取得し、このアラームに対応するラインクロスアイコンAR2を点灯する。
侵入検知アイコンAR3は、ユーザにより設定された所定の検知エリアに検知対象が進入した旨を通知するアイコンである。監視カメラC1,…のそれぞれは、所定の検知エリアに検知対象が進入したと判定した場合、この検知モード(ここでは、侵入検知)の情報を含むアラームを生成して、端末装置P1に送信する。端末装置P1は、監視カメラC1,…のそれぞれから送信されたアラームを取得し、このアラームに対応する侵入検知アイコンAR3を点灯する。
滞留検知アイコンAR4は、ユーザにより設定された所定の検知エリアに検知対象が一定時間(例えば、30秒、1分等)以上滞留した旨を通知するアイコンである。監視カメラC1,…のそれぞれは、所定の検知エリアに検知対象が一定時間以上滞留したと判定した場合、この検知モード(ここでは、滞留検知)の情報を含むアラームを生成して、端末装置P1に送信する。端末装置P1は、監視カメラC1,…のそれぞれから送信されたアラームを取得し、このアラームに対応する滞留検知アイコンAR4を点灯する。
方向検知アイコンAR5は、ユーザにより設定された所定の検知エリアで検知対象が所定の指定方向に移動した旨を通知するアイコンである。監視カメラC1,…のそれぞれは、所定の検知エリアで検知対象が指定方向に移動したと判定した場合、この検知モード(ここでは、方向検知)の情報を含むアラームを生成して、端末装置P1に送信する。端末装置P1は、監視カメラC1,…のそれぞれから送信されたアラームを取得し、このアラームに対応する方向検知アイコンAR5を点灯する。
以上により、実施の形態に係る監視カメラC1,…のそれぞれは、人工知能を備える監視カメラであって、監視エリアを撮像する撮像部13と、検知対象(対象物の一例)の検知を行う人工知能に用いる少なくとも1つの学習モデル(アプリケーション)を有効にする時間帯を示すスケジュール情報を取得する通信部10(取得部の一例)と、学習モデル(アプリケーション)に基づいて、撮像部13により撮像された撮像画像から検知対象を検知するAI演算処理部14A(検知部の一例)と、AI演算処理部14Aにより検知対象が検知された場合、検知対象を検知した旨のアラームを生成して出力するプロセッサ11と、を備える。プロセッサ11は、スケジュール情報に基づいて、学習モデル(アプリケーション)を切り替える。
これにより、実施の形態に係る監視カメラC1,…のそれぞれは、検知対象を検知するために有効化される学習モデル(アプリケーション)を時間帯によって切り替え可能に設定できる。したがって、監視カメラC1,…のそれぞれは、監視カメラの運用中のユーザビリティを向上できる。
また、以上により、実施の形態に係る監視カメラC1,…のそれぞれが取得するスケジュール情報は、夜間の時間帯で検知対象である動体を検知する動体検知アプリケーション(動体検知学習モデルの一例)を有効化し、昼間の時間帯で検知対象である人物の顔を検知し、検知された人物の顔が事前に登録された人物の顔画像と一致あるいは類似するか否かを判定する顔認証アプリケーション(顔認証学習モデルの一例)を有効化するスケジュールである。これにより、実施の形態に係る監視カメラC1,…のそれぞれは、現在の時間が夜間であるか昼間であるかに基づいて、検知対象を検知するためのアプリケーション(学習モデル)を切り替え可能となり、夜間には監視エリア内の動体を検知し、昼間には登録データベースDBに登録(格納)された人物のそれぞれの顔画像に同一あるいは類似する人物を検知できる。
また、以上により、実施の形態に係る監視カメラC1,…のそれぞれが取得するスケジュール情報は、昼間の時間帯で、顔認証学習アプリケーションと検知対象である人物の行動を検知し、検知された人物の行動が事前に登録された所定の行動であるか否かを判定する不審行動検知アプリケーション(不審行動検知学習モデルの一例)とを有効化するスケジュールである。これにより、実施の形態に係る監視カメラC1,…のそれぞれは、例えば、昼間の時間帯に複数のアプリケーションを同時に実行し、登録データベースDBに登録(格納)された人物のそれぞれの顔画像に同一あるいは類似する人物の検知処理と、撮像された複数の人物のそれぞれにより行われる所定の行動(例えば人物のふらつき、喧嘩、拳銃所持、万引き等の事件等の引き金となりかねない行為等)の検知処理とを同時に検知できる。
また、以上により、実施の形態に係る監視カメラC1,…のそれぞれが取得するスケジュール情報は、夜間の時間帯で検知対象である動体を検知する動体検知アプリケーション(動体検知学習モデルの一例)を有効化し、昼間の時間帯で検知対象である人物の行動を検知し、検知された人物の行動が事前に登録された所定の行動であるか否かを判定する不審行動検知アプリケーション(不審行動検知学習モデルの一例)を有効化するスケジュールである。これにより、実施の形態に係る監視カメラC1,…のそれぞれは、監視カメラC1,…のそれぞれにおいて現在の時間が夜間であるか昼間であるかに基づいて、検知対象を検知するためのアプリケーションを切り替えて、夜間には監視エリア内の動体を検知し、昼間には撮像された複数の人物のそれぞれにより行われる所定の行動(例えば人物のふらつき、喧嘩、拳銃所持、万引き等の事件等の引き金となりかねない行為等)を検知できる。
また、以上により、実施の形態に係る監視カメラC1,…のそれぞれが取得するスケジュール情報は、昼間の時間帯で、不審行動検知アプリケーションと検知対象である人物の顔を検知し、検知された人物の顔が事前に登録された人物の顔画像と一致あるいは類似するか否かを判定する顔認証アプリケーション(顔認証学習モデルの一例)とを有効化するスケジュールである。これにより、実施の形態に係る監視カメラC1,…のそれぞれは、例えば、昼間の時間帯に複数のアプリケーションを同時に実行し、撮像された複数の人物のそれぞれにより行われる所定の行動(例えば人物のふらつき、喧嘩、拳銃所持、万引き等の事件等の引き金となりかねない行為等)の検知処理と、登録データベースDBに登録(格納)された人物のそれぞれの顔画像に同一あるいは類似する人物の検知処理とを同時に検知できる。
以上により、実施の形態に係る学習モデル設定支援システム100は、ユーザ操作を受け付け可能な端末装置P1と、端末装置と通信可能であって、人工知能を備え、監視エリアを撮像する少なくとも1台の監視カメラC1,…のそれぞれと、を備える。端末装置P1は、ユーザ操作に基づいて、検知対象(対象物の一例)の検知を行う人工知能に用いる少なくとも1つの学習モデル(アプリケーション)を有効にする時間帯の情報を示すスケジュール情報を生成して、監視カメラC1,…のそれぞれに送信する。監視カメラC1,…のそれぞれは、送信されたスケジュール情報に基づいて、学習モデル(アプリケーション)を切り替えて、検知対象が検知された場合、検知対象を検知した旨のアラームを生成して出力する。
これにより、実施の形態に係る学習モデル設定支援システム100は、監視カメラC1,…のそれぞれの人工知能で用いる学習モデル(アプリケーション)の時間帯を示すスケジュール情報の設定を効率的に支援できる。また、学習モデル設定支援システム100は、時間帯により監視カメラC1,…のそれぞれの人工知能で用いる学習モデル(アプリケーション)を切り替え可能にすることで、各監視カメラの運用中のユーザビリティを向上できる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、ユーザによる監視カメラの設定を効率的に支援し、監視カメラの運用中のユーザビリティを向上できる監視カメラおよび学習モデル設定支援システムとして有用である。
10 通信部
11 プロセッサ
12 メモリ
13 撮像部
14 AI処理部
14A AI演算処理部
14B 復号処理部
14C 学習モデルデータベース
100 学習モデル設定支援システム
C1 監視カメラ
DB 登録データベース
P1 端末装置
SC1 スケジュール設定画面
SC2,SC3 アラーム画面
NW ネットワーク

Claims (6)

  1. 人工知能を備える監視カメラであって、
    監視エリアを撮像する撮像部と、
    対象物の検知を行う人工知能に用いる少なくとも1つの学習モデルを有効にする時間帯を示すスケジュール情報を取得する取得部と、
    前記学習モデルに基づいて、前記撮像部により撮像された撮像画像から前記対象物を検知する検知部と、
    前記検知部により前記対象物が検知された場合、前記対象物を検知した旨のアラームを生成して出力するプロセッサと、を備え、
    前記プロセッサは、前記スケジュール情報に基づいて、前記学習モデルを切り替える、
    監視カメラ。
  2. 前記スケジュール情報は、夜間の時間帯で前記対象物である動体を検知する動体検知学習モデルを有効化し、昼間の時間帯で前記対象物である人物の顔を検知し、検知された前記人物の顔が事前に登録された人物の顔画像と同一あるいは類似するか否かを判定する顔認証学習モデルを有効化するスケジュールである、
    請求項1に記載の監視カメラ。
  3. 前記スケジュール情報は、前記昼間の時間帯で、前記顔認証学習モデルと前記対象物である人物の行動を検知し、検知された前記人物の行動が事前に登録された所定の行動であるか否かを判定する不審行動検知学習モデルとを有効化するスケジュールである、
    請求項2に記載の監視カメラ。
  4. 前記スケジュール情報は、夜間の時間帯で前記対象物である動体を検知する動体検知学習モデルを有効化し、昼間の時間帯で前記対象物である人物の行動を検知し、検知された前記人物の行動が事前に登録された所定の行動であるか否かを判定する不審行動検知学習モデルを有効化するスケジュールである、
    請求項1に記載の監視カメラ。
  5. 前記スケジュール情報は、前記昼間の時間帯で、前記不審行動検知学習モデルと前記対象物である人物の顔を検知し、検知された前記人物の顔が事前に登録された人物の顔画像と同一あるいは類似するか否かを判定する顔認証学習モデルとを有効化するスケジュールである、
    請求項4に記載の監視カメラ。
  6. ユーザ操作を受け付け可能な端末装置と、
    前記端末装置と通信可能であって、人工知能を備え、監視エリアを撮像する少なくとも1台の監視カメラと、を備える学習モデル設定支援システムであって、
    前記端末装置は、
    前記ユーザ操作に基づいて、対象物の検知を行う前記人工知能に用いる少なくとも1つの学習モデルを有効にする時間帯の情報を示すスケジュール情報を生成して、前記監視カメラに送信し、
    前記監視カメラは、
    送信された前記スケジュール情報に基づいて、前記学習モデルを切り替えて、前記対象物が検知された場合、前記対象物を検知した旨のアラームを生成して出力する、
    学習モデル設定支援システム。
JP2021008947A 2021-01-22 2021-01-22 監視カメラおよび学習モデル設定支援システム Pending JP2022112917A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021008947A JP2022112917A (ja) 2021-01-22 2021-01-22 監視カメラおよび学習モデル設定支援システム
US17/581,195 US20220237918A1 (en) 2021-01-22 2022-01-21 Monitoring camera and learning model setting support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021008947A JP2022112917A (ja) 2021-01-22 2021-01-22 監視カメラおよび学習モデル設定支援システム

Publications (1)

Publication Number Publication Date
JP2022112917A true JP2022112917A (ja) 2022-08-03

Family

ID=82494849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021008947A Pending JP2022112917A (ja) 2021-01-22 2021-01-22 監視カメラおよび学習モデル設定支援システム

Country Status (2)

Country Link
US (1) US20220237918A1 (ja)
JP (1) JP2022112917A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116486585A (zh) * 2023-06-19 2023-07-25 合肥米视科技有限公司 一种基于ai机器视觉分析预警的生产安全管理系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10950104B2 (en) * 2019-01-16 2021-03-16 PANASONIC l-PRO SENSING SOLUTIONS CO., LTD. Monitoring camera and detection method
CN111814646B (zh) * 2020-06-30 2024-04-05 深圳平安智慧医健科技有限公司 基于ai视觉的监控方法、装置、设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116486585A (zh) * 2023-06-19 2023-07-25 合肥米视科技有限公司 一种基于ai机器视觉分析预警的生产安全管理系统
CN116486585B (zh) * 2023-06-19 2023-09-15 合肥米视科技有限公司 一种基于ai机器视觉分析预警的生产安全管理系统

Also Published As

Publication number Publication date
US20220237918A1 (en) 2022-07-28

Similar Documents

Publication Publication Date Title
KR102614012B1 (ko) 영상처리장치 및 그의 영상제공방법
US10937290B2 (en) Protection of privacy in video monitoring systems
US11308777B2 (en) Image capturing apparatus with variable event detecting condition
US10120536B2 (en) Monitoring method
US9384642B2 (en) Image processing apparatus, image processing system, and filter setting method
US10719946B2 (en) Information processing apparatus, method thereof, and computer-readable storage medium
US20160148016A1 (en) System and Method of Contextual Adjustment of Video Fidelity to Protect Privacy
US20070252693A1 (en) System and method for surveilling a scene
JP6758918B2 (ja) 画像出力装置、画像出力方法及びプログラム
US20140240455A1 (en) System and Method to Create Evidence of an Incident in Video Surveillance System
US20170294213A1 (en) Method for video investigation
CN107122743A (zh) 安防监控方法、装置和电子设备
KR20110093040A (ko) 피사체 감시 장치 및 방법
WO2019021628A1 (ja) 情報処理装置、制御方法、及びプログラム
KR20210104979A (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
KR20180019874A (ko) 이벤트 검색 장치 및 시스템
JP4872490B2 (ja) 監視装置、監視システム及び監視方法
JP2022112917A (ja) 監視カメラおよび学習モデル設定支援システム
KR100653825B1 (ko) 변화검출방법 및 장치
JP2009239507A (ja) 監視システム
WO2015093687A1 (ko) 데이터 처리 시스템
KR101131779B1 (ko) 지능형 영상 감시 시뮬레이션 검색 방법
KR20220003779A (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
JP2017224956A (ja) 情報処理装置及び情報処理方法
JP2023177431A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240111