JP2020052484A - 物体認識カメラシステム、再学習システム、及び物体認識プログラム - Google Patents

物体認識カメラシステム、再学習システム、及び物体認識プログラム Download PDF

Info

Publication number
JP2020052484A
JP2020052484A JP2018178329A JP2018178329A JP2020052484A JP 2020052484 A JP2020052484 A JP 2020052484A JP 2018178329 A JP2018178329 A JP 2018178329A JP 2018178329 A JP2018178329 A JP 2018178329A JP 2020052484 A JP2020052484 A JP 2020052484A
Authority
JP
Japan
Prior art keywords
unit
object recognition
recognition
learned
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018178329A
Other languages
English (en)
Other versions
JP7207630B2 (ja
Inventor
安紘 土田
Yasuhiro Tsuchida
安紘 土田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AWL Inc
Original Assignee
AWL Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AWL Inc filed Critical AWL Inc
Priority to JP2018178329A priority Critical patent/JP7207630B2/ja
Publication of JP2020052484A publication Critical patent/JP2020052484A/ja
Application granted granted Critical
Publication of JP7207630B2 publication Critical patent/JP7207630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】物体認識カメラシステム、再学習システム、及び物体認識プログラムにおいて、検出された物体が撮影エリア内に存在する時間を考慮して、複数種類の学習済物体認識用ニューラルネットワークのうち、適切な学習済物体認識用ニューラルネットワークを、適切な順番で使用して、撮影エリア内に存在する物体を認識する。【解決手段】検出された物体(IDが付与された物体)が所定の撮影エリア内に存在する時間(物体存在時間)を予想して(S11)、予想した物体存在時間(予想ID存在時間)に基づいて、複数種類の認識器R1〜Rn(学習済物体認識用ニューラルネットワーク)の使用スケジュールの作成と更新を行う(S12)。そして、この使用スケジュールに従って、認識器R1〜Rnを使用して、所定の撮影エリア内に存在する物体を認識するようにした(S13)。【選択図】図9

Description

本発明は、物体認識カメラシステム、再学習システム、及び物体認識プログラムに関する。
従来から、監視カメラや、いわゆるAI(Artificial Intelligence)カメラ等のカメラで撮影したフレーム画像に映り込んだ人等の物体を、物体検出用ニューラルネットワーク等で検出して、検出した物体の認識を、物体認識用ニューラルネットワークを用いて行うようにした装置やシステムが知られている(例えば、特許文献1参照)。
特開2017−224925号公報
ところが、上記のような物体認識用ニューラルネットワークを用いて物体の認識を行う装置やシステムでは、一般的に、物体検出で物体の領域を検出し、当該検出された領域の詳細を認識するために当該検出された領域それぞれについて、(学習済物体認識用ニューラルネットワークによる)物体認識をかける。ただし、物体検出も物体認識も、相当のコンピュータリソースを要する処理であるため、例えば、物体検出が100ミリ秒、物体認識が200ミリ秒かかるとして、あるフレーム画像で3つの物体が検出されたとすると、そのフレーム画像内の全ての検出物体の認識を行うには、100+200×3=700ミリ秒の時間が必要となる。このように、1つのフレーム画像における全ての物体を認識するために要する時間は、フレームに含まれる(検出)物体数に依存する。
従って、たくさんの物体が検出されたフレーム画像における物体の認識には、長時間を要してしまうため、物体が多いフレーム画像の後暫くの間に入力されたフレーム画像における物体の認識を行うことができない(認識漏れが発生する)という、いわゆるフレーム落ちの問題が発生する。
上記の問題への既存の対処方法としては、物体検出処理用のスレッドと物体認識処理用のスレッドを分割して並行処理とし、また物体認識処理を高速化するために、専用のGPUを多数割り当てる、という方法がある。しかしこの方法だと、(1)専用GPUの導入コストが必要になる、(2)物体検出で検出した画像情報をキューイングする必要があるため大量のメモリが必要になる(コスト増)、(3)専用GPUでも処理が追い付かない場合には、キューあふれが発生し、認識漏れとなる、という問題がある。
本発明は、上記課題を解決するものであり、検出された物体が撮影エリア内に存在する時間を考慮して、複数種類の学習済物体認識用ニューラルネットワークのうち、適切な学習済物体認識用ニューラルネットワークを、適切な順番で使用して、撮影エリア内に存在する物体を認識することが可能な物体認識カメラシステム、再学習システム、及び物体認識プログラムを提供することを目的とする。
上記課題を解決するために、本発明の第1の態様による物体認識カメラシステムは、所定の撮影エリアを撮影するカメラ部と、このカメラ部が接続されたコンピュータとを備えた物体認識カメラシステムであって、前記コンピュータは、前記カメラ部から入力されたフレーム画像に映り込んだ物体を検出する物体検出部と、前記物体検出部により検出された物体が、前記所定の撮影エリア内に存在する時間を予想する存在時間予想部と、前記物体検出部により検出された物体を認識するための複数種類の学習済物体認識用ニューラルネットワークを有する物体認識部と、前記存在時間予想部により予想した、前記物体が所定の撮影エリア内に存在する時間に基づいて、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うスケジューラ部とを備え、前記物体認識部は、前記使用スケジュールに従って、前記複数種類の学習済物体認識用ニューラルネットワークを使用して、前記所定の撮影エリア内に存在する物体を認識する物体認識カメラシステムである。
この物体認識カメラシステムにおいて、前記物体検出部により検出された物体が、複数であるとき、前記存在時間予想部は、前記物体検出部により検出された複数の物体の各々が、前記所定の撮影エリア内に存在する時間を予想し、前記スケジューラ部は、前記存在時間予想部により予想した、前記複数の物体の各々が前記所定の撮影エリア内に存在する時間に基づき、前記複数の物体の各々について、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うことが望ましい。
この物体認識カメラシステムにおいて、前記コンピュータは、コンピュータ本体と、このコンピュータ本体に接続される機能拡張用プロセッサチップとを含み、前記機能拡張用プロセッサチップは、前記物体認識部を備えるようにしてもよい。
この物体認識カメラシステムにおいて、前記コンピュータは、前記機能拡張用プロセッサチップを2つ以上備え、これらの機能拡張用プロセッサチップのうち、前記物体認識部を備える機能拡張用プロセッサチップとは別の機能拡張用プロセッサチップが、前記物体検出部を備えるようにしてもよい。
本発明の第2の態様による再学習システムは、所定の撮影エリアを撮影するカメラ部、及び前記カメラ部が接続されたコンピュータを備えた物体認識カメラシステムと、前記コンピュータよりも処理能力の高いチェック用サーバとを備えた再学習システムにおいて、前記コンピュータは、前記カメラ部から入力されたフレーム画像に映り込んだ物体を検出する物体検出部と、前記物体検出部により検出された物体が、前記所定の撮影エリア内に存在する時間を予想する存在時間予想部と、前記物体検出部により検出された物体を認識するための複数種類の学習済物体認識用ニューラルネットワークを有する物体認識部と、前記存在時間予想部により予想した、前記物体が所定の撮影エリア内に存在する時間に基づいて、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うスケジューラ部とを備え、前記物体認識部は、前記使用スケジュールに従って、前記複数種類の学習済物体認識用ニューラルネットワークを使用して、前記所定の撮影エリア内に存在する物体を認識し、前記チェック用サーバは、前記物体認識カメラシステム側の前記カメラ部により取得したフレーム画像に映り込んだ物体について、前記物体認識カメラシステム側で行われた物体の認識の種類毎に、前記物体認識カメラシステム側で用いられた前記学習済物体認識用ニューラルネットワークよりも、精度の高い推論を行うことが可能な学習済物体認識用ニューラルネットワークを用いて、前記物体認識カメラシステム側で行われた物体の認識と同種の物体の認識を行い、前記チェック用サーバによる前記物体の認識結果と、前記物体認識カメラシステム側における前記物体の認識結果に、所定のレベル以上の差異がある場合に、前記物体認識カメラシステム側における前記複数種類の学習済物体認識用ニューラルネットワークの再学習を行うものである。
この再学習システムにおいて、前記物体認識カメラシステム側における前記物体検出部は、学習済物体検出用ニューラルネットワークを有し、この学習済物体検出用ニューラルネットワークを用いて、前記カメラ部から入力されたフレーム画像に映り込んだ物体を検出し、前記チェック用サーバは、前記カメラ部により取得したフレーム画像に映り込んだ物体について、前記物体認識カメラシステム側における前記学習済物体検出用ニューラルネットワークよりも、精度の高い推論を行うことが可能な学習済物体検出用ニューラルネットワークを用いて、物体の検出を行い、前記チェック用サーバによる前記物体の検出結果と、前記物体認識カメラシステム側における前記物体の検出結果に、所定のレベル以上の差異がある場合に、前記物体認識カメラシステム側における前記学習済物体検出用ニューラルネットワークの再学習を行うことが望ましい。
本発明の第3の態様による物体認識プログラムは、コンピュータを、所定の撮影エリアを撮影するカメラ部から入力されたフレーム画像に映り込んだ物体を検出する物体検出部と、前記物体検出部により検出された物体が、前記所定の撮影エリア内に存在する時間を予想する存在時間予想部と、前記物体検出部により検出された物体を認識するための複数種類の学習済物体認識用ニューラルネットワークを有する物体認識部と、前記存在時間予想部により予想した、前記物体が所定の撮影エリア内に存在する時間に基づいて、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うスケジューラ部として機能させるための、物体認識プログラムにおいて、前記物体認識部が、前記使用スケジュールに従って、前記複数種類の学習済物体認識用ニューラルネットワークを使用して、前記所定の撮影エリア内に存在する物体を認識するようにさせる物体認識プログラムである。
この物体認識プログラムにおいて、前記物体検出部により検出された物体が、複数であるとき、前記存在時間予想部は、前記物体検出部により検出された複数の物体の各々が、前記所定の撮影エリア内に存在する時間を予想し、前記スケジューラ部は、前記存在時間予想部により予想した、前記複数の物体の各々が前記所定の撮影エリア内に存在する時間に基づき、前記複数の物体の各々について、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うことが望ましい。
本発明の第1の態様による物体認識カメラシステム、及び第3の態様による物体認識プログラムによれば、検出された物体が所定の撮影エリア内に存在する時間(以下、「物体存在時間」という)を予想して、この予想した物体存在時間に基づいて、複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行う。そして、この使用スケジュールに従って、複数種類の学習済物体認識用ニューラルネットワークを使用して、所定の撮影エリア内に存在する物体を認識するようにした。これにより、上記の物体存在時間(検出された物体が所定の撮影エリア内に存在する時間)を考慮して、複数種類の学習済物体認識用ニューラルネットワークのうち、適切な学習済物体認識用ニューラルネットワークを、適切な順番で使用して、上記撮影エリア内に存在する物体を認識することができる。従って、従来の物体認識用ニューラルネットワークを用いて物体の認識を行う装置やシステムと異なり、検出された物体がカメラによる撮影エリアから出てしまう(フレームアウトする)までに、物体を認識できる可能性を高めることができる。また、上記の物体存在時間(検出された物体が所定の撮影エリア内に存在する時間)が長い場合には、複数種類の学習済物体認識用ニューラルネットワークのうち、処理時間が長くて精度が高い学習済物体認識用ニューラルネットワークを使用して、検出された物体を正確に認識することができる可能性を高めることができる。
また、本発明の第2の態様による再学習システムによれば、チェック用サーバが、フレーム画像に映り込んだ物体について、物体認識カメラシステム側で行われた物体の認識の種類毎に、物体認識カメラシステム側で用いられた学習済物体認識用ニューラルネットワークよりも、精度の高い推論(物体認識)を行うことが可能な学習済物体認識用ニューラルネットワークを用いて、物体認識カメラシステム側で行われた物体の認識と同種の物体の認識を行う。そして、チェック用サーバによる精度の高い物体の認識結果と、物体認識カメラシステム側における物体の認識結果に、所定のレベル以上の差異がある場合に、物体認識カメラシステム側における複数種類の学習済物体認識用ニューラルネットワークの再学習を行うようにした。これにより、上記第1の態様による物体認識カメラシステムが有する効果と同様な効果に加えて、例えば、物体認識カメラシステムが配置される場所毎に、認識対象となる物体の特徴が異なる場合や、認識対象となる物体の特徴が変更された場合(例えば、検出された物体が店員か顧客かを認識する物体認識用ニューラルネットワークの場合に、店員の服が夏服から冬服に代わったような場合)でも、物体認識カメラシステム側における複数種類の学習済物体認識用ニューラルネットワークの再学習を行って、物体の認識を正確に行うことができるようになる。
本発明の一実施形態のエッジカメラを含む再学習システムの概略の構成を示すブロック構成図。 同エッジカメラの概略のハードウェア構成を示すブロック図。 同エッジカメラにおけるボードコンピュータとDNN推論用USB拡張チップの機能ブロック構成図。 同エッジカメラにおける主なソフトウェアの構成図。 同エッジカメラにおける処理の概要のフローチャート。 同エッジカメラにおけるバウンディングボックス、及びバウンディングボックスに付与されるIDの例を示す説明図。 同エッジカメラにおけるバウンディングボックス情報の説明図。 上記図4中のIDテーブルのレコードの内容を示す図。 上記図5中のS5の認識処理の詳細のフローチャート。 同エッジカメラにおけるスケジューラ部が作成・更新した認識器の使用スケジュールの説明図。 上記図10中の認識器の精度と処理時間の例を示す説明図。
以下、本発明を具体化した実施形態による物体認識カメラシステム、再学習システム、及び物体認識プログラムについて、図面を参照して説明する。図1は、本実施形態によるエッジカメラ1(請求項における「物体認識カメラシステム」)と、AIサーバ2(請求項における「チェック用サーバ」)とを含む、再学習システム10の概略の構成を示すブロック構成図である。本実施形態では、エッジカメラ1、及びAIサーバ2が、チェーン店等の店舗内に配される場合の例について説明する。上記のエッジカメラ1は、いわゆるエッジコンピューティング機能を有するAIカメラである。また、AIサーバ2は、エッジカメラ1が有するコンピュータ11(図2参照)よりも処理能力の高いサーバであり、後述するエッジカメラ1側における物体検出の処理結果と物体認識の処理結果のチェック用のサーバである。
図1に示されるように、店舗内の複数のエッジカメラ1は、LAN(Local Area Network)4を介して、AIサーバ2、及びVMS(Video Management System)サーバ3と接続されている。VMSサーバ3は、エッジカメラ1側のカメラユニット12(図2参照)で取得したフレーム画像の格納用の記憶装置を有するサーバである。
上記のLAN4を用いて形成された店舗内のイントラネット6は、ルータ5を介して、インターネット7と接続されている。このインターネット7には(クラウド上には)、学習サーバ8と、タグサーバ9とが配されている。上記の学習サーバ8は、後述するエッジカメラ1側における複数種類の学習済物体認識用ニューラルネットワーク(認識器)の再学習処理を行って、再学習の結果を反映した学習済物体認識用ニューラルネットワーク(のパラメータ)を、エッジカメラ1に送信する。また、学習サーバ8は、後述するエッジカメラ1側における学習済物体検出用ニューラルネットワーク(物体検出器)の再学習処理を行って、再学習の結果を反映した学習済物体検出用ニューラルネットワーク(のパラメータ)を、エッジカメラ1に送信する。上記のタグサーバ9は、後述するエッジカメラ1側における複数種類の認識器による物体認識結果、及びAIサーバ2が抜き打ち検査的に行う物体認識結果を格納する。なお、AIサーバ2と学習サーバ8による物体検出器と認識器の再学習処理の詳細については、説明の都合上、後述する。
次に、図2を参照して、エッジカメラ1のハードウェア構成について説明する。エッジカメラ1は、所定の撮影エリアを撮影するカメラユニット12(請求項における「カメラ部」)と、このカメラユニット12が接続されたコンピュータ11とを備えている。上記のコンピュータ11は、ボードコンピュータ13(請求項における「コンピュータ本体」)と、このコンピュータ本体に接続されるDNN(Deep Neural Networks)推論用USB拡張チップC1,C2(請求項における「機能拡張用プロセッサチップ」)とを含んでいる。
上記のボードコンピュータ13は、SoC(System−on−a−Chip)14と、RAM(Random Access Memory)15と、microSDカード16と、LANポート17と、カメラコネクタ18と、USBコネクタ19,20とを備えている。上記のSoC14は、装置全体の制御及び各種演算を行うCPU21と、リアルタイム画像処理に用いられるGPU22とを備えている。RAM15は、各種のプログラムの実行時に、実行するプログラムやデータをロードする。
上記のmicroSDカード16は、各種のデータやプログラムを記憶する。microSDカード16に記憶されているプログラムには、物体認識プログラム23が含まれている。ただし、請求項における「物体認識プログラム」は、microSDカード16に記憶された物体認識プログラム23と、DNN推論用USB拡張チップC1内に格納された物体検出器35(図4参照)と、DNN推論用USB拡張チップC2内に格納された認識器R1〜Rn(図4参照)とを合わせたものである。なお、DNN推論用USB拡張チップは、一つでもよい。物体検出に要する時間が、物体認識に要する時間と比較して小さい場合、物体検出と物体認識を直列で実施する方が効率的にDNN推論用USB拡張チップのリソースを活用できる場合もあるからである。また、上記の物体認識プログラム23の一部または全部が、SoC14内のメモリに記憶される場合もある。
上記のLANポート17は、Ethernet規格のLANへの接続用のポートである。カメラコネクタ18は、カメラユニット12の接続用のコネクタである。また、USBコネクタ19,20は、それぞれ、DNN推論用USB拡張チップC1,C2の接続用のコネクタである。
図3は、上記のエッジカメラ1におけるボードコンピュータ13とDNN推論用USB拡張チップC1,C2の機能ブロックを示す。エッジカメラ1のボードコンピュータ13のCPU21は、機能ブロックとして、存在時間予想部26と、スケジューラ部27とを備えている。また、DNN推論用USB拡張チップC1,C2は、それぞれ、機能ブロックとして、物体検出部25、物体認識部28を備えている。
上記の物体検出部25は、カメラユニット12から入力されたフレーム画像に映り込んだ物体を検出する。本実施形態では、物体検出部25は、物体のうち、人を検出する。また、存在時間予想部26は、物体検出部25により検出された人が、カメラユニット12の所定の撮影エリア内に存在する時間を予想する。物体認識部28は、物体検出部25により検出された人を認識するための複数種類の学習済物体認識用ニューラルネットワークを有している。スケジューラ部27は、存在時間予想部26により予想した、人が撮影エリア内に存在する時間に基づいて、DNN推論用USB拡張チップC2に格納された複数種類の学習済物体認識用ニューラルネットワーク(図4における認識器R1〜Rnに相当)の使用スケジュールの作成と更新を行う。上記の物体認識部28は、スケジューラ部27により作成及び更新された使用スケジュールに従って、複数種類の学習済物体認識用ニューラルネットワーク(図4における認識器R1〜Rn)を使用して、上記の撮影エリア内に存在する人を認識する。
上記のエッジカメラ1側の存在時間予想部26とスケジューラ部27の機能は、エッジカメラ1側のCPU21が物体認識プログラム23を実行することにより実現される。ただし、この構成に限られず、例えば、上記のCPU21における各ブロックの機能の少なくとも一つを、ASIC(Application Specific Integrated Circuit)等によって構成される個別のハードウェアによって実現してもよい。また、エッジカメラ1側における全ての機能ブロック(存在時間予想部26、スケジューラ部27、物体検出部25、及び物体認識部28)を、エッジカメラ1側のCPU21が備えてもよい。
次に、図4を参照して、エッジカメラ1における主なソフトウェアの構成について説明する。図4に示すように、エッジカメラ1のボードコンピュータ13における主なソフトウェアは、フレーム画像入力モジュール31と、認識器スケジューラ32(請求項及び図3における「スケジューラ部」に相当)と、学習効率化モジュール33である。また、エッジカメラ1のDNN推論用USB拡張チップC1,C2における主なソフトウェアは、それぞれ、物体検出器35と、認識器R1〜Rnである。
上記のフレーム画像入力モジュール31は、カメラユニット12からのフレーム画像を、一定のフレームレートで取り込む(入力する)。DNN推論用USB拡張チップC1における物体検出器35は、上記の物体検出部25に相当する処理を行う。この物体検出器35を構成する学習済物体検出用ニューラルネットワークは、例えば、R−CNNベースの物体検出エンジンである。より具体的に言うと、この物体検出用ニューラルネットワークは、例えば、MobileNet−SSD(物体検出のアルゴリズムであるSSDをMobileNetを用いて軽量化した、物体検出用ニューラルネットワークのモデル)である。
ボードコンピュータ13のCPU21が、フレーム画像入力モジュール31を用いて取り込んだフレーム画像を、DNN推論用USB拡張チップC1の物体検出器35(MobileNet−SSD)に送ると、物体検出器35(MobileNet−SSD)は、このフレーム画像における検出対象物(人)のバウンディングボックス群を抽出して、これらのバウンディングボックスについてのバウンディングボックス情報を、ボードコンピュータ13側に返す。ボードコンピュータ13側のCPU21は、物体検出器35から返されたバウンディングボックス情報に基づいて、フレーム画像における各バウンディングボックス(図6参照)にIDを付与して、このIDとバウンディングボックス情報をIDテーブル34に登録する。ただし、IDテーブル34へのIDの登録が既に済んでいる場合には、ボードコンピュータ13側のCPU21は、物体検出器35から返されたバウンディングボックス情報をIDテーブル34に書き込む処理(該当IDのレコードの更新処理)のみを行う。なお、上記の各バウンディングボックスへのID付与処理を、DNN推論用USB拡張チップC1の物体検出器35が行うようにしてもよい。
また、上記の認識器スケジューラ32は、上記のスケジューラ部27に相当する処理を行う。具体的には、フレーム画像における各IDが付与された人(の画像)を、いつ、(DNN推論用USB拡張チップC2に格納された認識器R1〜Rnのうちの)どの認識器で認識するかをスケジューリングする。このスケジューリングに先立って、ボードコンピュータ13のCPU21(の存在時間予想部26)は、IDテーブル34に登録されているバウンディングボックス情報に基づいて、上記の各IDが付与された人が、撮影エリア内に存在する時間を予想する。認識器スケジューラ32は、上記のCPU21(の存在時間予想部26)が予想した、各IDが付与された人が撮影エリア内に存在する時間に基づいて、できるだけ全てのIDが付与された人について、可能な限り高い精度を有する認識器を用いて、認識を行う。
また、上記のDNN推論用USB拡張チップC2に格納された認識器R1〜Rnは、例えば、分類や顔認識等の推論を行うディープなCNNである。より具体的に言うと、認識器R1〜Rnは、例えば、MobileNetV1、MobileNetV2、及びインセプション構造を有するCNN(GoogleNetの発展版等)などである。なお、認識器R1〜Rnは、例えば、MobileNetベースのOpenFace(CNNベースの顔認識エンジン)等の、分類以外の認識処理を行う認識器であってもよい。
上記の学習効率化モジュール33は、物体検出器35による物体(人)検出や、認識器R1〜Rnによる物体(人)認識の精度向上に必要なデータを選別して、AIサーバ2に送信する。このAIサーバ2に送信されるデータには、所定の条件に基づき抽出されたフレーム画像を示す識別情報、物体検出器35による物体(人)の検出結果のデータ(例えば、IDやバウンディングボックス情報)や、認識器R1〜Rnによる物体(人)の認識結果のデータが含まれる。
AIサーバ2は、VMSサーバ3に格納されたフレーム画像に映り込んだ物体について、エッジカメラ1側における学習済物体検出用ニューラルネットワーク(物体検出器35)よりも、精度の高い推論を行うことが可能な学習済物体検出用ニューラルネットワークを用いて、物体(人)の検出を行う。そして、エッジカメラ1側における物体(人)の検出結果と、AIサーバ2側における物体(人)の検出結果とに、所定のレベル以上の乖離(差異)がある場合には、AIサーバ2は、該当のフレーム画像を示す情報を、学習サーバ8に送信する。ここで、AIサーバ2が、該当のフレーム画像自体ではなく、該当のフレーム画像を示す情報(フレーム画像情報)を学習サーバ8に送るのは、フレーム画像自体は、各エッジカメラ1ではなく、VMSサーバ3に格納されているからである。なお、ネットワークの構成上、VMSサーバ3が店舗内のイントラネット6のみに接続されていて、外部の学習サーバ8からアクセスできない場合もある。この場合は、AIサーバ2は、VMSサーバ3より、該当のフレーム画像を読みだして、このフレーム画像に適切な方法で暗号化等を施した上で、学習サーバ8へ送信する。学習サーバ8自体が、エッジカメラ1側における(物体検出器35の)学習済物体検出用ニューラルネットワークの再(機械)学習処理を行う場合は、AIサーバ2は、自機(の学習済物体検出用ニューラルネットワーク)による物体(人)の検出結果と、エッジカメラ1側(の学習済物体検出用ニューラルネットワーク)における物体(人)の検出結果も、学習サーバ8に送信する。
学習サーバ8は、AIサーバ2から送られた上記のフレーム画像情報に対応するフレーム画像を、VMSサーバ3から読み込んで、このフレーム画像と、AIサーバ2(の学習済物体検出用ニューラルネットワーク)による物体の検出結果と、エッジカメラ1(の学習済物体検出用ニューラルネットワーク)による物体の検出結果とに基づいて、エッジカメラ1側における学習済物体検出用ニューラルネットワーク(に相当する物体検出用ニューラルネットワーク)の再学習を行う。そして、学習サーバ8は、再学習した物体検出用ニューラルネットワーク(以下、「再学習済みの物体検出用ニューラルネットワーク」という)のモデルと、元の(再学習前の)学習済物体検出用ニューラルネットワークのモデルの性能を比較した上で、再学習済みの物体検出用ニューラルネットワークのモデルの方の性能が高い場合には、再学習済みの物体検出用ニューラルネットワークを、エッジカメラ1側に送信して、エッジカメラ1の物体検出器35を構成する学習済物体検出用ニューラルネットワークを、上記の再学習済みの物体検出用ニューラルネットワークの内容に書き換える。なお、学習サーバ8は、上記の再学習済みの物体検出用ニューラルネットワーク自体ではなく、この再学習済みの物体検出用ニューラルネットワークのパラメータのみをエッジカメラ1側に送信して、エッジカメラ1の学習済物体検出用ニューラルネットワークのパラメータのみを更新してもよい。
また、AIサーバ2は、VMSサーバ3に格納されたフレーム画像に映り込んだ物体について、エッジカメラ1側で行われた物体(人)の認識の種類毎に、エッジカメラ1側で用いられた学習済物体認識用ニューラルネットワーク(認識器R1〜Rn)よりも、精度の高い推論を行うことが可能な学習済物体認識用ニューラルネットワークを用いて、エッジカメラ1側で行われた物体(人)の認識と同種の物体の認識を行う。そして、エッジカメラ1側(の学習済物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれか))における物体(人)の認識結果と、AIサーバ2側における物体(人)の認識結果とに、所定のレベル以上の乖離(差異)がある場合には、AIサーバ2は、該当のフレーム画像を示す情報を、学習サーバ8に送信する。学習サーバ8自体が、エッジカメラ1側における学習済物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれか)の再(機械)学習処理を行う場合は、AIサーバ2は、自機(の学習済物体認識用ニューラルネットワーク)による物体(人)の認識結果と、エッジカメラ1側(の学習済物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれか))における物体(人)の認識結果も、学習サーバ8に送信する。
学習サーバ8は、AIサーバ2から送られた上記のフレーム画像情報に対応するフレーム画像を、VMSサーバ3から読み込んで、このフレーム画像と、AIサーバ2(の学習済物体認識用ニューラルネットワーク)による物体の認識結果と、エッジカメラ1側(の学習済物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれか))による物体の認識結果とに基づいて、エッジカメラ1側における学習済物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれか)に相当する学習済物体認識用ニューラルネットワークの再学習を行う。そして、学習サーバ8は、再学習した物体認識用ニューラルネットワーク(以下、「再学習済みの物体認識用ニューラルネットワーク」という)のモデルと、元の(再学習前の)学習済物体認識用ニューラルネットワークのモデルの性能を比較した上で、再学習済みの物体認識用ニューラルネットワークのモデルの方の性能が高い場合には、上記の再学習済みの物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれかに相当)を、エッジカメラ1側に送信して、エッジカメラ1の学習済物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれか)を、上記の再学習済みの物体認識用ニューラルネットワークの内容に書き換える。なお、学習サーバ8は、上記の再学習済みの物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれかに相当)自体ではなく、この再学習済みの物体認識用ニューラルネットワークのパラメータのみをエッジカメラ1側に送信して、エッジカメラ1の学習済物体認識用ニューラルネットワーク(認識器R1〜Rnの少なくともいずれか)のパラメータのみを更新してもよい。
すなわち、本再学習システム10は、AIサーバ2による物体の検出結果と、エッジカメラ1側(の学習済物体検出用ニューラルネットワーク)における物体の検出結果とに、所定のレベル以上の差異がある場合に、エッジカメラ1側における学習済物体検出用ニューラルネットワークの再学習を行う。また、本再学習システム10は、AIサーバ2による物体の認識結果と、エッジカメラ1側(の学習済物体認識用ニューラルネットワーク)における物体の認識結果に、所定のレベル以上の差異がある場合に、エッジカメラ1側における学習済物体認識用ニューラルネットワークの再学習を行う。
次に、図5のフローチャートに加えて、図6乃至図8を参照して、エッジカメラ1の処理の概要について、説明する。エッジカメラ1のボードコンピュータ13のCPU21は、カメラユニット12からフレーム画像が入力されると(図5でS1)、入力されたフレーム画像を、DNN推論用USB拡張チップC1の物体検出器35(MobileNet−SSD)に送り、この物体検出器35を用いて、フレーム画像に映り込んだ物体(人)を検出する(S2)。具体的には、DNN推論用USB拡張チップC1の物体検出器35は、カメラユニット12からのフレーム画像における検出対象物(人)のバウンディングボックス群を抽出して、これらのバウンディングボックスについての情報(バウンディングボックス情報)を、ボードコンピュータ13側に返す。ボードコンピュータ13側のCPU21は、物体検出器35から返されたバウンディングボックス情報に基づいて、フレーム画像における各バウンディングボックスにIDを付与する(S3)。
図6は、上記のバウンディングボックス、及び各バウンディングボックスに付与されるIDの例を示す。図6の例では、時刻t1のフレーム画像f1、及び時刻t2のフレーム画像f2において抽出(検出)されたバウンディングボックス41は、ID=1の(物体(人)の)バウンディングボックスのみであり、時刻t3のフレーム画像f3、及び時刻t4のフレーム画像f4において抽出(検出)されたバウンディングボックス41には、ID=1とID=2の(人の)バウンディングボックスが含まれる。
また、図7は、上記の物体検出器35からボードコンピュータ13側のCPU21に返されるバウンディングボックス情報の説明図である。このバウンディングボックス情報には、図7に示すバウンディングボックス41の左上端の(x、y)座標と、バウンディングボックス41の幅w及び高さhとが含まれる。
ボードコンピュータ13側のCPU21は、図5のS3で各バウンディングボックス41に付与したID(すなわち、検出された人に付与したID)と、各バウンディングボックス41のバウンディングボックス情報をIDテーブル34に登録する(S4)。ただし、IDテーブル34へのIDの登録が既に済んでいる場合には、ボードコンピュータ13側のCPU21は、物体検出器35から返されたバウンディングボックス情報をIDテーブル34に書き込む処理(該当IDのレコードの更新処理)のみを行う。なお、上記の各バウンディングボックス41へのID付与処理を、DNN推論用USB拡張チップC1の物体検出器35が行うようにしてもよい。
次に、ボードコンピュータ13側のCPU21は、DNN推論用USB拡張チップC2の認識器R1〜Rn(の少なくともいずれか)を使用して、IDが付与されたバウンディングボックスにおける物体(人)を、できるだけ詳細に認識する(S5)。ボードコンピュータ13側のCPU21は、上記S5の認識結果の情報も、IDテーブル34における該当IDのレコードに書き込む。
図8は、上記のIDテーブル34のレコードの内容を示す。図8に示すように、IDテーブル34には、直近に入力された(直近の時刻tの)フレーム画像で検出された人(に対応するID)についてのレコードのみが格納されている。IDテーブル34のレコードには、ID、時刻t−n〜tにおける各IDの(バウンディングボックス41の)バウンディングボックス情報(図8中の「BB情報1〜n」)、各ID(に対応する人)が撮影エリア内(フレーム画像内)に存在した(今までの)時間(「ID存在時間」)、各IDが付与されたバウンディングボックス41の移動速度(すなわち、各IDに対応する人の移動速度)(「速度」)、及び上記S4で行った認識の結果(「認識結果」)の情報が含まれている。なお、図8中におけるID=2(に対応する人)は、時刻t−nの時点では撮影エリア内に存在しなかったので、ID=2のバウンディングボックス情報は、BB情報1〜m(ただし、m<n)である。
上記のIDテーブル34のレコードに含まれる認識結果の情報は、例えば、図8に示すように、時刻t−3のフレーム画像で検出された、ID=1のバウンディングボックス41(の画像)に、認識器R1をかけることにより、ID=1に対応する人が店員であると認識されたという情報である。なお、上記のIDテーブル34のレコードにおける「速度」は、ボードコンピュータ13側のCPU21が、時刻t−n〜tにおける各IDのバウンディングボックス情報(BB情報)に基づいて、求めたものである。
次に、図9のフローチャートに加えて、図10及び図11を参照して、図5中のS5の認識処理の詳細について、説明する。ボードコンピュータ13側のCPU21(の存在時間予想部26)は、まず、IDテーブル34の各レコードに書き込まれた情報に基づいて、各ID(に対応する人)がカメラユニット12の撮影エリア内(フレーム画像内)に存在する時間を予想して、予想した各IDが(撮影エリア内)に存在する時間(以下、「予想ID存在時間」という)を更新する(S11)。上記の各IDが撮影エリア内に存在する時間の予想は、撮影エリアの範囲の情報と、IDテーブル34の各レコードにおける直近の時刻tのBB情報及び速度とに基づいて行ってもよいし、撮影エリアの範囲の情報と、IDテーブル34の各レコードにおける時刻t−n〜tのBB情報に基づいて行ってもよい。
次に、ボードコンピュータ13側のCPU21(のスケジューラ部27)は、上記の予想ID存在時間に基づいて、認識器R1〜Rnの使用スケジュールの作成・更新を行う(S12)。そして、ボードコンピュータ13側のCPU21は、上記の使用スケジュールに従って、DNN推論用USB拡張チップC2の認識器R1〜Rn(複数種類の学習済物体認識用ニューラルネットワーク)の少なくともいずれかを使用して、撮影エリア内に存在する物体(上記S3でIDが付与されたバウンディングボックスに対応する物体)を、できるだけ詳細に認識する(S13)。なお、上記S12の使用スケジュールの作成・更新にも、学習済ニューラルネットワークを用いてもよい。すなわち、図4中の認識器スケジューラ32は、学習済ニューラルネットワークであってもよい。
図10は、スケジューラ部27が作成・更新した認識器R1〜Rnの使用スケジュールの例を示す。ここで、エッジカメラ1の学習済物体認識用ニューラルネットワークには、複数の種類のものがある。例えば、図11に示すように、図10のスケジュールにおける認識器R1と認識器R2とでは、精度と処理時間に差異がある。一般的に、認識器は、その精度が高くなる程、処理時間が長くなる。各認識器R1〜Rnは、精度、処理(所要)時間、属性の情報を持っている。ここで、「属性」とは、各認識器の認識処理の種類を表す。この認識処理の例としては、例えば、(検出された人が)店員か顧客かの認識や、検出された人が店員である場合における行動判定や、検出された人が顧客である場合における行動判定が挙げられる。
ボードコンピュータ13側のCPU21(のスケジューラ部27)は、IDテーブル34の予想ID存在時間に基づいて、各ID(に対応する人)が、撮影エリア内(フレーム画像内)に存在する間(フレームアウトするまでの間)に、各認識器R1〜Rnを用いて、優先度の高い認識処理から順に、各IDが付与されたバウンディングボックス41内の人に対する各種の認識処理を行うようにスケジューリングする。
例えば、ボードコンピュータ13側のCPU21(のスケジューラ部27)は、各IDが付与されたバウンディングボックス41内の人について、最初に、(検出された人が)店員か顧客かの認識を行うようにスケジューリングする。図10の例では、ID=1とID=2の(バウンディングボックス41内の)人に対して、順番に、店員か顧客かの認識処理用の認識器R1をかけるようにスケジューリングする。この店員か顧客かの認識処理を行うことは、重要であるので、この店員か顧客かの認識処理用の認識器R1には、処理速度の速い(処理(所要)時間の短い)認識器を用いる。
次に、ボードコンピュータ13側のCPU21(のスケジューラ部27)は、店員と認識された人(ID=2のバウンディングボックス41内の人)について、より詳細な(より精度が高く、より処理時間がかかる)認識処理用の認識器R2をかけるようにスケジューリングする。このより詳細な認識処理の例としては、店員の行動判定が挙げられる。上記の店員と認識された人についてのより詳細な認識処理の終了後、本来であれば、ボードコンピュータ13側のCPU21(のスケジューラ部27)は、顧客であると認識された人(ID=1のバウンディングボックス内の人)について、より詳細な認識処理用の認識器R3をかけるようにスケジューリングする。ただし、図10に示すスケジュールの例では、ID=1の(人の)予想ID存在時間から、上記の店員と認識された人(ID=2の人)についてのより詳細な認識処理の終了の時点(時刻t10)では、顧客であると認識された人(ID=1の人)が、撮影エリア内からいなくなっていると予想されるので、CPU21(のスケジューラ部27)は、顧客であると認識された人についてのより詳細な認識処理を行わない。顧客であると認識された人についてのより詳細な認識処理の例は、例えば、顧客の行動判定である。
なお、図10に示す例では、ID=1の(人の)予想ID存在時間が、時刻t〜tであり、ID=2の(人の)予想ID存在時間が、時刻t〜t11であるため、CPU21(のスケジューラ部27)は、上記のような認識器のスケジューリングを行ったが、ID=1(の人)又はID=2(の人)の予想ID存在時間が、これよりも長い場合には、ID=1(の人)又はID=2(の人)について、さらに詳細な認識処理を行うようにスケジューリングする。例えば、ID=2(の人)の予想ID存在時間が、図10に示す場合よりも長い場合には、より詳細な認識処理用の認識器R4を用いて、店員と認識された人(ID=2のバウンディングボックス41内の人)について、さらに詳細な認識処理を行うようにスケジューリングする。
上記のように、ボードコンピュータ13側のCPU21(の存在時間予想部26)が、IDテーブル34のレコードにおける「速度」(又は時刻t−n〜tのBB情報)から、各ID(に対応する人)がカメラユニット12の撮影エリア内に存在する時間(予想ID存在時間)を予想する。そして、CPU21(のスケジューラ部27)が、各ID(に対応する人)の予想ID存在時間内に、各ID(に対応する人)について、最低限必要な認識処理(例えば、店員か顧客かの認識(判別)処理)を、処理時間が短い認識器(例えば、認識器R1)を用いて行った後、各IDが、撮影エリア内に存在する間に、各ID(に対応する人)について、できるだけ詳しい認識処理を、できるだけ高い精度の認識器を用いて行うようにスケジューリングする。
ただし、上記の各IDについての予想ID存在時間の算出処理や、認識器のスケジューリング処理にも、ある程度の時間が必要であるため、CPU21(のスケジューラ部27)は、予想ID存在時間が、所定の時間以上のID(に対応する人)のみを、認識器による認識対象としてもよい。例えば、撮影エリア内に3秒以上存在する人のみを、認識対象としてもよい。
なお、上記の例では、認識処理の種類毎に、使用する認識器を分けたが、異なる種類の認識を、同じ認識器で行うようにしてもよい。この場合には、各認識器は、複数の種類の認識に対応することが可能な学習済ニューラルネットワークのモデルである。
上記のように、本実施形態のエッジカメラ1によれば、検出された物体(IDが付与された物体)が所定の撮影エリア内に存在する時間を予想して、この予想した存在時間(予想ID存在時間)に基づいて、複数種類の認識器R1〜Rn(学習済物体認識用ニューラルネットワーク)の使用スケジュールの作成と更新を行う。そして、この使用スケジュールに従って、認識器R1〜Rnを使用して、所定の撮影エリア内に存在する物体を認識するようにした。これにより、上記の検出された物体が所定の撮影エリア内に存在する時間(物体存在時間)を考慮して、認識器R1〜Rnのうち、適切な認識器を、適切な順番で使用して、上記撮影エリア内に存在する物体を認識することができる。従って、従来の物体認識用ニューラルネットワーク(認識器)を用いて物体の認識を行う装置やシステムと異なり、検出された物体がカメラによる撮影エリアから出てしまう(フレームアウトする)までに、物体を認識できる可能性を高めることができる。また、上記の物体存在時間(検出された物体が所定の撮影エリア内に存在する時間)が長い場合には、複数種類の認識器R1〜Rnのうち、処理時間が長くて精度が高い認識器を使用して、検出された物体を正確に認識することができる可能性を高めることができる。
また、本実施形態のエッジカメラ1によれば、検出した物体が複数であるとき、複数の物体の各々が、撮影エリア内に存在する時間を予想し、この予想した複数の物体の各々が撮影エリア内に存在する時間(予想ID存在時間)に基づいて、複数の物体の各々について、認識器R1〜Rnの使用スケジュールの作成と更新を行うようにした。これにより、撮影エリア内に複数の物体が存在する場合でも、これらの物体が所定の撮影エリア内に存在する時間(物体存在時間)を考慮して、これらの物体の各々について、認識器R1〜Rnのうち、適切な認識器を、適切な順番で使用して、上記撮影エリア内に存在する物体を認識することができる。従って、従来の物体認識用ニューラルネットワーク(認識器)を用いて物体の認識を行う装置やシステムと異なり、撮影エリア内に複数の物体が存在する場合でも、これらの物体がカメラによる撮影エリアから出てしまうまでに、物体を認識できる可能性を高めることができる。
また、本実施形態のエッジカメラ1によれば、エッジカメラ1におけるコンピュータ11が、ボードコンピュータ13と、このボードコンピュータ13に接続されるDNN推論用USB拡張チップC2とを含み、DNN推論用USB拡張チップC2が、物体認識部28(認識器R1〜Rn)を備えるようにした。これにより、DNN推論用USB拡張チップC2が有する認識器R1〜Rnを用いて、撮影エリア内に存在する物体を認識することができるので、ボードコンピュータ13に、処理能力の低い、安価なボードコンピュータを用いることができる。
また、本実施形態のエッジカメラ1によれば、エッジカメラ1におけるコンピュータ11が、2つのDNN推論用USB拡張チップC1,C2を備え、これらのDNN推論用USB拡張チップのうち、物体認識部28(認識器R1〜Rn)を備えるDNN推論用USB拡張チップC2とは別のDNN推論用USB拡張チップC1が、物体検出器35(物体検出部25)を備えるようにした。これにより、DNN推論用USB拡張チップC1が有する物体検出器35を用いて、フレーム画像に映り込んだ(撮影エリア内の)物体を検出することができるので、ボードコンピュータ13に、より処理能力の低い、より安価なボードコンピュータを用いることができる。
また、本実施形態の再学習システム10によれば、AIサーバ2が、フレーム画像に映り込んだ物体について、エッジカメラ1側で行われた物体の認識の種類毎に、エッジカメラ1側で用いられた認識器R1〜Rnよりも、精度の高い推論(物体認識)を行うことが可能な認識器(学習済物体認識用ニューラルネットワーク)を用いて、エッジカメラ1側で行われた物体の認識と同種の物体の認識を行う。そして、AIサーバ2による精度の高い物体の認識結果と、エッジカメラ1側における物体の認識結果に、所定のレベル以上の差異がある場合に、エッジカメラ1側における複数種類の認識器(学習済物体認識用ニューラルネットワーク)の再学習を行うようにした。これにより、上記の本実施形態のエッジカメラ1が有する効果と同様な効果に加えて、例えば、エッジカメラ1が配置される場所毎に(例えば、エッジカメラが配置される店舗毎に)、認識対象となる物体の特徴が異なる場合や、認識対象となる物体の特徴が変更された場合(例えば、検出された物体が店員か顧客かを認識する認識器(物体認識用ニューラルネットワーク)の場合に、店員の服が夏服から冬服に代わったような場合)でも、エッジカメラ1側における複数種類の認識器(学習済物体認識用ニューラルネットワーク)の再学習を行って、物体の認識を正確に行うことができるようになる。
変形例:
なお、本発明は、上記の各実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。次に、本発明の変形例について説明する。
変形例1:
上記の実施形態では、エッジカメラ1におけるコンピュータ11が、ボードコンピュータ13と、このボードコンピュータ13に接続されるDNN推論用USB拡張チップC1,C2とを含み、DNN推論用USB拡張チップC1が、物体検出器35(物体検出部25)を備え、DNN推論用USB拡張チップC2が、認識器R1〜Rn(物体認識部28)を備える場合の例について説明した。けれども、ボードコンピュータのCPUが、物体検出器(物体検出部)と複数の認識器(物体認識部)のうちの、少なくともいずれかを備えるようにしてもよい。
変形例2:
上記の実施形態では、学習サーバ8が、エッジカメラ1側における学習済物体認識用ニューラルネットワーク(認識器R1〜Rn)の再学習を行うようにした。けれども、これに限られず、例えば、学習サーバは、AIサーバから送られた上記のフレーム画像情報に対応する(VMSサーバに格納された)フレーム画像と、AIサーバ(の学習済物体認識用ニューラルネットワーク)による物体の認識結果と、エッジカメラ側(の認識器R1〜Rn)による物体の認識結果の格納のみを行って、クラウド(インターネット)上の他のサーバが、エッジカメラ側における学習済物体認識用ニューラルネットワーク(認識器R1〜Rn)の再学習を行うようにしてもよい。また、イントラネット内のサーバ(例えば、AIサーバ)が、エッジカメラ側における学習済物体認識用ニューラルネットワークの再学習を行うようにしてもよい。
変形例3:
上記の実施形態では、MobileNet−SSDで構成した物体検出器35が、フレーム画像に映り込んだ物体の検出処理のみを行う場合について説明したが、これに限られず、例えば、MobileNet−SSD等のニューラルネットワークで構成した物体検出器が、上記の物体の検出処理に加えて、簡単な認識処理(例えば、検出した人が、店員か顧客かを認識する処理)を行うようにしてもよい。
1 エッジカメラ(物体認識カメラシステム)
2 AIサーバ(チェック用サーバ)
10 再学習システム
11 コンピュータ
12 カメラユニット(カメラ部)
13 ボードコンピュータ(コンピュータ本体)
23 物体認識プログラム
25 物体検出部
26 存在時間予想部
27 スケジューラ部
28 物体認識部
35 物体検出器(学習済物体検出用ニューラルネットワーク)
C1,C2 DNN推論用USB拡張チップ(機能拡張用プロセッサチップ)
R1〜Rn 認識器(学習済物体認識用ニューラルネットワーク)

Claims (8)

  1. 所定の撮影エリアを撮影するカメラ部と、このカメラ部が接続されたコンピュータとを備えた物体認識カメラシステムであって、
    前記コンピュータは、
    前記カメラ部から入力されたフレーム画像に映り込んだ物体を検出する物体検出部と、
    前記物体検出部により検出された物体が、前記所定の撮影エリア内に存在する時間を予想する存在時間予想部と、
    前記物体検出部により検出された物体を認識するための複数種類の学習済物体認識用ニューラルネットワークを有する物体認識部と、
    前記存在時間予想部により予想した、前記物体が所定の撮影エリア内に存在する時間に基づいて、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うスケジューラ部とを備え、
    前記物体認識部は、前記使用スケジュールに従って、前記複数種類の学習済物体認識用ニューラルネットワークを使用して、前記所定の撮影エリア内に存在する物体を認識する物体認識カメラシステム。
  2. 前記物体検出部により検出された物体が、複数であるとき、
    前記存在時間予想部は、前記物体検出部により検出された複数の物体の各々が、前記所定の撮影エリア内に存在する時間を予想し、
    前記スケジューラ部は、前記存在時間予想部により予想した、前記複数の物体の各々が前記所定の撮影エリア内に存在する時間に基づき、前記複数の物体の各々について、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うことを特徴とする請求項1に記載の物体認識カメラシステム。
  3. 前記コンピュータは、コンピュータ本体と、このコンピュータ本体に接続される機能拡張用プロセッサチップとを含み、
    前記機能拡張用プロセッサチップは、前記物体認識部を備えることを特徴とする請求項1又は請求項2に記載の物体認識カメラシステム。
  4. 前記コンピュータは、前記機能拡張用プロセッサチップを2つ以上備え、これらの機能拡張用プロセッサチップのうち、前記物体認識部を備える機能拡張用プロセッサチップとは別の機能拡張用プロセッサチップが、前記物体検出部を備えることを特徴とする請求項3に記載の物体認識カメラシステム。
  5. 所定の撮影エリアを撮影するカメラ部、及び前記カメラ部が接続されたコンピュータを備えた物体認識カメラシステムと、前記コンピュータよりも処理能力の高いチェック用サーバとを備えた再学習システムにおいて、
    前記コンピュータは、
    前記カメラ部から入力されたフレーム画像に映り込んだ物体を検出する物体検出部と、
    前記物体検出部により検出された物体が、前記所定の撮影エリア内に存在する時間を予想する存在時間予想部と、
    前記物体検出部により検出された物体を認識するための複数種類の学習済物体認識用ニューラルネットワークを有する物体認識部と、
    前記存在時間予想部により予想した、前記物体が所定の撮影エリア内に存在する時間に基づいて、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うスケジューラ部とを備え、
    前記物体認識部は、前記使用スケジュールに従って、前記複数種類の学習済物体認識用ニューラルネットワークを使用して、前記所定の撮影エリア内に存在する物体を認識し、
    前記チェック用サーバは、前記物体認識カメラシステム側の前記カメラ部により取得したフレーム画像に映り込んだ物体について、前記物体認識カメラシステム側で行われた物体の認識の種類毎に、前記物体認識カメラシステム側で用いられた前記学習済物体認識用ニューラルネットワークよりも、精度の高い推論を行うことが可能な学習済物体認識用ニューラルネットワークを用いて、前記物体認識カメラシステム側で行われた物体の認識と同種の物体の認識を行い、
    前記チェック用サーバによる前記物体の認識結果と、前記物体認識カメラシステム側における前記物体の認識結果に、所定のレベル以上の差異がある場合に、前記物体認識カメラシステム側における前記複数種類の学習済物体認識用ニューラルネットワークの再学習を行う再学習システム。
  6. 前記物体認識カメラシステム側における前記物体検出部は、学習済物体検出用ニューラルネットワークを有し、この学習済物体検出用ニューラルネットワークを用いて、前記カメラ部から入力されたフレーム画像に映り込んだ物体を検出し、
    前記チェック用サーバは、前記カメラ部により取得したフレーム画像に映り込んだ物体について、前記物体認識カメラシステム側における前記学習済物体検出用ニューラルネットワークよりも、精度の高い推論を行うことが可能な学習済物体検出用ニューラルネットワークを用いて、物体の検出を行い、
    前記チェック用サーバによる前記物体の検出結果と、前記物体認識カメラシステム側における前記物体の検出結果に、所定のレベル以上の差異がある場合に、前記物体認識カメラシステム側における前記学習済物体検出用ニューラルネットワークの再学習を行うことを特徴とする請求項5に記載の再学習システム。
  7. コンピュータを、
    所定の撮影エリアを撮影するカメラ部から入力されたフレーム画像に映り込んだ物体を検出する物体検出部と、
    前記物体検出部により検出された物体が、前記所定の撮影エリア内に存在する時間を予想する存在時間予想部と、
    前記物体検出部により検出された物体を認識するための複数種類の学習済物体認識用ニューラルネットワークを有する物体認識部と、
    前記存在時間予想部により予想した、前記物体が所定の撮影エリア内に存在する時間に基づいて、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うスケジューラ部として機能させるための、物体認識プログラムにおいて、
    前記物体認識部が、前記使用スケジュールに従って、前記複数種類の学習済物体認識用ニューラルネットワークを使用して、前記所定の撮影エリア内に存在する物体を認識するようにさせる物体認識プログラム。
  8. 前記物体検出部により検出された物体が、複数であるとき、
    前記存在時間予想部は、前記物体検出部により検出された複数の物体の各々が、前記所定の撮影エリア内に存在する時間を予想し、
    前記スケジューラ部は、前記存在時間予想部により予想した、前記複数の物体の各々が前記所定の撮影エリア内に存在する時間に基づき、前記複数の物体の各々について、前記複数種類の学習済物体認識用ニューラルネットワークの使用スケジュールの作成と更新を行うことを特徴とする請求項7に記載の物体認識プログラム。
JP2018178329A 2018-09-25 2018-09-25 物体認識カメラシステム、再学習システム、及び物体認識プログラム Active JP7207630B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018178329A JP7207630B2 (ja) 2018-09-25 2018-09-25 物体認識カメラシステム、再学習システム、及び物体認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018178329A JP7207630B2 (ja) 2018-09-25 2018-09-25 物体認識カメラシステム、再学習システム、及び物体認識プログラム

Publications (2)

Publication Number Publication Date
JP2020052484A true JP2020052484A (ja) 2020-04-02
JP7207630B2 JP7207630B2 (ja) 2023-01-18

Family

ID=69997090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018178329A Active JP7207630B2 (ja) 2018-09-25 2018-09-25 物体認識カメラシステム、再学習システム、及び物体認識プログラム

Country Status (1)

Country Link
JP (1) JP7207630B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004370A1 (ja) * 2020-07-03 2022-01-06 コニカミノルタ株式会社 データ収集装置及びデータ収集方法
JP2022541712A (ja) * 2020-06-19 2022-09-27 深▲セン▼市商▲湯▼科技有限公司 ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置
KR20230002847A (ko) 2020-09-10 2023-01-05 소프트뱅크 가부시키가이샤 정보 처리 시스템, 프로그램, 및 정보 처리 방법
WO2023077193A1 (en) * 2021-11-04 2023-05-11 Commonwealth Scientific And Industrial Research Organisation Object recognition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156541A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 人物認識装置、人物認識方法および入退場管理システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156541A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 人物認識装置、人物認識方法および入退場管理システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022541712A (ja) * 2020-06-19 2022-09-27 深▲セン▼市商▲湯▼科技有限公司 ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置
JP7163515B2 (ja) 2020-06-19 2022-10-31 深▲セン▼市商▲湯▼科技有限公司 ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置
WO2022004370A1 (ja) * 2020-07-03 2022-01-06 コニカミノルタ株式会社 データ収集装置及びデータ収集方法
KR20230002847A (ko) 2020-09-10 2023-01-05 소프트뱅크 가부시키가이샤 정보 처리 시스템, 프로그램, 및 정보 처리 방법
WO2023077193A1 (en) * 2021-11-04 2023-05-11 Commonwealth Scientific And Industrial Research Organisation Object recognition

Also Published As

Publication number Publication date
JP7207630B2 (ja) 2023-01-18

Similar Documents

Publication Publication Date Title
JP7207630B2 (ja) 物体認識カメラシステム、再学習システム、及び物体認識プログラム
US11663502B2 (en) Information processing apparatus and rule generation method
US9053358B2 (en) Learning device for generating a classifier for detection of a target
US20160110590A1 (en) Facial identification method, facial identification apparatus and computer program for executing the method
CN109033955B (zh) 一种人脸跟踪方法和系统
CN110837856A (zh) 神经网络训练及目标检测方法、装置、设备和存储介质
US10430966B2 (en) Estimating multi-person poses using greedy part assignment
CN113239874B (zh) 基于视频图像的行为姿态检测方法、装置、设备及介质
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10296782B2 (en) Processing device and method for face detection
JP7173309B2 (ja) 学習方法、学習プログラム、および、学習装置
CN111783997B (zh) 一种数据处理方法、装置及设备
TWI776176B (zh) 手部作業動作評分裝置、方法及電腦可讀取存儲介質
CN111008631A (zh) 图像的关联方法及装置、存储介质和电子装置
Lee et al. Learning in the wild: When, how, and what to learn for on-device dataset adaptation
KR102177453B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
Andiani et al. Face recognition for work attendance using multitask convolutional neural network (MTCNN) and pre-trained facenet
CN113065379B (zh) 融合图像质量的图像检测方法、装置、电子设备
Rudraraju et al. Face recognition in the fog cluster computing
CN111104911A (zh) 一种基于大数据训练的行人重识别方法及装置
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
JP6651085B1 (ja) 属性認識システム、学習サーバ、及び属性認識プログラム
JP2019204288A (ja) 生体認証装置、生体認証方法及び生体認証プログラム
CN110334244B (zh) 一种数据处理的方法、装置及电子设备
Motwani et al. Human Activities Detection using DeepLearning Technique-YOLOv8

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221221

R150 Certificate of patent or registration of utility model

Ref document number: 7207630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150