JP2021039592A - センサシステム、画像センサ、およびセンシング方法 - Google Patents
センサシステム、画像センサ、およびセンシング方法 Download PDFInfo
- Publication number
- JP2021039592A JP2021039592A JP2019161251A JP2019161251A JP2021039592A JP 2021039592 A JP2021039592 A JP 2021039592A JP 2019161251 A JP2019161251 A JP 2019161251A JP 2019161251 A JP2019161251 A JP 2019161251A JP 2021039592 A JP2021039592 A JP 2021039592A
- Authority
- JP
- Japan
- Prior art keywords
- information
- data
- moving object
- teacher data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000010801 machine learning Methods 0.000 claims abstract description 11
- 238000004458 analytical method Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 34
- 238000011156 evaluation Methods 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000013480 data collection Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims 2
- 238000012545 processing Methods 0.000 description 67
- 238000004891 communication Methods 0.000 description 42
- 230000033001 locomotion Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 23
- 230000002159 abnormal effect Effects 0.000 description 20
- 230000006872 improvement Effects 0.000 description 16
- 238000012360 testing method Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 238000012549 training Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 8
- 238000003745 diagnosis Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000002354 daily effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010042772 syncope Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 208000024756 faint Diseases 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
画像センサを用いたソリューションへのニーズが年々高まってきている。例えば、撮影された画像から、老健施設からの徘徊老人の不測の外出や、体調不良で急に歩行困難になった人、酩酊した人、公共の場所での迷子、あるいは挙動不審者を早期に検知するなど、通常と異なる行動をする動体(人)を発見したいという要望がある。また、同じ動体でも、倉庫で稼働するフォークリフトなどの車両の動線を把握したいという要望もある。このように画像認識技術にはさまざまなニーズがあり、画像センサ、および画像センサを用いたセンサシステムへの期待は大きい。
実施形態では、対象動体の一つの特徴を表す動体情報に着目する。動体情報は、画像センサで取得された画像データを解析して得られる情報の一例である。動体情報としては、対象情報の位置をトレースして得られる動線情報が代表的である。また、対象動体の動きの大きさおよび方向を表す情報(動きベクトル)や、移動方向およびその速さを示す情報(速度ベクトル)等も、動体情報の一例である。また、対象動体の動きの大きさを示す量や、対象の動きの方向を示す量等のスカラー値も、動体情報として理解されることが可能である。また、画像センサシステムにより収集された生体/機器情報(人の情報やフォークリフトの情報)等も動体情報の一例である。
さらに、停止している対象動体の形状を表す形状情報も、動体情報の一例である。形状情報としては、HOG(Histogram of Oriented Gradients)や、CoHOG(Co-occurrence Histogram of Oriented Gradients)が知られている。
図1は、実施形態に係わるセンサシステム1の一例を示す模式図である。センサシステム1は、対象空間4の監視をセンサを用いて実現するためのシステムである。対象空間4は、例えばビルなどの建物や、店舗、オフィス等の有人の空間であってもよいし、機器の搬入/搬出を伴う工場や、サーバルーム等の無人の空間であってもよい。対象空間4の立体形状は直方体に限らず、センサが設置された任意の形状の空間であってよい。また、センサシステム1が設置された建物全体を含む、多層階の略中空建築物であってもよい。
(A)入場者が制限されるドア23を通過できるグループに、対象動体が属している。
(B)画像センサ10fに対応するメッシュ状の分割エリア24の特定の場所25に、対象動体がいるか否か。これは、自席に着席したなどのアクションにより発生する情報である。
(C)この特定の場所の照明のON/OFF操作をしたか否か。
(D)モバイルPCなどの情報端末26に対象動体がアクセスしたか否か。など。
個人、または個人の属するグループを特定するための種々の方法がある。そして、その多くは、施設の中の特定の場所であり、施設のマップ情報を介して、対象動体の特徴量情報を教師データとして利用できるか否かの判断を助ける情報となる。
一方、ステップS102fで(No)であれば、両者の情報は一致しないことになる。つまり、ステップS102(図3)で「別の識別情報なし」を意味するNo判定がなされ(ステップS102k)、処理手順は図3を経由して図5のステップS111にジャンプする。
なお、ステップS114eで(No)であれば、教師データが無いので、No判定となる(ステップS114o)。ステップS114でのNo判定により、処理手順は終了する(図5のEND)。
(FP)予想されたクラス(陽性:P)に対して実際のクラスが間違って推定されており、偽(False)である。この場合を、FPと表記する。
(TN)予想されたクラス(陰性:N)に対して実際のクラスが正しく推定できており、真(True)である。この場合を、TNと表記する。
(FN)予想されたクラス(陰性:N)に対して実際のクラスが間違って推定されており、偽(False)である。この場合を、FNと表記する。
対象動体のアクション(TP, FP, TN, FN のいずれか) > 閾値(TP/FP/TN/FN)
の場合: モデルを適用する。
対象動体のアクション(TP, FP, TN, FN のいずれか) < 閾値(TP/FP/TN/FN)
の場合: モデルを適用しない。
適合率(精度、precision)= TP/(FP + TP)
再現率:実際の陽性のデータのうち、陽性と予測できたものの割合を表す。
再現率(recall )= TP/(FN + TP)
これらの値は、陰陽の判定の境目となる値、すなわち設定する閾値によって、変化する。変化の仕方は、主に以下の2通りである。
(1)適合率が高く、再現率が低い状態。この状態は、無駄は少ないが、取りこぼしの多い判定になっている状態である。
(2)適合率が低く、再現率が高い状態。この状態は、取りこぼしは少ないが、無駄の多い判定となっている状態である。
このように適合率と再現率はトレードオフの関係にある。どちらが適しているかは用途によって変わる。間違ってもいいから、指摘しておいたほうがよいのか、指摘漏れがあってもよいができる限り正確なほうがいいかという選択肢になる。
F値=2x(適合率x再現率)/(適合率+再現率)
F値は、上記の式で表される。
着席適合率(精度、precision)= TP/(FP + TP) = 20/(20 + 40) = 0.33
となる。
離席適合率 = TN/(FN + TN) = 30/(10 + 30) = 0.75
となる。
着席再現率= TP/(FN + TP) =20/(10 + 20) = 0.66
離席再現率= TN/(FP+TN) =30/(40 + 30) = 0.43
着席F値 = 2 x (適合率x再現率) / (適合率+再現率)
= 2 x (0.33 x 0.66) / (0.33 + 0.66) = 0.44
離席F値 = 2x (0.75x 0.43) / (0.75+0.43) = 0.54
となる。
図19の動線は、図1の画像センサ10a、10b、および10cの撮像空間を対象動体が辿った動線を並べて描かれる。対象動体は略直線状に移動しており、この範囲では正常動作をしている動体と判断できる。
例えば、上記フレームレート、イメージセンサ31cのゲインの値、露光時間など、センシングの感度や精度に影響を及ぼすパラメータは、プロセッサ330により制御される。
[1]
実施形態のシステムは、
動体の動体情報を収集するセンサを備えるセンサシステムと、
センサシステムのセンシング範囲において、動体に関する電子情報を収集する情報収集システムと、
判断のための判定モデルを実行する計算部と、
動体情報と電子情報とを連携させ、動体情報を判定モデルに対する正解付きの教師データとするか否かを判断する情報連携部とを具備する、システムである。
[1]のシステムによれば、センサシステムで収集した動体情報(人の情報やフォークリフトの情報)と、情報収集システムとから得られる情報とを連携させることで、動体または動体の属するグループについての付加情報を得られる。付加情報を用いて、正解付きの教師データとみなせるか否かを判断することが可能となる。
[2]
実施形態のシステムは、[1]のシステムにおいて、判定モデルにより、教師データを計算した結果と、正解との比較に基づき、判定モデルの修正の実施の有無を決定する手段をさらに具備する、システムである。
[2]のシステムによれば、正解付きの教師データを得られた場合に、判定モデルの修正の実施の有無を決定することができる。また、判定モデルを修正した場合には、判定モデルの改善ができる。
[3]
実施形態のシステムは、[2]のシステムにおいて、正解付き教師データとするか否かの判断、または、判定モデルの修正の実施の有無を決定する方法として、教師データを用いて判定モデルの修正を実施した場合、判定モデルがより所望の状態に近づいているかを、教師データの一部をテストデータとして用い、結果として得られる真偽率をもとに算出した指標値により決定する、システムである。
[3]のシステムによれば、教師データをテストデータとして用いることで、判定モデルの真偽率が得られ、これに基づいた指標値として適合率、再現率、F値などが得られる、さらに、判定モデルの閾値を変えていくことで得られた真偽率に基づく指標値としてのBEP値が得られる。これらの指標を用いて判定モデルが改善しているかを判断することができる。これにより、教師データとして採用してよいか、さらに判定モデルの修正を実施したほうがよいかの判断が可能となる。
[4]
実施形態のシステムは、[1]乃至[3]のいずれかのシステムにおいて、動体情報は、動体の形状情報と、当該動体の移動方向およびその速さを示す速度ベクトル情報とを含む、システムである。
[4]のシステムによれば、動体の移動方向から、動体の向きが判断される。これにより、動体の向きにより動体の形状情報が大きく変化することに、対応できる。また、2つの動体が重なって撮影されたとき、速度ベクトル情報あるいは動線情報(速度ベクトル情報を時系列的に累積加算したもの)から、単一の個体か、または複数の個体かを区別できることも多い。よって、動体の形状情報と速度ベクトル情報とをセットにして使うことで、動体の識別/同定がより容易になる。これにより、いわば素性のはっきりした動体の動体情報となり、より信頼性の高い教師データを選別することができるという効果がある。
[5]
実施形態のシステムは、[1]乃至[3]のいずれかのシステムのセンサが、動体を撮像する画像センサであるシステムである。
[5]のシステムによれば、画像センサにより、動体の動体情報が収集される。
[6]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、電子情報は、施設への入退室用の携帯用機器の記録媒体に記憶される。
[6]のシステムによれば、例えば従業員証、ビジターカード、スマートフォン、埋め込みRFIDなど、日々の入退室管理情報を電子情報として利用することができる。
[7]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、電子情報は、個人用、または個人の属するグループに割り当てられた情報機器の記録媒体に記憶される。
[7]のシステムによれば、個人用、または個人の属するグループ用に用意されたPC、タブレット、スマートフォン、あるいは施設に据え付けられた操作盤などから取得される情報を、電子情報として利用することができる。すなわち、アクセス制限のかけられた機器から取得した情報を、電子情報とすることができる。
[8]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、特定の場所に設置された器具の操作履歴情報に基づいて、電子情報が、個人または個人の属するグループからの情報として認識するシステムである。
[8]のシステムによれば、例えば特定の場所や部屋の照明の点灯/消灯、ドアの開閉、施設内の特定の場所にある器具や装置の操作履歴情報に基づいて、個人または個人の属するグループを特定することができる。
[9]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、情報収集システムの特定の場所に動体が到着したことを、動体の個人または個人の属するグループの情報が得られたこととする、システムである。
[9]のシステムによれば、例えば、割り当てられた座席(特定の場所)に着席したとみなせる場所に動体が到着、停止したことをもって、個人または個人の属するグループを特定することができる。
[10]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、情報連携部は、センサシステムと情報収集システムのとの間の時刻差を検知し、動体情報のタイムスタンプと、電子情報のタイムスタンプとの時刻差を補正する機能をさらに具備するシステムである。
[10]のシステムによれば、センサシステムと、情報収集システムとの間の時刻差が補正されるので、対象動体の特定が容易になる。
[11]
実施形態のシステムは、[4]のシステムにおいて、速度ベクトル情報が閾値以上の速さであれば、対象動体の移動方向が正面方向であると判定する。
[11]のシステムによれば、速度ベクトル情報から対象動体の移動方向がわかり、それが閾値以上の速さであれば、移動方向が対象動体の正面方向であると判定される。従って、教師データとして用いることができるか否かを判断するための情報が得られる。
[12]
実施形態のシステムは、[11]のシステムにおいて、正面方向と判断した場合の、形状情報および速度ベクトル情報のタイムスタンプ以降の時刻における対象動体の向きについて、形状情報が閾値となる形状情報変化率を超えない場合に、対象動体が正面方向を維持していると判断する。
[12]のシステムによれば、形状情報の変化率が閾値を超えない場合に、姿勢を維持しているとみなされる。対象動体の向きが維持されている判断することで、教師データとして用いることができるか否かを判断するための情報が得られる。
[13]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、センサが計算部を内蔵する。
[13]のシステムによれば、中央サーバにデータをアップロードすることなしに、センサ内で決められた判定モデルの処理をタイムリーに実施することができる。これにより、教師データとするか否かの判断を迅速に行える。
[14]
実施形態のシステムは、[4]のシステムにおいて、動体の速度ベクトル情報の累積により動線を形成し、特定のパターンの動線への一致の有無に基づいて判定モデルの修正の実施の有無を決定する。
[14]のシステムによれば、1つまたは複数のセンサの速度ベクトル情報から、動線を形成することにより、特徴的な、管理者への通知を必要とする動きか否かを判断することができる。また、異常値の場合の、教師データを抽出する上の参考情報となる利点もある。
[15]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、判定モデルが、さらに、過去データをもとに予測されたクラスと実際のクラスとの間の真偽率に基づいて、教師データとしての利用の可否を判断する。
[15]のシステムによれば、過去収集したデータにおける、真偽率に基づく判定モデルの判定精度が低い場合には、教師データとして利用しないようにする。これによって判定モデルの改善に役立てることができる。例えば、椅子に座るという動作の場合、実際には人が着席していないにもかかわらず着席したというように判定してしまう、誤判定率が高いとした場合、この動作については、教師データとしての採用をしない。逆に、離席する動作の場合、離席したにもかかわらず、在席のままであると判定してしまう誤判定率は低いとして、教師データ、テストデータとしての候補にする。このようにして、精度の高い教師データを選択、収集することができるという効果がある。
[16]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、センサは、画像センサであり、画像センサの各々は、
画像データを取得する撮像部と、
画像データから動体情報を抽出する抽出部と、
画像識別用の判定モデルによる処理部と、
動体情報に基づいて対象動体を判定する判定部と、
を備える。
[17]
実施形態のシステムは、[4]のシステムにおいて、形状情報が、HOG(Histogram of Oriented Gradients)または、CoHOG(Co-occurrence Histogram of Oriented Gradients)により計算される。
[17]のシステムによれば、HOG/CoHOG系の画像処理情報を、形状情報として利用できる効果がある。
[18]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、判定モデルが、CNN(Convolutional Neural Network)またはDNN(Deep Neural Network)による深層学習に基づいて作成される。
[18]のシステムによれば、画像処理のための判定モデルが、CNNまたはDNNにより作成される。これにより、より高い精度で教師データとして利用可能か否かを判定することができる。
[19]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、電子情報が一定期間にわたり既定の閾値を超える異常値を発生していないこと、または特定の日時場所で異常値が発生したことを確認入力するという情報により、教師データとして確定される。
[19]のシステムによれば、動体を同定する手段として、例えば管理者/ユーザが異常値の発生の有無を、動体情報の収集中または収集後に確認する。これにより、管理者またはユーザの意思により、動体情報を教師データまたはテストデータとして確定させることができる。
[20]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、教師データとして判断されたデータを、判定モデル用のトレーニングデータ、またはテストデータとして利用する。
[20]のシステムによれば、得られた教師データを、判定モデルの学習用のトレーニングデータとしてまたは、判定モデルの性能評価のためのテストデータとして利用することができる。これにより、学習の自動化/半自動化を実現できる。
[21]
実施形態のシステムは、[1]乃至[3]のいずれかのシステムにおいて、
教師データとして判断された1つまたは複数のデータを、判定モデルの学習に用いる。さらに、真偽率に基づく学習後の判定モデルの評価値と合わせて教師データとして保存するか否かを判定する。
[21]のシステムによれば、判定モデルが、指標値を用いて比較した場合に改善するか否かを調べた上で、教師データとして登録する方法により、判定モデル改善への効果度を含む教師データとして保存するか否かを決めることができる。このようにして保存された教師データは、その効果度の順番付けをすることが可能となる。
[22]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、判定モデルで処理する前の所定の処理(前処理)を変更するか否かを、動体情報および電子情報に基づいて判断する。
[22]のシステムによれば、実運用環境における教師データを用いて、前処理の諸パラメータを変更して判定精度が改良するか否かを確認し、ローカルフィットした前処理にすることができる。判定モデルの精度の多くの部分は、収集した画像の前処理の良否に依存するからである。よって、以降の教師データの品質が向上し、収集/判断が容易になる効果がある。
なお、前処理とは、判定モデルに入力する前の画像処理プロセスであり、例えば、(1)カラー(RGB)かモノクロ(白黒)か、(2)画像データのフォーマット(保存形式)、(3)透過データの処理、(4)トリミング、リサイズ、(5)回転/反転処理、(6)色調変換/色反転処理、(7)ガンマ係数調整/輝度調整、(8)閾値処理(2値化)、(9)マスキング、(10)ノイズ除去、などの処理のことである。
[23]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、センサシステムにおけるセンサが画像センサであり、画像センサにより複数のセルに分割された撮像領域が一意に決定され、複数あるセルの少なくとも1つのセルに対象動体が映っている場合に、
1つのセルで撮像された、形状情報と速度ベクトル情報から、1つのセルからの対動体の移動量を速度ベクトル情報から計算し、
移動前後の形状情報の変化率を計算する一方、撮像領域内の1つのセルの相対位置情報および移動量から予め求めておいた形状情報の許容変化率と比較し、
形状情報の変化率が形状情報の許容率を超えた場合に、対象動体の向き、姿勢、服装、装着物を含む形状情報が有意に変わったと判断する判定モデルを、教師データとして利用可能か否かを判断する判定モデルの一部として含む。
[23]のシステムによれば、画像センサでは、カバーエリアが相対的に広いために、周辺と中央で、同一の動体を撮影してもその形状情報は異なる。例えば、天井部に配置された魚眼レンズ型の撮像カメラの場合、周辺のセルでは、顔側あるいは背中側が映り、カメラの直下では頭頂部が映ることになる。これら3つの形状情報は異なっている。よって画像センサにより分割された複数のセルのうちのどのセルで撮像し、どちら向きにどれだけ移動したかにより、同一動体であっても、その形状情報の変化量は異なる。同一動体における形状変化率を、セルの相対位置情報および移動量の関数として求め、形状情報の許容変化率として予め求めておく。これにより、対象動体の形状情報が有意に変わったかを判断可能となる。例えば対象動体の向きの変化から、転倒、昏倒などの変化を判断可能な、教師データとしての利用可能か否かを確認することができる。
Claims (7)
- 建物に配設される複数の画像センサと、
前記画像センサにより撮像された画像データを解析して、対象動体の動体情報を取得する解析部と、
教師データを用いた機械学習により生成される判定モデルに基づいて、前記動体情報から前記対象動体の状態を判定する状態判定部と
を具備する、センサシステム。 - 前記画像センサの各々は、
前記画像データを取得する撮像部と、
前記画像データから前記対象動体の特徴量情報を抽出する特徴量抽出部と、
前記特徴量情報に基づいて前記対象動体を判定する動体判定部と、
前記対象動体の動線情報を算出する動線情報算出部と、
前記動線情報を前記状態判定部に送信する送信部と
を具備する、請求項1に記載のセンサシステム。 - 前記画像センサの各々は、
前記判定モデルを記憶する記憶部をさらに具備し、
前記動体判定部は、前記判定モデルに基づいて、前記動線情報から前記対象動体の状態を判定する、請求項2に記載のセンサシステム。 - 前記建物のデータ収集システムと連携し、当該データ収集システムにより収集された収集データと前記画像データとを関連付ける情報連携部と、
前記動体情報を、前記機械学習のための正解付き教師データとして採用することの可否を前記収集データに基づいて判定する採否判定部と
をさらに具備する、請求項1に記載のセンサシステム。 - 前記採否判定部は、前記判定モデルの性能評価指標値を算出し、前記動体情報を前記機械学習のための教師データとして採用することの可否を前記当該性能評価指標値に基づいて判定する、請求項4に記載のセンサシステム。
- 複数の画像センサを具備するセンサシステムに適用される前記画像センサにおいて、
画像データを取得する撮像部と、
前記画像データから対象動体の特徴量情報を抽出する特徴量抽出部と、
前記特徴量情報に基づいて前記対象動体を判定する動体判定部と、
前記対象動体の動線情報を算出する動線情報算出部と、
前記動線情報を送信する送信部と
を具備する、画像センサ。 - 複数の画像センサを具備するセンサシステムに適用されるセンシング方法であって、
各画像センサにより撮像された画像データを解析して対象動体の動体情報を取得する過程と、
教師データを用いた機械学習により生成される判定モデルに基づいて、前記動体情報から前記対象動体の状態を判定する過程と
を含む、センシング方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019161251A JP7353875B2 (ja) | 2019-09-04 | 2019-09-04 | センサシステム、およびセンシング方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019161251A JP7353875B2 (ja) | 2019-09-04 | 2019-09-04 | センサシステム、およびセンシング方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021039592A true JP2021039592A (ja) | 2021-03-11 |
JP7353875B2 JP7353875B2 (ja) | 2023-10-02 |
Family
ID=74847157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019161251A Active JP7353875B2 (ja) | 2019-09-04 | 2019-09-04 | センサシステム、およびセンシング方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7353875B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023209757A1 (ja) * | 2022-04-25 | 2023-11-02 | 三菱電機株式会社 | 移動体見守りサービス運用統括装置、移動体見守りサービス用制御装置及び移動体見守りサービス運用システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018088157A (ja) * | 2016-11-29 | 2018-06-07 | マクセル株式会社 | 検知認識システム |
JP2019036167A (ja) * | 2017-08-17 | 2019-03-07 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
WO2019111932A1 (ja) * | 2017-12-08 | 2019-06-13 | 日本電気株式会社 | モデル学習装置、モデル学習方法及び記録媒体 |
JP2019096179A (ja) * | 2017-11-27 | 2019-06-20 | ホーチキ株式会社 | 行動監視システム |
-
2019
- 2019-09-04 JP JP2019161251A patent/JP7353875B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018088157A (ja) * | 2016-11-29 | 2018-06-07 | マクセル株式会社 | 検知認識システム |
JP2019036167A (ja) * | 2017-08-17 | 2019-03-07 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP2019096179A (ja) * | 2017-11-27 | 2019-06-20 | ホーチキ株式会社 | 行動監視システム |
WO2019111932A1 (ja) * | 2017-12-08 | 2019-06-13 | 日本電気株式会社 | モデル学習装置、モデル学習方法及び記録媒体 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023209757A1 (ja) * | 2022-04-25 | 2023-11-02 | 三菱電機株式会社 | 移動体見守りサービス運用統括装置、移動体見守りサービス用制御装置及び移動体見守りサービス運用システム |
Also Published As
Publication number | Publication date |
---|---|
JP7353875B2 (ja) | 2023-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10699115B2 (en) | Video object classification with object size calibration | |
JP5172167B2 (ja) | 人物認識装置および人物認識方法 | |
WO2011102416A1 (ja) | 移動物体追跡システムおよび移動物体追跡方法 | |
JP5590728B2 (ja) | パターン分類システムと集団学習法 | |
US11232327B2 (en) | Smart video surveillance system using a neural network engine | |
KR102333143B1 (ko) | 무인 계수 서비스 제공 시스템 | |
CN112163497B (zh) | 一种基于图像识别的工地事故预测方法及装置 | |
JP7353875B2 (ja) | センサシステム、およびセンシング方法 | |
Menon et al. | Multimodal identification and tracking in smart environments | |
KR20200084947A (ko) | 차량의 주차면 분석을 위한 지능형 cctv 시스템 | |
US20220101066A1 (en) | Reducing false detections for night vision cameras | |
KR20230077560A (ko) | 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법 | |
JP5170447B2 (ja) | セキュリティーシステム | |
JP2020187531A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN110969209A (zh) | 一种陌生人识别方法、装置、电子设备及存储介质 | |
KR102601051B1 (ko) | 가축질병 실시간 예찰 기술 및 지능형 방역위생 시스템 | |
JP7328401B2 (ja) | 入出場マッチングシステムの概念 | |
CN117423210B (zh) | 一种护理用病患防跌落智能感应报警系统 | |
JP7047174B1 (ja) | 予測システム、予測装置、予測方法および予測プログラム | |
JP2022052910A (ja) | 体調評価システム、サーバ、プログラムおよび体調評価サービス提供方法 | |
KR20230096500A (ko) | 안전 고리 체결 상태 예측 시스템 | |
KM | SMART DOOR UNLOCKING | |
CN118097198A (zh) | 一种基于人工智能的自动着装合规性管控系统及方法 | |
CN118018974A (zh) | 一种基于主动和回溯的群智感知信任管理方法 | |
CN118000734A (zh) | 车内人员健康监测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220615 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7353875 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |