JP2021033646A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2021033646A JP2021033646A JP2019153191A JP2019153191A JP2021033646A JP 2021033646 A JP2021033646 A JP 2021033646A JP 2019153191 A JP2019153191 A JP 2019153191A JP 2019153191 A JP2019153191 A JP 2019153191A JP 2021033646 A JP2021033646 A JP 2021033646A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- moving image
- person
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 23
- 238000003672 processing method Methods 0.000 title claims abstract description 4
- 238000003384 imaging method Methods 0.000 claims abstract description 9
- 230000004044 response Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 25
- 230000009471 action Effects 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000013480 data collection Methods 0.000 description 29
- 230000005540 biological transmission Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 25
- 238000004458 analytical method Methods 0.000 description 14
- 230000006399 behavior Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0205—Specific application combined with child monitoring using a transmitter-receiver system
- G08B21/0208—Combination with audio or video communication, e.g. combination with "baby phone" function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B29/00—Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
- G08B29/18—Prevention or correction of operating errors
- G08B29/185—Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
- G08B29/186—Fuzzy logic; neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Emergency Alarm Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】子供の危険状態を検出しつつ、危険状態と判定するための学習データを容易に収集することのできる情報処理装置、情報処理方法、及びプログラムを提供する。
【解決手段】情報処理装置であって、撮像手段(撮影部303)から取得した動画データに含まれる人物および物体の情報を入力データとし、動画データに含まれる物体を原因とした、動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用する。危険な状態を推定する推定手段(推定部304)と、新たな動画データを取得して推定手段に提供し、その応答として新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知する通知手段(通知送信部305)とを有する。
【選択図】図3
【解決手段】情報処理装置であって、撮像手段(撮影部303)から取得した動画データに含まれる人物および物体の情報を入力データとし、動画データに含まれる物体を原因とした、動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用する。危険な状態を推定する推定手段(推定部304)と、新たな動画データを取得して推定手段に提供し、その応答として新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知する通知手段(通知送信部305)とを有する。
【選択図】図3
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、女性の職場進出が進む一方で育児への負担感・拘束感が少子化の原因のひとつとなっている。負担感・拘束感の原因の一つとして、子供が危険な状態にならないように、保育者が子供を常時観察し続ける必要があることが挙げられる。
例えば、特許文献1は、各種センサによって対象者の状態を検知し、その影響度を用いて対象者の状態が適正であるか否かを判定する装置を開示している。
特許文献1に記載の方法では、主に一人暮らしの高齢者を対象者とし、その前提として、通常の生活パターンや、生活パターンに対応する各種センサを必要としている。一方、保育を必要とする子供に対し、複数の各種センサを前もって子供の生活パターンに合わせて設置しておくことは容易ではない。
本発明は上述した課題に鑑みてなされたものであり、子供の危険状態を検出することを目的とする。更には、危険状態と判定するための学習データを容易に収集することを目的とする。
上記課題を解決するために本願発明は以下の構成を有する。すなわち、情報処理装置であって、撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定手段と、新たな動画データを取得して前記推定手段に提供し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知する通知手段とを有する。
本願発明により、子供の危険状態を検出することができる。更には、危険状態と判定するための学習データを容易に収集することも可能となる。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
<第1の実施形態>
[システム構成]
図1は、本発明を適用できるシステムの全体構成の例を示す図である。図1において、システムは、クライアント端末102、ネットワークカメラ103、データ収集サーバー104、および学習サーバー105を含んで構成される。クライアント端末102およびネットワークカメラ103はローカルネットワーク101に接続される。ローカルネットワーク101は、インターネット100に通信可能に接続される。クライアント端末102とネットワークカメラ103は、学習サーバー105とデータ収集サーバー104に、インターネット100を介してアクセス可能な状態となっている。
[システム構成]
図1は、本発明を適用できるシステムの全体構成の例を示す図である。図1において、システムは、クライアント端末102、ネットワークカメラ103、データ収集サーバー104、および学習サーバー105を含んで構成される。クライアント端末102およびネットワークカメラ103はローカルネットワーク101に接続される。ローカルネットワーク101は、インターネット100に通信可能に接続される。クライアント端末102とネットワークカメラ103は、学習サーバー105とデータ収集サーバー104に、インターネット100を介してアクセス可能な状態となっている。
インターネット100、およびローカルネットワーク101は、例えば、LAN、WAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、ケーブルテレビ回線、データ放送用無線回線や移動体通信回線等、またはこれらの組み合わせにより実現される、いわゆる通信ネットワークである。通信ネットワークは、有線/無線やその通信規格を限定するものではない。データ収集サーバー104、学習サーバー105、クライアント端末102、およびネットワークカメラ103は、それぞれに相互にデータの送受信が可能とする。
クライアント端末102は、情報処理装置であり、デスクトップコンピュータやノートパソコン、またはスマートフォンやタブレットなどの情報端末である。クライアント端末102は、プログラムの実行環境が内蔵されているものとする。クライアント端末102は、本実施形態に係るシステムにおいて、危険状態が検知された際の通知先として設定される。また、クライアント端末102は、ネットワークカメラ103の撮影範囲内に含まれる家具・家電などの種類や位置・座標を事前に取得するために用いられてもよい。
ネットワークカメラ103は、屋内外に設置されたカメラであり、保育の対象とする所定の人物(ここでは、幼児などの子供)を撮影する。なお、本実施形態において、保育の対象となる対象者およびその保護者(ここでは、親や保育を行う大人など)は予め認識可能であるとする。例えば、子供や保護者の顔情報を登録しておき、人物の特定が可能であるものとする。ネットワークカメラ103は、ローカルネットワーク101を介して、撮影・取得した動画および関連情報をクライアント端末102や学習サーバー105、データ収集サーバー104にリアルタイムに送信可能である。ネットワークカメラ103の撮影範囲は特に限定するものではなく、複数台のネットワークカメラ103を用いて撮影可能な範囲を拡張してよい。もしくは、ネットワークカメラ103の機能に応じて、ズーム、パン、チルトの動作や、撮影方向や画角の変更などにより、撮影範囲の制御が行われてもよい。
データ収集サーバー104は、ネットワークカメラ103から学習データを受信・収集する。本実施形態に係る学習データとは、子供が危険状態に陥ったと判定されたタイミングを基準として一定時間の範囲の動画データと、該当する子供周辺の家具・家電の情報である。この学習データの取得方法および取得タイミングは、後述する学習データ生成の詳細な流れを示すフローチャート(図6)にて説明する。
学習サーバー105は、定期的にデータ収集サーバー104の格納された学習データを基に学習済モデルを生成する。学習済モデルの生成方法は、後述する図6の学習フェーズにおける学習の詳細な流れを示すフローチャートで説明する。
図1では、各装置を1台ずつ示したが、これに限定するものではない。例えば、各種サーバーは1台の装置にて構成されてもよいし、1のサーバーを複数の装置にて構成してもよい。また、クライアント端末102やネットワークカメラ103は複数台が用いられてもよい。したがって、本実施形態に係る学習データは、複数のネットワークカメラ103から収集されてよい。そして、複数のネットワークカメラ103から収集された学習データを用いて行われた学習により得られた学習済モデルが複数のネットワークカメラ103にて共有されてよい。
[ハードウェア構成]
図2は、本実施形態に係る各装置のハードウェア構成の例を示す。情報処理装置200は、図1に示した本実施形態に係るクライアント端末102、データ収集サーバー104、および学習サーバー105のハードウェア構成の例を示す。本実施形態では、クライアント端末102、データ収集サーバー104、および学習サーバー105は同じ構成を備えているものとして説明するが、それぞれが異なる構成を備えていてよい。
図2は、本実施形態に係る各装置のハードウェア構成の例を示す。情報処理装置200は、図1に示した本実施形態に係るクライアント端末102、データ収集サーバー104、および学習サーバー105のハードウェア構成の例を示す。本実施形態では、クライアント端末102、データ収集サーバー104、および学習サーバー105は同じ構成を備えているものとして説明するが、それぞれが異なる構成を備えていてよい。
情報処理装置200において、CPU(Central Processing Unit)202は装置全体の制御を行う。CPU202は、HDD(Hard Disc Drive)205に格納されているアプリケーションプログラムやOS(Operating System)等を読み出し、RAM(Random Access Memory)204にプログラムの実行に必要な情報、ファイル等を一時的に格納して、実行する。
GPU(Graphics Processing Unit)209は、表示部208への出力処理を担うほか、ディープラーニングのような機械学習の学習モデルを用いて複数回に渡り学習を行う場合の処理を行う。GPU209を利用することで、データをより多く並列処理することが可能となり、効率的な演算を行うことができる。
ROM(Read Only Memory)203は不揮発性の記憶手段であり、内部には、基本I/Oプログラム等の各種データを記憶する。RAM204は一時記憶手段であり、CPU202、GPU209の主メモリ、ワークエリア等として機能する。HDD205は外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザ等のアプリケーションプログラム、サービスサーバー群のプログラム、OS、関連プログラム等を格納している。HDD205は、不揮発性の記憶手段であればHDDに限定される必要は無く、例えば、フラッシュメモリであってもよい。
入力部207は、ユーザからの操作を受け付ける操作部であり、例えば、キーボードやマウスなどが該当する。表示部208は表示手段であり、入力部207から入力したコマンド等の表示先や、CPU202の演算結果の出力先となる。なお、入力部207と表示部208は、タッチパネルディスプレイなどとして一体化された構成であってもよい。
NIC(Network Interface Controller)206は、ネットワーク230を介して外部装置とのデータのやり取りを行う。ネットワーク230は、図1に示すインターネット100やローカルネットワーク101に相当する。システムバス201は、情報処理装置200内における各部位を通信可能に接続し、各部位間のデータの流れを司る。
なお、情報処理装置200の構成は一例であり、例えば、データやプログラムの格納先は、その特徴に応じてRAM204、ROM203、HDD205などで変更することも可能である。加えて、CPU202、GPU209がHDD205に記憶されているプログラムに基づき処理を実行することによって、図3に示されるようなソフトウェア構成における処理が実現される。
ネットワークカメラ210は、図1に示した本実施形態に係るネットワークカメラ103のハードウェア構成の例を示す。ここでは、1台のネットワークカメラを例に挙げて説明するが、複数台のネットワークカメラが用いられる際にはそれぞれの構成が異なっていてもよい。
ネットワークカメラ210において、CPU212は装置全体の制御を行う。CPU212はHDD215に格納されているアプリケーションプログラムやOS等を実行し、RAM214にプログラムの実行に必要な情報、ファイル等を一時的に格納する制御を行う。ROM213は不揮発性の記憶手段であり、内部には、基本I/Oプログラム等の各種データを記憶する。RAM214は一時記憶手段であり、CPU212の主メモリ、ワークエリア等として機能する。
GPU219は、表示部218への出力処理を担うほか、ディープラーニングのような機械学習の学習モデルを用いて複数回に渡り学習を行う場合の処理を行う。GPU219を利用することで、データをより多く並列処理することが可能となり、効率的な演算を行うことができる。なお、学習自体は外部装置により行われ、GPU219は、すでに生成されている学習済モデルを用いた処理のみを行うような構成であってもよい。
HDD215は外部記憶手段の一つであり、大容量メモリとして機能し、アプリケーションプログラム、サービスサーバー群のプログラム、OS、関連プログラム等を格納している。HDD215は、不揮発性の記憶手段であればHDDに限定される必要は無く、例えばフラッシュメモリであっても良い。
表示部218は表示手段であり、入力部217から入力されたコマンド等の表示先や、CPU202の演算結果の出力先となる。なお、表示部218や入力部217は、外付けの構成であってもよいし、外部装置にて提供される構成であってもよい。システムバス211は、ネットワークカメラ210内における各部位を通信可能に接続し、各部位間のデータの流れを司る。NIC216は、ネットワーク230を介して外部装置とのデータのやり取りを行う。
レンズ221は、ネットワークカメラ210の周辺における映像を撮影するためのレンズである。レンズ221を介して入力された光をイメージセンサー220で読み取り、イメージセンサー220で読み取った結果をHDD215やRAM214に格納することで、映像を記録する。ここでの映像は、動画や静止画を含む。
マイク222は、ネットワークカメラ103周辺の音や会話などの音声を取得する。マイク222、レンズ221、およびイメージセンサー220と組み合わせて動作させることで、撮像手段として機能し、録音録画を同時に行える。
なお、ネットワークカメラ210の構成は一例であり、例えば、データやプログラムの格納先は、その特徴に応じてROM213、RAM214、HDD215などで変更することも可能である。加えて、CPU212がHDD215に記憶されているプログラムに基づき処理を実行することによって、図3に示されるようなソフトウェア構成における処理が実現される。また、イメージセンサー220やマイク222はシステムバス211に直接接続されている必要は無く、例えば、USBバス等を通じて間接的にシステムバス211またはCPU212に接続されていても良い。もしくは、イメージセンサー220やマイク222が、CPU212やGPU219に直接接続される形態であっても良い。
[ソフトウェア構成]
図3は、本実施形態に係る各装置のソフトウェア構成の例を示す。各装置のソフトウェアは、例えば、各装置の記憶部に記憶されたプログラムを各装置の処理部(CPU等)が読み出して実行されることにより実現される。
図3は、本実施形態に係る各装置のソフトウェア構成の例を示す。各装置のソフトウェアは、例えば、各装置の記憶部に記憶されたプログラムを各装置の処理部(CPU等)が読み出して実行されることにより実現される。
クライアント端末102は、通知受信部311、およびUI表示部312を含んで構成される。通知受信部311は、ネットワークカメラ103の通知送信部305から送信された通知を受信する。UI表示部312は、通知受信部311が受信した通知に基づいて、その内容を表示部208に出力させる。UI表示部312による通知の出力方法としては、例えば、クライアント端末102の表示部208において、通知ウィンドウを最前面に表示する、またはメッセージボックスやトーストによって保育者に対して通知を行うなどの方法が挙げられる。この時、単にメッセージを表示するだけでなく、ネットワークカメラ103の通知送信部305がリアルタイムに画像や動画を、クライアント端末102の通知受信部311に送信し、その内容をUI表示部312が表示させても良い。また、ネットワークカメラ103の推定部304が出力した危険度の大きさに対して、クライアント端末102上で閾値を設定可能とし、UI表示部312に通知を表示する子供の推定危険度を調整可能としても良い。
ネットワークカメラ103は、学習データ送信部301、学習済モデル受信部302、撮影部303、推定部304、通知送信部305、および姿勢解析部306を含んで構成される。
学習データ送信部301は、撮影部303で取得した動画と音声を基に、保育者が対象となる子供に対して危険回避行動を行ったかを判定する。ここで危険回避行動とは、例えば、保育者が大声を出す、または、保育者が対象となる子供を危険物から急いで退避させるといった行動が該当する。ここでは、例えば、発声の音量、発声の期間、移動距離、移動速度に対する閾値を予め設定しておき、その閾値との比較により危険回避行動を判定してよい。学習データ送信部301は、危険回避行動があったタイミングを基準として一定時間の区間の動画を切り出す。例えば、1秒間に15フレームの動画を撮影する場合に、過去3秒の動画を切り出すとすると、危険回避行動発生時から45フレーム分前までの動画データとなる。なお、ここでの取得する範囲は特に限定するものではなく、例えば、動画データ等の記録を逐次行っておき、危険回避行動を検知したタイミングにてその前後の一定期間に記録された動画データを学習データとして設定してよい。そして、学習データとして設定されていない動画データ等は、時間経過とともに破棄してよい。学習データ送信部301は、切り出した動画データと、姿勢解析部306で得られた解析結果、および、周辺の家具家電情報を、学習データとしてデータ収集サーバー104のデータ収集/提供部322に送信する。
学習済モデル受信部302は、推定部304で使用する学習済モデルを、学習サーバー105の学習済モデル送信部334から定期的に受信する。ここでの受信は、ネットワークカメラ103側から定期的に学習サーバー105に要求してもよいし、学習サーバー105から定期的に送信されてくる学習済モデルを待ち受けるような構成であってもよい。
撮影部303は、イメージセンサー220で読み取られた結果を映像信号に変換して、HDD215に格納する。さらに、撮影部303は、推定部304へリアルタイムに映像信号を転送する。また、撮影部303は、撮影範囲内の家具・家電に関する家具家電情報を物体検出処理によって検出する。撮影部303が行う物体検出処理は、毎フレーム行う必要は無く、背景画像に一定割合変化があった場合などに物体検出処理を行ってもよい。具体的な物体認識処理の方法としては、例えば、スライディングウィンドウを用いた上でHOG(Histograms of Oriented Gradients)特徴量を検出し、機械学習を行う。または、画像情報をCNN(Convolutional Neural Network)を用いて直接機械学習を行う方法などがある。なお、物体認識を行う処理であれば他の方式でも良く、例えばパ、フォーマンスを向上させるために物体領域候補もCNNで検出しても良いし、QRコード(登録商標)などの物理的な識別子(マーカー)を家具・家電に設置しても良い。
推定部304は、撮影部303からの映像信号と、姿勢解析部306からの対象人物の位置情報と姿勢ベクトルデータと、周辺の家具家電情報を入力とする。そして、推定部304は、それらの入力と、学習サーバー105の学習済モデル送信部334から取得した学習済モデルを用いて、対象人物が危険状態か否かの推定を行う。推定部304と学習サーバー105の学習部333は、危険状態か否かを判定するために、機械学習を用いた学習および推定を行う。具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシン(SVM)などが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。
また、推定部304による処理には、CPU212に加えてGPU219を用いても良い。具体的には、学習モデルを含む推定プログラムを実行する場合に、CPU212とGPU219が協働して演算を行うことで推定を行う。なお、推定部304の処理はCPU212またはGPU219のみにより演算が行われても良い。また、後述する学習サーバー105の学習部333も同様に、GPU209を用いても良い。
通知送信部305は、推定部304で対象人物である子供が危険状態であると推定した時にクライアント端末102の通知受信部311に危険通知を行う。通知送信部305は、危険通知の情報と共に撮影部303の動画データを送信しても良い。
姿勢解析部306は、撮影部303で得られた動画データを基に撮影範囲内の人物の位置と姿勢を解析する。姿勢解析部306は、撮影部303で得られる動画データの各フレームの差分画像から移動物体を認識し、さらに検出した移動物体を解析することで人物の姿勢を推定する。姿勢解析部306による解析の結果として得られる情報は、人物の位置情報および姿勢ベクトルデータとなる。以下、これらの情報をまとめて「姿勢情報」と称する。
データ収集サーバー104は、データ記憶部321およびデータ収集/提供部322を含んで構成される。
データ記憶部321は、データ収集/提供部322を介してネットワークカメラ103の学習データ送信部301から送信された学習データを記憶する。データ収集/提供部322は、ネットワークカメラ103の学習データ送信部301から送信された学習データを受信する。また、データ収集/提供部322は、学習サーバー105からの要求に応じて、学習データ受信部332に対して学習データを送信する。
学習サーバー105は、学習済モデル記憶部331、学習データ受信部332、学習部333、および学習済モデル送信部334を含んで構成される。
学習済モデル記憶部331は、学習部333で学習した結果の学習済モデルを記憶する。学習データ受信部332は、データ収集サーバー104のデータ収集/提供部322に対して定期的に学習データを要求する。ここでの定期的とは、予め設定された時間間隔であってもよいし、データ収集サーバー104にて一定量以上のデータが収集されたタイミングであってもよい。学習データ受信部332は、データ収集/提供部322から受信した学習データを学習部333に入力し、学習部333に対し学習処理を行うように要求する。
学習部333は、受信した学習データを用いて機械学習を用いた学習を行う。学習部333は、学習手法に対応した誤差検出部と更新部(不図示)を備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算するようにしてもよい。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。更新部は、例えば、誤差逆伝搬法を用いて、結合重み付け係数等を更新する。誤差逆伝搬法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。本実施形態において、ネットワークカメラ103の学習データ送信部301が危険状態であるとして判定した場合に送信される学習データを用いて学習した場合の出力データは、危険度が高いものとして教師データが設定される。そのため、学習部333では、その教師データの値に近づくように結合重み付け係数等が更新される。
図4は、学習部333および推定部304で使用される学習モデルと、入出力の関係を示す概念図である。学習モデル403は、学習部333が用いる学習モデルに対応する。入力データ401は、ネットワークカメラ103の学習データ送信部301がデータ収集サーバー104の入力データ収集/提供部322に送信した学習データである。本実施形態に係る学習データは、保育者が対象とする子供に対して危険回避行動取ったタイミングを基準として一定期間の範囲の撮影部303で撮影された動画データを含む。更に、学習データは、姿勢解析部306で得られた子供の姿勢情報、および子供の周辺に位置する家具・家電に関する家具家電情報を含む。
出力データ402は、入力データ401を基に学習モデル403によって推定部304が推定した危険値であり、子供の危険度合いを表す。ここで危険値は、推定部304の回帰分析の結果であり、連続値を取るものとする。例えば、確実に危険な状態である場合、危険値は“1.0”を取る。一方、確実に安全な状態である場合、危険値は“0.0”と表現する。なお、クライアント端末102への通知方法によっては必ずしも連続値とする必要は無く、例えば、クライアント端末102が単に危険通知を受け取るだけであれば、危険状態か非危険状態かの2つに分類する方式であっても良い。また、家具・家電ごとに学習モデル403を用意する方法だけでなく、家具家電ごとの危険値を出力データ402としても良い。学習モデル403および学習データを用いて学習が行われることで、学習済モデルが生成され、学習サーバー105からネットワークカメラ103に提供される。
[シーケンス]
図5を用いて、本実施形態に係るシステムがどのように、子供が危険な時に保育者に対して通知を行う流れを説明する。また、学習データの収集方法および学習モデルの学習の流れについても合わせて説明する。
図5を用いて、本実施形態に係るシステムがどのように、子供が危険な時に保育者に対して通知を行う流れを説明する。また、学習データの収集方法および学習モデルの学習の流れについても合わせて説明する。
S501にて、ネットワークカメラ103の推定部304は、動画データ、姿勢情報、および家具家電情報を入力データとして、学習済モデルを用いて、対象の子供の危険度を推定する。ここで、ネットワークカメラ103は、すでに過去の学習データを用いて生成された学習済モデルを保持しているものとする。
S502にて、ネットワークカメラ103の通知送信部305は、S501の推定部304による危険度の推定の結果を応答として受け付け、その危険度が閾値を超えた場合に、クライアント端末102の通知受信部311にその旨の通知を送信する。ここでの通知内容としては、危険度や動画データなどを含んでよい。
S503にて、クライアント端末102は、S502にて受信した通知内容に基づいて、UI表示部312に対象の子供が危険状態であることを表示する。このとき、クライアント端末102は、単に危険状態であることを知らせるだけでなく、その危険度の値に応じてUI表示部312における通知方法を変えても良い。例えば、危険度が0.9未満0.7以上である場合、危険通知を知らせるウィンドウ、メッセージボックス、トーストまたはアイコンをUI表示部312に表示してよい。また、危険度が0.9以上である場合、さらにアラームを鳴らすことで、対象の子供が危険な状態である確度が高いことを知らせてもよい。さらに、姿勢情報と家具家電情報のうち、最も危険度の高い組み合わせの家具家電を強調させてUI表示部312に表示させても良い。UIの表示例については、図8を用いて後述する。
S504にて、クライアント端末102は、S502にて受信した通知結果に対するユーザの評価内容を、ネットワークカメラ103に送信する。ここで送信される内容としては、例えば、ネットワークカメラ103による推定結果が正しかったか否かの正当性に対するユーザの評価を返信しても良い。ネットワークカメラ103の学習データ送信部301は、このクライアント端末102からの評価結果を学習データ収集のトリガ、および教師データとすることで、学習済モデルの精度をより向上させることができる。つまり、ユーザにより推定が正しくないと指定された場合には、その旨を学習データに含めてデータ収集サーバー104に送信する。そして、その学習データを用いて学習した場合の出力データは、危険度が低いものとして教師データが設定されるようにしてよい。このステップは学習済モデルの精度をより向上させる効果が期待できるが、本実施形態において必須の構成ではない。
続いて、学習モデルの学習の流れについて説明する。S511にて、ネットワークカメラ103の学習データ送信部301は、撮影部303にて取得した動作データを解析し、危険回避行動があったか否かを判定する。そして、学習データ送信部301は、危険回避行動があったことを検知した場合には、その危険回避行動が行われたタイミングを基準として一定期間の動画データを取得する。
S512にて、ネットワークカメラ103の学習データ送信部301は、危険回避行動があったタイミングを基準とした一定期間の動画データ、姿勢情報、および家具家電情報を学習データとしてデータ収集サーバー104のデータ収集/提供部322に送信する。
S513にて、データ収集サーバー104は、S512にて受信した学習データを、データ記憶部321に記憶する。
S514にて、学習サーバー105の学習データ受信部332は、定期的にデータ収集サーバー104のデータ収集/提供部322から未学習の学習データを取得する。ここでの取得タイミングは、学習サーバー105が一定期間ごとにデータ収集サーバー104に学習データを要求してもよい。または、データ収集サーバー104が一定期間ごとや、一定量のデータを収集したタイミングにて送信してもよい。なお、データ収集サーバー104は、学習サーバー105に送信済みの学習データは破棄してもよいし、送信済みであること記録した上で保持し続けてもよい。学習データ受信部332は、取得した学習データを用いて学習を行うように学習サーバー105の学習部333に依頼する。
S515にて、学習サーバー105の学習部333は、S514にてデータ収集サーバー104から取得した学習データを用いて学習を行う。
S516にて、学習サーバー105の学習済モデル送信部334は、学習部333で学習した結果となる学習済モデルをネットワークカメラ103の学習済モデル受信部302に送信する。学習済モデル受信部302は、推定部304が使用する学習済モデルを、受信した学習済モデルに更新する。更新前の学習済モデルは、履歴として保持してもよいし、破棄してもよい。
[処理フロー]
(学習処理)
図6は、学習フェーズにおける学習の詳細な流れを示すフローチャートである。図6(a)は、ネットワークカメラ103の学習データ送信部301による処理のフローチャートである。図6(a)の処理は、ネットワークカメラ103にて定期的に繰り返される。
(学習処理)
図6は、学習フェーズにおける学習の詳細な流れを示すフローチャートである。図6(a)は、ネットワークカメラ103の学習データ送信部301による処理のフローチャートである。図6(a)の処理は、ネットワークカメラ103にて定期的に繰り返される。
S601にて、学習データ送信部301は、撮影部303から得られた動画データ、または、マイク222から得られた音声データから、保育者が対象とする子供に対して危険回避行動を行ったかを判定する。ここで危険回避行動とは、例えば保育者が大声を出す、対象となる子供が大声で一定時間泣き続ける、または、保育者が対象となる子供を危険物から急いで退避させるといった行動が挙げられる。さらに、子供を危険物から急いで退避させるだけでなく、危険物を子供から急いで遠ざける行動を危険回避行動として検出してもよい。危険回避行動を検出した場合(S601にてYES)S602へ進み、検出しなかった場合(S601にてNO)S604に進む。
S602にて、学習データ送信部301は、危険回避行動を検出したタイミングを基準として、前後一定時間分の動画データのフレームをHDD215から取得する。
S603にて、学習データ送信部301は、S602で取得した動画データ、危険回避行動を検出したタイミングの姿勢データ、および家具家電情報を、学習データとしてデータ収集サーバー104のデータ収集/提供部322に送信する。姿勢データは、危険回避行動を検出したタイミングの瞬時値が送信されるが、動画データと同様に一定時間のフレーム分をデータ収集/提供部322に送信しても良い。そして、本処理フローを終了する。
S604にて、学習済モデル受信部302は、学習サーバー105の学習済モデル送信部334から学習済モデルを受信したか否かを判定する。学習済データを受信したと判定した場合(S604にてYES)S605へ進み、受信していないと判定した場合(S604にてNO)本処理フローを終了する。
S605にて、学習済モデル受信部302は、受信した学習済モデルを、推定部304が使用できるようにHDD215またはRAM214に記憶して更新する。更新前の学習済モデルは、履歴として保持してもよいし、破棄してもよい。
図6(b)は、学習サーバー105による学習処理のフローチャートである。
S621にて、学習データ受信部332は、データ収集サーバー104のデータ収集/提供部322から学習データを取得する。
S622にて、学習部333は、S621にて受信した学習データ(動画データ、姿勢情報、および家具家電情報)を入力データとし、危険な状態であったか否かを示す情報(危険度)を教師データとする。ここで表1に入力データおよび教師データとして使用するデータの具体例を示す。
学習データIDは、入力データと教師データの組を表現するID(識別情報)である。IDの付与規則は特に限定するものではなく、入力データおよび教師データとの組を一意に特定できればよい。本実施形態では、上述したように、動画データ、姿勢データおよび家具家電情報を入力データとする。動画データは、ネットワークカメラ103の学習データ送信部301が危険回避行動を検出したタイミングを基準とした一定時間内の動画データである。姿勢データは、同タイミングにおいて、姿勢解析部306が解析した姿勢情報である。本実施形態において、姿勢情報は、人の関節とボーン位置を示す数値のベクトルで表される。家具家電情報は、対象となる子供に最も近い家具家電の距離を“1.0”とし、その他の家具家電の距離を、最も近い家具家電に対して相対的に表す。例えば、家電Aが子供に対して距離0.5mの位置にあった場合、家電Bが子供に対して距離2mの位置にあったとすると、家電Aとの距離は“1.0”で表現され、家電Bとの距離は“4.0”と表現される。なお、距離に限定するものではなく、人物と家具・家電との位置関係に関する情報を含めてもよい。
教師データとしては、危険度が用いられる。危険度については図4を用いて説明を行ったため、詳細は省略するが、教師データとしては危険回避行動があった場合に危険度の値を“1.0”とし、危険回避行動の無い定常的な学習データの場合は危険度の値を“0.0”としている。例えば、図5のS504にてユーザにより推定が正しくないと評価された場合に対応する学習データに対しては、教師データ(危険度)を“0.0”としてよい。一方、ユーザにより推定が正しいと評価された場合やS504における評価が行われない場合には教師データ(危険度)を“1.0”としてよい。
S623にて、学習部333は、S622で設定した情報を用いて学習を行う。上述したように、学習手法は特に限定するものでは無い。
S624にて、学習部333は、全ての学習データを用いた学習が完了したか否かを判定する。未処理の学習データが残っていると判定された場合(S624にてNO)S622へ戻り、未処理の学習データに対して処理を繰り返す。全ての学習データを用いた学習が完了したと判定した場合(S624にてYES)S625へ進む。
S625にて、学習済モデル送信部334は、ネットワークカメラ103の学習済モデル受信部302に対して、新たな学習済モデルを送信する。そして、本処理フローを終了する。
(推定処理)
図7は、ネットワークカメラ103による推定処理の詳細な流れを示すフローチャートである。本処理フローは、ネットワークカメラ103により定常的に実行される。
図7は、ネットワークカメラ103による推定処理の詳細な流れを示すフローチャートである。本処理フローは、ネットワークカメラ103により定常的に実行される。
S701にて、ネットワークカメラ103の撮影部303は、撮影処理を行い、動画データを取得する。この時、推定部304が必要とする動画データとして、一定期間の撮影データを必要とするため、HDD215またはRAM214に撮影した動画データが適時記憶される。
S702にて、姿勢解析部306は、S701にて撮影された動画データを基に姿勢解析を行う。姿勢解析部306の姿勢解析の結果、対象となる子供の位置と姿勢ベクトルを得る。
S703にて、推定部304は、S701、S702にて得られた姿勢に関する情報、および事前に取得した家具家電情報を入力データとして、学習サーバー105の学習済モデル送信部334から受信した学習済モデルを用いて推定を行う。推定部304は、推定の結果、対象となる子供が危険な状態かを表す危険度を出力する。
S704にて、S703で推定した危険度が閾値以上であるか否かを判定する。危険度が閾値以上であると判定された場合(S704にてYES)S705へ進み、閾値未満であると判定された場合(S704にてNO)S701へ戻り、処理を繰り返す。ここでの閾値は、事前に規定され、HDD215等の記憶部に保持されていてもよいし、ユーザー(例えば、保育者)が動的に設定可能であっても良い。
S705にて、通知送信部305は、クライアント端末102の通知受信部311に対して対象となる子供が危険な状態にあるという推定結果を送信する。ここで通知送信部305がクライアント端末102に送るデータは、S703の推定の結果得られた危険度、リアルタイムの動画データ、および危険に陥った原因と考えられる家具・家電の領域情報が含まれてよい。本実施形態において、家具家電の領域情報は、S703の危険度推定時に得られる、最も関連度の高い(距離の近い)家具家電の位置を示す領域情報とする。
図8は、クライアント端末102において危険通知を行う際のUI表示の例を示す。図8は、クライアント端末102のUI表示部312にて表示される画面の例である。
図8の例では、子供801の近くにコンロ803と乾電池802が表示されている。さらに、子供801が手を上に伸ばす姿勢を取っている。これらは、S705に送信されたリアルタイムの動画データを基にUI表示部312が表示している。例えば、図8では、危険度の推定の結果動画データや姿勢情報、および家具家電情報から、危険となっている原因がコンロ803である可能性が最も高いと推定された場合、コンロ803の部分を領域情報として強調して表示している。一方、子供がしゃがむような姿勢を取った場合、コンロ803の部分ではなく乾電池802の部分を領域情報として強調して表示するといった結果になる場合もある。この強調処理によって、保育者に何が危険の原因かを伝えることができる。なお、図8は表示の一例であり、実際には学習結果に基づいて、強調される家具家電が決定されてよい。
以上、本実施形態により、保育の必要な子供が危険状態にあるか否かを保育者に通知できる。更には、危険状態を判定するための学習済モデルを生成するために用いられる学習データを容易に収集することができる。そして、このような学習データを用いて学習が行われた学習済モデルを共有することにより、他の保育者の知見を活用でき、その結果、危険状態の推定精度を向上することも可能となる。
<第2の実施形態>
第1の実施形態では、危険度が閾値以上の際の通知先はクライアント端末102を想定した形態について説明した。近年、様々な家電がインターネットに接続され、インターネット経由で各種センサ値を収集、または外部から制御可能なものが増えてきている。このようなインターネット経由で情報の取得、または制御を行うことをIoT(Internet of Things)と呼ばれている。また、IoTに対応した機器についてIoT対応機器と呼ぶ。本願発明の第2の実施形態として、通知先としてIoT対応機器を含め、危険度に応じてIoT対応機器を制御する形態について説明する。なお、第1の実施形態と重複する構成については説明を省略し、差分のみを説明する。
第1の実施形態では、危険度が閾値以上の際の通知先はクライアント端末102を想定した形態について説明した。近年、様々な家電がインターネットに接続され、インターネット経由で各種センサ値を収集、または外部から制御可能なものが増えてきている。このようなインターネット経由で情報の取得、または制御を行うことをIoT(Internet of Things)と呼ばれている。また、IoTに対応した機器についてIoT対応機器と呼ぶ。本願発明の第2の実施形態として、通知先としてIoT対応機器を含め、危険度に応じてIoT対応機器を制御する形態について説明する。なお、第1の実施形態と重複する構成については説明を省略し、差分のみを説明する。
図9を用いて本実施形態のシステムの動きについて説明する。図9に示す処理シーケンスのうち、第1の実施形態と同じ処理は同じ参照番号を付している。本実施形態では、IoT対応機器900がシステム内に含まれる。IoT対応機器900の種類は特に限定されるものではない。また、複数のIoT対応機器900が含まれてよく、その通知先に関する情報がネットワークカメラ103にて管理されているものとする。
第1の実施形態にて述べたように、S502にて、クライアント端末102に危険通知を行う。このとき、クライアント端末102に対して、危険の原因となった可能性の最も高い家具・家電の情報を送信する。ここで危険の原因と推定された家具・家電がIoT対応機器900であるものとし、IoT対応機器900は、緊急停止機能を備えているものとする。
S901にて、ネットワークカメラ103の通知送信部305は、S502におけるクライアント端末102に対する通知を行うとともに、対象のIoT対応機器900に対して緊急停止指示を出す。緊急停止指示により、危険状態が解消するようにIoT対応機器900の動作を制御させる。ここでの対象のIoT対応機器900は、最も関連度の高い(距離の近い)家具・家電としてのIoT対応機器が相当する。また、ネットワークカメラ103からIoT対応機器900に対して緊急停止指示を直接送信する構成に限定するものではない。例えば、IoT対応機器900を管理するインターネット100上のサーバー(不図示)に対して対象のIoT対応機器900への緊急停止指示を送信してもよい。また、IoT対応機器900の撮影範囲内における位置の把握は、撮影部303が行う物体検出処理により行うことができる。
以上、本実施形態により、保育の必要な子供が危険な状態にあり、その原因と思われる家具家電がIoT対応機器である場合、緊急停止をリモートで自動的に指示することで、怪我などを未然に防止する可能性を高めることが可能となる。
<その他の実施形態>
本発明は上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピューターにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、MPU、GPU、ASIC、FPGA、DSP、DFP、NPU)によっても実現可能である。
本発明は上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピューターにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、MPU、GPU、ASIC、FPGA、DSP、DFP、NPU)によっても実現可能である。
100…インターネット、101…ローカルネットワーク、102…クライアント端末、103…ネットワークカメラ、104…データ収集サーバー、105…学習サーバー
Claims (12)
- 撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定手段と、
新たな動画データを取得して前記推定手段に提供し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知を行う通知手段と
を有することを特徴とする情報処理装置。 - 前記撮像手段から動画データを取得する取得手段と、
前記動画データに含まれる人物および物体を特定する特定手段と、
前記特定手段にて特定された人物および物体の情報に基づいて、前記動画データに含まれる人物による所定の行動を検出する検出手段と、
前記検出手段にて前記所定の行動を検出した場合に、前記動画データと前記特定手段にて特定された人物および物体の情報とを学習データとして生成する生成手段と
を有することを特徴とする請求項1に記載の情報処理装置。 - 前記所定の行動は、人物が所定の音量よりも大きな発声を行う、人物が所定の期間よりも長い発声を行う、または、人物が他の人物を物体から一定の距離よりも離れた位置に移動させる、ことを含むことを特徴とする請求項2に記載の情報処理装置。
- 前記生成手段にて生成された学習データにおける前記動画データを用いて機械学習を行う場合の教師データの値は、危険な状態である可能性が高いものとして設定されることを特徴とする請求項2または3に記載の情報処理装置。
- 前記特定手段は、前記動画データに含まれる人物の姿勢、および、前記動画データに含まれる人物と物体との距離を特定することを特徴とする請求項2乃至4のいずれか一項に記載の情報処理装置。
- 前記生成手段にて生成された学習データを外部装置に提供する提供手段と、
前記提供手段にて提供された学習データを用いて機械学習により生成された学習済モデルを受信する受信手段と
を更に有し、
前記推定手段は、前記受信手段にて受信した学習済モデルにて、保持している学習済モデルを更新することを特徴とする請求項2乃至5のいずれか一項に記載の情報処理装置。 - 前記通知手段による通知先から、前記推定手段にて前記危険な状態であると判定した結果に対する正当性の評価を受け付ける手段を更に有し、
前記正当性の評価に基づいて、前記学習データにおける前記動画データを用いて機械学習を行う場合の教師データの値が設定されることを特徴とする請求項1乃至6のいずれか一項に記載の情報処理装置。 - 前記通知手段による通知先は、クライアント端末であり、
前記通知手段は、前記クライアント端末において、前記動画データおよび前記所定の状態の原因となる物体の情報を表示するように通知を行うことを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。 - 前記通知手段による通知先は、IoT(Internet of Things)対応機器であり、
前記通知手段は、前記IoT対応機器に対し、危険な状態が解消するように動作の指示を送信することを特徴とする請求項1乃至8のいずれか一項に記載の情報処理装置。 - 前記情報処理装置は、前記撮像手段を備えるネットワークカメラであることを特徴とする請求項1乃至9のいずれか一項に記載の情報処理装置。
- 撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定工程と、
新たな動画データを取得した際に前記推定工程を実施し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知を行う通知工程と
を有することを特徴とする情報処理方法。 - コンピューターを、
撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定手段、
新たな動画データを取得して前記推定手段に提供し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知する通知手段
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019153191A JP2021033646A (ja) | 2019-08-23 | 2019-08-23 | 情報処理装置、情報処理方法、及びプログラム |
US16/988,981 US20210056826A1 (en) | 2019-08-23 | 2020-08-10 | Information processing apparatus, information processing method, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019153191A JP2021033646A (ja) | 2019-08-23 | 2019-08-23 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021033646A true JP2021033646A (ja) | 2021-03-01 |
Family
ID=74647038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019153191A Pending JP2021033646A (ja) | 2019-08-23 | 2019-08-23 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210056826A1 (ja) |
JP (1) | JP2021033646A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102379275B1 (ko) * | 2021-11-16 | 2022-03-29 | 퀀텀테크엔시큐 주식회사 | 영상기반 원격 홈 케어 시스템 |
JP2022182003A (ja) * | 2021-05-27 | 2022-12-08 | Necパーソナルコンピュータ株式会社 | 行動予測支援装置及び行動予測支援方法並びに行動予測システム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11361537B2 (en) * | 2020-06-15 | 2022-06-14 | The Boeing Company | Enhanced collection of training data for machine learning to improve worksite safety and operations |
-
2019
- 2019-08-23 JP JP2019153191A patent/JP2021033646A/ja active Pending
-
2020
- 2020-08-10 US US16/988,981 patent/US20210056826A1/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022182003A (ja) * | 2021-05-27 | 2022-12-08 | Necパーソナルコンピュータ株式会社 | 行動予測支援装置及び行動予測支援方法並びに行動予測システム |
JP7331041B2 (ja) | 2021-05-27 | 2023-08-22 | Necパーソナルコンピュータ株式会社 | 行動予測支援装置及び行動予測支援方法並びに行動予測システム |
KR102379275B1 (ko) * | 2021-11-16 | 2022-03-29 | 퀀텀테크엔시큐 주식회사 | 영상기반 원격 홈 케어 시스템 |
WO2023090547A1 (ko) * | 2021-11-16 | 2023-05-25 | 퀀텀테크엔시큐 주식회사 | 영상기반 원격 홈 케어 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US20210056826A1 (en) | 2021-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11710075B2 (en) | Hazard recognition | |
US9984590B2 (en) | Identifying a change in a home environment | |
JP2021033646A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6164076B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7162412B2 (ja) | 検知認識システム | |
US10846538B2 (en) | Image recognition system and image recognition method to estimate occurrence of an event | |
JPWO2016199749A1 (ja) | 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム | |
WO2016088413A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6385470B2 (ja) | 対象の健康状態を検出するデバイス、システム及びコンピュータプログラム | |
JP2020027496A (ja) | 監視装置、監視システム、及びプログラム | |
US20240236277A1 (en) | Patient Room Real-Time Monitoring and Alert System | |
CN107112018A (zh) | 信息处理装置、信息处理方法和程序 | |
US20180322334A1 (en) | Person Monitoring Device And Method, And Person Monitoring System | |
Amir et al. | Real-time threshold-based fall detection system using wearable IoT | |
JP2020091658A (ja) | 撮像情報管理システム、撮像情報管理システムの制御方法及び撮像情報管理プログラム | |
JP2015011404A (ja) | 動作認識処理装置 | |
JP2016038686A (ja) | 監視装置及びプログラム | |
JP2020013185A (ja) | 見守り装置および見守り装置の制御プログラム | |
JPWO2016043093A1 (ja) | センサ管理システム、センサ管理装置、センサ装置、センサ管理方法およびプログラム | |
Taghvaei et al. | HMM-based state classification of a user with a walking support system using visual PCA features | |
CN110619734A (zh) | 信息推送方法和装置 | |
Braun et al. | Low-cost indoor localization using cameras–evaluating ambitrack and its applications in ambient assisted living | |
JP2020042397A (ja) | 評価システムおよびプログラム | |
EP4009297A1 (en) | Information processing device, method, and program | |
JP2014142696A (ja) | 解析処理制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |