JP2021033646A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2021033646A
JP2021033646A JP2019153191A JP2019153191A JP2021033646A JP 2021033646 A JP2021033646 A JP 2021033646A JP 2019153191 A JP2019153191 A JP 2019153191A JP 2019153191 A JP2019153191 A JP 2019153191A JP 2021033646 A JP2021033646 A JP 2021033646A
Authority
JP
Japan
Prior art keywords
data
learning
moving image
person
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019153191A
Other languages
English (en)
Inventor
譲 大久保
Yuzuru Okubo
譲 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019153191A priority Critical patent/JP2021033646A/ja
Priority to US16/988,981 priority patent/US20210056826A1/en
Publication of JP2021033646A publication Critical patent/JP2021033646A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0208Combination with audio or video communication, e.g. combination with "baby phone" function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/186Fuzzy logic; neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】子供の危険状態を検出しつつ、危険状態と判定するための学習データを容易に収集することのできる情報処理装置、情報処理方法、及びプログラムを提供する。
【解決手段】情報処理装置であって、撮像手段(撮影部303)から取得した動画データに含まれる人物および物体の情報を入力データとし、動画データに含まれる物体を原因とした、動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用する。危険な状態を推定する推定手段(推定部304)と、新たな動画データを取得して推定手段に提供し、その応答として新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知する通知手段(通知送信部305)とを有する。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、女性の職場進出が進む一方で育児への負担感・拘束感が少子化の原因のひとつとなっている。負担感・拘束感の原因の一つとして、子供が危険な状態にならないように、保育者が子供を常時観察し続ける必要があることが挙げられる。
例えば、特許文献1は、各種センサによって対象者の状態を検知し、その影響度を用いて対象者の状態が適正であるか否かを判定する装置を開示している。
特開2018−26006号公報
特許文献1に記載の方法では、主に一人暮らしの高齢者を対象者とし、その前提として、通常の生活パターンや、生活パターンに対応する各種センサを必要としている。一方、保育を必要とする子供に対し、複数の各種センサを前もって子供の生活パターンに合わせて設置しておくことは容易ではない。
本発明は上述した課題に鑑みてなされたものであり、子供の危険状態を検出することを目的とする。更には、危険状態と判定するための学習データを容易に収集することを目的とする。
上記課題を解決するために本願発明は以下の構成を有する。すなわち、情報処理装置であって、撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定手段と、新たな動画データを取得して前記推定手段に提供し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知する通知手段とを有する。
本願発明により、子供の危険状態を検出することができる。更には、危険状態と判定するための学習データを容易に収集することも可能となる。
本願発明の一実施形態に係るシステムの全体構成の例を示す図。 本願発明の一実施形態に係るシステムのハードウェア構成の例を示す図。 本願発明の一実施形態に係るシステムのソフトウェア構成の例を示す図。 本願発明の一実施形態に係る危険度推定のための入力データ、学習モデル、および出力データの概念図。 第1の実施形態に係るシステムの処理全体のシーケンス図。 本願発明の一実施形態に係る学習フェーズのフローチャート。 本願発明の一実施形態に係る推定フェーズのフローチャート。 本願発明の一実施形態に係るクライアント端末に表示されるUIの例を示す図。 第2の実施形態に係るシステムの処理全体のシーケンス図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
<第1の実施形態>
[システム構成]
図1は、本発明を適用できるシステムの全体構成の例を示す図である。図1において、システムは、クライアント端末102、ネットワークカメラ103、データ収集サーバー104、および学習サーバー105を含んで構成される。クライアント端末102およびネットワークカメラ103はローカルネットワーク101に接続される。ローカルネットワーク101は、インターネット100に通信可能に接続される。クライアント端末102とネットワークカメラ103は、学習サーバー105とデータ収集サーバー104に、インターネット100を介してアクセス可能な状態となっている。
インターネット100、およびローカルネットワーク101は、例えば、LAN、WAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、ケーブルテレビ回線、データ放送用無線回線や移動体通信回線等、またはこれらの組み合わせにより実現される、いわゆる通信ネットワークである。通信ネットワークは、有線/無線やその通信規格を限定するものではない。データ収集サーバー104、学習サーバー105、クライアント端末102、およびネットワークカメラ103は、それぞれに相互にデータの送受信が可能とする。
クライアント端末102は、情報処理装置であり、デスクトップコンピュータやノートパソコン、またはスマートフォンやタブレットなどの情報端末である。クライアント端末102は、プログラムの実行環境が内蔵されているものとする。クライアント端末102は、本実施形態に係るシステムにおいて、危険状態が検知された際の通知先として設定される。また、クライアント端末102は、ネットワークカメラ103の撮影範囲内に含まれる家具・家電などの種類や位置・座標を事前に取得するために用いられてもよい。
ネットワークカメラ103は、屋内外に設置されたカメラであり、保育の対象とする所定の人物(ここでは、幼児などの子供)を撮影する。なお、本実施形態において、保育の対象となる対象者およびその保護者(ここでは、親や保育を行う大人など)は予め認識可能であるとする。例えば、子供や保護者の顔情報を登録しておき、人物の特定が可能であるものとする。ネットワークカメラ103は、ローカルネットワーク101を介して、撮影・取得した動画および関連情報をクライアント端末102や学習サーバー105、データ収集サーバー104にリアルタイムに送信可能である。ネットワークカメラ103の撮影範囲は特に限定するものではなく、複数台のネットワークカメラ103を用いて撮影可能な範囲を拡張してよい。もしくは、ネットワークカメラ103の機能に応じて、ズーム、パン、チルトの動作や、撮影方向や画角の変更などにより、撮影範囲の制御が行われてもよい。
データ収集サーバー104は、ネットワークカメラ103から学習データを受信・収集する。本実施形態に係る学習データとは、子供が危険状態に陥ったと判定されたタイミングを基準として一定時間の範囲の動画データと、該当する子供周辺の家具・家電の情報である。この学習データの取得方法および取得タイミングは、後述する学習データ生成の詳細な流れを示すフローチャート(図6)にて説明する。
学習サーバー105は、定期的にデータ収集サーバー104の格納された学習データを基に学習済モデルを生成する。学習済モデルの生成方法は、後述する図6の学習フェーズにおける学習の詳細な流れを示すフローチャートで説明する。
図1では、各装置を1台ずつ示したが、これに限定するものではない。例えば、各種サーバーは1台の装置にて構成されてもよいし、1のサーバーを複数の装置にて構成してもよい。また、クライアント端末102やネットワークカメラ103は複数台が用いられてもよい。したがって、本実施形態に係る学習データは、複数のネットワークカメラ103から収集されてよい。そして、複数のネットワークカメラ103から収集された学習データを用いて行われた学習により得られた学習済モデルが複数のネットワークカメラ103にて共有されてよい。
[ハードウェア構成]
図2は、本実施形態に係る各装置のハードウェア構成の例を示す。情報処理装置200は、図1に示した本実施形態に係るクライアント端末102、データ収集サーバー104、および学習サーバー105のハードウェア構成の例を示す。本実施形態では、クライアント端末102、データ収集サーバー104、および学習サーバー105は同じ構成を備えているものとして説明するが、それぞれが異なる構成を備えていてよい。
情報処理装置200において、CPU(Central Processing Unit)202は装置全体の制御を行う。CPU202は、HDD(Hard Disc Drive)205に格納されているアプリケーションプログラムやOS(Operating System)等を読み出し、RAM(Random Access Memory)204にプログラムの実行に必要な情報、ファイル等を一時的に格納して、実行する。
GPU(Graphics Processing Unit)209は、表示部208への出力処理を担うほか、ディープラーニングのような機械学習の学習モデルを用いて複数回に渡り学習を行う場合の処理を行う。GPU209を利用することで、データをより多く並列処理することが可能となり、効率的な演算を行うことができる。
ROM(Read Only Memory)203は不揮発性の記憶手段であり、内部には、基本I/Oプログラム等の各種データを記憶する。RAM204は一時記憶手段であり、CPU202、GPU209の主メモリ、ワークエリア等として機能する。HDD205は外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザ等のアプリケーションプログラム、サービスサーバー群のプログラム、OS、関連プログラム等を格納している。HDD205は、不揮発性の記憶手段であればHDDに限定される必要は無く、例えば、フラッシュメモリであってもよい。
入力部207は、ユーザからの操作を受け付ける操作部であり、例えば、キーボードやマウスなどが該当する。表示部208は表示手段であり、入力部207から入力したコマンド等の表示先や、CPU202の演算結果の出力先となる。なお、入力部207と表示部208は、タッチパネルディスプレイなどとして一体化された構成であってもよい。
NIC(Network Interface Controller)206は、ネットワーク230を介して外部装置とのデータのやり取りを行う。ネットワーク230は、図1に示すインターネット100やローカルネットワーク101に相当する。システムバス201は、情報処理装置200内における各部位を通信可能に接続し、各部位間のデータの流れを司る。
なお、情報処理装置200の構成は一例であり、例えば、データやプログラムの格納先は、その特徴に応じてRAM204、ROM203、HDD205などで変更することも可能である。加えて、CPU202、GPU209がHDD205に記憶されているプログラムに基づき処理を実行することによって、図3に示されるようなソフトウェア構成における処理が実現される。
ネットワークカメラ210は、図1に示した本実施形態に係るネットワークカメラ103のハードウェア構成の例を示す。ここでは、1台のネットワークカメラを例に挙げて説明するが、複数台のネットワークカメラが用いられる際にはそれぞれの構成が異なっていてもよい。
ネットワークカメラ210において、CPU212は装置全体の制御を行う。CPU212はHDD215に格納されているアプリケーションプログラムやOS等を実行し、RAM214にプログラムの実行に必要な情報、ファイル等を一時的に格納する制御を行う。ROM213は不揮発性の記憶手段であり、内部には、基本I/Oプログラム等の各種データを記憶する。RAM214は一時記憶手段であり、CPU212の主メモリ、ワークエリア等として機能する。
GPU219は、表示部218への出力処理を担うほか、ディープラーニングのような機械学習の学習モデルを用いて複数回に渡り学習を行う場合の処理を行う。GPU219を利用することで、データをより多く並列処理することが可能となり、効率的な演算を行うことができる。なお、学習自体は外部装置により行われ、GPU219は、すでに生成されている学習済モデルを用いた処理のみを行うような構成であってもよい。
HDD215は外部記憶手段の一つであり、大容量メモリとして機能し、アプリケーションプログラム、サービスサーバー群のプログラム、OS、関連プログラム等を格納している。HDD215は、不揮発性の記憶手段であればHDDに限定される必要は無く、例えばフラッシュメモリであっても良い。
表示部218は表示手段であり、入力部217から入力されたコマンド等の表示先や、CPU202の演算結果の出力先となる。なお、表示部218や入力部217は、外付けの構成であってもよいし、外部装置にて提供される構成であってもよい。システムバス211は、ネットワークカメラ210内における各部位を通信可能に接続し、各部位間のデータの流れを司る。NIC216は、ネットワーク230を介して外部装置とのデータのやり取りを行う。
レンズ221は、ネットワークカメラ210の周辺における映像を撮影するためのレンズである。レンズ221を介して入力された光をイメージセンサー220で読み取り、イメージセンサー220で読み取った結果をHDD215やRAM214に格納することで、映像を記録する。ここでの映像は、動画や静止画を含む。
マイク222は、ネットワークカメラ103周辺の音や会話などの音声を取得する。マイク222、レンズ221、およびイメージセンサー220と組み合わせて動作させることで、撮像手段として機能し、録音録画を同時に行える。
なお、ネットワークカメラ210の構成は一例であり、例えば、データやプログラムの格納先は、その特徴に応じてROM213、RAM214、HDD215などで変更することも可能である。加えて、CPU212がHDD215に記憶されているプログラムに基づき処理を実行することによって、図3に示されるようなソフトウェア構成における処理が実現される。また、イメージセンサー220やマイク222はシステムバス211に直接接続されている必要は無く、例えば、USBバス等を通じて間接的にシステムバス211またはCPU212に接続されていても良い。もしくは、イメージセンサー220やマイク222が、CPU212やGPU219に直接接続される形態であっても良い。
[ソフトウェア構成]
図3は、本実施形態に係る各装置のソフトウェア構成の例を示す。各装置のソフトウェアは、例えば、各装置の記憶部に記憶されたプログラムを各装置の処理部(CPU等)が読み出して実行されることにより実現される。
クライアント端末102は、通知受信部311、およびUI表示部312を含んで構成される。通知受信部311は、ネットワークカメラ103の通知送信部305から送信された通知を受信する。UI表示部312は、通知受信部311が受信した通知に基づいて、その内容を表示部208に出力させる。UI表示部312による通知の出力方法としては、例えば、クライアント端末102の表示部208において、通知ウィンドウを最前面に表示する、またはメッセージボックスやトーストによって保育者に対して通知を行うなどの方法が挙げられる。この時、単にメッセージを表示するだけでなく、ネットワークカメラ103の通知送信部305がリアルタイムに画像や動画を、クライアント端末102の通知受信部311に送信し、その内容をUI表示部312が表示させても良い。また、ネットワークカメラ103の推定部304が出力した危険度の大きさに対して、クライアント端末102上で閾値を設定可能とし、UI表示部312に通知を表示する子供の推定危険度を調整可能としても良い。
ネットワークカメラ103は、学習データ送信部301、学習済モデル受信部302、撮影部303、推定部304、通知送信部305、および姿勢解析部306を含んで構成される。
学習データ送信部301は、撮影部303で取得した動画と音声を基に、保育者が対象となる子供に対して危険回避行動を行ったかを判定する。ここで危険回避行動とは、例えば、保育者が大声を出す、または、保育者が対象となる子供を危険物から急いで退避させるといった行動が該当する。ここでは、例えば、発声の音量、発声の期間、移動距離、移動速度に対する閾値を予め設定しておき、その閾値との比較により危険回避行動を判定してよい。学習データ送信部301は、危険回避行動があったタイミングを基準として一定時間の区間の動画を切り出す。例えば、1秒間に15フレームの動画を撮影する場合に、過去3秒の動画を切り出すとすると、危険回避行動発生時から45フレーム分前までの動画データとなる。なお、ここでの取得する範囲は特に限定するものではなく、例えば、動画データ等の記録を逐次行っておき、危険回避行動を検知したタイミングにてその前後の一定期間に記録された動画データを学習データとして設定してよい。そして、学習データとして設定されていない動画データ等は、時間経過とともに破棄してよい。学習データ送信部301は、切り出した動画データと、姿勢解析部306で得られた解析結果、および、周辺の家具家電情報を、学習データとしてデータ収集サーバー104のデータ収集/提供部322に送信する。
学習済モデル受信部302は、推定部304で使用する学習済モデルを、学習サーバー105の学習済モデル送信部334から定期的に受信する。ここでの受信は、ネットワークカメラ103側から定期的に学習サーバー105に要求してもよいし、学習サーバー105から定期的に送信されてくる学習済モデルを待ち受けるような構成であってもよい。
撮影部303は、イメージセンサー220で読み取られた結果を映像信号に変換して、HDD215に格納する。さらに、撮影部303は、推定部304へリアルタイムに映像信号を転送する。また、撮影部303は、撮影範囲内の家具・家電に関する家具家電情報を物体検出処理によって検出する。撮影部303が行う物体検出処理は、毎フレーム行う必要は無く、背景画像に一定割合変化があった場合などに物体検出処理を行ってもよい。具体的な物体認識処理の方法としては、例えば、スライディングウィンドウを用いた上でHOG(Histograms of Oriented Gradients)特徴量を検出し、機械学習を行う。または、画像情報をCNN(Convolutional Neural Network)を用いて直接機械学習を行う方法などがある。なお、物体認識を行う処理であれば他の方式でも良く、例えばパ、フォーマンスを向上させるために物体領域候補もCNNで検出しても良いし、QRコード(登録商標)などの物理的な識別子(マーカー)を家具・家電に設置しても良い。
推定部304は、撮影部303からの映像信号と、姿勢解析部306からの対象人物の位置情報と姿勢ベクトルデータと、周辺の家具家電情報を入力とする。そして、推定部304は、それらの入力と、学習サーバー105の学習済モデル送信部334から取得した学習済モデルを用いて、対象人物が危険状態か否かの推定を行う。推定部304と学習サーバー105の学習部333は、危険状態か否かを判定するために、機械学習を用いた学習および推定を行う。具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシン(SVM)などが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。
また、推定部304による処理には、CPU212に加えてGPU219を用いても良い。具体的には、学習モデルを含む推定プログラムを実行する場合に、CPU212とGPU219が協働して演算を行うことで推定を行う。なお、推定部304の処理はCPU212またはGPU219のみにより演算が行われても良い。また、後述する学習サーバー105の学習部333も同様に、GPU209を用いても良い。
通知送信部305は、推定部304で対象人物である子供が危険状態であると推定した時にクライアント端末102の通知受信部311に危険通知を行う。通知送信部305は、危険通知の情報と共に撮影部303の動画データを送信しても良い。
姿勢解析部306は、撮影部303で得られた動画データを基に撮影範囲内の人物の位置と姿勢を解析する。姿勢解析部306は、撮影部303で得られる動画データの各フレームの差分画像から移動物体を認識し、さらに検出した移動物体を解析することで人物の姿勢を推定する。姿勢解析部306による解析の結果として得られる情報は、人物の位置情報および姿勢ベクトルデータとなる。以下、これらの情報をまとめて「姿勢情報」と称する。
データ収集サーバー104は、データ記憶部321およびデータ収集/提供部322を含んで構成される。
データ記憶部321は、データ収集/提供部322を介してネットワークカメラ103の学習データ送信部301から送信された学習データを記憶する。データ収集/提供部322は、ネットワークカメラ103の学習データ送信部301から送信された学習データを受信する。また、データ収集/提供部322は、学習サーバー105からの要求に応じて、学習データ受信部332に対して学習データを送信する。
学習サーバー105は、学習済モデル記憶部331、学習データ受信部332、学習部333、および学習済モデル送信部334を含んで構成される。
学習済モデル記憶部331は、学習部333で学習した結果の学習済モデルを記憶する。学習データ受信部332は、データ収集サーバー104のデータ収集/提供部322に対して定期的に学習データを要求する。ここでの定期的とは、予め設定された時間間隔であってもよいし、データ収集サーバー104にて一定量以上のデータが収集されたタイミングであってもよい。学習データ受信部332は、データ収集/提供部322から受信した学習データを学習部333に入力し、学習部333に対し学習処理を行うように要求する。
学習部333は、受信した学習データを用いて機械学習を用いた学習を行う。学習部333は、学習手法に対応した誤差検出部と更新部(不図示)を備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算するようにしてもよい。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。更新部は、例えば、誤差逆伝搬法を用いて、結合重み付け係数等を更新する。誤差逆伝搬法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。本実施形態において、ネットワークカメラ103の学習データ送信部301が危険状態であるとして判定した場合に送信される学習データを用いて学習した場合の出力データは、危険度が高いものとして教師データが設定される。そのため、学習部333では、その教師データの値に近づくように結合重み付け係数等が更新される。
図4は、学習部333および推定部304で使用される学習モデルと、入出力の関係を示す概念図である。学習モデル403は、学習部333が用いる学習モデルに対応する。入力データ401は、ネットワークカメラ103の学習データ送信部301がデータ収集サーバー104の入力データ収集/提供部322に送信した学習データである。本実施形態に係る学習データは、保育者が対象とする子供に対して危険回避行動取ったタイミングを基準として一定期間の範囲の撮影部303で撮影された動画データを含む。更に、学習データは、姿勢解析部306で得られた子供の姿勢情報、および子供の周辺に位置する家具・家電に関する家具家電情報を含む。
出力データ402は、入力データ401を基に学習モデル403によって推定部304が推定した危険値であり、子供の危険度合いを表す。ここで危険値は、推定部304の回帰分析の結果であり、連続値を取るものとする。例えば、確実に危険な状態である場合、危険値は“1.0”を取る。一方、確実に安全な状態である場合、危険値は“0.0”と表現する。なお、クライアント端末102への通知方法によっては必ずしも連続値とする必要は無く、例えば、クライアント端末102が単に危険通知を受け取るだけであれば、危険状態か非危険状態かの2つに分類する方式であっても良い。また、家具・家電ごとに学習モデル403を用意する方法だけでなく、家具家電ごとの危険値を出力データ402としても良い。学習モデル403および学習データを用いて学習が行われることで、学習済モデルが生成され、学習サーバー105からネットワークカメラ103に提供される。
[シーケンス]
図5を用いて、本実施形態に係るシステムがどのように、子供が危険な時に保育者に対して通知を行う流れを説明する。また、学習データの収集方法および学習モデルの学習の流れについても合わせて説明する。
S501にて、ネットワークカメラ103の推定部304は、動画データ、姿勢情報、および家具家電情報を入力データとして、学習済モデルを用いて、対象の子供の危険度を推定する。ここで、ネットワークカメラ103は、すでに過去の学習データを用いて生成された学習済モデルを保持しているものとする。
S502にて、ネットワークカメラ103の通知送信部305は、S501の推定部304による危険度の推定の結果を応答として受け付け、その危険度が閾値を超えた場合に、クライアント端末102の通知受信部311にその旨の通知を送信する。ここでの通知内容としては、危険度や動画データなどを含んでよい。
S503にて、クライアント端末102は、S502にて受信した通知内容に基づいて、UI表示部312に対象の子供が危険状態であることを表示する。このとき、クライアント端末102は、単に危険状態であることを知らせるだけでなく、その危険度の値に応じてUI表示部312における通知方法を変えても良い。例えば、危険度が0.9未満0.7以上である場合、危険通知を知らせるウィンドウ、メッセージボックス、トーストまたはアイコンをUI表示部312に表示してよい。また、危険度が0.9以上である場合、さらにアラームを鳴らすことで、対象の子供が危険な状態である確度が高いことを知らせてもよい。さらに、姿勢情報と家具家電情報のうち、最も危険度の高い組み合わせの家具家電を強調させてUI表示部312に表示させても良い。UIの表示例については、図8を用いて後述する。
S504にて、クライアント端末102は、S502にて受信した通知結果に対するユーザの評価内容を、ネットワークカメラ103に送信する。ここで送信される内容としては、例えば、ネットワークカメラ103による推定結果が正しかったか否かの正当性に対するユーザの評価を返信しても良い。ネットワークカメラ103の学習データ送信部301は、このクライアント端末102からの評価結果を学習データ収集のトリガ、および教師データとすることで、学習済モデルの精度をより向上させることができる。つまり、ユーザにより推定が正しくないと指定された場合には、その旨を学習データに含めてデータ収集サーバー104に送信する。そして、その学習データを用いて学習した場合の出力データは、危険度が低いものとして教師データが設定されるようにしてよい。このステップは学習済モデルの精度をより向上させる効果が期待できるが、本実施形態において必須の構成ではない。
続いて、学習モデルの学習の流れについて説明する。S511にて、ネットワークカメラ103の学習データ送信部301は、撮影部303にて取得した動作データを解析し、危険回避行動があったか否かを判定する。そして、学習データ送信部301は、危険回避行動があったことを検知した場合には、その危険回避行動が行われたタイミングを基準として一定期間の動画データを取得する。
S512にて、ネットワークカメラ103の学習データ送信部301は、危険回避行動があったタイミングを基準とした一定期間の動画データ、姿勢情報、および家具家電情報を学習データとしてデータ収集サーバー104のデータ収集/提供部322に送信する。
S513にて、データ収集サーバー104は、S512にて受信した学習データを、データ記憶部321に記憶する。
S514にて、学習サーバー105の学習データ受信部332は、定期的にデータ収集サーバー104のデータ収集/提供部322から未学習の学習データを取得する。ここでの取得タイミングは、学習サーバー105が一定期間ごとにデータ収集サーバー104に学習データを要求してもよい。または、データ収集サーバー104が一定期間ごとや、一定量のデータを収集したタイミングにて送信してもよい。なお、データ収集サーバー104は、学習サーバー105に送信済みの学習データは破棄してもよいし、送信済みであること記録した上で保持し続けてもよい。学習データ受信部332は、取得した学習データを用いて学習を行うように学習サーバー105の学習部333に依頼する。
S515にて、学習サーバー105の学習部333は、S514にてデータ収集サーバー104から取得した学習データを用いて学習を行う。
S516にて、学習サーバー105の学習済モデル送信部334は、学習部333で学習した結果となる学習済モデルをネットワークカメラ103の学習済モデル受信部302に送信する。学習済モデル受信部302は、推定部304が使用する学習済モデルを、受信した学習済モデルに更新する。更新前の学習済モデルは、履歴として保持してもよいし、破棄してもよい。
[処理フロー]
(学習処理)
図6は、学習フェーズにおける学習の詳細な流れを示すフローチャートである。図6(a)は、ネットワークカメラ103の学習データ送信部301による処理のフローチャートである。図6(a)の処理は、ネットワークカメラ103にて定期的に繰り返される。
S601にて、学習データ送信部301は、撮影部303から得られた動画データ、または、マイク222から得られた音声データから、保育者が対象とする子供に対して危険回避行動を行ったかを判定する。ここで危険回避行動とは、例えば保育者が大声を出す、対象となる子供が大声で一定時間泣き続ける、または、保育者が対象となる子供を危険物から急いで退避させるといった行動が挙げられる。さらに、子供を危険物から急いで退避させるだけでなく、危険物を子供から急いで遠ざける行動を危険回避行動として検出してもよい。危険回避行動を検出した場合(S601にてYES)S602へ進み、検出しなかった場合(S601にてNO)S604に進む。
S602にて、学習データ送信部301は、危険回避行動を検出したタイミングを基準として、前後一定時間分の動画データのフレームをHDD215から取得する。
S603にて、学習データ送信部301は、S602で取得した動画データ、危険回避行動を検出したタイミングの姿勢データ、および家具家電情報を、学習データとしてデータ収集サーバー104のデータ収集/提供部322に送信する。姿勢データは、危険回避行動を検出したタイミングの瞬時値が送信されるが、動画データと同様に一定時間のフレーム分をデータ収集/提供部322に送信しても良い。そして、本処理フローを終了する。
S604にて、学習済モデル受信部302は、学習サーバー105の学習済モデル送信部334から学習済モデルを受信したか否かを判定する。学習済データを受信したと判定した場合(S604にてYES)S605へ進み、受信していないと判定した場合(S604にてNO)本処理フローを終了する。
S605にて、学習済モデル受信部302は、受信した学習済モデルを、推定部304が使用できるようにHDD215またはRAM214に記憶して更新する。更新前の学習済モデルは、履歴として保持してもよいし、破棄してもよい。
図6(b)は、学習サーバー105による学習処理のフローチャートである。
S621にて、学習データ受信部332は、データ収集サーバー104のデータ収集/提供部322から学習データを取得する。
S622にて、学習部333は、S621にて受信した学習データ(動画データ、姿勢情報、および家具家電情報)を入力データとし、危険な状態であったか否かを示す情報(危険度)を教師データとする。ここで表1に入力データおよび教師データとして使用するデータの具体例を示す。
学習データIDは、入力データと教師データの組を表現するID(識別情報)である。IDの付与規則は特に限定するものではなく、入力データおよび教師データとの組を一意に特定できればよい。本実施形態では、上述したように、動画データ、姿勢データおよび家具家電情報を入力データとする。動画データは、ネットワークカメラ103の学習データ送信部301が危険回避行動を検出したタイミングを基準とした一定時間内の動画データである。姿勢データは、同タイミングにおいて、姿勢解析部306が解析した姿勢情報である。本実施形態において、姿勢情報は、人の関節とボーン位置を示す数値のベクトルで表される。家具家電情報は、対象となる子供に最も近い家具家電の距離を“1.0”とし、その他の家具家電の距離を、最も近い家具家電に対して相対的に表す。例えば、家電Aが子供に対して距離0.5mの位置にあった場合、家電Bが子供に対して距離2mの位置にあったとすると、家電Aとの距離は“1.0”で表現され、家電Bとの距離は“4.0”と表現される。なお、距離に限定するものではなく、人物と家具・家電との位置関係に関する情報を含めてもよい。
教師データとしては、危険度が用いられる。危険度については図4を用いて説明を行ったため、詳細は省略するが、教師データとしては危険回避行動があった場合に危険度の値を“1.0”とし、危険回避行動の無い定常的な学習データの場合は危険度の値を“0.0”としている。例えば、図5のS504にてユーザにより推定が正しくないと評価された場合に対応する学習データに対しては、教師データ(危険度)を“0.0”としてよい。一方、ユーザにより推定が正しいと評価された場合やS504における評価が行われない場合には教師データ(危険度)を“1.0”としてよい。
S623にて、学習部333は、S622で設定した情報を用いて学習を行う。上述したように、学習手法は特に限定するものでは無い。
S624にて、学習部333は、全ての学習データを用いた学習が完了したか否かを判定する。未処理の学習データが残っていると判定された場合(S624にてNO)S622へ戻り、未処理の学習データに対して処理を繰り返す。全ての学習データを用いた学習が完了したと判定した場合(S624にてYES)S625へ進む。
S625にて、学習済モデル送信部334は、ネットワークカメラ103の学習済モデル受信部302に対して、新たな学習済モデルを送信する。そして、本処理フローを終了する。
(推定処理)
図7は、ネットワークカメラ103による推定処理の詳細な流れを示すフローチャートである。本処理フローは、ネットワークカメラ103により定常的に実行される。
S701にて、ネットワークカメラ103の撮影部303は、撮影処理を行い、動画データを取得する。この時、推定部304が必要とする動画データとして、一定期間の撮影データを必要とするため、HDD215またはRAM214に撮影した動画データが適時記憶される。
S702にて、姿勢解析部306は、S701にて撮影された動画データを基に姿勢解析を行う。姿勢解析部306の姿勢解析の結果、対象となる子供の位置と姿勢ベクトルを得る。
S703にて、推定部304は、S701、S702にて得られた姿勢に関する情報、および事前に取得した家具家電情報を入力データとして、学習サーバー105の学習済モデル送信部334から受信した学習済モデルを用いて推定を行う。推定部304は、推定の結果、対象となる子供が危険な状態かを表す危険度を出力する。
S704にて、S703で推定した危険度が閾値以上であるか否かを判定する。危険度が閾値以上であると判定された場合(S704にてYES)S705へ進み、閾値未満であると判定された場合(S704にてNO)S701へ戻り、処理を繰り返す。ここでの閾値は、事前に規定され、HDD215等の記憶部に保持されていてもよいし、ユーザー(例えば、保育者)が動的に設定可能であっても良い。
S705にて、通知送信部305は、クライアント端末102の通知受信部311に対して対象となる子供が危険な状態にあるという推定結果を送信する。ここで通知送信部305がクライアント端末102に送るデータは、S703の推定の結果得られた危険度、リアルタイムの動画データ、および危険に陥った原因と考えられる家具・家電の領域情報が含まれてよい。本実施形態において、家具家電の領域情報は、S703の危険度推定時に得られる、最も関連度の高い(距離の近い)家具家電の位置を示す領域情報とする。
図8は、クライアント端末102において危険通知を行う際のUI表示の例を示す。図8は、クライアント端末102のUI表示部312にて表示される画面の例である。
図8の例では、子供801の近くにコンロ803と乾電池802が表示されている。さらに、子供801が手を上に伸ばす姿勢を取っている。これらは、S705に送信されたリアルタイムの動画データを基にUI表示部312が表示している。例えば、図8では、危険度の推定の結果動画データや姿勢情報、および家具家電情報から、危険となっている原因がコンロ803である可能性が最も高いと推定された場合、コンロ803の部分を領域情報として強調して表示している。一方、子供がしゃがむような姿勢を取った場合、コンロ803の部分ではなく乾電池802の部分を領域情報として強調して表示するといった結果になる場合もある。この強調処理によって、保育者に何が危険の原因かを伝えることができる。なお、図8は表示の一例であり、実際には学習結果に基づいて、強調される家具家電が決定されてよい。
以上、本実施形態により、保育の必要な子供が危険状態にあるか否かを保育者に通知できる。更には、危険状態を判定するための学習済モデルを生成するために用いられる学習データを容易に収集することができる。そして、このような学習データを用いて学習が行われた学習済モデルを共有することにより、他の保育者の知見を活用でき、その結果、危険状態の推定精度を向上することも可能となる。
<第2の実施形態>
第1の実施形態では、危険度が閾値以上の際の通知先はクライアント端末102を想定した形態について説明した。近年、様々な家電がインターネットに接続され、インターネット経由で各種センサ値を収集、または外部から制御可能なものが増えてきている。このようなインターネット経由で情報の取得、または制御を行うことをIoT(Internet of Things)と呼ばれている。また、IoTに対応した機器についてIoT対応機器と呼ぶ。本願発明の第2の実施形態として、通知先としてIoT対応機器を含め、危険度に応じてIoT対応機器を制御する形態について説明する。なお、第1の実施形態と重複する構成については説明を省略し、差分のみを説明する。
図9を用いて本実施形態のシステムの動きについて説明する。図9に示す処理シーケンスのうち、第1の実施形態と同じ処理は同じ参照番号を付している。本実施形態では、IoT対応機器900がシステム内に含まれる。IoT対応機器900の種類は特に限定されるものではない。また、複数のIoT対応機器900が含まれてよく、その通知先に関する情報がネットワークカメラ103にて管理されているものとする。
第1の実施形態にて述べたように、S502にて、クライアント端末102に危険通知を行う。このとき、クライアント端末102に対して、危険の原因となった可能性の最も高い家具・家電の情報を送信する。ここで危険の原因と推定された家具・家電がIoT対応機器900であるものとし、IoT対応機器900は、緊急停止機能を備えているものとする。
S901にて、ネットワークカメラ103の通知送信部305は、S502におけるクライアント端末102に対する通知を行うとともに、対象のIoT対応機器900に対して緊急停止指示を出す。緊急停止指示により、危険状態が解消するようにIoT対応機器900の動作を制御させる。ここでの対象のIoT対応機器900は、最も関連度の高い(距離の近い)家具・家電としてのIoT対応機器が相当する。また、ネットワークカメラ103からIoT対応機器900に対して緊急停止指示を直接送信する構成に限定するものではない。例えば、IoT対応機器900を管理するインターネット100上のサーバー(不図示)に対して対象のIoT対応機器900への緊急停止指示を送信してもよい。また、IoT対応機器900の撮影範囲内における位置の把握は、撮影部303が行う物体検出処理により行うことができる。
以上、本実施形態により、保育の必要な子供が危険な状態にあり、その原因と思われる家具家電がIoT対応機器である場合、緊急停止をリモートで自動的に指示することで、怪我などを未然に防止する可能性を高めることが可能となる。
<その他の実施形態>
本発明は上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピューターにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、MPU、GPU、ASIC、FPGA、DSP、DFP、NPU)によっても実現可能である。
100…インターネット、101…ローカルネットワーク、102…クライアント端末、103…ネットワークカメラ、104…データ収集サーバー、105…学習サーバー

Claims (12)

  1. 撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定手段と、
    新たな動画データを取得して前記推定手段に提供し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知を行う通知手段と
    を有することを特徴とする情報処理装置。
  2. 前記撮像手段から動画データを取得する取得手段と、
    前記動画データに含まれる人物および物体を特定する特定手段と、
    前記特定手段にて特定された人物および物体の情報に基づいて、前記動画データに含まれる人物による所定の行動を検出する検出手段と、
    前記検出手段にて前記所定の行動を検出した場合に、前記動画データと前記特定手段にて特定された人物および物体の情報とを学習データとして生成する生成手段と
    を有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記所定の行動は、人物が所定の音量よりも大きな発声を行う、人物が所定の期間よりも長い発声を行う、または、人物が他の人物を物体から一定の距離よりも離れた位置に移動させる、ことを含むことを特徴とする請求項2に記載の情報処理装置。
  4. 前記生成手段にて生成された学習データにおける前記動画データを用いて機械学習を行う場合の教師データの値は、危険な状態である可能性が高いものとして設定されることを特徴とする請求項2または3に記載の情報処理装置。
  5. 前記特定手段は、前記動画データに含まれる人物の姿勢、および、前記動画データに含まれる人物と物体との距離を特定することを特徴とする請求項2乃至4のいずれか一項に記載の情報処理装置。
  6. 前記生成手段にて生成された学習データを外部装置に提供する提供手段と、
    前記提供手段にて提供された学習データを用いて機械学習により生成された学習済モデルを受信する受信手段と
    を更に有し、
    前記推定手段は、前記受信手段にて受信した学習済モデルにて、保持している学習済モデルを更新することを特徴とする請求項2乃至5のいずれか一項に記載の情報処理装置。
  7. 前記通知手段による通知先から、前記推定手段にて前記危険な状態であると判定した結果に対する正当性の評価を受け付ける手段を更に有し、
    前記正当性の評価に基づいて、前記学習データにおける前記動画データを用いて機械学習を行う場合の教師データの値が設定されることを特徴とする請求項1乃至6のいずれか一項に記載の情報処理装置。
  8. 前記通知手段による通知先は、クライアント端末であり、
    前記通知手段は、前記クライアント端末において、前記動画データおよび前記所定の状態の原因となる物体の情報を表示するように通知を行うことを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。
  9. 前記通知手段による通知先は、IoT(Internet of Things)対応機器であり、
    前記通知手段は、前記IoT対応機器に対し、危険な状態が解消するように動作の指示を送信することを特徴とする請求項1乃至8のいずれか一項に記載の情報処理装置。
  10. 前記情報処理装置は、前記撮像手段を備えるネットワークカメラであることを特徴とする請求項1乃至9のいずれか一項に記載の情報処理装置。
  11. 撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定工程と、
    新たな動画データを取得した際に前記推定工程を実施し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知を行う通知工程と
    を有することを特徴とする情報処理方法。
  12. コンピューターを、
    撮像手段から取得した動画データに含まれる人物および物体の情報を入力データとし、前記動画データに含まれる物体を原因とした、前記動画データに含まれる人物が危険な状態であることを示す情報を教師データとして機械学習することで生成された学習済みモデルを利用し、危険な状態を推定する推定手段、
    新たな動画データを取得して前記推定手段に提供し、その応答として前記新たな動画データに含まれる人物が危険な状態であること示す情報を取得した場合に通知する通知手段
    として機能させるためのプログラム。
JP2019153191A 2019-08-23 2019-08-23 情報処理装置、情報処理方法、及びプログラム Pending JP2021033646A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019153191A JP2021033646A (ja) 2019-08-23 2019-08-23 情報処理装置、情報処理方法、及びプログラム
US16/988,981 US20210056826A1 (en) 2019-08-23 2020-08-10 Information processing apparatus, information processing method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019153191A JP2021033646A (ja) 2019-08-23 2019-08-23 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2021033646A true JP2021033646A (ja) 2021-03-01

Family

ID=74647038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019153191A Pending JP2021033646A (ja) 2019-08-23 2019-08-23 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US20210056826A1 (ja)
JP (1) JP2021033646A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102379275B1 (ko) * 2021-11-16 2022-03-29 퀀텀테크엔시큐 주식회사 영상기반 원격 홈 케어 시스템
JP2022182003A (ja) * 2021-05-27 2022-12-08 Necパーソナルコンピュータ株式会社 行動予測支援装置及び行動予測支援方法並びに行動予測システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11361537B2 (en) * 2020-06-15 2022-06-14 The Boeing Company Enhanced collection of training data for machine learning to improve worksite safety and operations

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022182003A (ja) * 2021-05-27 2022-12-08 Necパーソナルコンピュータ株式会社 行動予測支援装置及び行動予測支援方法並びに行動予測システム
JP7331041B2 (ja) 2021-05-27 2023-08-22 Necパーソナルコンピュータ株式会社 行動予測支援装置及び行動予測支援方法並びに行動予測システム
KR102379275B1 (ko) * 2021-11-16 2022-03-29 퀀텀테크엔시큐 주식회사 영상기반 원격 홈 케어 시스템
WO2023090547A1 (ko) * 2021-11-16 2023-05-25 퀀텀테크엔시큐 주식회사 영상기반 원격 홈 케어 시스템

Also Published As

Publication number Publication date
US20210056826A1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
US11710075B2 (en) Hazard recognition
US9984590B2 (en) Identifying a change in a home environment
JP2021033646A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6164076B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7162412B2 (ja) 検知認識システム
US10846538B2 (en) Image recognition system and image recognition method to estimate occurrence of an event
JPWO2016199749A1 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
WO2016088413A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6385470B2 (ja) 対象の健康状態を検出するデバイス、システム及びコンピュータプログラム
JP2020027496A (ja) 監視装置、監視システム、及びプログラム
US20240236277A1 (en) Patient Room Real-Time Monitoring and Alert System
CN107112018A (zh) 信息处理装置、信息处理方法和程序
US20180322334A1 (en) Person Monitoring Device And Method, And Person Monitoring System
Amir et al. Real-time threshold-based fall detection system using wearable IoT
JP2020091658A (ja) 撮像情報管理システム、撮像情報管理システムの制御方法及び撮像情報管理プログラム
JP2015011404A (ja) 動作認識処理装置
JP2016038686A (ja) 監視装置及びプログラム
JP2020013185A (ja) 見守り装置および見守り装置の制御プログラム
JPWO2016043093A1 (ja) センサ管理システム、センサ管理装置、センサ装置、センサ管理方法およびプログラム
Taghvaei et al. HMM-based state classification of a user with a walking support system using visual PCA features
CN110619734A (zh) 信息推送方法和装置
Braun et al. Low-cost indoor localization using cameras–evaluating ambitrack and its applications in ambient assisted living
JP2020042397A (ja) 評価システムおよびプログラム
EP4009297A1 (en) Information processing device, method, and program
JP2014142696A (ja) 解析処理制御システム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113