JP2022153716A - 情報処理システム及び3次元データ生成方法 - Google Patents

情報処理システム及び3次元データ生成方法 Download PDF

Info

Publication number
JP2022153716A
JP2022153716A JP2021056388A JP2021056388A JP2022153716A JP 2022153716 A JP2022153716 A JP 2022153716A JP 2021056388 A JP2021056388 A JP 2021056388A JP 2021056388 A JP2021056388 A JP 2021056388A JP 2022153716 A JP2022153716 A JP 2022153716A
Authority
JP
Japan
Prior art keywords
subject
information processing
dimensional data
state estimation
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021056388A
Other languages
English (en)
Inventor
真一郎 大田
Shinichiro Ota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
Original Assignee
Fujita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp filed Critical Fujita Corp
Priority to JP2021056388A priority Critical patent/JP2022153716A/ja
Publication of JP2022153716A publication Critical patent/JP2022153716A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】対象者に異常が発生したときの原因について対象者を中心に分析するのに適した3次元データを生成し対象者の動きを再現する。【解決手段】対象者に異常が発生したときの状況を再現する異常状況3次元データを生成する情報処理システムである。情報処理システムは、撮像装置と、状態推定装置と、情報処理装置と、を備え、情報処理装置は、第1の生成部と、第2の生成部と、統合部と、を含み、対象者の状態を推定する状態推定装置により対象者に異常が発生したことが検知されたとき、第1の生成部は、撮像装置により撮像された画像に基づいて、対象者の周囲の環境を示す環境3次元データを生成し、第2の生成部は、撮像装置により撮像された画像に基づいて、対象者の動作を示す動作3次元データを生成する。統合部は、環境3次元データと動作3次元データとを統合して異常状況3次元データを生成する。【選択図】図1

Description

本発明は、建設現場や工場などで作業を行う作業者や介護施設で生活する要介護者などの対象者に転倒などの異常が発生したときの状況を示す3次元データを生成する技術に関する。
対象者にけがや事故などに代表される異常が発生した際、その原因究明には異常が発生した現場の状況を人が直接見て判断するのが一般的である。
また、監視カメラが設置されていた場合でも、そのカメラで撮影された部分的映像記録のみを人が見て判断せざるを得ない。
しかしながら、対象者に発生した異常の原因は単純ではなく、様々な要因が絡み合って引き起こされることが多い。そのため、現場の状態を見ただけでは異常が発生した原因の推測または判断が難しい場合が多い。
また、対象者に異常が発生した現場の状況が保全されていないことも多いため、詳細な分析が困難なケースもある。
加えて、監視カメラの設置場所によっては、必ずしも事故発生時の様子を記録できるわけではなく、部分的な記録にとどまることが多い。
また、関連する技術として、特許文献1のように、任意の視点から見たときの異常発生状況動画を生成するものがある。
特開2007-226515号公報
本発明の目的は、対象者に異常が発生した原因を調査することが難しかった。
本発明の一つの態様は、対象者に異常が発生したときの状況を再現する異常状況3次元データを生成する情報処理システムである。情報処理システムは、撮像装置と、状態推定装置と、情報処理装置と、を備え、情報処理装置は、第1の生成部と、第2の生成部と、統合部と、を含み、対象者の状態を推定する状態推定装置により対象者に異常が発生したことが検知されたとき、第1の生成部は、撮像装置により撮像された画像に基づいて、対象者の周囲の環境を示す環境3次元データを生成し、第2の生成部は、撮像装置により撮像された画像に基づいて、対象者の動作を示す動作3次元データを生成する。統合部は、環境3次元データと動作3次元データとを統合して異常状況3次元データを生成する。
本発明によれば、対象者に異常が発生したときの原因について対象者を中心に分析するのに適した3次元データを生成し再現することができる。
実施形態の情報処理システムの構成図である。 状態推定装置、撮像装置、環境3次元データ、動作3次元データ、及び異常状況3次元データの一例を示す図である。 状態推定装置の動作を示すフローチャートである。 撮像装置の動作を示すフローチャートである。 情報処理装置の動作を示すフローチャートである。 拡張現実データ及び仮想現実データの一例を示す図である。 情報処理装置を実現するためのコンピュータの一例を示す図である。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。
図1は、実施形態の情報処理システムの構成図である。図1に示す情報処理システムは、状態推定装置1と、撮像装置2と、情報処理装置3と、表示装置4とを含む。
状態推定装置1は、建設現場や工場などで作業を行う作業者や介護施設で生活する要介護者などの対象者の体に取り付けられる。例えば、状態推定装置1は、図2(a)に示すように、対象者が被るヘルメットに搭載される。なお、状態推定装置1の取り付け位置は、後述するセンサ値を適正に取得することが可能であれば、特に限定されない。
また、図1に示す状態推定装置1は、ジャイロセンサや加速度センサなど、対象者に装着され動作に応じて変化するセンサ値を出力するセンサ11と、メモリ12(第1のメモリ)とを備える。センサ11から出力されるセンサ値は、定期的にメモリ12に記憶させることができる。
また、状態推定装置1は、センサ11から出力されるセンサ値に基づいて、対象者の状態を推定する。例えば、状態推定装置1は、センサ11から出力されるセンサ値が閾値以下である場合、対象者が正常状態(対象者が歩行している状態など)であると判断する。また、状態推定装置1は、センサ11から出力されるセンサ値が閾値より大きくなると、対象者が異常状態(対象者が転倒している状態など)であると判断する。なお、センサ11から出力されるセンサ値は、対象者に異常が発生したことを検知する場合に使用されるだけでなく、後述するように、対象者の動作(姿勢)を推定する場合にも使用されてもよい。
また、状態推定装置1は、対象者に異常が発生したことを検知すると、対象者に異常が発生した時刻を示す異常検知時間(検知時刻)を有線または無線により撮像装置2に送る。例えば、状態推定装置1は、2021年3月31日12時00分00秒において、対象者に異常が発生したことを検知すると、異常検知時間として「2021年3月31日12時00分00秒」を撮像装置2に送る。なお、状態推定装置1は、対象者に異常が発生したことを検知すると、異常検知時間を基準とする所定期間Tにおいてセンサ11から出力されたセンサ値をメモリ12から読み出し、その読み出したセンサ値を情報処理装置3に送信するように構成してもよい。例えば、状態推定装置1は、2021年3月31日12時00分00秒において、対象者に異常が発生したことを検知すると、2021年3月31日11時59分30秒から2021年3月31日12時00分30秒までの1分間においてセンサ11から出力された複数のセンサ値をメモリ12から読み出し、その読み出した各センサ値を情報処理装置3に送信する。このように、所定期間Tは、異常検知時間の前後の任意の期間としてもよいし、異常検知時間より後の任意の期間としてもよいし、異常検知時間より前の任意の期間としてもよい。
ここで、図3は、状態推定装置1の動作の一例を示すフローチャートである。なお、図3のフローチャートが示す一連の動作は定期的に状態推定装置1により実行されるものとする。
まず、状態推定装置1は、センサ11から出力されるセンサ値を取得する(ステップS11)。
次に、状態推定装置1は、ステップS11により取得されたセンサ値により、対象者が正常状態であると判断すると(ステップS12:No)、今回の状態推定処理を終了する。
一方、状態推定装置1は、ステップS11により取得されたセンサ値により、対象者に異常が発生したことを検知すると(ステップS12:Yes)、異常検知時間を撮像装置2に送る(ステップS13)。
図1に示す撮像装置2は、対象者の体に装着される。例えば、撮像装置2は、図2(a)に示すように、対象者が被るヘルメットに取り付けられる。なお、撮像装置2の取り付け位置は、後述する画像を適正に撮像することが可能であれば、特に限定されない。また、状態推定装置1、撮像装置2、及び表示装置4がそれぞれ有する機能のうちの少なくとも1つの機能が情報処理装置3に含まれるように構成してもよい。例えば、状態推定装置1と撮像装置2と情報処理装置3とを統合し実施形態の情報処理装置として構成してもよい。この場合、その統合された情報処理装置が対象者の体に取り付けられるものとする。また、撮像装置2が状態推定装置1に含まれることで、対象者は複数の装置を装着しなくてよくなり対象者の負担は軽減することができる。
また、図1に示す撮像装置2は、カメラ21と、メモリ22(第2のメモリ)とを備える。なお、カメラ21は、単眼カメラや360度カメラなどであって、対象者の視界方向の画像(静止画像または動画像)または対象者の周囲の画像(静止画像または動画像)を定期的に撮像し、その撮像した画像をメモリ22に記憶させる。
また、撮像装置2は、異常検知時間を状態推定装置1から受け取ると、異常検知時間を基準とする所定期間Tにおいてカメラ21により撮像された画像をメモリ22から読み出し、その読み出した画像を情報処理装置3に送信する。例えば、撮像装置2は、異常検知時間として「2021年3月31日12時00分00秒」を受け取ると、2021年3月31日11時59分30秒から2021年3月31日12時00分30秒までの1分間においてカメラ21により撮像された画像(1分間における複数の静止画像または1分間における動画像)をメモリ22から読み出し、その読み出した画像を情報処理装置3に送信する。なお、カメラ21により撮像された画像は、メモリカードなどの記録媒体を介して撮像装置2から情報処理装置3に移行されてもよい。
ここで、図4は、撮像装置2の動作の一例を示すフローチャートである。なお、撮像装置2は、カメラ21により画像を繰り返し撮像させメモリ22に記憶させているものとする。
まず、撮像装置2は、異常検知時間を受け取ったと判断し(ステップS21:Yes)、かつ、少なくとも所定期間T分の画像(複数の静止画像または動画像)をメモリ22に記憶させていると判断すると(ステップS22:Yes)、その所定期間T分の画像をメモリ22から読み出す(ステップS23)。
次に、撮像装置2は、ステップS23で読み出した画像を情報処理装置3に送信する(ステップS24)。
図1に示す情報処理装置3は、第1の生成部31と、第2の生成部32と、統合部33と、変換部34とを備える。
第1の生成部31は、撮像装置2からの画像に基づいて、対象者に異常が発生したときの対象者の周囲の環境を示す環境3次元データを生成する。例えば、対象者が転倒したときに一連の画像から対象者の周囲に存在する「床」、「柱」、「階段」、及び「パイプ」を、第1の生成部31は、図2(b)に示すように、任意の3次元空間において「床」、「柱」、「階段」、及び「パイプ」にそれぞれ対応する環境3次元データを生成する。なお、生成される環境3次元データは、所定期間Tにおける時系列に沿って生成することができる。
図1に示す第2の生成部32は、撮像装置2からの画像に基づいて、対象者に異常が発生したときの対象者の動作(姿勢)を示す動作3次元データを生成する。例えば、対象者が転倒した場合、第2の生成部32は、図2(c)に示すように、任意の3次元空間において対象者が転倒しているときの対象者の骨格やその骨格の軌跡を示す動作3次元データを所定期間Tにおける時系列毎に生成する。なお、対象者の骨格やその骨格の軌跡を示す動作3次元データを作成するときに、状態推定装置で検出したセンサ値を用いるとより正確に動作3次元データを生成することができる。例えばジャイロセンサによって検出されるセンサ値を用いることで、対象者が単に転んだだけなのか、もしくは何かを避けようとして回転しながらひっくり返ったのかを判断することができる。さらに映像を加えることで、倒れたときの視線の動きなども検出することができる。対象者が正常な状態であれば、受け身を取ろうとするが、過労もしくは体調不良の場合は全体的に動きが緩慢になるため受け身を取るための視線の変化は少なくなる。
図1に示す統合部33は、環境3次元データと動作3次元データとを統合して、異常状況3次元データを生成する。例えば、統合部33は、図2(b)に示す「床」、「柱」、「階段」、及び「パイプ」をそれぞれ示す環境3次元データと、図2(c)に示す対象者の骨格や軌跡を示す動作3次元データとを統合して、図2(d)に示すように、対象者の周囲に「床」、「柱」、「階段」、及び「パイプ」が存在する任意の3次元空間において対象者が転倒するまでの状況を再現する異常状況3次元データを生成する。
図1に示す変換部34は、異常状況3次元データをAR(Augmented Reality)技術を用いて表示装置4に表示するための拡張現実データまたはVR(Virtual Reality)技術を用いて表示装置4に表示するための仮想現実データに変換する。
図5は、情報処理装置3の動作の一例を示すフローチャートである。
まず、情報処理装置3の第1の生成部31は、撮像装置2からの画像に基づいて、環境3次元データを生成する(ステップS31)。例えば、第1の生成部31は、所定期間Tにおける時系列毎に対応する各画像に対して、SfM(Structure from Motion)解析及びMVS(Multi-View Stereo)解析を行い、環境3次元データを生成する。すなわち、まず、第1の生成部31は、SfM解析として、画像内の特徴点に基づいて撮像装置2の位置を算出するとともに、三角測量の技術を用いて撮像装置2の位置と特徴点とから任意の3次元空間において低密度点群データを生成する。次に、第1の生成部31は、MVS解析として、低密度点群データから高密度点群データを生成した後、高密度点群データからテクスチャ付きのポリゴンモデル(環境3次元データ)を生成する。なお、環境3次元データの生成方法は、画像から環境3次元データを生成することが可能であれば、SfM解析及びMVS解析を用いた方法に限定されない。また、第1の生成部31は、建設現場や工場や介護施設などに設置されている固定の監視カメラなど、撮像装置2以外の撮像装置により撮像された画像をさらに用いて、環境3次元データを生成するように構成してもよい。
次に、情報処理装置3の第2の生成部32は、撮像装置2からの画像に基づいて、動作3次元データを生成する(ステップS32)。例えば、第2の生成部32は、所定期間Tにおける時系列毎に対応する各画像に対して、ディープラーニングによる姿勢推定を行い、動作3次元データを生成する。
すなわち、第2の生成部32は、ディープラーニングによる姿勢推定として、画像内の対象者の体の一部の動きと、画像内の対象者以外の景色の変化と、対象者の骨格と、対象者の骨格の軌跡との相関関係についての学習結果により、対象者の骨格や骨格の軌跡を推定する。なお、第2の生成部32は、状態推定装置1のセンサ11から出力されるセンサ値をさらに用いて、対象者の骨格や骨格の軌跡を推定してもよい。もしくは、第2の生成部32は、ディープラーニングによる姿勢推定として、画像内の対象者の体の一部の動きと、画像内の対象者以外の景色の変化と、センサ値の変化と、対象者の骨格と、対象者の骨格の軌跡との相関関係についての学習結果により、対象者の骨格や骨格の軌跡を推定すると言い換えることができる。
このように対象者の骨格や骨格の軌跡を推定することにより、単なる転倒だけでなく、「転倒前に対象者が補強材などの障害物を避けていたこと」、「転倒前に対象者が手に持っていた物を落としていたこと」、「対象者が真後ろに転倒していたこと」、「対象者が受け身を取ろうとして回転しながら転倒していたこと」などを動作3次元データに反映することができる。なお、動作3次元データの生成方法は、画像やセンサ値から動作3次元データを生成することが可能であれば、ディープラーニングを用いた方法に限定されない。また、ステップS31とステップS32の順序を入れ替えてもよい。
次に、情報処理装置3の統合部33は、ステップS31で生成した環境3次元データと、ステップS32で生成した動作3次元データとを統合して異常状況3次元データを生成する(ステップS33)。
そして、情報処理装置3の変換部34は、異常状況3次元データを拡張現実データまたは仮想現実データに変換する(ステップS34)。
図1に示す表示装置4は、スマートフォンやタブレット端末などのモバイル機器またはパーソナルコンピュータまたはヘッドマウントディスプレイなどにより構成され、拡張現実データまたは仮想現実データを表示する。例えば、表示装置4としてのタブレット端末のディスプレイに拡張現実データを表示する場合、表示装置4は、図6(a)に示すように、表示装置4に搭載される不図示のカメラにより撮像される画像(異常発生後の現場の状況を示す画像)と、拡張現実データ(異常発生時の現場の状況を示す画像)とを重ね合わせてディスプレイに表示させる。例えば、異常発生後の現場の状況を示す画像では、図6(a)と異なり「パイプ」が示されていないものとする。また、異常発生時の現場の状況を再現する画像には、「パイプ」が示されている。これにより、「階段と床との隙間に対象者がつまずくことで転倒したのではなく、対象者が床に落ちていたパイプを踏んで転倒したこと」を再現することができる。なお、「異常発生時に階段に手摺が存在していれば転倒を防止できたかもしれないこと」など、異常の発生原因について対象者を中心に多角的または複合的に分析及び検証することができる。
パーソナルコンピュータのディスプレイを仮想現実データを表示する表示装置4とした場合、表示装置4は、図6(b)に示すように、BIM(Building Informatin Modeling)データ(異常発生前の現場の状況を示す画像)と、仮想現実データ(異常発生時の現場の状況を示す画像)とを重ね合わせて表示装置4に表示させることができる。図6(b)に示す例では、異常発生前の現場の状況を示す画像に「手摺」が示され、「補強材」が示されていないものとする。また、異常発生時の現場の状況を示す画像には「補強材」が示されているものとする。これにより、「BIMデータに含まれていない補強材が異常発生時に存在しており、その補強材が作業動線を危険なものにしていたかもしれないこと」や「手摺が存在していれば転倒を防止できたかもしれないこと」など、異常の発生原因について対象者を中心に多角的または複合的に分析及び検証することができる。なお、表示装置4は、拡張現実データまたは仮想現実データを表示することが可能であれば、特に限定されない。
実施形態の情報処理装置3によれば、異常状況3次元データによって、異常発生時の対象者の周囲の環境や対象者の動きを再現することができる。これにより、異常状況3次元データを確認して異常原因を分析する場合、異常発生後の現場や異常発生時の記録動画を確認して異常原因を分析する場合に比べて、どのような環境において何が原因でどのような異常が発生したのかなどをより詳しく分析することができる。すなわち、実施形態の情報処理システムによれば、対象者に異常が発生したときの原因について対象者を中心に多角的に分析することに適した異常状況3次元データを生成することができる。
また、実施形態の情報処理装置3によれば、異常状況3次元データによって、異常発生時の対象者の周囲の環境を再現することができるため、異常発生後の現場の環境が保全されていない場合であっても、異常発生時の状況を詳細に分析することができる。
また、実施形態の情報処理装置3によれば、対象者の体に取り付けられた撮像装置2により撮像される画像に基づいて生成される異常状況3次元データにより異常発生時の状況を再現することができるため、監視カメラなど死角が生じやすい固定カメラにより撮像される画像により異常発生時の状況を確認する場合に比べて、部分的な記録画像により異常原因を分析することを回避することができ、異常発生時の状況を詳細に分析することができる。
図7は、情報処理装置3を実現するためのコンピュータの一例を示す図である。
図7に示すコンピュータ70は、プロセッサ71と、メモリ72と、記憶装置73と、読取装置74と、通信インタフェース75と、入出力インタフェース76とを備える。なお、プロセッサ71、メモリ72、記憶装置73、読取装置74、通信インタフェース75、及び入出力インタフェース76は、バス77を介して互いに接続されている。
プロセッサ71は、シングルプロセッサまたはマルチプロセッサまたはマルチコアなどにより構成される。また、プロセッサ71は、記憶装置73に格納されているプログラムを読み出し、メモリ72を利用して、図5に示すフローチャートの手順を記述したプログラムを実行することにより、第1の生成部31、第2の生成部32、統合部33、及び変換部34の一部または全部の機能を提供する。
メモリ72は、半導体メモリなどであり、RAM(Random Access Memory)領域およびROM(Read Only Memory)領域を含んでいてよい。
記憶装置73は、ハードディスクやフラッシュメモリなどの半導体メモリ、または、外部記憶装置である。
読取装置74は、プロセッサ71の指示に従って着脱可能記憶媒体78にアクセスする。着脱可能記憶媒体78は、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体などにより実現される。なお、半導体デバイスは、USB(Universal Serial Bus)メモリなどである。また、磁気的作用により情報が入出力される媒体は、磁気ディスクなどである。光学的作用により情報が入出力される媒体は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、Blu-ray Disc(Blu-rayは登録商標)などである。
通信インタフェース75は、プロセッサ71の指示に従って、他の装置と通信する。例えば、情報処理装置3は、通信インタフェース75を介して状態推定装置1及び撮像装置2から情報を収集する。
入出力インタフェース76は、例えば、入力装置および出力装置との間のインタフェースである。入力装置は、対象者や拡張現実データまたは仮想現実データを確認する管理者からの指示を受け付けるキーボード、マウス、タッチパネルなどのデバイスである。出力装置は、ディスプレイなどの表示装置、または、スピーカなどの音声装置である。
実施形態に係る各プログラムは、例えば、下記の形態で情報処理装置3に提供される。
(1)記憶装置73に予めインストールされている。
(2)着脱可能記憶媒体78により提供される。
(3)プログラムサーバなどのサーバから提供される。
なお、図7を参照して述べた情報処理装置3を実現するためのコンピュータ70のハードウェア構成は例示であり、実施形態はこれに限定されるものではない。例えば、上述の構成の一部が、削除されてもよく、また、新たな構成が追加されてもよい。また、別の実施形態では、例えば、上述の情報処理装置3の一部または全部の機能がFPGA、SoC(System-on-a-Chip)、ASIC(Application Specific Integrated Circuit)、または、PLDなどによるハードウェアとして実装されてもよい。
以上において、実施形態が説明される。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態および代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態が実施され得ることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して、または実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。
1 状態推定装置
2 撮像装置
3 情報処理装置
4 表示装置
11 センサ
12 メモリ
21 カメラ
22 メモリ
31 第1の生成部
32 第2の生成部
33 統合部
34 変換部

Claims (6)

  1. 撮像装置と、状態推定装置と、情報処理装置と、を備え、
    前記情報処理装置は、第1の生成部と、第2の生成部と、統合部と、を含み、
    前記対象者の状態を推定する前記状態推定装置により前記対象者に異常が発生したことが検知されたとき、
    前記第1の生成部は、前記撮像装置により撮像された画像に基づいて、前記対象者の周囲の環境を示す環境3次元データを生成し、
    前記第2の生成部は、前記撮像装置により撮像された画像に基づいて、前記対象者の動作を示す動作3次元データを生成し、
    前記統合部は、前記環境3次元データと前記動作3次元データとを統合して前記異常状況3次元データを生成する
    情報処理システム。
  2. 請求項1において、前記状態推定装置と、前記撮像装置は、前記対象者によって装着される情報処理システム。
  3. 請求項1または請求項2において、
    前記状態推定装置は、センサと第1のメモリとを含み
    前記センサが検出するセンサ値を周期的に前記第1のメモリに記憶し、
    前記対象者の状態を推定する前記状態推定装置により前記対象者に異常が発生したことが検知されたとき、
    前記状態推定装置は、前記検知時刻を前記撮像装置に通知し、かつ前記検知時刻から設定された期間の前記センサ値を前記情報処理装置に送信する情報処理システム。
  4. 請求項1乃至請求項3の何れか1項において、
    前記撮像装置は、カメラと第2のメモリとを含み
    前記カメラが撮像する画像を周期的に前記第2のメモリに記憶し、
    前記対象者の状態を推定する前記状態推定装置により前記対象者に異常が発生したことが検知されたとき、
    前記撮像装置は、前記状態推定装置によって通知された前記検知時刻から設定された期間の前記画像を前記情報処理装置に送信する情報処理システム。
  5. 請求項1乃至請求項4の何れか1項において、
    前記情報処理システムは、表示装置を備え、
    前記情報処理装置は、さらに変換部を含み、
    前記変換部は、前記異常状況3次元データを拡張現実データまたは仮想現実データに変換し、
    前記表示装置は、変換された前記拡張現実データまたは前記仮想現実データを表示する
    情報処理システム。
  6. 情報処理装置において、対象者に異常が発生したときの状況を再現する異常状況3次元データを生成する3次元データ生成方法であって、
    前記情報処理装置は、
    前記対象者の状態を推定する状態推定装置により前記対象者に異常が発生したことが検知されたとき、
    撮像装置により撮像された画像に基づいて、前記対象者の周囲の環境を示す環境3次元データを生成するステップと、
    前記撮像装置により撮像された画像に基づいて、前記対象者の動作を示す動作3次元データを生成するステップと、
    前記環境3次元データと前記動作3次元データとを統合して前記異常状況3次元データを生成するステップと、
    を有する3次元データ生成方法。
JP2021056388A 2021-03-30 2021-03-30 情報処理システム及び3次元データ生成方法 Pending JP2022153716A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021056388A JP2022153716A (ja) 2021-03-30 2021-03-30 情報処理システム及び3次元データ生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021056388A JP2022153716A (ja) 2021-03-30 2021-03-30 情報処理システム及び3次元データ生成方法

Publications (1)

Publication Number Publication Date
JP2022153716A true JP2022153716A (ja) 2022-10-13

Family

ID=83556734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021056388A Pending JP2022153716A (ja) 2021-03-30 2021-03-30 情報処理システム及び3次元データ生成方法

Country Status (1)

Country Link
JP (1) JP2022153716A (ja)

Similar Documents

Publication Publication Date Title
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6182607B2 (ja) 映像監視システム、監視装置
JP2015056142A (ja) 情報処理装置及び情報処理方法
JP2020057111A (ja) 表情判定システム、プログラム及び表情判定方法
JP2008146583A (ja) 姿勢検知装置および挙動検知装置
KR102129771B1 (ko) Cctv 카메라를 통해 촬영된 영상으로부터 영상 내 촬영 대상자의 행위 인식을 수행하는 cctv 관리 시스템 장치 및 그 동작 방법
JP2008148237A (ja) 姿勢検知装置
US20170004653A1 (en) Information processing apparatus, information processing method, and storage medium
JP2020134242A (ja) 計測方法、計測装置、およびプログラム
JP6648923B2 (ja) 制御装置、制御方法及びプログラム
KR102527771B1 (ko) Tof 카메라와 디지털 트윈기술을 이용한 독거노인 행동관찰 및 이상행위 모니터링 시스템 및 방법
Pang et al. Human behavioral analytics system for video surveillance
JP2022153716A (ja) 情報処理システム及び3次元データ生成方法
EP3206188A1 (en) Method and system for realizing motion-sensing control based on intelligent device, and intelligent device
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP2007048232A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP6015756B2 (ja) 位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム
KR20160062665A (ko) 동작 인식 장치 및 방법
JP2020155882A (ja) 事故検出装置、及び、事故検出方法
JP6987902B2 (ja) 制御装置、制御方法及びプログラム
JPWO2017057426A1 (ja) 投影装置、コンテンツ決定装置、投影方法、および、プログラム
JP6548683B2 (ja) 対象物画像推定装置および対象物画像判定装置
EP4366322A1 (en) Imaging system, imaging method, and program
US20230410417A1 (en) Information processing apparatus, information processing method, and storage medium
JP7220861B1 (ja) 情報処理方法、情報処理装置及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240201