JP7388440B2 - 画像処理システム、画像処理プログラム、および画像処理方法 - Google Patents

画像処理システム、画像処理プログラム、および画像処理方法 Download PDF

Info

Publication number
JP7388440B2
JP7388440B2 JP2021540740A JP2021540740A JP7388440B2 JP 7388440 B2 JP7388440 B2 JP 7388440B2 JP 2021540740 A JP2021540740 A JP 2021540740A JP 2021540740 A JP2021540740 A JP 2021540740A JP 7388440 B2 JP7388440 B2 JP 7388440B2
Authority
JP
Japan
Prior art keywords
behavior
subject
predetermined
image
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021540740A
Other languages
English (en)
Other versions
JPWO2021033597A1 (ja
Inventor
直樹 池田
智也 岡▲崎▼
希武 田中
辰也 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2021033597A1 publication Critical patent/JPWO2021033597A1/ja
Application granted granted Critical
Publication of JP7388440B2 publication Critical patent/JP7388440B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理システム、画像処理プログラム、および画像処理方法に関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落したりして怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、撮影された画像から要介護者等の状態を検出するためのシステムの開発が進められている。このようなシステムで要介護者等の状態を検出するためには、画像から検知対象である人物の姿勢や行動を高精度で検出する必要がある。
下記特許文献1には、次の先行技術が開示されている。被監視者の所定の行動を検知して通知等をする検知ユニットによる監視機能を、端末ユニットから受信した情報等に基づいて停止する。これにより、必要に応じて監視機能を停止できるため、被監視者以外の者に対する誤検知を低減できる。
国際公開第2016/152428号
しかし、上記特許文献1に開示された先行技術は、被監視者以外の者の行動を被監視者の行動として誤検知することを防止できるが、被監視者の行動の検知精度を向上できないという問題がある。
本発明は、このような問題を解決するためになされたものである。すなわち、撮影された画像に基づく人物の行動の推定精度を向上できる、画像処理システム、画像処理プログラム、および画像処理方法を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)撮影装置により撮影された、対象者を含む画像に基づいて、前記対象者の体に関する特徴点を検出する特徴点検出部と、検出された前記特徴点に基づいて、前記画像上における前記対象者の幾何特徴を算出する算出部と、算出された前記幾何特徴を用いて、前記対象者の行動が所定の行動に含まれる行動であるか否かを判定する判定部と、前記判定部により、前記対象者の行動が前記所定の行動に含まれる行動であると判定された場合に、前記対象者の行動に関する情報を出力する出力部と、を有し、前記算出部は、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位の長さの変化を算出し、前記判定部は、前記対象者の所定部位の長さの変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する画像処理システム。
)前記算出部は、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位同士の角度の変化を算出し、前記判定部は、前記対象者の所定部位同士の角度の変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する上記(1)に記載の画像処理システム。
)前記算出部は、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の頭部の大きさまたは形状の変化を算出し、前記判定部は、前記対象者の頭部の大きさまたは形状の変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する上記(1)または(2)に記載の画像処理システム。
)前記算出部は、前記幾何特徴として、前記画像上における前記対象者の位置を算出し、前記判定部は、前記画像上における前記対象者の位置を考慮して前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する上記(1)~()のいずれか一つに記載の画像処理システム。
)前記特徴点検出部によって検出された前記特徴点に基づいて、前記対象者の姿勢を推定する推定部をさらに有し、前記判定部は、前記幾何特徴および前記姿勢を用いて、前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する上記(1)~()のいずれか一つに記載の画像処理システム。
)前記所定の行動は転倒および転落であり、前記判定部は、前記対象者の行動が、転倒および転落の少なくともいずれかであるかどうか判定する、上記(1)~()のいずれか一つに記載の画像処理システム。
)前記撮影装置は広角カメラであり、前記画像は、所定の領域を俯瞰する位置に設置された前記広角カメラにより撮影された前記所定の領域を含む画像である、上記(1)~()のいずれか一つに記載の画像処理システム。
)撮影装置により撮影された、対象者を含む画像に基づいて、前記対象者の体に関する特徴点を検出する手順(a)と、検出された前記特徴点に基づいて、前記画像上における前記対象者の幾何特徴を算出する手順(b)と、算出された前記幾何特徴を用いて、前記対象者の行動が所定の行動に含まれる行動であるか否かを判定する手順(c)と、前記手順(c)において、前記対象者の行動が前記所定の行動に含まれる行動であると判定された場合に、前記対象者の行動に関する情報を出力する手順(d)と、を有し、前記手順(b)においては、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位の長さの変化を算出し、前記手順(c)においては、前記対象者の所定部位の長さの変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する処理をコンピューターに実行させるための画像処理プログラム。
)画像処理システムに実行させる方法であって、撮影装置により撮影された、対象者を含む画像に基づいて、前記対象者の体に関する特徴点を検出する段階(a)と、検出された前記特徴点に基づいて、前記画像上における前記対象者の幾何特徴を算出する段階(b)と、算出された前記幾何特徴を用いて、前記対象者の行動が所定の行動に含まれる行動であるか否かを判定する段階(c)と、前記段階(c)において、前記対象者の行動が前記所定の行動に含まれる行動であると判定された場合に、前記対象者の行動に関する情報を出力する段階(d)と、を有し、前記段階(b)においては、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位の長さの変化を算出し、前記段階(c)においては、前記対象者の所定部位の長さの変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する画像処理方法。
撮影された画像に基づいて対象者の体に関する特徴点を検出し、検出された特徴点に基づいて算出される画像上における対象者の幾何特徴を用いて、対象者の行動が所定の行動に含まれる行動であるか否かを判定し、含まれると判定したときに対象者の行動に関する情報を出力する。これにより、撮影された画像に基づく対象者の行動の推定精度を向上できる。
画像認識システムの概略構成を示す図である。 検出部の構成を示すブロック図である。 制御部の機能ブロック図である。 画像において検出された人物領域を示す図である。 特徴点を示す図である。 画像上における所定部位の長さの変化によって転倒または転落したことを判定する例を説明するための図である。 画像上における所定部位同士の角度の変化によって転倒または転落したことを判定する例を説明するための図である。 画像上における頭部の大きさの変化によって転倒または転落したことを判定する例を説明するための図である。 サーバーの構成を示すブロック図である。 携帯端末の構成を示すブロック図である。 画像認識システムの動作を示すフローチャートである。
以下、図面を参照して、本発明の実施形態に係る、画像処理システム、画像処理プログラム、および画像処理方法について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。また、2つの方向(線)がなす角度は、例えば、60度と300度(360度-60度)というように2つの角度が観念できるが、本明細書においては、当該2つの角度のうち小さい方の角度のことを意味する。
図1は、画像認識システム10の概略構成を示す図である。
画像認識システム10は、検出部100、サーバー200、通信ネットワーク300、および携帯端末400を有する。検出部100は、通信ネットワーク300によりサーバー200および携帯端末400と相互に通信可能に接続される。携帯端末400はアクセスポイント310を介して通信ネットワーク300と接続され得る。検出部100は、画像処理システムを構成する。検出部100は、1つの一体化された装置でも、分離配置される複数の装置でもあり得る。なお、後述するように、検出部100の機能の一部をサーバー200が実施するようにしてもよい。
(検出部100)
図2は、検出部100の構成を示すブロック図である。図2の例に示すように、検出部100は、制御部110、通信部120、カメラ130、および体動センサー140を備え、これらはバスによって相互に接続されている。カメラ130は、撮影装置を構成する。
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って検出部100の各部の制御および演算処理を行う。制御部110は、特徴点検出部、算出部、判定部、出力部、および推定部を構成する。制御部110の作用の詳細については後述する。
通信部120は、通信ネットワーク300を介して、携帯端末400等と通信するためのインターフェース回路(例えばLANカード等)である。
カメラ130は、例えば広角カメラである。カメラ130は、検出部100が対象者500の居室の天井等に設置されることで、所定の領域を俯瞰する位置に設置され、当該所定の領域を含む画像(以下、単に「画像600」とも称する)を撮影する。対象者500は、例えばスタッフ等により介護または看護を必要とする者である。所定の領域は対象者500の居室の床面全体を含む3次元の領域であり得る。カメラ130は、広角カメラより画角が狭い標準カメラであってもよい。以下、説明を簡単にするために、カメラ130は、広角カメラであるものとして説明する。画像600には、対象者500が画像として含まれ得る。画像600には、静止画および動画が含まれる。カメラ130は近赤外線カメラであり、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで所定の領域を撮影し得る。画像600は近赤外線の反射率を各画素とするモノクロ画像であり得る。カメラ130は、近赤外線カメラに代替して可視光カメラを用いてもよく、これらを併用してもよい。
体動センサー140は、ベッド700に対してマイクロ波を送受信して対象者500の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式のセンサーである。
制御部110の作用について説明する。
図3は、制御部110の機能ブロック図である。制御部110は、特徴点検出部111、算出部112、判定部113、および出力部114として機能する。
特徴点検出部111は、カメラ130によって撮影された、対象者500を含む画像600に基づいて、対象者500の体に関する特徴点620を検出する。
算出部112は、特徴点検出部111によって検出された特徴点620に基づいて、画像600上における対象者500の幾何特徴を算出する。
判定部113は、算出部112によって算出された幾何特徴を用いて、対象者500の行動が所定の行動に含まれる行動であるか否かを判定する。
出力部114は、判定部113によって対象者500の行動が所定の行動に含まれる行動であると判定された場合に、対象者500の行動に関する情報を出力する。
また、制御部110は、推定部115として機能してもよい。この場合、推定部115は、特徴点検出部111によって検出された特徴点620に基づいて、対象者500の姿勢を推定する。この場合、判定部113は、算出部112によって算出された幾何特徴および推定部115によって推定された姿勢を用いて、対象者500の行動が所定の行動に含まれる行動であるか否かを判定する。以下、制御部110の作用についてより詳細に説明する。
制御部110は、画像600から人の画像のシルエット(以下、「人シルエット」と称する)を検出する。人シルエットは、例えば、撮影時刻が前後する画像(フレーム)の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出され得る。人シルエットは、撮影画像と背景画像との差分を抽出する背景差分法により検出されてもよい。制御部110は、人シルエットに基づいて、対象者500の所定の行動を検出し得る。所定の行動には、例えば、転倒および転落が含まれる。制御部110は、例えば、検出されたシルエットの重心が、時系列で動いていた状態から急に停止した状態に変化したことや人シルエットに対応する矩形のアスペクト比の変化等により、転倒を検出し得る。制御部110は、例えば、人シルエットがベッド700の領域内に存在している状態から急にベッド700の領域外に存在している状態に変化したことや人シルエットに対応する矩形のアスペクト比の変化等により、転落を検出し得る。画像600におけるベッド700の領域は、検出部100が設置される際に予め設定され、データとして制御部110のメモリに記憶され得る。
制御部110は、画像600に基づいて、対象者500を含む領域として、人物領域610を検出し、人物領域610から、人の体に関する特徴点(以下、単に「特徴点620」と称する)を検出する。
図4は、画像600において検出された人物領域610を示す図である。
制御部110は、画像600から、人物である対象者500を含む領域を人物領域610として検出する。具体的には、制御部110は、画像600上で物体(オブジェクト)が存在する領域を検出し、検出した領域に含まれる物体のカテゴリーを推定することで、人物領域610を検出し得る。物体が存在する領域は、画像600上で物体が含まれる矩形(候補矩形)として検出され得る。検出部100は、検出された候補矩形のうち、物体のカテゴリーが人物であると推定された候補矩形を検出することで、人物領域610を検出する。人物領域610は、ニューラルネットワーク(以下、「NN」と称する)を用いて検出され得る。NNによる人物領域610の検出方法としては、例えば、Faster R-CNN、Fast R-CNN、およびR-CNNといった公知の方法が挙げられる。画像600から人物領域610を検出するためのNNは、画像600と、当該画像600に対する正解として設定された人物領域610との組合せの教師データを用いて、画像600から人物領域610を検出(推定)するための学習が予めされる。
図5は、特徴点620を示す図である。
制御部110は、人物領域610に基づいて、特徴点620を検出する。特徴点620には、関節点621、および頭部(例えば、頭部矩形)の対頂点622が含まれ得る。特徴点620には、例えば、足の先端の2つの関節点621a、621bの中央点621cがさらに含まれ得る。当該中央点621cは、足の先端の2つの関節点620a、621bに基づいて算出される。特徴点620は、DeepPose等のNNを用いた公知の技術により検出され得る。特徴点620は、画像600における座標として検出(および算出)され得る。DeepPoseについては、公知の文献(Alexander Toshev, et al. “DeepPose: Human Pose Estimation via Deep Neural Networks”, in CVPR, 2014)に詳細が記載されている。人物領域610から特徴点620を検出するためのNNは、人物領域610と、当該人物領域610に対する正解として設定された特徴点620との組合せの教師データを用いて、人物領域610から特徴点620を検出(推定)するための学習が予めされる。なお、特徴点620は、画像600から特徴点620を検出するためのNNを用いて、画像600から直接推定されてもよい。この場合、画像600から特徴点620を検出するためのNNは、画像600と、当該画像600に対する正解として設定された特徴点620との組合せの教師データを用いて、画像600から特徴点620を検出(推定)するための学習が予めされる。
制御部110は、上記のように検出された特徴点620に基づいて、画像600上における対象者500の幾何特徴を算出する。幾何特徴としては、例えば画像600上における対象者500の位置、対象者500の所定部位の長さ、所定部位同士の角度、対象者500の頭部の大きさまたは形状等が算出される。制御部110は、算出された幾何特徴を用いて、対象者500の行動が所定の行動に含まれる行動であるか否かを判定する。幾何特徴に基づいて対象者500の行動を判定する処理について、詳細は後述する。
また、制御部110は、検出された特徴点620の位置に基づいて対象者500の姿勢を推定してもよい。姿勢には、例えば、立位、座位、および臥位が含まれる。制御部110は、例えば、特徴点620の位置から人物の姿勢を検出するための辞書が反映されたDNN(Deep Neural Network)により、特徴点620の位置から対象者500の姿勢を推定し得る。具体的には、制御部110は、DNNにより、特徴点620の位置に基づいて、立位、座位、および臥位それぞれの姿勢クラスの確率を推定し、推定された確率が最も高い姿勢を、対象者500の姿勢として推定し得る。
以下、幾何特徴に基づいて対象者500の行動を判定する処理について具体的に説明する。
(所定部位の長さの変化に基づく判定)
まず、幾何特徴として、画像600上における対象者500の所定部位の長さの変化を算出して対象者500の行動を判定する処理の例について説明する。
制御部110は、複数の所定の特徴点620の位置関係の変化に基づいて、画像600上における対象者500の所定部位の長さの変化を算出し、所定部位の長さの変化に基づいて対象者500の行動が所定の行動に含まれるか否かを判定する。複数の所定の特徴点620は、対象者500の所定部位に対応する複数の特徴点620であり、所定の行動に含まれるかどうかの判定精度の観点から、実験により、検出された特徴点620の中から、適当に選択され得る。所定部位の長さは、例えば、所定部位に対応付けられた複数の特徴点620の間の距離として算出される。所定の行動は、複数の行動であっても単一の行動であってもよい。所定の行動には、転倒および転落が含まれ得る。具体的には、制御部110は、人シルエット等に基づいて、対象者500の行動が所定の行動の中のいずれか(例えば、転倒)として検出された場合に、対象者500の所定部位の長さの変化に基づいて、検出された行動が、所定の行動に含まれる行動(例えば、転倒および転落)に該当するか否かを判定(再判断)する。対象者500の行動が、所定の行動に含まれるか否かの判定は、人シルエットに基づいて所定の行動のいずれか1つが検出された画像600に対して行われる。以下、具体例を挙げて説明する。
図6は、画像上における所定部位の長さの変化によって転倒または転落したことを判定する例を説明するための図である。
図6の例においては、所定部位として上半身および下半身が設定されている。上半身の長さは、例えば、肩の中心の関節点621dと腰の中心の関節点621eとの間の距離として算出される。また、下半身の長さは、例えば、足の先端の2つの関節点620a、620bの中央点621cと腰の中心の関節点621eとの間の距離として算出される。制御部110は、上記のように算出される上半身および下半身の長さの所定の期間における変化を算出し、長さの変化が所定の関係にある場合に、対象者500の行動が、所定の行動に含まれると判定する。例えば、制御部110は、算出された長さの変化が所定の閾値以上である場合に、対象者500の行動が、所定の行動に含まれると判定する。所定の閾値は、対象者500の行動が、所定の行動に含まれるかどうかの判定精度の観点から、実験により、適当に設定し得る。所定の閾値としては、例えば、変化の割合や変化の大きさ等が設定され得る。
例えば、対象者500が歩行という行動をしている場合は、対象者500は立位の姿勢にある。対象者500が転倒および転落のいずれかの行動をしている場合は、対象者500は臥位の姿勢にある。図6のAに示すように、対象者500が立位の姿勢である場合、上半身および下半身の長さは短くなる。一方、図6のBに示すように、対象者500が臥位の姿勢である場合は、上半身および下半身の長さは長くなる。この傾向は、対象者500が画像上の中心領域(カメラの直下領域)に存在する程顕著になるが、中心領域以外に存在する場合にも、同様に姿勢や行動の変化による所定部位の長さの変化が見られる。したがって、所定部位の長さの変化が所定の閾値以上であれば、対象者500の行動が、所定の行動である転倒および転落の少なくともいずれかであると判定できる。図6の例では、上半身および下半身の長さが所定の閾値以上に長く変化している場合、対象者500の行動が、転倒および転落の少なくともいずれかであると判定できる。所定の閾値としては、例えば変化の割合を示す値として200%等の値が設定されてもよく、変化の大きさを示す値として増加した画素数や画素数から算出される実際の長さ等の値が設定されてもよい。
なお、図6の例では、上半身および下半身の2つの所定部位の長さを算出して判定する例について説明したが、算出される長さはいずれか1つでもよい。また、算出される長さは、上半身や下半身の長さに限定されず、判定精度の観点から実験等により決定される任意の部位の長さが使用され得る。
また、上記のように、カメラ130と対象者500との位置関係、すなわち、画像600上における対象者500の位置によって、所定部位の長さの変化の程度が異なる。したがって、制御部110は、幾何特徴として画像600上における対象者500の位置を算出し、算出された画像600上における対象者500の位置に応じて、長さの変化を判定するための所定の閾値を調整してもよい。例えば、画像600の中心から比較的短い距離の範囲内を第1範囲、画像600の中心から比較的遠い距離の範囲内を第3範囲、第1範囲と第3範囲の間の範囲を第2範囲とする。そして、第1範囲に設定する所定の第1閾値、第2範囲に設定する所定の第2閾値、第3範囲に設定する所定の第3閾値を、それぞれ異ならせて設定し得る。例えば、画像600の中心に近いほど対象者500の姿勢の変化に伴う長さの変化が大きくなる場合、第1閾値を大きい値に設定し、第2閾値を第1閾値よりも小さい値に設定し、第3閾値を第2閾値よりも小さい値に設定し得る。
また、所定部位の長さの変化に基づく判定では、転倒および転落を区別しない。しかし、転倒か転落かは、人シルエットに基づく所定の行動の検出において区別されているため、転倒および転落の少なくともいずれかであると判定できれば十分である。人シルエットに基づいて転倒または転落が検出されたときに、さらに、所定部位の長さの変化に基づいて、転倒および転落の少なくともいずれかであると判定することにより、転倒および転落の検出精度を向上できる。
また、制御部110は、特徴点620の位置に基づいて対象者500の姿勢を推定し、所定部位の長さの変化に加えて、推定された姿勢の変化も考慮して対象者500の行動を判定してもよい。例えば、図6の例では、制御部110は、上半身および下半身の長さの変化が所定の閾値以上であり、さらに特徴点620の位置に基づいて推定された姿勢が立位から臥位に変化した場合に、対象者500の行動が、転倒および転落の少なくともいずれかであると判定してもよい。
(所定部位同士の角度の変化に基づく判定)
次に、幾何特徴として、画像600上における対象者500の所定部位同士の角度の変化を算出して対象者500の行動を判定する処理の例について説明する。以下では、所定部位の長さの変化に基づく判定と同様の部分の説明は省略し、異なる部分を中心に説明する。
制御部110は、複数の所定の特徴点620の位置関係の変化に基づいて、画像600上における対象者500の所定部位同士の角度の変化を算出し、所定部位同士の角度の変化に基づいて対象者500の行動が所定の行動に含まれるか否かを判定する。複数の所定の特徴点620は、対象者500の複数の所定部位それぞれに対応する複数の特徴点620であり、所定の行動に含まれるかどうかの判定精度の観点から、実験により、検出された特徴点620の中から、適当に選択され得る。所定部位同士の角度は、例えば、各所定部位に対応付けられた2つの特徴点620を結ぶ線同士がなす角の角度として算出され得る。以下、具体例を挙げて説明する。
図7は、画像上における所定部位同士の角度の変化によって転倒または転落したことを判定する例を説明するための図である。
図7の例においては、所定部位同士の角度として、上半身および下半身の角度と、膝の角度(上腿および下腿の角度)の2つの角度が設定されている。上半身および下半身の角度は、例えば、肩の中心の関節点621dと腰の中心の関節点621eとを結ぶ線(上半身に対応)と、足の先端の2つの関節点620a、620bの中央点621cと腰の中心の関節点621eとを結ぶ線(下半身に対応)とがなす角の角度として算出される。また、膝の角度は、例えば、足の付け根の関節点621f、621gと膝の関節点621h、621iとをそれぞれ結ぶ線(左右の上腿に対応)と、足の先端の2つの関節点620a、620bと膝の関節点621h、621iとをそれぞれ結ぶ線(左右の下腿に対応)とがそれぞれなす角の角度として算出される。膝の角度は、両方の足の膝について算出されてもよく、片方の足の膝について算出されてもよい。
制御部110は、上記のように算出される上半身および下半身の角度と膝の角度の所定の期間における変化を算出し、角度の変化が所定の関係にある場合に、対象者500の行動が、所定の行動に含まれると判定する。例えば、制御部110は、算出された角度の変化が所定の閾値以上である場合に、対象者500の行動が、所定の行動に含まれると判定する。所定の閾値は、対象者500の行動が、所定の行動に含まれるかどうかの判定精度の観点から、実験により、適当に設定し得る。所定の閾値としては、例えば、変化の割合や変化の大きさ等が設定され得る。
図7のAに示すように、対象者500が立位の姿勢である場合、上半身および下半身の角度は大きくなり、膝の角度も大きくなる。一方、図7のBに示すように、対象者500が臥位の姿勢である場合は、上半身および下半身の角度は小さくなり、膝の角度も小さくなる。この傾向は、対象者500が画像上のどの領域に存在する場合にも見られる。したがって、所定部位同士の角度の変化が所定の閾値以上であれば、対象者500の行動が、所定の行動である転倒および転落の少なくともいずれかであると判定できる。図7の例では、上半身および下半身の角度と膝の角度が所定の閾値以上に小さくなっている場合、対象者500の行動が、転倒および転落の少なくともいずれかであると判定できる。所定の閾値としては、例えば角度の変化の割合を示す値として50%等の値が設定されてもよく、角度の変化の大きさを示す値として30°、45°、90°等の値が設定されてもよい。
なお、図7の例では、上半身および下半身の角度と、膝の角度という2つの角度を算出する例について説明したが、算出される角度は1つでもよい。また、上半身および下半身の角度の変化に基づく判定と、膝の角度の変化に基づく判定は、それぞれ独立して実施されてもよく、あるいは組み合わせて実施されてもよい。また、算出される角度は、上半身および下半身の角度や膝の角度に限定されず、判定精度の観点から実験等により決定される任意の部位同士の角度が算出され得る。また、例えば膝のように対象者500に複数存在する部位の角度に関する判定は、両方の膝の角度を組み合わせて合計値や平均値等について行われてもよく、あるいはいずれか一方の膝の角度について行われてもよい。
また、制御部110は、上記の所定部位の長さの変化に基づく判定と同様に、幾何特徴として、画像600上における対象者500の位置を算出し、算出された画像600上における対象者500の位置に応じて、角度の変化を判定するための所定の閾値を調整してもよい。
また、制御部110は、特徴点620の位置に基づいて対象者500の姿勢を推定し、所定部位同士の角度の変化に加えて、推定された姿勢の変化も考慮して対象者500の行動を判定してもよい。例えば、図7の例では、制御部110は、上半身および下半身の角度の変化が所定の閾値以上であり、さらに特徴点620の位置に基づいて推定された姿勢が立位から臥位に変化した場合に、対象者500の行動が、転倒および転落の少なくともいずれかであると判定してもよい。
(頭部の大きさまたは形状の変化に基づく判定)
次に、幾何特徴として、画像600上における対象者500の頭部の大きさまたは形状の変化を算出して対象者500の行動を判定する処理の例について説明する。以下では、所定部位の長さの変化に基づく判定または所定部位同士の角度の変化に基づく判定と同様の部分の説明は省略し、異なる部分を中心に説明する。
制御部110は、複数の所定の特徴点620の位置関係の変化に基づいて、画像600上における対象者500の頭部の大きさまたは形状の変化を算出し、頭部の大きさまたは形状の変化に基づいて対象者500の行動が所定の行動に含まれるか否かを判定する。複数の所定の特徴点620は、対象者500の頭部に対応する複数の特徴点620であり、例えば頭部(頭部矩形)の2つの対頂点622である。この場合、頭部の大きさの変化は、例えば対頂点622によって規定される矩形の面積の変化として算出され得る。また、頭部の形状の変化は、例えば当該矩形のアスペクト比の変化として算出され得る。以下、具体例を挙げて説明する。
図8は、画像上における頭部の大きさの変化によって転倒または転落したことを判定する例を説明するための図である。
図8の例においては、頭部の大きさは、頭部の2つの対頂点622によって規定される矩形の面積として算出される。制御部110は、上記のように算出される頭部の大きさの所定の期間における変化を算出し、大きさの変化が所定の関係にある場合に、対象者500の行動が、所定の行動に含まれると判定する。例えば、制御部110は、算出された大きさの変化が所定の閾値以上である場合に、対象者500の行動が、所定の行動に含まれると判定する。所定の閾値は、対象者500の行動が、所定の行動に含まれるかどうかの判定精度の観点から、実験により、適当に設定し得る。所定の閾値としては、例えば、変化の割合や変化の大きさ等が設定され得る。
図8のAに示すように、対象者500が立位の姿勢である場合、頭部の大きさは大きくなる。一方、図8のBに示すように、対象者500が臥位の姿勢である場合は、頭部の大きさは小さくなる。この傾向は、対象者500が画像上の中心領域(カメラの直下領域)に存在する程顕著になるが、中心領域以外に存在する場合にも、同様に姿勢や行動の変化による頭部の大きさの変化が見られる。したがって、頭部の大きさの変化、すなわち頭部矩形の面積の変化が所定の閾値以上であれば、制御部110は、対象者500の行動が、所定の行動である転倒および転落の少なくともいずれかであると判定できる。図8の例では、頭部矩形の面積が所定の閾値以上に小さくなっている場合、対象者500の行動が、転倒および転落の少なくともいずれかであると判定される。所定の閾値としては、例えば面積の変化の割合を示す値として50%等の値が設定されてもよく、面積の変化の大きさを示す値として減少した画素数や画素数から算出される実際の面積等の値が設定されてもよい。
なお、図8の例では、頭部の大きさの変化に基づいて行動が判定される例について説明したが、頭部の形状の変化に基づいて行動が判定されてもよい。例えば、カメラの直下領域に存在する対象者500が立位の姿勢である場合、頭部矩形の形状は正方形に近くなり、アスペクト比は1:1に近い値となり得る。一方、対象者500が臥位の姿勢にある場合、頭部矩形の形状は長辺と短辺を有する長方形に近くなり、アスペクト比は1:1から離れた値となり得る。したがって、制御部110は、頭部の形状の変化として頭部矩形のアスペクト比の変化を算出し、アスペクト比の変化に基づいて、対象者500の行動が、所定の行動に含まれるか否かを判定できる。
また、制御部110は、上記の所定部位の長さの変化に基づく判定と同様に、幾何特徴として、画像600上における対象者500の位置を算出し、算出された画像600上における対象者500の位置に応じて、頭部の大きさまたは形状の変化を判定するための所定の閾値を調整してもよい。
また、制御部110は、特徴点620の位置に基づいて対象者500の姿勢を推定し、頭部の大きさまたは形状の変化に加えて、推定された姿勢の変化も考慮して対象者500の行動を判定してもよい。例えば、図8の例では、制御部110は、頭部の大きさまたは形状の変化が所定の閾値以上であり、さらに特徴点620の位置に基づいて推定された姿勢が立位から臥位に変化した場合に、対象者500の行動が、転倒および転落の少なくともいずれかであると判定してもよい。
上述した所定部位の長さの変化に基づく判定、所定部位の長さの変化に基づく判定、頭部の大きさまたは形状の変化に基づく判定に含まれる各判定は、それぞれ独立して実施されてもよく、複数の判定が組み合わせられてもよい。複数の判定が組み合わせられる場合、例えば各判定による判定結果に対して判定精度等に基づく優先度や重み付けが設定され、各判定による判定結果を総合して幾何特徴を用いた判定が行われてもよい。
(行動に関する情報の出力処理)
制御部110は、上記のような画像600上における対象者500の幾何特徴に基づく判定によって、対象者500の行動が所定の行動に含まれると判定した場合、対象者500の行動に関する情報を、通信部120によりサーバー200に送信すること等により、出力する。対象者500の行動に関する情報は、対象者500の行動が所定の行動の少なくともいずれかであることを示す第1情報、または、人シルエットに基づき検出された所定の行動の確度(確率)が高いことを示す第2情報であり得る。第1情報は、例えば、「対象者500の行動が、転倒および転落の少なくともいずれかである」という情報である。第2情報は、例えば、「検出された行動である確率が高い」という情報である。制御部110は、対象者500の行動に関する情報と関連付けて、人シルエットに基づいて検出された、対象者500の所定の行動を示す行動特定情報をさらにサーバー200等に送信し得る。第1情報、第2情報、および行動特定情報には、対象者500のID(番号)等の対象者500を特定する情報、および画像600の撮影時間等が含まれることで関連付けされ得る。後述するように、サーバー200において、行動特定情報と、対象者500の行動に関する情報と、に基づいて、対象者500が、人シルエットに基づいて検出された所定の行動をしたという最終判断がされ得る。
一方、制御部110が、人シルエットに基づいて対象者500の所定の行動のいずれかが検出され、かつ、画像600上における対象者500の幾何特徴に基づいて所定の行動の少なくともいずれかであると判定された場合に、対象者500が人シルエットに基づいて検出された所定の行動をしたという最終判断をしてもよい。この場合、制御部110は、対象者500が所定の行動をしたという最終判断を示す第3情報を、対象者500の行動に関する情報としてサーバー200等に送信(出力)し得る。なお、行動特定情報はサーバー200等に送信される必要はない。第3情報は、例えば、「対象者500が転倒した」という情報である。第3情報には、対象者500の氏名等の対象者500を特定する情報が含まれる。
(サーバー200)
図9は、サーバー200の構成を示すブロック図である。サーバー200は、制御部210、通信部220、および記憶部230を備える。各構成要素は、バスによって、相互に接続されている。
制御部210および通信部220の基本構成は、検出部100の対応する構成要素である、制御部110および通信部120と同様である。
制御部210は、通信部220により、検出部100から対象者500の行動に関する情報を受信する。制御部210は、検出部100から行動特定情報をさらに受信し得る。
制御部21は、対象者500の行動に関する情報が、対象者500の行動が所定の行動の少なくともいずれかであることを示す第1情報である場合、対象者500が、行動特定情報が示す所定の行動をしたという最終判断をする。制御部21は、対象者500の行動に関する情報が、人シルエットに基づき検出された所定の行動の確度(確率)が高いことを示す第2情報である場合も、同様に、対象者500が、行動特定情報が示す所定の行動をしたという最終判断をする。制御部21は、行動特定情報が示す所定の行動をしたという最終判断をしたときに、対象者500が所定の行動(例えば、転倒)をしたことをスタッフ等に通知するためのイベント通知を、携帯端末400等に送信し得る。
制御部21は、対象者500の行動に関する情報が、対象者500の所定の行動をしたという最終判断を示す第3情報である場合、対象者500が所定の行動をしたことをスタッフ等に通知するためのイベント通知を、携帯端末400等に送信し得る。
なお、サーバー200は、検出部100の機能の一部を代替して実施し得る。例えば、サーバー200は、検出部100から画像600を受信し、画像600から人シルエットを検出し、人シルエットに基づいて、対象者500の所定の行動を検出する。対象者500の所定の行動が検出されたときに、人物領域610を検出して、人物領域610に基づいて、特徴点620を検出する。そして、特徴点620に基づいて画像600上における対象者500の幾何特徴を算出し、幾何特徴に基づいて、人シルエットに基づいて検出された対象者500の所定の行動が、所定の行動に含まれる行動かどうか判定し得る。
(携帯端末400)
図10は、携帯端末400の構成を示すブロック図である。携帯端末400は、制御部410、無線通信部420、表示部430、入力部440、および音声入出力部450を備える。各構成要素は、バスにより相互に接続されている。携帯端末400は、例えば、タブレット型コンピューター、スマートフォン、または携帯電話等の通信端末機器によって構成され得る。
制御部410は、検出部100の制御部110の構成と同様に、CPU、RAM、ROMなどの基本構成を備える。
無線通信部420は、Wi-Fi、Bluetooth(登録商標)などの規格による無線通信を行う機能を有し、アクセスポイントを経由して、または直接に各装置と無線通信する。無線通信部420は、イベント通知をサーバー200から受信する。
表示部430および入力部440は、タッチパネルであり、液晶などで構成される表示部430の表示面に、入力部440としてのタッチセンサーが設けられる。表示部430、入力部440によって、イベント通知を表示する。そして、イベント通知に関する対象者500への対応を促す入力画面を表示するとともに、当該入力画面に入力された、スタッフによるイベント通知への対応の意思を受け付ける。
音声入出力部450は、例えばスピーカーとマイクであり、無線通信部420を介して他の携帯端末400との間でスタッフ相互間の音声通話を可能にする。また、音声入出力部450は、無線通信部420を介して検出部100との間で音声通話を可能にする機能を備え得る。
画像認識システム10の動作について説明する。
図11は、画像認識システム10の動作を示すフローチャートである。本フローチャートは、プログラムに従い、制御部110により実行される。
制御部110は、画像600から検出した人シルエットに基づいて、対象者500の所定の行動を検出したことを契機に、画像600に基づいて、対象者500の特徴点620を検出する(S101)。
制御部110は、検出された特徴点620に基づいて、画像600上における対象者500の幾何特徴を算出する(S102)。
制御部110は、幾何特徴を用いて、対象者500の行動が所定の行動である、転倒および転落の少なくともいずれかであるかどうか(転倒および転落に含まれるかどうか)を判定する(S103)。
制御部110は、対象者500の行動が所定の行動である、転倒および転落のいずれでもないと判定した場合は(S104:NO)、処理を終了する。
制御部110は、対象者500の行動が所定の行動である、転倒および転落の少なくともいずれかであると判定した場合は(S104:YES)、対象者の行動に関する情報をサーバー200へ送信することで出力する(S105)。
実施形態は以下の効果を奏する。
撮影された画像に基づいて対象者の特徴点を検出し、検出された特徴点に基づいて画像上における対象者の幾何特徴を算出し、算出された幾何特徴を用いて、対象者の行動が所定の行動に含まれるか判定し、含まれると判定したときに対象者の行動に関する情報を出力する。これにより、画像上における対象者の幾何特徴を考慮して対象者の行動を判定できるため、対象者の行動の推定精度を向上できる。
また、複数の特徴点の位置関係の変化に基づいて、幾何特徴として、画像上における対象者の所定部位の長さの変化を算出し、対象者の所定部位の長さの変化に基づいて対象者の行動が所定の行動に含まれる行動であるか否かを判定する。これにより、画像上における対象者の所定部位の長さの変化を考慮して対象者の行動を判定できるため、対象者の行動の推定精度を向上できる。
また、複数の特徴点の位置関係の変化に基づいて、幾何特徴として、画像上における対象者の所定部位同士の角度の変化を算出し、対象者の所定部位同士の角度の変化に基づいて対象者の行動が所定の行動に含まれる行動であるか否かを判定する。これにより、画像上における対象者の所定部位同士の角度の変化を考慮して対象者の行動を判定できるため、対象者の行動の推定精度を向上できる。
また、複数の特徴点の位置関係の変化に基づいて、幾何特徴として、画像上における対象者の頭部の大きさまたは形状の変化を算出し、対象者の頭部の大きさまたは形状の変化に基づいて対象者の行動が所定の行動に含まれる行動であるか否かを判定する。これにより、画像上における対象者の頭部の大きさまたは形状を考慮して対象者の行動を判定できるため、対象者の行動の推定精度を向上できる。
また、幾何特徴として、画像上における対象者の位置を算出し、画像上における対象者の位置を考慮して対象者の行動が所定の行動に含まれる行動であるか否かを判定する。これにより、対象者の位置によらず、画像に基づいて対象者の行動の推定精度に向上できる。
また、検出された特徴点に基づいて、対象者の姿勢を推定し、幾何特徴および姿勢を用いて、対象者の行動が所定の行動に含まれる行動であるか否かを判定する。これにより、幾何特徴に加えて推定された姿勢を考慮して対象者の行動を判定できるため、対象者の行動の推定精度をさらに向上できる。
また、所定の行動は転倒および転落であり、対象者の行動が、転倒および転落の少なくともいずれかであるかどうか判定する。これにより、対象者の転倒または転倒に関する推定精度を向上できる。
撮影装置は広角カメラであり、画像は、所定の領域を俯瞰する位置に設置された広角カメラにより撮影された所定の領域を含む画像である。これにより、より効果的に、撮影された画像に基づく対象者の行動の推定精度を向上できる。
以上に説明した画像認識システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な画像認識システムが備える構成を排除するものではない。
例えば、検出部100、サーバー200、および携帯端末400は、それぞれ複数の装置により構成されてもよく、いずれか複数の装置が単一の装置として構成されてもよい。
また、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、上述した画像認識システム10における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
本出願は、2019年8月20日に出願された日本特許出願(特願2019-150619号)に基づいており、その開示内容は、参照され、全体として、組み入れられている。

Claims (9)

  1. 撮影装置により撮影された、対象者を含む画像に基づいて、前記対象者の体に関する特徴点を検出する特徴点検出部と、
    検出された前記特徴点に基づいて、前記画像上における前記対象者の幾何特徴を算出する算出部と、
    算出された前記幾何特徴を用いて、前記対象者の行動が所定の行動に含まれる行動であるか否かを判定する判定部と、
    前記判定部により、前記対象者の行動が前記所定の行動に含まれる行動であると判定された場合に、前記対象者の行動に関する情報を出力する出力部と、を有し、
    前記算出部は、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位の長さの変化を算出し、
    前記判定部は、前記対象者の所定部位の長さの変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する画像処理システム。
  2. 前記算出部は、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位同士の角度の変化を算出し、
    前記判定部は、前記対象者の所定部位同士の角度の変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する請求項に記載の画像処理システム。
  3. 前記算出部は、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の頭部の大きさまたは形状の変化を算出し、
    前記判定部は、前記対象者の頭部の大きさまたは形状の変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する請求項1または2に記載の画像処理システム。
  4. 前記算出部は、前記幾何特徴として、前記画像上における前記対象者の位置を算出し、
    前記判定部は、前記画像上における前記対象者の位置を考慮して前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する請求項1~のいずれか一項に記載の画像処理システム。
  5. 前記特徴点検出部によって検出された前記特徴点に基づいて、前記対象者の姿勢を推定する推定部をさらに有し、
    前記判定部は、前記幾何特徴および前記姿勢を用いて、前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する請求項1~のいずれか一項に記載の画像処理システム。
  6. 前記所定の行動は転倒および転落であり、
    前記判定部は、前記対象者の行動が、転倒および転落の少なくともいずれかであるかどうか判定する、請求項1~のいずれか一項に記載の画像処理システム。
  7. 前記撮影装置は広角カメラであり、前記画像は、所定の領域を俯瞰する位置に設置された前記広角カメラにより撮影された前記所定の領域を含む画像である、請求項1~のいずれか一項に記載の画像処理システム。
  8. 撮影装置により撮影された、対象者を含む画像に基づいて、前記対象者の体に関する特徴点を検出する手順(a)と、
    検出された前記特徴点に基づいて、前記画像上における前記対象者の幾何特徴を算出する手順(b)と、
    算出された前記幾何特徴を用いて、前記対象者の行動が所定の行動に含まれる行動であるか否かを判定する手順(c)と、
    前記手順(c)において、前記対象者の行動が前記所定の行動に含まれる行動であると判定された場合に、前記対象者の行動に関する情報を出力する手順(d)と、を有し、
    前記手順(b)においては、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位の長さの変化を算出し、
    前記手順(c)においては、前記対象者の所定部位の長さの変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する処理をコンピューターに実行させるための画像処理プログラム。
  9. 画像処理システムに実行させる方法であって、
    撮影装置により撮影された、対象者を含む画像に基づいて、前記対象者の体に関する特徴点を検出する段階(a)と、
    検出された前記特徴点に基づいて、前記画像上における前記対象者の幾何特徴を算出する段階(b)と、
    算出された前記幾何特徴を用いて、前記対象者の行動が所定の行動に含まれる行動であるか否かを判定する段階(c)と、
    前記段階(c)において、前記対象者の行動が前記所定の行動に含まれる行動であると判定された場合に、前記対象者の行動に関する情報を出力する段階(d)と、を有し、
    前記段階(b)においては、複数の前記特徴点の位置関係の変化に基づいて、前記幾何特徴として、前記画像上における前記対象者の所定部位の長さの変化を算出し、
    前記段階(c)においては、前記対象者の所定部位の長さの変化に基づいて前記対象者の行動が前記所定の行動に含まれる行動であるか否かを判定する画像処理方法。
JP2021540740A 2019-08-20 2020-08-11 画像処理システム、画像処理プログラム、および画像処理方法 Active JP7388440B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019150619 2019-08-20
JP2019150619 2019-08-20
PCT/JP2020/030587 WO2021033597A1 (ja) 2019-08-20 2020-08-11 画像処理システム、画像処理プログラム、および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2021033597A1 JPWO2021033597A1 (ja) 2021-02-25
JP7388440B2 true JP7388440B2 (ja) 2023-11-29

Family

ID=74661133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021540740A Active JP7388440B2 (ja) 2019-08-20 2020-08-11 画像処理システム、画像処理プログラム、および画像処理方法

Country Status (2)

Country Link
JP (1) JP7388440B2 (ja)
WO (1) WO2021033597A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015033576A1 (ja) 2013-09-06 2015-03-12 日本電気株式会社 セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体
WO2016143641A1 (ja) 2015-03-06 2016-09-15 コニカミノルタ株式会社 姿勢検知装置および姿勢検知方法
JP2017091552A (ja) 2015-06-09 2017-05-25 コニカミノルタ株式会社 行動検知装置および行動検知方法ならびに被監視者監視装置
JP6525180B1 (ja) 2018-04-11 2019-06-05 株式会社アジラ 対象数特定装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5622446A (en) * 1979-07-31 1981-03-03 Ricoh Co Ltd Continuous copy system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015033576A1 (ja) 2013-09-06 2015-03-12 日本電気株式会社 セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体
WO2016143641A1 (ja) 2015-03-06 2016-09-15 コニカミノルタ株式会社 姿勢検知装置および姿勢検知方法
JP2017091552A (ja) 2015-06-09 2017-05-25 コニカミノルタ株式会社 行動検知装置および行動検知方法ならびに被監視者監視装置
JP6525180B1 (ja) 2018-04-11 2019-06-05 株式会社アジラ 対象数特定装置

Also Published As

Publication number Publication date
WO2021033597A1 (ja) 2021-02-25
JPWO2021033597A1 (ja) 2021-02-25

Similar Documents

Publication Publication Date Title
JP7271915B2 (ja) 画像処理プログラムおよび画像処理装置
JP6137425B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
EP3689236A1 (en) Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
JP6717235B2 (ja) 見守り支援システム及びその制御方法
JP6115692B1 (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
WO2017081829A1 (ja) 行動検知装置、行動検知方法及び行動検知プログラム
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2020134971A (ja) 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP2019204366A (ja) 行動監視装置及び行動監視方法
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
JP7117491B2 (ja) 認知機能評価システム、及び、プログラム
Srp et al. Possible techniques and issues in fall detection using asynchronous temporal-contrast sensors
JP2023075559A (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
JP2021065617A (ja) 画像処理装置および画像処理プログラム
WO2023076655A1 (en) In-bed pose and posture tracking system
Yen et al. Human-centric situational awareness in the bedroom
Srp et al. Mögliche Techniken und Probleme bei Sturzerkennung mit asynchronen Temporalkontrast-Sensoren

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7388440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150