JP2021033379A - 画像処理システム、画像処理プログラム、および画像処理方法 - Google Patents

画像処理システム、画像処理プログラム、および画像処理方法 Download PDF

Info

Publication number
JP2021033379A
JP2021033379A JP2019149164A JP2019149164A JP2021033379A JP 2021033379 A JP2021033379 A JP 2021033379A JP 2019149164 A JP2019149164 A JP 2019149164A JP 2019149164 A JP2019149164 A JP 2019149164A JP 2021033379 A JP2021033379 A JP 2021033379A
Authority
JP
Japan
Prior art keywords
posture
height
unit
behavior
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019149164A
Other languages
English (en)
Inventor
一谷 修司
Shuji Ichitani
修司 一谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019149164A priority Critical patent/JP2021033379A/ja
Publication of JP2021033379A publication Critical patent/JP2021033379A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影された画像に基づく人物の姿勢および行動の推定精度を向上できる、画像処理システムを提供する。【解決手段】対象者の所定部位の基準位置からの高さを特定する高さ特定部と、撮影装置により撮影された、対象者を含む画像と、高さ特定部により特定された当該高さと、に基づいて、対象者の姿勢を推定する姿勢推定部と、を有する。【選択図】図3

Description

本発明は、画像処理システム、画像処理プログラム、および画像処理方法に関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、撮影された画像から要介護者等の状態を検出するためのシステムの開発が進められている。このようなシステムで要介護者等の状態を検出するためには、画像から検知対象である人物の姿勢や行動を高精度で検出する必要がある。
下記特許文献1には、次の先行技術が開示されている。被監視者の所定行動を検知して通知等をする検知ユニットによる監視機能を、端末ユニットから受信した情報等に基づいて停止する。これにより、必要に応じて監視機能を停止できるため、被監視者以外の者に対する誤検知を低減できる。
国際公開第2016/152428号
しかし、上記特許文献1に開示された先行技術は、被監視者以外の者の行動を被監視者の行動として誤検知することを防止できるが、被監視者の姿勢および行動の検知精度を向上できないという問題がある。
本発明は、このような問題を解決するためになされたものである。すなわち、撮影された画像に基づく人物の姿勢および行動の推定精度を向上できる、画像処理システム、画像処理プログラム、および画像処理方法を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)対象者の所定部位の基準位置からの高さを特定する高さ特定部と、撮影装置により撮影された、前記対象者を含む画像と、前記高さ特定部により特定された前記高さと、に基づいて、前記対象者の姿勢を推定する姿勢推定部と、を有する画像処理システム。
(2)前記姿勢推定部は、前記画像に基づいて前記対象者の姿勢の候補を推定する姿勢候補推定部と、前記姿勢候補推定部により推定された前記対象者の姿勢の前記候補を、前記高さ特定部により特定された前記高さに基づいて補正する補正部と、を有し、前記補正部による補正後の前記候補を、前記対象者の姿勢として推定する、上記(1)に記載の画像処理システム。
(3)前記姿勢推定部は、前記画像に基づいて、人の体に関する特徴点を特定する特徴点特定部を有し、前記姿勢候補推定部は、特徴点特定部により特定された前記特徴点に基づいて、前記対象者の姿勢の前記候補を推定する、上記(2)に記載の画像処理システム。
(4)前記高さ特定部は、複数の前記撮影装置によりそれぞれ撮影された、複数の前記画像に基づいて前記高さを特定し、または、所定位置から前記所定部位に照射された光の照射開始から、前記所定部位により反射された反射光の前記所定位置での受光までの時間に基づいて前記高さを特定する、上記(1)〜(3)のいずれかに記載の画像処理システム。
(5)前記補正部は、前記高さ特定部により特定された前記高さと閾値との比較結果に基づいて前記姿勢候補推定部により推定された前記対象者の姿勢の前記候補を補正し、
前記閾値を、前記撮影装置から前記対象者までの距離に応じて切り換える、上記(2)または(3)に記載の画像処理システム。
(6)前記姿勢推定部により推定された姿勢に基づいて前記対象者の行動を推定する行動推定部と、前記行動推定部により推定された行動が所定行動に含まれるかどうか判定する判定部と、前記判定部により、前記行動推定部により推定された行動が所定行動に含まれると判定された場合に、前記対象者の行動に関する情報を出力する出力部と、をさらに有する上記(1)〜(5)のいずれかに記載の画像処理システム。
(7)対象者の所定部位(頭)の基準位置からの高さを特定する手順(a)と、撮影装置により撮影された、前記対象者を含む画像と、特定された前記高さと、に基づいて、前記対象者の姿勢を推定する手順(b)と、を有する手順をコンピューターに実行させるための画像処理プログラム。
(8)画像処理システムに実行させる方法であって、対象者の所定部位(頭)の基準位置からの高さを特定する段階(a)と、撮影装置により撮影された、前記対象者を含む画像と、特定された前記高さと、に基づいて、前記対象者の姿勢を推定する段階(b)と、
を有する画像処理方法。
対象者の所定部位の基準位置からの高さを特定し、撮影された画像と、当該高さとに基づいて対象者の姿勢を推定する。これにより、撮影された画像に基づく人物の姿勢および行動の推定精度を向上できる。
画像認識システムの概略構成を示す図である。 検出部の構成を示すブロック図である。 制御部の機能ブロック図である。 画像において検出された人物領域を示す図である。 特徴点を示す図である。 立位の姿勢の対象者の画像から特定された特徴点と、臥位の姿勢の対象者の画像から特定された特徴点とを比較して示す図である。 立位の姿勢の対象者の画像から特定された特徴点ごとの部位高さと、臥位の姿勢の対象者の画像から特定された特徴点ごとの部位高さとを比較して示す図である。 サーバーの構成を示すブロック図である。 携帯端末の構成を示すブロック図である。 画像認識システムの動作を示すフローチャートである。 制御部の機能ブロック図である。 画像認識システムの動作を示すフローチャートである。
以下、図面を参照して、本発明の実施形態に係る、画像処理システム、画像処理プログラム、および画像処理方法について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
(第1実施形態)
図1は、画像認識システム10の概略構成を示す図である。
画像認識システム10は、検出部100、サーバー200、通信ネットワーク300、および携帯端末400を有する。検出部100は、通信ネットワーク300によりサーバー200および携帯端末400と相互に通信可能に接続される。携帯端末400はアクセスポイント310を介して通信ネットワーク300と接続され得る。検出部100は、画像処理システムを構成する。検出部100は、1つの一体化された装置でも、分離配置される複数の装置でもあり得る。なお、後述するように、検出部100の機能の一部をサーバー200が実施するようにしてもよい。
(検出部100)
図2は、検出部100の構成を示すブロック図である。図2の例に示すように、検出部100は、制御部110、通信部120、カメラ130、および体動センサー140を備え、これらはバスによって相互に接続されている。カメラ130は、撮影装置を構成する。
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って検出部100の各部の制御および演算処理を行う。制御部110の作用の詳細については後述する。
通信部120は、通信ネットワーク300を介して、携帯端末400等と通信するためのインターフェース回路(例えばLANカード等)である。
カメラ130は、例えば広角カメラである。カメラ130は、検出部100が対象者500の居室の天井等に設置されることで、所定の領域を俯瞰する位置に設置され、当該所定の領域を含む画像(以下、単に「画像600」とも称する)を撮影する。対象者500は、例えばスタッフ等により介護または看護を必要とする者である。所定の領域は対象者500の居室の床面全体を含む3次元の領域であり得る。カメラ130は、広角カメラより画角が狭い標準カメラであってもよい。以下、説明を簡単にするために、カメラ130は、広角カメラであるものとして説明する。画像600には、対象者500が画像として含まれ得る。画像600には、静止画および動画が含まれる。カメラ130は近赤外線カメラであり、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで所定の領域を撮影し得る。画像600は近赤外線の反射率を各画素とするモノクロ画像であり得る。カメラ130は、近赤外線カメラに代替して可視光カメラを用いてもよく、これらを併用してもよい。
体動センサー140は、ベッド700に対してマイクロ波を送受信して対象者500の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式のセンサーである。
制御部110の作用について説明する。
図3は、制御部110の機能ブロック図である。制御部110は、姿勢推定部111、部位高さ特定部112、行動推定部113、判定部114、および出力部115として機能する。姿勢推定部111には、特徴点特定部111a、姿勢候補推定部111b、および補正部111cが含まれ得る。部位高さ特定部112は高さ特定部を構成する。
制御部110は、図3の機能ブロック図に示す機能を実行することで、画像600に基づいて、対象者500の行動を推定し、推定された行動が所定行動に含まれる場合、対象者500の行動に関する情報を出力する。制御部110は、画像600から検出した人の画像のシルエット(以下、「人シルエット」と称する)に基づいて、対象者500の所定行動を検出したことを契機として、図3の機能ブロック図に示す機能を実行することで、画像600に基づいて、対象者500の所定行動を推定(再検出)し得る。なお、制御部110は、人シルエットに基づく対象者500の所定行動の検出とは独立に、常時、図3の機能ブロック図に示す機能を実行してもよい。所定行動には、転倒、および転落が含まれる。なお、所定行動には、起床および離床がさらに含まれてもよい。
以下、説明を簡単にするために、制御部110は、人シルエットに基づいて所定行動を検出したことを契機として、図3の機能ブロック図に示す機能を実行するものとして説明する。
制御部110は、画像600から人シルエットを検出する。人シルエットは、例えば、撮影時刻が前後する画像(フレーム)の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出され得る。人シルエットは、撮影画像と背景画像との差分を抽出する背景差分法により検出されてもよい。制御部110は、人シルエットに基づいて、対象者500の所定行動を検出し得る。制御部110は、例えば、検出されたシルエットの重心が、時系列で動いていた状態から急に停止した状態に変化したことや、人シルエットに対応する矩形のアスペクト比の変化等により、転倒を検出し得る。制御部110は、例えば、人シルエットがベッド700の領域内に存在している状態から急にベッド700の領域外に存在している状態に変化したことや、人シルエットに対応する矩形のアスペクト比の変化等により、転落を検出し得る。画像600におけるベッド700の領域は、検出部100が設置される際に予め設定され、データとして制御部110のメモリに記憶され得る。なお、制御部110は、人シルエットと、ベッド700の領域との関係や、人シルエットに対応する矩形のアスペクト比の変化等により、起床および離床をそれぞれ検出し得る。後述するように、検出部100の一部の機能(図3の機能ブロック図に示す機能等)がサーバー200により実行される場合等においては、制御部110は、人シルエットに基づいて検出された、対象者500の所定行動を示す行動特定情報をサーバー200へ送信し得る。
特徴点特定部111aは、画像600に基づいて、対象者500を含む領域として、人物領域610を検出し、人物領域610に基づいて、人の体に関する特徴点(以下、単に「特徴点620」とも称する)を特定する。
図4は、画像600において検出された人物領域610を示す図である。
特徴点特定部111aは、画像600から、人物である対象者500を含む領域を人物領域610として検出する。具体的には、特徴点特定部111aは、画像600上で物体(オブジェクト)が存在する領域を検出し、検出した領域に含まれる物体のカテゴリーを推定することで、人物領域610を検出し得る。物体が存在する領域は、画像600上で物体が含まれる矩形(候補矩形)として検出され得る。特徴点特定部111aは、検出された候補矩形のうち、物体のカテゴリーが人物であると推定された候補矩形を検出することで、人物領域610を検出する。人物領域610は、ニューラルネットワーク(以下、「NN」と称する)を用いて検出され得る。NNによる人物領域610の検出方法としては、例えば、Faster R−CNN、Fast R−CNN、およびR−CNNといった公知の方法が挙げられる。画像600から人物領域610を検出するためのNNは、画像600と、当該画像600に対する正解として設定された人物領域610との組合せの教師データを用いて、画像600から人物領域610を検出(推定)するための学習が予めされる。
図5は、特徴点620を示す図である。特徴点620には、関節点621、および頭部622が含まれ得る。なお、特徴点620は、図5の例に限定されず、例えば、後述する図6の例に示すようなものでもよい。
関節点621には、例えば、腰の関節点621a、621bが含まれる。頭部622は、例えば、対象者50の頭を含む領域(例えば、頭部矩形)の2つの対頂点である。頭部622は頭部矩形の重心であってもよい(図7参照)。特徴点620は、画像600における座標として検出され得る。特徴点620は、DeepPose等のNNを用いた公知の技術により検出され得る。DeepPoseについては、公知の文献(Alexander Toshev, et al. “DeepPose: Human Pose Estimation via Deep Neural Networks”, in CVPR, 2014)に詳細が記載されている。人物領域610から特徴点620を検出するためのNNは、人物領域610と、当該人物領域610に対する正解として設定された特徴点620との組合せの教師データを用いて、人物領域610から特徴点620を特定(推定)するための学習が予めされる。なお、特徴点620は、画像600から特徴点620を検出するためのNNを用いて、画像600から直接特定(推定)されてもよい。この場合、画像600から特徴点620を検出するためのNNは、画像600と、当該画像600に対する正解として設定された特徴点620との組合せの教師データを用いて、画像600から特徴点620を特定(推定)するための学習が予めされる。
姿勢候補推定部111bは、特徴点620に基づいて、対象者500の姿勢の候補(以下、単に「姿勢候補」とも称する)を推定する。姿勢候補は、特徴点620から姿勢を検出するためのNNを用いて推定され得る。この場合、特徴点620から姿勢を検出するためのNNは、特徴点620と、当該特徴点620に対する正解として設定された姿勢との組合せの教師データを用いて、特徴点620から姿勢を推定するための学習が予めされる。姿勢候補は、特徴点620または画像600に基づいて姿勢を検出するための隠れマルコフモデルを用いて推定されてもよい。姿勢には、立位、臥位、座位、中腰、しゃがみ込み、座り込み、および転倒中が含まれる。座り込みは、例えば、床上で座っている姿勢であるが、座位と区別される。座位には、椅子上で座っている姿勢やベッド700上で座っている姿勢が含まれる。
部位高さ特定部112は、対象者500の所定部位の基準位置からの高さ(以下、「部位高さ」とも称する)を特定する。所定部位は、例えば、対象者500の頭や腰であり得る。対象者500の頭の部位高さは、例えば、頭部622のいずれか1つの高さや、頭部622の重心に対応する。対象者500の腰の部位高さは、例えば、腰の関節点621a、621bのいずれか1つの高さや、腰の関節点621a、621bの重心の高さに対応する。基準位置は、例えば床である。
部位高さ特定部112は、複数のカメラ130によりそれぞれ撮影された、複数の画像600に基づいて、演算により部位高さを特定し得る。例えば、複数のカメラ130で撮影された複数の画像600に含まれる所定部位の各位置から算出される視差と、複数のカメラ130の、既知の、基線長および焦点距離とからカメラ130から所定部位までの距離(最短距離)を算出する。カメラ130による画像600上のカメラ130の直下の位置に対応する位置と、画像600上の所定部位の位置とに基づいて、カメラ130から所定部位までの水平方向の距離を算出する。カメラ130から所定部位までの距離と、カメラ130から所定部位までの水平方向の距離とに基づいて、カメラ130から所定部位までの垂直方向の距離を算出する。そして、カメラ130から所定部位までの垂直方向の距離を、既知の、カメラ130の設置高さ(床からのカメラ130の高さ)から差し引くことで、部位高さを特定(算出)できる。この場合、カメラ130はステレオカメラにより構成され得る。なお、部位高さ特定部112は、TOF(Time Of Flight)により、部位高さを特定してもよい。すなわち、所定位置に設置された、検出部100の光照射部(図示せず)から、所定部位に照射された光の照射開始から、所定部位で反射された反射光の、当該所定位置に設置された受光部(図示せず)による受光までの時間に基づいて部位高さを特定し得る。
補正部111cは、姿勢候補を、部位高さに基づいて補正する。
図6は、立位の姿勢の対象者500の画像600から特定された特徴点620と、臥位の姿勢の対象者500の画像600から特定された特徴点620とを比較して示す図である。図6のAは、立位の姿勢の対象者500の画像600から特定された特徴点620を示す図である。図6のBは、臥位の姿勢の対象者500の画像600から特定された特徴点620を示す図である。図6においては、特徴点620が、黒丸により示されている。
図6の例に示すように、立位の姿勢と臥位の姿勢は、関節が全体的に比較的伸びた状態になることで共通するため、画像600上の区別が比較的困難になる。このため、特徴点620に基づく姿勢推定では、例えば、立位を臥位と誤推定される可能性がある。従って、姿勢候補推定部111bにより特徴点620に基づいて推定された姿勢候補には、誤推定された推定結果が含まれる可能性がある。
補正部111cは、姿勢候補を、部位高さに基づいて補正することで、特徴点620に基づく姿勢の推定精度を向上する。補正部111cは、例えば、部位高さと閾値とを比較することで、姿勢候補を補正する。具体的には、所定部位が頭(頭部622に対応)である場合、頭部の部位高さが閾値である1m以上であれば、姿勢候補推定部111bにより臥位と推定されたとしても、姿勢候補である臥位を立位に補正する。また、頭部622の部位高さが閾値である0.5m以下であれば、姿勢候補推定部111bにより立位と推定されたとしても、姿勢候補である立位を臥位に補正する。また、所定部位が腰(例えば、腰の関節点621a、621bのいずれか1つに対応)である場合、腰の部位高さが、例えば1m以上であれば、姿勢候補推定部111bにより座り込みと推定されたとしても、座位に補正される。腰の部位高さが、例えば0.2m以下であれば、姿勢候補推定部111bにより座位と推定されたとしても、座り込みに補正される。閾値、および当該閾値が適用される補正前後の姿勢は、特徴点620(または画像600)に基づく姿勢推定精度の観点から、実験により適当に設定され得る。閾値は、画像600における対象者500の位置に応じて設定される。画像600における対象者500の位置は、カメラ130から対象者500までの距離に対応する。例えば、カメラ130の直下が画像600の中心に設定される場合は、カメラ130から対象者500までの距離は、画像600における、画像600の中心から対象者500までの距離に対応する。従って、閾値が、カメラ130から対象者500までの距離に応じて設定されることは、閾値が画像600における、画像600の中心から対象者500までの距離に応じて設定されることに対応する。例えば、画像600の中心から比較的短い距離の範囲内を第1範囲、画像600の中心から比較的遠い距離の範囲内を第3範囲、第1範囲と第3範囲の間の範囲を第2範囲とする。そして、範囲毎に補正するための閾値の基準を変える。このように、範囲毎に補正するための閾値の基準を変えるのは、特にカメラ130が広角カメラの場合、カメラ130による画像600上の対象者500の映り方が、カメラ130から対象者500までの距離に応じて変わるからである。また、部位高さの測定精度が、カメラ130から対象者500までの距離に応じて変わり得るからである。範囲毎の閾値は、特徴点620(または画像600)に基づく姿勢推定精度の観点から、実験により適当に設定され得る。
図7は、立位の姿勢の対象者500の画像600から特定された特徴点620ごとの部位高さと、臥位の姿勢の対象者500の画像600から特定された特徴点620ごとの部位高さとを比較して示す図である。図7のAは、立位の姿勢の対象者500の画像600から特定された特徴点620ごとの部位高さを示す図である。図6のBは、臥位の姿勢の対象者500の画像600から特定された特徴点620ごとの部位高さを示す図である。図7においては、特徴点620ごとの部位高さが、各特徴点の色(グレー)の濃度により示されている。
図7の例に示すように、立位の姿勢の対象者500の画像600から特定された頭部622の部位高さと、臥位の姿勢の対象者500の画像600から特定された頭部622の部位高さとでは、立位の方が明確に高い。従って、姿勢候補推定部111bにより特徴点620に基づいて推定された姿勢候補を、頭部622の部位高さが閾値以上かどうかにより補正することで、特徴点620に基づく姿勢の推定精度を向上できる。
行動推定部113は、姿勢推定部111により推定された対象者500の姿勢に基づいて、対象者500の行動を推定する。対象者500の行動は、例えば、姿勢推定部111により、立位の姿勢と、臥位の姿勢とが、時系列で連続する画像600(フレーム)からそれぞれ推定された場合、対象者500が転倒または転落の少なくともいずれかをしたと推定する。また、座位の姿勢と、臥位の姿勢とが、時系列で連続する画像600からそれぞれ推定された場合、対象者500が転倒または転落したと判定してもよい。なお、行動推定部113は、転倒および転落を区別しない。しかし、転倒か転落かは、人シルエットに基づく所定行動の検出において区別されているため、転倒および転落のいずれかであると推定できれば十分である。人シルエットに基づいて転倒または転落が検出されたときに、さらに、対象者50の姿勢と、部位高さとに基づいて、転倒および転落のいずれかであると判定することにより、転倒および転落の検出精度を向上できる。そして、後述するように、所定行動である、転倒および転落のいずれかであると判定部114に判定された場合にのみ、出力部115により対象者500の行動に関する情報が出力されるため、人シルエットに基づく所定行動の誤検知を抑制できる。
なお、行動推定部113は、転倒および転落を区別してもよい。例えば、ベッド700の領域内における臥位または立位の姿勢と、ベッド700の領域外における臥位の姿勢とが時系列で連続する画像600からそれぞれ推定された場合、対象者500が転落したと推定し得る。ベッド700の領域外において、立位の姿勢と、臥位の姿勢とが時系列で連続する画像600からそれぞれ推定された場合、対象者500が転倒したと推定し得る。
判定部114は、行動推定部113により推定された、対象者500の行動が、所定の行動に含まれる行動かどうか判定する。すなわち、判定部114は、行動推定部113により推定された、対象者500の行動が、所定の行動である、転倒および転落のいずれかであるかどうか判定する。
出力部115は、判定部114による対象者500の行動の判定結果が、対象者500が所定行動に含まれる行動であるという判定結果である場合、対象者500の行動に関する情報を、通信部120によりサーバー200に送信すること等により、出力する。対象者500の行動に関する情報は、対象者500の行動が所定行動のいずれかであることを示す第1情報、または、人シルエットに基づき検出された所定行動の確度(確率)が高いことを示す第2情報であり得る。第1情報は、例えば、「対象者500の行動が、転倒および転落のいずれかである」という情報である。第2情報は、例えば、「検出された行動である確率が高い」という情報である。制御部110は、上述したように、対象者500の行動に関する情報と関連付けて、人シルエットに基づいて検出された、対象者500の所定行動を示す行動特定情報をさらにサーバー200等に送信し得る。第1情報、第2情報、および行動特定情報には、対象者500のID(番号)等の対象者500を特定する情報、および画像600の撮影時間等が含まれることで関連付けされ得る。後述するように、サーバー200において、行動特定情報と、対象者500の行動に関する情報と、に基づいて、対象者500が、人シルエットに基づいて検出された所定行動をしたという最終判断がされ得る。
また、制御部110により、人シルエットに基づいて対象者500の所定行動のいずれかが検出され、かつ、判定部114による対象者500の行動の判定結果が、対象者500が所定行動に含まれる行動であるという判定結果である場合、制御部110が、対象者500が人シルエットに基づいて検出された所定行動をしたという最終判断をしてもよい。この場合、出力部115は、対象者500が所定行動をしたという最終判断を示す第3情報を、対象者500の行動に関する情報としてサーバー200等に送信(出力)し得る。なお、この場合、行動特定情報はサーバー200等に送信される必要はない。第3情報は、例えば、「対象者500が転倒した」という情報である。第3情報には、対象者500の氏名等の対象者500を特定する情報が含まれる。第3情報は、イベント情報として携帯端末400へ送信されてもよい。
また、図3に示す制御部110の機能は、サーバー200により実行されてもよい。この場合、制御部110は、画像600をサーバー200へ送信するとともに、人シルエットに基づいて検出された、対象者500の所定行動を示す行動特定情報をサーバー200へ送信する。サーバー200は、行動特定情報を受信したことを契機として、画像600に基づいて姿勢候補を推定し、部位高さを特定し、部位高さに基づいて姿勢候補を補正することで、対象者500の姿勢を推定する。サーバー200は、推定された姿勢に基づいて行動を推定し、推定した行動が所定行動に含まれると判断した場合、対象者500が、行動特定情報が示す所定行動をしたという最終判断をする。そして、サーバー200は、対象者500の所定行動をしたということを示す、対象者500の行動に関する情報を、イベント通知として携帯端末400へ送信し、または表示部(図示せず)に表示することにより出力する。
(サーバー200)
図8は、サーバー200の構成を示すブロック図である。サーバー200は、制御部210、通信部220、および記憶部230を備える。各構成要素は、バスによって、相互に接続されている。
制御部210および通信部220の基本構成は、検出部100の対応する構成要素である、制御部110および通信部120と同様である。記憶部230は、RAM、ROM、HDD(Hard Disc Drive)等により構成される。
制御部210は、通信部220により、検出部100から対象者500の行動に関する情報を受信する。制御部210は、検出部100から行動特定情報をさらに受信し得る。
制御部21は、対象者500の行動に関する情報が、対象者500の行動が所定行動のいずれかであることを示す第1情報である場合、対象者500が、行動特定情報が示す所定行動をしたという最終判断をする。制御部21は、対象者500の行動に関する情報が、人シルエットに基づき検出された所定行動の確度(確率)が高いことを示す第2情報である場合も、同様に、対象者500が、行動特定情報が示す所定行動をしたという最終判断をする。制御部21は、行動特定情報が示す所定行動をしたという最終判断をしたときに、対象者500が所定行動(例えば、転倒)をしたことをスタッフ等に通知するためのイベント通知を、携帯端末400等に送信し得る。
制御部21は、対象者500の行動に関する情報が、対象者500の所定行動をしたという最終判断を示す第3情報である場合、対象者500が所定行動をしたことをスタッフ等に通知するためのイベント通知を、携帯端末400等に送信し得る。
サーバー200は、図3に示す機能を検出部100に代替して実行し得る。例えば、サーバー200は、検出部100から画像600を受信する。サーバー200は、人シルエットに基づいて検出された、対象者500の所定行動を示す行動特定情報を受信する。そして、サーバー200は、行動特定情報を受信したことを契機として、画像600に基づいて姿勢候補を推定し、部位高さを特定し、部位高さに基づいて姿勢候補を補正することで、対象者500の姿勢を推定する。サーバー200は、推定された姿勢に基づいて行動を推定し、推定した行動が所定行動に含まれると判断した場合、対象者500が、行動特定情報が示す所定行動をしたという最終判断をする。そして、サーバー200は、対象者500の所定行動をしたということを示す、対象者500の行動に関する情報を、イベント通知として携帯端末400へ送信し、または表示部(図示せず)に表示することにより出力する。
また、サーバー200は、検出部100から画像600を受信し、検出部100に代替して、画像600から人シルエットを検出し、人シルエットに基づいて、対象者500の所定行動を検出してもよい。そして、対象者500の所定行動が検出されたことを契機として、図3に示す機能を実行する。サーバー200は、画像600に基づいて姿勢候補を推定し、部位高さを特定し、部位高さに基づいて姿勢候補を補正することで、対象者500の姿勢を推定する。サーバー200は、推定された姿勢に基づいて行動を推定し、推定した行動が所定行動に含まれると判断した場合、対象者500が、行動特定情報が示す所定行動をしたという最終判断をする。そして、サーバー200は、対象者500の所定行動をしたということを示す、対象者500の行動に関する情報を、イベント通知として携帯端末400へ送信し、または表示部(図示せず)に表示することにより出力する。
(携帯端末400)
図9は、携帯端末400の構成を示すブロック図である。携帯端末400は、制御部410、無線通信部420、表示部430、入力部440、および音声入出力部450を備える。各構成要素は、バスにより相互に接続されている。携帯端末400は、例えば、タブレット型コンピューター、スマートフォン、または携帯電話等の通信端末機器によって構成され得る。
制御部410は、検出部100の制御部110の構成と同様に、CPU、RAM、ROMなどの基本構成を備える。
無線通信部420は、Wi−Fi、Bluetooth(登録商標)などの規格による無線通信を行う機能を有し、アクセスポイント310を経由して、または直接に各装置と無線通信する。無線通信部420は、イベント通知をサーバー200から受信する。
表示部430および入力部440は、タッチパネルであり、液晶などで構成される表示部430の表示面に、入力部440としてのタッチセンサーが設けられる。表示部430、入力部440によって、イベント通知を表示する。そして、イベント通知に関する対象者500への対応を促す入力画面を表示するとともに、当該入力画面に入力された、スタッフによるイベント通知への対応の意思を受け付けて、サーバー200へ送信する。
音声入出力部450は、例えばスピーカーとマイクであり、無線通信部420を介して他の携帯端末400との間でスタッフ相互間の音声通話を可能にする。また、音声入出力部450は、無線通信部420を介して検出部100との間で音声通話を可能にする機能を備え得る。
画像認識システム10の動作について説明する。
図10は、画像認識システム10の動作を示すフローチャートである。本フローチャートは、プログラムに従い、検出部100の制御部110により実行され得る。なお、図3に示す機能がサーバー200により実行される場合は、本フローチャートは、プログラムに従い、サーバー200の制御部210により実行される。
特徴点特定部111aは、画像600から検出した人シルエットに基づいて、対象者500の所定行動が検出されたことを契機に、画像600を、例えばカメラ130から取得し(S101)、画像600に基づいて、特徴点620を特定する(S102)。
部位高さ特定部112は、複数のカメラ130により撮影された複数の画像600等に基づいて部位高さを特定する(S103)。
姿勢候補推定部111bは、特徴点620に基づいて、姿勢候補を推定する(S104)。
補正部111cは、部位高さに基づいて姿勢候補を補正することで、対象者500の姿勢を推定する(S105)。
行動推定部113は、推定された、対象者500の姿勢に基づいて、対象者500の行動を推定する(S106)。
判定部114は、推定された行動が、所定行動に含まれるかどうか判定する(S107)。判定部114により、推定された行動が、所定行動に含まれないと判定された場合(S107:NO)、処理が終了される。
判定部114は、推定された行動が、所定行動に含まれると判定した場合(S107:NO)、対象者500の行動に関する情報を出力する(S108)。
(第2実施形態)
第2実施形態について説明する。本実施形態が第1実施形態と異なる点は次の点である。第1実施形態は、画像600に基づいて、特徴点620を特定して姿勢候補を推定し、部位高さに基づいて姿勢候補を補正することで、対象者500の姿勢を推定する。本実施形態は、画像600および部位高さに基づいて対象者500の姿勢を推定する。これ以外の点については、本実施形態は第1実施形態と同様であるため、重複する説明は省略または簡略化する。
図11は、制御部110の機能ブロック図である。制御部110は、姿勢推定部111、部位高さ特定部112、行動推定部113、判定部114、および出力部115として機能する。
姿勢推定部111は、画像600と、部位高さ特定部112により特定された部位高さとに基づいて、対象者500の姿勢を推定する。対象者500の姿勢は、画像600および部位高さに基づいて姿勢を検出するためのNNを用いて推定され得る。この場合、画像600および部位高さに基づいて姿勢を検出するためのNNは、画像600および部位高さと、当該画像600および部位高さに対する正解として設定された姿勢との組合せの教師データを用いて、画像600および部位高さから姿勢を推定するための学習が予めされる。
図12は、画像認識システム10の動作を示すフローチャートである。本フローチャートは、プログラムに従い、検出部100の制御部110により実行され得る。なお、図11に示す機能がサーバー200により実行される場合は、本フローチャートは、プログラムに従い、サーバー200の制御部210により実行される。
姿勢推定部111は、画像600から検出した人シルエットに基づいて、対象者500の所定行動が検出されたことを契機に、画像600をカメラ130から取得する(S201)。
部位高さ特定部112は、複数のカメラ130により撮影された複数の画像600等に基づいて部位高さを特定する(S202)。
姿勢推定部111は、画像600および部位高さに基づいて、対象者500の姿勢を推定する(S203)。
行動推定部113は、推定された、対象者500の姿勢に基づいて、対象者500の行動を推定する(S204)。
判定部114は、推定された行動が、所定行動に含まれるかどうか判定する(S205)。判定部114により、推定された行動が、所定行動に含まれないと判定された場合(S205:NO)、処理が終了される。
判定部114は、推定された行動が、所定行動に含まれると判定した場合(S205:NO)、対象者500の行動に関する情報を出力する(S206)。
実施形態は以下の効果を奏する。
対象者の所定部位の基準位置からの高さを特定し、撮影された画像と、当該高さとに基づいて対象者の姿勢を推定する。これにより、撮影された画像に基づく人物の姿勢および行動の推定精度を向上できる。
さらに、画像に基づいて対象者の姿勢候補を推定し、推定された姿勢候補を、部位高さに基づいて補正し、補正後の姿勢候補を、対象者の姿勢として推定する。これにより、より簡単に、画像に基づく人物の姿勢および行動の推定精度を向上できる。
さらに、画像に基づいて、人の体に関する特徴点を特定し、特徴点に基づいて、対象者の姿勢候補を推定する。これにより、より簡単かつ効果的に、画像に基づく人物の姿勢および行動の推定精度を向上できる。
さらに、複数の撮影装置によりそれぞれ撮影された、複数の画像に基づいて部位高さを特定し、または、所定位置から所定部位に照射された光の照射開始から、所定部位により反射された反射光の所定位置での受光までの時間に基づいて部位高さを特定する。これにより、容易かつ正確に部位高さを特定できる。
さらに、部位高さと閾値との比較結果に基づいて姿勢候補を補正し、当該閾値を、撮影装置から対象者までの距離に応じて切り換える。これにより、広角カメラにより撮影された画像のような比較的広範囲の画像を使用して対象者の姿勢を推定しても、推定精度を効果的に向上できる。
さらに、推定された姿勢に基づいて対象者の行動を推定し、推定された行動が所定行動に含まれるかどうか判定し、含まれると判定された場合に、対象者の行動に関する情報を出力する。これにより、行動等の誤推定による誤報を効果的に抑制できる。
以上に説明した画像認識システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な画像認識システムが備える構成を排除するものではない。
例えば、検出部100、サーバー200、および携帯端末400は、それぞれ複数の装置により構成されてもよく、いずれか複数の装置が単一の装置として構成されてもよい。
また、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、上述した画像認識システム10における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
10 画像認識システム、
100 検出部、
110 制御部、
111 姿勢推定部、
111a 特徴点特定部、
111b 姿勢候補推定部
111c 補正部、
112 部位高さ特定部、
113 行動推定部、
114 判定部、
115 出力部、
120 通信部、
130 カメラ、
200 サーバー、
300 通信ネットワーク、
310 アクセスポイント、
400 携帯端末、
500 対象者、
600 画像、
610 人物領域、
620 特徴点、
621 関節点、
622 頭部。

Claims (8)

  1. 対象者の所定部位の基準位置からの高さを特定する高さ特定部と、
    撮影装置により撮影された、前記対象者を含む画像と、前記高さ特定部により特定された前記高さと、に基づいて、前記対象者の姿勢を推定する姿勢推定部と、
    を有する画像処理システム。
  2. 前記姿勢推定部は、
    前記画像に基づいて前記対象者の姿勢の候補を推定する姿勢候補推定部と、
    前記姿勢候補推定部により推定された前記対象者の姿勢の前記候補を、前記高さ特定部により特定された前記高さに基づいて補正する補正部と、
    を有し、前記補正部による補正後の前記候補を、前記対象者の姿勢として推定する、
    請求項1に記載の画像処理システム。
  3. 前記姿勢推定部は、前記画像に基づいて、人の体に関する特徴点を特定する特徴点特定部を有し、
    前記姿勢候補推定部は、特徴点特定部により特定された前記特徴点に基づいて、前記対象者の姿勢の前記候補を推定する、請求項2に記載の画像処理システム。
  4. 前記高さ特定部は、複数の前記撮影装置によりそれぞれ撮影された、複数の前記画像に基づいて前記高さを特定し、または、所定位置から前記所定部位に照射された光の照射開始から、前記所定部位により反射された反射光の前記所定位置での受光までの時間に基づいて前記高さを特定する、請求項1〜3のいずれか一項に記載の画像処理システム。
  5. 前記補正部は、前記高さ特定部により特定された前記高さと閾値との比較結果に基づいて前記姿勢候補推定部により推定された前記対象者の姿勢の前記候補を補正し、
    前記閾値を、前記撮影装置から前記対象者までの距離に応じて切り換える、請求項2または3に記載の画像処理システム。
  6. 前記姿勢推定部により推定された姿勢に基づいて前記対象者の行動を推定する行動推定部と、
    前記行動推定部により推定された行動が所定行動に含まれるかどうか判定する判定部と、
    前記判定部により、前記行動推定部により推定された行動が所定行動に含まれると判定された場合に、前記対象者の行動に関する情報を出力する出力部と、
    をさらに有する請求項1〜5のいずれか一項に記載の画像処理システム。
  7. 対象者の所定部位(頭)の基準位置からの高さを特定する手順(a)と、
    撮影装置により撮影された、前記対象者を含む画像と、特定された前記高さと、に基づいて、前記対象者の姿勢を推定する手順(b)と、
    を有する手順をコンピューターに実行させるための画像処理プログラム。
  8. 画像処理システムに実行させる方法であって、
    対象者の所定部位(頭)の基準位置からの高さを特定する段階(a)と、
    撮影装置により撮影された、前記対象者を含む画像と、特定された前記高さと、に基づいて、前記対象者の姿勢を推定する段階(b)と、
    を有する画像処理方法。
JP2019149164A 2019-08-15 2019-08-15 画像処理システム、画像処理プログラム、および画像処理方法 Pending JP2021033379A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019149164A JP2021033379A (ja) 2019-08-15 2019-08-15 画像処理システム、画像処理プログラム、および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149164A JP2021033379A (ja) 2019-08-15 2019-08-15 画像処理システム、画像処理プログラム、および画像処理方法

Publications (1)

Publication Number Publication Date
JP2021033379A true JP2021033379A (ja) 2021-03-01

Family

ID=74678338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149164A Pending JP2021033379A (ja) 2019-08-15 2019-08-15 画像処理システム、画像処理プログラム、および画像処理方法

Country Status (1)

Country Link
JP (1) JP2021033379A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7488216B2 (ja) 2021-03-17 2024-05-21 Kddi株式会社 対応点検出装置、対応点検出方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143641A1 (ja) * 2015-03-06 2016-09-15 コニカミノルタ株式会社 姿勢検知装置および姿勢検知方法
JP2019066238A (ja) * 2017-09-29 2019-04-25 株式会社日立製作所 姿勢推定システム、姿勢推定装置、及び距離画像カメラ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143641A1 (ja) * 2015-03-06 2016-09-15 コニカミノルタ株式会社 姿勢検知装置および姿勢検知方法
JP2019066238A (ja) * 2017-09-29 2019-04-25 株式会社日立製作所 姿勢推定システム、姿勢推定装置、及び距離画像カメラ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7488216B2 (ja) 2021-03-17 2024-05-21 Kddi株式会社 対応点検出装置、対応点検出方法及びプログラム

Similar Documents

Publication Publication Date Title
US7106885B2 (en) Method and apparatus for subject physical position and security determination
JP6137425B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP6984712B2 (ja) 被監視者監視システムおよび被監視者監視システムのプログラム
JP2020086819A (ja) 画像処理プログラムおよび画像処理装置
WO2016199495A1 (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP2020123239A (ja) 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
WO2016199504A1 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
JP2020027405A (ja) 物体検出プログラム、および物体検出装置
JP6737645B2 (ja) 監視装置、監視システム、監視方法及び監視プログラム
WO2021033453A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2020008726A1 (ja) 対象物体検出プログラム、および対象物体検出装置
US20180322334A1 (en) Person Monitoring Device And Method, And Person Monitoring System
JP6870514B2 (ja) 見守り支援システム及びその制御方法
JP2023084685A (ja) 対象をモニタリングするための方法及びシステム
JP2020187389A (ja) 移動体軌跡分析装置、移動体軌跡分析プログラム、および移動体軌跡分析方法
WO2021024691A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2021033597A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JPWO2018016392A1 (ja) 姿勢検出装置及び姿勢検出方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
JP2022126069A (ja) 画像処理方法
JP2021065617A (ja) 画像処理装置および画像処理プログラム
WO2019163561A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507