JP2022165483A - 検出装置、検出システム、検出方法、および検出プログラム - Google Patents

検出装置、検出システム、検出方法、および検出プログラム Download PDF

Info

Publication number
JP2022165483A
JP2022165483A JP2021070825A JP2021070825A JP2022165483A JP 2022165483 A JP2022165483 A JP 2022165483A JP 2021070825 A JP2021070825 A JP 2021070825A JP 2021070825 A JP2021070825 A JP 2021070825A JP 2022165483 A JP2022165483 A JP 2022165483A
Authority
JP
Japan
Prior art keywords
position information
person
image
detection
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021070825A
Other languages
English (en)
Inventor
直樹 池田
Naoki Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2021070825A priority Critical patent/JP2022165483A/ja
Publication of JP2022165483A publication Critical patent/JP2022165483A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】存在しない、人の周辺の物体を誤検知することを抑止可能な、検出装置を提供する。【解決手段】所定領域が撮影された画像を取得する取得部と、人および物体を含む画像から人および前記物体の位置情報を検出する学習がされた学習済モデルを用いて、取得された画像から人および物体の位置情報を検出する検出部と、検出された物体の位置情報が誤検出かどうかを、位置情報が検出された画像より前に所定領域が撮影された画像から検出された過去の位置情報に基づいて判定する判定部と、を有する検出装置。【選択図】図12

Description

本発明は、検出装置、検出システム、検出方法、および検出プログラムに関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、撮影された画像から要介護者等の状態を検出するためのシステムの開発が進められている。このようなシステムで要介護者等の状態を検出するためには、画像から検知対象である人物の姿勢や行動を高精度で検出する必要がある。
下記特許文献1には、次の先行技術が開示されている。魚眼カメラにより得られた魚眼画像から人体候補および物体を検出する。魚眼画像に含まれる大型の机の中央部分等に設定された除外領域と人体候補のバウンディングボックスが重なり合う場合に、人体候補は物体であって物体が人体として誤検出されたと判定する。
特開2020-170247号公報
しかし、人と物体の両方を含む画像の訓練データを用いて学習されたモデルを用いて、画像から人および物体を検知すると、人の動きや姿勢によっては、何も存在しない人の周辺空間に物体を誤検知する現象が起こる場合がある。この現象は、訓練データの画像に人と物体の両方を含む画像を用いることで、人の特徴と周辺物体の特徴とが関連付けられて学習されること等に起因していると考えられる。上記先行技術は、このような誤検知を抑止できないという問題がある。
本発明は上述の問題を解決するためになされたものである。すなわち、存在しない、人の周辺の物体を誤検知することを抑止可能な、検出装置、検出システム、検出方法、および検出プログラムを提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)所定領域が撮影された画像を取得する取得部と、人および物体を含む前記画像から前記人および前記物体の位置情報を検出する学習がされた学習済モデルを用いて、取得された前記画像から前記人および前記物体の前記位置情報を検出する検出部と、検出された前記物体の前記位置情報が誤検出かどうかを、前記位置情報が検出された前記画像より前に前記所定領域が撮影された前記画像から検出された過去の前記位置情報に基づいて判定する判定部と、を有する検出装置。
(2)前記検出部により検出された前記位置情報を記憶する記憶部をさらに有し、前記判定部は、検出された前記位置情報に基づいて、前記人と前記物体との接触があるかどうか判定する接触判定部と、前記接触があると判定された場合に、前記過去の前記位置情報を前記記憶部から参照する参照部と、参照された前記過去の前記位置情報に基づいて、検出された前記物体の前記位置情報が誤検出かどうかを判定する誤検出判定部と、を有する、上記(1)に記載の検出装置。
(3)前記検出部は、前記人の前記位置情報および前記物体の前記位置情報を、それぞれ前記人を含む人領域および前記物体を含む物体領域として検出し、前記接触判定部は、前記人領域と前記物体領域との重なりの大きさが、所定の第1閾値以上の場合前記接触があると判定し、前記第1閾値未満の場合前記接触がないと判定する、上記(2)に記載の検出装置。
(4)前記判定部は、前記人領域および前記物体領域の少なくともいずれか一方の前記画像上の位置に応じて、前記第1閾値を切り替える、上記(3)に記載の検出装置。
(5)前記誤検出判定部は、前記人との前記接触があると判定された前記物体の前記物体領域と、前記参照部により参照された前記過去の前記位置情報に含まれる前記物体領域との重なりの大きさが、所定の第2閾値以下の場合前記物体の前記位置情報が誤検出であると判定し、前記第2閾値より大きい場合前記物体の前記位置情報が誤検出ではないと判定する、上記(3)または(4)に記載の検出装置。
(6)前記物体の前記位置情報の検出が誤検出であると判定された場合、前記検出部により検出された前記位置情報において、誤検出であると判定された前記物体の前記位置情報を削除する補正をする補正部と、補正後の前記位置情報に基づいて前記人の行動を推定する行動推定部と、推定された前記行動を出力する出力部と、をさらに有する上記(1)~(5)のいずれかに記載の検出装置。
(7)前記人が床に座っている姿勢の前記画像が前記取得部により取得された場合、転倒の前記行動が前記出力部から出力され、前記人が椅子に座っている姿勢の前記画像が前記取得部により取得された場合、前記転倒の前記行動が前記出力部から出力されない、上記(6)に記載の検出装置。
(8)前記人が車椅子へ移乗する姿勢の前記画像が前記取得部により取得された場合、前記車椅子への移乗の前記行動が前記出力部から出力され、前記人が前記車椅子以外へ移乗する姿勢の前記画像が前記取得部により取得された場合、前記車椅子への移乗の前記行動が前記出力部から出力されない、上記(6)または(7)に記載の検出装置。
(9)前記画像を撮影する撮影装置と、上記(1)~(8)のいずれかに記載の検出装置と、を有し、前記取得部は、前記撮影装置により撮影された前記画像を取得する、検出システム。
(10)所定領域が撮影された画像を取得する段階(a)と、人および物体を含む前記画像から前記人および前記物体の位置情報を検出する学習がされた学習済モデルを用いて、取得された前記画像から前記人および前記物体の前記位置情報を検出する段階(b)と、検出された前記物体の前記位置情報が誤検出かどうかを、前記位置情報が検出された前記画像より前に前記所定領域が撮影された前記画像から検出された過去の前記位置情報に基づいて判定する段階(c)と、を有する検出方法。
(11)所定領域が撮影された画像を取得する手順(a)と、人および物体を含む前記画像から前記人および前記物体の位置情報を検出する学習がされた学習済モデルを用いて、取得された前記画像から前記人および前記物体の前記位置情報を検出する手順(b)と、検出された前記物体の前記位置情報が誤検出かどうかを、前記位置情報が検出された前記画像より前に前記所定領域が撮影された前記画像から検出された過去の前記位置情報に基づいて判定する手順(c)と、を有する処理をコンピューターに実行させるための検出プログラム。
(12)前記処理は、前記手順(b)において検出された前記位置情報を記憶する手順(d)をさらに有し、前記手順(c)は、検出された前記位置情報に基づいて、前記人と前記物体との接触があるかどうか判定する手順(c1)と、前記接触があると判定された場合に、前記手順(d)において記憶された前記過去の前記位置情報を参照する手順(c2)と、参照された前記過去の前記位置情報に基づいて、検出された前記物体の前記位置情報が誤検出かどうかを判定する手順(c3)と、を有する、上記(11)に記載の検出プログラム。
(13)前記手順(b)においては、前記人の前記位置情報および前記物体の前記位置情報を、それぞれ前記人を含む人領域および前記物体を含む物体領域として検出し、前記手順(c)は、前記人領域と前記物体領域との重なりの大きさが、所定の第1閾値以上の場合前記接触があると判定し、前記第1閾値未満の場合前記接触がないと判定する、上記(12)に記載の検出プログラム。
(14)前記手順(c)においては、前記人領域および前記物体領域の少なくともいずれか一方の前記画像上の位置に応じて、前記第1閾値を切り替える、上記(13)に記載の検出プログラム。
(15)前記手順(c3)においては、前記人との前記接触があると判定された前記物体の前記物体領域と、前記手順(c2)において参照された前記過去の前記位置情報に含まれる前記物体領域との重なりの大きさが、所定の第2閾値以下の場合前記物体の前記位置情報が誤検出であると判定し、前記第2閾値より大きい場合前記物体の前記位置情報が誤検出ではないと判定する、上記(13)または(14)に記載の検出プログラム。
(16)前記処理は、前記物体の前記位置情報の検出が誤検出であると判定された場合、前記手順(b)において検出された前記位置情報において、誤検出であると判定された前記物体の前記位置情報を削除する補正をする手順(e)と、補正後の前記位置情報に基づいて前記人の行動を推定する手順(f)と、推定された前記行動を出力する手順(g)と、をさらに有する上記(11)~(15)のいずれかに記載の検出プログラム。
(17)前記手順(g)においては、前記人が床に座っている姿勢の前記画像が前記手順(a)において取得された場合、転倒の前記行動を出力し、前記人が椅子に座っている姿勢の前記画像が前記手順(a)において取得された場合、前記転倒の前記行動を出力しない、上記(16)に記載の検出プログラム。
(18)前記手順(g)においては、前記人が車椅子へ移乗する姿勢の前記画像が前記(a)において取得された場合、前記車椅子への移乗の前記行動を出力し、前記人が前記車椅子以外へ移乗される姿勢の前記画像が前記手順(a)において取得された場合、前記車椅子への移乗の前記行動を出力しない、上記(16)または(17)に記載の検出プログラム。
人および物体を含む画像から人および物体の位置情報を検出する学習がされた学習済モデルを用いて、入力された所定領域の画像から検出された物体の位置情報が誤検出かどうかを、当該位置情報が検出された画像より前に当該所定領域が撮影された過去の画像から検出された過去の位置情報に基づいて判定する。これにより、存在しない、人の周辺の物体の誤検知を抑止できる。
検出システムの概略構成を示す図である。 撮影装置の構成を示すブロック図である。 サーバーの構成を示すブロック図である。 制御部の機能ブロック図である。 学習済みモデルの学習に用いられる訓練データの画像を示す説明図である。 検出部により正常に検出された位置情報の例を、取得部により取得される画像とともに示す説明図である。 検出部により異常検出された物体矩形を含む位置情報の例を、取得部により取得される画像とともに示す説明図である。 画像上に設定された、第1閾値の設定領域を示す図である。 画像において検出された位置情報と、過去の画像において検出された過去の位置情報とを示す説明図である。 関節点、人矩形、および物体矩形を示す図である。 携帯端末の構成を示すブロック図である。 検出システムの動作を示すフローチャートである。 ソファーへの移乗動作を車椅子の移乗動作と検出する誤検知を抑止する例を示す説明図である。
以下、図面を参照して、本発明の実施形態に係る検出装置、検出システム、検出方法、および検出プログラムについて説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、検出システム10の概略構成を示す図である。
検出システム10は、撮影装置100、サーバー200、通信ネットワーク300、および携帯端末400を備える。撮影装置100は、通信ネットワーク300によりサーバー200と相互に通信可能に接続される。携帯端末400はアクセスポイント310を介して通信ネットワーク300と接続され得る。サーバー200は検出装置を構成する。なお、後述するように、サーバー200の機能の一部または全部を撮影装置100が実行するようにしてもよい。この場合、撮影装置100が単独で、またはサーバー200とともに検出装置を構成し得る。
(撮影装置100)
図2は、撮影装置100の構成を示すブロック図である。図2の例に示すように、撮影装置100は、制御部110、通信部120、およびカメラ130を備え、これらはバスによって相互に接続されている。
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って撮影装置100の各部の制御および演算処理を行う。制御部110は、カメラ130が所定領域を撮影することで得られる画像600(図9等参照)を、通信部120によりサーバー200等へ送信する。所定領域は、例えば人500の居室の床面全体を含む3次元の領域である。
通信部120は、通信ネットワーク300を介して、携帯端末400等と通信するためのインターフェース回路(例えばLANカード等)である。
カメラ130は、例えば広角カメラである。カメラ130は、撮影装置100が人500の居室の天井等に設置されることで、所定領域を俯瞰する位置に設置され、当該所定領域を撮影する。人500は、例えばスタッフ等により介護または看護を必要とする者であり、行動検出の対象者である。カメラ130は、広角カメラより画角が狭い標準カメラであってもよい。以下、説明を簡単にするために、カメラ130は、広角カメラであるものとして説明する。画像600には、人500、ならびに、物体700であるベッド710および椅子720等が画像として含まれ得る。画像600には、静止画および動画が含まれる。カメラ130は近赤外線カメラであり、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで所定領域を撮影し得る。画像600は近赤外線の反射率を各画素とするモノクロ画像であり得る。カメラ130は、近赤外線カメラに代替して可視光カメラを用いてもよく、これらを併用してもよい。
(サーバー200)
図3は、サーバー200の構成を示すブロック図である。サーバー200は、制御部210、通信部220、および記憶部230を備える。各構成要素は、バスによって、相互に接続されている。
制御部210および通信部220の基本構成は、撮影装置100の対応する構成要素である、制御部110および通信部120と同様であるため重複する説明は省略する。記憶部230は、RAM、ROM、HDD(Hard Disc Drive)等により構成される。
図4は、制御部210の機能ブロック図である。制御部210は、取得部211、検出部212、接触判定部213、誤検出判定部214、補正部215、および行動推定部216として機能する。なお、説明を簡単にするために、図4には、記憶部230も併せて示されている。誤検出判定部214は、参照部を構成する。
取得部211は、撮影装置100から画像600を通信部220により受信することで取得する。撮影装置100から受信される画像600が記憶部230に記憶される場合は、取得部211は、画像600を記憶部230から読み出すことで取得してもよい。
検出部212は、取得部211により取得された画像600から人500および物体700の位置情報(以下、単に「位置情報」とも称する)を、機械学習により学習された学習済みモデルを用いて検出する。位置情報には、人500と物体700のそれぞれの位置が含まれる。人500の位置は、画像600における人500を含む領域である人領域の例である人矩形610(図9参照)の座標(例えば矩形の一組の対角の各座標)であり得る。物体700の位置は、画像600における物体を含む領域である物体領域の例である物体矩形620(図10参照)の座標(例えば矩形の一組の対角の各座標)であり得る。人矩形610および物体矩形620は、それぞれ人500および物体700の大きさを反映する。従って、位置情報には人500および物体700のそれぞれの位置とともにそれぞれの大きさの情報が含まれ得る。以下、説明を簡単にするために、人500の位置は人矩形610として検出され、物体700の位置は物体矩形620として検出されるものとして説明する。すなわち、位置情報は、人矩形610および物体矩形620であるものとして説明する。学習済みモデルは、人500および物体700を含む画像650と、当該画像650における人矩形610および物体矩形620の正解ラベル(人500および物体700の位置の正解ラベル)との組合せの訓練データを比較的大量に用いて、機械学習により学習されたモデルである。学習済みモデルとして、例えばニューラルネットワークのモデルであるRegion Proposal Network(RPN)を用い得る。
図5は、学習済みモデルの学習に用いられる訓練データの画像650を示す説明図である。図5においては、説明を簡単にするために、正解ラベルである、人500および物体700(椅子720)の位置をそれぞれ示す人矩形610および物体矩形620が画像650上に併せて示されている。
図5の例に示すように、人500および物体700を含む画像650と、人矩形610および物体矩形620の正解ラベルとの組合せが、学習済みモデルの学習に用いられる訓練データとして用いられ得る。
図6は、検出部212により正常に検出された位置情報の例を、取得部211により取得される画像600とともに示す説明図である。図6においては、説明を簡単にするために、検出された位置情報である人矩形610が画像600上に示されている。取得部211により取得された画像600に人500が含まれていて、物体700が含まれていない場合は、位置情報が正常に検出されれば、人500の位置等が人矩形610として検出され、存在しない物体は物体矩形620として検出されない。
図7は、検出部212により異常検出された物体矩形620を含む位置情報の例を、取得部211により取得される画像600とともに示す説明図である。図7においては、説明を簡単にするために、検出された人矩形610および物体矩形620が画像600上に示されている。図7に示す例においては、取得部211により取得された画像600に人500が含まれていて、物体700が含まれていない場合に、人500の位置等が人矩形610として正常に検出されている。一方、存在しない物体700である椅子720も、椅子720の物体矩形620として異常検出されている。このような物体700の異常検出は、学習済みモデルの学習に用いる訓練データの画像に人500と物体700の両方を含む画像を用いることで、人500の特徴と人500の周辺の物体700の特徴とが関連付けられて学習されること等に起因していると考えられる。このことは、人500の動きや姿勢によっては、何も存在しない、人500の周辺の空間に物体700を誤検出する可能性があることを示している。
このような存在しない物体700である椅子720等が誤検出されると、床座位の姿勢が、椅子座位の姿勢と誤って推定される。その結果、人500が転倒するという行動が、椅子720に座るという行動として誤って判断され得る。
接触判定部213は、検出された人矩形610および物体矩形620に基づいて、人500と物体700との接触があるかどうか判定する。具体的には、接触判定部213は、人矩形610と物体矩形620との重なりの大きさが所定の第1閾値以上の場合、人500と物体700との接触があると判定する。接触判定部213は、人矩形610と物体矩形620との重なりの大きさが所定の第1閾値未満の場合、人500と物体700との接触がないと判定する。人矩形610と物体矩形620との重なりの大きさは、各面積のIoU(Intersection over Union)として算出され得る。第1閾値は、後述する行動推定部216による対象者510の行動の推定精度の観点等から実験により適当な値に設定し得る。例えば、第1閾値は、IoUの値として、0.5~0.9の範囲のいずれかの値に設定され得る。
接触判定部213は、第1閾値を、人矩形610および物体矩形620の少なくともいずれか一方の画像600上の位置に応じて異なる値に切替え得る。
図8は、画像600上に設定された、第1閾値の設定領域を示す図である。なお、図8においては、説明を簡単にするために、人矩形610、ならびに、椅子720およびベッド710の物体矩形620も併せて示されている。図8においては、椅子720の物体矩形620がグレーの破線の矩形で示され、ベッド710の物体矩形620がグレーの実線の矩形で示されている。
図8の例においては、画像600上に、それぞれ一点鎖線で囲まれた領域として領域A、領域B、および領域Cが設定されている。
領域Aは撮影装置100のカメラ130直下およびその周辺の領域である。領域Bは領域Aに隣接した領域Aの外側の領域である。領域Cは領域Bに隣接した領域Bの外側の領域であり、カメラ130から最も遠い領域である。
第1閾値は、領域A、領域B、領域Cの順に大きな値に設定され得る。これは、カメラ130が広角カメラである場合、例えば対象者510が領域Aおよび領域Cにおいて同じ椅子720に同じように座っていても、広角カメラの歪特性に起因して、カメラ130の直下に近い領域ほど(すなわち領域Cよりも領域Aの方が)、人矩形610と椅子720の物体矩形620との重なりが大きくなるからである。人矩形610および物体矩形620の画像600上の位置が、領域A、領域B、および領域Cのいずれの領域内にあるかに応じて第1閾値を切替えることで、人矩形610および物体矩形620の接触の検出精度を、これらの画像600上の位置によらずに一定にすることができる。なお、人矩形610と物体矩形620とが、領域A~Cの異なる領域にある場合、例えば人矩形610と物体矩形620との重複範囲が、領域A~Cのいずれの領域になるかによって第1閾値を切替え得る。一方、人矩形610と物体矩形620が、領域A~Cの異なる領域にある場合、人矩形610と物体矩形620のいずれかが存在する領域を基準に第1閾値を切替えてもよい。
誤検出判定部214は、接触判定部213により対象者510と物体700との接触があると判定された場合、物体矩形620が誤検知かどうかを、当該物体矩形620が検出された画像600より前に所定領域が撮影された過去の画像640(以下、単に「過去の画像640」とも称する)から検出された過去の位置情報(以下、単に「過去の位置情報」とも称する)に基づいて判定する。具体的には、誤検出判定部214は、接触判定部213により対象者510と物体700との接触があると判定された場合、当該接触があると判定された画像600より前に撮影された過去の画像640から検出された過去の位置情報を記憶部230から参照する。参照される過去の画像640は、上記接触があると判定された画像600に対し、例えば30フレーム遡ったフレームであり得る。なお、参照される過去の画像640は、上記接触がない過去の画像640であれば上記の例に限定されない。後述するように、画像600から検出された位置情報(位置情報において後述する補正がされた場合は補正後の位置情報)は、当該画像600と関連付けされて記憶部230に記憶される。誤検出判定部214は、過去の位置情報に基づいて、位置情報に含まれる物体矩形620が誤検出かどうか判定する。具体的には、誤検出判定部214は、上記接触があると判定された物体700の物体矩形620と、過去の位置情報に含まれる当該物体700の物体矩形620との重なりの大きさが所定の第2閾値以下の場合、当該物体矩形620が誤検出であると判定する。重なりが小さい(重なりがない場合を含む)場合、もともと存在しない物体700が物体矩形620として誤検出された可能性が高いからである。当該重なりの大きさは、各面積のIoUとして算出され得る。なお、上記接触があると判定された物体700の物体矩形620が、過去の位置情報に含まれていない(存在しない)場合は、当該重なりの大きさは0または0に近い値になり得る。第2閾値は、行動推定部216による人500の行動の推定精度の観点等から実験により適当な値に設定し得る。なお、物体矩形620が、車椅子等のようにその性質上固定されずに使用される物体700のものである場合、当該物体700はなんらかの偶然の力により移動する可能性があるため、第2閾値は0以外の比較的小さい値に設定され得る。第2閾値は、行動推定部216による人500の行動の推定精度の観点等から各物体700の物体矩形620ごとに異なる値に設定されてもよい。
図9は、画像600において検出された位置情報と、過去の画像640において検出された過去の位置情報とを示す説明図である。
図9の例においては、画像600(現在の画像)において、位置情報として人矩形610と物体矩形620が検出されている。一方、過去の画像640から検出された過去の位置情報には、画像600において検出されている物体矩形620が含まれていない。なお、図9においては、説明を簡単にするために、過去の画像640において、画像600において検出された物体矩形620に対応する位置に、当該物体矩形620に相当する矩形が破線で示されている。この場合、誤検出判定部214は、画像600において検出されている物体矩形620は誤検出であると判定する。上記接触があると判定された物体700の物体矩形620と、過去の位置情報に含まれる物体矩形620との重なりの大きさが0(すなわち、所定の第2閾値以下)であるからである。
補正部215は、誤検出判定部214による誤検出判定結果に基づいて、位置情報を補正する。具体的には、補正部215は、誤検出判定部214により物体矩形620が誤検出であると判定された場合、位置情報において当該物体矩形620を削除する補正をする。補正部215は、誤検出判定部214により物体矩形620が誤検出でないと判定された場合、位置情報の補正をしない。
行動推定部216は、補正後の位置情報に基づいて対象者510の行動を推定する。具体的には、行動推定部216は次のように対象者510の行動を推定し得る。行動推定部216は、人矩形610(より詳細には、人矩形610に含まれる画像)に基づいて関節点611(図10参照)を推定する。行動推定部216は、人矩形610から人500の関節点611を推定する学習がされたニューラルネットワークのモデルを用いて、人500の関節点を推定し得る。ニューラルネットワークのモデルとしては、Deep Pose等の公知のモデルを用い得る。DeepPoseについては、公知の文献(Alexander Toshev, et al. “DeepPose: Human Pose Estimation via Deep Neural Networks”, in CVPR, 2014)に詳細が記載されている。行動推定部216は、関節点611と物体矩形620の関係に基づいて対象者510の行動を推定し得る。具体的には、関節点611が示す対象者510の姿勢と物体矩形620が示す物体700の位置および種類との関係に基づいて対象者510の行動を推定し得る。例えば、物体矩形620が示す物体が椅子で、関節点611が示す姿勢が座位である場合、行動推定部216は、関節点611の所定数以上が物体矩形620と重複している場合に、対象者510が椅子座位の行動をしていると推定し得る。
図10は、関節点611、人矩形610、および物体矩形620を示す図である。図10は、図8に、関節点611が追加された図に相当する。
図10の例においては、関節点611から座位の姿勢が検出され、関節点611の所定数(例えば、9個)以上が椅子の物体矩形620と重複している。この場合、行動推定部216は、対象者510が椅子座位の行動をしていると推定し得る。なお、図10に示す椅子の物体矩形620が誤検出であると誤検出判定部214により判断される場合は、補正部215により、位置情報において椅子の物体矩形620を削除する補正がされる。これにより、関節点611と椅子の物体矩形620は重複しないため、行動推定部216は、対象者510が何も物体がない場所で座位の姿勢を検出することになる。この場合、行動推定部216は、対象者510が転倒しているという行動を推定し得る。
行動推定部216は、関節点611と物体矩形620の関係に基づいて対象者510の行動をニューラルネットワークの学習済みモデルを用いて推定してもよい。この場合、当該学習済みモデルは、人500が床に座っている姿勢の画像600が取得部211により取得された場合、転倒の行動を推定し、人500が椅子720に座っている姿勢の画像600が取得された場合、転倒の行動を推定しないように学習されたモデルであり得る。また、当該学習済みモデルは、人500が車椅子へ移乗する姿勢の画像600が取得部211により取得された場合、車椅子への移乗の行動を推定し、人500が車椅子以外へ移乗する姿勢の画像600が取得された場合、車椅子への移乗の行動を推定しないように学習されたモデルであり得る。
なお、複数の時系列の画像600に基づいて対象者510の行動を推定してもよい。この場合、例えば、公知技術であるLSTM(Long Short-Term Memory)を用い得る。
行動推定部216は、対象者510の行動の推定結果を出力する。対象者510の行動の推定結果は、例えば通信部220を介して携帯端末400や外部装置へ送信されることで出力され得る。対象者510の行動の推定結果は、図示しないディスプレイに表示されることで出力されてもよい。
行動推定部216は、所定行動を推定(検出)した場合、当該所定行動を報知するためのイベント通知を、通信部220を介して携帯端末400等へ送信してもよい。所定行動には、例えば、起床、離床、転倒、および転落が含まれる。
(携帯端末400)
図11は、携帯端末400の構成を示すブロック図である。携帯端末400は、制御部410、無線通信部420、表示部430、入力部440、および音声入出力部450を備える。各構成要素は、バスにより相互に接続されている。携帯端末400は、例えば、タブレット型コンピューター、スマートフォン、または携帯電話等の通信端末機器によって構成され得る。
制御部410は、撮影装置100の制御部110の構成と同様に、CPU、RAM、ROMなどの基本構成を備える。
無線通信部420は、Wi-Fi、Bluetooth(登録商標)などの規格による無線通信を行う機能を有し、アクセスポイント310を経由して、または直接に各装置と無線通信する。無線通信部420は、イベント通知をサーバー200から受信する。
表示部430および入力部440は、タッチパネルであり、液晶などで構成される表示部430の表示面に、入力部440としてのタッチセンサーが設けられる。表示部430は、サーバー200から受信した対象者510の行動を表示する。対象者510の行動は、上述したイベント通知を表示することで表示されてもよい。なお、表示部430および入力部440は、イベント通知に関する対象者510への対応を促す入力画面を表示するとともに、当該入力画面に入力された、スタッフによるイベント通知への対応の意思を受け付けて、サーバー200へ送信してもよい。この場合、サーバー200は、いずれかのスタッフを、当該イベント通知への対応を担当するスタッフとして決定し、決定したスタッフを含むすべてのスタッフの携帯端末400へ、当該イベント通知への対応を担当するスタッフを周知する通知を送信してもよい。
音声入出力部450は、例えばスピーカーとマイクであり、無線通信部420を介して他の携帯端末400との間でスタッフ相互間の音声通話を可能にする。
検出システム10の動作について説明する。
図12は、検出システム10の動作を示すフローチャートである。本フローチャートは、プログラムに従い、サーバー200の制御部210により実行され得る。なお、図4に示す機能の一部または全部が撮影装置100により実行される場合は、本フローチャートは、プログラムに従い、撮影装置100の制御部110により実行されてもよい。
制御部210は、撮影装置100から画像600を受信することで取得する(S101)。
制御部210は、人500および物体700を含む画像600から、人矩形610および物体矩形620を検出する学習がされた学習済モデルを用いて、取得された画像600から人矩形610および物体矩形620を、人500および物体700の位置情報として検出する。制御部は、検出した位置情報を記憶部230に記憶する(S102)。
制御部210は、位置情報において人500と物体700との接触があるかどうか判定する(S103)。具体的には、制御部210は、人矩形610と物体矩形620との重なりの大きさが第1閾値以上の場合、人500と物体700との接触があると判定する。制御部210は、人矩形610と物体矩形620との重なりの大きさが第1閾値未満の場合、人500と物体700との接触がないと判定する。
制御部210は、位置情報において人500と物体700との接触がないと判断した場合は(S103:NO)、ステップS108の処理を実行する。
制御部210は、位置情報において人500と物体700との接触があると判断した場合は(S103:YES)、記憶部230に記憶されている過去の位置情報を記憶部230から読み出すことで参照する(S104)。
制御部210は、人500との接触があると判断した物体700の位置を示す物体矩形620が、過去の位置情報に含まれているかどうか判定する(S105)。具体的には、制御部210は、上記接触があると判定された物体700の物体矩形620と、過去の位置情報に含まれる物体矩形620との重なりの大きさが第2閾値より大きい場合、上記接触があると判断した物体700の位置を示す物体矩形620が、過去の位置情報に含まれていると判断する。制御部210は、上記接触があると判定された物体700の物体矩形620と、過去の位置情報に含まれる物体矩形620との重なりの大きさが第2閾値以下の場合、上記接触があると判断した物体700の位置を示す物体矩形620が、過去の位置情報に含まれていないと判断する。
制御部210は、人500との接触があると判断した物体700の位置を示す物体矩形620が、過去の位置情報に含まれていると判断した場合は(S105:YES)、当該物体矩形620が誤検出ではないと判断し、ステップS108を実行する。
制御部210は、人500との接触があると判断した物体700の位置を示す物体矩形620が、過去の位置情報に含まれていないと判断した場合は(S105:NO)、当該物体矩形620が誤検出であると判定する(S106)。そして、制御部210は、人500と物体700との接触があると判定した位置情報において、誤検出と判定された物体矩形620を削除する補正を実行する(S107)。
制御部210は、位置情報(位置情報が補正された場合は、補正後の位置情報)に基づいて人500の行動を推定する(S108)。具体的には、制御部210は、位置情報に含まれる人矩形610から関節点611を推定し、関節点611と物体矩形620の関係に基づいて対象者510の行動を推定し得る。
(変形例1)
図13は、ソファーへの移乗動作を車椅子の移乗動作と検出する誤検知を抑止する例を示す説明図である。図13においては、説明を簡単にするために、補正前の位置情報および補正後の位置情報を、それぞれ画像600上の人矩形610および物体矩形620として示している。
図13に示すように、補正前の位置情報は、破線の矩形で示すように、実際には存在しない車椅子の物体矩形620が誤検知されている。一方、太い実線の矩形で示すように、実際に存在するソファーおよびベッド710の物体矩形620がそれぞれ正常に検知されている。車椅子の物体矩形620が誤検知と判定されるのは、上述したように、車椅子の物体矩形620と人矩形610の重なりの大きさが第1閾値以上であることで、記憶部230から過去の画像640を参照される。そして、画像600と過去の画像640における車椅子の物体矩形620の重なりの大きさが第2閾値以下であることによる。
位置情報の補正をせずに、補正前の位置情報に基づいて人500の行動を推定すると、人500が(ベッドから)車椅子へ移乗する動作をしていると誤って検知されることになる。
しかし、補正後の位置情報は、補正前の位置情報に対し、誤検出と判断された車椅子の物体矩形620を削除する補正がなされている。その結果、人500が(ベッドから)ソファーへ移乗する動作が正常に検出される。すなわち、ソファーへの移乗動作を車椅子への移乗動作と検出する誤検知を抑止される。なお、図13に示す例においては、車椅子への移乗動作が誤検知である場合が示されているが、誤検知さる物体700は車椅子に限定されない。
なお、ソファーの物体矩形620と人矩形610の重なりの大きさが第1閾値以上である場合も、記憶部230から過去の画像640を参照される。そして、画像600と過去の画像640におけるソファーの物体矩形620の重なりの大きさが第2閾値以下であるかどうか判定される。図13の例においては、ソファーは実際に存在する物体であるため、画像600と過去の画像640におけるソファーの物体矩形620の重なりの大きさは第2閾値より大きくなる。
(変形例2)
誤検知かどうかの判断の対象となる物体700は任意であり、例えばドア、カーテン、および洗面台等を考えられる。そして、これらの物体700が誤検知かどうか判定されることで、ドアの開閉、カーテンの開閉、および洗面台での洗顔の各行動の誤検知が抑止される。
実施形態は以下の効果を奏する。
人および物体を含む画像から人および物体の位置情報を検出する学習がされた学習済モデルを用いて、入力された所定領域の画像から検出された物体の位置情報が誤検出かどうかを、当該位置情報が検出された画像より前に当該所定領域が撮影された過去の画像から検出された過去の位置情報に基づいて判定する。これにより、存在しない、人の周辺の物体の誤検知を抑止できる。
さらに、検出された位置情報を記憶し、検出された位置情報に基づいて、人と物体との接触があるかどうか判定し、接触があると判定された場合に、過去の位置情報を記憶部から参照し、参照された過去の位置情報に基づいて、検出された物体の前記位置情報が誤検出かどうかを判定する。これにより、より高速に、人の周辺物体の誤検知を抑止しつつ人の姿勢や行動を推定できる。
さらに、人の位置情報および物体の位置情報を、それぞれ人を含む人領域および物体を含む物体領域として検出し、人領域と物体領域との重なりの大きさが、第1閾値以上の場合、接触があると判定し、第1閾値未満の場合、接触がないと判定する。これにより、より簡単に、人の周辺物体の誤検知を抑止しつつ人の姿勢や行動を推定できる。
さらに、人領域および物体領域の少なくともいずれか一方の画像上の位置に応じて、第1閾値を切り替える。これにより、さらに高精度かつ高速に人の周辺物体の誤検知を抑止できる。
さらに、人との接触があると判定された物体の物体領域と、参照された過去の位置情報に含まれる物体領域との重なりの大きさが、第2閾値以下の場合、物体の位置情報が誤検出であると判定し、第2閾値より大きい場合、物体の位置情報が誤検出ではないと判定する。これにより、固定されずに使用される等の物体の性質によらず、人の周辺物体の誤検知を抑止できる。
さらに、物体の位置情報の検出が誤検出であると判定された場合、検出された位置情報において、誤検出であると判定された物体の位置情報を削除する補正をし、補正後の位置情報に基づいて人の行動を推定して出力する。これにより、より簡単に人の周辺物体の誤検知を抑止できる。
さらに、人が床に座っている姿勢の画像が取得された場合、転倒の行動を出力し、人が椅子に座っている姿勢の画像が取得された場合、転倒の行動を出力する。これにより、人の転倒の誤検知を抑止できる。
さらに、人が車椅子へ移乗する画像が取得された場合、車椅子への移乗動作の行動を出力し、人が車椅子以外へ移乗される画像が取得された場合、車椅子の移乗動作の行動を出力する。これにより、人の車椅子への移乗動作の誤検知を抑止できる。
以上に説明した検出システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な検出システムが備える構成を排除するものではない。
また、上述した検出システム10における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてサーバーその他の装置のソフトウエアに組み込まれてもよい。
10 検出システム、
100 撮影装置、
110 制御部、
120 通信部、
130 カメラ、
200 サーバー、
210 制御部、
220 通信部、
230 記憶部、
300 通信ネットワーク、
400 携帯端末、
500 人、
600 画像、
610 人矩形、
611 関節点、
620 物体矩形、
700 物体、
710 ベッド、
720 椅子。

Claims (18)

  1. 所定領域が撮影された画像を取得する取得部と、
    人および物体を含む前記画像から前記人および前記物体の位置情報を検出する学習がされた学習済モデルを用いて、取得された前記画像から前記人および前記物体の前記位置情報を検出する検出部と、
    検出された前記物体の前記位置情報が誤検出かどうかを、前記位置情報が検出された前記画像より前に前記所定領域が撮影された前記画像から検出された過去の前記位置情報に基づいて判定する判定部と、
    を有する検出装置。
  2. 前記検出部により検出された前記位置情報を記憶する記憶部をさらに有し、
    前記判定部は、
    検出された前記位置情報に基づいて、前記人と前記物体との接触があるかどうか判定する接触判定部と、
    前記接触があると判定された場合に、前記過去の前記位置情報を前記記憶部から参照する参照部と、
    参照された前記過去の前記位置情報に基づいて、検出された前記物体の前記位置情報が誤検出かどうかを判定する誤検出判定部と、を有する、
    請求項1に記載の検出装置。
  3. 前記検出部は、前記人の前記位置情報および前記物体の前記位置情報を、それぞれ前記人を含む人領域および前記物体を含む物体領域として検出し、
    前記接触判定部は、前記人領域と前記物体領域との重なりの大きさが、所定の第1閾値以上の場合前記接触があると判定し、前記第1閾値未満の場合前記接触がないと判定する、請求項2に記載の検出装置。
  4. 前記判定部は、前記人領域および前記物体領域の少なくともいずれか一方の前記画像上の位置に応じて、前記第1閾値を切り替える、請求項3に記載の検出装置。
  5. 前記誤検出判定部は、前記人との前記接触があると判定された前記物体の前記物体領域と、前記参照部により参照された前記過去の前記位置情報に含まれる前記物体領域との重なりの大きさが、所定の第2閾値以下の場合前記物体の前記位置情報が誤検出であると判定し、前記第2閾値より大きい場合前記物体の前記位置情報が誤検出ではないと判定する、請求項3または4に記載の検出装置。
  6. 前記物体の前記位置情報の検出が誤検出であると判定された場合、前記検出部により検出された前記位置情報において、誤検出であると判定された前記物体の前記位置情報を削除する補正をする補正部と、
    補正後の前記位置情報に基づいて前記人の行動を推定する行動推定部と、
    推定された前記行動を出力する出力部と、をさらに有する請求項1~5のいずれか一項に記載の検出装置。
  7. 前記人が床に座っている姿勢の前記画像が前記取得部により取得された場合、転倒の前記行動が前記出力部から出力され、前記人が椅子に座っている姿勢の前記画像が前記取得部により取得された場合、前記転倒の前記行動が前記出力部から出力されない、請求項6に記載の検出装置。
  8. 前記人が車椅子へ移乗する姿勢の前記画像が前記取得部により取得された場合、前記車椅子への移乗の前記行動が前記出力部から出力され、前記人が前記車椅子以外へ移乗する姿勢の前記画像が前記取得部により取得された場合、前記車椅子への移乗の前記行動が前記出力部から出力されない、請求項6または7に記載の検出装置。
  9. 前記画像を撮影する撮影装置と、
    請求項1~8のいずれか一項に記載の検出装置と、を有し、
    前記取得部は、前記撮影装置により撮影された前記画像を取得する、検出システム。
  10. 所定領域が撮影された画像を取得する段階(a)と、
    人および物体を含む前記画像から前記人および前記物体の位置情報を検出する学習がされた学習済モデルを用いて、取得された前記画像から前記人および前記物体の前記位置情報を検出する段階(b)と、
    検出された前記物体の前記位置情報が誤検出かどうかを、前記位置情報が検出された前記画像より前に前記所定領域が撮影された前記画像から検出された過去の前記位置情報に基づいて判定する段階(c)と、
    を有する検出方法。
  11. 所定領域が撮影された画像を取得する手順(a)と、
    人および物体を含む前記画像から前記人および前記物体の位置情報を検出する学習がされた学習済モデルを用いて、取得された前記画像から前記人および前記物体の前記位置情報を検出する手順(b)と、
    検出された前記物体の前記位置情報が誤検出かどうかを、前記位置情報が検出された前記画像より前に前記所定領域が撮影された前記画像から検出された過去の前記位置情報に基づいて判定する手順(c)と、
    を有する処理をコンピューターに実行させるための検出プログラム。
  12. 前記処理は、
    前記手順(b)において検出された前記位置情報を記憶する手順(d)をさらに有し、
    前記手順(c)は、
    検出された前記位置情報に基づいて、前記人と前記物体との接触があるかどうか判定する手順(c1)と、
    前記接触があると判定された場合に、前記手順(d)において記憶された前記過去の前記位置情報を参照する手順(c2)と、
    参照された前記過去の前記位置情報に基づいて、検出された前記物体の前記位置情報が誤検出かどうかを判定する手順(c3)と、を有する、
    請求項11に記載の検出プログラム。
  13. 前記手順(b)においては、前記人の前記位置情報および前記物体の前記位置情報を、それぞれ前記人を含む人領域および前記物体を含む物体領域として検出し、
    前記手順(c1)においては、前記人領域と前記物体領域との重なりの大きさが、所定の第1閾値以上の場合前記接触があると判定し、前記第1閾値未満の場合前記接触がないと判定する、請求項12に記載の検出プログラム。
  14. 前記手順(c)においては、前記人領域および前記物体領域の少なくともいずれか一方の前記画像上の位置に応じて、前記第1閾値を切り替える、請求項13に記載の検出プログラム。
  15. 前記手順(c3)においては、前記人との前記接触があると判定された前記物体の前記物体領域と、前記手順(c2)において参照された前記過去の前記位置情報に含まれる前記物体領域との重なりの大きさが、所定の第2閾値以下の場合前記物体の前記位置情報が誤検出であると判定し、前記第2閾値より大きい場合前記物体の前記位置情報が誤検出ではないと判定する、請求項13または14に記載の検出プログラム。
  16. 前記処理は、
    前記物体の前記位置情報の検出が誤検出であると判定された場合、前記手順(b)において検出された前記位置情報において、誤検出であると判定された前記物体の前記位置情報を削除する補正をする手順(e)と、
    補正後の前記位置情報に基づいて前記人の行動を推定する手順(f)と、
    推定された前記行動を出力する手順(g)と、をさらに有する請求項11~15のいずれか一項に記載の検出プログラム。
  17. 前記手順(g)においては、
    前記人が床に座っている姿勢の前記画像が前記手順(a)において取得された場合、転倒の前記行動を出力し、前記人が椅子に座っている姿勢の前記画像が前記手順(a)において取得された場合、前記転倒の前記行動を出力しない、請求項16に記載の検出プログラム。
  18. 前記手順(g)においては、
    前記人が車椅子へ移乗する姿勢の前記画像が前記(a)において取得された場合、前記車椅子への移乗の前記行動を出力し、前記人が前記車椅子以外へ移乗される姿勢の前記画像が前記手順(a)において取得された場合、前記車椅子への移乗の前記行動を出力しない、請求項16または17に記載の検出プログラム。
JP2021070825A 2021-04-20 2021-04-20 検出装置、検出システム、検出方法、および検出プログラム Pending JP2022165483A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021070825A JP2022165483A (ja) 2021-04-20 2021-04-20 検出装置、検出システム、検出方法、および検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021070825A JP2022165483A (ja) 2021-04-20 2021-04-20 検出装置、検出システム、検出方法、および検出プログラム

Publications (1)

Publication Number Publication Date
JP2022165483A true JP2022165483A (ja) 2022-11-01

Family

ID=83851344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021070825A Pending JP2022165483A (ja) 2021-04-20 2021-04-20 検出装置、検出システム、検出方法、および検出プログラム

Country Status (1)

Country Link
JP (1) JP2022165483A (ja)

Similar Documents

Publication Publication Date Title
JP7271915B2 (ja) 画像処理プログラムおよび画像処理装置
CN111507176B (zh) 姿势估计装置、行动估计装置、记录介质、姿势估计方法
JP6115692B1 (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP6292283B2 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
JP2020027405A (ja) 物体検出プログラム、および物体検出装置
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2021033453A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2023121234A (ja) 補正システム、補正方法、および補正プログラム
WO2021033597A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2021024691A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP6115693B1 (ja) 対象物検出装置および対象物検出方法ならびに被監視者監視装置
WO2023195305A1 (ja) 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP2020052808A (ja) 見守り装置、見守りシステム、見守りプログラム、および見守り方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP2023075559A (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
JP7327396B2 (ja) 制御プログラム、レポート出力方法、およびレポート出力装置
WO2019163561A1 (ja) 情報処理装置
JP2021065617A (ja) 画像処理装置および画像処理プログラム
JP2023051152A (ja) ナースコールシステム、および状態判断システム