JP7364179B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP7364179B2
JP7364179B2 JP2019013590A JP2019013590A JP7364179B2 JP 7364179 B2 JP7364179 B2 JP 7364179B2 JP 2019013590 A JP2019013590 A JP 2019013590A JP 2019013590 A JP2019013590 A JP 2019013590A JP 7364179 B2 JP7364179 B2 JP 7364179B2
Authority
JP
Japan
Prior art keywords
temperature distribution
person
robot
vital
distribution data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019013590A
Other languages
English (en)
Other versions
JP2020120829A (ja
Inventor
亮 三枝
寛和 伊藤
薪雄 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Toyohashi University of Technology NUC
Original Assignee
Sintokogio Ltd
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd, Toyohashi University of Technology NUC filed Critical Sintokogio Ltd
Priority to JP2019013590A priority Critical patent/JP7364179B2/ja
Publication of JP2020120829A publication Critical patent/JP2020120829A/ja
Application granted granted Critical
Publication of JP7364179B2 publication Critical patent/JP7364179B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットに関する。
医療施設や介護施設などに代表される施設においては、施設内の所定の位置にカメラを設置し、該カメラが撮像した画像(静止画像又は動画像)を職員が待機している居室に転送することによって、職員が実際に施設内を移動することなく施設内を見回るシステムが採用されている。
このシステムにおいては、職員がカメラから転送されてくる画像を職員が常時監視することによって、その職員は、施設内のうちカメラにより撮像可能な範囲内に人(例えば患者や利用者など)がいるか否かに関する情報を得ることができる。
しかしながら、上述したシステムにおいて、職員は、画像において目視可能な人の状態(例えば、姿勢や挙動など)から、その人が正常であるか否かを推測するしかない。そして、職員は、その人が正常でない可能性があるときには、施設内の該当する場所に赴いて、その人のバイタルサイン(例えば、呼吸や脈拍など)を測定し、改めてその人が正常であるか否かを確認する必要があった。
本発明の一態様は、このような問題に鑑みなされたものであり、その目的は、周囲に存在する人のバイタルサインを表すバイタルデータを生成可能なロボットを実現することにある。
上記の課題を解決するために、本発明の一態様に係るロボットは、画像を出力する少なくとも1つのセンサと、上記画像を参照して、上記人のバイタルサインを表すバイタルデータを生成する制御部と、を備えている。
本発明の一態様によれば、周囲に存在する人のバイタルサインを表すバイタルデータを生成可能なロボットを実現することができる。
(a)及び(b)は、それぞれ、本発明の一実施形態に係るロボットが備えているカメラの視野を示す断面図及び平面図である。 図1に示したロボットが備えている制御部の機能ブロック図である。 (a)は、図1に示したロボットが施設内を見回っている様子を示す斜視図である。(b)は、図1に示したロボットが備えている温度分布データ生成部が生成した温度分布データの分布図である。 図1に示したロボットが備えているバイタルデータ生成部が実行する呼吸周波数測定方法のフローチャートである。 (a)及び(c)は、図1に示したロボットが備えている温度分布データ生成部が生成した温度分布データにおける変位量の時間依存性を示すグラフである。(b)及び(d)は、それぞれ、(a)及び(c)に示した変位量の時間依存性をフーリエ変換することによって得られた変位量のスペクトルを示すグラフである。 (a)は、図1に示したロボットが備えている温度分布データ生成部が生成した温度分布データにおける変位量の時間依存性を示すグラフである。(b)は、(a)に示した変位量の時間依存性をフーリエ変換することによって得られた変位量のスペクトルを示すグラフである。 (a)~(d)の各々は、図1に示したロボットが備えている温度分布データ生成部が生成した温度分布データであって、それぞれ、人が仰向け、うつ伏せ、横向き(副部側)、及び、横向き(背中側)である状態の温度分布データの分布図である。 (a)は、図1に示したロボットのカメラ群の変形例を構成するサーモグラフィカメラと深度カメラとの座標変換モデルを示す概略図である。(b)は、サーモグラフィカメラを用いたピンホールモデルの概略図である。 図1に示したロボットの変形例が備えている制御部の機能ブロック図である。 図1に示したロボットのハードウェアブロック図である。
〔第1の実施形態〕
本発明の一実施形態に係るロボット10について、図1~図7及び図10を参照して説明する。ロボット10は、介護施設の職員に代わって施設内の見回りを実施する介護医療用のロボットであって、徘徊している施設利用者や、動けない状態になっている施設利用者(すなわち倒れている施設利用者)を検出可能なセンサを備えた自走式のロボットである。
図1の(a)は、ロボット10が備えているカメラC1,C5の視野を示す断面図である。なお、図1の(a)には、ロボット10が備えているカメラC2,C3,C4も図示している。図1の(b)は、ロボット10が備えているカメラC1~C8の視野を示す平面図である。図2は、ロボット10が備えている制御部の機能ブロックを示すブロック図である。図3の(a)は、ロボット10が介護施設の施設内を見回っている様子を示す斜視図である。図3の(b)は、ロボット10が備えている温度分布データ生成部が生成した温度分布データの分布図である。図4は、ロボット10が備えているバイタルデータ生成部115(図2を参照して後述する)が実行する呼吸周波数測定方法M1のフローチャートである。図5の(a)及び(c)は、ロボット10が備えている温度分布データ生成部111(図2を参照して後述する)が生成した温度分布データにおける変位量の時間依存性を示すグラフである。図5の(b)及び(d)は、それぞれ、図5の(a)及び(c)に示した変位量の時間依存性をフーリエ変換することによって得られた変位量のスペクトルを示すグラフである。図6の(a)は、温度分布データ生成部111が生成した温度分布データにおける変位量の時間依存性を示すグラフである。図6の(b)は、図6の(a)に示した変位量の時間依存性をフーリエ変換することによって得られた変位量のスペクトルを示すグラフである。図7の(a)~(d)の各々は、温度分布データ生成部111が生成した温度分布データであって、それぞれ、人Pが仰向け、うつ伏せ、横向き(副部側)、及び、横向き(背中側)である状態の温度分布データの分布図である。図10は、ロボット10のハードウェアブロック図である。
図10に示すように、ロボット10は、コンピュータ910と、カメラ群Cを含む入力装置920と、駆動機構DSを含む出力装置930とを備えている。コンピュータ910は、ロボット10を制御する制御部11として機能する。なお、制御部11については、図2を参照して後述する。
カメラ群Cは、例えばタッチパッドやマイクなどとともに、入力装置920を構成する。図1の(b)に示すように、カメラ群Cは、8個の遠赤外線カメラC1~C8からなる。遠赤外線カメラC1~C8は、サーモグラフィカメラとも呼ばれる。
各遠赤外線カメラCi(iは、1以上8以下の整数)は、施設利用者を検出可能なセンサである。なお、以下では、遠赤外線カメラCiのことを単にカメラCiと表記する。
駆動機構DSは、液晶表示装置やスピーカなどとともに、出力装置930を構成する。駆動機構DSは、ロボット10を自走させるための駆動機構である。駆動機構DSは、既存の技術を用いて構成することができる。
また、コンピュータ910の構成については後述する。
図1の(a)に示すように、ロボット10は、介護施設の床Fのうえに載置されている。ロボット10は、駆動機構DSを用いて施設内を自走することができる。
図1の(a)において、床Fの表面に沿った平面をxy平面と定め、床Fの表面の法線方向のうち当該表面から天頂へ向かう方向をz軸正方向と定める。また、xy平面に含まれる方向のうちカメラC5からカメラC1へ向かう方向をx軸正方向と定める。また、xy平面に含まれる方向のうち、上述したx軸正方向及びz軸正方向とともに右手系の直交座標系を構成する方向をy軸正方向と定める。
ロボット10は、図1の(a)及び(b)に示すように、その上端部が半球状に丸められた円柱状の形状を有する。ロボット10の筐体は、コンピュータ910と、カメラ群Cを含む入力装置920と、駆動機構DSを含む出力装置930とを収容している。なお、図1には、コンピュータ910、入力装置920、及び出力装置930を構成するハードウェアのうちカメラ群Cのみを図示し、それ以外のハードウェアの図示は省略している。また、ロボット10の筐体の内部構造についても、その図示を省略している。
(各カメラCiの配置)
各カメラCiは、それぞれ、ロボット10の筐体の表面に露出した状態で、当該筐体の下端からの高さHが等しい位置に配置されている。各カメラCiは、各々の視野である各視野Viがそれぞれ異なる方向を向くように、蜘蛛の目状に配置されている。
ロボット10を縦断面に沿って断面視した場合、図1の(a)に示すように、各カメラCiは、各視野Viが俯角を有するように、配置されている。換言すれば、各視野Viは、各カメラCiと同じ高さに位置する水平面(図1の(a)に図示した直線LH)より下方(床Fの方向)を向いている。本実施形態では、各視野Viの俯角のうち、最大のものを最大俯角θdmaxとし、最小のものを最小俯角θdminとする。
また、ロボット10をその上方から平面視した場合、図1の(b)に示すように、各カメラCiは、ロボット10を中心として、各カメラCiの受光面の法線が放射状になるように配置されている。上述したように、本実施形態において、カメラの数は8個である。そのため、カメラCiの受光面の法線と、カメラCiに隣接するカメラCi+1の受光面の法線とのなす角が45°となるように、各カメラCiは配置されている。
以上のように、(1)各視野Viが俯角を有し、且つ、(2)各カメラCiの受光面の法線が放射状になるように各カメラCiが配置されているため、カメラ群Cにより撮像可能な領域は、平面視した場合、ロボット10の外縁を表す円と同心円状になる。したがって、カメラ群Cにより撮像可能な領域は、ロボット10を中心とするドーナツ形状を有する。この撮像可能な領域の内縁である最小撮像対象円Cominは、最大俯角θdmaxにより規定され、この撮像可能な領域の外縁である最大撮像対象円Comaxは、最小俯角θdminにより規定される。したがって、平面視した場合の最小撮像対象円Cominの半径は、図1の(a)に示すように、最大俯角θdmaxと、各カメラCiが配置されている高さHとにより決定される。なお、図1の(b)には、最小撮像対象円Cominを二点鎖線で図示しており、最大撮像対象円Comaxについてはその図示を省略している。
各カメラCiは、互いに隣接するカメラCi,Ci+1の視野Vi,Vi+1の重なりが、最小撮像対象円Cominの全体を覆うように配置されている。本実施形態では、図1の(b)に示すように、(1)視野V1の半分と視野V2の半分とが重なり、(2)視野V2の残りの半分と視野V3の半分とが重なり、(3)視野V3の残りの半分と視野V4の半分とが重なり、(4)視野V4の残りの半分と視野V5の半分とが重なり、(5)視野V5の残りの半分と視野V6の半分とが重なり、(6)視野V6の残りの半分と視野V7の半分とが重なり、(7)視野V7の残りの半分と視野V8の半分とが重なり、(8)視野V8の残りの半分と視野V1の残りの半分とが重なるように、各カメラCiは、配置されている。
視野Vi,Vi+1の重なりが最小撮像対象円Cominの全体を覆うように各カメラCiが配置されていることによって、視野Vi,Vi+1の重なりは、最大撮像対象円Comaxの全体をも覆う。すなわち、視野Vi,Vi+1の重なりは、カメラ群Cにより撮像可能な領域の全体を覆う。
以上のように、視野Viと、視野Vi+1とが重なっていることによって、図2を参照して後述する温度分布データ生成部111は、カメラCiにより撮像された視野Viのサーモグラフ画像と、カメラCi+1により撮像された視野Vi+1のサーモグラフ画像とから、視野Viと、視野Vi+1とが重なっている領域における3次元温度分布を表す温度分布データを生成することができる。
そのうえで、視野Vi,Vi+1の重なりが最小撮像対象円Cominの全体を覆うように各カメラCiが配置されていることによって、温度分布データ生成部111は、カメラ群Cにより撮像可能な領域の全体(撮像対象円全体)における3次元温度分布を表す温度分布データを生成することができる。
(制御部11)
図2に示すように、ロボット10を制御する制御部11は、温度分布データ生成部111と、パターン判定部112と、通報部113と、温度分布データ送信部114と、バイタルデータ生成部115と、バイタルデータ送信部116とを備えている。
温度分布データ生成部111は、各カメラCiにより撮像された各視野Viにおけるサーモグラフ画像から、3次元温度分布を表す温度分布データを生成する。視野V1の半分と視野V2の半分とが重なっている領域を例にすれば、この領域のサーモグラフ画像は、互いに隣接するカメラC1とカメラC2とにより撮像されている。カメラC1とカメラC2とは、隣接しているものの異なる位置に配置されている。そのため、カメラC1が撮像したこの領域のサーモグラフ画像と、カメラC2が撮像したこの領域のサーモグラフ画像との間には、異なる位置(視点)から撮像したことに起因する視差が生じる。温度分布データ生成部111は、この視差を利用することによって、視野V1及び視野V2の各々におけるサーモグラフ画像から、視野V1と視野V2とが重なっている領域の3次元温度分布を表す温度分布データを生成することができる。なお、カメラC1が撮像したこの領域のサーモグラフ画像と、カメラC2が撮像したこの領域のサーモグラフ画像とを用いて3次元温度分布を生成する技術としては、可視光を用いたステレオビジョンの技術を応用することができる。
また、温度分布データ生成部111は、カメラ群Cにより撮像可能な領域のうち、視野V1と視野V2とが重なっている領域以外の領域についても同様に、3次元温度分布を表す温度分布データを生成する。
以上のように、温度分布データ生成部111は、カメラ群Cにより撮像可能な全領域の温度分布データに対して奥行きの情報を含めることができるので、奥行きを含めて被写体の位置を特定することができる。
パターン判定部112は、温度分布データ生成部111が生成した温度分布データの表す3次元温度分布に、倒れている人を示す所定のパターンが含まれているか否かを判定する。
図3の(a)には、施設内を見回っている最中に、倒れている人Pと思われる判定対象物の近傍に位置するロボット10を図示している。図3の(b)には、温度分布データ生成部111が生成した温度分布データが表す3次元温度分布の一部(主に視野V1と視野V2とが重なっている領域及び視野V2と視野V3とが重なっている領域)を図示している。
パターン判定部112は、図3の(b)に示した3次元温度分布の画像に対して画像処理(例えば、大津の二値化アルゴリズムを用いた二値化処理や、エッジ検出処理など)を施すことによって、3次元温度分布に含まれる温度が高い領域(例えば温度が30℃以上である領域)と、それ以外の領域との境界を表す輪郭線OLを取得する。
ロボット10の補助記憶装置914(例えばハードディスクドライブ)には、倒れている人を示す複数のパターンが予め格納されている。パターン判定部112は、輪郭線OLをこれらの倒れている人を示す所定のパターンの各々と比較し、輪郭線OLが上記所定のパターンの何れかと一致すると見做した場合には、3次元温度分布の画像内に倒れている人が含まれていると認定し、それ以外の場合には、3次元温度分布の画像内に倒れている人が含まれていないと認定する。
また、制御部11は、パターン判定部112に代えてオプティカルフロー検出部(図2に不図示)を備えていてもよい。ここで、オプティカルフローとは、動きの有無を意味する。
この場合、カメラ群Cは、サーモグラフ動画像を温度分布データ生成部111に提供する。温度分布データ生成部111は、各カメラCiにより撮像されたサーモグラフ動画像から、3次元温度分布を表す温度分布データを生成する。
オプティカルフロー検出部は、サーモグラフ動画像のなかから周囲と異なるオプティカルフローを有する領域の有無を判定し、サーモグラフ動画像のなかに周囲と異なるオプティカルフローを有する領域があった場合(すなわち、周囲と異なるオプティカルフローを有する領域を検出した場合)には、その周囲と異なるオプティカルフローを有する領域に倒れている人が含まれていると認定する。一方、サーモグラフ動画像のなかに周囲と異なるオプティカルフローを有する領域がなかった場合には、オプティカルフロー検出部は、サーモグラフ動画像のなかに倒れている人が含まれていないと判定する。
制御部11がオプティカルフロー検出部を備えている場合には、サーモグラフ動画像のなかに倒れている人が含まれているか否かを制御部11が判定している期間中において、カメラ群Cの各カメラCiの位置は、静止していることが好ましい。すなわち、上記期間中において、ロボット10は、静止していることが好ましい。この構成によれば、サーモグラフ動画像のなかから周囲と異なるオプティカルフローを有する領域を検出することが容易になる。ただし、上記期間中にロボット10が静止していない場合であっても、座標変換を行うことによって、サーモグラフ動画像のなかから周囲と異なるオプティカルフローを有する領域を検出することは、可能である。
なお、ここでは、カメラ群Cが温度分布データ生成部111にサーモグラフ動画像を提供するものとして説明した。しかし、カメラ群Cは、サーモグラフ動画像に代えて所定の時間間隔で測定した複数のサーモグラフ画像を提供してもよい。この場合であっても、オプティカルフロー検出部は、複数のサーモグラフ画像のなかに倒れている人が含まれているか否かを判定することができる。
また、ここでは、制御部11がパターン判定部112に代えてオプティカルフロー検出部を備えているものとして説明した。しかし、制御部11は、パターン判定部112およびオプティカルフロー検出部の双方を備えていてもよい。
この場合、例えば、制御部11は、(1)輪郭線OLが上記所定のパターンの何れかと一致するとパターン判定部112が見做し、かつ、(2)サーモグラフ動画像のなかに周囲と異なるオプティカルフローを有する領域をオプティカルフロー検出部が検出し、かつ、(3)輪郭線OLのパターンと、オプティカルフローを有する領域のパターンとが一致すると見做せる場合に、サーモグラフ動画像のなかに倒れている人が含まれていると判定すればよい。この構成によれば、パターン判定部112およびオプティカルフロー検出部の何れか一方を用いる場合と比較して、倒れている人を認定するときの精度を向上させることができる。
通報部113は、パターン判定部112が3次元温度分布の画像内に倒れている人が含まれていると認定したときに、その旨を予め定められた外部装置に通報する。ここで、予め定められた外部装置は、特に限定されるものではない。その一例としては、介護施設の職員室に配置され、ローカルエリアネットワーク網を用いてロボット10とネットワーク接続されたパソコンが挙げられる。また、介護施設の各職員がタブレット端末を所持している場合には、これらのタブレット端末を予め定められた外部装置として利用することもできる。
温度分布データ送信部114は、パターン判定部112が3次元温度分布の画像内に倒れている人が含まれていると認定したときに、3次元温度分布を表す温度分布データを予め定められた外部装置に送信する。ここで、予め定められた外部装置は、特に限定されるものではないが、通報部113が、3次元温度分布の画像内に倒れている人が含まれていることを通知する外部装置と同じであることが好ましい。
バイタルデータ生成部115は、主軸算出部1151と、移動制御部1152と、変位量測定部1153と、フーリエ変換部1154と、スペクトル分割部1155と、算出部1156と、判定部1157とを含んでいる(図4の(b)参照)。各部が実施する処理は、後述する。
バイタルデータ生成部115は、パターン判定部112が3次元温度分布の画像内に倒れている人(本実施形態においては図3の(b)に示した人P)が含まれていると認定したときに、上述した温度分布データから、人Pのバイタルサインを表すバイタルデータを生成する。バイタルサインの例としては、体温(単位は℃)及び呼吸周波数(すなわち1秒間あたり呼吸回数、単位はHz)が挙げられる。
バイタルサインの一例として体温を用いる場合、バイタルデータ生成部115は、人Pの温度分布データから人Pの体温を取得することができる。
バイタルサインの一例として、呼吸を用いる場合、カメラ群Cが撮像するサーモグラフ画像は、動画像である。以下、図4を参照して、バイタルデータ生成部115が実行する呼吸周波数測定方法M1について説明する。
図4の(a)に示すように、呼吸周波数測定方法M1は、主軸算出工程S11と、移動工程S12と、変位量測定工程S13と、フーリエ変換工程S14と、スペクトル分割工程S15と、比算出工程S16と、判定工程S17とを含む。なお、主軸算出工程S11、移動工程S12、変位量測定工程S13、フーリエ変換工程S14、スペクトル分割工程S15、比算出工程S16、及び判定工程S17の各工程は、それぞれ、バイタルデータ生成部115に含まれる主軸算出部1151、移動制御部1152、変位量測定部1153、フーリエ変換部1154、スペクトル分割部1155、算出部1156、及び判定部1157の各部により実行される。
主軸算出工程S11は、図3の(b)に示した3次元温度分布に含まれる温度が高い領域(換言すれば輪郭線OLにより取り囲まれている領域)の主軸A1(図3の(b)参照)を算出する工程である。主軸A1は、輪郭線OLにより取り囲まれている領域の重心を通る軸であって、その長さが最も長い軸である。なお、主軸算出部1151は、既存の画像処理技術を適宜用いることによって、上記重心及び主軸A1を算出することができる。
移動工程S12は、呼吸周波数を測定するために好適な位置である測定位置へ、駆動機構DSを制御することによってロボット10が移動する(自走する)工程である。人Pの周囲に椅子や、ベッドや、便器や、壁などの障害物がない場合、移動制御部1152は、主軸A1の垂直二等分線上であって、人Pからの距離がおよそ1mである位置(以下では理想位置と称する)を測定位置として、その測定位置へ移動するように駆動機構DSを制御する。このような測定位置に移動することによって、カメラCiの俯角は、およそ40°になる。一方、人Pの周囲に障害物がある場合、移動制御部1152は、上述した理想位置にできるだけ近い位置であって、カメラCiの視野内において人Pが障害物により妨げられない位置を測定位置として、その位置へ移動するように駆動機構DSを制御する。
なお、移動工程S12において、移動制御部1152は、測定位置へ移動した後に、人Pを含む領域の3次元温度分布を表す温度分布データを生成し、その3次元温度分布内に周期的に動いている領域R1が含まれているか否かを判定し、その3次元温度分布内に領域R1が含まれている場合には、領域R1を撮像しやすい位置へ測定位置を修正するように駆動機構DSを制御してもよい。このように、移動制御部1152が測定位置を修正することによって、ロボット10は、呼吸周波数を測定するときの精度を高めることができる。すなわち、ロボット10は、バイタルサインを表すバイタルデータを生成するときの精度を高めることができる。
変位量測定工程S13は、領域R1の変位量の時間依存性を測定する工程である。領域R1の変位量は、人Pの呼吸に起因する胸郭の変位を表す量であるため、多くの場合には、周期的である。本実施形態において、人Pは、図3の(b)に示すように仰向けの状態で床Fの表面上に倒れている。したがって、変位量測定部1153は、z軸方向(床Fの表面の法線方向に沿った方向)の変位量の時間依存性を測定する。ただし、変位量測定部1153が測定する変位の方向は、人Pの倒れかたなどに依存して様々に代わる。変位量測定部1153は、3次元温度分布の動画像を用いて変位の方向を検出することができるので、変位の方向が何れの方向である場合であっても、変位量を測定することができる。この変位の方向については、図7を参照して後述する。
図5の(a)のプロットP1は、領域R1におけるz軸方向の変位量の時間依存性(以下において変位量パターンと称す)を示す。なお、変位量測定工程S13において、変位量測定部1153は、(1)領域R1に含まれる点の中から変位量が最も大きな点を抽出し、該変位量が最も大きな点をトラッキングすることによって変位量を測定するように構成されていてもよいし、(2)領域R1に含まれる輪郭線OL上の点(すなわち領域R1の輪郭を構成する点)のうち任意の点を抽出し、該変位量が最も大きな点をトラッキングすることによって変位量を測定するように構成されていてもよいし、(3)領域R1に含まれる輪郭線OL上の点(すなわち領域R1の輪郭を構成する点)のうち変位量が最も大きな点をトラッキングすることによって変位量を測定するように構成されていてもよい。
フーリエ変換工程S14は、図5の(a)に示した変位量パターンをフーリエ変換することによって、領域R1におけるz軸方向の変位量のパワースペクトル(図5の(b)のプロットP1参照)を得る工程である。このパワースペクトルは、人Pのバイタルサインの一例である呼吸周波数を表す呼吸周波数データである。このように、バイタルデータ生成部115は、呼吸周波数測定方法M1を実行することにより測定した呼吸周波数を表す呼吸周波数データを生成する。図5の(b)のプロットP1によれば、人Pは、正常に呼吸しており、その呼吸周波数は、0.275Hzであることが分かった。
スペクトル分割工程S15は、フーリエ変換工程S14において得られたパワースペクトルにおいて、パワーが最大値Pmaxとなる周波数であるピーク周波数fmaxを含む第1の帯域B1と、第1の帯域B1以外の帯域である第2の帯域B2とにパワースペクトルを分割する。
スペクトル分割工程S15において、第1の帯域B1の帯域幅、及び、第1の帯域B1の下限周波数および上限周波数は、適宜定めることができる。本実施形態では、上記下限周波数を0Hzとし、上記上限周波数を0.5Hzとしている。すなわち、上記帯域幅を0.5Hzとしている。このように、第1の帯域B1は、予め定められていてもよい。
また、パワースペクトルに応じて第1の帯域B1を定める場合には、例えば、(1)パワースペクトルを参照したうえで、ピーク周波数fmaxを中心周波数として、且つ、予め定めた帯域幅(例えば0.3Hz)を有する帯域を第1の帯域B1としてもよいし、(2)最大値Pmaxに対して予め定められた割合となるパワーに対応する周波数を下限周波数及び上限周波数とする帯域を第1の帯域B1としてもよい。
比算出工程S16は、第2の帯域B2におけるパワーの平均値である平均パワー値Pmean(図5の(b)参照)に対する最大値Pmaxの比k(k=Pmax/Pmean)を算出する。
判定工程S17は、比kに応じて、人Pが呼吸しているか否かを判定する。本実施形態では、比kを以下の(1)式で表されるシグモイド関数に代入し、得られた関数値Pr(k)に応じて、人Pが呼吸しているか否かを判定する。
Figure 0007364179000001
シグモイド関数に含まれるa,bは、例えば予備実験を通して予め定めることができ、各々の値は、限定されるものではない。a,bの一例としては、a=3,b=5が挙げられる。本実施形態では、a=3,b=5を採用し、関数値Pr(k)が予め定められた閾値以上である場合に、人Pが呼吸していると判定する。
また、以上のように、スペクトル分割工程S15、比算出工程S16、及び、判定工程S17を用いて人Pが呼吸しているか否かを判定した場合、バイタルデータ生成部115は、比算出工程S16の判定結果(すなわち、判定部1157の判定結果)を含めたバイタルデータを生成する。
なお、本実施形態において、変位量測定部1153は、3次元温度分布の画像から領域R1したうえで、領域R1を用いて上記変位量を測定するように構成されている。しかし、変位量測定部1153は、領域R1を抽出することなしに3次元温度分布の画像をそのまま用い、人Pの胸郭の変位量を測定するように構成されていてもよい。このとき、変位量測定部1153は、(1)3次元温度分布の画像に含まれる点の中から変位量が最も大きな点を抽出し、該変位量が最も大きな点をトラッキングすることによって変位量を測定するように構成されていてもよいし、(2)3次元温度分布の画像に含まれる輪郭線OL上の点(すなわち領域R1の輪郭を構成する点)のうち任意の点を抽出し、該変位量が最も大きな点をトラッキングすることによって変位量を測定するように構成されていてもよいし、(3)3次元温度分布の画像に含まれる輪郭線OL上の点(すなわち領域R1の輪郭を構成する点)のうち変位量が最も大きな点をトラッキングすることによって変位量を測定するように構成されていてもよい。
図5の(a)のプロットP2は、3次元温度分布の画像におけるz軸方向の変位量の時間依存性(以下において変位量パターンと称す)を示す。図5の(b)のプロットP2は、図5の(a)に示した変位量パターン(プロットP2)をフーリエ変換することによって得られた、3次元温度分布の画像におけるz軸方向の変位量のパワースペクトルである。
図5の(b)に示したプロットP1とプロットP2とを比較すると、3次元温度分布の画像を用いても呼吸周波数を計測可能であるが、領域R1を用いた場合と比較して、そのパワースペクトルの値がおよそ40%程度に低下していることが分かった。したがって、得られたパワースペクトルのS/N比を高めるために、変位量測定部1153は、領域R1を用いて変位量を測定することが好ましい。
図5の(c)は、領域R1におけるz軸方向の変位量パターンであって、前半においては人Pが通常どおり呼吸しており、後半においては人Pが呼吸を停止した場合の変位量パターンを示す。
図5の(d)のプロットP1は、図5の(c)に示した変位量パターンのうち前半の部分をフーリエ変換することによって得られたパワースペクトルである。図5の(d)のプロットP2は、図5の(c)に示した変位量パターンのうち後半の部分をフーリエ変換することによって得られたパワースペクトルである。図5の(d)に示したプロットP1,P2によれば、呼吸をしている場合には、パワースペクトルにピークが観測され、呼吸を停止している場合には、パワースペクトルにピークが観測されないことが分かった。以上のように、ロボット10は、人Pが呼吸をしているか否かを自動判定することができることが分かった。
図6の(a)は、領域R1におけるz軸方向の変位量パターンであって、前半においては人Pが通常どおり呼吸しており、後半においては人Pが多呼吸状態を模した場合の変位量パターンを示す。
図6の(b)のプロットP1は、図6の(a)に示した変位量パターンのうち前半の部分をフーリエ変換することによって得られたパワースペクトルである。図6の(b)のプロットP2は、図6の(a)に示した変位量パターンのうち後半の部分をフーリエ変換することによって得られたパワースペクトルである。図6の(b)に示したプロットP1,P2によれば、人Pが通常の呼吸から多呼吸状態を模した呼吸に遷移した場合に、呼吸周波数がおよそ0.275Hzからおよそ0.8Hzに高まることが分かった。
なお、人Pは、図3の(b)及び図7の(a)に示すように仰向けの状態で倒れているとは限らない。例えば、人Pは、図7の(b)に示すようにうつ伏せの状態で倒れているかもしれないし、図7の(c)及び(d)に示すように横向きの状態で倒れているかもしれない。図7の(c)は、横向きの状態で倒れている人Pの腹部側の理想位置を測定位置として撮像した3次元温度分布の画像であり、図7の(d)は、横向きの状態で倒れている人Pの背中側の理想位置を測定位置として撮像した3次元温度分布の画像である。
上述したように、人Pが仰向けの状態で倒れている場合(図7の(a)参照)には、変位量測定部1153は、領域R1の変位量のうちz軸方向(床Fの表面の法線方向に沿った方向)の変位量を測定することによって、呼吸周波数を測定することができる。人Pがうつ伏せの状態で倒れている場合(図7の(b)参照)も同様である。一方、人Pが横向きの状態で倒れている場合(図7の(c)及び(d)参照)には、変位量測定部1153は、領域R1の変位量のうちx軸方向又はy軸方向(床Fの表面に沿った方向)の変位量を測定することによって、呼吸周波数を測定することができる。
なお、本実施形態では、人Pが床Fに倒れている場合を例に、ロボット10が呼吸周波数を測定する場合について説明した。しかし、ロボット10は、人Pが床Fに倒れている場合のみならず、人Pが壁やベッドなどに寄りかかりながら床Fに座り込んでいる場合のように上半身を起こしている状態においても呼吸周波数を測定することができる。
バイタルデータ送信部116は、バイタルデータ生成部115が生成したバイタルデータを予め定められた外部装置に送信する。ここで、予め定められた外部装置は、特に限定されるものではないが、(1)通報部113が3次元温度分布の画像内に倒れている人が含まれていることを通知する外部装置、及び、(2)温度分布データ送信部114が温度分布データを送信する外部装置と同じであることが好ましい。
本実施形態では、ロボット10が通報部113、温度分布データ送信部114、バイタルデータ生成部115、及びバイタルデータ送信部116を備えているものとして説明した。しかし、ロボット10においては、介護施設における要望に応じて、これらの各部のうち1又は複数の機能ブロックを省略することもできる。
また、本実施形態では、8個の遠赤外線カメラであるカメラC1~C8からなるカメラ群Cをロボット10(あるいは測定装置)が備えているものとして説明した。しかし、カメラ群Cは、少なくとも2つの遠赤外線カメラ(例えばカメラC1,C2)を備えていればよい。
例えば、カメラ群Cが2つのカメラC1,C2からなる場合、ロボット10は、撮像対象円全体のサーモグラフ画像を、8コマに分割して撮像するように構成されていればよい。図1の(b)に示した状態において、カメラC1の視野V1と、カメラC2の視野V2とは、x軸正方向を0°として、0°以上45°以下の範囲において重なっている。したがって、カメラC1,C2を備えたロボット10は、45°ごとに回転しながら8コマのサーモグラフ画像を撮像することによって、カメラC1~C8を備えたロボット10と同様に、撮像対象円全体のサーモグラフ画像を撮像することができる。
ロボット10は、図3の(a)に示したように、倒れている人を主な撮像対象(被写体)としている。倒れている人の動きは遅いため、撮像対象円全体のサーモグラフ画像を撮像するために多少の時間を要する場合であっても、ロボット10は、倒れている人の奥行きを含めた位置を特定することができる。
なお、バイタルデータ生成部115が動画像のサーモグラフ画像を用いて人Pの呼吸周波数を測定する場合であっても、ロボット10が自身の位置を調整することによって、図3の(b)に示した胸郭に対応する領域R1を視野V1と視野V2とが重なる領域内に収めることができる。したがって、カメラ群Cを構成するカメラの数が2つである場合であっても、バイタルデータ生成部115は、動画像を用いて人Pのバイタルデータを取得することができる。
カメラ群Cを構成するカメラCiの数は、ロボット10の使用に応じて適宜定めることができる。
なお、ロボット10が備えている構成のうち、カメラ群Cと、温度分布データ生成部111とは、3次元温度分布を測定するための測定装置として機能する。カメラ群Cと、温度分布データ生成部111とを備えた測定装置は、特許請求の範囲に記載の測定装置の一例である。
(制御方法)
制御部11が実行する処理に対応したロボット10の制御方法も、本発明の範疇に含まれる。この制御方法は、温度分布データ生成工程S21と、パターン判定工程S22と、通報工程S23と、温度分布データ送信工程S24と、バイタルデータ生成工程S25と、バイタルデータ送信工程S26とを含む。
温度分布データ生成工程S21、パターン判定工程S22、通報工程S23、温度分布データ送信工程S24、バイタルデータ生成工程S25、及び、バイタルデータ送信工程S26の各々は、それぞれ、制御部11が備えている温度分布データ生成部111、パターン判定部112、通報部113、温度分布データ送信部114、バイタルデータ生成部115、及びバイタルデータ送信部116の各々が実行する処理に対応する。したがって、ここでは、制御方法の詳細な説明を省略する。
(カメラ群Cの変形例)
上述したように、カメラ群Cは、複数のカメラCi(iは、1以上8以下の整数)により構成されている。後述する温度分布データ生成部111は、ステレオビジョンの技術を用いて、2つの隣接するカメラCiの視野Viと、カメラCi+1の視野Vi+1とが重なっている領域の3次元温度分布を表す温度分布データを生成する。すなわち、温度分布データ生成部111は、ステレオ深度を用いて3次元温度分布を表す温度分布データを生成する。
しかし、カメラ群Cを構成する複数の遠赤外線カメラは、1つのサーモグラフィカメラCcと、1つの深度カメラCdとにより構成することもできる。図8の(a)は、サーモグラフィカメラCcと深度カメラCdとの座標変換モデルを示す概略図である。図8の(b)は、サーモグラフィカメラCcを用いたピンホールモデルの概略図である。
温度分布データ生成部111は、以下の処理を行うことによって、赤外深度を用いて3次元温度分布を表す温度分布データを生成する。
図8の(a)に示すように、ロボット10の本体中心の床Fに接する位置、サーモグラフィカメラCcの位置、および、深度カメラCdの位置の各々における座標系を、それぞれ、座標系Σ、座標系Σ、および、座標系Σと定める。
深度カメラCdにより得られる3次元座標点pは、同時変換行列を用いて、(2)式のように書ける(図8の(a)参照)。
Figure 0007364179000002
座標系Σにおける3次元座標pに対して、(3)式に示すピンホールカメラモデルを用い、得られたピクセル座標ハットq(ハットqのことを、以下の文章中では単にqと記載し、(3)式中ではqの上に^を付して記載する)の温度T(q)を統合することによって、3次元位置と温度とを有する3次元温度分布(p=[XYZ])を表す温度分布データを生成することができる(図8の(b)参照)。
Figure 0007364179000003
この場合、後述する温度分布データ生成部111は、サーモグラフィカメラと深度カメラとのカメラ座標変換と、ピンホールカメラモデルを用いた情報統合を行うことによって、視野内の3次元温度分布を表す温度分布データを生成する。
精度が高い深度カメラを用いることによって、赤外深度を用いて3次元温度分布を表す温度分布データを生成する場合であっても、ステレオ深度を用いて3次元温度分布を表す温度分布データを生成する場合と同等の3次元温度分布を表す温度分布データを得ることができる。
なお、サーモグラフィカメラと深度カメラとのカメラ対を用いてカメラ群Cを構成する場合であっても、カメラ対の数を増やせば、3次元温度分布を表す温度分布データを生成可能な視野を広げることができ、ロボット10を中心とする全方位についての3次元温度分布を表す温度分布データを生成することも可能である。
(制御部の変形例)
図1に示したロボット10の変形例であるロボット20について、図9を参照して説明する。ロボット20は、上述したカメラ群Cの変形例、すなわち、サーモグラフィカメラCcと深度カメラCdとを備えている。図9は、ロボット20が備えている制御部21の機能ブロック図である。
図9に示すように、ロボット20は、センサの一例である深度カメラCdと、ロボット20を制御する制御部21とを備えている。
制御部21は、部位特定部211と、通報部213と、バイタルデータ生成部215と、バイタルデータ送信部216とを備えている。
通報部213は、図2に示した制御部11の通報部113と同様に構成されている。バイタルデータ送信部216は、制御部11のバイタルデータ送信部116と同様に構成されている。したがって、本変形例では、通報部213及びバイタルデータ送信部216に関する説明を省略し、部位特定部211及びバイタルデータ生成部215について説明する。
深度カメラCdは、部位特定部211に深度画像を供給する。部位特定部211は、深度カメラCdから供給された深度画像に人が被写体として含まれているときに、学習済みモデルを用いて、深度画像において当該人の特定の部位に対応する領域を特定する。この学習済みモデルは、例えば、深度画像を入力とし、特定の部位に対応する領域を表す領域情報を出力とするように、機械学習されたニューラルネットワークである。
本変形例において、上記特定の部位は、深度画像に被写体として含まれる人の胸郭である。特定の部位に対応する領域は、図3の(b)に示す領域R1に対応する。
バイタルデータ生成部215は、深度画像における胸郭に対応する領域を参照して、上記人のバイタルサインを表すバイタルデータを生成する。バイタルデータ生成部215は、例えば、図4の(b)に示したフーリエ変換部1154、スペクトル分割部1155、算出部1156、及び判定部1157を含んでいる。したがって、バイタルデータ生成部215は、深度画像における胸郭に対応する領域を参照して、上記人のバイタルサインを表すバイタルデータを生成することができる。
なお、本変形例では、センサとして深度カメラCdを採用しているが、深度カメラCdの代わりに可視光を用いて撮像する可視光カメラを採用してもよい。また、センサとして深度カメラと可視光カメラを採用してもよい。
〔ソフトウェアによる実現例〕
ロボット10が備えている制御部11の各ブロック(図2及び図4の(b)参照)、及び、ロボット20が備えている制御部21の各ブロック(図9参照)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、制御部11及び制御部21の各々を、図10に示すようなコンピュータ(電子計算機)を用いて構成することができる。以下では、制御部11を例にして、コンピュータを用いて制御部11を構成する場合について説明するが、コンピュータを用いて制御部21を構成する場合についても同様であり、以下の記載の制御部11を制御部21に読み替えればよい。
図10は、制御部11として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばCPU、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、上述したようにカメラ群Cを含んでおり、その他のハードウェアとしてタッチセンサ、キーボード、マウスなどを更に含んでいてもよい。また、例えば、出力装置930は、上述したように駆動機構DSを含んでおり、その他のハードウェアとしてディスプレイ、プリンタ、スピーカなどを更に含んでいてもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。ディスプレイ又はタッチパネルを用いてロボット10,20の顔部を構成することによって、ロボット10,20のそのときの状態を、ロボット10,20の表情を模した画像を用いて表現することができる。したがって、介護施設の利用者及び職員は、ディスプレイ又はタッチパネルを参照することによってロボット10,20の状態を容易に把握することができる。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
補助記憶装置914には、コンピュータ910を制御部11として動作させるための各種プログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記各プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、制御部11が備える各部として機能させる。なお、補助記憶装置914がプログラム等の情報の記録に用いる記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。
また、コンピュータ910の外部の記録媒体に記録されているプログラム、あるいは任意の伝送媒体(通信ネットワークや放送波等)を介してコンピュータ910に供給されたプログラムを用いてコンピュータ910を機能させる構成を採用してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係るロボットは、画像を出力する少なくとも1つのセンサと、上記画像を参照して、人のバイタルサインを表すバイタルデータを生成する制御部と、を備えている。
上記の構成によれば、周囲に存在する人のバイタルサインを表すバイタルデータを生成可能なロボットを実現することができる。
また、本発明の態様2に係るロボットは、上記態様1に係るロボットにおいて、上記センサは、異なる方向を向いた複数の遠赤外線カメラを含み、上記制御部は、上記複数の遠赤外線カメラの各々により撮像されたサーモグラフ画像から、3次元温度分布を表す温度分布データを生成する温度分布データ生成部と、上記温度分布データから、上記人のバイタルサインを表すバイタルデータを生成するバイタルデータ生成部と、を含んでいる。
上記の構成によれば、周囲に存在する人のバイタルサインを表す、精度の良いバイタルデータを生成可能なロボットを実現することができる。
また、本発明の態様3に係るロボットは、上記態様2に係るロボットにおいて、上記複数の遠赤外線カメラは、互いに隣接する遠赤外線カメラの視野の重なりが予め定められた半径を有する撮像対象円全体を覆うように配置されており、上記温度分布データは、上記撮像対象円全体に対する3次元温度分布を表す。
上記の構成によれば、互いに隣接する遠赤外線カメラの視野の重なりが予め定められた半径を有する撮像対象円(最小撮像対象円Comin)全体を覆っているため、ロボットを中心とする全方位についての3次元温度分布を表す温度分布データを生成することができる。すなわち、ロボットは、人がどの方向に存在するときでも、その人のバイタルサインを表すバイタルデータを生成することができる。
また、本発明の態様4に係るロボットは、上記態様1に係るロボットにおいて、上記センサは、遠赤外線カメラと深度カメラとを含み、上記制御部は、上記遠赤外線カメラにより撮像されたサーモグラフ画像と、上記深度カメラにより撮像された深度画像とから、3次元温度分布を表す温度分布データを生成する温度分布データ生成部と、上記温度分布データから、上記人のバイタルサインを表すバイタルデータを生成するバイタルデータ生成部と、を含んでいる。
上記の構成によれば、周囲に存在する人のバイタルサインを表す、精度の良いバイタルデータを生成可能なロボットを実現することができる。
また、本発明の態様5に係るロボットは、上記態様2~4の何れか一態様に係るロボットにおいて、上記温度分布データの表す3次元温度分布に、倒れている人を示す所定のパターンが含まれているときに、その旨を予め定められた外部装置に通報する通報部を更に備えている。
上記温度分布データの表す3次元温度分布に、倒れている人を示す所定のパターンが含まれているということは、ロボットの周囲に倒れている人がいるということを意味する。上記の構成によれば、ロボットは、倒れている人を検出したことを外部装置に通報することができる。
また、本発明の態様6に係るロボットは、上記態様2~5の何れか一態様に係るロボットにおいて、上記温度分布データの表す3次元温度分布に、倒れている人を示す所定のパターンが含まれているときに、上記温度分布データを予め定められた外部装置に送信する温度分布データ送信部を更に備えている。
上記の構成によれば、ロボットは、人が倒れている現場のより詳しい状況を外部装置に送信することができる。したがって、例えばその外部装置から倒れている人に関する情報を得た介護施設の職員は、現場の状況をより正確に把握することができる。
また、本発明の態様7に係るロボットは、上記態様2~6の何れか一態様に係るロボットにおいて、上記温度分布データの表す3次元温度分布に、倒れている人を示す所定のパターンが含まれているときに、上記バイタルデータを予め定められた外部装置に送信するバイタルデータ送信部と、を更に備えている。
上記の構成によれば、ロボットは、人が倒れている現場のより詳しい状況を外部装置に送信することができる。したがって、例えばその外部装置から倒れている人に関する情報を得た介護施設の職員は、現場の状況をより正確に把握することができる。
また、本発明の態様8に係るロボットは、上記態様2~7の何れか一態様に係るロボットにおいて、上記画像は、動画像であり、上記バイタルデータ生成部は、時間的に変動する上記温度分布データを用いて上記バイタルデータを生成する。
上記の構成によれば、周囲に存在する人のバイタルサイン、特に呼吸などのバイタルサインを表す、精度の良いバイタルデータを生成可能なロボットを実現することができる。
また、本発明の態様9に係るロボットは、上記態様8に係るロボットにおいて、上記バイタルデータ生成部は、上記温度分布データを用いて、上記人の胸郭の変位量の時間依存性を測定する変位量測定部と、上記変位量の時間依存性をフーリエ変換することにより上記変位量のパワースペクトルを得るフーリエ変換部とを含み、且つ、該パワースペクトルをバイタルデータとして生成する。
上記の構成によれば、ロボットは、バイタルデータの一例として、倒れている人の胸郭の変位量のパワースペクトルを外部装置に送信することができる。該パワースペクトルは、人の呼吸周波数を表しているため、該パワースペクトルを参照した介護施設の職員は、倒れている人が呼吸しているか否か、また、呼吸している場合に、その呼吸が正常であるか否かを把握することができる。したがって、介護施設の職員は、人が倒れている状況の緊急性を、より高い精度で判断することができる。
また、本発明の態様10に係るロボットは、上記態様9に係るロボットにおいて、上記バイタルデータ生成部は、上記パワースペクトルにおいてパワーが最大値となる周波数であるピーク周波数を含む第1の帯域と、当該第1の帯域以外の帯域である第2の帯域とに上記パワースペクトルを分割するスペクトル分割部と、上記第2の帯域の平均パワー値に対する上記最大値の比を算出する算出部と、上記比に応じて、上記人が呼吸しているか否かを判定する判定部と、を更に含み、且つ、上記判定部の判定結果をバイタルデータに含める。
上記の構成によれば、ロボットは、倒れている人が呼吸しているか否かを判定することができ、その判定結果を含めたバイタルデータを外部装置に送信することができる。したがって、介護施設の職員は、バイタルデータを見たときに、即座に人が呼吸をしているか否かを把握することができ、人が倒れている状況の緊急性を、更に高い精度で判断することができる。
また、本発明の態様11に係るロボットは、上記態様1に係るロボットにおいて、上記制御部は、上記画像に人が被写体として含まれているときに、上記画像において当該人の特定の部位に対応する領域を特定する学習済みモデルと、上記画像における上記特定の領域を参照して、上記人のバイタルサインを表すバイタルデータを生成するバイタルデータ生成部と、を含んでいる。
上記の構成によれば、周囲に存在する人のバイタルサインを表す、精度の良いバイタルデータを生成可能なロボットを実現することができる。
なお、上記センサは、深度カメラであってもよいし、可視光カメラであってもよい。何れの場合であっても、周囲に存在する人のバイタルサインを表す、精度の良いバイタルデータを生成可能なロボットを実現することができる。
また、本発明の態様14に係るロボットは、上記態様1~13の何れか一態様に係るロボットにおいて、自走式である。
上記の構成によれば、ロボットがバイタルサインを測定するべき人の側まで移動して、その人のバイタルサインを表すバイタルデータを生成することができる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
10 ロボット
11 制御部
111 温度分布データ生成部
112 パターン判定部
113 通報部
114 温度分布データ送信部
115 バイタルデータ生成部
1153 変位量測定部
1154 フーリエ変換部
116 バイタルデータ送信部
C カメラ群
C1~C8 遠赤外線カメラ
V1~V8 視野
Comin 撮像対象円
P 人
R1 領域(胸郭に対応する領域)
OL 輪郭線

Claims (12)

  1. 画像を出力する少なくとも1つのセンサと、上記画像を参照して、人のバイタルサインを表すバイタルデータを生成する制御部と、を備えているロボットであって、
    上記センサは、異なる方向を向いた複数の遠赤外線カメラを含み、
    上記制御部は、上記複数の遠赤外線カメラの各々により撮像されたサーモグラフ画像から、3次元温度分布を表す温度分布データを生成する温度分布データ生成部と、上記温度分布データから、上記人のバイタルサインを表すバイタルデータを生成するバイタルデータ生成部と、を含んでおり、
    上記複数の遠赤外線カメラは、互いに隣接する遠赤外線カメラの視野の重なりが予め定められた半径を有し、且つ、当該ロボットを中心とする全方位に対応する撮像対象円全体を覆うように配置されており、
    上記温度分布データは、上記撮像対象円全体に対する3次元温度分布を表す、
    ことを特徴とするロボット。
  2. 上記センサは、深度カメラを更に含み、
    上記制御部は、上記複数の遠赤外線カメラにより撮像されたサーモグラフ画像と、上記深度カメラにより撮像された深度画像とから、3次元温度分布を表す温度分布データを生成する温度分布データ生成部と、上記温度分布データから、上記人のバイタルサインを表すバイタルデータを生成するバイタルデータ生成部と、を含んでいる、
    ことを特徴とする請求項1に記載のロボット。
  3. 上記3次元温度分布に、倒れている人を示す所定のパターンが含まれているときに、その旨を予め定められた外部装置に通報する通報部を更に備えている、
    ことを特徴とする請求項1又は2に記載のロボット。
  4. 上記3次元温度分布に、倒れている人を示す所定のパターンが含まれているときに、上記温度分布データを予め定められた外部装置に送信する温度分布データ送信部を更に備えている、
    ことを特徴とする請求項1~3の何れか1項に記載のロボット。
  5. 上記3次元温度分布に、倒れている人を示す所定のパターンが含まれているときに、上記バイタルデータを予め定められた外部装置に送信するバイタルデータ送信部と、を更に備えている、
    ことを特徴とする請求項1~4の何れか1項に記載のロボット。
  6. 上記画像は、動画像であり、
    上記バイタルデータ生成部は、時間的に変動する上記温度分布データを用いて上記バイタルデータを生成する、
    ことを特徴とする請求項1~5の何れか1項に記載のロボット。
  7. 上記バイタルデータ生成部は、上記温度分布データを用いて、上記人の胸郭の変位量の時間依存性を測定する変位量測定部と、上記変位量の時間依存性をフーリエ変換することにより上記変位量のパワースペクトルを得るフーリエ変換部とを含み、且つ、該パワースペクトルをバイタルデータとして生成する、
    ことを特徴とする請求項6に記載のロボット。
  8. 上記バイタルデータ生成部は、上記パワースペクトルにおいてパワーが最大値となる周波数であるピーク周波数を含む第1の帯域と、当該第1の帯域以外の帯域である第2の帯域とに上記パワースペクトルを分割するスペクトル分割部と、上記第2の帯域の平均パワー値に対する上記最大値の比を算出する算出部と、上記比に応じて、上記人が呼吸しているか否かを判定する判定部と、を更に含み、且つ、上記判定部の判定結果をバイタルデータに含める、
    ことを特徴とする請求項7に記載のロボット。
  9. 上記制御部は、上記画像に人が被写体として含まれているときに、上記画像において当該人の特定の部位に対応する領域を特定する学習済みモデルと、上記画像における上記特定の領域を参照して、上記人のバイタルサインを表すバイタルデータを生成するバイタルデータ生成部と、を含んでいる、
    ことを特徴とする請求項1に記載のロボット。
  10. 上記センサは、深度カメラを含む、
    ことを特徴とする請求項9に記載のロボット。
  11. 上記センサは、可視光カメラを含む、
    ことを特徴とする請求項9に記載のロボット。
  12. 自走式である、
    ことを特徴とする請求項1~11の何れか1項に記載のロボット。
JP2019013590A 2019-01-29 2019-01-29 ロボット Active JP7364179B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019013590A JP7364179B2 (ja) 2019-01-29 2019-01-29 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019013590A JP7364179B2 (ja) 2019-01-29 2019-01-29 ロボット

Publications (2)

Publication Number Publication Date
JP2020120829A JP2020120829A (ja) 2020-08-13
JP7364179B2 true JP7364179B2 (ja) 2023-10-18

Family

ID=71993232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013590A Active JP7364179B2 (ja) 2019-01-29 2019-01-29 ロボット

Country Status (1)

Country Link
JP (1) JP7364179B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182033A (ja) 1998-10-08 2000-06-30 Kokuritsu Minamatabiyou Sogo Kenkyu Center Shocho サ―モグラフィ画像の処理方法
JP2001312718A (ja) 2000-02-21 2001-11-09 Sharp Corp 画像合成装置
JP2003256042A (ja) 2002-03-03 2003-09-10 Tmsuk Co Ltd 警備ロボット
JP2016067773A (ja) 2014-09-30 2016-05-09 国立大学法人 千葉大学 自律移動ロボット及びバイタルサインモニタリング方法
WO2016163019A1 (ja) 2015-04-10 2016-10-13 株式会社日立製作所 生体情報分析システム
WO2016190348A1 (ja) 2015-05-27 2016-12-01 コニカミノルタ株式会社 監視装置
JP2017224356A (ja) 2011-08-22 2017-12-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. データ管理システム及び方法
JP2018025551A (ja) 2016-08-04 2018-02-15 株式会社Hielero 点群データ変換システム及びその方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4772875A (en) * 1986-05-16 1988-09-20 Denning Mobile Robotics, Inc. Intrusion detection system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182033A (ja) 1998-10-08 2000-06-30 Kokuritsu Minamatabiyou Sogo Kenkyu Center Shocho サ―モグラフィ画像の処理方法
JP2001312718A (ja) 2000-02-21 2001-11-09 Sharp Corp 画像合成装置
JP2003256042A (ja) 2002-03-03 2003-09-10 Tmsuk Co Ltd 警備ロボット
JP2017224356A (ja) 2011-08-22 2017-12-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. データ管理システム及び方法
JP2016067773A (ja) 2014-09-30 2016-05-09 国立大学法人 千葉大学 自律移動ロボット及びバイタルサインモニタリング方法
WO2016163019A1 (ja) 2015-04-10 2016-10-13 株式会社日立製作所 生体情報分析システム
WO2016190348A1 (ja) 2015-05-27 2016-12-01 コニカミノルタ株式会社 監視装置
JP2018025551A (ja) 2016-08-04 2018-02-15 株式会社Hielero 点群データ変換システム及びその方法

Also Published As

Publication number Publication date
JP2020120829A (ja) 2020-08-13

Similar Documents

Publication Publication Date Title
US20210378526A1 (en) Systems and methods for detecting corrupt or inaccurate sensory representations
US10600204B1 (en) Medical environment bedsore detection and prevention system
JP7138931B2 (ja) 姿勢解析装置、姿勢解析方法、及びプログラム
RU2604701C2 (ru) Способ и устройство для мониторинга движений и дыхания множества субъектов в общей кровати
JP6181373B2 (ja) 医用情報処理装置及びプログラム
JP2007534032A (ja) 就寝中の乳幼児を監視する方法
WO2016151966A1 (ja) 乳幼児監視装置、乳幼児監視方法、及び、乳幼児監視プログラム
Li et al. Detection of patient's bed statuses in 3D using a Microsoft Kinect
JP2023553957A (ja) 身体画像に基づいて睡眠分析を決定するシステム及び方法
JP7364179B2 (ja) ロボット
JP7090327B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2020077388A (ja) 運動解析装置
WO2023189309A1 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
JP6611871B1 (ja) 監視装置
Agarwal et al. Method to improve gait speed assessment for low frame rate AI enabled visual sensor
TWM625774U (zh) 基於深度影像的被照護者行為分析的照護檢測系統
JP7342863B2 (ja) コンピュータで実行されるプログラム、情報処理システム、および、コンピュータで実行される方法
JP2022010581A (ja) 検知装置、検知方法、画像処理方法、およびプログラム
US20240122486A1 (en) Physiological monitoring soundbar
JP7090328B2 (ja) 情報処理装置
TWI742696B (zh) 多參數生理訊號量測方法
KR102489418B1 (ko) 웨어러블 디바이스를 이용한 헬스케어 데이터 제공 시스템 및 방법
US20230329590A1 (en) Non-Contact Monitoring System and Method
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
WO2020149126A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230927

R150 Certificate of patent or registration of utility model

Ref document number: 7364179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150