JP2019217103A - 介助システム、介助方法及び介助プログラム - Google Patents

介助システム、介助方法及び介助プログラム Download PDF

Info

Publication number
JP2019217103A
JP2019217103A JP2018118231A JP2018118231A JP2019217103A JP 2019217103 A JP2019217103 A JP 2019217103A JP 2018118231 A JP2018118231 A JP 2018118231A JP 2018118231 A JP2018118231 A JP 2018118231A JP 2019217103 A JP2019217103 A JP 2019217103A
Authority
JP
Japan
Prior art keywords
subject
food
mouth
target person
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018118231A
Other languages
English (en)
Inventor
松本 修一
Shuichi Matsumoto
修一 松本
松岡 俊宏
Toshihiro Matsuoka
俊宏 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Prec Co Ltd
Noritsu Precision Co Ltd
Original Assignee
Noritsu Prec Co Ltd
Noritsu Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Prec Co Ltd, Noritsu Precision Co Ltd filed Critical Noritsu Prec Co Ltd
Priority to JP2018118231A priority Critical patent/JP2019217103A/ja
Publication of JP2019217103A publication Critical patent/JP2019217103A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】身体を動かすことが困難な対象者であっても自発的に食事を摂れるようにする技術を提供する。【解決手段】本発明の一側面に係る介助システムは、深度情報を含む撮影画像を取得する撮影装置、対象者まで食物を運搬するロボット装置、及びロボット装置の動作を制御する制御装置を備える。制御装置は、撮影装置から得られる撮影画像を解析することで対象者の口の位置を算出し、対象者の口の位置を算出した結果に基づいて、ロボット装置に対して対象者の口元まで食物を運搬させる。そして、制御装置は、得られた撮影画像を解析することで対象者が口を開けているか否かを判定し、対象者が口を開けていると判定した場合に、ロボット装置に対して対象者の口の中に食物を入れさせる。【選択図】図8

Description

本発明は、介助システム、介助方法及び介助プログラムに関する。
近年、様々な行動の支援を要する対象者(例えば、要介護者)のために、種々の行動を介助するシステムが開発されている。例えば、特許文献1及び2では、食事を支援する食事支援装置が提案されている。この食事支援装置によれば、操作部のレバーを利用者が操作することで、容器に盛り付けられた食物を把持機構部に把持させ、把持させた食物を利用者の口元に運ぶことができる。
特開2006−000427号公報 特開2006−000428号公報
本件発明者らは、特許文献1及び2で提案される食事支援装置等、従来の食事を介助するシステムには次のような問題点があることを見出した。すなわち、従来のシステムでは、把持機構による食物の運搬は、対象者の口元で停止する。したがって、このようなシステムを利用して食事を行う場合には、対象者は、少なくとも頭部を自発的に動かして、食物の停止した位置まで自身の口を運ぶことになる。そのため、身体を動かす分だけ対象者に負担がかかってしまうという問題点があることを本件発明者らは見出した。また、身体を動かすことができない者は、このようなシステムを利用しても、自発的に食事を行うのは困難であるという問題点があることを本件発明者らは見出した。
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、身体を動かすことが困難な対象者であっても自発的に食事を摂れるようにする技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る介助システムは、対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置と、前記対象者まで食物を運搬するように構成されたロボット装置と、前記ロボット装置の動作を制御するように構成された制御装置と、を備える。そして、前記制御装置は、前記撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、を実行するように構成される。
当該構成に係る介助システムでは、制御装置は、まず、撮影装置により得られる撮影画像に基づいて、食事を提供する対象となる対象者の口の位置を特定する。撮影画像には、被写体までの深度を示す深度情報が含まれている。そのため、制御装置は、この深度情報を利用することで、実空間における対象者の口の位置を算出することができる。続いて、制御装置は、対象者の口の位置を算出した結果に基づいて、対象者の口元まで食物を運搬させるようにロボット装置の動作を制御する。次に、制御装置は、取得した撮影画像を解析することで、対象者が口を開けているか否かを判定する。そして、対象者が口を開けていると判定した場合に、制御装置は、対象者の口の中に食物を入れさせるようにロボット装置の動作を制御する。
したがって、当該構成に係る介助システムによれば、対象者は、口を開ける動作を行うだけで、ロボット装置に対して、口の中に食物を入れる動作を実行させることができる。つまり、対象者は、口の中に食物を入れるロボット装置の動作を利用することで、身体を動かすことなく、自発的に食事を摂ることができるようになる。よって、当該構成に係る介助システムによれば、身体を動かすことが困難な対象者であっても自発的に食事を摂れるようにすることができる。
なお、ロボット装置の構成は、食物を運搬可能であれば、特に限定されなくてもよい。ロボット装置には、例えば、食物を運搬可能に構成された公知のロボットアームが用いられてもよい。また、撮影装置の構成は、深度情報を取得可能であれば、特に限定されなくてもよい。撮影装置には、例えば、公知の距離センサ、深度カメラ等が用いられてもよい。撮影装置は、深度を取得可能に構成された深度センサ及び二次元画像を取得可能に構成されたRGBカメラの組み合わせ等のように複数の装置により構成されてもよい。
上記一側面に係る介助システムにおいて、前記制御装置は、取得した前記撮影画像を解析することで、前記対象者の視線の方向及び動きを推定するステップと、前記視線の方向を推定した結果に基づいて、前記視線が所定の方向を向いているか否かを判定するステップと、前記対象者の動きを推定した結果に基づいて、前記食物を要求するための所定の動きを前記対象者が行っているか否かを判定するステップと、前記視線が前記所定の方向を向いており、かつ前記所定の動きを前記対象者が行っていると判定した場合に、前記食物の運搬を開始させるように前記ロボット装置の動作を制御するステップと、を更に実行するように構成されてもよい。当該構成によれば、食物を要求するための所定の動きを対象者が行ったことに応じて、当該対象者の口の中に食物を運ぶ一連の動作をロボット装置に実行させることができる。
上記一側面に係る介助システムにおいて、前記所定の方向は、前記食物の存在する方向であってよい。当該構成によれば、対象者が食物を見たことに応じて、当該対象者の口の中に食物を運ぶ一連の動作をロボット装置に実行させることができる。
上記一側面に係る介助システムにおいて、前記制御装置は、前記対象者が前記所定の動きを一定時間以上行っていないかどうかを判定するステップと、前記対象者が前記所定の動きを一定時間以上行っていないと判定した場合に、前記対象者の食事が終了したと認定し、当該食事が終了したことを知らせるための通知を出力するステップと、を更に実行するように構成されてもよい。当該構成によれば、食物を要求するための所定の動きを対象者が一定時間以上行っていないことに応じて、当該対象者の食事が終了したことを検知することができ、また、対象者を見守る介護者等に対して、当該対象者の食事が終了したことを知らせることができる。
上記一側面に係る介助システムにおいて、前記制御装置は、前記食物が残っているか否かを判定するステップと、前記食物が残っていないと判定した場合に、前記対象者の食事が終了したと認定し、当該食事が終了したことを知らせるための通知を出力するステップと、を更に実行するように構成されてもよい。当該構成によれば、食物が残っていないことに応じて、対象者の食事が終了したことを検定することができ、また、対象者を見守る介護者等に対して、当該対象者の食事が終了したことを知らせることができる。
上記一側面に係る介助システムにおいて、前記制御装置は、取得した前記撮影画像を解析することで、前記対象者の視線の方向を推定するステップと、推定した前記視線の方向にある食物を取得するように前記ロボット装置の動作を制御するステップと、を更に実行するように構成されてよい。当該構成によれば、対象者が食物を見たことに応じて、当該対象者の視線の方向にある食物を当該対象者の口の中に運ぶ一連の動作をロボット装置に実行させることができる。
上記一側面に係る介助システムにおいて、前記制御装置は、取得した前記撮影画像を解析することで、前記対象者の咀嚼回数を測定するステップと、測定した前記対象者の咀嚼回数を記録するステップと、を更に実行するように構成されてよい。当該構成によれば、対象者に食事を提供している間に、対象者の咀嚼回数を計測し、計測した咀嚼回数の履歴を作成することができる。これにより、食事の際に対象者が適切な咀嚼を行っているか否かを監視することができる。
上記一側面に係る介助システムにおいて、前記制御装置は、取得した前記撮影画像を解析することで、前記対象者の状態を推定するステップと、前記対象者の状態を推定した結果に基づいて、前記対象者が異常状態にあるか否かを判定するステップと、前記対象者が異常状態にあると判定した場合に、前記対象者が異常状態にあることを知らせるための通知を出力するステップと、を更に実行するように構成されてよい。当該構成に係る介助システムは、ロボット装置により対象者に食事を提供している間、当該対象者に異常状態が発生していないかを監視する。これにより、当該構成に係る介助システムによれば、対象者に対して安全に食事を提供することができる。
上記一側面に係る介助システムにおいて、前記制御装置は、取得した前記撮影画像を解析することで、前記対象者の状態として前記対象者の表情の種別を推定してもよく、推定した前記対象者の表情の種別が、前記異常状態に対応付けられた所定の種別であるか否かを判定することで、前記対象者が異常状態にあるか否かを判定してもよい。当該構成によれば、対象者に異常状態が発生していないかどうかを適切に監視することができる。
上記一側面に係る介助システムにおいて、前記制御装置は、取得した前記撮影画像を解析することで、前記対象者の状態として、前記対象者が前記食物を口から吐き出したか否かを推定してもよく、前記対象者が前記食物を口から吐き出したか否かに基づいて、前記対象者が異常状態にあるか否かを判定してもよい。当該構成によれば、対象者に異常状態が発生していないかどうかを適切に監視することができる。
なお、上記各形態に係る介助システムの別の態様として、本発明の一側面は、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記憶した、コンピュータ等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記憶媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。
例えば、本発明の一側面に係る介助方法は、対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置、前記対象者まで食物を運搬するように構成されたロボット装置、及び前記ロボット装置の動作を制御するように構成された制御装置による情報処理方法であって、前記制御装置が、前記撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、を実行する、情報処理方法である。
また、例えば、本発明の一側面に係る介助プログラムは、対象者まで食物を運搬するように構成されたロボット装置の動作をコンピュータに制御させるためのプログラムであって、前記コンピュータに、前記対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、を実行させるための、プログラムである。
本発明によれば、身体を動かすことが困難な対象者であっても自発的に食事できるようにする技術を提供することができる。
図1は、本発明が適用される場面の一例を模式的に例示する。 図2は、実施の形態に係る制御装置のハードウェア構成の一例を模式的に例示する。 図3Aは、実施の形態に係る深度情報の一例を例示する。 図3Bは、実施の形態に係る深度情報の一例を例示する。 図3Cは、実施の形態に係る深度を模式的に例示する。 図4は、実施の形態に係るロボット装置の一例を模式的に例示する。 図5は、実施の形態に係る制御装置のソフトウェア構成の一例を模式的に例示する。 図6は、実施の形態に係る制御装置の処理手順の一例を示すフローチャートである。 図7は、実施の形態に係る制御装置の処理手順であって、運搬開始を判定する処理手順の一例を示すフローチャートである。 図8は、実施の形態に係る制御装置の処理手順であって、運搬を制御する処理手順の一例を示すフローチャートである。 図9は、実施の形態に係る制御装置の処理手順であって、対象者に異常状態にあるか否かを判定する処理手順の一例を示すフローチャートである。 図10は、実施の形態に係る制御装置の処理手順であって、食事が終了したか否かを判定する処理手順の一例を示すフローチャートである。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
§1 構成例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る介助システム100の利用場面の一例を模式的に例示する。図1で例示される介助システム100は、撮影装置2、ロボット装置3、及び制御装置1を備えている。
撮影装置2は、対象者Uを被写体として撮影すると共に、被写体までの深度を取得するように構成される。対象者Uは、介助システム100による食事の提供を受ける者である。対象者Uは、特に限定されなくてもよく、例えば、要介護者、患者、施設入居者等であってよい。ロボット装置3は、対象者Uまで食物Fを運搬するように構成される。食物Fの種類は、実施の形態に応じて適宜選択されてよい。食物Fは、例えば、固形物、流動物、又はこれらの組み合わせであってよい。更に、図1に例示されるように、食物Fは、容器Bに盛り付けられていてよく、ロボット装置3は、容器Bから食物Fを取得し、取得した食物Fを対象者Uまで運搬するように構成されてよい。
制御装置1は、当該ロボット装置3の動作を制御するように構成される。具体的には、制御装置1は、まず、撮影装置2により対象者Uを撮影することで生成された撮影画像であって、当該撮影画像内の対象者Uに対して得られた深度を示す深度情報を含む撮影画像を取得する。続いて、制御装置1は、取得した撮影画像を解析することで、深度情報から対象者Uの口の位置を算出する。そして、制御装置1は、対象者Uの口の位置を算出した結果に基づいて、対象者Uの口元まで食物Fを運搬させるようにロボット装置3の動作を制御する。
更に、制御装置1は、取得した撮影画像を解析することで、対象者Uが口を開けているか否かを判定する。そして、制御装置1は、ロボット装置3が対象者Uの口元まで食物Fを運搬した後、対象者Uが口を開けていると判定した場合に、対象者Uの口の中に食物Fを入れさせるようにロボット装置3の動作を制御する。
したがって、本実施形態に係る介助システム100によれば、対象者Uは、口を開ける動作を行うだけで、ロボット装置3に対して、口の中に食物Fを入れる動作を実行させることができる。つまり、対象者Uは、ロボット装置3によって口の中に食物Fを入れてもらうことで、身体を動かすことなく、自発的に食事を摂ることができるようになる。よって、本実施形態に係る介助システム100によれば、身体を動かすことが困難な対象者Uであっても自発的に食事を摂れるようにすることができる。
§2 構成例
[ハードウェア構成]
<制御装置>
次に、図2を用いて、本実施形態に係る制御装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る制御装置1のハードウェア構成の一例を模式的に例示する。
図2に示されるとおり、本実施形態に係る制御装置1は、制御部11、記憶部12、外部インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、外部インタフェースを「外部I/F」と記載している。
制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。記憶部12は、メモリの一例であり、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。
本実施形態では、記憶部12は、制御部11(CPU)により実行される介助プログラム81等の各種情報を記憶する。介助プログラム81は、ロボット装置3の動作を制御する後述の情報処理(図6)を制御装置1に実行させるためのプログラムである。介助プログラム81は、当該情報処理の一連の命令を含む。詳細は後述する。
外部インタフェース13は、例えば、USB(Universal Serial Bus)ポート、専用ポート等であり、外部装置と接続するためのインタフェースである。外部インタフェース13の種類及び数は、接続される外部装置の種類及び数に応じて適宜選択されてよい。本実施形態では、制御装置1は、外部インタフェース13を介して、撮影装置2及びロボット装置3に接続される。これにより、制御装置1は、撮影装置2から撮影画像を取得することができる。また、制御装置1は、ロボット装置3に指令を送信することで、ロボット装置3の動作を制御することができる。
なお、制御装置1と外部装置(例えば、撮影装置2、ロボット装置3)との接続手段は、このような例に限定されなくてもよい。例えば、制御装置1及び外部装置それぞれが、有線LAN(Local Area Network)モジュール、無線LANモジュール等の通信インタフェースを備えている場合、制御装置1は、ネットワークを介して外部装置に接続してもよい。
入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置14及び出力装置15を利用することで、制御装置1を操作することができる。
ドライブ16は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ16の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記介助プログラム81は、この記憶媒体91に記憶されていてもよい。
記憶媒体91は、コンピュータその他装置、機械等が、記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。制御装置1は、この記憶媒体91から、上記介助プログラム81を取得してもよい。
ここで、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、制御装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。外部インタフェース13、入力装置14、出力装置15及びドライブ16の少なくともいずれかは省略されてもよい。制御装置1は、複数台の情報処理装置により構成されてもよい。この場合、各情報処理装置のハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、制御装置1には、提供されるサービス専用に設計された情報処理装置の他、コントローラ、汎用のPC(Personal Computer)等が用いられてもよい。
<撮影装置>
次に、撮影装置2の構成の一例について説明する。撮影装置2の構成は、対象者Uの口の位置を特定するのに利用可能な深度情報及び撮影画像を取得可能であれば、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。撮影装置2には、例えば、公知の距離センサ、深度カメラ等が用いられてもよい。また、撮影装置2は、深度を取得可能に構成された深度センサ及び二次元画像を取得可能に構成されたRGBカメラの組み合わせ等のように複数の装置により構成されてもよい。撮影装置2の具体例として、マイクロソフト社のKinect、ASUS社のXtion、PrimeSense社のCARMINE、インテル社のRealSense等を挙げることができる。撮影装置2は、対象者Uを撮影可能な場所に適宜配置される。
図3A及び図3Bは、深度情報を含む撮影画像の一例を示す。図3Aは、口を閉じた対象者を撮影することで得られた撮影画像の一例を示す。図3Bは、口を開けた対象者を撮影することで得られた撮影画像の一例を示す。図3A及び図3Bで例示される撮影画像では、各画素の濃淡値が、当該各画素の深度に応じて定められている。具体的には、画素の色が黒いほど、当該画素に写る対象が撮影装置2に近いことを示す。一方、画素の色が白いほど、当該画素に写る対象が撮影装置2から遠いことを示す。
本実施形態では、深度情報を含む撮影画像は、撮影範囲内の被写体の深度が二次元状に分布するように構成されている。この深度情報を含む撮影画像によれば、撮影範囲内の被写体の実空間(三次元空間)内での位置を特定することができる。ただし、撮影画像の構成は、被写体の実空間内での位置(特に、対象者Uの口の位置)を特定可能であれば、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、撮影画像は、深度情報と共に、RGB画像を含んでもよい。この撮影画像は、動画像であってもよいし、静止画像であってもよい。
ここで、図3Cを用いて、本実施形態に係る撮影装置2により測定される深度を詳細に説明する。図3Cは、本実施形態に係る深度として採用可能な距離の一例を示す。当該深度は、被写体の深さを表現する。図3Cで例示されるように、被写体の深さは、例えば、センサ(撮影装置2)と被写体(対象者U)との直線の距離A1で表現されてもよいし、センサの被写体に対する水平軸から下ろした垂線の距離A2で表現されてもよい。すなわち、本実施形態に係る深度として、距離A1及び距離A2のいずれが採用されてもよい。
なお、以下では、説明の便宜のため、距離A2が、本実施形態に係る深度として採用されるものとする。ただし、距離A1と距離A2とは、例えば、三平方の定理等を用いることで、互いに変換可能である。そのため、距離A2を深度として採用した以下の説明は、距離A1を深度として採用したケースにそのまま適用することができる。
<ロボット装置>
次に、図4を用いて、ロボット装置3の構成の一例について説明する。図4は、本実施形態に係るロボット装置3の構成の一例を模式的に例示する。図4に例示されるロボット装置3は、いわゆるロボットハンドであり、基台部31、一対の関節部(32、33)、一対のリンク部材(34、35)、及びハンド部(エンドエフェクタ)36を備えている。
第1関節部32は、基台部31と第1リンク部材34との間に配置され、基台部31と第1リンク部材34の一端部とを連結する。第2関節部33は、第1リンク部材34と第2リンク部材35との間に配置され、第1リンク部材34の他端部と第2リンク部材35の一端部とを連結する。第2リンク部材35の他端部にはハンド部36が連結しており、ハンド部36には、スプーン40が取り付けられている。各部材の形状、材料及び寸法はそれぞれ、実施の形態に応じて適宜決定されてよい。
第1関節部32は、例えば、サーボモータ(不図示)を備えることで、基台部31と第1リンク部材34との間の角度を変更可能に構成される。同様に、第2関節部33は、例えば、サーボモータ(不図示)を備えることで、第1リンク部材34と第2リンク部材35との間の角度を変更可能に構成される。ロボット装置3は、例えば、サーボドライバ(不図示)を備えることで、各関節部(32、33)の角度を変更可能に構成される。これにより、ロボット装置3は、各関節部(32、33)の角度を制御することで、スプーン40により容器Bの盛り付けられた食物Fを取得したり、取得した食物Fを対象者Uまで運搬したりすることができるように構成されている。
具体例として、ロボット装置3は、対象者Uの手前に配置され、食物Fの盛り付けられた容器Bは、ロボット装置3と対象者Uとの間に配置されてよい。この場合、ロボット装置3は、各関節部(32、33)の角度を制御して、対象者Uより手前にある容器Bから食物Fを取得してもよい。そして、ロボット装置3は、各関節部(32、33)の角度を制御して、ハンド部36を対象者Uの方に伸ばすことで、取得した食物Fを対象者Uまで運搬してもよい。
なお、ロボット装置3の構成は、このような例に限定されなくてもよく、食物Fを運搬可能であれば、実施の形態に応じて適宜選択されてよい。ロボット装置3には、食物Fを運搬可能に構成された公知のロボットハンドが用いられてよい。加えて、ロボット装置3の制御方式は、特に限定されなくてもよく、当該ロボット装置3の構成に応じて適宜選択されてよい。
また、食物Fを運搬する方法は、スプーン40を利用する方法に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、食物Fの運搬には、スプーン40以外の道具(例えば、フォーク等)が用いられてもよい。また、例えば、食物Fの運搬には道具を用いるのではなく、ハンド部36が食物Fを直接取得可能に形成されてもよい。
更に、容器Bの種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。容器Bは、ロボット装置3と一体に形成されていてもよいし、ロボット装置3と別体に形成されていてもよい。容器Bがロボット装置3と別体に形成される場合、容器Bは、ロボット装置3(例えば、基台部31)に固定されていてもよいし、ロボット装置3から離れて配置されてもよい。
[ソフトウェア構成]
次に、図5を用いて、本実施形態に係る制御装置1のソフトウェア構成の一例について説明する。図5は、本実施形態に係る制御装置1のソフトウェア構成の一例を模式的に例示する。
制御装置1の制御部11は、記憶部12に記憶された介助プログラム81をRAMに展開する。そして、制御部11は、RAMに展開された介助プログラム81をCPUにより解釈して、介助プログラム81に含まれる一連の命令に基づいた情報処理を実行する。これにより、図5に示されるとおり、本実施形態に係る制御装置1は、ソフトウェアモジュールとして、画像取得部171、視線方向推定部172、動き推定部173、開始判定部174、取得制御部175、位置算出部176、運搬制御部177、開閉判定部178、咀嚼計測部179、状態推定部180、異常判定部181、異常通知部182、終了判定部183、及び終了通知部184を備えるコンピュータとして動作する。
画像取得部171は、撮影装置2により対象者Uを撮影することで生成された撮影画像であって、当該撮影画像内の対象者Uに対して得られた深度を示す深度情報を含む撮影画像を取得する。視線方向推定部172は、取得した撮影画像を解析することで、対象者Uの視線の方向を推定する。動き推定部173は、取得した撮影画像を解析することで、対象者Uの動きを推定する。
開始判定部174は、対象者Uの視線の方向及び動きを推定した結果に基づいて、当該対象者Uに対して食物Fの運搬を開始するか否かを判定する。そして、対象者Uに対して食物Fの運搬を開始すると判定した場合に、開始判定部174は、食物Fの運搬を開始させるようにロボット装置3の動作を制御する。取得制御部175は、容器Bに盛り付けられた食物Fを取得させるようにロボット装置3の動作を制御する。
位置算出部176は、取得した撮影画像を解析することで、深度情報から対象者Uの口の位置を算出する。運搬制御部177は、対象者Uの口の位置を算出した結果に基づいて、対象者Uの口元まで食物Fを運搬させるようにロボット装置3の動作を制御する。また、開閉判定部178は、取得した撮影画像を解析することで、対象者Uが口を開けているか否かを判定する。ロボット装置3が対象者Uの口元まで食物Fを運搬した後、対象者Uが口を開けていると判定した場合に、運搬制御部177は、対象者Uの口の中に食物Fを入れさせるようにロボット装置3の動作を制御する。
咀嚼計測部179は、取得した撮影画像を解析することで、対象者Uの咀嚼回数を測定し、測定した対象者Uの咀嚼回数を記録する。状態推定部180は、取得した撮影画像を解析することで、対象者Uの状態を推定する。異常判定部181は、対象者Uの状態を推定した結果に基づいて、対象者Uが異常状態にあるか否かを判定する。対象者Uが異常状態にあると判定した場合に、異常通知部182は、対象者Uが異常状態にあることを知らせるための通知を出力する。
終了判定部183は、対象者Uの食事が終了したか否かを判定する。対象者Uの食事が終了したと判定した場合に、終了通知部184は、対象者Uの食事が終了したことを知らせるための通知を出力する。
なお、制御装置1の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、制御装置1の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、制御装置1のソフトウェア構成に関して、実施の形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
§3 動作例
次に、図6を用いて、制御装置1の動作例について説明する。図6は、制御装置1の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、本発明の「介助方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[開始処理]
制御装置1の以下の処理手順を開始するトリガは、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、要介護者、患者、施設入居者等の身体を動かすことの困難な対象者Uが食事を摂るのに介助システム100を利用するケースでは、この対象者Uを見守る介護者、看護師、施設職員等のユーザが介助システム100の各装置1〜3を起動する。次に、ユーザは、ロボット装置3が食物Fを取得可能な所定の位置に、食物Fを盛り付けた容器Bを配置する。そして、ユーザは、入力装置14を操作することで、制御装置1に以下の情報処理の実行を開始させる。これにより、制御装置1は、以下の情報処理の実行を開始してもよい。
[ステップS11]
ステップS11では、制御部11は、食物Fの運搬を開始するか否かを判定する。食物Fの運搬を開始するトリガは、実施の形態に応じて適宜選択されてよい。本実施形態では、対象者Uの視線の方向及び動きそれぞれが所定の条件を満たしていることが食物Fの運搬開始のトリガであり、制御部11は、以下の処理手順により、食物Fの運搬を開始するか否かを判定する。
図7は、食物Fの運搬を開始するか否かを判定するサブルーチンの一例を示すフローチャートである。なお、以下で説明するサブルーチンの処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明するサブルーチンの処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS111)
ステップS111では、制御部11は、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。本実施形態では、制御部11は、外部インタフェース13を介して撮影装置2から撮影画像を直接的に取得する。撮影画像は、動画像であってもよいし、静止画像であってもよい。撮影画像を取得すると、制御部11は、次のステップS112に処理を進める。
なお、撮影画像を取得する経路は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、他のコンピュータ、NAS(Network Attached Storage)等の装置を介して、撮影装置2により生成された撮影画像を取得してもよい。後述する他のステップの撮影画像を取得する処理(ステップS131、ステップS134、ステップS151、ステップS163)においても同様である。
(ステップS112及びS113)
ステップS112では、制御部11は、視線方向推定部172として動作し、取得した撮影画像を解析することで、対象者Uの視線の方向を推定する。視線の方向を推定する解析方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。制御部11は、公知の解析方法により、対象者Uの視線の方向を推定してもよい。
例えば、制御部11は、エッジ抽出、パターンマッチング等の公知の解析方法により、撮影画像内において対象者Uの目の写る範囲を抽出してもよい。そして、制御部11は、この抽出した範囲に写る目の形状に基づいて、対象者Uの視線の方向を推定してもよい。対象者Uの視線の方向の推定が完了すると、制御部11は、次のステップS113に処理を進める。
ステップS113では、制御部11は、動き推定部173として動作し、取得した撮影画像を解析することで、対象者Uの動きを推定する。対象者Uの動きを推定する解析方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。制御部11は、公知の解析方法により、対象者Uの動きを推定してもよい。
例えば、制御部11は、エッジ抽出、パターンマッチング等の公知の解析方法により、撮影画像内において対象者Uの写る範囲を抽出してもよい。このとき、制御部11は、対象者Uの頭部、肩部等の身体部位の写る範囲を区別して抽出してもよい。また、制御部11は、頭部の写る範囲内において、目、口、鼻等の顔の器官の写る範囲を区別して抽出してもよい。制御部11は、これにより抽出される身体部位、顔の器官等を追跡することで、対象者Uの動きを推定することができる。
対象者Uの動きを推定した結果を表現する方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。対象者Uの動きを推定した結果は、1枚の撮影画像から導出される対象者Uの状態(例えば、ある時点で口が開いている)で表現されてもよい、連続する複数枚の撮影画像から導出される対象者Uの連続的な動き(例えば、口を開閉する動きを行っている)で表現されてもよい。対象者Uの動きの推定が完了すると、制御部11は、次のステップS114に処理を進める。
なお、ステップS112及びS113を処理するタイミングはそれぞれ、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、ステップS113の処理を実行した後に、ステップS112の処理を実行してもよい。また、例えば、制御部11は、取得した撮影画像内で顔の器官の写る範囲を抽出した後、この抽出した結果を共通で利用して、ステップS112及びS113の処理を実行してもよい。
(ステップS114及びS115)
ステップS114では、制御部11は、開始判定部174として動作し、対象者Uの視線の方向を推定した結果に基づいて、対象者Uが所定の方向を見ているか否か、換言すると、対象者Uの視線が所定の方向を向いているか否かを判定する。
対象者Uの視線が所定の方向を向いているか否かを判定する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、ステップS112で推定した対象者Uの視線の方向が所定の方向と所定の誤差範囲内で一致しているか否かを照合する。ステップS112で推定した視線の方向が所定の方向と一致している場合に、制御部11は、対象者Uの視線が所定の方向を向いていると判定してもよい。一方、ステップS112で推定した視線の方向が所定の方向と一致していない場合、制御部11は、対象者Uの視線が所定の方向を向いていないと判定してもよい。
対象者Uの視線が所定の方向を向いていると判定した場合(図7のYES)、制御部11は、次のステップS115に処理を進める。一方、対象者Uの視線が所定の方向を向いていないと判定した場合(図7のNO)、制御部11は、食物Fの運搬を開始しないと認定する。そして、制御部11は、ステップS111に戻って、当該ステップS111から処理を繰り返す。
「所定の方向」は、対象者Uが食物Fを要求しているか否かを判定する基準となる。「所定の方向」は、実施の形態に応じて適宜設定されてよい。所定の方向は、例えば、食物Fの存在する方向であってもよいし、ロボット装置3の存在する方向であってもよい。対象者Uが食物Fを要求しているか否かを適切に判定するためには、所定の方向は、食物Fの存在する方向に設定されるのが好ましい。複数の方向それぞれが「所定の方向」として設定されてもよい。
この「所定の方向」を示す情報は、適宜与えられてよい。例えば、所定の方向を示す情報は、記憶部12に保持されることで、予め与えられていてもよい。また、例えば、所定の方向が、食物Fの存在する方向である場合、制御部11は、食物Fの写る撮影画像を解析することで、対象者Uに対して食物Fの存在する方向を推定してもよい。この食物Fの写る撮影画像は、ステップS111で取得した撮影画像であってもよいし、他の撮影装置により生成された他の撮影画像であってもよい。また、赤外線センサ等の他のセンサによる検知結果に基づいて、制御部11は、対象者Uに対して食物Fの存在する方向を推定してもよい。
次のステップS115では、制御部11は、開始判定部174として動作し、対象者Uの動きを推定した結果に基づいて、食物Fを要求するための所定の動きを対象者Uが行っているか否かを判定する。
食物Fを要求するための所定の動きを対象者Uが行っているか否かを判定する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、ステップS113で推定した対象者Uの動きを示す情報が所定の動きを示す情報と所定の誤差範囲内で一致しているか否かを照合する。ステップS113で推定した対象者Uの動きを示す情報が所定の動きを示す情報と一致している場合に、制御部11は、食物Fを要求するための所定の動きを対象者Uが行っていると判定してもよい。一方、ステップS113で推定した対象者Uの動きを示す情報が所定の動きを示す情報と一致していない場合、制御部11は、食物Fを要求するための所定の動きを対象者Uは行っていないと判定してもよい。
食物Fを要求するための所定の動きを対象者Uが行っていると判定した場合(図7のYES)、制御部11は、食物Fの運搬を開始すると認定し、次のステップS116に処理を進める。一方、食物Fを要求するための所定の動きを対象者Uは行っていないと判定した場合(図7のNO)、制御部11は、食物Fの運搬を開始しないと認定する。そして、制御部11は、ステップS111に戻って、当該ステップS111から処理を繰り返す。
「所定の動き」は、上記「所定の方向」と同様に、対象者Uが食物Fを要求しているか否かを判定する基準となる。「所定の動き」は、実施の形態に応じて適宜設定されてよい。所定の動きは、例えば、口を開ける、口を開閉する、目を開閉する、片目を閉じる等の顔の器官の動きであってもよいし、頭部を動かす、肩を動かす等の身体部位の動きであってもよい。なお、対象者Uの負担を軽減する観点から、所定の動きには、口を開ける、口を開閉する、目を開閉する、片目を閉じる等の顔の器官の動きが設定されるのが好ましい。複数の動きそれぞれが「所定の動き」として設定されてもよい。
この「所定の動き」を示す情報は、適宜与えられてよい。例えば、所定の動きを示す情報は、記憶部12に保持されることで、予め与えられていてもよい。また、例えば、制御部11は、所定の動きを行う対象者Uを撮影装置2により撮影させ、ステップS113と同様の方法で、得られた撮影画像を解析することで、所定の動きを示す情報を取得してもよい。
なお、ステップS114及びS115を処理するタイミングはそれぞれ、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。制御部11は、ステップS112の処理を実行した後の任意のタイミングで、ステップS114の処理を実行してよい。同様に、制御部11は、ステップS113の処理を実行した後の任意のタイミングで、ステップS115の処理を実行してよい。
(ステップS116)
対象者Uの視線が所定の方向を向いており、かつ所定の動きを対象者Uが行っていると判定した場合に、制御部11は、対象者Uに対して食物Fの運搬を開始すると認定し、本ステップS116の処理を実行する。ステップS116では、制御部11は、食物Fの運搬を開始させるようにロボット装置3の動作を制御する。
食物Fの運搬を開始させるための制御方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、制御部11は、食物Fの運搬を開始する指令をロボット装置3に送信する。この指令は、開始のトリガのみにより構成されてもよいし、ハンド部36を所定の位置に移動させる等の準備動作を指示する命令により構成されてもよい。ロボット装置3は、制御装置1から受信した指令に基づいて、各関節部(32、33)の動作を制御する。これにより、制御部11は、ロボット装置3に対して食物Fの運搬を開始させることができる。
以上により、食物Fの運搬を開始するか否かを判定するサブルーチンの処理は完了する。当該サブルーチンの処理が完了すると、制御部11は、次のステップS12に処理を進める。なお、ステップS114又はS115により、一定時間以上継続して食物Fの運搬を開始しないと認定される場合、制御部11は、対象者Uの食事は終了したと判定してもよい。この場合、制御部11は、ステップS12〜S17の処理を省略し、ステップS18に処理を進めてもよい。
[ステップS12]
図6に戻り、ステップS12では、制御部11は、取得制御部175として動作し、容器Bに盛り付けられた食物Fを取得させるようにロボット装置3の動作を制御する。
食物Fを取得させるための制御方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、制御部11は、食物Fを取得する指令をロボット装置3に送信する。ロボット装置3は、制御装置1から受信した指令に基づいて、各関節部(32、33)を駆動する。これにより、制御部11は、食物Fを取得する動作をロボット装置3に実行させることができる。ロボット装置3に食物Fを取得させると、制御部11は、次のステップS13に処理を進める。
なお、食物Fを取得する動作における各関節部(32、33)の駆動量及び駆動順序は適宜決定されてよい。食物Fの位置が固定値である場合には、各関節部(32、33)の駆動量及び駆動順序は予め決定されていてもよい。また、撮影装置2、撮影装置2と同様に深度を取得可能に構成された他の撮影装置、その他の種類のセンサ(例えば、赤外線センサ)等のセンサにより、食物Fの位置を測定可能である場合、制御部11は、センサにより食物Fの位置を測定し、食物Fの位置を測定した結果に基づいて、各関節部(32、33)の駆動量及び駆動順序を決定してもよい。ロボット装置3は、制御装置1により決定された駆動量及び駆動順序に従って各関節部(32、33)を駆動することで、食物Fを取得する動作を実行することができる。
また、取得する食物Fは適宜決定されてよい。配膳された食物Fの種類が一つである場合には、制御部11は、配膳された食物Fを取得する動作をロボット装置3に実行させてよい。一方、配膳された食物Fの種類が複数である場合には、制御部11は、配膳された複数種類の食物Fの中から取得する食物Fを選択し、選択した食物Fを取得する動作をロボット装置3に実行させてよい。
ここで、取得する食物Fを選択する方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、取得する食物Fの順番が予め設定されていてもよい。この場合、制御部11は、予め設定された順番に従って、取得する食物Fを決定することができる。
また、例えば、対象者Uの視線の方向に基づいて、取得する食物Fが決定されてもよい。この場合、制御部11は、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。続いて、制御部11は、視線方向推定部172として動作し、取得した撮影画像を解析することで、対象者Uの視線の方向を推定する。これらの処理には、上記ステップS111及びS112の処理結果がそのまま利用されてもよい。或いは、撮影画像を取得する処理及び視線の方向を推定する処理はそれぞれ、上記ステップS111及びS112とは別個に実行されてもよい。
次に、制御部11は、対象者Uの視線の方向を推定した結果に基づいて、対象者Uの視線の方向にある食物Fを特定する。そして、制御部11は、取得制御部175として動作し、推定した視線の方向にある食物Fを取得する指令をロボット装置3に送信する。これにより、制御部11は、対象者Uの視線の方向にある食物Fを取得する動作をロボット装置3に実行させることができる。
[ステップS13]
ステップS13では、制御部11は、取得した食物Fを対象者Uの口に運搬させるようにロボット装置3の動作を制御する。本実施形態では、制御部11は、以下の処理手順により、食物Fの運搬の動作を制御する。
図8は、対象者Uの口に食物Fを運搬する動作を制御するサブルーチンの一例を示すフローチャートである。なお、以下で説明するサブルーチンの処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明するサブルーチンの処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS131)
ステップS131では、制御部11は、上記ステップS111と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像であって、当該撮影画像内の対象者Uに対して得られた深度を示す深度情報を含む撮影画像を取得する。このステップS131は、上記ステップS111と共通に実行されてもよいし、上記ステップS111とは別個に実行されてもよい。撮影画像を取得すると、制御部11は、次のステップS132に処理を進める。
(ステップS132)
ステップS132では、制御部11は、位置算出部176として動作し、取得した撮影画像を解析することで、深度情報から対象者Uの口の位置を算出する。
深度情報に基づいて対象者Uの口の位置を算出する方法は、実施の形態に応じて適宜決定されてよい。制御部11は、公知の解析方法により、対象者Uの口の位置を算出してもよい。例えば、制御部11は、エッジ抽出、パターンマッチング等の公知の解析方法により、取得した撮影画像内において対象者Uの口の写る範囲を抽出してもよい。続いて、制御部11は、深度情報を参照することで、抽出した範囲の画素に対して得られた深度を取得してもよい。取得される深度は、対象者Uの口の位置を示し得る。そのため、これらの一連の処理により、制御部11は、対象者Uの口の位置を算出することができる。対象者Uの口の位置を算出すると、制御部11は、次のステップS133に処理を進める。
(ステップS133)
ステップS133では、制御部11は、運搬制御部177として動作し、対象者Uの口の位置を算出した結果に基づいて、対象者Uの口元まで食物Fを運搬させるようにロボット装置3の動作を制御する。
対象者Uの口元まで食物Fを運搬させるための制御方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、制御部11は、対象者Uの口元まで食物Fを運搬する指令をロボット装置3に送信する。ロボット装置3は、制御装置1から受信した指令に基づいて、各関節部(32、33)を駆動する。これにより、制御部11は、対象者Uの口元まで食物Fを運搬する動作をロボット装置3に実行させることができる。ロボット装置3に対して対象者Uの口元まで食物Fを運搬させると、制御部11は、次のステップS134に処理を進める。
なお、対象者Uの口元まで食物Fを運搬する動作における各関節部(32、33)の駆動量及び駆動順序は、対象者Uの口元の位置に基づいて適宜決定されてよい。この対象者Uの口元の位置は、ステップS132の推定結果に基づいて適宜決定されてよい。例えば、対象者Uの口から所定の距離だけ手前の位置が口元の位置として決定されてもよい。所定の距離は、設定値(閾値)により与えられてもよいし、ユーザにより指定されてもよい。一例として、制御部11は、ステップS132で推定した対象者Uの口の位置から所定の距離を減算又は加算することで、対象者Uの口元の位置を決定してもよい。そして、制御部11は、決定した口元の位置にスプーン40のつぼの部分が配置されるように、各関節部(32、33)の駆動量及び駆動順序を決定してもよい。ロボット装置3は、制御装置1により決定された駆動量及び駆動順序に従って各関節部(32、33)を駆動することで、対象者Uの口元に食物Fを運搬する動作を実行することができる。
(ステップS134)
ステップS134では、制御部11は、上記ステップS131と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。このステップS134は、上記ステップS131と共通に実行されてもよいし、上記ステップS134とは別個に実行されてもよい。撮影画像を取得すると、制御部11は、次のステップS135に処理を進める。
(ステップS135)
ステップS135では、制御部11は、開閉判定部178として動作し、取得した撮影画像を解析することで、対象者Uが口を開けているか否かを判定する。
対象者Uが口を開けているか否かを判定する方法は、実施の形態に応じて適宜決定されてよい。制御部11は、公知の解析方法により、対象者Uが口を開けているか否かを判定してもよい。例えば、制御部11は、エッジ抽出、パターンマッチング等の公知の解析方法により、取得した撮影画像内において対象者Uの口の写る範囲を抽出してもよい。続いて、制御部11は、抽出した範囲に写る口の大きさ及び形状の少なくとも一方に基づいて、対象者Uが口を開けているか否かを判定してもよい。
具体例として、図3A及び図3Bに例示されるとおり、対象者Uが口を閉じている場合に比べて、対象者Uが口を開けている場合には、撮影画像内において対象者Uの口の写る範囲は大きくなる。そのため、制御部11は、抽出した範囲の大きさが閾値以上であるか否かを比較してもよい。この場合、抽出した範囲の大きさが閾値以上である場合に、制御部11は、対象者Uは口を開けていると判定してもよい。一方、抽出した範囲の大きさが閾値未満である場合には、制御部11は、対象者Uは口を閉じていると判定してもよい。
これにより、対象者Uが口を開けているか否かを判定すると、制御部11は、次のステップS136に処理を進める。
(ステップS136)
ステップS136では、制御部11は、開閉判定部178として動作し、ステップS135の判定結果に基づいて、条件分岐の処理を実行する。ステップS135において、対象者Uが口を開けていると判定した場合には(図8のYES)、制御部11は、次のステップS137に処理を進める。一方、対象者Uが口を開けていない(口を閉じている)と判定した場合には(図8のNO)、制御部11は、ステップS131に戻り、当該ステップS131から処理を繰り返す。なお、処理を繰り返す範囲は、このような例に限定されなくてもよい。例えば、制御部11は、ステップS134から処理を繰り返すようにしてもよい。
(ステップS137)
ロボット装置3が対象者Uの口元まで食物Fを運搬した後、対象者Uが口を開けていると判定した場合に、制御部11は、本ステップS137の処理を実行する。ステップS137では、制御部11は、運搬制御部177として動作し、対象者Uの口の中に食物Fを入れさせるようにロボット装置3の動作を制御する。
対象者Uの口の中に食物Fを入れさせるための制御方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、制御部11は、対象者Uの口の中に食物Fを入れる指令をロボット装置3に送信する。ロボット装置3は、制御装置1から受信した指令に基づいて、各関節部(32、33)を駆動する。これにより、制御部11は、対象者Uの口の中に食物Fを入れる動作をロボット装置3に実行させることができる。
なお、対象者Uの口の中に食物Fを入れる動作における各関節部(32、33)の駆動量及び駆動順序は、対象者Uの口の位置に基づいて適宜決定されてよい。制御部11は、ステップS132の処理結果又は新たに取得した撮影画像に対して口の位置を算出した結果に基づいて、対象者Uの口の中の位置を適宜決定してもよい。そして、制御部11は、決定した口の中の位置にスプーン40のつぼの部分が配置されるように、各関節部(32、33)の駆動量及び駆動順序を決定してもよい。更に、制御部11は、スプーン40のつぼの部分を上唇に押し付けるように、又はスプーン40を下に向けるように、各関節部(32、33)の駆動量及び駆動順序を決定してもよい。ロボット装置3は、制御装置1により決定された駆動量及び駆動順序に従って各関節部(32、33)を駆動することで、対象者Uの口の中に食物Fを入れる動作を実行することができる。
以上により、対象者Uの口に食物Fを運搬する動作を制御するサブルーチンの処理は完了する。当該サブルーチンの処理が完了すると、制御部11は、次のステップS14に処理を進める。
[ステップS14]
図6に戻り、ステップS14では、口の中に運ばれた食物Fを対象者Uが咀嚼している間、制御部11は、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。そして、制御部11は、咀嚼計測部179として動作し、取得した撮影画像を解析することで、対象者Uの咀嚼回数を測定する。
咀嚼回数を計測する方法は、実施の形態に応じて適宜決定されてよい。制御部11は、公知の解析方法により、対象者Uの咀嚼回数を計測してもよい。例えば、制御部11は、エッジ抽出、パターンマッチング等の公知の解析方法により、取得した撮影画像内において対象者Uの顎の写る範囲を抽出してもよい。そして、制御部11は、対象者Uが咀嚼をしている間、この顎の動きを追跡することで、咀嚼回数を計測してもよい。例えば、制御部11は、顎を上下に往復する動きに応じて、対象者Uが食物Fを咀嚼した回数をカウントしてもよい。これにより、対象者Uの咀嚼回数を測定すると、制御部11は、次のステップS15に処理を進める。
[ステップS15]
ステップS15では、制御部11は、対象者Uに異常状態が発生しているか否かを判定する。異常状態が発生しているか否かを監視する方法は、実施の形態に応じて適宜決定されてよい。本実施形態では、制御部11は、以下の処理手順により、対象者Uに異常状態が発生しているか否かを監視する。
図9は、対象者Uに異常状態が発生しているか否かを監視するサブルーチンの一例を示すフローチャートである。なお、以下で説明するサブルーチンの処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明するサブルーチンの処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS151)
ステップS151では、制御部11は、上記ステップS134と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。撮影画像を取得すると、制御部11は、次のステップS135に処理を進める。
(ステップS152)
ステップS152では、制御部11は、状態推定部180として動作し、取得した撮影画像を解析することで、対象者Uの状態を推定する。
推定する対象者Uの状態の種類は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、取得した撮影画像を解析することで、対象者Uの状態として対象者Uの表情の種別を推定してもよい。対象者Uの表情の種別の推定には、画像に写る顔の表情を解析する公知の方法が用いられてよい。
また、例えば、制御部11は、取得した撮影画像を解析することで、対象者Uの状態として、対象者Uが食物Fを口から吐き出したか否かを推定してもよい。対象者Uが食物Fを口から吐き出したか否かの推定には、パターンマッチング等の公知の解析方法が用いられてよい。
本ステップS152では、制御部11は、対象者Uの表情の種別、及び対象者Uが食物Fを口から吐き出したか否かの両方を推定してもよいし、いずれか一方のみを推定してもよい。対象者Uの状態の推定が完了すると、制御部11は、次のステップS153に処理を進める。
(ステップS153)
ステップS153では、制御部11は、異常判定部181として動作し、対象者Uの状態を推定した結果に基づいて、対象者Uが異常状態にあるか否かを判定する。
対象者Uが異常状態にあるか否かを判定する方法は、ステップS152において推定した対象者Uの状態の種類に応じて適宜決定されてよい。例えば、対象者Uの状態として対象者Uの表情の種別を推定した場合、制御部11は、推定した対象者Uの表情の種別が、異常状態に対応付けられた所定の種別であるか否かを判定することで、対象者Uが異常状態にあるか否かを判定することができる。異常状態に対応付けられる表情の種別は、例えば、苦しんでいる表情、悲しんでいる表情等から適宜選択されてよい。この場合、推定した対象者Uの表情の種別が、異常状態に対応付けられた所定の種別と一致している、換言すると、対象者Uが所定の表情をしている場合に、制御部11は、対象者Uが異常状態にあると判定してもよい。一方、そうではない場合、制御部11は、対象者Uは異常状態にはないと判定してもよい。
また、例えば、対象者Uの状態として、対象者Uが食物Fを口から吐き出したか否かを推定した場合、制御部11は、対象者Uが食物Fを口から吐き出したか否かを推定した結果に基づいて、対象者Uが異常状態にあるか否かを判定することができる。すなわち、対象者Uが食物Fを口から吐き出したと推定した場合に、制御部11は、対象者Uが異常状態にあると判定してもよい。一方、対象者Uが食物Fを口から吐き出していないと推定した場合に、制御部11は、対象者Uは異常状態にはないと判定してもよい。
対象者Uが異常状態にあると判定した場合(図9のYES)、制御部11は、次のステップS154に処理を進める。一方、対象者Uは異常状態にはないと判定した場合、制御部11は、次のステップS154を省略し、サブルーチンの処理を完了する。
(ステップS154)
ステップS154では、制御部11は、異常通知部182として動作し、対象者Uが異常状態にあることを知らせるための通知を出力する。
当該通知の出力先及び出力方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、対象者Uが異常状態にあることを知らせるメッセージを出力装置15に出力してもよい。出力装置15がディスプレイを含む場合、制御部11は、このメッセージを記載した画面をディスプレイに表示させてもよい。また、出力装置15がスピーカを含む場合、制御部11は、スピーカを介して音声によりこのメッセージを再生させてよい。
また、例えば、制御装置1が通信インタフェース(不図示)を備える場合、制御部11は、電子メール、ショートメッセージサービス、プッシュ通知等を利用して、対象者Uが異常状態にあることを知らせるメッセージを送信してもよい。なお、メッセージの送信先は、対象者Uを見守る介護者、看護師、施設職員等のユーザの所持するユーザ端末(例えば、携帯電話)に設定されてよい。送信先となるユーザ端末の電子メールアドレス、電話番号等は記憶部12に予め登録されていてもよい。
これにより、対象者Uが異常状態にあることを知らせるための通知を出力すると、制御部11は、対象者Uに異常状態が発生しているか否かを監視するサブルーチンの処理を完了する。上記ステップS154の処理を実行して、又は上記ステップS154の処理を省略して、当該サブルーチンの処理が完了すると、制御部11は、次のステップS16に処理を進める。
[ステップS16]
図6に戻り、ステップS16では、制御部11は、対象者Uの食事を終了するか否かを判定する。食事を終了するか否かを判定する方法は、実施の形態に応じて適宜決定されてよい。本実施形態では、制御部11は、以下の処理手順により、対象者Uの食事を終了するか否かを判定する。
図10は、対象者Uの食事を終了するか否かを判定するサブルーチンの一例を示すフローチャートである。なお、以下で説明するサブルーチンの処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明するサブルーチンの処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS161)
ステップS161では、制御部11は、終了判定部183として動作し、食物Fが残っているか否かを判定する。食物Fが残っているか否かを判定する方法は、実施の形態に応じて適宜選択されてよい。容器B内の食物Fの存在は、例えば、撮影装置2、撮影装置2とは異なる他の撮影装置、その他の種類のセンサ(例えば、赤外線センサ)等のセンサによって監視されていてもよい。この場合、制御部11は、このセンサの出力に基づいて、食物Fが残っているか否かを判定することができる。食物Fが残っているか否かを判定すると、制御部11は、次のステップS162に処理を進める。
(ステップS162)
ステップS162では、制御部11は、終了判定部183として動作し、ステップS161の判定結果に基づいて、条件分岐の処理を実行する。食物Fが残っていると判定した場合(図10のYES)、制御部11は、次のステップS163に処理を進める。一方、食物Fが残っていないと判定した場合(図10のNO)、制御部11は、ステップS168に処理を進める。
(ステップS163〜S165)
ステップS163では、制御部11は、上記ステップS111と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。ステップS164では、制御部11は、上記ステップS113と同様に、動き推定部173として動作し、取得した撮影画像を解析することで、対象者Uの動きを推定する。
ステップS165では、制御部11は、終了判定部183として動作し、対象者Uの動きを推定した結果に基づいて、対象者Uが所定の動きを一定時間以上行っていないかどうかを判定する。対象者Uが所定の動きを行っているか否かを判定する方法は、上記ステップS115と同様であってよい。例えば、対象者Uの動きを推定した結果、一定時間以上継続して、対象者Uの動きの中に所定の動きが観測されない場合には、制御部11は、対象者Uが所定の動きを一定時間以上行っていないと判定してもよい。一定時間は、固定値であってもよいし、ユーザにより指定されてもよい。一方、一定時間が経過する前に、対象者Uの動きの中に所定の動きが観測された場合には、制御部11は、対象者Uは一定時間内に所定の動きを行ったと判定してもよい。対象者Uが所定の動きを一定時間以上行っていないかどうかを判定すると、制御部11は、次のステップS166に処理を進める。
(ステップS166)
ステップS166では、制御部11は、終了判定部183として動作し、ステップS165の判定結果に基づいて、条件分岐の処理を実行する。対象者Uが所定の動きを一定時間以上行っていないと判定した場合(図10のYES)、制御部11は、ステップS168に処理を進める。一方、対象者Uが一定時間内に所定の動きを行ったと判定した場合(図10のNO)、制御部11は、ステップS167に処理を進める。
(ステップS167及びステップS168)
ステップS167では、制御部11は、終了判定部183として動作し、対象者Uの食事は終了していないと認定する。一方、ステップS168では、制御部11は、終了判定部183として動作し、対象者Uの食事は終了したと認定する。
ステップS167及びS168のいずれか一方により、対象者Uの食事が終了したか否かの認定を行うと、制御部11は、対象者Uの食事を終了するか否かを判定するサブルーチンの処理を完了する。当該サブルーチンの処理が完了すると、制御部11は、次のステップS17に処理を進める。
[ステップS17]
図6に戻り、ステップS17では、制御部11は、終了判定部183として動作し、ステップS17の認定結果に基づいて、条件分岐の処理を実行する。ステップS168を実行して、対象者Uの食事は終了したと認定した場合(図6のYES)、制御部11は、次のステップS18に処理を進める。一方、ステップS167を実行して、対象者Uの食事は終了していないと認定した場合(図6のNO)、制御部11は、ステップS12に戻り、当該ステップS12から処理を繰り返す。なお、処理を繰り返す範囲は、このような例に限定されなくてもよい。例えば、制御部11は、ステップS11から処理を繰り返してもよい。この場合、ステップS163及びS164の処理結果は、次の繰り返しで実行されるステップS111及びS113の処理に利用されてよい。
[ステップS18]
ステップS18では、制御部11は、終了通知部184として動作し、対象者Uの食事が終了したことを知らせるための通知を出力する。当該通知の出力先及び出力方法は、上記ステップS154と同様に、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、対象者Uの食事が終了したことを知らせるメッセージを出力装置15に出力してもよい。また、例えば、制御部11は、電子メール、ショートメッセージサービス、プッシュ通知等を利用して、対象者Uの食事が終了したことを知らせるメッセージを送信してもよい。当該通知を出力すると、制御部11は、次のステップS19に処理を進める。
[ステップS19]
ステップS19では、制御部11は、咀嚼計測部179として動作し、ステップS14により測定した対象者Uの咀嚼回数を記録する。咀嚼回数を記録する方法は、実施の形態に応じて適宜決定されてよい。例えば、制御部11は、ステップS14により測定した対象者Uの咀嚼回数を示す履歴情報を生成し、生成した履歴情報を記憶部12、NAS等の記憶装置に格納してもよい。なお、ステップS19を実行するタイミングは、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。制御部11は、ステップS14の処理を実行した後の任意のタイミングで、ステップS19の処理を実行してもよい。これにより、咀嚼回数の記録が完了すると、制御部11は、本動作例に係る処理手順を終了する。
[特徴]
以上のとおり、本実施形態に係る介助システム100によれば、ステップS13の処理により、対象者Uは、口を開ける動作を行うだけで、ロボット装置3に対して、口の中に食物Fを入れる動作を実行させることができる。つまり、対象者Uは、ロボット装置3によって口の中に食物Fを入れてもらうことで、身体を動かすことなく、自発的に食事を摂ることができるようになる。よって、本実施形態に係る介助システム100によれば、身体を動かすことが困難な対象者Uであっても自発的に食事を摂れるようにすることができる。
また、本実施形態に係る介助システム100は、ステップS11の処理により、対象者Uが食物Fの方を見て、かつ食物Fを要求するための所定の動き(例えば、顔の器官を動かす)を対象者Uが行ったことに応じて、ロボット装置3に食物Fの運搬を開始させる。これにより、対象者Uの所望のタイミングに、食物Fを提供することができるようになる。
また、本実施形態に係る介助システム100は、ステップS12の処理において、対象者Uの視線の方向にある食物Fをロボット装置3に取得させることができる。これにより、対象者Uが食物Fを見たことに応じて、対象者Uの視線の方向にある食物Fを当該対象者Uの口の中に運ぶ一連の動作をロボット装置3に実行させることができる。すなわち、ロボット装置3に対して、対象者Uの所望する食物Fを提供させることができる。
また、本実施形態に係る介助システム100は、ステップS14の処理により、対象者Uの咀嚼回数を測定し、ステップS19の処理により、測定した咀嚼回数を記録することができる。これにより、食事の際に対象者Uが適切な咀嚼を行っているか否かを監視することができる。
また、本実施形態に係る介助システム100は、ステップS15の処理により、対象者Uが食事を摂っている間に、当該対象者Uに異常状態が発生していないかどうかを監視することができる。これにより、本実施形態に係る介助システム100によれば、対象者Uに対して安全に食事を提供することができる。
また、本実施形態に係る介助システム100は、ステップS16の処理において、食物Fが残っているか否か、及び所定の動きを対象者Uが一定時間以上行っていないかどうかに基づいて、対象者Uの食事が終了したか否かを判定する。そして、介助システム100は、ステップS18の処理により、食事の終了を知らせるための通知を出力する。これにより、対象者Uの食事の終了を適切に検知することができ、また、対象者Uを見守る介護者等に対して、当該対象者Uの食事が終了したことを知らせることができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<4.1>
上記実施形態では、制御部11は、ステップS11により、対象者Uの視線の方向及び動きに基づいて、食物Fの運搬を開始するか否かを判定する。また、制御部11は、ステップS12により、食物Fを取得する動作をロボット装置3に実行させている。これらの動作を実行しなくてもよい場合には、上記ステップS11及びS12の少なくとも一方は省略されてもよい。この場合、制御装置1のソフトウェア構成において、視線方向推定部172、動き推定部173、開始判定部174、及び取得制御部175は、適宜省略されてよい。
また、食物Fの運搬開始のトリガは、上記実施形態の例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、食物Fの運搬開始のトリガから、対象者Uの視線の方向及び動きの少なくとも一方は省略されてよい。この場合、上記ステップS112及びS114の組み合わせ、又は上記ステップS113及びS115の組み合わせは省略されてよい。また、例えば、制御部11は、所定時間の間隔で、食物Fを運搬する動作をロボット装置3に実行させてもよい。また、例えば、入力装置14がマイクロフォンを含む場合、制御部11は、音声入力に基づいて、食物Fの運搬を開始するか否かを判定してもよい。また、例えば、入力装置14がボタンを含む場合、制御部11は、ボタン操作に応じて、食物Fを運搬する動作をロボット装置3に実行させてもよい。
<4.2>
上記実施形態では、食物が残っているか否か、及び所定の動きを対象者Uが一定時間以上行っていないかどうかに基づいて、対象者Uの食事が終了したか否かを判定している。これらの食事が終了したか否を判定する処理の少なくとも一方は省略されてもよい。すなわち、ステップS161〜S162の一連の処理、及びステップS163〜S166の一連の処理の少なくとも一方は省略されてもよい。
また、ステップS16による食事が終了したか否かを判定する処理を実行するタイミングは、上記実施形態の例に限定されなくてもよい。ステップS16の処理は、食物Fの運搬を開始した後の任意のタイミングで実行されてよい。ステップS161〜S162の一連の処理、及びステップS163〜S166の一連の処理の順序は入れ替わってもよい。
また、ステップS163〜S166の一連の処理では、対象者Uが所定の動きを行っていないことに基づいて、食事が終了したか否かを判定している。上記ステップS11と同様に、この食事が終了したか否かの判定においても、対象者Uが食物Fを見ているか否かが考慮されてもよい。すなわち、ステップS166の前までに、制御部11は、上記ステップS112と同様に、対象者Uの視線の方向を推定してもよい。そして、ステップS166では、制御部11は、対象者Uの視線の方向の推定結果及び動きの推定結果に基づいて、一定時間以上継続して、対象者Uが食物Fを見ていない、又は所定の動きを行っていないかどうかを判定する。一定時間以上継続して、対象者Uが食物Fを見ていない、又は/及び所定の動きを行っていないと判定した場合に、制御部11は、ステップS168に処理を進め、対象者Uの食事は終了したと認定してもよい。一方、一定時間内に、対象者Uが食物Fを見て、及び/又は所定の動きを行ったと判定した場合、制御部11は、ステップS167に処理を進め、対象者Uの食事は終了していないと認定してもよい。
また、対象者Uの食事の終了は、上記実施形態以外の方法で検知されてもよい。上記実施形態以外の方法として、例えば、制御部11は、所定時間の経過により、食事の終了を検知してもよい。また、例えば、入力装置14がマイクロフォンを含む場合、制御部11は、音声入力に基づいて、食事の終了を検知してもよい。また、例えば、入力装置14がボタンを含む場合、制御部11は、ボタン操作に応じて、食事の終了を検知してもよい。
<4.3>
上記実施形態では、制御部11は、ステップS14の処理により、対象者Uの咀嚼回数を測定している。咀嚼回数を監視しない場合には、この咀嚼回数を測定する処理は省略されてもよい。すなわち、上記ステップS14及びS19の処理は省略されてよい。この場合、制御装置1のソフトウェア構成において、咀嚼計測部179は省略されてもよい。また、ステップS14を実行するタイミングは、上記実施形態の例に限定されなくてもよい。制御部11は、対象者Uの口の中に食物Fを入れた後の任意のタイミングで、上記ステップS14の処理を実行してもよい。
<4.4>
上記実施形態では、制御部11は、ステップS15の処理により、対象者Uに異常状態が発生しているか否かを監視している。異常状態の発生を監視しない場合には、この対象者Uに異常状態が発生しているか否かを監視する処理は省略されてもよい。すなわち、上記ステップS15の処理は省略されてよい。この場合、制御装置1のソフトウェア構成において、状態推定部180、異常判定部181及び異常通知部182は省略されてもよい。また、ステップS15を実行するタイミングは、上記実施形態の例に限定されなくてもよい。制御部11は、任意のタイミングで、上記ステップS15の処理を実行してもよい。
また、対象者Uが異常状態にあるか否かを判定する方法は、上記実施形態の例に限定されなくてもよい。上記実施形態以外の方法として、例えば、入力装置14がマイクロフォンを含む場合、制御部11は、音声入力に基づいて、対象者Uが異常状態にあるか否かを判定してもよい。例えば、対象者Uが苦しんでいる声を発している、助けを求める言葉を発している等の所定の音声が入力された場合に、制御部11は、対象者Uが異常状態にあると判定してもよい。また、例えば、入力装置14がボタンを含む場合、制御部11は、ボタン操作に応じて、対象者Uが異常状態にあると判定してもよい。
<4.5>
上記実施形態では、制御部11は、例えば、ステップS111、ステップS131等の様々な処理において、撮影画像を取得している。また、制御部11は、例えば、ステップS112、ステップS132等の様々な処理において、撮影画像内に写る対象者Uの顔の器官を解析している。これらの処理は、個々に実行されるのではなく、他の処理に並列に実行されてもよい。例えば、制御部11は、撮影装置2から継続的に撮影画像を取得し、取得した撮影画像に対して顔の器官を解析する処理を実行してもよい。制御部11は、これにより得られる情報をRAM等に保持し、保持した情報を適宜参照することで、例えば、ステップS114等の解析結果を利用する処理を実行してもよい。
1…制御装置、
11…制御部、12…記憶部、13…外部インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
171…画像取得部、172…視線方向推定部、
173…動き推定部、174…開始判定部、
175…取得制御部、176…位置算出部、
177…運搬制御部、178…開閉判定部、
179…咀嚼計測部、180…状態推定部、
181…異常判定部、182…異常通知部、
183…終了判定部、184…終了通知部、
2…撮影装置、
3…ロボット装置、
31…基台部、32…第1関節部、33…第2関節部、
34…第1リンク部材、35…第2リンク部材、
36…ハンド部(エンドエフェクタ)、40…スプーン、
U…対象者、F…食物、B…容器

Claims (12)

  1. 対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置と、
    前記対象者まで食物を運搬するように構成されたロボット装置と、
    前記ロボット装置の動作を制御するように構成された制御装置と、
    を備え、
    前記制御装置は、
    前記撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、
    取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、
    前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、
    取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、
    前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、
    を実行する、
    介助システム。
  2. 前記制御装置は、
    取得した前記撮影画像を解析することで、前記対象者の視線の方向及び動きを推定するステップと、
    前記視線の方向を推定した結果に基づいて、前記視線が所定の方向を向いているか否かを判定するステップと、
    前記対象者の動きを推定した結果に基づいて、前記食物を要求するための所定の動きを前記対象者が行っているか否かを判定するステップと、
    前記視線が前記所定の方向を向いており、かつ前記所定の動きを前記対象者が行っていると判定した場合に、前記食物の運搬を開始させるように前記ロボット装置の動作を制御するステップと、
    を更に実行する、
    請求項1に記載の介助システム。
  3. 前記所定の方向は、前記食物の存在する方向である、
    請求項2に記載の介助システム。
  4. 前記制御装置は、
    前記対象者が前記所定の動きを一定時間以上行っていないかどうかを判定するステップと、
    前記対象者が前記所定の動きを一定時間以上行っていないと判定した場合に、前記対象者の食事が終了したと認定し、当該食事が終了したことを知らせるための通知を出力するステップと、
    を更に実行する、
    請求項2又は3に記載の介助システム。
  5. 前記制御装置は、
    前記食物が残っているか否かを判定するステップと、
    前記食物が残っていないと判定した場合に、前記対象者の食事が終了したと認定し、当該食事が終了したことを知らせるための通知を出力するステップと、
    を更に実行する、
    請求項1から4のいずれか1項に記載の介助システム。
  6. 前記制御装置は、
    取得した前記撮影画像を解析することで、前記対象者の視線の方向を推定するステップと、
    推定した前記視線の方向にある食物を取得するように前記ロボット装置の動作を制御するステップと、
    を更に実行する、
    請求項1から5のいずれか1項に記載の介助システム。
  7. 前記制御装置は、
    取得した前記撮影画像を解析することで、前記対象者の咀嚼回数を測定するステップと、
    測定した前記対象者の咀嚼回数を記録するステップと、
    を更に実行する、
    請求項1から6のいずれか1項に記載の介助システム。
  8. 前記制御装置は、
    取得した前記撮影画像を解析することで、前記対象者の状態を推定するステップと、
    前記対象者の状態を推定した結果に基づいて、前記対象者が異常状態にあるか否かを判定するステップと、
    前記対象者が異常状態にあると判定した場合に、前記対象者が異常状態にあることを知らせるための通知を出力するステップと、
    を更に実行する、
    請求項1から7のいずれか1項に記載の介助システム。
  9. 前記制御装置は、
    取得した前記撮影画像を解析することで、前記対象者の状態として前記対象者の表情の種別を推定し、
    推定した前記対象者の表情の種別が、前記異常状態に対応付けられた所定の種別であるか否かを判定することで、前記対象者が異常状態にあるか否かを判定する、
    請求項8に記載の介助システム。
  10. 前記制御装置は、
    取得した前記撮影画像を解析することで、前記対象者の状態として、前記対象者が前記食物を口から吐き出したか否かを推定し、
    前記対象者が前記食物を口から吐き出したか否かに基づいて、前記対象者が異常状態にあるか否かを判定する、
    請求項8又は9に記載の介助システム。
  11. 対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置、前記対象者まで食物を運搬するように構成されたロボット装置、及び前記ロボット装置の動作を制御するように構成された制御装置による介助方法であって、
    前記制御装置が、
    前記撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、
    取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、
    前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、
    取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、
    前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、
    を実行する、
    介助方法。
  12. 対象者まで食物を運搬するように構成されたロボット装置の動作をコンピュータに制御させるための介助プログラムであって、
    前記コンピュータに、
    前記対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、
    取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、
    前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、
    取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、
    前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、
    を実行させるための、
    介助プログラム。
JP2018118231A 2018-06-21 2018-06-21 介助システム、介助方法及び介助プログラム Pending JP2019217103A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018118231A JP2019217103A (ja) 2018-06-21 2018-06-21 介助システム、介助方法及び介助プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118231A JP2019217103A (ja) 2018-06-21 2018-06-21 介助システム、介助方法及び介助プログラム

Publications (1)

Publication Number Publication Date
JP2019217103A true JP2019217103A (ja) 2019-12-26

Family

ID=69094799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118231A Pending JP2019217103A (ja) 2018-06-21 2018-06-21 介助システム、介助方法及び介助プログラム

Country Status (1)

Country Link
JP (1) JP2019217103A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113601502A (zh) * 2021-07-29 2021-11-05 北京航空航天大学 一种基于单目视觉的助餐机器人控制方法
CN113974611A (zh) * 2021-10-25 2022-01-28 首都医科大学宣武医院 一种智能化进食提醒装置
KR20220018339A (ko) * 2020-08-06 2022-02-15 광주과학기술원 식사 자세 보조 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213121A (ja) * 2002-12-27 2004-07-29 Casio Comput Co Ltd 画像処理システム及びプログラム
JP2004242902A (ja) * 2003-02-14 2004-09-02 Masafumi Matsumura 咀嚼回数検出装置及びそのプログラム
JP2006000427A (ja) * 2004-06-18 2006-01-05 Secom Co Ltd 食事支援装置
JP2007522838A (ja) * 2004-02-05 2007-08-16 モトリカ インク 微細運動制御のリハビリテーション
JP2009157780A (ja) * 2007-12-27 2009-07-16 Car Mate Mfg Co Ltd 監視システム
WO2015118953A1 (ja) * 2014-02-07 2015-08-13 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2018100760A1 (ja) * 2016-12-02 2018-06-07 Cyberdyne株式会社 上肢動作支援装置及び上肢動作支援システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213121A (ja) * 2002-12-27 2004-07-29 Casio Comput Co Ltd 画像処理システム及びプログラム
JP2004242902A (ja) * 2003-02-14 2004-09-02 Masafumi Matsumura 咀嚼回数検出装置及びそのプログラム
JP2007522838A (ja) * 2004-02-05 2007-08-16 モトリカ インク 微細運動制御のリハビリテーション
JP2006000427A (ja) * 2004-06-18 2006-01-05 Secom Co Ltd 食事支援装置
JP2009157780A (ja) * 2007-12-27 2009-07-16 Car Mate Mfg Co Ltd 監視システム
WO2015118953A1 (ja) * 2014-02-07 2015-08-13 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2018100760A1 (ja) * 2016-12-02 2018-06-07 Cyberdyne株式会社 上肢動作支援装置及び上肢動作支援システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220018339A (ko) * 2020-08-06 2022-02-15 광주과학기술원 식사 자세 보조 장치
KR102373205B1 (ko) * 2020-08-06 2022-03-14 광주과학기술원 식사 자세 보조 장치
CN113601502A (zh) * 2021-07-29 2021-11-05 北京航空航天大学 一种基于单目视觉的助餐机器人控制方法
CN113974611A (zh) * 2021-10-25 2022-01-28 首都医科大学宣武医院 一种智能化进食提醒装置

Similar Documents

Publication Publication Date Title
JP2019217103A (ja) 介助システム、介助方法及び介助プログラム
JP7178423B2 (ja) 遠隔歯科医療画像のためのガイダンス方法及びシステム
CN111507176B (zh) 姿势估计装置、行动估计装置、记录介质、姿势估计方法
JP5001930B2 (ja) 動作認識装置及び方法
JP2017196414A (ja) 歩行分析支援ロボット
TW201843647A (zh) 用於促進影像系統之自主控制的系統及方法
JP6841608B2 (ja) 振る舞い検知システム
US11071372B2 (en) System and method for detecting movement of a user of an oral health care device and providing feedback
KR101802917B1 (ko) 치아 움직임 추적 장치 및 그 방법
CN107111363A (zh) 监视
JP2016067773A (ja) 自律移動ロボット及びバイタルサインモニタリング方法
JP2015197803A (ja) 行動記録装置、行動記録方法及びプログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
CN113033526A (zh) 基于计算机实现的方法、电子设备和计算机程序产品
US11717160B2 (en) Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
Tarabini et al. Real-time monitoring of the posture at the workplace using low cost sensors
JP2022095994A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2019208651A (ja) 視力検査処理プログラムおよび視力検査システム
Gao et al. A vison-based user interface of a mobile robotic arm for people with severe disabilities
JP2020087040A (ja) 特定姿勢検出装置
KR102583414B1 (ko) 3차원 스캐너의 스캔 이미지 처리 방법 및 장치
KR102553830B1 (ko) 카메라를 이용한 실시간 로봇 원격 제어 방법 및 장치
WO2022142458A1 (zh) 动物扫描方法、装置和系统
JP6532042B2 (ja) 自動注射装置
CN116940962A (zh) 看护系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220705