JP2019217103A - 介助システム、介助方法及び介助プログラム - Google Patents
介助システム、介助方法及び介助プログラム Download PDFInfo
- Publication number
- JP2019217103A JP2019217103A JP2018118231A JP2018118231A JP2019217103A JP 2019217103 A JP2019217103 A JP 2019217103A JP 2018118231 A JP2018118231 A JP 2018118231A JP 2018118231 A JP2018118231 A JP 2018118231A JP 2019217103 A JP2019217103 A JP 2019217103A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- food
- mouth
- target person
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る介助システム100の利用場面の一例を模式的に例示する。図1で例示される介助システム100は、撮影装置2、ロボット装置3、及び制御装置1を備えている。
[ハードウェア構成]
<制御装置>
次に、図2を用いて、本実施形態に係る制御装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る制御装置1のハードウェア構成の一例を模式的に例示する。
次に、撮影装置2の構成の一例について説明する。撮影装置2の構成は、対象者Uの口の位置を特定するのに利用可能な深度情報及び撮影画像を取得可能であれば、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。撮影装置2には、例えば、公知の距離センサ、深度カメラ等が用いられてもよい。また、撮影装置2は、深度を取得可能に構成された深度センサ及び二次元画像を取得可能に構成されたRGBカメラの組み合わせ等のように複数の装置により構成されてもよい。撮影装置2の具体例として、マイクロソフト社のKinect、ASUS社のXtion、PrimeSense社のCARMINE、インテル社のRealSense等を挙げることができる。撮影装置2は、対象者Uを撮影可能な場所に適宜配置される。
次に、図4を用いて、ロボット装置3の構成の一例について説明する。図4は、本実施形態に係るロボット装置3の構成の一例を模式的に例示する。図4に例示されるロボット装置3は、いわゆるロボットハンドであり、基台部31、一対の関節部(32、33)、一対のリンク部材(34、35)、及びハンド部(エンドエフェクタ)36を備えている。
次に、図5を用いて、本実施形態に係る制御装置1のソフトウェア構成の一例について説明する。図5は、本実施形態に係る制御装置1のソフトウェア構成の一例を模式的に例示する。
次に、図6を用いて、制御装置1の動作例について説明する。図6は、制御装置1の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、本発明の「介助方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
制御装置1の以下の処理手順を開始するトリガは、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、要介護者、患者、施設入居者等の身体を動かすことの困難な対象者Uが食事を摂るのに介助システム100を利用するケースでは、この対象者Uを見守る介護者、看護師、施設職員等のユーザが介助システム100の各装置1〜3を起動する。次に、ユーザは、ロボット装置3が食物Fを取得可能な所定の位置に、食物Fを盛り付けた容器Bを配置する。そして、ユーザは、入力装置14を操作することで、制御装置1に以下の情報処理の実行を開始させる。これにより、制御装置1は、以下の情報処理の実行を開始してもよい。
ステップS11では、制御部11は、食物Fの運搬を開始するか否かを判定する。食物Fの運搬を開始するトリガは、実施の形態に応じて適宜選択されてよい。本実施形態では、対象者Uの視線の方向及び動きそれぞれが所定の条件を満たしていることが食物Fの運搬開始のトリガであり、制御部11は、以下の処理手順により、食物Fの運搬を開始するか否かを判定する。
ステップS111では、制御部11は、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。本実施形態では、制御部11は、外部インタフェース13を介して撮影装置2から撮影画像を直接的に取得する。撮影画像は、動画像であってもよいし、静止画像であってもよい。撮影画像を取得すると、制御部11は、次のステップS112に処理を進める。
ステップS112では、制御部11は、視線方向推定部172として動作し、取得した撮影画像を解析することで、対象者Uの視線の方向を推定する。視線の方向を推定する解析方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。制御部11は、公知の解析方法により、対象者Uの視線の方向を推定してもよい。
ステップS114では、制御部11は、開始判定部174として動作し、対象者Uの視線の方向を推定した結果に基づいて、対象者Uが所定の方向を見ているか否か、換言すると、対象者Uの視線が所定の方向を向いているか否かを判定する。
対象者Uの視線が所定の方向を向いており、かつ所定の動きを対象者Uが行っていると判定した場合に、制御部11は、対象者Uに対して食物Fの運搬を開始すると認定し、本ステップS116の処理を実行する。ステップS116では、制御部11は、食物Fの運搬を開始させるようにロボット装置3の動作を制御する。
図6に戻り、ステップS12では、制御部11は、取得制御部175として動作し、容器Bに盛り付けられた食物Fを取得させるようにロボット装置3の動作を制御する。
ステップS13では、制御部11は、取得した食物Fを対象者Uの口に運搬させるようにロボット装置3の動作を制御する。本実施形態では、制御部11は、以下の処理手順により、食物Fの運搬の動作を制御する。
ステップS131では、制御部11は、上記ステップS111と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像であって、当該撮影画像内の対象者Uに対して得られた深度を示す深度情報を含む撮影画像を取得する。このステップS131は、上記ステップS111と共通に実行されてもよいし、上記ステップS111とは別個に実行されてもよい。撮影画像を取得すると、制御部11は、次のステップS132に処理を進める。
ステップS132では、制御部11は、位置算出部176として動作し、取得した撮影画像を解析することで、深度情報から対象者Uの口の位置を算出する。
ステップS133では、制御部11は、運搬制御部177として動作し、対象者Uの口の位置を算出した結果に基づいて、対象者Uの口元まで食物Fを運搬させるようにロボット装置3の動作を制御する。
ステップS134では、制御部11は、上記ステップS131と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。このステップS134は、上記ステップS131と共通に実行されてもよいし、上記ステップS134とは別個に実行されてもよい。撮影画像を取得すると、制御部11は、次のステップS135に処理を進める。
ステップS135では、制御部11は、開閉判定部178として動作し、取得した撮影画像を解析することで、対象者Uが口を開けているか否かを判定する。
ステップS136では、制御部11は、開閉判定部178として動作し、ステップS135の判定結果に基づいて、条件分岐の処理を実行する。ステップS135において、対象者Uが口を開けていると判定した場合には(図8のYES)、制御部11は、次のステップS137に処理を進める。一方、対象者Uが口を開けていない(口を閉じている)と判定した場合には(図8のNO)、制御部11は、ステップS131に戻り、当該ステップS131から処理を繰り返す。なお、処理を繰り返す範囲は、このような例に限定されなくてもよい。例えば、制御部11は、ステップS134から処理を繰り返すようにしてもよい。
ロボット装置3が対象者Uの口元まで食物Fを運搬した後、対象者Uが口を開けていると判定した場合に、制御部11は、本ステップS137の処理を実行する。ステップS137では、制御部11は、運搬制御部177として動作し、対象者Uの口の中に食物Fを入れさせるようにロボット装置3の動作を制御する。
図6に戻り、ステップS14では、口の中に運ばれた食物Fを対象者Uが咀嚼している間、制御部11は、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。そして、制御部11は、咀嚼計測部179として動作し、取得した撮影画像を解析することで、対象者Uの咀嚼回数を測定する。
ステップS15では、制御部11は、対象者Uに異常状態が発生しているか否かを判定する。異常状態が発生しているか否かを監視する方法は、実施の形態に応じて適宜決定されてよい。本実施形態では、制御部11は、以下の処理手順により、対象者Uに異常状態が発生しているか否かを監視する。
ステップS151では、制御部11は、上記ステップS134と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。撮影画像を取得すると、制御部11は、次のステップS135に処理を進める。
ステップS152では、制御部11は、状態推定部180として動作し、取得した撮影画像を解析することで、対象者Uの状態を推定する。
ステップS153では、制御部11は、異常判定部181として動作し、対象者Uの状態を推定した結果に基づいて、対象者Uが異常状態にあるか否かを判定する。
ステップS154では、制御部11は、異常通知部182として動作し、対象者Uが異常状態にあることを知らせるための通知を出力する。
図6に戻り、ステップS16では、制御部11は、対象者Uの食事を終了するか否かを判定する。食事を終了するか否かを判定する方法は、実施の形態に応じて適宜決定されてよい。本実施形態では、制御部11は、以下の処理手順により、対象者Uの食事を終了するか否かを判定する。
ステップS161では、制御部11は、終了判定部183として動作し、食物Fが残っているか否かを判定する。食物Fが残っているか否かを判定する方法は、実施の形態に応じて適宜選択されてよい。容器B内の食物Fの存在は、例えば、撮影装置2、撮影装置2とは異なる他の撮影装置、その他の種類のセンサ(例えば、赤外線センサ)等のセンサによって監視されていてもよい。この場合、制御部11は、このセンサの出力に基づいて、食物Fが残っているか否かを判定することができる。食物Fが残っているか否かを判定すると、制御部11は、次のステップS162に処理を進める。
ステップS162では、制御部11は、終了判定部183として動作し、ステップS161の判定結果に基づいて、条件分岐の処理を実行する。食物Fが残っていると判定した場合(図10のYES)、制御部11は、次のステップS163に処理を進める。一方、食物Fが残っていないと判定した場合(図10のNO)、制御部11は、ステップS168に処理を進める。
ステップS163では、制御部11は、上記ステップS111と同様に、画像取得部171として動作し、撮影装置2により対象者Uを撮影することで生成された撮影画像を取得する。ステップS164では、制御部11は、上記ステップS113と同様に、動き推定部173として動作し、取得した撮影画像を解析することで、対象者Uの動きを推定する。
ステップS166では、制御部11は、終了判定部183として動作し、ステップS165の判定結果に基づいて、条件分岐の処理を実行する。対象者Uが所定の動きを一定時間以上行っていないと判定した場合(図10のYES)、制御部11は、ステップS168に処理を進める。一方、対象者Uが一定時間内に所定の動きを行ったと判定した場合(図10のNO)、制御部11は、ステップS167に処理を進める。
ステップS167では、制御部11は、終了判定部183として動作し、対象者Uの食事は終了していないと認定する。一方、ステップS168では、制御部11は、終了判定部183として動作し、対象者Uの食事は終了したと認定する。
図6に戻り、ステップS17では、制御部11は、終了判定部183として動作し、ステップS17の認定結果に基づいて、条件分岐の処理を実行する。ステップS168を実行して、対象者Uの食事は終了したと認定した場合(図6のYES)、制御部11は、次のステップS18に処理を進める。一方、ステップS167を実行して、対象者Uの食事は終了していないと認定した場合(図6のNO)、制御部11は、ステップS12に戻り、当該ステップS12から処理を繰り返す。なお、処理を繰り返す範囲は、このような例に限定されなくてもよい。例えば、制御部11は、ステップS11から処理を繰り返してもよい。この場合、ステップS163及びS164の処理結果は、次の繰り返しで実行されるステップS111及びS113の処理に利用されてよい。
ステップS18では、制御部11は、終了通知部184として動作し、対象者Uの食事が終了したことを知らせるための通知を出力する。当該通知の出力先及び出力方法は、上記ステップS154と同様に、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、対象者Uの食事が終了したことを知らせるメッセージを出力装置15に出力してもよい。また、例えば、制御部11は、電子メール、ショートメッセージサービス、プッシュ通知等を利用して、対象者Uの食事が終了したことを知らせるメッセージを送信してもよい。当該通知を出力すると、制御部11は、次のステップS19に処理を進める。
ステップS19では、制御部11は、咀嚼計測部179として動作し、ステップS14により測定した対象者Uの咀嚼回数を記録する。咀嚼回数を記録する方法は、実施の形態に応じて適宜決定されてよい。例えば、制御部11は、ステップS14により測定した対象者Uの咀嚼回数を示す履歴情報を生成し、生成した履歴情報を記憶部12、NAS等の記憶装置に格納してもよい。なお、ステップS19を実行するタイミングは、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。制御部11は、ステップS14の処理を実行した後の任意のタイミングで、ステップS19の処理を実行してもよい。これにより、咀嚼回数の記録が完了すると、制御部11は、本動作例に係る処理手順を終了する。
以上のとおり、本実施形態に係る介助システム100によれば、ステップS13の処理により、対象者Uは、口を開ける動作を行うだけで、ロボット装置3に対して、口の中に食物Fを入れる動作を実行させることができる。つまり、対象者Uは、ロボット装置3によって口の中に食物Fを入れてもらうことで、身体を動かすことなく、自発的に食事を摂ることができるようになる。よって、本実施形態に係る介助システム100によれば、身体を動かすことが困難な対象者Uであっても自発的に食事を摂れるようにすることができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、制御部11は、ステップS11により、対象者Uの視線の方向及び動きに基づいて、食物Fの運搬を開始するか否かを判定する。また、制御部11は、ステップS12により、食物Fを取得する動作をロボット装置3に実行させている。これらの動作を実行しなくてもよい場合には、上記ステップS11及びS12の少なくとも一方は省略されてもよい。この場合、制御装置1のソフトウェア構成において、視線方向推定部172、動き推定部173、開始判定部174、及び取得制御部175は、適宜省略されてよい。
上記実施形態では、食物が残っているか否か、及び所定の動きを対象者Uが一定時間以上行っていないかどうかに基づいて、対象者Uの食事が終了したか否かを判定している。これらの食事が終了したか否を判定する処理の少なくとも一方は省略されてもよい。すなわち、ステップS161〜S162の一連の処理、及びステップS163〜S166の一連の処理の少なくとも一方は省略されてもよい。
上記実施形態では、制御部11は、ステップS14の処理により、対象者Uの咀嚼回数を測定している。咀嚼回数を監視しない場合には、この咀嚼回数を測定する処理は省略されてもよい。すなわち、上記ステップS14及びS19の処理は省略されてよい。この場合、制御装置1のソフトウェア構成において、咀嚼計測部179は省略されてもよい。また、ステップS14を実行するタイミングは、上記実施形態の例に限定されなくてもよい。制御部11は、対象者Uの口の中に食物Fを入れた後の任意のタイミングで、上記ステップS14の処理を実行してもよい。
上記実施形態では、制御部11は、ステップS15の処理により、対象者Uに異常状態が発生しているか否かを監視している。異常状態の発生を監視しない場合には、この対象者Uに異常状態が発生しているか否かを監視する処理は省略されてもよい。すなわち、上記ステップS15の処理は省略されてよい。この場合、制御装置1のソフトウェア構成において、状態推定部180、異常判定部181及び異常通知部182は省略されてもよい。また、ステップS15を実行するタイミングは、上記実施形態の例に限定されなくてもよい。制御部11は、任意のタイミングで、上記ステップS15の処理を実行してもよい。
上記実施形態では、制御部11は、例えば、ステップS111、ステップS131等の様々な処理において、撮影画像を取得している。また、制御部11は、例えば、ステップS112、ステップS132等の様々な処理において、撮影画像内に写る対象者Uの顔の器官を解析している。これらの処理は、個々に実行されるのではなく、他の処理に並列に実行されてもよい。例えば、制御部11は、撮影装置2から継続的に撮影画像を取得し、取得した撮影画像に対して顔の器官を解析する処理を実行してもよい。制御部11は、これにより得られる情報をRAM等に保持し、保持した情報を適宜参照することで、例えば、ステップS114等の解析結果を利用する処理を実行してもよい。
11…制御部、12…記憶部、13…外部インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
171…画像取得部、172…視線方向推定部、
173…動き推定部、174…開始判定部、
175…取得制御部、176…位置算出部、
177…運搬制御部、178…開閉判定部、
179…咀嚼計測部、180…状態推定部、
181…異常判定部、182…異常通知部、
183…終了判定部、184…終了通知部、
2…撮影装置、
3…ロボット装置、
31…基台部、32…第1関節部、33…第2関節部、
34…第1リンク部材、35…第2リンク部材、
36…ハンド部(エンドエフェクタ)、40…スプーン、
U…対象者、F…食物、B…容器
Claims (12)
- 対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置と、
前記対象者まで食物を運搬するように構成されたロボット装置と、
前記ロボット装置の動作を制御するように構成された制御装置と、
を備え、
前記制御装置は、
前記撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、
取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、
前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、
取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、
前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、
を実行する、
介助システム。 - 前記制御装置は、
取得した前記撮影画像を解析することで、前記対象者の視線の方向及び動きを推定するステップと、
前記視線の方向を推定した結果に基づいて、前記視線が所定の方向を向いているか否かを判定するステップと、
前記対象者の動きを推定した結果に基づいて、前記食物を要求するための所定の動きを前記対象者が行っているか否かを判定するステップと、
前記視線が前記所定の方向を向いており、かつ前記所定の動きを前記対象者が行っていると判定した場合に、前記食物の運搬を開始させるように前記ロボット装置の動作を制御するステップと、
を更に実行する、
請求項1に記載の介助システム。 - 前記所定の方向は、前記食物の存在する方向である、
請求項2に記載の介助システム。 - 前記制御装置は、
前記対象者が前記所定の動きを一定時間以上行っていないかどうかを判定するステップと、
前記対象者が前記所定の動きを一定時間以上行っていないと判定した場合に、前記対象者の食事が終了したと認定し、当該食事が終了したことを知らせるための通知を出力するステップと、
を更に実行する、
請求項2又は3に記載の介助システム。 - 前記制御装置は、
前記食物が残っているか否かを判定するステップと、
前記食物が残っていないと判定した場合に、前記対象者の食事が終了したと認定し、当該食事が終了したことを知らせるための通知を出力するステップと、
を更に実行する、
請求項1から4のいずれか1項に記載の介助システム。 - 前記制御装置は、
取得した前記撮影画像を解析することで、前記対象者の視線の方向を推定するステップと、
推定した前記視線の方向にある食物を取得するように前記ロボット装置の動作を制御するステップと、
を更に実行する、
請求項1から5のいずれか1項に記載の介助システム。 - 前記制御装置は、
取得した前記撮影画像を解析することで、前記対象者の咀嚼回数を測定するステップと、
測定した前記対象者の咀嚼回数を記録するステップと、
を更に実行する、
請求項1から6のいずれか1項に記載の介助システム。 - 前記制御装置は、
取得した前記撮影画像を解析することで、前記対象者の状態を推定するステップと、
前記対象者の状態を推定した結果に基づいて、前記対象者が異常状態にあるか否かを判定するステップと、
前記対象者が異常状態にあると判定した場合に、前記対象者が異常状態にあることを知らせるための通知を出力するステップと、
を更に実行する、
請求項1から7のいずれか1項に記載の介助システム。 - 前記制御装置は、
取得した前記撮影画像を解析することで、前記対象者の状態として前記対象者の表情の種別を推定し、
推定した前記対象者の表情の種別が、前記異常状態に対応付けられた所定の種別であるか否かを判定することで、前記対象者が異常状態にあるか否かを判定する、
請求項8に記載の介助システム。 - 前記制御装置は、
取得した前記撮影画像を解析することで、前記対象者の状態として、前記対象者が前記食物を口から吐き出したか否かを推定し、
前記対象者が前記食物を口から吐き出したか否かに基づいて、前記対象者が異常状態にあるか否かを判定する、
請求項8又は9に記載の介助システム。 - 対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置、前記対象者まで食物を運搬するように構成されたロボット装置、及び前記ロボット装置の動作を制御するように構成された制御装置による介助方法であって、
前記制御装置が、
前記撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、
取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、
前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、
取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、
前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、
を実行する、
介助方法。 - 対象者まで食物を運搬するように構成されたロボット装置の動作をコンピュータに制御させるための介助プログラムであって、
前記コンピュータに、
前記対象者を被写体として撮影すると共に、当該被写体までの深度を取得するように構成された撮影装置により前記対象者を撮影することで生成された撮影画像であって、当該撮影画像内の前記対象者に対して得られた深度を示す深度情報を含む撮影画像を取得するステップと、
取得した前記撮影画像を解析することで、前記深度情報から前記対象者の口の位置を算出するステップと、
前記対象者の口の位置を算出した結果に基づいて、前記対象者の口元まで前記食物を運搬するように前記ロボット装置の動作を制御するステップと、
取得した前記撮影画像を解析することで、前記対象者が口を開けているか否かを判定するステップと、
前記ロボット装置が前記対象者の口元まで前記食物を運搬した後、前記対象者が口を開けていると判定した場合に、前記対象者の口の中に前記食物を入れるように前記ロボット装置の動作を制御するステップと、
を実行させるための、
介助プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118231A JP2019217103A (ja) | 2018-06-21 | 2018-06-21 | 介助システム、介助方法及び介助プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118231A JP2019217103A (ja) | 2018-06-21 | 2018-06-21 | 介助システム、介助方法及び介助プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019217103A true JP2019217103A (ja) | 2019-12-26 |
Family
ID=69094799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018118231A Pending JP2019217103A (ja) | 2018-06-21 | 2018-06-21 | 介助システム、介助方法及び介助プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019217103A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113601502A (zh) * | 2021-07-29 | 2021-11-05 | 北京航空航天大学 | 一种基于单目视觉的助餐机器人控制方法 |
CN113974611A (zh) * | 2021-10-25 | 2022-01-28 | 首都医科大学宣武医院 | 一种智能化进食提醒装置 |
KR20220018339A (ko) * | 2020-08-06 | 2022-02-15 | 광주과학기술원 | 식사 자세 보조 장치 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213121A (ja) * | 2002-12-27 | 2004-07-29 | Casio Comput Co Ltd | 画像処理システム及びプログラム |
JP2004242902A (ja) * | 2003-02-14 | 2004-09-02 | Masafumi Matsumura | 咀嚼回数検出装置及びそのプログラム |
JP2006000427A (ja) * | 2004-06-18 | 2006-01-05 | Secom Co Ltd | 食事支援装置 |
JP2007522838A (ja) * | 2004-02-05 | 2007-08-16 | モトリカ インク | 微細運動制御のリハビリテーション |
JP2009157780A (ja) * | 2007-12-27 | 2009-07-16 | Car Mate Mfg Co Ltd | 監視システム |
WO2015118953A1 (ja) * | 2014-02-07 | 2015-08-13 | Nkワークス株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
WO2018100760A1 (ja) * | 2016-12-02 | 2018-06-07 | Cyberdyne株式会社 | 上肢動作支援装置及び上肢動作支援システム |
-
2018
- 2018-06-21 JP JP2018118231A patent/JP2019217103A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213121A (ja) * | 2002-12-27 | 2004-07-29 | Casio Comput Co Ltd | 画像処理システム及びプログラム |
JP2004242902A (ja) * | 2003-02-14 | 2004-09-02 | Masafumi Matsumura | 咀嚼回数検出装置及びそのプログラム |
JP2007522838A (ja) * | 2004-02-05 | 2007-08-16 | モトリカ インク | 微細運動制御のリハビリテーション |
JP2006000427A (ja) * | 2004-06-18 | 2006-01-05 | Secom Co Ltd | 食事支援装置 |
JP2009157780A (ja) * | 2007-12-27 | 2009-07-16 | Car Mate Mfg Co Ltd | 監視システム |
WO2015118953A1 (ja) * | 2014-02-07 | 2015-08-13 | Nkワークス株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
WO2018100760A1 (ja) * | 2016-12-02 | 2018-06-07 | Cyberdyne株式会社 | 上肢動作支援装置及び上肢動作支援システム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220018339A (ko) * | 2020-08-06 | 2022-02-15 | 광주과학기술원 | 식사 자세 보조 장치 |
KR102373205B1 (ko) * | 2020-08-06 | 2022-03-14 | 광주과학기술원 | 식사 자세 보조 장치 |
CN113601502A (zh) * | 2021-07-29 | 2021-11-05 | 北京航空航天大学 | 一种基于单目视觉的助餐机器人控制方法 |
CN113974611A (zh) * | 2021-10-25 | 2022-01-28 | 首都医科大学宣武医院 | 一种智能化进食提醒装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019217103A (ja) | 介助システム、介助方法及び介助プログラム | |
JP7178423B2 (ja) | 遠隔歯科医療画像のためのガイダンス方法及びシステム | |
CN111507176B (zh) | 姿势估计装置、行动估计装置、记录介质、姿势估计方法 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP2017196414A (ja) | 歩行分析支援ロボット | |
TW201843647A (zh) | 用於促進影像系統之自主控制的系統及方法 | |
JP6841608B2 (ja) | 振る舞い検知システム | |
US11071372B2 (en) | System and method for detecting movement of a user of an oral health care device and providing feedback | |
KR101802917B1 (ko) | 치아 움직임 추적 장치 및 그 방법 | |
CN107111363A (zh) | 监视 | |
JP2016067773A (ja) | 自律移動ロボット及びバイタルサインモニタリング方法 | |
JP2015197803A (ja) | 行動記録装置、行動記録方法及びプログラム | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
CN113033526A (zh) | 基于计算机实现的方法、电子设备和计算机程序产品 | |
US11717160B2 (en) | Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor | |
Tarabini et al. | Real-time monitoring of the posture at the workplace using low cost sensors | |
JP2022095994A (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP2019208651A (ja) | 視力検査処理プログラムおよび視力検査システム | |
Gao et al. | A vison-based user interface of a mobile robotic arm for people with severe disabilities | |
JP2020087040A (ja) | 特定姿勢検出装置 | |
KR102583414B1 (ko) | 3차원 스캐너의 스캔 이미지 처리 방법 및 장치 | |
KR102553830B1 (ko) | 카메라를 이용한 실시간 로봇 원격 제어 방법 및 장치 | |
WO2022142458A1 (zh) | 动物扫描方法、装置和系统 | |
JP6532042B2 (ja) | 自動注射装置 | |
CN116940962A (zh) | 看护系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220615 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220705 |