JP2006000427A - 食事支援装置 - Google Patents

食事支援装置 Download PDF

Info

Publication number
JP2006000427A
JP2006000427A JP2004180493A JP2004180493A JP2006000427A JP 2006000427 A JP2006000427 A JP 2006000427A JP 2004180493 A JP2004180493 A JP 2004180493A JP 2004180493 A JP2004180493 A JP 2004180493A JP 2006000427 A JP2006000427 A JP 2006000427A
Authority
JP
Japan
Prior art keywords
food
container
image
color
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004180493A
Other languages
English (en)
Inventor
Ryoji Soyama
亮治 祖山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2004180493A priority Critical patent/JP2006000427A/ja
Publication of JP2006000427A publication Critical patent/JP2006000427A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Image Analysis (AREA)

Abstract

【課題】不定形・不定色である食物を認識して把持動作することで利用者の食事が円滑に進むことを支援する。
【解決手段】食物を把持する把持機構部36と、容器12及び容器12に盛り付けられた食物の画像を全体画像として取得する撮像部18とを備え、全体画像から容器の地色を色見本として抽出し、全体画像から色見本とは異なる色の領域を抽出してその領域に対して把持を行うように把持機構部36を制御することで、容器12に盛り付けられた食物を把持して利用者の口元へ運んで利用者の食事を支援する食事支援装置により上記課題を解決できる。
【選択図】図1

Description

本発明は、食物を利用者の口元に運ぶ食事支援装置に関する。
上肢に障害をもつ利用者が食事をする際に、食物が盛り付けられた容器から利用者の口元まで食物を運んで食事の支援を行う食事支援装置が開発されている。
これまで、スプーンとフォークとからなる食物把持部が取り付けられたアームをジョイスティック等のコントローラを用いて利用者が顎等で操作して容器に盛り付けられた食物を把持し、利用者の口元まで運ぶ食事支援装置が開発されている。このような食事支援装置では、予め形状が定められた容器に食物を盛り付けておき、利用者がジョイスティックのレバーを傾けることによって食べたい食物の位置を指定して、その位置に盛り付けられた食物を食物把持部で把持して利用者の口元まで搬送させる。そして、搬送された食物に利用者の口が触れたことをセンサで感知し、食物を食事把持部から解放させて利用者に食物を提供する。また、利用者の口が食事把持部から離れると、アームによって食事把持部を待機位置まで移動させて次の食物の指定がなされるまで待機させる。
また、利用者からの食物の位置の指定を受けることなく、予め定められた手順に沿って容器の各位置に対して把持動作し、各位置に盛り付けられた食物を順に把持して、利用者の口元まで搬送する自動モードを備える食事支援装置も開発されている。
特開2004−81567号公報 特開2003−62019号公報
しかしながら、食物は容器に整然と盛り付けられるものではなく、食物が盛られた位置と食物が盛られていない位置とが混在した状態となっている。従って、容器の各位置に対して予め定められた順序に沿って把持を行わせると、食物が盛り付けられていない位置にも把持を試みることとなるため、利用者が円滑に食事を進めることができない問題があった。
このような問題を解決するためには、容器に盛り付けられた食物の位置を検出し、食物がある位置に対して把持を行わせることが考えられる。しかしながら、把持対象である食物は、種類、調理方法等によって色や形が異なるものであり、このように不定形、不定色である食物を検出することは難しい。よって、従来の食事支援装置では、食物を検出して把持を行う機能は搭載されていなかった。
本発明は、上記従来技術の問題を鑑み、不定形・不定色である食物を簡単な処理で検出することにより無駄な把持動作をなくし、利用者の食事をより円滑に進めることを可能とする食事支援装置を提供することを目的とする。
本発明は、容器に盛り付けられた食物を把持して利用者の口元へ運ぶことによって、利用者の食事を支援する食事支援装置であって、食物を把持する把持機構部と、前記容器及び前記容器に盛り付けられた食物の画像を全体画像として取得する撮像部と、を備え、前記全体画像から容器の地色を色見本として抽出して記憶し、前記全体画像から前記色見本とは異なる色の領域を抽出し、当該領域に対して把持を行うように前記把持機構部を制御することを特徴とする。
ここで、食物が盛り付けられていない領域として予め定められた領域を前記全体画像から抽出し、当該予め定められた領域において所定の割合以上を占める色を前記色見本とすることも好ましい。さらに、所定のタイミングで前記色見本を更新することが好ましい。
本発明によれば、不定形・不定色である食物が容器に不規則に盛り付けられている場合においても利用者は食事をより円滑に進めることができる。
本発明の実施の形態における食事支援装置は、図1に示すように、本体部10、容器12、搬送部14、操作部16及び撮像部18を含んで構成される。図2に、本実施の形態における食事支援装置の機能ブロック図を示す。
本体部10には、入力インターフェース(I/F)20、演算器22、記憶部24、入出力インターフェース(I/F)26、モード切替スイッチ28、報知手段30が組み込まれている。入力I/F20は、操作部16及びモード切替スイッチ28と情報伝達可能に接続されており、操作部16及びモード切替スイッチ28からの指示信号又はモード信号を受けて、信号フォーマットの変換等の前処理を行ったうえで演算器22に受け渡す。演算器22は、記憶部24に格納されている制御プログラムを実行することによって食事支援装置全般の制御を行う。演算器22で行われる制御については後述する。記憶部24は、演算器22で実行される制御プログラム及び制御に利用される各種データを格納及び保持する。記憶部24に格納されているプログラム又はデータは演算器22によって適宜読み出されて使用することができる。入出力I/F26は、撮像部18及び搬送部14からの信号を受けて、演算器22に受け渡す。モード切替スイッチ28は、食事支援装置に備わる手動モード、半自動モード及び自動モードのうちいずれか1つを選択するためスイッチである。モード切替スイッチ28で選択されたモードは、モード信号として入力I/F20を介して演算器22へ入力される。報知手段30は、例えば、ランプやブザーなどを含んで構成され、食事支援装置に異常が発生した場合に演算器22からの信号を受けて、利用者や利用者を介護する介護者等に異常を報知するために用いられる。
容器12は食事を盛り付けるために用いられる。容器12は、複数の分割領域に区画される。本実施の形態では、図1に示すように、4つの分割領域12a〜12dに区画されているものとして説明を行うが、これに限定されるものではなく、必要に応じて適宜分割数を増減させても良い。また、容器12の地色は、4つの分割領域12a〜12dにおいて同色とする。なお、容器12の地色は単色であるのが好ましい。また、食事を行う際には、容器12は食事支援装置の本体部10に設けられた突き当て部32にセットされる。これによって、搬送部14及び撮像部18との空間的な相対位置が常に一定に維持され、把持動作や撮像を一定の位置関係で行うことが可能となる。
搬送部14は、搬送機構部34及び把持機構部36を含んで構成される。搬送機構部34は、把持機構部36を移動させるためのアームから構成される。搬送機構部34は、図1の例に示すように、4軸の回転駆動部34eによって接続されたアーム34a〜34dから構成することが好適である。搬送機構部34は、入出力I/F26を介して演算器22からの制御信号を受け、アーム34a〜34dをモータ等の駆動部を駆動させることによって把持機構部36を容器12の領域や利用者の口元に運ぶ。把持機構部36は、食物を把持するための把持部材38を含んで構成される。把持部材38は、図1の例に示すように、フォークとスプーンの組み合わせで構成することが好適である。また、把持機構部36は、図2に示すように、駆動部36a、接触検出部36b、把持検出部36c及び後退位置検出部36dを含んで構成される。駆動部36aは、入出力I/F26を介して演算器22から制御信号を受けて把持部材38のフォークとスプーンを駆動する。制御信号に基づいて、容器12の食物の位置まで把持部材38を移動させると、フォークを上に設け、スプーンを下に設けることによって食物をすくうようにして把持する。このとき、感圧センサ等で構成される接触検出部36bによって把持部材38に食物が接触したことを検知すると、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、食物を把持させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けて、フォークとスプーンとを駆動して食物を挟み込むようにして把持する。さらに、角度センサ等で構成される把持検出部36cによって食物が把持されたことを検知し、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、把持部材38を利用者の口元まで移動させる制御信号を搬送機構部34に送信する。搬送機構部34は、制御信号を受けて、把持部材38を利用者の口元まで搬送する。利用者が口元まで運ばれた把持部材38に口を接触させると、接触検出部36bにおいて接触が検知され、検知信号が演算器22へ送信される。演算器22は、把持部材38が口元位置にあり、利用者の口の接触を示す検知信号を受けると、フォークを後退させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けると、フォークを後退させることでスプーンとフォークをずらす。このとき、位置センサ等で構成される後退位置検出部36dにおいてフォークの後退位置を検出し、所定の位置までフォークが後退したことを検知し、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、フォークの後退を停止させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けて、フォークの後退を停止させる。このような動作により、利用者へ食物を食べやすい状態で提供する。但し、把持部材38はフォークとスプーンに限定されるものではない。
操作部16は、利用者が搬送部14の動きを指定するために用いるものであり、ここではレバー40を備えるジョイスティックとしている。利用者がレバー40を倒すと、操作部16に内蔵されたセンサでその方向が感知され、方向を示す指示信号として本体部10の入力I/F20へ送信される。レバー40の操作方向としては、図1に示すように、例えば奥A、右B、手前C、左Dの4方向とする。また、レバー40を押し込むことによってスイッチがオンされる構造となっており、利用者に意思決定を求めた場合にレバー40が押し込まれると決定の意思を示す信号が本体部10の入出力I/F26へ送信される。レバー40は、上肢に障害がある利用者が顎等で操作し易い形状とすることが好ましい。なお、操作部16はジョイスティックに限定されるものではなく、利用者の頭部に装着されるレーザポインタ等を用いても良い。
撮像部18は、カメラ42及び入出力インターフェース(I/F)44を含んで構成される。カメラ42は、被写体の色を認識できるカラーカメラであり、例えば、カラーのCCD撮像素子とすることができる。カメラ42は、固定用の器具を用いて容器12に対して所定の相対位置となるように固定され、容器12の全体像を上方から撮像できる位置に設置される。撮像部18は、入出力I/F26及び入出力I/F44を介して演算器22からの撮像を指示する制御信号を受けると、カメラ42によって容器12及びそこに盛り付けられた食物の画像を撮像する。撮像された画像データは、入出力I/F44及び入出力I/F26を介して、演算器22に送信される。
次に、本実施の形態における食事支援装置の制御について説明する。食事支援装置は、図3に示すフローチャートに沿って制御される。フローチャートの各工程は、記憶部24に保持されているコンピュータで実行可能な制御プログラムを演算器22において実行することによって行われる。以下の処理は、容器12に食物が盛り付けられ、食事支援装置の本体部10の突き当て部32に容器12がセットされている状態で行われる。
ステップS10では、初期設定の処理が行われる。食事支援装置の主電源がオンされると副電源がオンされるのを待つ。本実施の形態では、操作部16のレバー40が副電源を兼ねており、レバー40がいずれかの方向に操作されることによって副電源がオンされる。主電源及び副電源がオンされると、演算器22は装置全体の初期設定処理を行う。初期設定処理では、搬送機構部34及び把持機構部36を試動作させて、動作範囲の各位置の初期認識を行う。また、把持動作回数を記録する把持カウンタG(m,n)の各要素を0に設定する。把持カウンタG(m,n)については後述する。
ステップS12では、口元位置の調整処理が行われる。利用者又はその付添い人は、操作部16のレバー40を操作することによって搬送機構部34及び把持機構部36を操作し、利用者が食物を摂取し易い位置である口元位置に把持部材38を移動させる。把持部材38が丁度良い位置に来たところでレバー40を押し込むことによって制御信号が演算器22へ送信され、その位置が口元位置として設定される。
ステップS14では、搬送機構部34及び把持機構部36が待機位置へ移動される。待機位置は、搬送機構部34のアーム34a〜34bが折り畳まれ、把持機構部36の把持部材38が利用者側を向いている状態として予め設定された位置である。
ステップS16では、容器12の分割領域の選択が行われる。演算器22は、モード切替スイッチ28の設定状態を確認する。操作モードが手動モード又は半自動モードに設定されている場合、利用者が操作部16のレバー40を倒すことによって分割領域12a〜12dのいずれか1つが選択される。例えば、レバー40の傾倒方向が奥A、右B、手前C又は左Dに倒された場合に分割領域12a,12b,12c又は12dがそれぞれ選択されるように設定しておくことが好適である。また、操作モードが自動モードに設定されている場合、利用者が操作部16のレバー40を奥Aに倒すことによって動作開始の指示を行う。すなわち、自動モードにおいては、後の把持対象となる食物の決定処理に基づいて分割領域の選択が行われるため、この時点では動作開始の指示を行うだけで良いからである。
ステップS18では、分割領域の選択が行われたか否かが判断される。分割領域の選択又は動作開始の指示が行われていない場合にはステップS16に処理を戻して選択又は指示が行われるまで待機する。分割領域の選択又は動作開始の指示が行われた場合にはステップS20に処理を移行させる。また、このステップにおいて、利用者が食事を終了したい場合には食事支援装置を停止させることもできる。
ステップS20では、操作モードが手動モードであるか否かが判定される。演算器22は、モード切替スイッチ28が手動モードに設定されていればステップS26に処理を移行させ、自動モード又は半自動モードに設定されていればステップS22に処理を移行させる。
ステップS22では、容器12及び容器12に盛り付けられた食物の画像を取得し、その画像データに基づいて把持位置を決定する。把持位置は、容器12の分割領域12a〜12d内をさらに細かく区分けした配膳位置のいずれか1つに決定される。本実施の形態では、図4に示すように、各分割領域12a〜12dをそれぞれ9つの配膳位置(m,n)(mは各分割領域を示す1〜4の整数,nは各分割領域における配膳位置を示す1〜9の整数)に分割し、いずれかの位置を把持位置として決定する。図4では、分割領域12aを9つの配膳位置に分割した例を示している。なお、ステップS22はサブルーチン化されており、図5に示すフローチャートに沿って処理される。
以下に、操作モードが、自動モード又は半自動モードの場合における把持位置決定の処理を説明する。ステップS22−1では、容器12及び容器12に盛り付けられた食物を含む全体画像IM1が取得される。演算器22は、撮像部18へ撮像信号を送信する。撮像部18は、撮像信号を受信すると、図6に示すように、容器12の上方に設置されたカメラ42により容器12及び容器12に盛り付けられた食物を含むカラー画像を撮像し、全体画像IM1として演算器22へ送信する。図6では、便宜上、異なる色を異なるハッチングで示している。
ステップS22−2では、色見本画像IM2が抽出される。色見本画像IM2は、容器12の中から食物が盛り付けられていない分割領域、すなわち容器12の地色が全面的に露出している分割領域の画像である。図6を例とすると、全体画像IM1のうち分割領域12cの位置を予め設定しておく。そして、容器12の分割領域12cには食物を盛り付けず、容器12の地色が露出された状態としておくことによって、全体画像IM1から予め設定された分割領域12cを切り出して色見本画像IM2とすることができる。このように、全体画像IM1の一部を色見本画像IM2として抽出することは、容器12の色むらや汚れ、影の影響等、実際の状況を取り込んで実環境に即した画像処理を行うことができる点で利点がある。
ステップS22−3では、色見本画像IM2から色見本が抽出される。演算器22では、色見本画像IM2を構成する全画素について、各画素の色相hと彩度sを算出する。本実施の形態では、色相h及び彩度sはいずれも256階調で表現されるものとして処理を行っている。そして、色見本画像IM2において色相hと彩度sの組み合わせ毎にその出現頻度C(h,s)を求める。出現頻度C(h,s)の初期値は0とする。例えば、色相h=120及び彩度s=80の画素が存在していた場合、C(120,80)の値を1だけ増加させる。そして、色見本画像IM2の全画素について出現頻度C(h,s)を調べた後に、出現頻度C(h,s)が所定の閾値以上であれば色見本D(h,s)を1に設定し、出現頻度C(h,s)が所定の閾値より小さければ色見本行列D(h,s)を0に設定する。これにより、色相hと彩度sとの組み合わせ毎に0又は1の値を有する色見本行列D(h,s)を得ることができる。色見本行列D(h,s)の値が1である色相h及び彩度sの組み合わせは容器12の地色であると判断し、色見本行列D(h,s)の値が0である色相h及び彩度sの組み合わせは容器12の地色ではないと判断することができる。
なお、色見本の抽出方法は上記の処理に限定されるものではない。例えば、食事が盛り付けられる前の容器12の全体又は分割領域12a〜12dを撮像し、その画像データを構成する画素群のうち出現頻度が高い色を色見本として取得する方法がある。この場合、容器12の地色は分割領域毎に異ならせることもでき、食物の種類に応じて盛り付けする分割領域を選択することでより食物を認識し易くすることができる。また、図4に示した分割領域12a〜12dを区画する境界部12eをエッジ抽出処理や予め設定された領域として抽出し、その境界部12eの色を色見本として取得する方法がある。この場合、境界部12eの色は容器12の分割領域12a〜12dにおける地色と同じとする。さらに、容器12に盛られた食物を把持して取り除いた後に、その配膳位置の色から色見本を取得する方法もある。
色見本となる容器12の地色は、食物には無い色であることが好ましいが、食物と完全に同一でなければ問題はない。また、容器12の地色は、単色であっても複数色で構成されていても、色見本を抽出する領域と食物が盛り付けられている領域とで使用されている色の比率が同じであればよい。
また、本実施の形態では、ステップS18で分割領域の選択又は動作開始の指示がなされる度に色見本画像IM2及び色見本行列D(h,s)を求める処理を行い、色見本を更新している。これにより、食事を進めている最中に容器12への光の照射の加減による画像上の色の変化の影響に対応することが可能となる。但し、更新のタイミングはこれに限定されるものではなく、ステップS18で分割領域の選択又は動作開始の指示が所定回数実行される毎に更新を行っても良い。また、把持機構部36が待機位置に移動されたタイミングで更新を行っても良い。また、食事をする環境の変化が殆どない場合には、食事支援装置の電源が投入された際に、一回の食事に対して一度だけ色見本画像IM2及び色見本行列D(h,s)を求める処理を行っても良い。
また、本実施の形態では、HSB方式で表現される色の属性である色相・彩度・明度のうち、色相と彩度を利用している。色の表現方法はこれに限られるものではないが、照明等により食事をする環境が変化すると、明度は大きく影響を受ける。本実施の形態では、このような不都合を排除するために、色相と彩度によって色を表現する方法を採用したものである。
ステップS22−4では、操作モードの判定が行われる。演算器22は、モード切替スイッチ28が半自動モードに設定されていればステップS22−5に処理を移行させ、モード切替スイッチ28が自動モードに設定されていればステップS22−8に処理を移行させる。
まず、操作モードが半自動モードに設定されている場合の処理をS22−5からS22−7にて説明する。ステップS22−5では、部分画像IM3が取得される。操作モードが手動モード又は半自動モードに設定されている場合、ステップS18において分割領域12a〜12dのいずれか1つの領域が選択されているはずであるので、図7に示すように、全体画像IM1から選択された分割領域の画像を部分画像IM3として切り出す。本実施の形態では、部分画像IM3は縦256画素×横256画素の画像として抽出されたものとして説明する。なお、図7では、便宜上異なる色を異なるハッチングで示している。
ステップS22−6では、部分画像IM3を2値化した2値画像IM4を生成する。まず、部分画像IM3を構成する各画素に対応する縦256画素×横256画素の2値画像IM4の各画素の画素値を0に初期化する。次いで、部分画像IM3を構成する画素の中から選択した注目画素の色相h及び彩度sを各256階調で求める。そして、注目画素の色相h及び彩度sに対応する色見本行列D(h,s)の値が1であるか否かを調べる。色相h及び彩度sに対応する色見本行列D(h,s)の値が1であった場合には注目画素に対応する2値画像IM4の画素値は1に変更し、色相h及び彩度sに対応する色見本行列D(h,s)の値が0であった場合には注目画素に対応する2値画像IM4の画素値は0に維持する。食物が盛り付けられた分割領域の地色は、色見本で表される色であるので、各画素について色見本に含まれた色であるか否かを調べることにより容器の地色を表している画素か食物を表している画素かを大別できる。
例えば、部分領域34aの部分画像IM3における画素(縦50,横50)の色相が120及び彩度が80であった場合、色見本行列D(120,80)が1であった場合には2値画像IM4の画素(縦50,横50)を1に設定する。
部分画像IM3の全画素について注目画素として順次選択し、上記処理を行うことによって、2値画像IM4を生成することができる。すなわち、2値画像の画素値が0である画素は部分画像IM4の対応する画素が容器の地色とは異なる色であることを示し、2値画像の画素値が1である画素は部分画像IM4の対応する画素が容器の地色と等しい色であることを示している。
ステップS22−7では、ノイズ処理等の後処理が行われる。例えば、2値画像IM4に対して縮小拡大処理及び面積処理を実施することが好適である。
次に、自動モードに設定されている場合の処理をS22−8からS22−11にて説明する。ステップS22−8では、部分画像IM3が取得される。操作モードが自動モードに設定されている場合、ステップS18において分割領域12a〜12dの選択が行われていないので、全体画像IM1から各分割領域の画像をそれぞれ部分画像IM3として切り出す。本実施の形態では、食物が盛り付けられている分割領域12a,12b及び12dについて部分画像IM3a,IM3b,IM3dが各々縦256画素×横256画素の画像として抽出される。
ステップS22−9では、部分画像IM3を2値化した2値画像IM4を生成する。まず、上記ステップS22−6と同様に、部分画像IM3aを構成する各画素に対応する縦256画素×横256画素の2値画像IM4aの各画素の画素値を0に初期化する。次いで、部分画像IM3aを構成する画素の中から選択した注目画素の色相h及び彩度sを各256階調で求める。そして、注目画素の色相h及び彩度sに対応する色見本行列D(h,s)の値が1であるか否かを調べる。色相h及び彩度sに対応する色見本行列D(h,s)の値が1であった場合には注目画素に対応する2値画像IM4の画素値は1に変更し、色相h及び彩度sに対応する色見本行列D(h,s)の値が0であった場合には注目画素に対応する2値画像IM4aの画素値は0に維持する。
部分画像IM3aの全画素について注目画素として順次選択し、上記処理を行うことによって2値画像IM4aを生成することができる。同様に、部分画像IM3b及びIM3dについても2値画像IM4b及びIM4dを各々生成する。このように、部分画像IM3の各画素について色見本にある色であるのか否かを求めることで、色見本にない色情報を持つ画素の集まりを食物として認識することかできる。
ステップS22−10では、ノイズ処理等の後処理が行われる。例えば、2値画像IM4に対して縮小拡大処理及び面積処理を実施することが好適である。
ステップS22−11では、各2値画像の中から1つを代表の2値画像IM4として選択する。部分画像IM3a,IM3b及びIM3dに対応する2値画像IM4a,IM4b及びIM4dを構成する全画素について画素値が0である頻度を調査し、最も頻度が高い画像を代表の2値画像IM4として選択する。すなわち、容器の地色と異なる色を有する画素が最も多い画像を代表の2値画像とする。
ステップS22−5〜S22−7、又は、ステップS22−8〜S22−11の処理の後、ステップS22−12に処理を移行させる。ステップS22−12では、把持機構部36を移動させる把持位置を決定する。演算器22は、取得された2値画像IM4の配膳位置毎に把持動作の有効性の予測値F(m,n)を算出する。ここで、mは分割領域の位置を示し、例えば、分割領域12a,12b,12c,12dに対して1,2,3,4をそれぞれ対応付けられている。nは配膳位置の位置を示す。本実施の形態では、図4に示したように、分割領域12a〜12dはそれぞれ9つの配膳位置に分割されており、左上、中央上、右上、左中央・・・と順に1〜9の整数で表す。有効性の予測値F(m,n)は、次に示すパラメータP1(m,n),P2(m,n),P3(m,n)及びP4(m,n)を算出することによって決定される。そして、この予測値F(m,n)の値が大きい配膳位置(m,n)に対して把持動作を試みることで、確実に食物を把持することができる。
まず、2値画像IM4から各配膳位置に対応する配膳位置画像IM5が切り出される。本実施の形態では、図8に示すように、9つの配膳位置(m,n)に対応した9つの配膳位置画像IM5−1〜IM5−9が抽出される。
パラメータP1(m,n)は、各配膳位置画像IM5−1〜IM5−9を構成する画素の画素値が0である割合を百分率で表した値とする。つまり、各配膳位置の中で食物らしい画素が占める割合である。例えば、配膳位置(1,1)に対応する配膳位置画像IM5−1において、全画素数7225に対して画素値が0である画素の数が3000であったとするとパラメータP1(1,1)=0.415となる。パラメータP1(m,n)は、配膳位置(m,n)に食物があるであろう確度の予測値を示す。このP1(m,n)が大きい値である程、配膳位置(m,n)に食物が存在する可能性が高いため、把持動作の有効性の予測値F(m,n)が大きい値となるようにする。
パラメータP2(m,n)は、P1(m,n)が予め定められた閾値以上であるか否かによって決定される。P1(m,n)が閾値以上であった場合にはP2(m,n)は1に設定され、P1(m,n)が閾値より小さい場合にはP2(m,n)は0に設定される。パラメータP2(m,n)は、配膳位置(m,n)に食物があるであろう確度の予測値を2値化したものである。このP2(m,n)が1に設定された配膳位置(m,n)について把持動作の有効性の予測値F(m,n)が大きい値となるようにする。
パラメータP3(m,n)は、把持カウンタG(m,n)と等しい値とする。把持カウンタG(m,n)の更新処理については後述する。パラメータP3(m,n)は、配膳位置(m,n)に対して既に把持が試みられた回数(把持の試行履歴)を示す。
パラメータP4(m,n)は、nが2,3,5,6,8,9の場合に左隣の配膳位置のパラメータP2(m,n−1)の値が1であれば0に設定され、左隣の配膳位置のパラメータP2(m,n−1)の値が0であれば1に設定される。また、nが1,4,7の場合は、左隣に配膳位置がないのでP4(m,n)=1に設定される。パラメータP4(m,n)は、把持機構部36によって食物を把持する際に邪魔になる食物が周囲に存在するか否かを示す。すなわち、本実施の形態では、把持部材38が把持対象となる食物の左から一定距離だけ離れた位置に移動され、そこに垂直に把持部材38が下ろされ、そこから把持対象となる食物の左縁まで平行移動させるように把持部材38を動かした上で、把持部材38のフォークとスプーンで挟み込むようにして食物を把持する。つまり、把持位置の少し左側からスプーンで食物をすくい集め、その上でフォークを挟むことによって食物を把持する。従って、把持したい食物の左側の配膳位置に別の食物が盛り付けられている場合にはその食物も把持してしまう可能性があり、把持する食物の量が意図する量よりも多くなってしまったり、把持した食物を口元まで運ぶ際にこぼしてしまったりする可能性が高くなる。そこで、注目した配膳位置(m,n)の左隣の配膳位置(m,n−1)に食物が存在する可能性が高い場合にはパラメータP4(m,n)を0として把持が困難であるとし、注目した配膳位置(m,n)の左隣の配膳位置(m,n−1)に食物が存在する可能性が低い場合にはパラメータP4(m,n)を1として把持が容易であるとする。
従って、パラメータP4(m,n)は、把持機構部36の把持部材38がいずれの方向から食物を把持する構造となっているのかによって設定方法を変更することが好適である。例えば、把持部材38が手前から奥へ向かって食物を把持する構造となっている場合には、注目する配膳位置(m,n)の手前の配膳位置(m,n+3)のパラメータP2(m,n+3)の値が1であればパラメータP4(m,n)を0に設定し、注目する配膳位置(m,n)の手前の配膳位置(m,n+3)のパラメータP2(m,n+3)の値が0であればパラメータP4(m,n)を1に設定する。
このように算出されたパラメータP1(m,n),P2(m,n),P3(m,n),P4(m,n)を用いて数式(1)に基づいて有効性の予測値F(m,n)を算出する。ここで、P5は所定の定数である。
Figure 2006000427
数式(1)における第1項の分子P1(m,n)+P2(m,n)は、現在の画像を処理した結果により決定される。ここで、P1(m,n)は単なる百分率であるが、P2(m,n)を加算することによって、P1(m,n)がある一定の割合以上であった場合を最も優先し、他のパラメータの影響を受け難くしている。特に、P1(m,n)の値の差が小さく、かつ、P2(m,n)を決定する閾値の前後に値が分布している場合に顕著となる。
例えば、P2(m,n)を決める閾値が0.40であった場合、P1(m,1)=0.39及びP1(m,2)=0.41であったとすると、P1(m,1)+P2(m,1)=0.39となり、P1(m,2)+P2(m,2)=1.41となる。このように、P1(m,n)に大きな差がない場合にも、閾値以上である場合には有効性の予測値F(m,n)が高くなり、他のパラメータの影響を受け難くなる。
また、数式(1)における第1項の分母1+P3(m,n)は、これまでの把持動作の履歴により決定される。すなわち、配膳位置(m,n)に対して過去に把持動作が行われた回数が多いほど有効性の予測値F(m,n)を低くする。照明の反射や、調味料、容器の汚れ等により、実際には食物が無いにも拘らず、P1(m,n)の値が大きくなることがある。P3(m,n)は、そのような配膳位置(m,n)に対して繰り返し把持動作することを防ぐためのものである。
また、数式(1)における第2項のP4(m,n)×P5は、把持動作の邪魔となる食物が存在しない配膳位置を優先することを示している。P5はP4(m,n)をF(m,n)にどれだけ重くするかを決める係数であり、把持機構部36の構造に応じて適宜に定められる値である。
各配膳位置画像IM5−1〜IM5−9に対して有効性の予測値F(m,n)を各々算出する。そして、有効性の予測値F(m,n)が最も高い配膳位置を把持位置として決定する。把持位置は、有効性の予測値F(m,n)が最も高い配膳位置の左脇に設定する。ステップS22−12にて把持位置が決定されるとメインルーチンのステップS22に処理を戻す。
このように、F(m,n)は画像処理によって解析された食物の位置を、把持動作の過去の履歴や他の食物との位置関係によって補正した値であるといえる。これによって、複数回の把持動作を行う場合に、画像に写った光などの反射や影の影響を低減することができる。
以上のようにして把持位置が決定されると、次いでステップS24の処理へ移行する。ステップS24では、決定された把持位置に対して把持部材38を自動で移動させる。
また、ステップS20にて操作モードが手動モードと判定された場合にはステップS26の処理に移行させる。ステップS26では、操作部16が操作されたか否かが判定される。このときの操作は、手動モードにおいて行われる利用者による食物の選択操作であって、操作部16の操作によって、先に選択された分割領域内において利用者が食べたいとする食物の位置に把持部材38の位置を合わせる操作を意味する。把持食物の選択入力が行われた場合にはステップS28に処理を移行させる。操作部16の操作が行われず、所定の時間が経過した場合にはステップS30に処理を移行させる。
ステップS28では、操作部16の操作に基づいて把持部材38を容器12上で移動させる。利用者が操作部16のレバー40を奥A、右B、手前C、左Dのいずれかの方向に傾けることによって、レバー40の操作方向に対応する方向に把持部材38を移動させる。移動が終了するとステップS26に戻って更なる操作を待機する。
ステップS30では、実際に食物の把持が行われる。手動、半自動又は自動で把持対象の食物の左脇に移動させられた把持部材38が下降させられ、そこから把持対象となる食物の左縁まで平行移動させるように把持部材38を動かした上で、把持部材38のフォークとスプーンで挟み込むようにして食物を把持する。そして、食物を把持した状態で配膳位置から離れるように把持部材38を上昇させる。
ステップS32では、把持カウンタG(m,n)が更新される。2値画像IM4として選択された分割領域に対応するm、及び、その分割領域内で把持位置とされた配膳位置nに対応する把持カウンタG(m.n)の値が1だけ増加される。
ステップS34では、把持部材38で把持された食物が利用者の口元まで搬送される。ステップS36では、利用者に対して食物が供与される。そして、ステップS38では、把持機構部36が待機位置に移動される。その後、ステップS16に処理を戻し、上記処理を繰り返す。
実際の把持動作の一例を次に示す。以下の説明では、既に6回の把持動作が行われ、配膳された食物が既に幾つか把持及び搬送されて取り除かれている状態であるとする。このときの容器12を撮像した全体画像IM1から切り出された分割領域12aの部分画像IM3を図9に示す。図9の部分画像IM3では、食物の画像50と共に、光が反射した画像52が写し込まれているとする。この部分画像IM3から2値画像IM4を生成する。また、図10に、分割領域12a(m=1)の配膳位置n(n=1〜9の整数)に対応する配膳位置画像IM5−1〜IM5−9を示す。
ここで、図10の配膳位置画像IM5−1〜IM5−9に基づいて、各配膳位置画像IM5−1〜IM5−9において容器12の地色とは異なる色を有する領域の割合からP1(1,n)=[0.7,0.5,0.9,0,0,0,0.4,0.3,0]が求められる。P2(m,n)を決定する閾値が0.4である場合、P2(1,n)=[1,1,1,0,0,0,1,0,0]となる。また、各配膳位置nの左側に他の食物があるか否かを示すパラメータP4(m,n)は、P4(1,n)=[1,0,0,1,1,1,1,0,1]となる。把持履歴を示すパラメータP3(m,n)は、P(1,n)=[0,1,1,1,1,0,0,0,1]であったとする。また、P5=0.25とする。
すると、有効性の予測値F(m,n)は、F(1,n)=[1.95,0.75,0.95,0.25,0.25,0.25,1.65,0.3,0.25]となり、把持をするのに最も有効な配膳位置と予測されるのはn=1(左上)の配膳位置と決定される。
ここで、光の反射の領域52に対応するn=2,3の配膳位置では、既に把持が一度試みられており、パラメータP3(1,2)及びP3(1,3)により有効性の予測値F(1,2)及びF(1,3)の値が小さくなっている。すなわち、光の反射等による誤った把持動作が繰り返されることを防ぐことができる。
本実施の形態では、操作モードが自動モード又は半自動モードである場合には、F(m,n)の値が最も大きい配膳位置に対して把持部材38を移動させ、手動モードである場合は、操作部で指示された位置に対して把持部材38を移動させ、食物の把持及び運搬を行う。これとは別のモードを設け、自動モード又は半自動モードのときと同様にF(m,n)を求めて、操作部16に操作によって移動させられた把持部材38の位置から近い配膳位置であり、かつ、F(m,n)の値が高い配膳位置に把持部材38を位置決めし、食物の把持及び運搬を行っても良い。
以上のように、本実施の形態によれば、一般家庭や施設等で上肢に障害がある利用者が食事をする際に、色情報を用いた画像処理を行うことで、容器に盛り付けられた不定形・不定色である食物の位置を適確に検出し、また、複数の配膳位置毎に把持動作の有効性を考慮するため、無意味な把持動作を繰り返すことなく利用者へ食物を提供することができる。これにより、利用者は円滑に食事を行うことができる。
本発明の実施の形態における食事支援装置の外観を示す図である。 本発明の実施の形態における食事支援装置の機能ブロック図である。 本発明の実施の形態における食事支援方法のフローチャートを示す図である。 本発明の実施の形態における食事支援装置の容器の分割領域及び配膳位置を示す図である。 本発明の実施の形態におけるステップS20のサブルーチンのフローチャートを示す図である。 本発明の実施の形態における容器の全体画像の例を示す図である。 本発明の実施の形態における部分画像の例を示す図である。 本発明の実施の形態における配膳位置画像の例を示す図である。 本発明の実施の形態における部分画像の例を示す図である。 本発明の実施の形態における配膳位置画像の例を示す図である。
符号の説明
10 本体部、12 容器、12a〜12d 分割領域、12e 境界部、14 搬送部、16 操作部、18 撮像部、20 入力インターフェース、22 演算器、24 記憶部、26 入出力インターフェース、28 モード切替スイッチ、30 報知手段、32 突き当て部、34 搬送機構部、34a〜34d アーム、34e 回転駆動部、36 把持機構部、36a 駆動部、36b 接触検出部、36c 把持検出部、36d 後退位置検出部、38 把持部材、40 レバー、42 カメラ、44 入出力インターフェース、50 食物の画像、52 光の反射した画像。

Claims (4)

  1. 容器に盛り付けられた食物を把持して利用者の口元へ運ぶことによって、利用者の食事を支援する食事支援装置であって、
    食物を把持する把持機構部と、
    前記容器及び前記容器に盛り付けられた食物の画像を全体画像として取得する撮像部と、を備え、
    前記全体画像から容器の地色を色見本として抽出して記憶し、
    前記全体画像から前記色見本とは異なる色の領域を抽出し、当該領域に対して把持を行うように前記把持機構部を制御することを特徴とする食事支援装置。
  2. 請求項1に記載の食事支援装置において、
    前記全体画像から食事が盛り付けられていない領域として予め定められた領域を抽出し、当該予め定められた領域において所定の割合以上を占める色を前記色見本とすることを特徴とする食事支援装置。
  3. 請求項1又は2に記載の食事支援装置において、
    所定のタイミングで前記色見本を更新することを特徴とする食事支援装置。
  4. 請求項1〜3のいずれか1つに記載の食事支援装置において、
    前記撮像部は食物が盛り付けられていない容器を撮像した画像を取得し、当該画像から前記容器の地色を前記色見本として抽出して記憶することを特徴とする食事支援装置。

JP2004180493A 2004-06-18 2004-06-18 食事支援装置 Pending JP2006000427A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004180493A JP2006000427A (ja) 2004-06-18 2004-06-18 食事支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004180493A JP2006000427A (ja) 2004-06-18 2004-06-18 食事支援装置

Publications (1)

Publication Number Publication Date
JP2006000427A true JP2006000427A (ja) 2006-01-05

Family

ID=35769317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004180493A Pending JP2006000427A (ja) 2004-06-18 2004-06-18 食事支援装置

Country Status (1)

Country Link
JP (1) JP2006000427A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008125696A (ja) * 2006-11-20 2008-06-05 Yamaguchi Univ 食事支援システム
JP2019217103A (ja) * 2018-06-21 2019-12-26 ノーリツプレシジョン株式会社 介助システム、介助方法及び介助プログラム
KR20220018339A (ko) * 2020-08-06 2022-02-15 광주과학기술원 식사 자세 보조 장치

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59114407A (ja) * 1982-12-21 1984-07-02 Fanuc Ltd 物体の面積測定方式
JPH0296642A (ja) * 1988-10-04 1990-04-09 Omron Tateisi Electron Co 外観判別装置
JPH1166305A (ja) * 1997-08-13 1999-03-09 Fuji Electric Co Ltd 2値化装置
JP2003062019A (ja) * 2001-08-30 2003-03-04 Secom Co Ltd 食事支援装置
JP3392450B2 (ja) * 1993-01-20 2003-03-31 出光石油化学株式会社 生成品の色調による選別移送装置
JP3436420B2 (ja) * 1994-07-29 2003-08-11 ブラザー工業株式会社 画像図形処理方法及び画像図形処理装置
JP2004081567A (ja) * 2002-08-27 2004-03-18 Secom Co Ltd 食事支援装置
JP2004121033A (ja) * 2002-09-30 2004-04-22 Hamamatsu Photonics Kk 植物体栽培装置および方法
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59114407A (ja) * 1982-12-21 1984-07-02 Fanuc Ltd 物体の面積測定方式
JPH0296642A (ja) * 1988-10-04 1990-04-09 Omron Tateisi Electron Co 外観判別装置
JP3392450B2 (ja) * 1993-01-20 2003-03-31 出光石油化学株式会社 生成品の色調による選別移送装置
JP3436420B2 (ja) * 1994-07-29 2003-08-11 ブラザー工業株式会社 画像図形処理方法及び画像図形処理装置
JPH1166305A (ja) * 1997-08-13 1999-03-09 Fuji Electric Co Ltd 2値化装置
JP2003062019A (ja) * 2001-08-30 2003-03-04 Secom Co Ltd 食事支援装置
JP2004081567A (ja) * 2002-08-27 2004-03-18 Secom Co Ltd 食事支援装置
JP2004121033A (ja) * 2002-09-30 2004-04-22 Hamamatsu Photonics Kk 植物体栽培装置および方法
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008125696A (ja) * 2006-11-20 2008-06-05 Yamaguchi Univ 食事支援システム
JP2019217103A (ja) * 2018-06-21 2019-12-26 ノーリツプレシジョン株式会社 介助システム、介助方法及び介助プログラム
KR20220018339A (ko) * 2020-08-06 2022-02-15 광주과학기술원 식사 자세 보조 장치
KR102373205B1 (ko) 2020-08-06 2022-03-14 광주과학기술원 식사 자세 보조 장치

Similar Documents

Publication Publication Date Title
US20230264348A1 (en) Display control device, display control method, computer program product, and communication system
US11030766B2 (en) Automated manipulation of transparent vessels
US20180211138A1 (en) Information processing device, information processing method, and storage medium
JP3768174B2 (ja) ワーク取出し装置
CN110456782B (zh) 控制装置和控制方法
CN103562821B (zh) 信息处理装置、信息处理方法和记录介质
JP2008246631A (ja) 対象物取出装置
JP2018027581A (ja) ピッキングシステム
JP5100525B2 (ja) 物品管理システム及び物品管理方法及び物品管理プログラム
JP2006000428A (ja) 食事支援装置
US20210052137A1 (en) Training data collection apparatus, training data collection method, program, training system, trained model, and endoscopic image processing apparatus
US20160005161A1 (en) Robot system
JP2006172439A (ja) 手操作を用いたデスクトップスキャン
JP2008526054A (ja) 画像の関心領域に向かって方向付けされる自動ナビゲーションの方法
JP2014178968A (ja) 情報処理装置およびその制御方法
JP2013145441A (ja) 物体識別装置
JP2006000427A (ja) 食事支援装置
CN105612555A (zh) 针对mdx的基于图像的roi追踪
EP3779076A1 (en) Water discharge control device, water discharge control system, and water discharge control method
EP1812906A1 (en) Screen edit apparatus, screen edit method, and screen edit program
JP2006350575A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
EP1662362A1 (en) Desk top scanning with hand gestures recognition
JP2018165973A (ja) 表示装置、表示方法及びプログラム
CN109612950B (zh) 一种冷冻畜肉储藏周期预测装置及方法
JP5796596B2 (ja) 支援方法、支援システム、制御装置、画像形成装置、および支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101116