JP2006000428A - Meal support apparatus - Google Patents
Meal support apparatus Download PDFInfo
- Publication number
- JP2006000428A JP2006000428A JP2004180494A JP2004180494A JP2006000428A JP 2006000428 A JP2006000428 A JP 2006000428A JP 2004180494 A JP2004180494 A JP 2004180494A JP 2004180494 A JP2004180494 A JP 2004180494A JP 2006000428 A JP2006000428 A JP 2006000428A
- Authority
- JP
- Japan
- Prior art keywords
- food
- gripping
- container
- image
- meal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、食物を利用者の口元に運ぶ食事支援装置に関する。 The present invention relates to a meal support apparatus for carrying food to a user's mouth.
上肢に障害をもつ利用者が食事をする際に、食物が盛り付けられた容器から利用者の口元まで食物を運んで食事の支援を行う食事支援装置が開発されている。 2. Description of the Related Art When a user with a disability in an upper limb eats, a meal support apparatus has been developed that supports food by transporting food from a container in which food is served to the user's mouth.
これまで、スプーンとフォークとからなる食物把持部が取り付けられたアームをジョイスティック等のコントローラを用いて利用者が顎等で操作して容器に盛り付けられた食物を把持し、利用者の口元まで運ぶ食事支援装置が開発されている。このような食事支援装置では、予め形状が定められた容器に食物を盛り付けておき、利用者がジョイスティックのレバーを傾けることによって食べたい食物の位置を指定して、その位置に盛り付けられた食物を食物把持部で把持して利用者の口元まで搬送させる。そして、搬送された食物に利用者の口が触れたことをセンサで感知し、食物を食事把持部から解放させて利用者に食物を提供する。また、利用者の口が食事把持部から離れると、アームによって食事把持部を待機位置まで移動させて次の食物の指定がなされるまで待機させる。 Up to now, the user has operated the arm with the food gripping part consisting of a spoon and fork using a joystick or the like with the chin, etc., to grip the food placed in the container and carry it to the user's mouth Meal support devices have been developed. In such a meal support device, food is placed in a container having a predetermined shape, the user designates the position of the food that he / she wants to eat by tilting the lever of the joystick, and the food placed at that position is placed. Hold it with the food gripping part and transport it to the user's mouth. Then, the sensor detects that the user's mouth has touched the conveyed food, and releases the food from the meal gripping portion to provide the user with the food. When the user's mouth is separated from the meal gripping portion, the meal gripping portion is moved to the standby position by the arm and waits until the next food is designated.
また、利用者からの食物の位置の指定を受けることなく、予め定められた手順に沿って容器の各位置に対して把持動作し、各位置に盛り付けられた食物を順に把持して、利用者の口元まで搬送する自動モードを備える食事支援装置も開発されている。 In addition, without receiving designation of the position of food from the user, the user performs gripping operation on each position of the container according to a predetermined procedure, and sequentially holds the food arranged at each position, A meal support device having an automatic mode for transporting to the mouth of a person has also been developed.
しかしながら、食物は容器に整然と盛り付けられるものではなく、食物が盛られた位置と食物が盛られていない位置とが混在した状態となっている。従って、容器の各位置に対して予め定められた順序に沿って把持を行わせると、食物が盛り付けられていない位置にも把持を試みることとなるため、利用者が円滑に食事を進めることができない問題があった。 However, the food is not neatly arranged in the container, and the position where the food is served and the position where the food is not served are mixed. Therefore, if gripping is performed according to a predetermined order with respect to each position of the container, it will try to grip the position where food is not served, so that the user can advance the meal smoothly. There was a problem that could not be done.
また、把持を試みた際に把持に失敗し、既に把持対象となった位置に食物がずれてしまった場合、予め定められた把持の順番が終了した後でなければ再試行を行うことができない。そのため、食事を円滑に行うことができなくなる問題も生じていた。 In addition, when gripping fails when gripping is attempted and food has shifted to a position that has already been gripped, a retry cannot be performed unless the predetermined gripping order is completed. . For this reason, there has been a problem that the meal cannot be smoothly performed.
本発明は、上記従来技術の問題を鑑み、実際に食物が盛り付けられた容器上の位置を検出することによって無駄な把持動作をなくし、利用者の食事をより円滑に進めることを可能とする食事支援装置を提供することを目的とする。 In view of the above-described problems of the prior art, the present invention eliminates useless gripping operations by detecting a position on a container on which food is actually arranged, thereby enabling a user's meal to proceed more smoothly. An object is to provide a support device.
本発明は、容器に盛り付けられた食物を把持して利用者の口元へ運ぶことによって、利用者の食事を支援する食事支援装置であって、食物を把持する把持機構部を備え、前記容器を複数の領域に分割し、前記複数の領域の各々について食物の把持が有効となる可能性を示す有効性の予測値を算出し、前記有効性の予測値に基づいて前記複数の領域から把持を行う把持位置を決定し、前記把持位置に対して把持を行うように前記把持機構部を制御することを特徴とする。 The present invention is a meal support device for supporting a user's meal by gripping food placed in a container and carrying it to a user's mouth, comprising a gripping mechanism for gripping food, Dividing into a plurality of regions, calculating a prediction value of effectiveness indicating the possibility of grasping food for each of the plurality of regions, and grasping from the plurality of regions based on the prediction value of effectiveness A gripping position to be performed is determined, and the gripping mechanism unit is controlled to grip the gripping position.
ここで、前記容器及び前記容器に盛り付けられた食物の画像を取得する撮像部を備え、前記画像から前記複数の領域の各々について食物の占有率を求め、少なくとも当該占有率に基づいて前記有効性の予測値を算出することが好適である。また、前記複数の領域の各々に対する把持の試行履歴を記憶し、前記把持の試行履歴に基づいて前記有効性の予測値を算出することも好適である。さらに、前記容器に盛り付けられた食物同士の相対的な位置関係を求め、前記把持機構部の構造に応じて、前記位置関係に基づいて前記有効性の予測値を算出することも好適である。 Here, the image processing apparatus includes an imaging unit that acquires an image of the container and the food arranged in the container, and obtains an occupancy rate of the food for each of the plurality of regions from the image, and the effectiveness based on at least the occupancy rate It is preferable to calculate the predicted value. It is also preferable to store a gripping trial history for each of the plurality of regions and calculate the predicted value of effectiveness based on the gripping trial history. Furthermore, it is also preferable to obtain a relative positional relationship between foods placed in the container and calculate the predicted value of effectiveness based on the positional relationship according to the structure of the gripping mechanism.
本発明によれば、食物が容器に不規則に盛り付けられている場合においても利用者は食事をより円滑に進めることができる。 ADVANTAGE OF THE INVENTION According to this invention, even when food is irregularly arranged in the container, the user can advance the meal more smoothly.
本発明の実施の形態における食事支援装置は、図1に示すように、本体部10、容器12、搬送部14、操作部16及び撮像部18を含んで構成される。図2に、本実施の形態における食事支援装置の機能ブロック図を示す。
As shown in FIG. 1, the meal support apparatus according to the embodiment of the present invention includes a
本体部10には、入力インターフェース(I/F)20、演算器22、記憶部24、入出力インターフェース(I/F)26、モード切替スイッチ28、報知手段30が組み込まれている。入力I/F20は、操作部16及びモード切替スイッチ28と情報伝達可能に接続されており、操作部16及びモード切替スイッチ28からの指示信号又はモード信号を受けて、信号フォーマットの変換等の前処理を行ったうえで演算器22に受け渡す。演算器22は、記憶部24に格納されている制御プログラムを実行することによって食事支援装置全般の制御を行う。演算器22で行われる制御については後述する。記憶部24は、演算器22で実行される制御プログラム及び制御に利用される各種データを格納及び保持する。記憶部24に格納されているプログラム又はデータは演算器22によって適宜読み出されて使用することができる。入出力I/F26は、撮像部18及び搬送部14からの信号を受けて、演算器22に受け渡す。モード切替スイッチ28は、食事支援装置に備わる手動モード、半自動モード及び自動モードのうちいずれか1つを選択するためスイッチである。モード切替スイッチ28で選択されたモードは、モード信号として入力I/F20を介して演算器22へ入力される。報知手段30は、例えば、ランプやブザーなどを含んで構成され、食事支援装置に異常が発生した場合に演算器22からの信号を受けて、利用者や利用者を介護する介護者等に異常を報知するために用いられる。
The
容器12は食事を盛り付けるために用いられる。容器12は、複数の分割領域に区画される。本実施の形態では、図1に示すように、4つの分割領域12a〜12dに区画されているものとして説明を行うが、これに限定されるものではなく、必要に応じて適宜分割数を増減させても良い。また、容器12の地色は、4つの分割領域12a〜12dにおいて同色とする。なお、容器12の地色は単色であるのが好ましい。また、食事を行う際には、容器12は食事支援装置の本体部10に設けられた突き当て部32にセットされる。これによって、搬送部14及び撮像部18との空間的な相対位置が常に一定に維持され、把持動作や撮像を一定の位置関係で行うことが可能となる。
The
搬送部14は、搬送機構部34及び把持機構部36を含んで構成される。搬送機構部34は、把持機構部36を移動させるためのアームから構成される。搬送機構部34は、図1の例に示すように、4軸の回転駆動部34eによって接続されたアーム34a〜34dから構成することが好適である。搬送機構部34は、入出力I/F26を介して演算器22からの制御信号を受け、アーム34a〜34dをモータ等の駆動部を駆動させることによって把持機構部36を容器12の領域や利用者の口元に運ぶ。把持機構部36は、食物を把持するための把持部材38を含んで構成される。把持部材38は、図1の例に示すように、フォークとスプーンの組み合わせで構成することが好適である。また、把持機構部36は、図2に示すように、駆動部36a、接触検出部36b、把持検出部36c及び後退位置検出部36dを含んで構成される。駆動部36aは、入出力I/F26を介して演算器22から制御信号を受けて把持部材38のフォークとスプーンを駆動する。制御信号に基づいて、容器12の食物の位置まで把持部材38を移動させると、フォークを上に設け、スプーンを下に設けることによって食物をすくうようにして把持する。このとき、感圧センサ等で構成される接触検出部36bによって把持部材38に食物が接触したことを検知すると、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、食物を把持させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けて、フォークとスプーンとを駆動して食物を挟み込むようにして把持する。さらに、角度センサ等で構成される把持検出部36cによって食物が把持されたことを検知し、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、把持部材38を利用者の口元まで移動させる制御信号を搬送機構部34に送信する。搬送機構部34は、制御信号を受けて、把持部材38を利用者の口元まで搬送する。利用者が口元まで運ばれた把持部材38に口を接触させると、接触検出部36bにおいて接触が検知され、検知信号が演算器22へ送信される。演算器22は、把持部材38が口元位置にあり、利用者の口の接触を示す検知信号を受けると、フォークを後退させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けると、フォークを後退させることでスプーンとフォークをずらす。このとき、位置センサ等で構成される後退位置検出部36dにおいてフォークの後退位置を検出し、所定の位置までフォークが後退したことを検知し、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、フォークの後退を停止させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けて、フォークの後退を停止させる。このような動作により、利用者へ食物を食べやすい状態で提供する。但し、把持部材38はフォークとスプーンに限定されるものではない。
The
操作部16は、利用者が搬送部14の動きを指定するために用いるものであり、ここではレバー40を備えるジョイスティックとしている。利用者がレバー40を倒すと、操作部16に内蔵されたセンサでその方向が感知され、方向を示す指示信号として本体部10の入力I/F20へ送信される。レバー40の操作方向としては、図1に示すように、例えば奥A、右B、手前C、左Dの4方向とする。また、レバー40を押し込むことによってスイッチがオンされる構造となっており、利用者に意思決定を求めた場合にレバー40が押し込まれると決定の意思を示す信号が本体部10の入出力I/F26へ送信される。レバー40は、上肢に障害がある利用者が顎等で操作し易い形状とすることが好ましい。なお、操作部16はジョイスティックに限定されるものではなく、利用者の頭部に装着されるレーザポインタ等を用いても良い。
The
撮像部18は、カメラ42及び入出力インターフェース(I/F)44を含んで構成される。カメラ42は、被写体の色を認識できるカラーカメラであり、例えば、カラーのCCD撮像素子とすることができる。カメラ42は、固定用の器具を用いて容器12に対して所定の相対位置となるように固定され、容器12の全体像を上方から撮像できる位置に設置される。撮像部18は、入出力I/F26及び入出力I/F44を介して演算器22からの撮像を指示する制御信号を受けると、カメラ42によって容器12及びそこに盛り付けられた食物の画像を撮像する。撮像された画像データは、入出力I/F44及び入出力I/F26を介して、演算器22に送信される。
The
次に、本実施の形態における食事支援装置の制御について説明する。食事支援装置は、図3に示すフローチャートに沿って制御される。フローチャートの各工程は、記憶部24に保持されているコンピュータで実行可能な制御プログラムを演算器22において実行することによって行われる。以下の処理は、容器12に食物が盛り付けられ、食事支援装置の本体部10の突き当て部32に容器12がセットされている状態で行われる。
Next, control of the meal support apparatus in the present embodiment will be described. The meal support apparatus is controlled according to the flowchart shown in FIG. Each step of the flowchart is performed by executing in the computing unit 22 a control program that can be executed by the computer and stored in the
ステップS10では、初期設定の処理が行われる。食事支援装置の主電源がオンされると副電源がオンされるのを待つ。本実施の形態では、操作部16のレバー40が副電源を兼ねており、レバー40がいずれかの方向に操作されることによって副電源がオンされる。主電源及び副電源がオンされると、演算器22は装置全体の初期設定処理を行う。初期設定処理では、搬送機構部34及び把持機構部36を試動作させて、動作範囲の各位置の初期認識を行う。また、把持動作回数を記録する把持カウンタG(m,n)の各要素を0に設定する。把持カウンタG(m,n)については後述する。
In step S10, an initial setting process is performed. When the main power source of the meal support apparatus is turned on, the process waits for the sub power source to be turned on. In the present embodiment, the
ステップS12では、口元位置の調整処理が行われる。利用者又はその付添い人は、操作部16のレバー40を操作することによって搬送機構部34及び把持機構部36を操作し、利用者が食物を摂取し易い位置である口元位置に把持部材38を移動させる。把持部材38が丁度良い位置に来たところでレバー40を押し込むことによって制御信号が演算器22へ送信され、その位置が口元位置として設定される。
In step S12, the mouth position adjustment process is performed. The user or his / her attendant operates the
ステップS14では、搬送機構部34及び把持機構部36が待機位置へ移動される。待機位置は、搬送機構部34のアーム34a〜34bが折り畳まれ、把持機構部36の把持部材38が利用者側を向いている状態として予め設定された位置である。
In step S14, the
ステップS16では、容器12の分割領域の選択が行われる。演算器22は、モード切替スイッチ28の設定状態を確認する。操作モードが手動モード又は半自動モードに設定されている場合、利用者が操作部16のレバー40を倒すことによって分割領域12a〜12dのいずれか1つが選択される。例えば、レバー40の傾倒方向が奥A、右B、手前C又は左Dに倒された場合に分割領域12a,12b,12c又は12dがそれぞれ選択されるように設定しておくことが好適である。また、操作モードが自動モードに設定されている場合、利用者が操作部16のレバー40を奥Aに倒すことによって動作開始の指示を行う。すなわち、自動モードにおいては、後の把持対象となる食物の決定処理に基づいて分割領域の選択が行われるため、この時点では動作開始の指示を行うだけで良いからである。
In step S16, the division area of the
ステップS18では、分割領域の選択が行われたか否かが判断される。分割領域の選択又は動作開始の指示が行われていない場合にはステップS16に処理を戻して選択又は指示が行われるまで待機する。分割領域の選択又は動作開始の指示が行われた場合にはステップS20に処理を移行させる。また、このステップにおいて、利用者が食事を終了したい場合には食事支援装置を停止させることもできる。 In step S18, it is determined whether or not a divided area has been selected. If an instruction to select a divided area or start an operation has not been given, the process returns to step S16 to wait until a selection or instruction is given. If an instruction to select a divided area or start an operation is given, the process proceeds to step S20. In this step, if the user wants to end the meal, the meal support apparatus can be stopped.
ステップS20では、操作モードが手動モードであるか否かが判定される。演算器22は、モード切替スイッチ28が手動モードに設定されていればステップS26に処理を移行させ、自動モード又は半自動モードに設定されていればステップS22に処理を移行させる。
In step S20, it is determined whether or not the operation mode is a manual mode. The
ステップS22では、容器12及び容器12に盛り付けられた食物の画像を取得し、その画像データに基づいて把持位置を決定する。把持位置は、容器12の分割領域12a〜12d内をさらに細かく区分けした配膳位置のいずれか1つに決定される。本実施の形態では、図4に示すように、各分割領域12a〜12dをそれぞれ9つの配膳位置(m,n)(mは各分割領域を示す1〜4の整数,nは各分割領域における配膳位置を示す1〜9の整数)に分割し、いずれかの位置を把持位置として決定する。図4では、分割領域12aを9つの配膳位置に分割した例を示している。なお、ステップS22はサブルーチン化されており、図5に示すフローチャートに沿って処理される。
In step S <b> 22, the
以下に、操作モードが、自動モード又は半自動モードの場合における把持位置決定の処理を説明する。ステップS22−1では、容器12及び容器12に盛り付けられた食物を含む全体画像IM1が取得される。演算器22は、撮像部18へ撮像信号を送信する。撮像部18は、撮像信号を受信すると、図6に示すように、容器12の上方に設置されたカメラ42により容器12及び容器12に盛り付けられた食物を含むカラー画像を撮像し、全体画像IM1として演算器22へ送信する。図6では、便宜上、異なる色を異なるハッチングで示している。
Hereinafter, a gripping position determination process when the operation mode is the automatic mode or the semi-automatic mode will be described. In step S22-1, the entire image IM1 including the
ステップS22−2では、色見本画像IM2が抽出される。色見本画像IM2は、容器12の中から食物が盛り付けられていない分割領域、すなわち容器12の地色が全面的に露出している分割領域の画像である。図6を例とすると、全体画像IM1のうち分割領域12cの位置を予め設定しておく。そして、容器12の分割領域12cには食物を盛り付けず、容器12の地色が露出された状態としておくことによって、全体画像IM1から予め設定された分割領域12cを切り出して色見本画像IM2とすることができる。このように、全体画像IM1の一部を色見本画像IM2として抽出することは、容器12の色むらや汚れ、影の影響等、実際の状況を取り込んで実環境に即した画像処理を行うことができる点で利点がある。
In step S22-2, the color sample image IM2 is extracted. The color sample image IM2 is an image of a divided region where food is not arranged from the
ステップS22−3では、色見本画像IM2から色見本が抽出される。演算器22では、色見本画像IM2を構成する全画素について、各画素の色相hと彩度sを算出する。本実施の形態では、色相h及び彩度sはいずれも256階調で表現されるものとして処理を行っている。そして、色見本画像IM2において色相hと彩度sの組み合わせ毎にその出現頻度C(h,s)を求める。出現頻度C(h,s)の初期値は0とする。例えば、色相h=120及び彩度s=80の画素が存在していた場合、C(120,80)の値を1だけ増加させる。そして、色見本画像IM2の全画素について出現頻度C(h,s)を調べた後に、出現頻度C(h,s)が所定の閾値以上であれば色見本D(h,s)を1に設定し、出現頻度C(h,s)が所定の閾値より小さければ色見本行列D(h,s)を0に設定する。これにより、色相hと彩度sとの組み合わせ毎に0又は1の値を有する色見本行列D(h,s)を得ることができる。色見本行列D(h,s)の値が1である色相h及び彩度sの組み合わせは容器12の地色であると判断し、色見本行列D(h,s)の値が0である色相h及び彩度sの組み合わせは容器12の地色ではないと判断することができる。
In step S22-3, a color sample is extracted from the color sample image IM2. The
なお、色見本の抽出方法は上記の処理に限定されるものではない。例えば、食事が盛り付けられる前の容器12の全体又は分割領域12a〜12dを撮像し、その画像データを構成する画素群のうち出現頻度が高い色を色見本として取得する方法がある。この場合、容器12の地色は分割領域毎に異ならせることもでき、食物の種類に応じて盛り付けする分割領域を選択することでより食物を認識し易くすることができる。また、図4に示した分割領域12a〜12dを区画する境界部12eをエッジ抽出処理や予め設定された領域として抽出し、その境界部12eの色を色見本として取得する方法がある。この場合、境界部12eの色は容器12の分割領域12a〜12dにおける地色と同じとする。さらに、容器12に盛られた食物を把持して取り除いた後に、その配膳位置の色から色見本を取得する方法もある。
Note that the color sample extraction method is not limited to the above processing. For example, there is a method of capturing an image of the
色見本となる容器12の地色は、食物には無い色であることが好ましいが、食物と完全に同一でなければ問題はない。また、容器12の地色は、単色であっても複数色で構成されていても、色見本を抽出する領域と食物が盛り付けられている領域とで使用されている色の比率が同じであればよい。
The ground color of the
また、本実施の形態では、ステップS18で分割領域の選択又は動作開始の指示がなされる度に色見本画像IM2及び色見本行列D(h,s)を求める処理を行い、色見本を更新している。これにより、食事を進めている最中に容器12への光の照射の加減による画像上の色の変化の影響に対応することが可能となる。但し、更新のタイミングはこれに限定されるものではなく、ステップS18で分割領域の選択又は動作開始の指示が所定回数実行される毎に更新を行っても良い。また、把持機構部36が待機位置に移動されたタイミングで更新を行っても良い。また、食事をする環境の変化が殆どない場合には、食事支援装置の電源が投入された際に、一回の食事に対して一度だけ色見本画像IM2及び色見本行列D(h,s)を求める処理を行っても良い。
Further, in this embodiment, every time an instruction to select a divided area or start an operation is given in step S18, the color sample image IM2 and the color sample matrix D (h, s) are obtained, and the color sample is updated. ing. As a result, it is possible to cope with the influence of the color change on the image due to the light irradiation to the
また、本実施の形態では、HSB方式で表現される色の属性である色相・彩度・明度のうち、色相と彩度を利用している。色の表現方法はこれに限られるものではないが、照明等により食事をする環境が変化すると、明度は大きく影響を受ける。本実施の形態では、このような不都合を排除するために、色相と彩度によって色を表現する方法を採用したものである。 In the present embodiment, hue and saturation are used among hue, saturation, and brightness, which are attributes of colors expressed in the HSB method. The color expression method is not limited to this, but the lightness is greatly affected when the eating environment changes due to lighting or the like. In the present embodiment, in order to eliminate such inconvenience, a method of expressing a color by hue and saturation is adopted.
ステップS22−4では、操作モードの判定が行われる。演算器22は、モード切替スイッチ28が半自動モードに設定されていればステップS22−5に処理を移行させ、モード切替スイッチ28が自動モードに設定されていればステップS22−8に処理を移行させる。
In step S22-4, the operation mode is determined. The
まず、操作モードが半自動モードに設定されている場合の処理をS22−5からS22−7にて説明する。ステップS22−5では、部分画像IM3が取得される。操作モードが手動モード又は半自動モードに設定されている場合、ステップS18において分割領域12a〜12dのいずれか1つの領域が選択されているはずであるので、図7に示すように、全体画像IM1から選択された分割領域の画像を部分画像IM3として切り出す。本実施の形態では、部分画像IM3は縦256画素×横256画素の画像として抽出されたものとして説明する。なお、図7では、便宜上異なる色を異なるハッチングで示している。
First, the processing when the operation mode is set to the semi-automatic mode will be described from S22-5 to S22-7. In step S22-5, partial image IM3 is acquired. When the operation mode is set to the manual mode or the semi-automatic mode, any one of the divided
ステップS22−6では、部分画像IM3を2値化した2値画像IM4を生成する。まず、部分画像IM3を構成する各画素に対応する縦256画素×横256画素の2値画像IM4の各画素の画素値を0に初期化する。次いで、部分画像IM3を構成する画素の中から選択した注目画素の色相h及び彩度sを各256階調で求める。そして、注目画素の色相h及び彩度sに対応する色見本行列D(h,s)の値が1であるか否かを調べる。色相h及び彩度sに対応する色見本行列D(h,s)の値が1であった場合には注目画素に対応する2値画像IM4の画素値は1に変更し、色相h及び彩度sに対応する色見本行列D(h,s)の値が0であった場合には注目画素に対応する2値画像IM4の画素値は0に維持する。食物が盛り付けられた分割領域の地色は、色見本で表される色であるので、各画素について色見本に含まれた色であるか否かを調べることにより容器の地色を表している画素か食物を表している画素かを大別できる。 In step S22-6, a binary image IM4 obtained by binarizing the partial image IM3 is generated. First, the pixel value of each pixel of the binary image IM4 of 256 pixels × 256 pixels corresponding to each pixel constituting the partial image IM3 is initialized to zero. Next, the hue h and saturation s of the target pixel selected from the pixels constituting the partial image IM3 are obtained with 256 gradations. Then, it is checked whether or not the value of the color sample matrix D (h, s) corresponding to the hue h and saturation s of the target pixel is 1. When the value of the color sample matrix D (h, s) corresponding to the hue h and the saturation s is 1, the pixel value of the binary image IM4 corresponding to the target pixel is changed to 1, and the hue h and the saturation are changed. When the value of the color sample matrix D (h, s) corresponding to the degree s is 0, the pixel value of the binary image IM4 corresponding to the target pixel is maintained at 0. Since the ground color of the divided area where food is arranged is a color represented by a color sample, the ground color of the container is represented by examining whether or not each pixel is a color included in the color sample. It can be broadly classified as a pixel or a pixel representing food.
例えば、部分領域34aの部分画像IM3における画素(縦50,横50)の色相が120及び彩度が80であった場合、色見本行列D(120,80)が1であった場合には2値画像IM4の画素(縦50,横50)を1に設定する。
For example, when the hue of the pixel (vertical 50, horizontal 50) is 120 and the saturation is 80 in the partial image IM3 of the
部分画像IM3の全画素について注目画素として順次選択し、上記処理を行うことによって、2値画像IM4を生成することができる。すなわち、2値画像の画素値が0である画素は部分画像IM4の対応する画素が容器の地色とは異なる色であることを示し、2値画像の画素値が1である画素は部分画像IM4の対応する画素が容器の地色と等しい色であることを示している。 By sequentially selecting all the pixels of the partial image IM3 as the target pixel and performing the above-described processing, the binary image IM4 can be generated. That is, a pixel having a pixel value of 0 in the binary image indicates that the corresponding pixel in the partial image IM4 is a color different from the ground color of the container, and a pixel having a pixel value of 1 in the binary image is a partial image. It shows that the corresponding pixel of IM4 is the same color as the background color of the container.
ステップS22−7では、ノイズ処理等の後処理が行われる。例えば、2値画像IM4に対して縮小拡大処理及び面積処理を実施することが好適である。 In step S22-7, post-processing such as noise processing is performed. For example, it is preferable to perform reduction / enlargement processing and area processing on the binary image IM4.
次に、自動モードに設定されている場合の処理をS22−8からS22−11にて説明する。ステップS22−8では、部分画像IM3が取得される。操作モードが自動モードに設定されている場合、ステップS18において分割領域12a〜12dの選択が行われていないので、全体画像IM1から各分割領域の画像をそれぞれ部分画像IM3として切り出す。本実施の形態では、食物が盛り付けられている分割領域12a,12b及び12dについて部分画像IM3a,IM3b,IM3dが各々縦256画素×横256画素の画像として抽出される。
Next, the processing when the automatic mode is set will be described from S22-8 to S22-11. In step S22-8, the partial image IM3 is acquired. When the operation mode is set to the automatic mode, since the divided
ステップS22−9では、部分画像IM3を2値化した2値画像IM4を生成する。まず、上記ステップS22−6と同様に、部分画像IM3aを構成する各画素に対応する縦256画素×横256画素の2値画像IM4aの各画素の画素値を0に初期化する。次いで、部分画像IM3aを構成する画素の中から選択した注目画素の色相h及び彩度sを各256階調で求める。そして、注目画素の色相h及び彩度sに対応する色見本行列D(h,s)の値が1であるか否かを調べる。色相h及び彩度sに対応する色見本行列D(h,s)の値が1であった場合には注目画素に対応する2値画像IM4の画素値は1に変更し、色相h及び彩度sに対応する色見本行列D(h,s)の値が0であった場合には注目画素に対応する2値画像IM4aの画素値は0に維持する。 In step S22-9, a binary image IM4 obtained by binarizing the partial image IM3 is generated. First, similarly to step S22-6, the pixel value of each pixel of the binary image IM4a of 256 pixels × 256 pixels corresponding to each pixel constituting the partial image IM3a is initialized to zero. Next, the hue h and saturation s of the target pixel selected from the pixels constituting the partial image IM3a are obtained with 256 gradations. Then, it is checked whether or not the value of the color sample matrix D (h, s) corresponding to the hue h and saturation s of the target pixel is 1. When the value of the color sample matrix D (h, s) corresponding to the hue h and the saturation s is 1, the pixel value of the binary image IM4 corresponding to the target pixel is changed to 1, and the hue h and the saturation are changed. When the value of the color sample matrix D (h, s) corresponding to the degree s is 0, the pixel value of the binary image IM4a corresponding to the target pixel is maintained at 0.
部分画像IM3aの全画素について注目画素として順次選択し、上記処理を行うことによって2値画像IM4aを生成することができる。同様に、部分画像IM3b及びIM3dについても2値画像IM4b及びIM4dを各々生成する。このように、部分画像IM3の各画素について色見本にある色であるのか否かを求めることで、色見本にない色情報を持つ画素の集まりを食物として認識することかできる。 The binary image IM4a can be generated by sequentially selecting all the pixels of the partial image IM3a as the target pixel and performing the above processing. Similarly, binary images IM4b and IM4d are generated for the partial images IM3b and IM3d, respectively. In this way, by determining whether or not each pixel of the partial image IM3 is a color in the color sample, a group of pixels having color information not in the color sample can be recognized as food.
ステップS22−10では、ノイズ処理等の後処理が行われる。例えば、2値画像IM4に対して縮小拡大処理及び面積処理を実施することが好適である。 In step S22-10, post-processing such as noise processing is performed. For example, it is preferable to perform reduction / enlargement processing and area processing on the binary image IM4.
ステップS22−11では、各2値画像の中から1つを代表の2値画像IM4として選択する。部分画像IM3a,IM3b及びIM3dに対応する2値画像IM4a,IM4b及びIM4dを構成する全画素について画素値が0である頻度を調査し、最も頻度が高い画像を代表の2値画像IM4として選択する。すなわち、容器の地色と異なる色を有する画素が最も多い画像を代表の2値画像とする。 In step S22-11, one of the binary images is selected as a representative binary image IM4. The frequency with which the pixel value is 0 is investigated for all the pixels constituting the binary images IM4a, IM4b, and IM4d corresponding to the partial images IM3a, IM3b, and IM3d, and the image with the highest frequency is selected as the representative binary image IM4. . That is, an image having the largest number of pixels having a color different from the ground color of the container is set as a representative binary image.
ステップS22−5〜S22−7、又は、ステップS22−8〜S22−11の処理の後、ステップS22−12に処理を移行させる。ステップS22−12では、把持機構部36を移動させる把持位置を決定する。演算器22は、取得された2値画像IM4の配膳位置毎に把持動作の有効性の予測値F(m,n)を算出する。ここで、mは分割領域の位置を示し、例えば、分割領域12a,12b,12c,12dに対して1,2,3,4をそれぞれ対応付けられている。nは配膳位置の位置を示す。本実施の形態では、図4に示したように、分割領域12a〜12dはそれぞれ9つの配膳位置に分割されており、左上、中央上、右上、左中央・・・と順に1〜9の整数で表す。有効性の予測値F(m,n)は、次に示すパラメータP1(m,n),P2(m,n),P3(m,n)及びP4(m,n)を算出することによって決定される。そして、この予測値F(m,n)の値が大きい配膳位置(m,n)に対して把持動作を試みることで、確実に食物を把持することができる。
After the processing of steps S22-5 to S22-7 or steps S22-8 to S22-11, the processing is shifted to step S22-12. In step S22-12, a gripping position for moving the
まず、2値画像IM4から各配膳位置に対応する配膳位置画像IM5が切り出される。本実施の形態では、図8に示すように、9つの配膳位置(m,n)に対応した9つの配膳位置画像IM5−1〜IM5−9が抽出される。 First, a layout position image IM5 corresponding to each layout position is cut out from the binary image IM4. In the present embodiment, as shown in FIG. 8, nine arrangement position images IM5-1 to IM5-9 corresponding to nine arrangement positions (m, n) are extracted.
パラメータP1(m,n)は、各配膳位置画像IM5−1〜IM5−9を構成する画素の画素値が0である割合を百分率で表した値とする。つまり、各配膳位置の中で食物らしい画素が占める割合である。例えば、配膳位置(1,1)に対応する配膳位置画像IM5−1において、全画素数7225に対して画素値が0である画素の数が3000であったとするとパラメータP1(1,1)=0.415となる。パラメータP1(m,n)は、配膳位置(m,n)に食物があるであろう確度の予測値を示す。このP1(m,n)が大きい値である程、配膳位置(m,n)に食物が存在する可能性が高いため、把持動作の有効性の予測値F(m,n)が大きい値となるようにする。 The parameter P1 (m, n) is a value representing the percentage of the pixel values of the pixels constituting the arrangement position images IM5-1 to IM5-9 as a percentage. That is, it is the proportion of food-like pixels in each serving position. For example, in the layout position image IM5-1 corresponding to the layout position (1, 1), if the number of pixels having a pixel value of 0 with respect to the total number of pixels 7225 is 3000, the parameter P1 (1, 1) = 0.415. The parameter P1 (m, n) indicates a predicted value of the probability that there will be food at the serving position (m, n). The greater the value of P1 (m, n), the higher the possibility that food is present at the serving position (m, n). Therefore, the predicted value F (m, n) for the effectiveness of the gripping action is larger. To be.
パラメータP2(m,n)は、P1(m,n)が予め定められた閾値以上であるか否かによって決定される。P1(m,n)が閾値以上であった場合にはP2(m,n)は1に設定され、P1(m,n)が閾値より小さい場合にはP2(m,n)は0に設定される。パラメータP2(m,n)は、配膳位置(m,n)に食物があるであろう確度の予測値を2値化したものである。このP2(m,n)が1に設定された配膳位置(m,n)について把持動作の有効性の予測値F(m,n)が大きい値となるようにする。 The parameter P2 (m, n) is determined by whether or not P1 (m, n) is equal to or greater than a predetermined threshold value. P2 (m, n) is set to 1 when P1 (m, n) is equal to or greater than the threshold, and P2 (m, n) is set to 0 when P1 (m, n) is smaller than the threshold. Is done. The parameter P2 (m, n) is a binarized prediction value of the probability that there will be food at the serving position (m, n). The predicted value F (m, n) of the effectiveness of the gripping operation is set to a large value for the layout position (m, n) in which P2 (m, n) is set to 1.
パラメータP3(m,n)は、把持カウンタG(m,n)と等しい値とする。把持カウンタG(m,n)の更新処理については後述する。パラメータP3(m,n)は、配膳位置(m,n)に対して既に把持が試みられた回数(把持の試行履歴)を示す。 The parameter P3 (m, n) is set to a value equal to the grip counter G (m, n). The update process of the grip counter G (m, n) will be described later. The parameter P3 (m, n) indicates the number of times gripping has already been attempted for the layout position (m, n) (grip trial history).
パラメータP4(m,n)は、nが2,3,5,6,8,9の場合に左隣の配膳位置のパラメータP2(m,n−1)の値が1であれば0に設定され、左隣の配膳位置のパラメータP2(m,n−1)の値が0であれば1に設定される。また、nが1,4,7の場合は、左隣に配膳位置がないのでP4(m,n)=1に設定される。パラメータP4(m,n)は、把持機構部36によって食物を把持する際に邪魔になる食物が周囲に存在するか否かを示す。すなわち、本実施の形態では、把持部材38が把持対象となる食物の左から一定距離だけ離れた位置に移動され、そこに垂直に把持部材38が下ろされ、そこから把持対象となる食物の左縁まで平行移動させるように把持部材38を動かした上で、把持部材38のフォークとスプーンで挟み込むようにして食物を把持する。つまり、把持位置の少し左側からスプーンで食物をすくい集め、その上でフォークを挟むことによって食物を把持する。従って、把持したい食物の左側の配膳位置に別の食物が盛り付けられている場合にはその食物も把持してしまう可能性があり、把持する食物の量が意図する量よりも多くなってしまったり、把持した食物を口元まで運ぶ際にこぼしてしまったりする可能性が高くなる。そこで、注目した配膳位置(m,n)の左隣の配膳位置(m,n−1)に食物が存在する可能性が高い場合にはパラメータP4(m,n)を0として把持が困難であるとし、注目した配膳位置(m,n)の左隣の配膳位置(m,n−1)に食物が存在する可能性が低い場合にはパラメータP4(m,n)を1として把持が容易であるとする。
The parameter P4 (m, n) is set to 0 if the value of the parameter P2 (m, n-1) at the left adjacent layout position is 1 when n is 2, 3, 5, 6, 8, 9 If the value of the parameter P2 (m, n-1) at the left adjacent layout position is 0, it is set to 1. When n is 1, 4, or 7, there is no arrangement position on the left side, so P4 (m, n) = 1 is set. The parameter P4 (m, n) indicates whether or not there is food in the vicinity that is obstructed when food is gripped by the gripping
従って、パラメータP4(m,n)は、把持機構部36の把持部材38がいずれの方向から食物を把持する構造となっているのかによって設定方法を変更することが好適である。例えば、把持部材38が手前から奥へ向かって食物を把持する構造となっている場合には、注目する配膳位置(m,n)の手前の配膳位置(m,n+3)のパラメータP2(m,n+3)の値が1であればパラメータP4(m,n)を0に設定し、注目する配膳位置(m,n)の手前の配膳位置(m,n+3)のパラメータP2(m,n+3)の値が0であればパラメータP4(m,n)を1に設定する。
Therefore, it is preferable to change the setting method of the parameter P4 (m, n) depending on which direction the gripping
このように算出されたパラメータP1(m,n),P2(m,n),P3(m,n),P4(m,n)を用いて数式(1)に基づいて有効性の予測値F(m,n)を算出する。ここで、P5は所定の定数である。
例えば、P2(m,n)を決める閾値が0.40であった場合、P1(m,1)=0.39及びP1(m,2)=0.41であったとすると、P1(m,1)+P2(m,1)=0.39となり、P1(m,2)+P2(m,2)=1.41となる。このように、P1(m,n)に大きな差がない場合にも、閾値以上である場合には有効性の予測値F(m,n)が高くなり、他のパラメータの影響を受け難くなる。 For example, if the threshold for determining P2 (m, n) is 0.40, and P1 (m, 1) = 0.39 and P1 (m, 2) = 0.41, then P1 (m, n) 1) + P2 (m, 1) = 0.39, and P1 (m, 2) + P2 (m, 2) = 1.41. As described above, even when there is no large difference in P1 (m, n), if it is equal to or greater than the threshold value, the effectiveness prediction value F (m, n) becomes high and is not easily influenced by other parameters. .
また、数式(1)における第1項の分母1+P3(m,n)は、これまでの把持動作の履歴により決定される。すなわち、配膳位置(m,n)に対して過去に把持動作が行われた回数が多いほど有効性の予測値F(m,n)を低くする。照明の反射や、調味料、容器の汚れ等により、実際には食物が無いにも拘らず、P1(m,n)の値が大きくなることがある。P3(m,n)は、そのような配膳位置(m,n)に対して繰り返し把持動作することを防ぐためのものである。 Further, the denominator 1 + P3 (m, n) of the first term in the formula (1) is determined by the history of the gripping operation so far. That is, the effectiveness prediction value F (m, n) is lowered as the number of gripping operations performed in the past with respect to the layout position (m, n) increases. The value of P1 (m, n) may become large due to reflection of illumination, seasonings, container dirt, etc., even though there is actually no food. P3 (m, n) is for preventing repeated gripping operations with respect to such an arrangement position (m, n).
また、数式(1)における第2項のP4(m,n)×P5は、把持動作の邪魔となる食物が存在しない配膳位置を優先することを示している。P5はP4(m,n)をF(m,n)にどれだけ重くするかを決める係数であり、把持機構部36の構造に応じて適宜に定められる値である。
In addition, P4 (m, n) × P5 in the second term in Expression (1) indicates that priority is given to the serving position where there is no food that obstructs the gripping operation. P5 is a coefficient that determines how much heavier P4 (m, n) is set to F (m, n), and is a value appropriately determined according to the structure of the
各配膳位置画像IM5−1〜IM5−9に対して有効性の予測値F(m,n)を各々算出する。そして、有効性の予測値F(m,n)が最も高い配膳位置を把持位置として決定する。把持位置は、有効性の予測値F(m,n)が最も高い配膳位置の左脇に設定する。ステップS22−12にて把持位置が決定されるとメインルーチンのステップS22に処理を戻す。 Effectiveness prediction values F (m, n) are respectively calculated for the layout position images IM5-1 to IM5-9. Then, the layout position having the highest effectiveness prediction value F (m, n) is determined as the gripping position. The gripping position is set on the left side of the layout position with the highest effectiveness prediction value F (m, n). When the gripping position is determined in step S22-12, the process returns to step S22 of the main routine.
このように、F(m,n)は画像処理によって解析された食物の位置を、把持動作の過去の履歴や他の食物との位置関係によって補正した値であるといえる。これによって、複数回の把持動作を行う場合に、画像に写った光などの反射や影の影響を低減することができる。 Thus, it can be said that F (m, n) is a value obtained by correcting the position of the food analyzed by the image processing based on the past history of the gripping operation and the positional relationship with other food. This can reduce the influence of reflections and shadows of light or the like in the image when a plurality of gripping operations are performed.
以上のようにして把持位置が決定されると、次いでステップS24の処理へ移行する。ステップS24では、決定された把持位置に対して把持部材38を自動で移動させる。
When the gripping position is determined as described above, the process proceeds to step S24. In step S24, the gripping
また、ステップS20にて操作モードが手動モードと判定された場合にはステップS26の処理に移行させる。ステップS26では、操作部16が操作されたか否かが判定される。このときの操作は、手動モードにおいて行われる利用者による食物の選択操作であって、操作部16の操作によって、先に選択された分割領域内において利用者が食べたいとする食物の位置に把持部材38の位置を合わせる操作を意味する。把持食物の選択入力が行われた場合にはステップS28に処理を移行させる。操作部16の操作が行われず、所定の時間が経過した場合にはステップS30に処理を移行させる。
If it is determined in step S20 that the operation mode is the manual mode, the process proceeds to step S26. In step S26, it is determined whether or not the
ステップS28では、操作部16の操作に基づいて把持部材38を容器12上で移動させる。利用者が操作部16のレバー40を奥A、右B、手前C、左Dのいずれかの方向に傾けることによって、レバー40の操作方向に対応する方向に把持部材38を移動させる。移動が終了するとステップS26に戻って更なる操作を待機する。
In step S <b> 28, the gripping
ステップS30では、実際に食物の把持が行われる。手動、半自動又は自動で把持対象の食物の左脇に移動させられた把持部材38が下降させられ、そこから把持対象となる食物の左縁まで平行移動させるように把持部材38を動かした上で、把持部材38のフォークとスプーンで挟み込むようにして食物を把持する。そして、食物を把持した状態で配膳位置から離れるように把持部材38を上昇させる。
In step S30, food is actually gripped. The gripping
ステップS32では、把持カウンタG(m,n)が更新される。2値画像IM4として選択された分割領域に対応するm、及び、その分割領域内で把持位置とされた配膳位置nに対応する把持カウンタG(m.n)の値が1だけ増加される。 In step S32, the grip counter G (m, n) is updated. The value of m corresponding to the divided area selected as the binary image IM4 and the value of the grip counter G (m.n) corresponding to the layout position n determined as the gripping position in the divided area are increased by one.
ステップS34では、把持部材38で把持された食物が利用者の口元まで搬送される。ステップS36では、利用者に対して食物が供与される。そして、ステップS38では、把持機構部36が待機位置に移動される。その後、ステップS16に処理を戻し、上記処理を繰り返す。
In step S34, the food grasped by the grasping
実際の把持動作の一例を次に示す。以下の説明では、既に6回の把持動作が行われ、配膳された食物が既に幾つか把持及び搬送されて取り除かれている状態であるとする。このときの容器12を撮像した全体画像IM1から切り出された分割領域12aの部分画像IM3を図9に示す。図9の部分画像IM3では、食物の画像50と共に、光が反射した画像52が写し込まれているとする。この部分画像IM3から2値画像IM4を生成する。また、図10に、分割領域12a(m=1)の配膳位置n(n=1〜9の整数)に対応する配膳位置画像IM5−1〜IM5−9を示す。
An example of an actual gripping operation is shown below. In the following description, it is assumed that six gripping operations have already been performed and some of the served food has already been gripped and transported and removed. FIG. 9 shows a partial image IM3 of the divided
ここで、図10の配膳位置画像IM5−1〜IM5−9に基づいて、各配膳位置画像IM5−1〜IM5−9において容器12の地色とは異なる色を有する領域の割合からP1(1,n)=[0.7,0.5,0.9,0,0,0,0.4,0.3,0]が求められる。P2(m,n)を決定する閾値が0.4である場合、P2(1,n)=[1,1,1,0,0,0,1,0,0]となる。また、各配膳位置nの左側に他の食物があるか否かを示すパラメータP4(m,n)は、P4(1,n)=[1,0,0,1,1,1,1,0,1]となる。把持履歴を示すパラメータP3(m,n)は、P(1,n)=[0,1,1,1,1,0,0,0,1]であったとする。また、P5=0.25とする。
Here, based on the layout position images IM5-1 to IM5-9 in FIG. 10, P1 (1 from the ratio of the area having a color different from the ground color of the
すると、有効性の予測値F(m,n)は、F(1,n)=[1.95,0.75,0.95,0.25,0.25,0.25,1.65,0.3,0.25]となり、把持をするのに最も有効な配膳位置と予測されるのはn=1(左上)の配膳位置と決定される。 Then, the predictive value F (m, n) of effectiveness is F (1, n) = [1.95,0.75,0.95,0.25,0.25,0.25,1.65. , 0.3, 0.25], and n = 1 (upper left) is determined to be the most effective layout position for gripping.
ここで、光の反射の領域52に対応するn=2,3の配膳位置では、既に把持が一度試みられており、パラメータP3(1,2)及びP3(1,3)により有効性の予測値F(1,2)及びF(1,3)の値が小さくなっている。すなわち、光の反射等による誤った把持動作が繰り返されることを防ぐことができる。
Here, at the n = 2,3 arrangement position corresponding to the
本実施の形態では、操作モードが自動モード又は半自動モードである場合には、F(m,n)の値が最も大きい配膳位置に対して把持部材38を移動させ、手動モードである場合は、操作部で指示された位置に対して把持部材38を移動させ、食物の把持及び運搬を行う。これとは別のモードを設け、自動モード又は半自動モードのときと同様にF(m,n)を求めて、操作部16に操作によって移動させられた把持部材38の位置から近い配膳位置であり、かつ、F(m,n)の値が高い配膳位置に把持部材38を位置決めし、食物の把持及び運搬を行っても良い。
In the present embodiment, when the operation mode is the automatic mode or the semi-automatic mode, the gripping
以上のように、本実施の形態によれば、一般家庭や施設等で上肢に障害がある利用者が食事をする際に、色情報を用いた画像処理を行うことで、容器に盛り付けられた不定形・不定色である食物の位置を適確に検出し、また、複数の配膳位置毎に把持動作の有効性を考慮するため、無意味な把持動作を繰り返すことなく利用者へ食物を提供することができる。これにより、利用者は円滑に食事を行うことができる。 As described above, according to the present embodiment, when a user with a disability in the upper limbs eats in a general home or facility, the image is processed using color information, and the container is arranged. Providing food to users without repeated meaningless gripping movements to accurately detect the position of food that is indefinite or indeterminate, and to consider the effectiveness of gripping movements for multiple serving positions can do. Thereby, the user can eat smoothly.
10 本体部、12 容器、12a〜12d 分割領域、12e 境界部、14 搬送部、16 操作部、18 撮像部、20 入力インターフェース、22 演算器、24 記憶部、26 入出力インターフェース、28 モード切替スイッチ、30 報知手段、32 突き当て部、34 搬送機構部、34a〜34d アーム、34e 回転駆動部、36 把持機構部、36a 駆動部、36b 接触検出部、36c 把持検出部、36d 後退位置検出部、38 把持部材、40 レバー、42 カメラ、44 入出力インターフェース、50 食物の画像、52 光の反射した画像。
DESCRIPTION OF
Claims (4)
食物を把持する把持機構部を備え、
前記容器を複数の領域に分割し、
前記複数の領域の各々について食物の把持が有効となる可能性を示す有効性の予測値を算出し、
前記有効性の予測値に基づいて前記複数の領域から把持を行う把持位置を決定し、
前記把持位置に対して把持を行うように前記把持機構部を制御することを特徴とする食事支援装置。 A meal support device that supports a user's meal by grasping the food placed in the container and carrying it to the user's mouth,
A gripping mechanism for gripping food,
Dividing the container into a plurality of regions;
Calculating a predictive value of effectiveness indicating the possibility of gripping food for each of the plurality of regions;
Determining a gripping position for gripping from the plurality of regions based on the effectiveness prediction value;
A meal support apparatus that controls the gripping mechanism so as to grip the gripping position.
前記容器及び前記容器に盛り付けられた食物の画像を取得する撮像部を備え、
前記画像から前記複数の領域の各々について食物の占有率を求め、少なくとも当該占有率に基づいて前記有効性の予測値を算出することを特徴とする食事支援装置。 The meal support apparatus according to claim 1,
An imaging unit for acquiring an image of the food that is arranged in the container and the container;
A meal support apparatus, wherein an occupancy ratio of food is obtained for each of the plurality of regions from the image, and a predicted value of the effectiveness is calculated based on at least the occupancy ratio.
前記複数の領域の各々に対する把持の試行履歴を記憶し、
前記把持の試行履歴に基づいて前記有効性の予測値を算出することを特徴とする食事支援装置。 In the meal support apparatus according to claim 1 or 2,
Storing a gripping trial history for each of the plurality of regions;
A meal support apparatus, wherein the effectiveness prediction value is calculated based on the grasping trial history.
前記容器に盛り付けられた食物同士の相対的な位置関係を求め、
前記位置関係に基づいて前記有効性の予測値を算出することを特徴とする食事支援装置。
In the meal assistance device according to any one of claims 1 to 3,
Find the relative positional relationship between the foods in the container,
A meal support apparatus that calculates the predicted value of effectiveness based on the positional relationship.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004180494A JP2006000428A (en) | 2004-06-18 | 2004-06-18 | Meal support apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004180494A JP2006000428A (en) | 2004-06-18 | 2004-06-18 | Meal support apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006000428A true JP2006000428A (en) | 2006-01-05 |
Family
ID=35769318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004180494A Pending JP2006000428A (en) | 2004-06-18 | 2004-06-18 | Meal support apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006000428A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008246607A (en) * | 2007-03-29 | 2008-10-16 | Honda Motor Co Ltd | Robot, control method of robot and control program of robot |
JP2011143500A (en) * | 2010-01-14 | 2011-07-28 | Yaskawa Electric Corp | Substrate conveying device |
WO2011126204A1 (en) * | 2010-04-07 | 2011-10-13 | 대한민국(국립재활원장) | Feeding assistant robot |
JP2013086184A (en) * | 2011-10-13 | 2013-05-13 | Yaskawa Electric Corp | Workpiece takeout system, robot apparatus and method for manufacturing material to be processed |
KR101380596B1 (en) | 2012-04-25 | 2014-04-11 | 대한민국(국립재활원장) | Meal assistance robot using a camera |
CN105479462A (en) * | 2016-01-05 | 2016-04-13 | 佛山科学技术学院 | Meal service robot |
CN107087897A (en) * | 2017-04-07 | 2017-08-25 | 上海交通大学 | The self-service feeding dining table of disabled person |
NL1042531B1 (en) * | 2016-09-15 | 2019-03-14 | Jonathan Michaelis Mr | Robot for use as an eating aid |
KR20220084939A (en) * | 2020-12-14 | 2022-06-21 | 한국전자기술연구원 | Meal aid tool |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08281585A (en) * | 1995-04-13 | 1996-10-29 | Daifuku Co Ltd | Article position judging method and device therefor |
JPH1166321A (en) * | 1997-08-13 | 1999-03-09 | Ntn Corp | Method for detecting work position |
JP2000232873A (en) * | 1999-02-17 | 2000-08-29 | Kyowa Hakko Kogyo Co Ltd | Separator of cell attached to incubator and separation |
JP2003062019A (en) * | 2001-08-30 | 2003-03-04 | Secom Co Ltd | Meal support equipment |
JP2003340166A (en) * | 2002-05-29 | 2003-12-02 | Nec Corp | Robot device, control method of robot device and program |
JP2004081567A (en) * | 2002-08-27 | 2004-03-18 | Secom Co Ltd | Meal support device |
-
2004
- 2004-06-18 JP JP2004180494A patent/JP2006000428A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08281585A (en) * | 1995-04-13 | 1996-10-29 | Daifuku Co Ltd | Article position judging method and device therefor |
JPH1166321A (en) * | 1997-08-13 | 1999-03-09 | Ntn Corp | Method for detecting work position |
JP2000232873A (en) * | 1999-02-17 | 2000-08-29 | Kyowa Hakko Kogyo Co Ltd | Separator of cell attached to incubator and separation |
JP2003062019A (en) * | 2001-08-30 | 2003-03-04 | Secom Co Ltd | Meal support equipment |
JP2003340166A (en) * | 2002-05-29 | 2003-12-02 | Nec Corp | Robot device, control method of robot device and program |
JP2004081567A (en) * | 2002-08-27 | 2004-03-18 | Secom Co Ltd | Meal support device |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008246607A (en) * | 2007-03-29 | 2008-10-16 | Honda Motor Co Ltd | Robot, control method of robot and control program of robot |
JP2011143500A (en) * | 2010-01-14 | 2011-07-28 | Yaskawa Electric Corp | Substrate conveying device |
US9066615B2 (en) | 2010-04-07 | 2015-06-30 | National Rehabilitation Center | Feeding assistant robot |
KR101237245B1 (en) * | 2010-04-07 | 2013-03-08 | 대한민국 | Eating Assistant Robot |
WO2011126204A1 (en) * | 2010-04-07 | 2011-10-13 | 대한민국(국립재활원장) | Feeding assistant robot |
US20150375397A1 (en) * | 2010-04-07 | 2015-12-31 | National Rehabilitation Center | Feeding assistant robot |
US9517565B2 (en) | 2010-04-07 | 2016-12-13 | National Rehabilitation Center | Feeding assistant robot |
JP2013086184A (en) * | 2011-10-13 | 2013-05-13 | Yaskawa Electric Corp | Workpiece takeout system, robot apparatus and method for manufacturing material to be processed |
KR101380596B1 (en) | 2012-04-25 | 2014-04-11 | 대한민국(국립재활원장) | Meal assistance robot using a camera |
CN105479462A (en) * | 2016-01-05 | 2016-04-13 | 佛山科学技术学院 | Meal service robot |
NL1042531B1 (en) * | 2016-09-15 | 2019-03-14 | Jonathan Michaelis Mr | Robot for use as an eating aid |
CN107087897A (en) * | 2017-04-07 | 2017-08-25 | 上海交通大学 | The self-service feeding dining table of disabled person |
KR20220084939A (en) * | 2020-12-14 | 2022-06-21 | 한국전자기술연구원 | Meal aid tool |
KR102610044B1 (en) * | 2020-12-14 | 2023-12-06 | 한국전자기술연구원 | Meal aid tool |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230264348A1 (en) | Display control device, display control method, computer program product, and communication system | |
US10737385B2 (en) | Machine learning device, robot system, and machine learning method | |
US10997465B2 (en) | Information processing device, information processing method, and storage medium | |
JP4309439B2 (en) | Object take-out device | |
US10890884B2 (en) | Control device, control method, computer program product, and robot control system | |
JP3768174B2 (en) | Work take-out device | |
JP2018027581A (en) | Picking system | |
JP5100525B2 (en) | Article management system, article management method, and article management program | |
JP2006000428A (en) | Meal support apparatus | |
US11776692B2 (en) | Training data collection apparatus, training data collection method, program, training system, trained model, and endoscopic image processing apparatus | |
US9595095B2 (en) | Robot system | |
US20210158502A1 (en) | Analyzing apparatus and method, and image capturing system | |
JP2006000427A (en) | Meal support apparatus | |
WO2006054484A1 (en) | Screen edit apparatus, screen edit method, and screen edit program | |
CN113168604A (en) | Data processing apparatus and data processing method | |
JP2018082766A (en) | Diagnostic system, diagnostic method and program | |
KR102357507B1 (en) | Meal assistance robot based on deep learning and meal assistance method using the same | |
JP2010236893A (en) | Method for detecting relative movement between a plurality of objects | |
US10708445B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP2005070908A (en) | Method and system for measuring meal intake for hospital | |
EP1259059A2 (en) | Adjustable image capturing system | |
CN117415831A (en) | Intelligent meal-assisting robot control method and system for improving net food rate | |
JP6753284B2 (en) | Image processing device, mode switching method and mode switching program | |
Chaudhari et al. | Automatic Nuchal Translucency Detection Using CAD-LNet | |
JP2020157461A (en) | Robot system and control method of robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101116 |