JP2006000428A - Meal support apparatus - Google Patents

Meal support apparatus Download PDF

Info

Publication number
JP2006000428A
JP2006000428A JP2004180494A JP2004180494A JP2006000428A JP 2006000428 A JP2006000428 A JP 2006000428A JP 2004180494 A JP2004180494 A JP 2004180494A JP 2004180494 A JP2004180494 A JP 2004180494A JP 2006000428 A JP2006000428 A JP 2006000428A
Authority
JP
Japan
Prior art keywords
food
gripping
container
image
meal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004180494A
Other languages
Japanese (ja)
Inventor
Ryoji Soyama
亮治 祖山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2004180494A priority Critical patent/JP2006000428A/en
Publication of JP2006000428A publication Critical patent/JP2006000428A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To support the smooth progress of a meal of a user regardless of the way of serving food or the variation of the environmental conditions such as illumination. <P>SOLUTION: A meal support apparatus is provided with a holding mechanism part 36 for holding the food, a container 12 is divided into a plurality of areas, an effective value indicating the possibility that holding the food becomes effective for each of the plurality of areas is calculated, and the holding mechanism part 36 is controlled so as to perform holding to a holding position decided from the plurality of areas on the basis of the predicted value of effectiveness, to hold the food served in the container 12, carry it to the mouth of the user and support the meal of the user. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、食物を利用者の口元に運ぶ食事支援装置に関する。   The present invention relates to a meal support apparatus for carrying food to a user's mouth.

上肢に障害をもつ利用者が食事をする際に、食物が盛り付けられた容器から利用者の口元まで食物を運んで食事の支援を行う食事支援装置が開発されている。   2. Description of the Related Art When a user with a disability in an upper limb eats, a meal support apparatus has been developed that supports food by transporting food from a container in which food is served to the user's mouth.

これまで、スプーンとフォークとからなる食物把持部が取り付けられたアームをジョイスティック等のコントローラを用いて利用者が顎等で操作して容器に盛り付けられた食物を把持し、利用者の口元まで運ぶ食事支援装置が開発されている。このような食事支援装置では、予め形状が定められた容器に食物を盛り付けておき、利用者がジョイスティックのレバーを傾けることによって食べたい食物の位置を指定して、その位置に盛り付けられた食物を食物把持部で把持して利用者の口元まで搬送させる。そして、搬送された食物に利用者の口が触れたことをセンサで感知し、食物を食事把持部から解放させて利用者に食物を提供する。また、利用者の口が食事把持部から離れると、アームによって食事把持部を待機位置まで移動させて次の食物の指定がなされるまで待機させる。   Up to now, the user has operated the arm with the food gripping part consisting of a spoon and fork using a joystick or the like with the chin, etc., to grip the food placed in the container and carry it to the user's mouth Meal support devices have been developed. In such a meal support device, food is placed in a container having a predetermined shape, the user designates the position of the food that he / she wants to eat by tilting the lever of the joystick, and the food placed at that position is placed. Hold it with the food gripping part and transport it to the user's mouth. Then, the sensor detects that the user's mouth has touched the conveyed food, and releases the food from the meal gripping portion to provide the user with the food. When the user's mouth is separated from the meal gripping portion, the meal gripping portion is moved to the standby position by the arm and waits until the next food is designated.

また、利用者からの食物の位置の指定を受けることなく、予め定められた手順に沿って容器の各位置に対して把持動作し、各位置に盛り付けられた食物を順に把持して、利用者の口元まで搬送する自動モードを備える食事支援装置も開発されている。   In addition, without receiving designation of the position of food from the user, the user performs gripping operation on each position of the container according to a predetermined procedure, and sequentially holds the food arranged at each position, A meal support device having an automatic mode for transporting to the mouth of a person has also been developed.

特開2004−81567号公報JP 2004-81567 A 特開2003−62019号公報Japanese Patent Laid-Open No. 2003-62019

しかしながら、食物は容器に整然と盛り付けられるものではなく、食物が盛られた位置と食物が盛られていない位置とが混在した状態となっている。従って、容器の各位置に対して予め定められた順序に沿って把持を行わせると、食物が盛り付けられていない位置にも把持を試みることとなるため、利用者が円滑に食事を進めることができない問題があった。   However, the food is not neatly arranged in the container, and the position where the food is served and the position where the food is not served are mixed. Therefore, if gripping is performed according to a predetermined order with respect to each position of the container, it will try to grip the position where food is not served, so that the user can advance the meal smoothly. There was a problem that could not be done.

また、把持を試みた際に把持に失敗し、既に把持対象となった位置に食物がずれてしまった場合、予め定められた把持の順番が終了した後でなければ再試行を行うことができない。そのため、食事を円滑に行うことができなくなる問題も生じていた。   In addition, when gripping fails when gripping is attempted and food has shifted to a position that has already been gripped, a retry cannot be performed unless the predetermined gripping order is completed. . For this reason, there has been a problem that the meal cannot be smoothly performed.

本発明は、上記従来技術の問題を鑑み、実際に食物が盛り付けられた容器上の位置を検出することによって無駄な把持動作をなくし、利用者の食事をより円滑に進めることを可能とする食事支援装置を提供することを目的とする。   In view of the above-described problems of the prior art, the present invention eliminates useless gripping operations by detecting a position on a container on which food is actually arranged, thereby enabling a user's meal to proceed more smoothly. An object is to provide a support device.

本発明は、容器に盛り付けられた食物を把持して利用者の口元へ運ぶことによって、利用者の食事を支援する食事支援装置であって、食物を把持する把持機構部を備え、前記容器を複数の領域に分割し、前記複数の領域の各々について食物の把持が有効となる可能性を示す有効性の予測値を算出し、前記有効性の予測値に基づいて前記複数の領域から把持を行う把持位置を決定し、前記把持位置に対して把持を行うように前記把持機構部を制御することを特徴とする。   The present invention is a meal support device for supporting a user's meal by gripping food placed in a container and carrying it to a user's mouth, comprising a gripping mechanism for gripping food, Dividing into a plurality of regions, calculating a prediction value of effectiveness indicating the possibility of grasping food for each of the plurality of regions, and grasping from the plurality of regions based on the prediction value of effectiveness A gripping position to be performed is determined, and the gripping mechanism unit is controlled to grip the gripping position.

ここで、前記容器及び前記容器に盛り付けられた食物の画像を取得する撮像部を備え、前記画像から前記複数の領域の各々について食物の占有率を求め、少なくとも当該占有率に基づいて前記有効性の予測値を算出することが好適である。また、前記複数の領域の各々に対する把持の試行履歴を記憶し、前記把持の試行履歴に基づいて前記有効性の予測値を算出することも好適である。さらに、前記容器に盛り付けられた食物同士の相対的な位置関係を求め、前記把持機構部の構造に応じて、前記位置関係に基づいて前記有効性の予測値を算出することも好適である。   Here, the image processing apparatus includes an imaging unit that acquires an image of the container and the food arranged in the container, and obtains an occupancy rate of the food for each of the plurality of regions from the image, and the effectiveness based on at least the occupancy rate It is preferable to calculate the predicted value. It is also preferable to store a gripping trial history for each of the plurality of regions and calculate the predicted value of effectiveness based on the gripping trial history. Furthermore, it is also preferable to obtain a relative positional relationship between foods placed in the container and calculate the predicted value of effectiveness based on the positional relationship according to the structure of the gripping mechanism.

本発明によれば、食物が容器に不規則に盛り付けられている場合においても利用者は食事をより円滑に進めることができる。   ADVANTAGE OF THE INVENTION According to this invention, even when food is irregularly arranged in the container, the user can advance the meal more smoothly.

本発明の実施の形態における食事支援装置は、図1に示すように、本体部10、容器12、搬送部14、操作部16及び撮像部18を含んで構成される。図2に、本実施の形態における食事支援装置の機能ブロック図を示す。   As shown in FIG. 1, the meal support apparatus according to the embodiment of the present invention includes a main body unit 10, a container 12, a transport unit 14, an operation unit 16, and an imaging unit 18. In FIG. 2, the functional block diagram of the meal assistance apparatus in this Embodiment is shown.

本体部10には、入力インターフェース(I/F)20、演算器22、記憶部24、入出力インターフェース(I/F)26、モード切替スイッチ28、報知手段30が組み込まれている。入力I/F20は、操作部16及びモード切替スイッチ28と情報伝達可能に接続されており、操作部16及びモード切替スイッチ28からの指示信号又はモード信号を受けて、信号フォーマットの変換等の前処理を行ったうえで演算器22に受け渡す。演算器22は、記憶部24に格納されている制御プログラムを実行することによって食事支援装置全般の制御を行う。演算器22で行われる制御については後述する。記憶部24は、演算器22で実行される制御プログラム及び制御に利用される各種データを格納及び保持する。記憶部24に格納されているプログラム又はデータは演算器22によって適宜読み出されて使用することができる。入出力I/F26は、撮像部18及び搬送部14からの信号を受けて、演算器22に受け渡す。モード切替スイッチ28は、食事支援装置に備わる手動モード、半自動モード及び自動モードのうちいずれか1つを選択するためスイッチである。モード切替スイッチ28で選択されたモードは、モード信号として入力I/F20を介して演算器22へ入力される。報知手段30は、例えば、ランプやブザーなどを含んで構成され、食事支援装置に異常が発生した場合に演算器22からの信号を受けて、利用者や利用者を介護する介護者等に異常を報知するために用いられる。   The main body 10 incorporates an input interface (I / F) 20, a calculator 22, a storage unit 24, an input / output interface (I / F) 26, a mode change switch 28, and a notification unit 30. The input I / F 20 is connected to the operation unit 16 and the mode change switch 28 so as to be able to transmit information. The input I / F 20 receives an instruction signal or a mode signal from the operation unit 16 and the mode change switch 28, and performs signal format conversion and the like. After processing, the data is transferred to the calculator 22. The calculator 22 controls the overall meal support apparatus by executing a control program stored in the storage unit 24. Control performed by the calculator 22 will be described later. The storage unit 24 stores and holds a control program executed by the computing unit 22 and various data used for control. The program or data stored in the storage unit 24 can be appropriately read and used by the calculator 22. The input / output I / F 26 receives signals from the imaging unit 18 and the transport unit 14 and passes them to the calculator 22. The mode changeover switch 28 is a switch for selecting any one of a manual mode, a semi-automatic mode, and an automatic mode provided in the meal support apparatus. The mode selected by the mode switch 28 is input to the computing unit 22 via the input I / F 20 as a mode signal. The notification unit 30 includes, for example, a lamp, a buzzer, and the like. When the abnormality occurs in the meal support device, the notification unit 30 receives a signal from the computing unit 22 and is abnormal for a user or a caregiver who cares for the user. Used to notify

容器12は食事を盛り付けるために用いられる。容器12は、複数の分割領域に区画される。本実施の形態では、図1に示すように、4つの分割領域12a〜12dに区画されているものとして説明を行うが、これに限定されるものではなく、必要に応じて適宜分割数を増減させても良い。また、容器12の地色は、4つの分割領域12a〜12dにおいて同色とする。なお、容器12の地色は単色であるのが好ましい。また、食事を行う際には、容器12は食事支援装置の本体部10に設けられた突き当て部32にセットされる。これによって、搬送部14及び撮像部18との空間的な相対位置が常に一定に維持され、把持動作や撮像を一定の位置関係で行うことが可能となる。   The container 12 is used to serve meals. The container 12 is partitioned into a plurality of divided regions. In the present embodiment, as illustrated in FIG. 1, the description is made on the assumption that the area is divided into four divided regions 12a to 12d. However, the present invention is not limited to this, and the number of divisions may be increased or decreased as necessary. You may let them. The ground color of the container 12 is the same color in the four divided regions 12a to 12d. The ground color of the container 12 is preferably a single color. Moreover, when performing a meal, the container 12 is set to the butting part 32 provided in the main-body part 10 of the meal assistance apparatus. Accordingly, the spatial relative position between the transport unit 14 and the imaging unit 18 is always maintained constant, and it is possible to perform a gripping operation and imaging with a constant positional relationship.

搬送部14は、搬送機構部34及び把持機構部36を含んで構成される。搬送機構部34は、把持機構部36を移動させるためのアームから構成される。搬送機構部34は、図1の例に示すように、4軸の回転駆動部34eによって接続されたアーム34a〜34dから構成することが好適である。搬送機構部34は、入出力I/F26を介して演算器22からの制御信号を受け、アーム34a〜34dをモータ等の駆動部を駆動させることによって把持機構部36を容器12の領域や利用者の口元に運ぶ。把持機構部36は、食物を把持するための把持部材38を含んで構成される。把持部材38は、図1の例に示すように、フォークとスプーンの組み合わせで構成することが好適である。また、把持機構部36は、図2に示すように、駆動部36a、接触検出部36b、把持検出部36c及び後退位置検出部36dを含んで構成される。駆動部36aは、入出力I/F26を介して演算器22から制御信号を受けて把持部材38のフォークとスプーンを駆動する。制御信号に基づいて、容器12の食物の位置まで把持部材38を移動させると、フォークを上に設け、スプーンを下に設けることによって食物をすくうようにして把持する。このとき、感圧センサ等で構成される接触検出部36bによって把持部材38に食物が接触したことを検知すると、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、食物を把持させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けて、フォークとスプーンとを駆動して食物を挟み込むようにして把持する。さらに、角度センサ等で構成される把持検出部36cによって食物が把持されたことを検知し、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、把持部材38を利用者の口元まで移動させる制御信号を搬送機構部34に送信する。搬送機構部34は、制御信号を受けて、把持部材38を利用者の口元まで搬送する。利用者が口元まで運ばれた把持部材38に口を接触させると、接触検出部36bにおいて接触が検知され、検知信号が演算器22へ送信される。演算器22は、把持部材38が口元位置にあり、利用者の口の接触を示す検知信号を受けると、フォークを後退させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けると、フォークを後退させることでスプーンとフォークをずらす。このとき、位置センサ等で構成される後退位置検出部36dにおいてフォークの後退位置を検出し、所定の位置までフォークが後退したことを検知し、検知信号を演算器22に送信する。演算器22は、検知信号を受けて、フォークの後退を停止させる制御信号を駆動部36aに送信する。駆動部36aは、制御信号を受けて、フォークの後退を停止させる。このような動作により、利用者へ食物を食べやすい状態で提供する。但し、把持部材38はフォークとスプーンに限定されるものではない。   The transport unit 14 includes a transport mechanism unit 34 and a gripping mechanism unit 36. The transport mechanism unit 34 includes an arm for moving the gripping mechanism unit 36. As shown in the example of FIG. 1, the transport mechanism unit 34 is preferably composed of arms 34 a to 34 d connected by a four-axis rotation drive unit 34 e. The transport mechanism unit 34 receives a control signal from the computing unit 22 via the input / output I / F 26 and drives the driving unit such as a motor with the arms 34a to 34d to make the gripping mechanism unit 36 the area of the container 12 or use it. Carry it to the person's mouth. The gripping mechanism unit 36 includes a gripping member 38 for gripping food. As shown in the example of FIG. 1, the gripping member 38 is preferably configured by a combination of a fork and a spoon. Further, as shown in FIG. 2, the gripping mechanism section 36 includes a drive section 36a, a contact detection section 36b, a grip detection section 36c, and a retracted position detection section 36d. The drive unit 36 a receives a control signal from the computing unit 22 via the input / output I / F 26 and drives the fork and spoon of the gripping member 38. When the gripping member 38 is moved to the position of the food in the container 12 based on the control signal, the food is scooped by scooping the food by providing the fork on the top and the spoon on the bottom. At this time, when it is detected that food is in contact with the gripping member 38 by the contact detection unit 36b configured by a pressure sensor or the like, a detection signal is transmitted to the calculator 22. The calculator 22 receives the detection signal and transmits a control signal for gripping food to the drive unit 36a. In response to the control signal, the driving unit 36a drives the fork and the spoon to grip the food. Furthermore, it is detected that the food is gripped by the grip detection unit 36 c configured by an angle sensor or the like, and a detection signal is transmitted to the calculator 22. The calculator 22 receives the detection signal and transmits a control signal for moving the gripping member 38 to the mouth of the user to the transport mechanism unit 34. In response to the control signal, the transport mechanism unit 34 transports the gripping member 38 to the user's mouth. When the user brings the mouth into contact with the gripping member 38 carried to the mouth, contact is detected by the contact detection unit 36b, and a detection signal is transmitted to the computing unit 22. When the grasping member 38 is at the mouth position and the arithmetic unit 22 receives a detection signal indicating contact of the user's mouth, the arithmetic unit 22 transmits a control signal for retreating the fork to the drive unit 36a. Upon receiving the control signal, the driving unit 36a moves the spoon and the fork by moving the fork backward. At this time, the retracted position detection unit 36d configured by a position sensor or the like detects the retracted position of the fork, detects that the fork has retracted to a predetermined position, and transmits a detection signal to the computing unit 22. The calculator 22 receives the detection signal and transmits a control signal for stopping the fork to move back to the drive unit 36a. The drive unit 36a receives the control signal and stops the fork from moving backward. By such an operation, food is provided to the user in an easy-to-eat state. However, the gripping member 38 is not limited to a fork and a spoon.

操作部16は、利用者が搬送部14の動きを指定するために用いるものであり、ここではレバー40を備えるジョイスティックとしている。利用者がレバー40を倒すと、操作部16に内蔵されたセンサでその方向が感知され、方向を示す指示信号として本体部10の入力I/F20へ送信される。レバー40の操作方向としては、図1に示すように、例えば奥A、右B、手前C、左Dの4方向とする。また、レバー40を押し込むことによってスイッチがオンされる構造となっており、利用者に意思決定を求めた場合にレバー40が押し込まれると決定の意思を示す信号が本体部10の入出力I/F26へ送信される。レバー40は、上肢に障害がある利用者が顎等で操作し易い形状とすることが好ましい。なお、操作部16はジョイスティックに限定されるものではなく、利用者の頭部に装着されるレーザポインタ等を用いても良い。   The operation unit 16 is used by a user to specify the movement of the transport unit 14, and here is a joystick including a lever 40. When the user tilts the lever 40, the direction is detected by a sensor built in the operation unit 16, and is transmitted to the input I / F 20 of the main body unit 10 as an instruction signal indicating the direction. As shown in FIG. 1, the operation direction of the lever 40 is, for example, four directions, that is, the back A, the right B, the front C, and the left D. Further, when the lever 40 is pushed, the switch is turned on. When the user is requested to make a decision, when the lever 40 is pushed, a signal indicating the decision is input / output I / O of the main body 10. Sent to F26. The lever 40 is preferably shaped so that a user with a disability in the upper limb can easily operate with a jaw or the like. The operation unit 16 is not limited to a joystick, and a laser pointer or the like attached to the user's head may be used.

撮像部18は、カメラ42及び入出力インターフェース(I/F)44を含んで構成される。カメラ42は、被写体の色を認識できるカラーカメラであり、例えば、カラーのCCD撮像素子とすることができる。カメラ42は、固定用の器具を用いて容器12に対して所定の相対位置となるように固定され、容器12の全体像を上方から撮像できる位置に設置される。撮像部18は、入出力I/F26及び入出力I/F44を介して演算器22からの撮像を指示する制御信号を受けると、カメラ42によって容器12及びそこに盛り付けられた食物の画像を撮像する。撮像された画像データは、入出力I/F44及び入出力I/F26を介して、演算器22に送信される。   The imaging unit 18 includes a camera 42 and an input / output interface (I / F) 44. The camera 42 is a color camera that can recognize the color of a subject, and can be, for example, a color CCD image sensor. The camera 42 is fixed so as to have a predetermined relative position with respect to the container 12 using a fixing tool, and is installed at a position where an entire image of the container 12 can be taken from above. When the imaging unit 18 receives a control signal instructing imaging from the computing unit 22 via the input / output I / F 26 and the input / output I / F 44, the imaging unit 18 captures an image of the container 12 and the food placed therein by the camera 42. To do. The captured image data is transmitted to the computing unit 22 via the input / output I / F 44 and the input / output I / F 26.

次に、本実施の形態における食事支援装置の制御について説明する。食事支援装置は、図3に示すフローチャートに沿って制御される。フローチャートの各工程は、記憶部24に保持されているコンピュータで実行可能な制御プログラムを演算器22において実行することによって行われる。以下の処理は、容器12に食物が盛り付けられ、食事支援装置の本体部10の突き当て部32に容器12がセットされている状態で行われる。   Next, control of the meal support apparatus in the present embodiment will be described. The meal support apparatus is controlled according to the flowchart shown in FIG. Each step of the flowchart is performed by executing in the computing unit 22 a control program that can be executed by the computer and stored in the storage unit 24. The following processing is performed in a state where food is served in the container 12 and the container 12 is set in the abutting portion 32 of the main body 10 of the meal support apparatus.

ステップS10では、初期設定の処理が行われる。食事支援装置の主電源がオンされると副電源がオンされるのを待つ。本実施の形態では、操作部16のレバー40が副電源を兼ねており、レバー40がいずれかの方向に操作されることによって副電源がオンされる。主電源及び副電源がオンされると、演算器22は装置全体の初期設定処理を行う。初期設定処理では、搬送機構部34及び把持機構部36を試動作させて、動作範囲の各位置の初期認識を行う。また、把持動作回数を記録する把持カウンタG(m,n)の各要素を0に設定する。把持カウンタG(m,n)については後述する。   In step S10, an initial setting process is performed. When the main power source of the meal support apparatus is turned on, the process waits for the sub power source to be turned on. In the present embodiment, the lever 40 of the operation unit 16 also serves as a sub power source, and the sub power source is turned on by operating the lever 40 in either direction. When the main power supply and the sub power supply are turned on, the computing unit 22 performs an initial setting process for the entire apparatus. In the initial setting process, the transport mechanism 34 and the gripping mechanism 36 are trial-operated to perform initial recognition of each position in the operation range. In addition, each element of the grip counter G (m, n) that records the number of grip operations is set to zero. The grip counter G (m, n) will be described later.

ステップS12では、口元位置の調整処理が行われる。利用者又はその付添い人は、操作部16のレバー40を操作することによって搬送機構部34及び把持機構部36を操作し、利用者が食物を摂取し易い位置である口元位置に把持部材38を移動させる。把持部材38が丁度良い位置に来たところでレバー40を押し込むことによって制御信号が演算器22へ送信され、その位置が口元位置として設定される。   In step S12, the mouth position adjustment process is performed. The user or his / her attendant operates the transport mechanism 34 and the gripping mechanism 36 by operating the lever 40 of the operation unit 16, and places the gripping member 38 at the mouth position where the user can easily eat food. Move. A control signal is transmitted to the computing unit 22 by pushing the lever 40 when the gripping member 38 is at a good position, and the position is set as the mouth position.

ステップS14では、搬送機構部34及び把持機構部36が待機位置へ移動される。待機位置は、搬送機構部34のアーム34a〜34bが折り畳まれ、把持機構部36の把持部材38が利用者側を向いている状態として予め設定された位置である。   In step S14, the transport mechanism 34 and the gripping mechanism 36 are moved to the standby position. The standby position is a position set in advance as a state in which the arms 34 a to 34 b of the transport mechanism unit 34 are folded and the gripping member 38 of the gripping mechanism unit 36 faces the user side.

ステップS16では、容器12の分割領域の選択が行われる。演算器22は、モード切替スイッチ28の設定状態を確認する。操作モードが手動モード又は半自動モードに設定されている場合、利用者が操作部16のレバー40を倒すことによって分割領域12a〜12dのいずれか1つが選択される。例えば、レバー40の傾倒方向が奥A、右B、手前C又は左Dに倒された場合に分割領域12a,12b,12c又は12dがそれぞれ選択されるように設定しておくことが好適である。また、操作モードが自動モードに設定されている場合、利用者が操作部16のレバー40を奥Aに倒すことによって動作開始の指示を行う。すなわち、自動モードにおいては、後の把持対象となる食物の決定処理に基づいて分割領域の選択が行われるため、この時点では動作開始の指示を行うだけで良いからである。   In step S16, the division area of the container 12 is selected. The computing unit 22 confirms the setting state of the mode switch 28. When the operation mode is set to the manual mode or the semi-automatic mode, any one of the divided regions 12a to 12d is selected when the user tilts the lever 40 of the operation unit 16. For example, it is preferable to set so that the divided areas 12a, 12b, 12c, or 12d are selected when the tilting direction of the lever 40 is tilted to the back A, right B, front C, or left D, respectively. . When the operation mode is set to the automatic mode, the user gives an instruction to start the operation by tilting the lever 40 of the operation unit 16 to the back A. That is, in the automatic mode, the divided area is selected based on the process for determining the food to be grasped later, and therefore, only the operation start instruction needs to be given at this point.

ステップS18では、分割領域の選択が行われたか否かが判断される。分割領域の選択又は動作開始の指示が行われていない場合にはステップS16に処理を戻して選択又は指示が行われるまで待機する。分割領域の選択又は動作開始の指示が行われた場合にはステップS20に処理を移行させる。また、このステップにおいて、利用者が食事を終了したい場合には食事支援装置を停止させることもできる。   In step S18, it is determined whether or not a divided area has been selected. If an instruction to select a divided area or start an operation has not been given, the process returns to step S16 to wait until a selection or instruction is given. If an instruction to select a divided area or start an operation is given, the process proceeds to step S20. In this step, if the user wants to end the meal, the meal support apparatus can be stopped.

ステップS20では、操作モードが手動モードであるか否かが判定される。演算器22は、モード切替スイッチ28が手動モードに設定されていればステップS26に処理を移行させ、自動モード又は半自動モードに設定されていればステップS22に処理を移行させる。   In step S20, it is determined whether or not the operation mode is a manual mode. The calculator 22 shifts the process to step S26 if the mode changeover switch 28 is set to the manual mode, and shifts the process to step S22 if it is set to the automatic mode or the semi-automatic mode.

ステップS22では、容器12及び容器12に盛り付けられた食物の画像を取得し、その画像データに基づいて把持位置を決定する。把持位置は、容器12の分割領域12a〜12d内をさらに細かく区分けした配膳位置のいずれか1つに決定される。本実施の形態では、図4に示すように、各分割領域12a〜12dをそれぞれ9つの配膳位置(m,n)(mは各分割領域を示す1〜4の整数,nは各分割領域における配膳位置を示す1〜9の整数)に分割し、いずれかの位置を把持位置として決定する。図4では、分割領域12aを9つの配膳位置に分割した例を示している。なお、ステップS22はサブルーチン化されており、図5に示すフローチャートに沿って処理される。   In step S <b> 22, the container 12 and an image of food placed in the container 12 are acquired, and a gripping position is determined based on the image data. The gripping position is determined as any one of the layout positions obtained by further finely dividing the divided areas 12a to 12d of the container 12. In this embodiment, as shown in FIG. 4, each divided region 12a to 12d is divided into nine arrangement positions (m, n) (m is an integer of 1 to 4 indicating each divided region, and n is each divided region. 1 is an integer of 1 to 9 indicating the layout position), and any position is determined as the gripping position. FIG. 4 shows an example in which the divided region 12a is divided into nine arrangement positions. Step S22 is a subroutine and is processed according to the flowchart shown in FIG.

以下に、操作モードが、自動モード又は半自動モードの場合における把持位置決定の処理を説明する。ステップS22−1では、容器12及び容器12に盛り付けられた食物を含む全体画像IM1が取得される。演算器22は、撮像部18へ撮像信号を送信する。撮像部18は、撮像信号を受信すると、図6に示すように、容器12の上方に設置されたカメラ42により容器12及び容器12に盛り付けられた食物を含むカラー画像を撮像し、全体画像IM1として演算器22へ送信する。図6では、便宜上、異なる色を異なるハッチングで示している。   Hereinafter, a gripping position determination process when the operation mode is the automatic mode or the semi-automatic mode will be described. In step S22-1, the entire image IM1 including the container 12 and the food arranged in the container 12 is acquired. The computing unit 22 transmits an imaging signal to the imaging unit 18. When the imaging unit 18 receives the imaging signal, the camera 42 installed above the container 12 captures a color image including the container 12 and the food placed in the container 12 as illustrated in FIG. 6, and the entire image IM1. To the computing unit 22. In FIG. 6, different colors are indicated by different hatching for convenience.

ステップS22−2では、色見本画像IM2が抽出される。色見本画像IM2は、容器12の中から食物が盛り付けられていない分割領域、すなわち容器12の地色が全面的に露出している分割領域の画像である。図6を例とすると、全体画像IM1のうち分割領域12cの位置を予め設定しておく。そして、容器12の分割領域12cには食物を盛り付けず、容器12の地色が露出された状態としておくことによって、全体画像IM1から予め設定された分割領域12cを切り出して色見本画像IM2とすることができる。このように、全体画像IM1の一部を色見本画像IM2として抽出することは、容器12の色むらや汚れ、影の影響等、実際の状況を取り込んで実環境に即した画像処理を行うことができる点で利点がある。   In step S22-2, the color sample image IM2 is extracted. The color sample image IM2 is an image of a divided region where food is not arranged from the container 12, that is, a divided region where the ground color of the container 12 is exposed entirely. Taking FIG. 6 as an example, the position of the divided region 12c in the entire image IM1 is set in advance. Then, by not placing food in the divided region 12c of the container 12 and leaving the ground color of the container 12 exposed, a predetermined divided region 12c is cut out from the entire image IM1 to be a color sample image IM2. be able to. In this way, extracting a part of the entire image IM1 as the color sample image IM2 performs image processing in accordance with the actual environment by taking into account the actual situation such as the color unevenness, dirt, and shadow of the container 12. There is an advantage in that it can.

ステップS22−3では、色見本画像IM2から色見本が抽出される。演算器22では、色見本画像IM2を構成する全画素について、各画素の色相hと彩度sを算出する。本実施の形態では、色相h及び彩度sはいずれも256階調で表現されるものとして処理を行っている。そして、色見本画像IM2において色相hと彩度sの組み合わせ毎にその出現頻度C(h,s)を求める。出現頻度C(h,s)の初期値は0とする。例えば、色相h=120及び彩度s=80の画素が存在していた場合、C(120,80)の値を1だけ増加させる。そして、色見本画像IM2の全画素について出現頻度C(h,s)を調べた後に、出現頻度C(h,s)が所定の閾値以上であれば色見本D(h,s)を1に設定し、出現頻度C(h,s)が所定の閾値より小さければ色見本行列D(h,s)を0に設定する。これにより、色相hと彩度sとの組み合わせ毎に0又は1の値を有する色見本行列D(h,s)を得ることができる。色見本行列D(h,s)の値が1である色相h及び彩度sの組み合わせは容器12の地色であると判断し、色見本行列D(h,s)の値が0である色相h及び彩度sの組み合わせは容器12の地色ではないと判断することができる。   In step S22-3, a color sample is extracted from the color sample image IM2. The calculator 22 calculates the hue h and saturation s of each pixel for all the pixels constituting the color sample image IM2. In the present embodiment, the processing is performed assuming that the hue h and the saturation s are both expressed in 256 gradations. Then, the appearance frequency C (h, s) is obtained for each combination of hue h and saturation s in the color sample image IM2. The initial value of the appearance frequency C (h, s) is 0. For example, if there is a pixel with hue h = 120 and saturation s = 80, the value of C (120, 80) is increased by one. Then, after examining the appearance frequency C (h, s) for all the pixels of the color sample image IM2, the color sample D (h, s) is set to 1 if the appearance frequency C (h, s) is equal to or greater than a predetermined threshold. If the appearance frequency C (h, s) is smaller than a predetermined threshold, the color sample matrix D (h, s) is set to zero. Thereby, a color sample matrix D (h, s) having a value of 0 or 1 for each combination of hue h and saturation s can be obtained. The combination of the hue h and the saturation s where the value of the color sample matrix D (h, s) is 1 is determined to be the ground color of the container 12, and the value of the color sample matrix D (h, s) is 0. It can be determined that the combination of hue h and saturation s is not the background color of the container 12.

なお、色見本の抽出方法は上記の処理に限定されるものではない。例えば、食事が盛り付けられる前の容器12の全体又は分割領域12a〜12dを撮像し、その画像データを構成する画素群のうち出現頻度が高い色を色見本として取得する方法がある。この場合、容器12の地色は分割領域毎に異ならせることもでき、食物の種類に応じて盛り付けする分割領域を選択することでより食物を認識し易くすることができる。また、図4に示した分割領域12a〜12dを区画する境界部12eをエッジ抽出処理や予め設定された領域として抽出し、その境界部12eの色を色見本として取得する方法がある。この場合、境界部12eの色は容器12の分割領域12a〜12dにおける地色と同じとする。さらに、容器12に盛られた食物を把持して取り除いた後に、その配膳位置の色から色見本を取得する方法もある。   Note that the color sample extraction method is not limited to the above processing. For example, there is a method of capturing an image of the entire container 12 or the divided regions 12a to 12d before the meal is served, and acquiring a color having a high appearance frequency as a color sample among the pixel groups constituting the image data. In this case, the ground color of the container 12 can be made different for each divided region, and food can be more easily recognized by selecting a divided region to be arranged according to the type of food. Further, there is a method in which the boundary portion 12e that partitions the divided regions 12a to 12d shown in FIG. 4 is extracted as an edge extraction process or a preset region, and the color of the boundary portion 12e is acquired as a color sample. In this case, the color of the boundary portion 12e is the same as the ground color in the divided regions 12a to 12d of the container 12. Further, there is a method of obtaining a color sample from the color of the serving position after gripping and removing the food accumulated in the container 12.

色見本となる容器12の地色は、食物には無い色であることが好ましいが、食物と完全に同一でなければ問題はない。また、容器12の地色は、単色であっても複数色で構成されていても、色見本を抽出する領域と食物が盛り付けられている領域とで使用されている色の比率が同じであればよい。   The ground color of the container 12 serving as a color sample is preferably a color that does not exist in food, but there is no problem if it is not completely the same as food. Moreover, even if the ground color of the container 12 is a single color or a plurality of colors, the ratio of the colors used in the region where the color sample is extracted and the region where the food is arranged is the same. That's fine.

また、本実施の形態では、ステップS18で分割領域の選択又は動作開始の指示がなされる度に色見本画像IM2及び色見本行列D(h,s)を求める処理を行い、色見本を更新している。これにより、食事を進めている最中に容器12への光の照射の加減による画像上の色の変化の影響に対応することが可能となる。但し、更新のタイミングはこれに限定されるものではなく、ステップS18で分割領域の選択又は動作開始の指示が所定回数実行される毎に更新を行っても良い。また、把持機構部36が待機位置に移動されたタイミングで更新を行っても良い。また、食事をする環境の変化が殆どない場合には、食事支援装置の電源が投入された際に、一回の食事に対して一度だけ色見本画像IM2及び色見本行列D(h,s)を求める処理を行っても良い。   Further, in this embodiment, every time an instruction to select a divided area or start an operation is given in step S18, the color sample image IM2 and the color sample matrix D (h, s) are obtained, and the color sample is updated. ing. As a result, it is possible to cope with the influence of the color change on the image due to the light irradiation to the container 12 during the meal. However, the update timing is not limited to this, and the update may be performed each time a divided region selection or operation start instruction is executed a predetermined number of times in step S18. The update may be performed at the timing when the gripping mechanism unit 36 is moved to the standby position. Further, when there is almost no change in the eating environment, the color sample image IM2 and the color sample matrix D (h, s) are used only once for each meal when the meal support apparatus is turned on. You may perform the process which calculates | requires.

また、本実施の形態では、HSB方式で表現される色の属性である色相・彩度・明度のうち、色相と彩度を利用している。色の表現方法はこれに限られるものではないが、照明等により食事をする環境が変化すると、明度は大きく影響を受ける。本実施の形態では、このような不都合を排除するために、色相と彩度によって色を表現する方法を採用したものである。   In the present embodiment, hue and saturation are used among hue, saturation, and brightness, which are attributes of colors expressed in the HSB method. The color expression method is not limited to this, but the lightness is greatly affected when the eating environment changes due to lighting or the like. In the present embodiment, in order to eliminate such inconvenience, a method of expressing a color by hue and saturation is adopted.

ステップS22−4では、操作モードの判定が行われる。演算器22は、モード切替スイッチ28が半自動モードに設定されていればステップS22−5に処理を移行させ、モード切替スイッチ28が自動モードに設定されていればステップS22−8に処理を移行させる。   In step S22-4, the operation mode is determined. The computing unit 22 shifts the process to step S22-5 if the mode switch 28 is set to the semi-automatic mode, and shifts the process to step S22-8 if the mode switch 28 is set to the automatic mode. .

まず、操作モードが半自動モードに設定されている場合の処理をS22−5からS22−7にて説明する。ステップS22−5では、部分画像IM3が取得される。操作モードが手動モード又は半自動モードに設定されている場合、ステップS18において分割領域12a〜12dのいずれか1つの領域が選択されているはずであるので、図7に示すように、全体画像IM1から選択された分割領域の画像を部分画像IM3として切り出す。本実施の形態では、部分画像IM3は縦256画素×横256画素の画像として抽出されたものとして説明する。なお、図7では、便宜上異なる色を異なるハッチングで示している。   First, the processing when the operation mode is set to the semi-automatic mode will be described from S22-5 to S22-7. In step S22-5, partial image IM3 is acquired. When the operation mode is set to the manual mode or the semi-automatic mode, any one of the divided regions 12a to 12d should be selected in step S18, and therefore, as shown in FIG. The image of the selected divided area is cut out as a partial image IM3. In the present embodiment, the partial image IM3 is described as being extracted as an image of 256 pixels vertically × 256 pixels horizontally. In FIG. 7, different colors are indicated by different hatching for convenience.

ステップS22−6では、部分画像IM3を2値化した2値画像IM4を生成する。まず、部分画像IM3を構成する各画素に対応する縦256画素×横256画素の2値画像IM4の各画素の画素値を0に初期化する。次いで、部分画像IM3を構成する画素の中から選択した注目画素の色相h及び彩度sを各256階調で求める。そして、注目画素の色相h及び彩度sに対応する色見本行列D(h,s)の値が1であるか否かを調べる。色相h及び彩度sに対応する色見本行列D(h,s)の値が1であった場合には注目画素に対応する2値画像IM4の画素値は1に変更し、色相h及び彩度sに対応する色見本行列D(h,s)の値が0であった場合には注目画素に対応する2値画像IM4の画素値は0に維持する。食物が盛り付けられた分割領域の地色は、色見本で表される色であるので、各画素について色見本に含まれた色であるか否かを調べることにより容器の地色を表している画素か食物を表している画素かを大別できる。   In step S22-6, a binary image IM4 obtained by binarizing the partial image IM3 is generated. First, the pixel value of each pixel of the binary image IM4 of 256 pixels × 256 pixels corresponding to each pixel constituting the partial image IM3 is initialized to zero. Next, the hue h and saturation s of the target pixel selected from the pixels constituting the partial image IM3 are obtained with 256 gradations. Then, it is checked whether or not the value of the color sample matrix D (h, s) corresponding to the hue h and saturation s of the target pixel is 1. When the value of the color sample matrix D (h, s) corresponding to the hue h and the saturation s is 1, the pixel value of the binary image IM4 corresponding to the target pixel is changed to 1, and the hue h and the saturation are changed. When the value of the color sample matrix D (h, s) corresponding to the degree s is 0, the pixel value of the binary image IM4 corresponding to the target pixel is maintained at 0. Since the ground color of the divided area where food is arranged is a color represented by a color sample, the ground color of the container is represented by examining whether or not each pixel is a color included in the color sample. It can be broadly classified as a pixel or a pixel representing food.

例えば、部分領域34aの部分画像IM3における画素(縦50,横50)の色相が120及び彩度が80であった場合、色見本行列D(120,80)が1であった場合には2値画像IM4の画素(縦50,横50)を1に設定する。   For example, when the hue of the pixel (vertical 50, horizontal 50) is 120 and the saturation is 80 in the partial image IM3 of the partial area 34a, 2 when the color sample matrix D (120, 80) is 1. The pixel of the value image IM4 (vertical 50, horizontal 50) is set to 1.

部分画像IM3の全画素について注目画素として順次選択し、上記処理を行うことによって、2値画像IM4を生成することができる。すなわち、2値画像の画素値が0である画素は部分画像IM4の対応する画素が容器の地色とは異なる色であることを示し、2値画像の画素値が1である画素は部分画像IM4の対応する画素が容器の地色と等しい色であることを示している。   By sequentially selecting all the pixels of the partial image IM3 as the target pixel and performing the above-described processing, the binary image IM4 can be generated. That is, a pixel having a pixel value of 0 in the binary image indicates that the corresponding pixel in the partial image IM4 is a color different from the ground color of the container, and a pixel having a pixel value of 1 in the binary image is a partial image. It shows that the corresponding pixel of IM4 is the same color as the background color of the container.

ステップS22−7では、ノイズ処理等の後処理が行われる。例えば、2値画像IM4に対して縮小拡大処理及び面積処理を実施することが好適である。   In step S22-7, post-processing such as noise processing is performed. For example, it is preferable to perform reduction / enlargement processing and area processing on the binary image IM4.

次に、自動モードに設定されている場合の処理をS22−8からS22−11にて説明する。ステップS22−8では、部分画像IM3が取得される。操作モードが自動モードに設定されている場合、ステップS18において分割領域12a〜12dの選択が行われていないので、全体画像IM1から各分割領域の画像をそれぞれ部分画像IM3として切り出す。本実施の形態では、食物が盛り付けられている分割領域12a,12b及び12dについて部分画像IM3a,IM3b,IM3dが各々縦256画素×横256画素の画像として抽出される。   Next, the processing when the automatic mode is set will be described from S22-8 to S22-11. In step S22-8, the partial image IM3 is acquired. When the operation mode is set to the automatic mode, since the divided areas 12a to 12d are not selected in step S18, the image of each divided area is cut out as the partial image IM3 from the entire image IM1. In the present embodiment, partial images IM3a, IM3b, and IM3d are extracted as images of 256 pixels in the vertical direction and 256 pixels in the horizontal direction for the divided regions 12a, 12b, and 12d on which the food is arranged.

ステップS22−9では、部分画像IM3を2値化した2値画像IM4を生成する。まず、上記ステップS22−6と同様に、部分画像IM3aを構成する各画素に対応する縦256画素×横256画素の2値画像IM4aの各画素の画素値を0に初期化する。次いで、部分画像IM3aを構成する画素の中から選択した注目画素の色相h及び彩度sを各256階調で求める。そして、注目画素の色相h及び彩度sに対応する色見本行列D(h,s)の値が1であるか否かを調べる。色相h及び彩度sに対応する色見本行列D(h,s)の値が1であった場合には注目画素に対応する2値画像IM4の画素値は1に変更し、色相h及び彩度sに対応する色見本行列D(h,s)の値が0であった場合には注目画素に対応する2値画像IM4aの画素値は0に維持する。   In step S22-9, a binary image IM4 obtained by binarizing the partial image IM3 is generated. First, similarly to step S22-6, the pixel value of each pixel of the binary image IM4a of 256 pixels × 256 pixels corresponding to each pixel constituting the partial image IM3a is initialized to zero. Next, the hue h and saturation s of the target pixel selected from the pixels constituting the partial image IM3a are obtained with 256 gradations. Then, it is checked whether or not the value of the color sample matrix D (h, s) corresponding to the hue h and saturation s of the target pixel is 1. When the value of the color sample matrix D (h, s) corresponding to the hue h and the saturation s is 1, the pixel value of the binary image IM4 corresponding to the target pixel is changed to 1, and the hue h and the saturation are changed. When the value of the color sample matrix D (h, s) corresponding to the degree s is 0, the pixel value of the binary image IM4a corresponding to the target pixel is maintained at 0.

部分画像IM3aの全画素について注目画素として順次選択し、上記処理を行うことによって2値画像IM4aを生成することができる。同様に、部分画像IM3b及びIM3dについても2値画像IM4b及びIM4dを各々生成する。このように、部分画像IM3の各画素について色見本にある色であるのか否かを求めることで、色見本にない色情報を持つ画素の集まりを食物として認識することかできる。   The binary image IM4a can be generated by sequentially selecting all the pixels of the partial image IM3a as the target pixel and performing the above processing. Similarly, binary images IM4b and IM4d are generated for the partial images IM3b and IM3d, respectively. In this way, by determining whether or not each pixel of the partial image IM3 is a color in the color sample, a group of pixels having color information not in the color sample can be recognized as food.

ステップS22−10では、ノイズ処理等の後処理が行われる。例えば、2値画像IM4に対して縮小拡大処理及び面積処理を実施することが好適である。   In step S22-10, post-processing such as noise processing is performed. For example, it is preferable to perform reduction / enlargement processing and area processing on the binary image IM4.

ステップS22−11では、各2値画像の中から1つを代表の2値画像IM4として選択する。部分画像IM3a,IM3b及びIM3dに対応する2値画像IM4a,IM4b及びIM4dを構成する全画素について画素値が0である頻度を調査し、最も頻度が高い画像を代表の2値画像IM4として選択する。すなわち、容器の地色と異なる色を有する画素が最も多い画像を代表の2値画像とする。   In step S22-11, one of the binary images is selected as a representative binary image IM4. The frequency with which the pixel value is 0 is investigated for all the pixels constituting the binary images IM4a, IM4b, and IM4d corresponding to the partial images IM3a, IM3b, and IM3d, and the image with the highest frequency is selected as the representative binary image IM4. . That is, an image having the largest number of pixels having a color different from the ground color of the container is set as a representative binary image.

ステップS22−5〜S22−7、又は、ステップS22−8〜S22−11の処理の後、ステップS22−12に処理を移行させる。ステップS22−12では、把持機構部36を移動させる把持位置を決定する。演算器22は、取得された2値画像IM4の配膳位置毎に把持動作の有効性の予測値F(m,n)を算出する。ここで、mは分割領域の位置を示し、例えば、分割領域12a,12b,12c,12dに対して1,2,3,4をそれぞれ対応付けられている。nは配膳位置の位置を示す。本実施の形態では、図4に示したように、分割領域12a〜12dはそれぞれ9つの配膳位置に分割されており、左上、中央上、右上、左中央・・・と順に1〜9の整数で表す。有効性の予測値F(m,n)は、次に示すパラメータP1(m,n),P2(m,n),P3(m,n)及びP4(m,n)を算出することによって決定される。そして、この予測値F(m,n)の値が大きい配膳位置(m,n)に対して把持動作を試みることで、確実に食物を把持することができる。   After the processing of steps S22-5 to S22-7 or steps S22-8 to S22-11, the processing is shifted to step S22-12. In step S22-12, a gripping position for moving the gripping mechanism unit 36 is determined. The computing unit 22 calculates a predicted value F (m, n) of the effectiveness of the gripping operation for each arrangement position of the acquired binary image IM4. Here, m indicates the position of the divided area. For example, 1, 2, 3, and 4 are associated with the divided areas 12a, 12b, 12c, and 12d, respectively. n indicates the position of the serving position. In the present embodiment, as shown in FIG. 4, the divided regions 12 a to 12 d are each divided into nine arrangement positions, and are integers 1 to 9 in order of upper left, upper center, upper right, left center,. Represented by The effectiveness prediction value F (m, n) is determined by calculating the following parameters P1 (m, n), P2 (m, n), P3 (m, n) and P4 (m, n). Is done. And food can be reliably hold | gripped by trying holding | grip operation | movement with respect to the serving position (m, n) with a large value of this predicted value F (m, n).

まず、2値画像IM4から各配膳位置に対応する配膳位置画像IM5が切り出される。本実施の形態では、図8に示すように、9つの配膳位置(m,n)に対応した9つの配膳位置画像IM5−1〜IM5−9が抽出される。   First, a layout position image IM5 corresponding to each layout position is cut out from the binary image IM4. In the present embodiment, as shown in FIG. 8, nine arrangement position images IM5-1 to IM5-9 corresponding to nine arrangement positions (m, n) are extracted.

パラメータP1(m,n)は、各配膳位置画像IM5−1〜IM5−9を構成する画素の画素値が0である割合を百分率で表した値とする。つまり、各配膳位置の中で食物らしい画素が占める割合である。例えば、配膳位置(1,1)に対応する配膳位置画像IM5−1において、全画素数7225に対して画素値が0である画素の数が3000であったとするとパラメータP1(1,1)=0.415となる。パラメータP1(m,n)は、配膳位置(m,n)に食物があるであろう確度の予測値を示す。このP1(m,n)が大きい値である程、配膳位置(m,n)に食物が存在する可能性が高いため、把持動作の有効性の予測値F(m,n)が大きい値となるようにする。   The parameter P1 (m, n) is a value representing the percentage of the pixel values of the pixels constituting the arrangement position images IM5-1 to IM5-9 as a percentage. That is, it is the proportion of food-like pixels in each serving position. For example, in the layout position image IM5-1 corresponding to the layout position (1, 1), if the number of pixels having a pixel value of 0 with respect to the total number of pixels 7225 is 3000, the parameter P1 (1, 1) = 0.415. The parameter P1 (m, n) indicates a predicted value of the probability that there will be food at the serving position (m, n). The greater the value of P1 (m, n), the higher the possibility that food is present at the serving position (m, n). Therefore, the predicted value F (m, n) for the effectiveness of the gripping action is larger. To be.

パラメータP2(m,n)は、P1(m,n)が予め定められた閾値以上であるか否かによって決定される。P1(m,n)が閾値以上であった場合にはP2(m,n)は1に設定され、P1(m,n)が閾値より小さい場合にはP2(m,n)は0に設定される。パラメータP2(m,n)は、配膳位置(m,n)に食物があるであろう確度の予測値を2値化したものである。このP2(m,n)が1に設定された配膳位置(m,n)について把持動作の有効性の予測値F(m,n)が大きい値となるようにする。   The parameter P2 (m, n) is determined by whether or not P1 (m, n) is equal to or greater than a predetermined threshold value. P2 (m, n) is set to 1 when P1 (m, n) is equal to or greater than the threshold, and P2 (m, n) is set to 0 when P1 (m, n) is smaller than the threshold. Is done. The parameter P2 (m, n) is a binarized prediction value of the probability that there will be food at the serving position (m, n). The predicted value F (m, n) of the effectiveness of the gripping operation is set to a large value for the layout position (m, n) in which P2 (m, n) is set to 1.

パラメータP3(m,n)は、把持カウンタG(m,n)と等しい値とする。把持カウンタG(m,n)の更新処理については後述する。パラメータP3(m,n)は、配膳位置(m,n)に対して既に把持が試みられた回数(把持の試行履歴)を示す。   The parameter P3 (m, n) is set to a value equal to the grip counter G (m, n). The update process of the grip counter G (m, n) will be described later. The parameter P3 (m, n) indicates the number of times gripping has already been attempted for the layout position (m, n) (grip trial history).

パラメータP4(m,n)は、nが2,3,5,6,8,9の場合に左隣の配膳位置のパラメータP2(m,n−1)の値が1であれば0に設定され、左隣の配膳位置のパラメータP2(m,n−1)の値が0であれば1に設定される。また、nが1,4,7の場合は、左隣に配膳位置がないのでP4(m,n)=1に設定される。パラメータP4(m,n)は、把持機構部36によって食物を把持する際に邪魔になる食物が周囲に存在するか否かを示す。すなわち、本実施の形態では、把持部材38が把持対象となる食物の左から一定距離だけ離れた位置に移動され、そこに垂直に把持部材38が下ろされ、そこから把持対象となる食物の左縁まで平行移動させるように把持部材38を動かした上で、把持部材38のフォークとスプーンで挟み込むようにして食物を把持する。つまり、把持位置の少し左側からスプーンで食物をすくい集め、その上でフォークを挟むことによって食物を把持する。従って、把持したい食物の左側の配膳位置に別の食物が盛り付けられている場合にはその食物も把持してしまう可能性があり、把持する食物の量が意図する量よりも多くなってしまったり、把持した食物を口元まで運ぶ際にこぼしてしまったりする可能性が高くなる。そこで、注目した配膳位置(m,n)の左隣の配膳位置(m,n−1)に食物が存在する可能性が高い場合にはパラメータP4(m,n)を0として把持が困難であるとし、注目した配膳位置(m,n)の左隣の配膳位置(m,n−1)に食物が存在する可能性が低い場合にはパラメータP4(m,n)を1として把持が容易であるとする。   The parameter P4 (m, n) is set to 0 if the value of the parameter P2 (m, n-1) at the left adjacent layout position is 1 when n is 2, 3, 5, 6, 8, 9 If the value of the parameter P2 (m, n-1) at the left adjacent layout position is 0, it is set to 1. When n is 1, 4, or 7, there is no arrangement position on the left side, so P4 (m, n) = 1 is set. The parameter P4 (m, n) indicates whether or not there is food in the vicinity that is obstructed when food is gripped by the gripping mechanism 36. That is, in the present embodiment, the gripping member 38 is moved to a position away from the left of the food to be gripped by a certain distance, the gripping member 38 is lowered vertically there, and the left of the food to be gripped from there The gripping member 38 is moved so as to be translated to the edge, and the food is gripped by being sandwiched between the fork and spoon of the gripping member 38. In other words, the food is scooped and collected with a spoon from the left side of the gripping position, and the food is gripped by sandwiching the fork thereon. Therefore, if another food is served at the left side of the food you want to grip, there is a possibility that the food will also be gripped, and the amount of food to be gripped may be larger than the intended amount. There is a high possibility of spilling when carrying the grasped food to the mouth. Therefore, when there is a high possibility that food is present at the serving position (m, n−1) adjacent to the left of the focused serving position (m, n), it is difficult to grasp the parameter P4 (m, n) as 0. If there is a low possibility that food is present at the serving position (m, n-1) adjacent to the left of the focused serving position (m, n), the parameter P4 (m, n) is set to 1 and the grip is easy Suppose that

従って、パラメータP4(m,n)は、把持機構部36の把持部材38がいずれの方向から食物を把持する構造となっているのかによって設定方法を変更することが好適である。例えば、把持部材38が手前から奥へ向かって食物を把持する構造となっている場合には、注目する配膳位置(m,n)の手前の配膳位置(m,n+3)のパラメータP2(m,n+3)の値が1であればパラメータP4(m,n)を0に設定し、注目する配膳位置(m,n)の手前の配膳位置(m,n+3)のパラメータP2(m,n+3)の値が0であればパラメータP4(m,n)を1に設定する。   Therefore, it is preferable to change the setting method of the parameter P4 (m, n) depending on which direction the gripping member 38 of the gripping mechanism 36 is configured to grip food. For example, when the gripping member 38 has a structure for gripping food from the front to the back, the parameter P2 (m, n + 3) of the serving position (m, n + 3) in front of the serving position (m, n) of interest. If the value of n + 3) is 1, the parameter P4 (m, n) is set to 0, and the parameter P2 (m, n + 3) of the layout position (m, n + 3) before the layout position (m, n) of interest is set. If the value is 0, the parameter P4 (m, n) is set to 1.

このように算出されたパラメータP1(m,n),P2(m,n),P3(m,n),P4(m,n)を用いて数式(1)に基づいて有効性の予測値F(m,n)を算出する。ここで、P5は所定の定数である。

Figure 2006000428
数式(1)における第1項の分子P1(m,n)+P2(m,n)は、現在の画像を処理した結果により決定される。ここで、P1(m,n)は単なる百分率であるが、P2(m,n)を加算することによって、P1(m,n)がある一定の割合以上であった場合を最も優先し、他のパラメータの影響を受け難くしている。特に、P1(m,n)の値の差が小さく、かつ、P2(m,n)を決定する閾値の前後に値が分布している場合に顕著となる。 Using the parameters P1 (m, n), P2 (m, n), P3 (m, n), and P4 (m, n) calculated in this way, the effectiveness prediction value F based on the equation (1). Calculate (m, n). Here, P5 is a predetermined constant.
Figure 2006000428
The first term numerator P1 (m, n) + P2 (m, n) in Equation (1) is determined by the result of processing the current image. Here, P1 (m, n) is a simple percentage, but by adding P2 (m, n), the case where P1 (m, n) is equal to or greater than a certain ratio gives the highest priority. It is hard to be influenced by the parameters of. This is particularly noticeable when the difference between the values of P1 (m, n) is small and the values are distributed before and after the threshold value for determining P2 (m, n).

例えば、P2(m,n)を決める閾値が0.40であった場合、P1(m,1)=0.39及びP1(m,2)=0.41であったとすると、P1(m,1)+P2(m,1)=0.39となり、P1(m,2)+P2(m,2)=1.41となる。このように、P1(m,n)に大きな差がない場合にも、閾値以上である場合には有効性の予測値F(m,n)が高くなり、他のパラメータの影響を受け難くなる。   For example, if the threshold for determining P2 (m, n) is 0.40, and P1 (m, 1) = 0.39 and P1 (m, 2) = 0.41, then P1 (m, n) 1) + P2 (m, 1) = 0.39, and P1 (m, 2) + P2 (m, 2) = 1.41. As described above, even when there is no large difference in P1 (m, n), if it is equal to or greater than the threshold value, the effectiveness prediction value F (m, n) becomes high and is not easily influenced by other parameters. .

また、数式(1)における第1項の分母1+P3(m,n)は、これまでの把持動作の履歴により決定される。すなわち、配膳位置(m,n)に対して過去に把持動作が行われた回数が多いほど有効性の予測値F(m,n)を低くする。照明の反射や、調味料、容器の汚れ等により、実際には食物が無いにも拘らず、P1(m,n)の値が大きくなることがある。P3(m,n)は、そのような配膳位置(m,n)に対して繰り返し把持動作することを防ぐためのものである。   Further, the denominator 1 + P3 (m, n) of the first term in the formula (1) is determined by the history of the gripping operation so far. That is, the effectiveness prediction value F (m, n) is lowered as the number of gripping operations performed in the past with respect to the layout position (m, n) increases. The value of P1 (m, n) may become large due to reflection of illumination, seasonings, container dirt, etc., even though there is actually no food. P3 (m, n) is for preventing repeated gripping operations with respect to such an arrangement position (m, n).

また、数式(1)における第2項のP4(m,n)×P5は、把持動作の邪魔となる食物が存在しない配膳位置を優先することを示している。P5はP4(m,n)をF(m,n)にどれだけ重くするかを決める係数であり、把持機構部36の構造に応じて適宜に定められる値である。   In addition, P4 (m, n) × P5 in the second term in Expression (1) indicates that priority is given to the serving position where there is no food that obstructs the gripping operation. P5 is a coefficient that determines how much heavier P4 (m, n) is set to F (m, n), and is a value appropriately determined according to the structure of the gripping mechanism section 36.

各配膳位置画像IM5−1〜IM5−9に対して有効性の予測値F(m,n)を各々算出する。そして、有効性の予測値F(m,n)が最も高い配膳位置を把持位置として決定する。把持位置は、有効性の予測値F(m,n)が最も高い配膳位置の左脇に設定する。ステップS22−12にて把持位置が決定されるとメインルーチンのステップS22に処理を戻す。   Effectiveness prediction values F (m, n) are respectively calculated for the layout position images IM5-1 to IM5-9. Then, the layout position having the highest effectiveness prediction value F (m, n) is determined as the gripping position. The gripping position is set on the left side of the layout position with the highest effectiveness prediction value F (m, n). When the gripping position is determined in step S22-12, the process returns to step S22 of the main routine.

このように、F(m,n)は画像処理によって解析された食物の位置を、把持動作の過去の履歴や他の食物との位置関係によって補正した値であるといえる。これによって、複数回の把持動作を行う場合に、画像に写った光などの反射や影の影響を低減することができる。   Thus, it can be said that F (m, n) is a value obtained by correcting the position of the food analyzed by the image processing based on the past history of the gripping operation and the positional relationship with other food. This can reduce the influence of reflections and shadows of light or the like in the image when a plurality of gripping operations are performed.

以上のようにして把持位置が決定されると、次いでステップS24の処理へ移行する。ステップS24では、決定された把持位置に対して把持部材38を自動で移動させる。   When the gripping position is determined as described above, the process proceeds to step S24. In step S24, the gripping member 38 is automatically moved with respect to the determined gripping position.

また、ステップS20にて操作モードが手動モードと判定された場合にはステップS26の処理に移行させる。ステップS26では、操作部16が操作されたか否かが判定される。このときの操作は、手動モードにおいて行われる利用者による食物の選択操作であって、操作部16の操作によって、先に選択された分割領域内において利用者が食べたいとする食物の位置に把持部材38の位置を合わせる操作を意味する。把持食物の選択入力が行われた場合にはステップS28に処理を移行させる。操作部16の操作が行われず、所定の時間が経過した場合にはステップS30に処理を移行させる。   If it is determined in step S20 that the operation mode is the manual mode, the process proceeds to step S26. In step S26, it is determined whether or not the operation unit 16 has been operated. The operation at this time is a food selection operation performed by the user in the manual mode, and is held at the position of the food that the user wants to eat in the previously selected divided area by the operation of the operation unit 16. This means an operation of aligning the position of the member 38. When selection input of grasped food is performed, the process proceeds to step S28. If the operation unit 16 is not operated and a predetermined time has elapsed, the process proceeds to step S30.

ステップS28では、操作部16の操作に基づいて把持部材38を容器12上で移動させる。利用者が操作部16のレバー40を奥A、右B、手前C、左Dのいずれかの方向に傾けることによって、レバー40の操作方向に対応する方向に把持部材38を移動させる。移動が終了するとステップS26に戻って更なる操作を待機する。   In step S <b> 28, the gripping member 38 is moved on the container 12 based on the operation of the operation unit 16. When the user tilts the lever 40 of the operation unit 16 in any of the back A, right B, front C, and left D directions, the gripping member 38 is moved in a direction corresponding to the operation direction of the lever 40. When the movement is completed, the process returns to step S26 to wait for further operations.

ステップS30では、実際に食物の把持が行われる。手動、半自動又は自動で把持対象の食物の左脇に移動させられた把持部材38が下降させられ、そこから把持対象となる食物の左縁まで平行移動させるように把持部材38を動かした上で、把持部材38のフォークとスプーンで挟み込むようにして食物を把持する。そして、食物を把持した状態で配膳位置から離れるように把持部材38を上昇させる。   In step S30, food is actually gripped. The gripping member 38 moved to the left side of the food to be gripped manually, semi-automatically or automatically is lowered, and after moving the gripping member 38 so as to move in parallel to the left edge of the food to be gripped. The food is gripped by being sandwiched between the fork and spoon of the gripping member 38. And the holding member 38 is raised so that it may leave | separate from a serving position in the state which hold | gripped the food.

ステップS32では、把持カウンタG(m,n)が更新される。2値画像IM4として選択された分割領域に対応するm、及び、その分割領域内で把持位置とされた配膳位置nに対応する把持カウンタG(m.n)の値が1だけ増加される。   In step S32, the grip counter G (m, n) is updated. The value of m corresponding to the divided area selected as the binary image IM4 and the value of the grip counter G (m.n) corresponding to the layout position n determined as the gripping position in the divided area are increased by one.

ステップS34では、把持部材38で把持された食物が利用者の口元まで搬送される。ステップS36では、利用者に対して食物が供与される。そして、ステップS38では、把持機構部36が待機位置に移動される。その後、ステップS16に処理を戻し、上記処理を繰り返す。   In step S34, the food grasped by the grasping member 38 is conveyed to the user's mouth. In step S36, food is provided to the user. In step S38, the gripping mechanism 36 is moved to the standby position. Thereafter, the process returns to step S16, and the above process is repeated.

実際の把持動作の一例を次に示す。以下の説明では、既に6回の把持動作が行われ、配膳された食物が既に幾つか把持及び搬送されて取り除かれている状態であるとする。このときの容器12を撮像した全体画像IM1から切り出された分割領域12aの部分画像IM3を図9に示す。図9の部分画像IM3では、食物の画像50と共に、光が反射した画像52が写し込まれているとする。この部分画像IM3から2値画像IM4を生成する。また、図10に、分割領域12a(m=1)の配膳位置n(n=1〜9の整数)に対応する配膳位置画像IM5−1〜IM5−9を示す。   An example of an actual gripping operation is shown below. In the following description, it is assumed that six gripping operations have already been performed and some of the served food has already been gripped and transported and removed. FIG. 9 shows a partial image IM3 of the divided region 12a cut out from the entire image IM1 obtained by capturing the container 12 at this time. In the partial image IM3 of FIG. 9, it is assumed that an image 52 reflecting light is imprinted together with the food image 50. A binary image IM4 is generated from the partial image IM3. FIG. 10 shows layout position images IM5-1 to IM5-9 corresponding to the layout position n (n = 1 to 9) of the divided region 12a (m = 1).

ここで、図10の配膳位置画像IM5−1〜IM5−9に基づいて、各配膳位置画像IM5−1〜IM5−9において容器12の地色とは異なる色を有する領域の割合からP1(1,n)=[0.7,0.5,0.9,0,0,0,0.4,0.3,0]が求められる。P2(m,n)を決定する閾値が0.4である場合、P2(1,n)=[1,1,1,0,0,0,1,0,0]となる。また、各配膳位置nの左側に他の食物があるか否かを示すパラメータP4(m,n)は、P4(1,n)=[1,0,0,1,1,1,1,0,1]となる。把持履歴を示すパラメータP3(m,n)は、P(1,n)=[0,1,1,1,1,0,0,0,1]であったとする。また、P5=0.25とする。   Here, based on the layout position images IM5-1 to IM5-9 in FIG. 10, P1 (1 from the ratio of the area having a color different from the ground color of the container 12 in each layout position image IM5-1 to IM5-9. , N) = [0.7, 0.5, 0.9, 0, 0, 0, 0.4, 0.3, 0]. When the threshold value for determining P2 (m, n) is 0.4, P2 (1, n) = [1,1,1,0,0,0,1,0,0]. The parameter P4 (m, n) indicating whether there is other food on the left side of each serving position n is P4 (1, n) = [1,0,0,1,1,1,1, 0, 1]. It is assumed that the parameter P3 (m, n) indicating the gripping history is P (1, n) = [0, 1, 1, 1, 1, 0, 0, 0, 1]. Further, P5 = 0.25.

すると、有効性の予測値F(m,n)は、F(1,n)=[1.95,0.75,0.95,0.25,0.25,0.25,1.65,0.3,0.25]となり、把持をするのに最も有効な配膳位置と予測されるのはn=1(左上)の配膳位置と決定される。   Then, the predictive value F (m, n) of effectiveness is F (1, n) = [1.95,0.75,0.95,0.25,0.25,0.25,1.65. , 0.3, 0.25], and n = 1 (upper left) is determined to be the most effective layout position for gripping.

ここで、光の反射の領域52に対応するn=2,3の配膳位置では、既に把持が一度試みられており、パラメータP3(1,2)及びP3(1,3)により有効性の予測値F(1,2)及びF(1,3)の値が小さくなっている。すなわち、光の反射等による誤った把持動作が繰り返されることを防ぐことができる。   Here, at the n = 2,3 arrangement position corresponding to the light reflection region 52, the gripping has already been attempted once, and the effectiveness is predicted by the parameters P3 (1,2) and P3 (1,3). The values F (1,2) and F (1,3) are small. That is, it is possible to prevent an erroneous gripping operation due to light reflection or the like from being repeated.

本実施の形態では、操作モードが自動モード又は半自動モードである場合には、F(m,n)の値が最も大きい配膳位置に対して把持部材38を移動させ、手動モードである場合は、操作部で指示された位置に対して把持部材38を移動させ、食物の把持及び運搬を行う。これとは別のモードを設け、自動モード又は半自動モードのときと同様にF(m,n)を求めて、操作部16に操作によって移動させられた把持部材38の位置から近い配膳位置であり、かつ、F(m,n)の値が高い配膳位置に把持部材38を位置決めし、食物の把持及び運搬を行っても良い。   In the present embodiment, when the operation mode is the automatic mode or the semi-automatic mode, the gripping member 38 is moved to the layout position where the value of F (m, n) is the largest, and when the operation mode is the manual mode, The gripping member 38 is moved to the position instructed by the operation unit, and food is gripped and transported. A mode different from this is provided, and the arrangement position is close to the position of the gripping member 38 moved by the operation to the operation unit 16 by obtaining F (m, n) as in the automatic mode or the semi-automatic mode. In addition, the gripping member 38 may be positioned at a serving position where the value of F (m, n) is high, and food may be gripped and transported.

以上のように、本実施の形態によれば、一般家庭や施設等で上肢に障害がある利用者が食事をする際に、色情報を用いた画像処理を行うことで、容器に盛り付けられた不定形・不定色である食物の位置を適確に検出し、また、複数の配膳位置毎に把持動作の有効性を考慮するため、無意味な把持動作を繰り返すことなく利用者へ食物を提供することができる。これにより、利用者は円滑に食事を行うことができる。   As described above, according to the present embodiment, when a user with a disability in the upper limbs eats in a general home or facility, the image is processed using color information, and the container is arranged. Providing food to users without repeated meaningless gripping movements to accurately detect the position of food that is indefinite or indeterminate, and to consider the effectiveness of gripping movements for multiple serving positions can do. Thereby, the user can eat smoothly.

本発明の実施の形態における食事支援装置の外観を示す図である。It is a figure which shows the external appearance of the meal assistance apparatus in embodiment of this invention. 本発明の実施の形態における食事支援装置の機能ブロック図である。It is a functional block diagram of the meal assistance apparatus in embodiment of this invention. 本発明の実施の形態における食事支援方法のフローチャートを示す図である。It is a figure which shows the flowchart of the meal assistance method in embodiment of this invention. 本発明の実施の形態における食事支援装置の容器の分割領域及び配膳位置を示す図である。It is a figure which shows the division | segmentation area | region and serving position of the container of the meal assistance apparatus in embodiment of this invention. 本発明の実施の形態におけるステップS20のサブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the subroutine of step S20 in embodiment of this invention. 本発明の実施の形態における容器の全体画像の例を示す図である。It is a figure which shows the example of the whole image of the container in embodiment of this invention. 本発明の実施の形態における部分画像の例を示す図である。It is a figure which shows the example of the partial image in embodiment of this invention. 本発明の実施の形態における配膳位置画像の例を示す図である。It is a figure which shows the example of the layout position image in embodiment of this invention. 本発明の実施の形態における部分画像の例を示す図である。It is a figure which shows the example of the partial image in embodiment of this invention. 本発明の実施の形態における配膳位置画像の例を示す図である。It is a figure which shows the example of the layout position image in embodiment of this invention.

符号の説明Explanation of symbols

10 本体部、12 容器、12a〜12d 分割領域、12e 境界部、14 搬送部、16 操作部、18 撮像部、20 入力インターフェース、22 演算器、24 記憶部、26 入出力インターフェース、28 モード切替スイッチ、30 報知手段、32 突き当て部、34 搬送機構部、34a〜34d アーム、34e 回転駆動部、36 把持機構部、36a 駆動部、36b 接触検出部、36c 把持検出部、36d 後退位置検出部、38 把持部材、40 レバー、42 カメラ、44 入出力インターフェース、50 食物の画像、52 光の反射した画像。   DESCRIPTION OF SYMBOLS 10 Main body part, 12 containers, 12a-12d division | segmentation area | region, 12e boundary part, 14 conveyance part, 16 operation part, 18 imaging part, 20 input interface, 22 calculator, 24 memory | storage part, 26 input / output interface, 28 mode change switch , 30 Notification means, 32 Abutting section, 34 Transport mechanism section, 34a to 34d arm, 34e Rotation drive section, 36 Grip mechanism section, 36a Drive section, 36b Contact detection section, 36c Grip detection section, 36d Retraction position detection section, 38 gripping member, 40 lever, 42 camera, 44 input / output interface, 50 food image, 52 light reflected image.

Claims (4)

容器に盛り付けられた食物を把持して利用者の口元へ運ぶことによって、利用者の食事を支援する食事支援装置であって、
食物を把持する把持機構部を備え、
前記容器を複数の領域に分割し、
前記複数の領域の各々について食物の把持が有効となる可能性を示す有効性の予測値を算出し、
前記有効性の予測値に基づいて前記複数の領域から把持を行う把持位置を決定し、
前記把持位置に対して把持を行うように前記把持機構部を制御することを特徴とする食事支援装置。
A meal support device that supports a user's meal by grasping the food placed in the container and carrying it to the user's mouth,
A gripping mechanism for gripping food,
Dividing the container into a plurality of regions;
Calculating a predictive value of effectiveness indicating the possibility of gripping food for each of the plurality of regions;
Determining a gripping position for gripping from the plurality of regions based on the effectiveness prediction value;
A meal support apparatus that controls the gripping mechanism so as to grip the gripping position.
請求項1に記載の食事支援装置において、
前記容器及び前記容器に盛り付けられた食物の画像を取得する撮像部を備え、
前記画像から前記複数の領域の各々について食物の占有率を求め、少なくとも当該占有率に基づいて前記有効性の予測値を算出することを特徴とする食事支援装置。
The meal support apparatus according to claim 1,
An imaging unit for acquiring an image of the food that is arranged in the container and the container;
A meal support apparatus, wherein an occupancy ratio of food is obtained for each of the plurality of regions from the image, and a predicted value of the effectiveness is calculated based on at least the occupancy ratio.
請求項1又は2に記載の食事支援装置において、
前記複数の領域の各々に対する把持の試行履歴を記憶し、
前記把持の試行履歴に基づいて前記有効性の予測値を算出することを特徴とする食事支援装置。
In the meal support apparatus according to claim 1 or 2,
Storing a gripping trial history for each of the plurality of regions;
A meal support apparatus, wherein the effectiveness prediction value is calculated based on the grasping trial history.
請求項1〜3のいずれか1つに記載の食事支援装置において、
前記容器に盛り付けられた食物同士の相対的な位置関係を求め、
前記位置関係に基づいて前記有効性の予測値を算出することを特徴とする食事支援装置。

In the meal assistance device according to any one of claims 1 to 3,
Find the relative positional relationship between the foods in the container,
A meal support apparatus that calculates the predicted value of effectiveness based on the positional relationship.

JP2004180494A 2004-06-18 2004-06-18 Meal support apparatus Pending JP2006000428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004180494A JP2006000428A (en) 2004-06-18 2004-06-18 Meal support apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004180494A JP2006000428A (en) 2004-06-18 2004-06-18 Meal support apparatus

Publications (1)

Publication Number Publication Date
JP2006000428A true JP2006000428A (en) 2006-01-05

Family

ID=35769318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004180494A Pending JP2006000428A (en) 2004-06-18 2004-06-18 Meal support apparatus

Country Status (1)

Country Link
JP (1) JP2006000428A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008246607A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Robot, control method of robot and control program of robot
JP2011143500A (en) * 2010-01-14 2011-07-28 Yaskawa Electric Corp Substrate conveying device
WO2011126204A1 (en) * 2010-04-07 2011-10-13 대한민국(국립재활원장) Feeding assistant robot
JP2013086184A (en) * 2011-10-13 2013-05-13 Yaskawa Electric Corp Workpiece takeout system, robot apparatus and method for manufacturing material to be processed
KR101380596B1 (en) 2012-04-25 2014-04-11 대한민국(국립재활원장) Meal assistance robot using a camera
CN105479462A (en) * 2016-01-05 2016-04-13 佛山科学技术学院 Meal service robot
CN107087897A (en) * 2017-04-07 2017-08-25 上海交通大学 The self-service feeding dining table of disabled person
NL1042531B1 (en) * 2016-09-15 2019-03-14 Jonathan Michaelis Mr Robot for use as an eating aid
KR20220084939A (en) * 2020-12-14 2022-06-21 한국전자기술연구원 Meal aid tool

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08281585A (en) * 1995-04-13 1996-10-29 Daifuku Co Ltd Article position judging method and device therefor
JPH1166321A (en) * 1997-08-13 1999-03-09 Ntn Corp Method for detecting work position
JP2000232873A (en) * 1999-02-17 2000-08-29 Kyowa Hakko Kogyo Co Ltd Separator of cell attached to incubator and separation
JP2003062019A (en) * 2001-08-30 2003-03-04 Secom Co Ltd Meal support equipment
JP2003340166A (en) * 2002-05-29 2003-12-02 Nec Corp Robot device, control method of robot device and program
JP2004081567A (en) * 2002-08-27 2004-03-18 Secom Co Ltd Meal support device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08281585A (en) * 1995-04-13 1996-10-29 Daifuku Co Ltd Article position judging method and device therefor
JPH1166321A (en) * 1997-08-13 1999-03-09 Ntn Corp Method for detecting work position
JP2000232873A (en) * 1999-02-17 2000-08-29 Kyowa Hakko Kogyo Co Ltd Separator of cell attached to incubator and separation
JP2003062019A (en) * 2001-08-30 2003-03-04 Secom Co Ltd Meal support equipment
JP2003340166A (en) * 2002-05-29 2003-12-02 Nec Corp Robot device, control method of robot device and program
JP2004081567A (en) * 2002-08-27 2004-03-18 Secom Co Ltd Meal support device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008246607A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Robot, control method of robot and control program of robot
JP2011143500A (en) * 2010-01-14 2011-07-28 Yaskawa Electric Corp Substrate conveying device
US9066615B2 (en) 2010-04-07 2015-06-30 National Rehabilitation Center Feeding assistant robot
KR101237245B1 (en) * 2010-04-07 2013-03-08 대한민국 Eating Assistant Robot
WO2011126204A1 (en) * 2010-04-07 2011-10-13 대한민국(국립재활원장) Feeding assistant robot
US20150375397A1 (en) * 2010-04-07 2015-12-31 National Rehabilitation Center Feeding assistant robot
US9517565B2 (en) 2010-04-07 2016-12-13 National Rehabilitation Center Feeding assistant robot
JP2013086184A (en) * 2011-10-13 2013-05-13 Yaskawa Electric Corp Workpiece takeout system, robot apparatus and method for manufacturing material to be processed
KR101380596B1 (en) 2012-04-25 2014-04-11 대한민국(국립재활원장) Meal assistance robot using a camera
CN105479462A (en) * 2016-01-05 2016-04-13 佛山科学技术学院 Meal service robot
NL1042531B1 (en) * 2016-09-15 2019-03-14 Jonathan Michaelis Mr Robot for use as an eating aid
CN107087897A (en) * 2017-04-07 2017-08-25 上海交通大学 The self-service feeding dining table of disabled person
KR20220084939A (en) * 2020-12-14 2022-06-21 한국전자기술연구원 Meal aid tool
KR102610044B1 (en) * 2020-12-14 2023-12-06 한국전자기술연구원 Meal aid tool

Similar Documents

Publication Publication Date Title
US20230264348A1 (en) Display control device, display control method, computer program product, and communication system
US10737385B2 (en) Machine learning device, robot system, and machine learning method
US10997465B2 (en) Information processing device, information processing method, and storage medium
JP4309439B2 (en) Object take-out device
US10890884B2 (en) Control device, control method, computer program product, and robot control system
JP3768174B2 (en) Work take-out device
JP2018027581A (en) Picking system
JP5100525B2 (en) Article management system, article management method, and article management program
JP2006000428A (en) Meal support apparatus
US11776692B2 (en) Training data collection apparatus, training data collection method, program, training system, trained model, and endoscopic image processing apparatus
US9595095B2 (en) Robot system
US20210158502A1 (en) Analyzing apparatus and method, and image capturing system
JP2006000427A (en) Meal support apparatus
WO2006054484A1 (en) Screen edit apparatus, screen edit method, and screen edit program
CN113168604A (en) Data processing apparatus and data processing method
JP2018082766A (en) Diagnostic system, diagnostic method and program
KR102357507B1 (en) Meal assistance robot based on deep learning and meal assistance method using the same
JP2010236893A (en) Method for detecting relative movement between a plurality of objects
US10708445B2 (en) Information processing apparatus and non-transitory computer readable medium
JP2005070908A (en) Method and system for measuring meal intake for hospital
EP1259059A2 (en) Adjustable image capturing system
CN117415831A (en) Intelligent meal-assisting robot control method and system for improving net food rate
JP6753284B2 (en) Image processing device, mode switching method and mode switching program
Chaudhari et al. Automatic Nuchal Translucency Detection Using CAD-LNet
JP2020157461A (en) Robot system and control method of robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101116