JP5790080B2 - Meal image analysis method, meal image analysis program, and meal image analysis apparatus - Google Patents

Meal image analysis method, meal image analysis program, and meal image analysis apparatus Download PDF

Info

Publication number
JP5790080B2
JP5790080B2 JP2011076749A JP2011076749A JP5790080B2 JP 5790080 B2 JP5790080 B2 JP 5790080B2 JP 2011076749 A JP2011076749 A JP 2011076749A JP 2011076749 A JP2011076749 A JP 2011076749A JP 5790080 B2 JP5790080 B2 JP 5790080B2
Authority
JP
Japan
Prior art keywords
meal
color
image
food
image analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011076749A
Other languages
Japanese (ja)
Other versions
JP2012212249A (en
Inventor
信二 滋野
信二 滋野
佐藤 浩
浩 佐藤
早穂子 秦
早穂子 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011076749A priority Critical patent/JP5790080B2/en
Publication of JP2012212249A publication Critical patent/JP2012212249A/en
Application granted granted Critical
Publication of JP5790080B2 publication Critical patent/JP5790080B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、食事画像解析方法、食事画像解析プログラムおよび食事画像解析装置に関する。   The present invention relates to a meal image analysis method, a meal image analysis program, and a meal image analysis apparatus.

従来から、様々な色の食材を摂取することでバランスが良い食事をとることができるということが知られている。そして、栄養士等が様々な色を含むバランスの良い食生活を促すなどの栄養指導を行っている。   Conventionally, it is known that a well-balanced meal can be taken by ingesting foods of various colors. Nutritionists etc. provide nutritional guidance such as promoting a balanced diet that includes various colors.

また、栄養管理のために、ユーザが摂取した食事の画像を解析することで、ユーザが摂取した食事の量を計測する技術がある。さらに、食事画像から、栄養バランスの一つの指標である食事バランスガイドに沿って、主食、副食などのグループをバランスよく摂取しているか判定する技術がある。   In addition, there is a technique for measuring the amount of meals ingested by the user by analyzing images of meals ingested by the user for nutrition management. Furthermore, there is a technique for determining whether a group such as a staple food or a side meal is being taken in a balanced manner from a meal image according to a meal balance guide that is one index of nutritional balance.

特開2008−204105号公報JP 2008-204105 A

しかしながら、上記した従来の技術では、食事のバランスをユーザが把握するのが容易でないという課題があった。つまり、ユーザが摂取した食事の量を計測する技術では、ユーザの食事による摂取量を計測するが、食事のバランスを把握することができない。また、主食、副食などのグループをバランスよく摂取しているか判定する技術では、主食、副食などのグループをバランスよく摂取しているかを把握することができるが、様々な色の食材を摂取しているか判定することができない。   However, the above-described conventional technique has a problem that it is not easy for the user to grasp the balance of meals. In other words, the technique for measuring the amount of meal consumed by the user measures the amount of intake by the user's meal, but cannot grasp the balance of the meal. In addition, the technology for determining whether a group of staple foods, side dishes, etc. is in good balance can grasp whether a group of staple foods, side dishes, etc. is in good balance, but it is possible to ingest various colors of ingredients. It cannot be determined.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、食事のバランスを容易にユーザに把握させることを目的とする。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to make a user easily understand the balance of meals.

上述した課題を解決し、目的を達成するため、この食事画像解析方法は、撮像画像から抽出された食べ物の画像部分に含まれる複数のを特定し特定した複数の色の間の、複数の色のそれぞれが占める面積の比率を算出し、算出した比率に基づき、食べ物の栄養バランスに関する情報を出力する。 In order to solve the above-described problems and achieve the object, this meal image analysis method specifies a plurality of colors included in an image portion of food extracted from a captured image, and a plurality of colors between the specified plurality of colors. The ratio of the area occupied by each of the colors is calculated, and information on the nutritional balance of the food is output based on the calculated ratio .

開示の方法は、食事のバランスを容易にユーザに把握させることができる。   The disclosed method allows the user to easily grasp the balance of meals.

図1は、実施例1に係る食事画像解析装置の機能的構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the meal image analysis apparatus according to the first embodiment. 図2は、食事画像の例を示す図である。FIG. 2 is a diagram illustrating an example of a meal image. 図3は、登録された器の形状の例を示す図である。FIG. 3 is a diagram illustrating an example of the shape of a registered vessel. 図4は、食材の位置を特定した結果を示す図である。FIG. 4 is a diagram illustrating a result of specifying the position of the food material. 図5は、消失点について説明する図である。FIG. 5 is a diagram for explaining the vanishing point. 図6は、登録された器の形状を消失点に向かう線に合わせて変換する処理を説明する図である。FIG. 6 is a diagram for explaining processing for converting the shape of a registered vessel in accordance with a line toward the vanishing point. 図7は、食材画像の抽出処理を説明する図である。FIG. 7 is a diagram for explaining the process of extracting food image. 図8は、食材画像の色頻度分布を説明する図である。FIG. 8 is a diagram for explaining the color frequency distribution of the food image. 図9は、器の数とサイズから量を推定する処理を説明する図である。FIG. 9 is a diagram for explaining the process of estimating the quantity from the number and size of the vessels. 図10は、食事バランスに関する情報の一例を示す図である。FIG. 10 is a diagram illustrating an example of information regarding meal balance. 図11は、実施例1に係る食事画像解析装置の処理動作を示すフローチャートである。FIG. 11 is a flowchart illustrating the processing operation of the meal image analyzing apparatus according to the first embodiment. 図12は、食事画像解析プログラムを実行するコンピュータを示す図である。FIG. 12 is a diagram illustrating a computer that executes a meal image analysis program.

以下に添付図面を参照して、この発明に係る食事画像解析方法、食事画像解析プログラムおよび食事画像解析装置の実施例を詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Hereinafter, embodiments of a meal image analysis method, a meal image analysis program, and a meal image analysis apparatus according to the present invention will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments.

以下の実施例では、実施例1に係る食事画像解析装置の構成および処理の流れを順に説明し、最後に実施例1による効果を説明する。   In the following examples, the configuration and processing flow of the meal image analyzing apparatus according to the first example will be described in order, and finally the effects of the first example will be described.

[食事画像解析装置の構成]
最初に、図1を用いて、食事画像解析装置の機能的構成を説明する。図1は、実施例1に係る食事画像解析装置の構成を示すブロック図である。図1に示すように、この食事画像解析装置10は、入力部11、出力部12、制御部13、記憶部14を有する。以下にこれらの各部の処理を説明する。
[Configuration of meal image analyzer]
First, the functional configuration of the meal image analyzing apparatus will be described with reference to FIG. FIG. 1 is a block diagram illustrating the configuration of the meal image analysis apparatus according to the first embodiment. As shown in FIG. 1, the meal image analysis apparatus 10 includes an input unit 11, an output unit 12, a control unit 13, and a storage unit 14. The processing of each of these units will be described below.

入力部11は、カメラなどで撮影された、食事部分を含む食事画像などを入力するものであり、キーボードやマウスなどを有する。また、出力部12は、食事のバランスをスコア化した食事バランス数値を表示するものであり、モニタやスピーカなどを有する。   The input unit 11 inputs a meal image including a meal portion taken by a camera or the like, and includes a keyboard and a mouse. The output unit 12 displays a meal balance value obtained by scoring a meal balance, and includes a monitor, a speaker, and the like.

制御部13は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する。また、制御部13は取得部13a、抽出部13b、作成部13c、色算出部13dおよびスコア算出部13eを有する。なお、制御部13には、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などを適用する。   The control unit 13 has an internal memory for storing a program that defines various processing procedures and the necessary data, and executes various processes. The control unit 13 includes an acquisition unit 13a, an extraction unit 13b, a creation unit 13c, a color calculation unit 13d, and a score calculation unit 13e. Note that a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like is applied to the control unit 13.

取得部13aは、入力部11によって入力された食事部分を含む食事画像を取得する。ここで、取得部13aが取得する食事画像について図2の例を用いて説明する。図2は、食事画像の例を示す図である。例えば、図2に例示するように、取得部13aは、食事画像として、ごはん、味噌汁、魚、漬け物などの食事部分と、器や箸などの食事部分以外の部分とが映った食事画像を取得する。その後、取得部13aは、取得した食事画像を抽出部13bに通知する。   The acquisition unit 13a acquires a meal image including a meal portion input by the input unit 11. Here, the meal image which the acquisition part 13a acquires is demonstrated using the example of FIG. FIG. 2 is a diagram illustrating an example of a meal image. For example, as illustrated in FIG. 2, the acquisition unit 13 a acquires a meal image in which a meal part such as rice, miso soup, fish, and pickles and a part other than the meal part such as a bowl and chopsticks are shown as a meal image. To do. Thereafter, the acquisition unit 13a notifies the extraction unit 13b of the acquired meal image.

抽出部13bは、取得部13aが取得した食事画像から食事部分を抽出する。例えば、抽出部13bは、食事画像から食器を検出し、食器の形状特徴を利用して食事部分のみを抽出する。まず、図3を用いて、食事画像に含まれる食器について説明する。食事画像に含まれる食器の形状は、様々なバリエーションがあるが、円形、楕円形、四角形のものが多い。このため、図3に例示するように、円形、楕円形、四角形などの食器の形状を、検出すべき形状として事前に登録しておく。図3は、登録された器の形状の例である。図3の例では、1番目に正方形、2番目に楕円形、3番目に長方形、4番目に円形の図形などが登録されている。   The extraction unit 13b extracts a meal portion from the meal image acquired by the acquisition unit 13a. For example, the extraction unit 13b detects tableware from the meal image and extracts only the meal portion using the shape feature of the tableware. First, the tableware contained in a meal image is demonstrated using FIG. There are various variations in the shape of the tableware included in the meal image, but many are circular, elliptical, and rectangular. For this reason, as illustrated in FIG. 3, the shape of tableware such as a circle, an ellipse, and a rectangle is registered in advance as a shape to be detected. FIG. 3 is an example of the shape of a registered vessel. In the example of FIG. 3, the first square, the second elliptical, the third rectangular, the fourth circular, etc. are registered.

そして、抽出部13bは、既存の技術である幾何学的ハッシングや一般化ハフ変換を用いて、食事画像中の円形、楕円形、四角形などを検出する。図4の例を挙げて説明すると、抽出部13bは、食事画像から円形の食器を3つ、長方形の食器を1つ検出している。図4は、食材の位置を特定した結果を示す図である。なお、ここで幾何学的ハッシングとは、平行移動や回転、スケールの変化に対応できる形状検出手法である。また、一般化ハフ変換とは、形状とポーズ、回転角度の組み合わせで任意の幾何学的図形を検出する手法である。   Then, the extraction unit 13b detects a circle, an ellipse, a quadrangle, and the like in the meal image by using existing techniques such as geometric hashing and generalized Hough transform. Referring to the example of FIG. 4, the extraction unit 13b detects three circular dishes and one rectangular dish from the meal image. FIG. 4 is a diagram illustrating a result of specifying the position of the food material. Here, geometric hashing is a shape detection method that can cope with translation, rotation, and scale changes. The generalized Hough transform is a technique for detecting an arbitrary geometric figure by combining a shape, a pose, and a rotation angle.

なお、上記の抽出部13bの処理では、食事画像が斜めから撮影された場合には、食器の形状が変形して食器の形状を検出するのに不都合が発生する場合がある。このため、抽出部13bは、図5に示すように、ハフ変換により画像から直線を抽出し、平行線が交わる消失点を算出する。図5は、消失点について説明する図である。   In the process of the extraction unit 13b, when the meal image is taken from an oblique direction, the shape of the tableware may be deformed to cause inconvenience in detecting the shape of the tableware. For this reason, as shown in FIG. 5, the extraction unit 13b extracts a straight line from the image by Hough transform, and calculates a vanishing point where the parallel lines intersect. FIG. 5 is a diagram for explaining the vanishing point.

そして、抽出部13bは、図6に示すように、算出された消失点を利用して、事前に登録された食器の形状(図3参照)を撮影画像に合わせた形状に変形させる。そして、抽出部13bは、変形された形状を検出すべき食器の形状として食器の画像を検出することで、食事斜画像が斜めから撮影された食事画像からでも食器の形状を検出することができる。図6は、登録された器の形状を消失点に向かう線に合わせて変換する処理を説明する図である。   Then, as illustrated in FIG. 6, the extraction unit 13 b uses the calculated vanishing point to transform the shape of the tableware registered in advance (see FIG. 3) into a shape that matches the captured image. And the extraction part 13b can detect the shape of tableware even from the meal image by which the meal diagonal image was image | photographed diagonally by detecting the image of tableware as the shape of the tableware which should detect the deformed shape. . FIG. 6 is a diagram for explaining processing for converting the shape of a registered vessel in accordance with a line toward the vanishing point.

食器の形状を検出した後、抽出部13bは、検出した食器の内側の画像を抽出する。図7を用いて詳しい処理を説明すると、抽出部13bは、図7に示すように、食器の形状を検出した食事画像を基に、食器の形状の外側を黒で塗りつぶしたマスク画像を作成する。そして、抽出部13bは、図7に示すように、食事画像とマスク画像とを重畳して、食事部分のみを抽出する。図7は、食材画像の抽出処理を説明する図である。その後、抽出部13bは、抽出した食事部分のデータを作成部13cに通知する。   After detecting the shape of the tableware, the extraction unit 13b extracts an image inside the detected tableware. The detailed processing will be described with reference to FIG. 7. As illustrated in FIG. 7, the extraction unit 13 b creates a mask image in which the outside of the tableware shape is painted black based on the meal image in which the tableware shape is detected. . And the extraction part 13b superimposes a meal image and a mask image, and extracts only a meal part, as shown in FIG. FIG. 7 is a diagram for explaining the process of extracting food image. Thereafter, the extraction unit 13b notifies the data of the extracted meal portion to the creation unit 13c.

作成部13cは、抽出部13bによって抽出された食事部分の色頻度分布を作成する。例えば、作成部13cは、食材画像のデジタルデータからRGB値を取得し、色相(H)、彩度(S)、輝度(I)の情報に変換する。変換式の例を挙げると、作成部13cは、下記(1)式を用いて、RGB値をから色相(H)に算出する。また、作成部13cは、(2)式を用いて、RGB値をから彩度(S)に算出する。また、作成部13cは、(3)式を用いて、RGB値をから輝度(I)に変換する。   The creation unit 13c creates a color frequency distribution of the meal portion extracted by the extraction unit 13b. For example, the creation unit 13c acquires RGB values from the digital data of the food material image and converts them into information on hue (H), saturation (S), and luminance (I). If the example of a conversion type | formula is given, the preparation part 13c will calculate RGB value to hue (H) using the following (1) Formula. Further, the creating unit 13c calculates the RGB value from the equation (2) to saturation (S). Further, the creation unit 13c converts the RGB value from the luminance (I) using the equation (3).

Figure 0005790080
Figure 0005790080

Figure 0005790080
Figure 0005790080

Figure 0005790080
Figure 0005790080

そして、作成部13cは、図8に示すように、食事画像における食事部分の各画素の色を判定し、食事画像における食事部分の画素を色ごとに分類して、食事部分の色頻度分布を作成する。図8の例では、食事画像における食事部分の画素を色ごとに分類して、食事部分の色頻度分布を作成する。その後、作成部13cは、作成した色頻度分布を色情報記憶部14aに格納する。   Then, as shown in FIG. 8, the creating unit 13c determines the color of each pixel of the meal portion in the meal image, classifies the pixels of the meal portion in the meal image for each color, and calculates the color frequency distribution of the meal portion. create. In the example of FIG. 8, the pixels of the meal portion in the meal image are classified by color to create a color frequency distribution of the meal portion. Thereafter, the creation unit 13c stores the created color frequency distribution in the color information storage unit 14a.

色算出部13dは、色情報記憶部14aに記憶された色頻度分布に基づいて、食事部分に含まれる色種類数および色割合を算出する。例えば、図8の例では、食事部分に含まれる色が緑、黄、赤、茶、白および黒(その他)であるため、色算出部13dは、色種類数「6」を算出する。   The color calculation unit 13d calculates the number of color types and the color ratio included in the meal portion based on the color frequency distribution stored in the color information storage unit 14a. For example, in the example of FIG. 8, the colors included in the meal portion are green, yellow, red, brown, white, and black (others), so the color calculation unit 13d calculates the number of color types “6”.

また、色算出部13dは、食事部分の画素数に対する各色の画素数の割合である色割合を算出する。例えば、図8の例では、色算出部13dは、色頻度分布に基づいて、緑が12%、黄色が8%、赤が12%、茶が25%、白が4%、黒(その他)が39%であることを算出する。その後、色算出部13dは、算出した色種類数および色割合を色情報記憶部14aに格納する。   The color calculation unit 13d calculates a color ratio that is a ratio of the number of pixels of each color to the number of pixels of the meal portion. For example, in the example of FIG. 8, the color calculation unit 13d determines that 12% for green, 8% for yellow, 12% for red, 25% for brown, 4% for white, and 4% for black (others) based on the color frequency distribution. Is calculated to be 39%. Thereafter, the color calculation unit 13d stores the calculated number of color types and color ratio in the color information storage unit 14a.

スコア算出部13eは、色情報記憶部14aから色種類数および色割合を読み出し、色種類数および色割合に基づいた食事バランス数値を算出する。例えば、スコア算出部13eは、色種類数が多いほど、また、色割合が予め設定された色割合に近いほど食事バランス数値が大きくなるように、食事バランス数値を算出する。ここで、食事バランス数値(以下、スコアという)の算出方法の例について詳しく説明する。スコア算出部13eは、食事部分における各色の割合が所定の閾値より大きいかそれぞれ判定し、閾値より大きい色数と閾値より大きい色割合とを乗算してスコアを算出する。その後、スコア算出部13eは、算出したスコアを食事バランス記憶部14bに記憶する。なお、スコア算出部13eは、色種類のみに基づいて、スコアを算出してもよい。   The score calculation unit 13e reads the number of color types and the color ratio from the color information storage unit 14a, and calculates a meal balance value based on the number of color types and the color ratio. For example, the score calculation unit 13e calculates the meal balance numerical value so that the meal balance numerical value increases as the number of color types increases and the color ratio approaches the preset color ratio. Here, an example of a method for calculating a meal balance value (hereinafter referred to as a score) will be described in detail. The score calculation unit 13e determines whether the ratio of each color in the meal portion is greater than a predetermined threshold, and calculates the score by multiplying the number of colors greater than the threshold by the color ratio greater than the threshold. Thereafter, the score calculation unit 13e stores the calculated score in the meal balance storage unit 14b. Note that the score calculation unit 13e may calculate the score based only on the color type.

具体例を挙げて説明すると、例えば、閾値が10%で設定され、食事部分における各色の割合が、白60%、緑24%、赤8%、黄8%である場合に、スコア算出部13eは、閾値より大きい色が白および緑の2色であると判定する。そして、スコア算出部13eは、「2色×(0.6+0.24)=1.68」により、スコアが「1.68」であると算出する。このスコアは、値が高いほど食事のバランスが良いことを示している。例えば、1色が100%であった場合、すなわち食事のバランスが悪い場合には、「1色×1.0=1.0」により、スコアが「1.0」となり、スコアが上記の例と比較して低くなる。   For example, when the threshold is set at 10% and the ratio of each color in the meal portion is 60% white, 24% green, 8% red, 8% yellow, the score calculation unit 13e Determines that two colors, white and green, are larger than the threshold. Then, the score calculation unit 13e calculates that the score is “1.68” by “2 colors × (0.6 + 0.24) = 1.68”. This score indicates that the higher the value, the better the meal balance. For example, when one color is 100%, that is, when the balance of the meal is bad, “1 color × 1.0 = 1.0”, the score is “1.0”, and the score is the above example. It becomes low compared with.

また、スコア算出部13eは、食事部分における色バランスだけでなく、食事回数、食事の時間帯、食事の量、食事場所などに応じて、スコアを増減させてもよい。以下、食事の色バランス以外のスコアの算出方法について説明する。例えば、スコア算出部13eは、一日における食事回数が3回なら3点、2回なら2点、それ以外なら1点をスコアに加算する。また、スコア算出部13eは、就寝前3時間の間の食事があった場合には、スコアから0.5点減算する。具体例を挙げると、1日3色、うち1回が就寝前であった場合には、「3食−0.5(就寝前減点)=2.5」でスコアに2.5点加算する。   Further, the score calculation unit 13e may increase or decrease the score according to the number of meals, the meal time zone, the amount of meal, the meal location, etc., as well as the color balance in the meal part. Hereinafter, a method for calculating a score other than the color balance of the meal will be described. For example, the score calculation unit 13e adds 3 points to the score if the number of meals per day is 3 times, 2 points if the number of meals is 2 times, and 1 point otherwise. Moreover, the score calculation part 13e subtracts 0.5 points from a score, when there is a meal for 3 hours before going to bed. To give a specific example, if three colors a day, one of which was before going to bed, 2.5 points are added to the score by “3 meals−0.5 (subtraction before going to bed) = 2.5”. .

また、例えば、スコア算出部13eは、1ヶ月の食事の色のヒストグラムをとり、同じ配色(例えば、カレーなら黄色60%、白40%など)がどのくらいの割合で出現しているか、また、同じ配色が連続してないかをチェックしてポイントを増減させる。具体例を挙げると、1ヶ月に食べた食事のカラーバリエーションが10種類以上だった場合には10ポイント加算する。これにより、1ヶ月の食事における偏食の傾向をスコアに反映することができる。   In addition, for example, the score calculation unit 13e takes a histogram of the color of the meal for one month, and how often the same color scheme (for example, 60% yellow for curry, 40% white, etc.) appears or is the same Check if the color scheme is continuous and increase / decrease points. As a specific example, when there are 10 or more color variations of the meals eaten in one month, 10 points are added. Thereby, the tendency of the unbalanced diet in a 1-month meal can be reflected in a score.

また、例えば、スコア算出部13eは、食事の量に応じて、スコアを増減させる。ここで、食事画像から食事の量を推定する方法について図9を用いて説明する。図9は、器の数とサイズから量を推定する処理を説明する図である。スコア算出部13eは、食器の数と食器のサイズにより、食事の量を算出する。ここで、図9に示すように、箸のサイズを基準にして、食器のサイズを算出する。   For example, the score calculation unit 13e increases or decreases the score according to the amount of meal. Here, a method for estimating the amount of meal from a meal image will be described with reference to FIG. FIG. 9 is a diagram for explaining the process of estimating the quantity from the number and size of the vessels. The score calculation unit 13e calculates the amount of meal based on the number of dishes and the size of the dishes. Here, as shown in FIG. 9, the size of the tableware is calculated based on the size of the chopsticks.

つまり、食器やお盆に比べて箸のサイズは大体同じ大きさであることが多く、食器やお盆に比べてサイズの変動幅が小さい箸を基準にして箸のサイズを算出する事で、食器のサイズを適切に推定することができる。食事の量を算出した後、スコア算出部13eは、食事の量が所定の範囲内にあれば、1点加算し、食事の量が多いまたは少ないために所定の範囲外であれば、1点減算する。   In other words, the size of chopsticks is often the same size compared to tableware and trays, and by calculating the size of chopsticks based on chopsticks that have a smaller variation in size compared to tableware and trays, The size can be estimated appropriately. After calculating the amount of meal, the score calculation unit 13e adds 1 point if the amount of meal is within the predetermined range, and 1 point if the amount of meal is outside the predetermined range because the amount of meal is large or small. Subtract.

また、例えば、スコア算出部13eは、食事場所に応じて、スコアを増減させる。例えば、スコア算出部13eは、GPS(Global Positioning System)などで場所情報を取得し、自宅で食事した場合には、1点加算し、自宅以外で食事した場合には、1点減算する。   For example, the score calculation unit 13e increases or decreases the score according to the meal location. For example, the score calculation unit 13e acquires location information by GPS (Global Positioning System) or the like, and adds 1 point when eating at home, and subtracts 1 point when eating outside the home.

このように、スコア算出部13eは、スコアを算出した後、出力部12を介してスコアを出力する。ここで、スコア算出部13eは、毎回の食事ごとにスコアを算出して出力してもよいし、一日ごとにスコアを算出して出力してもよいし、一ヶ月分統合してスコアを算出して出力してもよい。また、スコア算出部13eは、図10に例示するように、一日における食事時間、食事の量、色配分、場所などの情報を時間ごとに記録した一日の食事表を作成してもよい。図10は、食事バランスに関する情報の一例を示す図である。この場合に、スコア算出部13eは、スコアを出力する際に、その日一日の食事表も一緒に出力してもよい。   As described above, the score calculation unit 13e outputs the score via the output unit 12 after calculating the score. Here, the score calculation unit 13e may calculate and output a score for each meal, calculate and output a score for each day, or integrate the scores for one month. You may calculate and output. Further, as illustrated in FIG. 10, the score calculation unit 13e may create a daily meal table in which information such as meal time, meal amount, color distribution, and location in a day is recorded every hour. . FIG. 10 is a diagram illustrating an example of information regarding meal balance. In this case, when outputting the score, the score calculation unit 13e may also output the meal table for the day.

記憶部14は、制御部13による各種処理に必要なデータおよびプログラムを格納する。また、記憶部14は、色情報記憶部14aおよび食事バランス記憶部14bを有する。なお、記憶部14とは、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ (flash memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。   The storage unit 14 stores data and programs necessary for various processes performed by the control unit 13. The storage unit 14 includes a color information storage unit 14a and a meal balance storage unit 14b. The storage unit 14 is a semiconductor memory device such as a RAM (Random Access Memory), a ROM (Read Only Memory), or a flash memory, or a storage device such as a hard disk or an optical disk.

色情報記憶部14aは、作成部13cによって作成された色頻度分布、色算出部13dによって算出された色種類数および色割合を記憶する。食事バランス記憶部14bは、スコア算出部13eによって算出されたスコア、スコア算出部13eによって作成された一日の食事表(図10参照)を記憶する。   The color information storage unit 14a stores the color frequency distribution created by the creation unit 13c, the number of color types calculated by the color calculation unit 13d, and the color ratio. The meal balance storage unit 14b stores the score calculated by the score calculation unit 13e and the daily meal table (see FIG. 10) created by the score calculation unit 13e.

[食事画像解析装置による処理]
次に、図11を用いて、実施例1に係る食事画像解析装置10による処理を説明する。図11は、実施例1に係る食事画像解析装置の処理動作を示すフローチャートである。
[Processing by meal image analyzer]
Next, processing performed by the meal image analysis apparatus 10 according to the first embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating the processing operation of the meal image analyzing apparatus according to the first embodiment.

図11に示すように、まず、食事画像解析装置10の取得部13aは、食事画像を取得する(ステップS101)。そして、食事画像解析装置10の抽出部13bは、食事画像から器の位置を検出し(ステップS102)、食事部分のみを抽出する(ステップS103)。例えば、抽出部13bは、既存の技術である幾何学的ハッシングや一般化ハフ変換を用いて食事画像中の円形、楕円形、四角形などを検出することで、食器の形状を検出し、検出した食器の内側の画像を食事部分として抽出する。   As shown in FIG. 11, first, the acquisition unit 13a of the meal image analysis apparatus 10 acquires a meal image (step S101). And the extraction part 13b of the meal image analysis apparatus 10 detects the position of a bowl from a meal image (step S102), and extracts only a meal part (step S103). For example, the extraction unit 13b detects the shape of the tableware by detecting a circle, an ellipse, a rectangle, or the like in the meal image using the existing techniques such as geometric hashing or generalized Hough transform. An image inside the tableware is extracted as a meal portion.

続いて、食事画像解析装置10の作成部13cは、食材画像の画素値を色ごとに分類し、食材画像の色頻度分布を作成する(ステップS104)。例えば、作成部13cは、食材画像のデジタルデータからRGB値を取得し、色相(H)、彩度(S)、輝度(I)の情報に変換する。そして、作成部13cは、食事画像における食事部分の各画素の色を判定し、食事画像における食事部分の画素を色ごとに分類して、食事部分の色頻度分布を作成する。   Subsequently, the creation unit 13c of the meal image analysis apparatus 10 classifies the pixel values of the food image for each color and creates a color frequency distribution of the food image (step S104). For example, the creation unit 13c acquires RGB values from the digital data of the food material image and converts them into information on hue (H), saturation (S), and luminance (I). Then, the creation unit 13c determines the color of each pixel of the meal portion in the meal image, classifies the pixels of the meal portion in the meal image for each color, and creates a color frequency distribution of the meal portion.

そして、食事画像解析装置10の色算出部13dは、色種類数および色割合を算出する(ステップS105)。続いて、食事画像解析装置10のスコア算出部13eは、色種類数および色割合に基づいて、スコアを算出する(ステップS106)。例えば、スコア算出部13eは、食事部分における各色の割合が所定の閾値より大きいかそれぞれ判定し、閾値より大きい色数と閾値より大きい色割合とを乗算してスコアを算出する。その後、出力部12は、算出されたスコアを出力し(ステップS107)、処理を終了する。   Then, the color calculation unit 13d of the meal image analysis apparatus 10 calculates the number of color types and the color ratio (step S105). Subsequently, the score calculation unit 13e of the meal image analysis apparatus 10 calculates a score based on the number of color types and the color ratio (step S106). For example, the score calculation unit 13e determines whether the ratio of each color in the meal portion is greater than a predetermined threshold, and calculates the score by multiplying the number of colors greater than the threshold by the color ratio greater than the threshold. Thereafter, the output unit 12 outputs the calculated score (step S107) and ends the process.

[実施例1の効果]
上述してきたように、実施例1に係る食事画像解析装置10は、食事画像を取得し、取得した画像から食事部分を抽出し、食事部分の色頻度分布を作成する。そして、色頻度分布に基づいて、食事部分に含まれる色種類数および色割合を算出し、色種類数および色割合に基づいたスコアを算出し、スコアを出力する。このため、食事のバランスを容易にユーザに把握させることが可能である。
[Effect of Example 1]
As described above, the meal image analysis apparatus 10 according to the first embodiment acquires a meal image, extracts a meal portion from the acquired image, and creates a color frequency distribution of the meal portion. Based on the color frequency distribution, the number of color types and the color ratio included in the meal portion are calculated, a score based on the number of color types and the color ratio is calculated, and the score is output. For this reason, it is possible to make a user grasp the balance of a meal easily.

また、実施例1に係る食事画像解析装置10は、色種類数が多いほど、また、色割合が予め設定された色割合に近いほど食事バランス数値が大きくなるように、スコアを算出する。このため、食事バランスを示すスコアをより精度よく算出することが可能である。   In addition, the meal image analysis apparatus 10 according to the first embodiment calculates the score so that the meal balance value increases as the number of color types increases and as the color ratio approaches the preset color ratio. For this reason, it is possible to calculate the score which shows a meal balance more accurately.

また、実施例1に係る食事画像解析装置10は、食事回数、食事の時間帯、食事の量、食事場所に応じて、スコアを増減するので、食事バランスを示すスコアをより精度よく算出することが可能である。   In addition, the meal image analysis apparatus 10 according to the first embodiment increases or decreases the score according to the number of meals, the meal time zone, the amount of meal, and the meal place, so that the score indicating the meal balance can be calculated more accurately. Is possible.

また、実施例1に係る食事画像解析装置10は、所定期間内における食事バランス数値を統合して算出し、算出した所定期間における食事バランス数値を出力するので、長期的な食事のバランスを容易にユーザに把握させることが可能である。   In addition, the meal image analysis apparatus 10 according to the first embodiment calculates and integrates the meal balance values in a predetermined period and outputs the calculated meal balance values in the predetermined period, so that long-term meal balance can be easily performed. It is possible to make the user grasp.

さて、これまで実施例1について説明したが、上述した実施例1以外にも、種々の異なる形態が実施されてもよい。そこで、以下では実施例2として本実施例に含まれる他の実施例を説明する。   Now, although the first embodiment has been described so far, various different forms other than the first embodiment described above may be implemented. Therefore, another embodiment included in the present embodiment will be described below as a second embodiment.

(1)システム構成等
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、取得部13aと抽出部13bを統合してもよい。
(1) System Configuration, etc. Further, each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the acquisition unit 13a and the extraction unit 13b may be integrated.

(2)プログラム
ところで、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをコンピュータで実行することによって実現することができる。そこで、以下では、図12を用いて、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図12は、食事画像解析プログラムを実行するコンピュータを示す図である。
(2) Program By the way, various processes described in the above embodiments can be realized by executing a program prepared in advance by a computer. In the following, an example of a computer that executes a program having the same function as that of the above embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating a computer that executes a meal image analysis program.

図12に示すように、食事画像解析装置としてのコンピュータ600は、HDD610、RAM620、ROM630およびCPU640をバス650で接続して構成される。   As shown in FIG. 12, a computer 600 serving as a meal image analyzing apparatus is configured by connecting an HDD 610, a RAM 620, a ROM 630, and a CPU 640 via a bus 650.

そして、ROM630には、上記の実施例と同様の機能を発揮する食事画像解析プログラム、つまり、図12に示すように、取得プログラム631、抽出プログラム632、作成プログラム633、色算出プログラム634およびスコア算出プログラム635が予め記憶されている。なお、プログラム631〜635については、図1に示した食事画像解析装置10の各構成要素と同様、適宜統合または分散してもよい。   In the ROM 630, a meal image analysis program that exhibits the same function as in the above embodiment, that is, as shown in FIG. 12, an acquisition program 631, an extraction program 632, a creation program 633, a color calculation program 634, and a score calculation are obtained. A program 635 is stored in advance. In addition, about the programs 631-635, you may integrate or disperse | distribute suitably like each component of the meal image analysis apparatus 10 shown in FIG.

そして、CPU640が、これらのプログラム631〜635をROM630から読み出して実行することで、図12に示すように、各プログラム631〜635は、取得プロセス641、抽出プロセス642、作成プロセス643、色算出プロセス644およびスコア算出プロセス645として機能するようになる。   Then, the CPU 640 reads these programs 631 to 635 from the ROM 630 and executes them, so that each program 631 to 635 has an acquisition process 641, an extraction process 642, a creation process 643, and a color calculation process, as shown in FIG. 644 and a score calculation process 645.

また、HDD610には、図12に示すように、色データ611およびスコアデータ612が設けられる。そして、CPU640は、色データ611およびスコアデータ612に対してデータを登録するとともに、色データ611およびスコアデータ612を読み出してRAM620に格納し、RAM620に格納されたデータに基づいて処理を実行する。   The HDD 610 is provided with color data 611 and score data 612 as shown in FIG. The CPU 640 registers data for the color data 611 and the score data 612, reads the color data 611 and the score data 612, stores the data in the RAM 620, and executes processing based on the data stored in the RAM 620.

10 食事画像解析装置
11 入力部
12 出力部
13 制御部
13a 取得部
13b 抽出部
13c 作成部
13d 色算出部
13e スコア算出部
14 記憶部
14a 色情報記憶部
14b 食事バランス記憶部
DESCRIPTION OF SYMBOLS 10 Meal image analyzer 11 Input part 12 Output part 13 Control part 13a Acquisition part 13b Extraction part 13c Creation part 13d Color calculation part 13e Score calculation part 14 Storage part 14a Color information storage part 14b Meal balance storage part

Claims (10)

コンピュータが、
撮像画像から抽出された食べ物の画像部分に含まれる複数のを特定し
特定した前記複数の色の間の、前記複数の色のそれぞれが占める面積の比率を算出し、
算出した前記比率に基づき、前記食べ物の栄養バランスに関する情報を出力することを特徴とする食事画像解析方法。
Computer
Identify multiple colors in the food image portion extracted from the captured image,
Calculating the ratio of the area occupied by each of the plurality of colors between the plurality of identified colors;
A meal image analysis method, comprising: outputting information relating to the nutritional balance of the food based on the calculated ratio .
記憶領域に記憶された前記撮像画像を取得し、
取得した前記撮像画像に含まれる食べ物の画像部分を特定し、
特定した前記食べ物の画像部分に含まれる複数の画素各々の値に基づいて、該複数の画素の色頻度分布を作成し、
作成した前記色頻度分布に基づいて、前記食べ物の画像部分に含まれる色種類数を算出し、
算出した前記色種類数に基づき、食事バランス数値を算出し、
算出した食事バランス数値を出力することを特徴とする請求項1記載の食事画像解析方法。
Obtaining the captured image stored in the storage area;
Identify the image part of the food included in the acquired captured image,
Based on the value of each of a plurality of pixels included in the identified image portion of the food, a color frequency distribution of the plurality of pixels is created,
Based on the created color frequency distribution, calculate the number of color types included in the image portion of the food,
Based on the calculated number of color types, a meal balance value is calculated,
The meal image analysis method according to claim 1, wherein the calculated meal balance value is output.
前記コンピュータは、さらに、
前記色頻度分布に基づいて、前記食べ物の画像部分に含まれる色の割合を算出し、
前記食事バランス数値を算出する処理において、
さらに、前記色の割合に基づいて、該食事バランス数値を算出することを特徴とする請求項2記載の食事画像解析方法。
The computer further includes:
Based on the color frequency distribution, calculate the proportion of colors included in the image portion of the food,
In the process of calculating the meal balance value,
The meal image analysis method according to claim 2, wherein the meal balance value is calculated based on the color ratio.
前記色種類数が多いほど、また、前記色割合が予め設定された色割合に近いほど前記食事バランス数値が大きくなるように、前記食事バランス数値を算出することを特徴とする請求項3記載の食事画像解析方法。   4. The meal balance value is calculated so that the meal balance value increases as the number of color types increases and the color ratio approaches a preset color ratio. Meal image analysis method. 食事回数、食事の時間帯、食事の量、食事場所に応じて、前記食事バランス数値を増減することを特徴とする請求項2〜4のいずれか一つに記載の食事画像解析方法。   The meal image analysis method according to any one of claims 2 to 4, wherein the meal balance value is increased or decreased according to the number of meals, a meal time zone, the amount of meals, and a meal place. 所定期間内における前記食事バランス数値を統合して算出し、
算出した所定期間における前記食事バランス数値を出力することを特徴とする請求項2〜5のいずれか一つに記載の食事画像解析方法。
Calculate and integrate the meal balance values within a given period,
The meal image analysis method according to any one of claims 2 to 5, wherein the meal balance numerical value in the calculated predetermined period is output.
所定期間内の食事ごとの前記色頻度分布による、当該所定期間内における前記食べ物の画像部分の配色傾向に基づいて、前記食事バランス数値を算出することを特徴とする請求項2〜6のいずれか一つに記載の食事画像解析方法。   7. The meal balance value is calculated based on a color arrangement tendency of the image portion of the food within the predetermined period based on the color frequency distribution for each meal within the predetermined period. The meal image analysis method as described in one. 前記撮像画像から食器を検出し、検出した食器の内側の画像部分を前記食べ物の画像部分として特定することを特徴とする請求項1〜7のいずれか一つに記載の食事画像解析方法。   The meal image analysis method according to any one of claims 1 to 7, wherein tableware is detected from the captured image, and an image portion inside the detected tableware is specified as an image portion of the food. コンピュータに、
撮像画像から抽出された食べ物の画像部分に含まれる複数のを特定し
特定した前記複数の色の間の、前記複数の色のそれぞれが占める面積の比率を算出し、
算出した前記比率に基づき、前記食べ物の栄養バランスに関する情報を出力する、
処理を実行させる食事画像解析プログラム。
On the computer,
Identify multiple colors in the food image portion extracted from the captured image,
Calculating the ratio of the area occupied by each of the plurality of colors between the plurality of identified colors;
Based on the calculated ratio , information on the nutritional balance of the food is output.
A meal image analysis program for executing processing.
撮像画像から抽出された食べ物の画像部分に含まれる複数のを特定し特定した前記複数の色の間の、前記複数の色のそれぞれが占める面積の比率を算出する算出部と、
算出した前記比率に基づき、前記食べ物の栄養バランスに関する情報を出力する出力部と、
を有することを特徴とする食事画像解析装置。
A calculation unit that identifies a plurality of colors included in an image portion of food extracted from the captured image, and calculates a ratio of an area occupied by each of the plurality of colors between the plurality of identified colors ;
An output unit that outputs information on the nutritional balance of the food based on the calculated ratio ;
A meal image analyzing apparatus characterized by comprising:
JP2011076749A 2011-03-30 2011-03-30 Meal image analysis method, meal image analysis program, and meal image analysis apparatus Active JP5790080B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076749A JP5790080B2 (en) 2011-03-30 2011-03-30 Meal image analysis method, meal image analysis program, and meal image analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076749A JP5790080B2 (en) 2011-03-30 2011-03-30 Meal image analysis method, meal image analysis program, and meal image analysis apparatus

Publications (2)

Publication Number Publication Date
JP2012212249A JP2012212249A (en) 2012-11-01
JP5790080B2 true JP5790080B2 (en) 2015-10-07

Family

ID=47266158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076749A Active JP5790080B2 (en) 2011-03-30 2011-03-30 Meal image analysis method, meal image analysis program, and meal image analysis apparatus

Country Status (1)

Country Link
JP (1) JP5790080B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020222561A1 (en) * 2019-04-29 2020-11-05 주식회사 누비랩 Food measurement method, device, and program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255819B2 (en) * 2013-09-09 2018-01-10 富士通株式会社 COMPUTER PROGRAM FOR MEASUREMENT, MEASUREMENT DEVICE AND MEASUREMENT METHOD
JP2017045340A (en) * 2015-08-28 2017-03-02 明宏 瀧口 Meal content input system
WO2021085369A1 (en) * 2019-10-31 2021-05-06 富士フイルム株式会社 Meal amount measuring device and method
KR102436656B1 (en) * 2020-10-05 2022-08-25 넷마블 주식회사 Method for providing educational game to improve eating habits
WO2023242895A1 (en) * 2022-06-13 2023-12-21 三菱電機株式会社 Nutrient determination system, nutrient determination apparatus, nutrient determination method, and nutrient determination program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869969B2 (en) * 2007-02-06 2012-02-08 京セラミタ株式会社 Image reading apparatus and image forming apparatus
JP2008204105A (en) * 2007-02-19 2008-09-04 Shikoku Chuboki Seizo Kk Automatic food intake measuring system and automatic dietary intake measuring method
JP4907566B2 (en) * 2008-01-23 2012-03-28 ヤフー株式会社 Device and method for supporting diet

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020222561A1 (en) * 2019-04-29 2020-11-05 주식회사 누비랩 Food measurement method, device, and program

Also Published As

Publication number Publication date
JP2012212249A (en) 2012-11-01

Similar Documents

Publication Publication Date Title
JP5790080B2 (en) Meal image analysis method, meal image analysis program, and meal image analysis apparatus
Fu et al. Computer-aided bleeding detection in WCE video
US9892656B2 (en) System and method for nutrition analysis using food image recognition
CN104778374A (en) Automatic dietary estimation device based on image processing and recognizing method
CN102496157B (en) Image detection method based on Gaussian multi-scale transform and color complexity
US8693784B2 (en) Eyelid detection device and program
US10687913B2 (en) Image processing device, image processing method, and computer-readable recording medium for detecting abnormality from intraluminal image using integrated feature data
CN106250431B (en) A kind of Color Feature Extraction Method and costume retrieval system based on classification clothes
JP2008204105A (en) Automatic food intake measuring system and automatic dietary intake measuring method
US20140304271A1 (en) Method To Identify An Object And A System For Doing The Same
US11250570B2 (en) Display rack image processing device, image processing method, and recording medium
WO2015074521A1 (en) Devices and methods for positioning based on image detection
KR101340180B1 (en) Apparatus and method of diagnosing health by separating region of tongue coating from region of tongue substance
CN115115645A (en) Tongue image greasy characteristic data identification and detection method and system
JP6316569B2 (en) Article identification system and its program
CN106650187A (en) Control method and apparatus
US11430154B2 (en) Classification of change related to display rack
WO2016067573A1 (en) Orientation estimation method and orientation estimation device
TW201639520A (en) Information processing apparatus, information processing method, and program
Chiang et al. Food calorie and nutrition analysis system based on mask r-cnn
Kwon et al. Adaptive Skin Color Detection through Iterative Illuminant Color Estimation and Conversion for Preferred Skin Color Reproduction
JP5538969B2 (en) Image target detection apparatus and image target detection method
JP2006201893A (en) Method and system for calculating nutrients
Petrellis Plant lesion characterization for disease recognition A Windows Phone application
Aparna et al. Simulation model for anemia detection using RBC counting algorithms and Watershed transform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150601

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150720

R150 Certificate of patent or registration of utility model

Ref document number: 5790080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150