JP2010061383A - Automatic recipe creation apparatus and program - Google Patents

Automatic recipe creation apparatus and program Download PDF

Info

Publication number
JP2010061383A
JP2010061383A JP2008226208A JP2008226208A JP2010061383A JP 2010061383 A JP2010061383 A JP 2010061383A JP 2008226208 A JP2008226208 A JP 2008226208A JP 2008226208 A JP2008226208 A JP 2008226208A JP 2010061383 A JP2010061383 A JP 2010061383A
Authority
JP
Japan
Prior art keywords
dish
image
recipe
evaluation
serving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008226208A
Other languages
Japanese (ja)
Inventor
Nobuki Takahashi
信樹 高橋
Masanaga Nakamura
正永 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008226208A priority Critical patent/JP2010061383A/en
Publication of JP2010061383A publication Critical patent/JP2010061383A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problems wherein doneness of dishes prepared by recipes cannot be evaluated objectively and past evaluations cannot be reflected in later recipes. <P>SOLUTION: An automatic recipe creation apparatus includes an imaging means for capturing a dish presentation image, an image processing means for extracting presentation features from the dish presentation image captured by the imaging means, a recipe database for storing presentation images and presentation standards of each kind of dish, and an evaluation means for comparing the presentation features extracted by the image processing means with the presentation standards stored in the recipe database. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、料理の出来映えを評価する自動レシピ作成装置およびプログラムに関する。   The present invention relates to an automatic recipe creation apparatus and program for evaluating the performance of a dish.

従来、手入力された食材情報に基づいてコンピュータが当該食材を使用したレシピ(料理名および調理方法など)を表示するレシピ提供システムが考えられている(例えば、特許文献1参照)。一方で、気軽に撮影できるデジタルカメラの普及に伴い、料理を撮影してプログに登録したり、レシピを公開する人が増えており、料理の出来映えを評価し合うインターネットサイトもある。また、デジタルカメラの画像処理技術の向上により、撮影画像の中から様々な画像認識を行えるようになってきており、顔認識や表情認識などが実用化されている。
特開平11−066170号公報
2. Description of the Related Art Conventionally, a recipe providing system in which a computer displays a recipe (such as a cooking name and a cooking method) using the food based on manually input food information has been considered (see, for example, Patent Document 1). On the other hand, with the widespread use of digital cameras that can be easily photographed, an increasing number of people shoot food and register it in blogs, or publish recipes, and there are Internet sites that evaluate the performance of dishes. In addition, with the improvement of image processing technology of digital cameras, various image recognition can be performed from captured images, and face recognition and facial expression recognition have been put into practical use.
Japanese Patent Application Laid-Open No. 11-066170

ところが、従来は、レシピを見て調理した料理の出来映えを客観的に評価できなかった。また、レシピを見て調理した料理の味が薄過ぎたり、濃過ぎたりした場合でも、次に同じ料理を作る場合は前回と同じ分量のレシピが表示されるため、調理する人が前回の味付けの失敗を覚えていない限り再び同じ味付けになってしまうという問題があった。   However, in the past, it was not possible to objectively evaluate the performance of a dish prepared by looking at the recipe. Even if the taste of the dish cooked by looking at the recipe is too light or too dark, the next time you make the same dish, the same amount of recipe will be displayed as before, so the person who cooks will There was a problem that it would be the same seasoning again unless you remember the failure.

本発明の目的は、煩雑な操作を行うことなく、料理の盛りつけ画像から自動的に出来映えを評価することができ、評価結果を次の料理のレシピに反映することができる自動レシピ作成装置およびプログラムを提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an automatic recipe creation apparatus and program capable of automatically evaluating the workmanship from a dish arrangement image without performing complicated operations and reflecting the evaluation result in the recipe for the next dish. Is to provide.

本発明に係る自動レシピ作成装置は、料理の盛りつけ画像を撮影する撮像手段と、前記撮像手段で撮影された料理の盛りつけ画像から盛りつけの特徴量を抽出する画像処理手段と、料理の種類毎に該料理の盛りつけ画像と盛りつけ基準とを記憶するレシピデータベースと、前記画像処理手段で抽出した盛りつけの特徴量と前記レシピデータベースに記憶された盛りつけ基準とを比較する評価手段とを有することを特徴とする。   An automatic recipe creation device according to the present invention includes an imaging unit that captures a dish arrangement image, an image processing unit that extracts a feature amount of the dish from the dish arrangement image captured by the imaging unit, and a type of dish. It has a recipe database for storing the cooking image of the dish and the serving standard, and an evaluation unit for comparing the serving feature amount extracted by the image processing unit with the serving standard stored in the recipe database. To do.

また、好ましくは、前記画像処理手段が抽出する盛りつけの特徴量は、料理の配色,皿に対する料理の配置および形状,皿と料理の面積比率,具材の分散の少なくとも一つによって求められ、前記レシピデータベースに記憶される盛りつけ基準は、料理の配色,皿に対する料理の配置および形状,皿と料理の面積比率,具材の分散の少なくとも一つによって決められることを特徴とする。   Preferably, the serving feature amount extracted by the image processing means is determined by at least one of the color scheme of the dish, the arrangement and shape of the dish relative to the dish, the area ratio of the dish to the dish, and the dispersion of ingredients, The serving standard stored in the recipe database is determined by at least one of the color scheme of the dish, the arrangement and shape of the dish with respect to the dish, the area ratio of the dish to the dish, and the distribution of ingredients.

また、好ましくは、表示手段を更に設け、前記評価手段は、評価結果を前記表示手段に表示することを特徴とする。   Preferably, display means is further provided, and the evaluation means displays the evaluation result on the display means.

また、好ましくは、前記評価手段は、前記評価結果を数値または記号で前記表示手段に表示することを特徴とする。   Preferably, the evaluation unit displays the evaluation result on the display unit with a numerical value or a symbol.

また、好ましくは、前記評価手段は、前記撮像手段で撮影した料理の盛りつけ画像を過去の例として前記レシピデータベースの当該料理の種類に関連付けて記憶することを特徴とする。   Preferably, the evaluation unit stores the dish arrangement image photographed by the imaging unit in association with the type of the dish in the recipe database as a past example.

また、好ましくは、前記評価手段は、前記撮像手段で撮影した料理の盛りつけ画像を過去の例として前記レシピデータベースの当該料理の種類に関連付けて記憶する際に、前記評価手段の評価結果を付加して記憶することを特徴とする。   Preferably, the evaluation unit adds the evaluation result of the evaluation unit when storing the dish arrangement image photographed by the imaging unit in association with the type of the dish in the recipe database as a past example. It is memorized.

また、好ましくは、コメントを入力するコメント入力手段を更に設け、前記評価手段は、前記撮像手段で撮影した料理の盛りつけ画像を過去の例として前記レシピデータベースの当該料理の種類に関連付けて記憶する際に、前記評価手段の評価結果と前記コメント入力手段で入力された情報とを付加して記憶することを特徴とする。   Preferably, comment input means for inputting a comment is further provided, and the evaluation means stores, as a past example, the dish arrangement image taken by the imaging means in association with the type of the dish in the recipe database. Further, the evaluation result of the evaluation means and the information input by the comment input means are added and stored.

また、好ましくは、前記コメント入力手段で入力された情報に応じて、前記レシピデーターベースに記憶されたレシピ内容を変更するレシピ変更手段を更に設けたことを特徴とする。   Preferably, a recipe changing means is further provided for changing the contents of the recipe stored in the recipe database in accordance with the information input by the comment input means.

本発明に係る自動レシピ作成プログラムは、コンピュータを用いて処理されるプログラムであって、料理の盛りつけ画像を入力する画像入力手段と、前記画像入力手段で入力された料理の盛りつけ画像から盛りつけの特徴量を抽出する画像処理手順と、料理の種類毎に該料理の盛りつけ画像と盛りつけ基準とを記憶するレシピデータベースに記憶された盛りつけ基準と前記画像処理手段で抽出した盛りつけの特徴量とを比較する評価手順とを有することを特徴とする。   The automatic recipe creation program according to the present invention is a program processed using a computer, and features an image input means for inputting a dish image and a dish feature from the dish image input by the image input means. The image processing procedure for extracting the amount and the serving standard stored in the recipe database for storing the cooking image and the serving standard for each type of cooking are compared with the serving feature amount extracted by the image processing means. And an evaluation procedure.

本発明では、煩雑な操作を行うことなく、料理の盛りつけ画像から自動的に出来映えを評価することができ、評価結果を次の料理のレシピに反映することができる。   In the present invention, the workmanship can be automatically evaluated from the dish arrangement image without performing complicated operations, and the evaluation result can be reflected in the recipe for the next dish.

以下、本発明に係る自動レシピ作成装置およびプログラムに関する実施形態について説明する。   Embodiments relating to an automatic recipe creating apparatus and a program according to the present invention will be described below.

(第1の実施形態)
第1の実施形態は、デジタルカメラ101で自動レシピ作成装置を実現する場合の一例である。図1は、デジタルカメラ101の構成を示すブロック図である。デジタルカメラ101は、撮影光学系102と、撮像素子103と、AFE(アナログフロントエンド)104と、A/D変換部105と、画像バッファ106と、制御部107と、表示部108と、メモリカードI/F109と、操作部110と、メモリ111と、デートモジュール112と、手振れセンサ114とで構成される。
(First embodiment)
The first embodiment is an example in which an automatic recipe creation apparatus is realized by the digital camera 101. FIG. 1 is a block diagram illustrating a configuration of the digital camera 101. The digital camera 101 includes a photographing optical system 102, an image sensor 103, an AFE (analog front end) 104, an A / D conversion unit 105, an image buffer 106, a control unit 107, a display unit 108, and a memory card. An I / F 109, an operation unit 110, a memory 111, a date module 112, and a camera shake sensor 114 are included.

図1において、撮影光学系102に入射された被写体光は、撮像素子103の受光面に入射される。ここで、撮影光学系102は、ズームレンズやフォーカスレンズなどの複数枚のレンズで構成され、制御部107からのズーム指令によってズームレンズを移動したり、フォーカス指令によってフォーカスレンズを移動する。尚、ズームレンズの位置やフォーカスレンズの位置は制御部107に出力される。   In FIG. 1, the subject light incident on the photographing optical system 102 is incident on the light receiving surface of the image sensor 103. Here, the photographing optical system 102 includes a plurality of lenses such as a zoom lens and a focus lens, and moves the zoom lens according to a zoom command from the control unit 107 or moves the focus lens according to a focus command. The position of the zoom lens and the position of the focus lens are output to the control unit 107.

撮像素子103の受光面には二次元状に光電変換部が配置されており、各光電変換部に入射された光は制御部107から出力されるタイミング信号に応じて電気信号に変換され、変換された電気信号はAFE104に出力される。   A photoelectric conversion unit is two-dimensionally arranged on the light receiving surface of the image sensor 103, and light incident on each photoelectric conversion unit is converted into an electrical signal in accordance with a timing signal output from the control unit 107, and converted. The electrical signal thus output is output to the AFE 104.

AFE104は、制御部107から出力されるタイミング信号に応じて、撮像素子103から出力される電気信号のノイズ除去や増幅などを行って、A/D変換部105に出力する。   The AFE 104 performs noise removal or amplification of the electrical signal output from the image sensor 103 in accordance with the timing signal output from the control unit 107 and outputs the result to the A / D conversion unit 105.

A/D変換部105は、制御部107から出力されるタイミング信号に応じて、AFE104から出力される電気信号をデジタル信号に変換する。そして、1画面分のデジタル信号が撮影画像の画像データとして画像バッファ106に一時的に記憶される。   The A / D converter 105 converts the electrical signal output from the AFE 104 into a digital signal in accordance with the timing signal output from the controller 107. A digital signal for one screen is temporarily stored in the image buffer 106 as image data of a captured image.

制御部107は、内部に予め記憶されているプログラムに従って動作し、デジタルカメラ101の各部を制御する。例えば、画像バッファ106に一時的に記憶されている画像データに対して、色補間処理やホワイトバランス処理などを行い、表示部108に撮影画像として表示する。或いは、色補間処理やホワイトバランス処理後の画像データにJPEG圧縮処理などの画像圧縮処理を行う。尚、画像圧縮されたJPEG形式の画像データはメモリカードI/F109を介して接続されているメモリカード109aに保存される。   The control unit 107 operates according to a program stored therein in advance, and controls each unit of the digital camera 101. For example, color interpolation processing, white balance processing, or the like is performed on the image data temporarily stored in the image buffer 106 and displayed on the display unit 108 as a captured image. Alternatively, image compression processing such as JPEG compression processing is performed on the image data after color interpolation processing and white balance processing. The compressed image data in JPEG format is stored in the memory card 109a connected via the memory card I / F 109.

表示部108は、制御部107の指令に応じて、撮影画像や文字および図形などで構成されるメニュー画面などを表示する。特に、本実施形態では、料理画像,調理器具画像およびレシピなどを表示する。   The display unit 108 displays a menu screen composed of captured images, characters, graphics, and the like according to instructions from the control unit 107. In particular, in this embodiment, a cooking image, a cooking utensil image, a recipe, and the like are displayed.

操作部110は、図2のデジタルカメラ101の外観図に示すように、電源ボタン201、レリーズボタン202、ズームボタン203、十字キー204(上キー204a,下キー204b,左キー204c,右キー204d)、確定ボタン205などで構成される。ユーザーは、これらの操作ボタンを操作してデジタルカメラ101を操作する。これらの操作ボタンの操作情報は、制御部107に出力され、制御部107は、操作部110から入力する操作情報に応じて、デジタルカメラ101の全体の動作を制御する。また、操作部110は、図2の表示部108の画面に表示される項目A,項目Bおよび項目Cなどを十字キー204で選択し、確定ボタン205を押下して選択を確定する。例えば、十字キー204の上キー204aまたは下キー204bを押下する毎に、項目A,項目B,項目Cの3つの選択対象が順に選択され、選択された項目は太枠で表示される。また、1画面に表示できない項目は別の画面で表示するようにし、次画面や前画面への操作は、例えば十字キー204の左キー204cで前画面へ、右キー204dで次画面へ、それぞれ移動することができる。   The operation unit 110 includes a power button 201, a release button 202, a zoom button 203, a cross key 204 (up key 204a, down key 204b, left key 204c, right key 204d, as shown in the external view of the digital camera 101 in FIG. ), A confirmation button 205 and the like. The user operates the digital camera 101 by operating these operation buttons. The operation information of these operation buttons is output to the control unit 107, and the control unit 107 controls the entire operation of the digital camera 101 according to the operation information input from the operation unit 110. Further, the operation unit 110 selects the item A, the item B, the item C, and the like displayed on the screen of the display unit 108 in FIG. 2 with the cross key 204 and presses the confirm button 205 to confirm the selection. For example, each time the upper key 204a or the lower key 204b of the cross key 204 is pressed, three selection targets of item A, item B, and item C are selected in order, and the selected item is displayed with a thick frame. In addition, items that cannot be displayed on one screen are displayed on another screen, and operations on the next screen and the previous screen are performed, for example, using the left key 204c of the cross key 204 to the previous screen and the right key 204d to the next screen. Can move.

図2の場合は、項目Bが十字キー204で選択された場合を示し、項目Bは選択されていることを示す太枠で囲まれて表示されている。このように太枠で項目が囲まれた状態で、確定ボタン205を押下すると、太枠で囲まれていた項目の選択が確定する。   In the case of FIG. 2, the item B is selected with the cross key 204, and the item B is displayed surrounded by a thick frame indicating that it is selected. When the confirm button 205 is pressed in a state where the items are surrounded by the thick frames in this way, the selection of the items surrounded by the thick frames is confirmed.

メモリ111は、フラッシュメモリなど不揮発性の記憶媒体で構成される。メモリ111には、デジタルカメラ101の撮影条件(撮影モード、撮影画像の解像度など)が保存されている。また、色補間処理やホワイトバランス処理後の画像データや、メモリカード109aに読み書きされるJPEG形式の画像データなども必要に応じてメモリ111に保持される。また、本実施形態では、レシピや食材や人物などに関する様々なデータベースもメモリ111に記憶される。尚、データベースの詳細な内容については、後で詳しく説明する。   The memory 111 is composed of a nonvolatile storage medium such as a flash memory. The memory 111 stores shooting conditions (such as a shooting mode and a resolution of a shot image) of the digital camera 101. Further, image data after color interpolation processing and white balance processing, JPEG format image data read / written to / from the memory card 109a, and the like are also held in the memory 111 as necessary. In the present embodiment, various databases relating to recipes, foodstuffs, persons, and the like are also stored in the memory 111. The detailed contents of the database will be described in detail later.

デートモジュール112は、撮影年月日や時間を得るための時計カレンダ機能を有するICチップで構成され、デジタルカメラ101で画像を撮影する毎に、撮影時の年月日や時間を制御部107に出力し、制御部107は撮影画像と共にメモリ111やメモリカード109aに記録する。
[データベースの構成]
ここで、メモリ111に記憶されるデータベースの構成について詳しく説明する。メモリ111には情報の種類毎に記憶する領域が設けられ、食材データベース(食材DB)111aと、調理器具データベース(調理器具DB)111bと、レシピデータベース(レシピDB)111cと、人物データベース(人物DB)111dと、その他データベース(その他DB)111eとを有する。以下、各データベースについて順番に説明する。
(食材DB111a)
食材DB111aは、食材画像や食材情報を記憶する。尚、メモリ111には、デジタルカメラ101の製品出荷時に予め食材画像とその食材画像に対応する食材情報(食材名や特徴など)が食材DB111aとして記憶されていても良いし、デジタルカメラ101を購入後にユーザーが登録するようにしても構わない。本実施形態では、デジタルカメラ101の製品出荷時に予め主要な食材画像とその食材画像に対応する食材情報(食材名や特徴など)が食材DB111aとして記憶されており、また食材DB111aとして記憶されていない食材画像や食材情報は、後から追加登録できるようになっている。
(調理器具DB111b)
調理器具DB111bは、調理器具画像や調理器具情報を記憶する。尚、調理器具DB111bについても、撮影された調理器具を判別するための主要な調理器具画像や調理器具情報は予め登録されているが、特に調理器具DB111bの場合は、ユーザーが持っている調理器具やサイズなどの情報を蓄積するため、デジタルカメラ101を購入後にユーザーが登録するようになっている。
(レシピDB111c)
レシピDB111cは、料理画像や料理名および調理方法などのレシピ情報を記憶する。特に、本実施形態では、料理の盛り付け画像や、盛り付けの美しさを評価するための情報が記憶されている。尚、メモリ111には、デジタルカメラ101の製品出荷時に予め主要な料理画像,料理名,調理方法,料理の盛り付けに関する情報などのレシピ情報がレシピDB111cとして記憶されているが、レシピDB111cとして記憶されていない料理については、デジタルカメラ101に「レシピ登録モード」を設け、その料理の料理名や料理画像および調理方法などをレシピDB111cに追加登録できるようになっている。
(人物DB111d)
人物DB111dは、特定人物の顔データ(顔の特徴量),基本情報(性別,生年月日,出身地など),好物の食材名や料理名,苦手な食材名や料理名,アレルギー情報(アレルギーがある食材名)などの人物情報を記憶する。尚、人物DB111dへの登録は、デジタルカメラ101に「人物登録モード」を設け、撮像素子103で撮影された人物画像や顔の特徴量を抽出する。そして、人物情報を入力する画面で、撮影された人物の基本情報,好物の食材や料理,苦手な食材や料理,アレルギーのある食材名などを人物DB111dに登録する。
(その他DB111e)
その他DB111eは、人間に必要とされている栄養情報など性別や年齢などに応じた一般的な情報が記憶されている。例えば「男性」や「女性」の年齢別の栄養重視マップとして、カロリー,脂肪分,タンパク質,糖分,ビタミンC,ミネラル,食物繊維などの各栄養項目に対して、重視する度合いを年齢毎に示した情報を記憶する。尚、その他DB111eは、デジタルカメラ101の製品出荷時に予め上記のような栄養情報を記憶しておいても構わないが、デジタルカメラ101に「その他情報登録モード」を設け、人物DB111dなどと同様に、デジタルカメラ101を購入後にユーザーが登録できるようにしても構わない。
[制御部107の構成]
次に、図1の制御部107の構成について詳しく説明する。制御部107は、レンズ制御部121と、食材認識部122と、レシピ作成部123と、調理器具認識部125と、AF制御部126と、人物認識部127と、料理評価部128とで構成される。尚、本実施形態では説明が分かり易いように、レンズ制御部121,食材認識部122,レシピ作成部123,調理器具認識部125,AF制御部126,人物認識部127,料理評価部128は、制御部107の処理に含めて描いてあるが、制御部107とは別の専用のICチップなどで構成しても構わない。以下、各部の処理について詳しく説明する。
(レンズ制御部121およびAF制御部126の処理)
レンズ制御部121は、操作部110のズームボタン203の操作に応じて、レンズ制御部121を介して撮影光学系102のズームレンズの位置を移動する。また、AF制御部126は、画像バッファ106に取り込まれた画像の所定位置(AF測定位置)において山登り方式などの焦点検出方式によってデフォーカス量を算出し、焦点位置を求める。制御部107は、AF制御部126が求めた焦点位置になるように、レンズ制御部121を介して撮影光学系102のフォーカスレンズの位置を調節する。
The date module 112 is composed of an IC chip having a clock calendar function for obtaining a shooting date and time, and each time an image is taken by the digital camera 101, the date and time at the time of shooting are sent to the control unit 107. The control unit 107 records it in the memory 111 and the memory card 109a together with the captured image.
Database configuration
Here, the configuration of the database stored in the memory 111 will be described in detail. The memory 111 has an area for storing each type of information. The food database (food DB) 111a, the cookware database (cooking tool DB) 111b, the recipe database (recipe DB) 111c, and the person database (person DB) ) 111d and other database (other DB) 111e. Hereinafter, each database will be described in turn.
(Food material DB111a)
The food DB 111a stores food images and food information. The memory 111 may store the food image and the food information corresponding to the food image (food name, characteristics, etc.) as the food DB 111a in advance when the digital camera 101 is shipped, or purchase the digital camera 101. The user may register later. In the present embodiment, when the digital camera 101 is shipped, main food images and food information (food names, features, etc.) corresponding to the food images are stored as the food DB 111a and are not stored as the food DB 111a. The food image and the food information can be additionally registered later.
(Cooking utensil DB111b)
The cooking utensil DB 111b stores cooking utensil images and cooking utensil information. The cooking utensil DB 111b is also registered in advance with the main cooking utensil images and cooking utensil information for discriminating the taken cooking utensils, but in the case of the cooking utensil DB 111b in particular, the cooking utensil held by the user In order to store information such as size and size, the user registers the digital camera 101 after purchase.
(Recipe DB 111c)
The recipe DB 111c stores recipe information such as cooking images, cooking names, and cooking methods. In particular, in the present embodiment, information for evaluating the food arrangement image and the beauty of the arrangement is stored. In the memory 111, recipe information such as main cooking images, cooking names, cooking methods, and information on cooking arrangement is stored in advance as the recipe DB 111c when the digital camera 101 is shipped, but is stored as the recipe DB 111c. For a dish that has not been created, a “recipe registration mode” is provided in the digital camera 101 so that the dish name, dish image, cooking method, etc. of the dish can be additionally registered in the recipe DB 111c.
(Person DB 111d)
The person DB 111d stores face data (facial features), basic information (gender, date of birth, birthplace, etc.), favorite food names and cooking names, weak food names and cooking names, allergy information (allergy information) Person information such as the name of a certain ingredient is stored. For registration in the person DB 111 d, a “person registration mode” is provided in the digital camera 101, and a person image captured by the image sensor 103 and a feature amount of a face are extracted. Then, on the screen for inputting personal information, basic information of the photographed person, favorite foods and dishes, unfavorable foods and dishes, names of allergic foods, etc. are registered in the person DB 111d.
(Other DB111e)
In addition, general information according to sex, age, etc., such as nutrition information required for humans, is stored in the DB 111e. For example, as a nutrition-oriented map by age of “male” and “female”, the degree of importance given to each nutritional item such as calories, fat, protein, sugar, vitamin C, minerals, and dietary fiber is shown for each age. Remember information. The other DB 111e may store the nutrition information as described above at the time of product shipment of the digital camera 101. However, the “other information registration mode” is provided in the digital camera 101 and is similar to the person DB 111d. The user may be allowed to register the digital camera 101 after purchase.
[Configuration of Control Unit 107]
Next, the configuration of the control unit 107 in FIG. 1 will be described in detail. The control unit 107 includes a lens control unit 121, an ingredient recognition unit 122, a recipe creation unit 123, a cooking utensil recognition unit 125, an AF control unit 126, a person recognition unit 127, and a dish evaluation unit 128. The In this embodiment, for easy understanding, the lens control unit 121, the food recognition unit 122, the recipe creation unit 123, the cooking appliance recognition unit 125, the AF control unit 126, the person recognition unit 127, and the dish evaluation unit 128 are: Although depicted as being included in the processing of the control unit 107, the control unit 107 may be configured with a dedicated IC chip or the like. Hereinafter, the processing of each unit will be described in detail.
(Processing of the lens control unit 121 and the AF control unit 126)
The lens control unit 121 moves the position of the zoom lens of the photographing optical system 102 via the lens control unit 121 in accordance with the operation of the zoom button 203 of the operation unit 110. In addition, the AF control unit 126 calculates a defocus amount by a focus detection method such as a hill-climbing method at a predetermined position (AF measurement position) of the image captured in the image buffer 106 to obtain a focus position. The control unit 107 adjusts the position of the focus lens of the photographing optical system 102 via the lens control unit 121 so that the focal position obtained by the AF control unit 126 is obtained.

ここで、本実施形態では、制御部107は、レンズ制御部121を介して撮影光学系102のフォーカスレンズの位置を入力し、被写体までの距離を知ることができるようになっている。同様に、制御部107は、レンズ制御部121を介して撮影光学系102のズームレンズの位置を入力し、ズーム倍率(焦点距離)を知ることができるようになっている。そして、制御部107は、フォーカスレンズの位置から求めた被写体までの距離と、ズームレンズの位置から求めたズーム倍率とを合わせて、撮影された被写体の大きさ(食材や調理器具などの大きさ)を推定することができる。尚、被写体までの距離とズーム倍率に基づいて被写体の大きさを推定する技術は周知なので、ここでは詳しい説明を省略する。
(食材認識部122の処理)
次に、食材認識部122の処理について説明する。食材認識部122は、撮影された食材画像と、メモリ111の食材DB111aに予め記憶された様々な食材画像とを比較する。そして、両画像の類似度を求める。尚、類似画像を検索する技術は、既に顔認識技術などで実用化されているように、画像の特徴量を利用して実現することができる。画像の特徴量とは色や形状などをパラメータで表され、類似するパラメータを持つ画像を探し出すことによって類似画像を検索する一般的な技術である。
Here, in the present embodiment, the control unit 107 can input the position of the focus lens of the photographing optical system 102 via the lens control unit 121 and know the distance to the subject. Similarly, the control unit 107 can input the position of the zoom lens of the photographing optical system 102 via the lens control unit 121 and know the zoom magnification (focal length). Then, the control unit 107 combines the distance from the focus lens position to the subject and the zoom magnification obtained from the zoom lens position to determine the size of the photographed subject (size of food, cooking utensils, etc.). ) Can be estimated. Since the technique for estimating the size of the subject based on the distance to the subject and the zoom magnification is well known, detailed description thereof is omitted here.
(Processing of the food material recognition unit 122)
Next, processing of the food material recognition unit 122 will be described. The food material recognition unit 122 compares the captured food image with various food images stored in advance in the food material DB 111 a of the memory 111. Then, the similarity between both images is obtained. Note that the technique for searching for similar images can be realized by utilizing the feature amount of the image, as has already been put to practical use in face recognition technology and the like. The feature amount of an image is a general technique for searching for a similar image by searching for an image having a similar parameter.

例えば、トマトは色が赤で形状が丸いという特徴があるので、赤の色相範囲や丸い形状の直径などを特徴量として記憶しておき、これに合致する場合はトマトであると判別する。同様に、キュウリは色が濃い緑色で形状が長細いという特徴があるので、濃い緑色の色相範囲や長細い形状の長さと幅の比率などを特徴量として判別することができる。このように、色や形状の特徴量を用いることで認識精度を高くすることができる。また、食材認識部122は、先に述べたように、被写体距離と焦点距離とから食材の大きさも推定することができるので、食材の量も判別できる。
(レシピ作成部123の処理)
次に、レシピ作成部123の処理について説明する。レシピ作成部123は、撮影された人物画像や食材画像或いはユーザーが所有する調理器具などに応じて、レシピDB111cに記憶されている様々な料理の中から適切なレシピを検索する。そして、検索した料理の中からユーザーが選択した料理の調理手順や必要な食材などの情報を表示部108に表示する。尚、レシピ作成処理については、後で詳しく説明する。
(調理器具認識部125の処理)
次に、調理器具認識部125の処理について説明する。調理器具認識部125は、先に説明した食材画像の判別処理と同様に、撮影された調理器具が何であるかを判別する処理を行う。さらに、判別された以外に、撮影された調理器具をユーザーが所有する調理器具であることを示す情報を付加して、メモリ111の調理器具DB111bに登録する処理を行う。これによって、レシピ作成部123は、ユーザーがどんな調理器具を所有しているか分かるので、ユーザーが所有する調理器具に応じた調理方法をユーザーに提供することができる。
(人物認識部127の処理)
次に、人物認識部127の処理について説明する。人物認識部127は、先に述べたような顔認識処理技術を用いて、撮影された人物の年齢(年代)、性別、表情(顔色を含む)、人数或いは人物DB111dに登録されている特定人物の誰であるかなどの判別処理を行うことができる。そして、これらの情報の応じて、どのようなレシピが適切であるかを選択し、レシピ作成部123がレシピを作成する際の条件の一つとする。
(料理評価部128の処理)
次に、料理評価部128の処理について説明する。料理評価部128は、料理の盛り付けの美しさ(出来映え)を評価するが、料理の盛り付けの美しさを評価する方法として、撮影した料理の盛り付け画像から得られる特徴を抽出する方法(見本画像を使わない方法)と、レシピDB111cに記憶されている盛り付け画像を見本画像として比較する方法がある。
[見本画像を使わない方法]
<色のバランス>
料理評価部128は、撮影された料理の盛り付け画像の色のバランスをチェックする。色のバランスは、例えば、赤・黄・緑・青・黒・白などの所定の色範囲が含まれているか否かによって判別する。そして、含まれている色の数が増える毎に加点する。或いは、料理だけでなく皿の色も判別し、料理と皿が同系色だったら減点する。尚、画像の色分析は、例えば料理や皿部分の画素毎に赤・黄・緑などの色相範囲にあるか否かを判別すればよい。また、料理や皿部分の検出は、周知の顔認識技術のように、料理や皿の特徴を抽出することによって検出できる。
For example, since the tomato has a feature that the color is red and the shape is round, the red hue range, the diameter of the round shape, and the like are stored as feature amounts, and if they match this, it is determined that it is a tomato. Similarly, since cucumber has a characteristic that the color is dark green and the shape is long and thin, the hue range of dark green, the ratio of the length and width of the long and thin shape, and the like can be determined as the feature amount. As described above, the recognition accuracy can be increased by using the feature amount of the color or shape. In addition, as described above, the food material recognition unit 122 can also estimate the size of the food material from the subject distance and the focal distance, and thus can also determine the amount of the food material.
(Processing of recipe creation unit 123)
Next, the process of the recipe creation part 123 is demonstrated. The recipe creation unit 123 searches for an appropriate recipe from various dishes stored in the recipe DB 111c according to a photographed person image, food image, cooking utensil owned by the user, or the like. Then, information such as the cooking procedure of the dish selected by the user from the searched dishes and necessary ingredients is displayed on the display unit 108. The recipe creation process will be described in detail later.
(Processing of cookware recognition unit 125)
Next, the process of the cooking utensil recognition unit 125 will be described. The cooking utensil recognition unit 125 performs the process of determining what the cooked cooking utensil is, as in the process for determining the food image described above. Further, in addition to the determination, information indicating that the photographed cooking utensil is a cooking utensil owned by the user is added, and a process of registering in the cooking utensil DB 111b of the memory 111 is performed. Accordingly, the recipe creating unit 123 can know what cooking utensil the user owns, and can provide the user with a cooking method according to the cooking utensil owned by the user.
(Processing of the person recognition unit 127)
Next, processing of the person recognition unit 127 will be described. The person recognizing unit 127 uses the face recognition processing technology as described above, the age (age), gender, facial expression (including face color), number of persons or specific person registered in the person DB 111d. It is possible to perform discrimination processing such as who the person is. Then, according to these pieces of information, what kind of recipe is appropriate is selected and set as one of the conditions when the recipe creation unit 123 creates the recipe.
(Processing of the dish evaluation unit 128)
Next, the process of the dish evaluation unit 128 will be described. The dish evaluation unit 128 evaluates the beauty of the food arrangement (workmanship). As a method for evaluating the beauty of the dish arrangement, a method of extracting features obtained from the arranged food image (sample image) is used. There is a method of comparing the arrangement image stored in the recipe DB 111c as a sample image.
[Method without using sample images]
<Color balance>
The dish evaluation unit 128 checks the color balance of the photographed dish arrangement image. The color balance is determined based on whether or not a predetermined color range such as red, yellow, green, blue, black, and white is included. A point is added each time the number of contained colors increases. Alternatively, not only the dish but also the color of the dish is discriminated. In addition, the color analysis of an image should just discriminate | determine whether it exists in hue ranges, such as red, yellow, and green, for every pixel of a dish or a dish part, for example. In addition, detection of dishes and dishes can be detected by extracting the characteristics of dishes and dishes as in the well-known face recognition technology.

また、料理の盛り付け画像の中で所定の色相範囲にある画素数を色相範囲毎に求め、料理画像全体に占める面積の割合を求めるようにしても構わない。例えば、料理画像が100画素で構成されている場合、赤近傍の色相範囲にある画素数が30画素であった場合は、赤の割合を30%とする。このようにして、料理の盛り付け画像の赤・黄・緑・青・黒・白の割合を求めることができるので、料理の種類毎に最も見映えの良い割合をレシピDB111cに予め記憶しておけば、料理毎の見映えの良さを採点することができる。例えば、中華料理の「チンジャオロース」の場合は、ピーマンの緑色が25%と、牛肉の赤茶色が50%と、タケノコのベージュ色が25%であれば高得点になるように採点する。或いは「マーボー豆腐」の場合は、豆腐の白色が50%と、豚ひき肉の赤茶色が40%と、ねぎの緑色が10%であれば高得点になるように採点する。また、焦げ茶の部分が多ければ焦げていると判断して減点するようにしても構わないが、ハンバーグなど焦げ目が必要な料理は逆に加点する。このように、料理の種類に応じて用いる食材や食材の色および色の割合が異なるので、レシピDB111cに記憶されている料理の種類毎に最適な評価基準を予め記憶しておく。
<盛り付けの形>
また、料理評価部128は、撮影された料理の盛り付けの形(配置を含む)をチェックする。ここで、料理の盛り付けの形を評価する場合、副菜がある時は盛り付けの配置で、一品料理などは盛り付け自体の形でそれぞれ評価する必要がある。例えば、同じ皿に複数の副菜と一緒に盛り付ける料理を評価する場合、盛り付けの形状が三角形になるように料理を配置するのが良いと言われている。例えば、図3(a)の場合は皿の上に各料理が三角形を成すように配置されているので加点し、図3(b)の場合は皿の上に各料理が四角形に配置されているので減点する。尚、図3(b)の場合は、副菜など4種類の料理が配置されているので四角形になるのはやむ得ないと思われるが、2つの副菜を1ヶ所にまとめることで図3(a)のように三角形を形成することができるので減点対象となる。
In addition, the number of pixels in a predetermined hue range in the dish arrangement image may be obtained for each hue range, and the ratio of the area in the entire dish image may be obtained. For example, when the dish image is composed of 100 pixels, if the number of pixels in the hue range near red is 30 pixels, the ratio of red is set to 30%. In this way, the ratio of red, yellow, green, blue, black, and white in the cooking arrangement image can be obtained, so that the ratio that looks best for each type of dish can be stored in the recipe DB 111c in advance. For example, it is possible to score the appearance of each dish. For example, in the case of “Chingjaolose”, a Chinese dish, scoring is made so that the green color of pepper is 25%, the reddish brown color of beef is 50%, and the beige color of bamboo shoot is 25%. Alternatively, in the case of “Marvo tofu”, if the white color of tofu is 50%, the reddish brown color of ground pork is 40%, and the green color of green onion is 10%, the score is high. In addition, if there are many portions of dark brown, it may be judged that the portion is burnt, and points may be deducted. As described above, since the ingredients to be used and the colors of the ingredients and the color ratios differ depending on the kind of dish, an optimum evaluation criterion is stored in advance for each kind of dish stored in the recipe DB 111c.
<Shape arrangement>
In addition, the dish evaluation unit 128 checks the shape (including the arrangement) of the dishes that have been photographed. Here, when evaluating the form of serving dishes, it is necessary to evaluate the arrangement of servings when there is a side dish, and the dish dishes etc. in the form of servings. For example, when evaluating dishes to be served on the same plate with a plurality of side dishes, it is said that the dishes should be arranged so that the shape of the arrangement is a triangle. For example, in the case of FIG. 3 (a), each dish is arranged on a plate so as to form a triangle, so in the case of FIG. 3 (b), each dish is arranged in a square on the plate. Because there is, it deducts points. In the case of FIG. 3B, since four types of dishes such as side dishes are arranged, it seems unavoidable to form a square, but by combining the two side dishes in one place, FIG. Since a triangle can be formed as shown in FIG.

或いは、盛り付け自体の形で評価する方法として、例えば「チンジャオロース」や「マーボー豆腐」の場合は、盛り付け形状が円形になるように盛り付けるのが良いと言われている。例えば、図4(a)の場合は皿の上に料理が円形になるように盛り付けられているので加点し、図4(b)の場合は皿の上にまとまりなく盛り付けられているので減点する。   Alternatively, as a method for evaluating in the form of the serving itself, for example, in the case of “chinjaoulose” or “marvo tofu”, it is said that the serving shape should be rounded. For example, in the case of FIG. 4 (a), the dishes are arranged in a circular shape on the plate, so a point is added. In the case of FIG. 4 (b), points are deducted because they are arranged on the plate. .

このように、料理評価部128は、盛り付けの配置や盛り付け自体の形で料理を評価することができるが、料理の種類に応じて美しく見える配置や形が異なるので、レシピDB111cに記憶されている料理の種類毎に異なる評価基準を予め記憶しておく必要がある。
<盛り付け量>
また、料理評価部128は、撮影された料理の盛り付け量をチェックする。ここで、料理の盛り付け量で評価する場合は、皿の面積と料理の面積との比率によって評価することができる。例えば、一品料理の場合は皿の面積に対して料理が盛り付けられている部分の面積が60%程度を高得点とし、副菜など4種類程度の料理の場合は皿の面積に対して料理が盛り付けられている部分の面積が70%程度を高得点とする。図5(a)の例では皿の上に一品料理が皿の面積に対して60%程度に盛り付けられているので加点し、図5(b)の例では皿の上に同じ一品料理が皿の面積に対して90%程度に盛り付けられているので大きく減点する。
As described above, the dish evaluation unit 128 can evaluate the dish in the form of the arrangement and the arrangement itself, but the arrangement and the shape that look beautiful according to the type of dish are different, and therefore stored in the recipe DB 111c. It is necessary to previously store different evaluation criteria for each type of dish.
<Disposition amount>
In addition, the dish evaluation unit 128 checks the amount of dishes that have been photographed. Here, when evaluating with the amount of cooking, it can be evaluated by the ratio of the area of the dish to the area of the dish. For example, in the case of a single dish, the area where the dish is arranged is about 60% of the area of the dish, and in the case of about 4 kinds of dishes such as side dishes, the dish is relative to the area of the dish. A high score is about 70% of the area of the arranged portion. In the example of FIG. 5 (a), a dish is placed on the plate at about 60% of the area of the plate, so a point is added. In the example of FIG. 5 (b), the same dish is placed on the plate. Since it is arranged at about 90% of the area, the points will be greatly reduced.

このように、料理評価部128は、盛り付け量に応じて料理を評価することができるが、料理の種類に応じて美しく見える盛り付け量が異なるので、レシピDB111cに記憶されている料理の種類毎に異なる評価基準を予め記憶しておく必要がある。
<具材の分散>
また、料理評価部128は、撮影された料理の具材の分散度合いをチェックする。ここで、料理の具材の分散度合いで評価する場合は、料理で使われている各具材を具材の色や形状で判別して、料理画像の中の各具材の位置が分散しているか否かによって評価することができる。例えば、中華料理の「チンジャオロース」の場合は、ピーマンの緑色と、牛肉の赤茶色と、タケノコのベージュ色とが主な具材の色なので、料理画像の中でそれぞれの色のブロックがある位置の代表画素を具材の位置(縦横画素を二次元座標系(x、y)で表した時の座標位置)とする。そして、具材別に複数の座標位置に対して多変量解析を行えば具材毎の分散値を求めることができる。例えば、中華料理の「チンジャオロース」の場合は、ピーマンの緑色の分散値:0.8、牛肉の赤茶色の分散値:0.6と、タケノコのベージュ色の分散値:0.7で、総合の分散値を0.7とする。尚、上記の方法は一例であり、他の方法で具材の分散値を求めても構わない。ここで、中華料理の「チンジャオロース」の例では具材が分散していた方が盛り付けの見映えが良いので、分散値の高い方が高得点になる。逆に、「冷やし中華」の場合は、中華麺の上にハム,錦糸玉子,キュウリ,しょうがなどの具材がまとまって載せられている方が盛り付けが美しいので、分散値は低い方が高得点になる。
In this way, the dish evaluation unit 128 can evaluate the dish according to the serving amount, but the serving amount that looks beautiful depends on the kind of dish, so that each dish type stored in the recipe DB 111c is different. Different evaluation criteria need to be stored in advance.
<Dispersion of ingredients>
In addition, the dish evaluation unit 128 checks the degree of dispersion of the photographed cooking ingredients. Here, when evaluating by the degree of dispersion of cooking ingredients, each ingredient used in cooking is identified by the color and shape of the ingredients, and the position of each ingredient in the cooking image is dispersed. It can be evaluated by whether or not. For example, in the case of “Chinja Olose” in Chinese cuisine, the green color of pepper, the reddish brown color of beef, and the beige color of bamboo shoots are the main ingredients, so the position of each color block in the cooking image The representative pixel is the position of the material (the coordinate position when the vertical and horizontal pixels are expressed in a two-dimensional coordinate system (x, y)). If a multivariate analysis is performed on a plurality of coordinate positions for each ingredient, a variance value for each ingredient can be obtained. For example, in the case of “Chingjaolose” of Chinese cuisine, the green dispersion value of green pepper: 0.8, the red brown dispersion value of beef: 0.6, and the bamboo beige dispersion value: 0.7. Is set to 0.7. In addition, said method is an example and you may obtain | require the dispersion value of ingredients by another method. Here, in the example of “Chingjaoulose” of Chinese cuisine, the appearance of the arrangement is better when the ingredients are dispersed, so the higher the dispersion value, the higher the score. On the other hand, in the case of “chilled Chinese”, the arrangement is more beautiful when the ingredients such as ham, broiled egg, cucumber, ginger, etc. are placed on the Chinese noodles, so the lower the dispersion value, the higher the score. Become.

このように、料理評価部128は、具材の分散値に応じて料理を評価することができるが、料理の種類に応じて美しく見える具材の分散値が異なるので、レシピDB111cに記憶されている料理の種類毎に異なる評価基準を予め記憶しておく必要がある。
<その他>
上記に述べた以外にも、料理の盛り付けの見映えを評価するための様々な方法が考えられる。例えば、料理の盛り付けが平面的になっていれば減点し、立体的になっていれば加点するなどの評価方法もある。この場合は、料理を撮影する角度を変えて、例えば空の皿と斜めから料理を撮影した画像と上から料理を撮影した画像など、複数枚の料理画像を撮影することによって、料理の盛り付けを三次元で評価することができる。このように、様々な評価方法が考えられるが、本実施形態ではいずれの評価方法を用いても構わない。
[見本画像を使う方法]
次に、レシピDB111cに予め記憶されている盛り付け画像を盛り付けの見本画像(基準画像)として用いる方法について説明する。
In this way, the dish evaluation unit 128 can evaluate the dish according to the dispersion value of the ingredients, but since the dispersion value of the ingredients that look beautiful depends on the type of dish, it is stored in the recipe DB 111c. It is necessary to previously store different evaluation criteria for each type of food.
<Others>
In addition to the above, there are various methods for evaluating the appearance of cooking. For example, there is an evaluation method such that a point is deducted if a dish is arranged flat and a point is added if it is three-dimensional. In this case, by changing the angle at which the food is shot, for example, an image of the dish taken from an empty plate and diagonally, and an image of the dish taken from above, etc. Can be evaluated in three dimensions. Thus, various evaluation methods are conceivable, but any evaluation method may be used in the present embodiment.
[How to use sample images]
Next, a method of using the arrangement image stored in the recipe DB 111c in advance as an arrangement sample image (reference image) will be described.

見本画像の特徴量と撮影された盛り付け画像の特徴量とを比較する。特徴量としては、先に[見本画像を使わない方法]で説明した色のバランス,盛り付けの形,盛り付け量,具材の分散などを用いる。[見本画像を使わない方法]では、予め料理別に評価基準をレシピDB111cに記憶しておく必要があったが、[見本画像を使う方法]では、評価基準をレシピDB111cに予め記憶しておく必要がなく、レシピDB111cに記憶されている盛り付けの見本画像から評価基準を算出する。例えば、先ずレシピDB111cに記憶されている「チンジャオロース」の見本画像から色の特徴量を抽出する。次に、撮影された盛り付け画像から色の特徴量を抽出する。そして、見本画像の色の特徴量と撮影画像の色の特徴量とを比較して採点する。ここで、色合いの数や各色の分散などを比較し、ピーマンが入っていたら緑色があり、コーンが入っていたら黄色が含まれているはずである。また、「チンジャオロース」や「チャーハン」だったらまばらに分散し、「冷やし中華」や「味噌ラーメン」だったら固まっていて分散していないのが高得点になる。同様に、皿に対する料理の割合についても、[見本画像を使わない方法]で説明したように、皿の面積と料理の面積との比率によって評価することができる。例えば、先ずレシピDB111cに記憶されている「チンジャオロース」の見本画像から皿の面積と料理の面積との比率を求める。次に、撮影された盛り付け画像から皿の面積と料理の面積との比率を求める。そして、見本画像の皿の面積と料理の面積との比率と撮影画像の皿の面積と料理の面積との比率とを比較して採点する。例えば、「チンジャオロース」の見本画像の皿の面積と料理の面積との比率が60%で、撮影画像の皿の面積と料理の面積との比率が60%±5%の範囲内であれば加点し、60%±10%の範囲外であれば減点する。   The feature amount of the sample image is compared with the feature amount of the photographed arrangement image. As the feature amount, the color balance, the shape of the arrangement, the arrangement amount, the dispersion of the ingredients, etc. described in [Method without using sample image] are used. In [Method without using sample image], it is necessary to store the evaluation criteria for each dish in advance in the recipe DB 111c. In [Method using sample image], it is necessary to store the evaluation criteria in the recipe DB 111c in advance. The evaluation criterion is calculated from the sample image of the arrangement stored in the recipe DB 111c. For example, first, a color feature amount is extracted from a sample image of “chinja ose” stored in the recipe DB 111c. Next, a color feature amount is extracted from the photographed arrangement image. Then, the color feature amount of the sample image and the color feature amount of the photographed image are compared and scored. Here, the number of shades and the dispersion of each color are compared, and if green pepper is included, it should be green, and if cone is included, yellow should be included. In addition, “Chinja Olose” or “Fried Rice” is dispersed sparsely, while “Chilled Chinese” or “Miso Ramen” is hardened and not dispersed. Similarly, the ratio of dishes to dishes can also be evaluated by the ratio between the area of the dishes and the area of the dishes, as described in [Method without Using Sample Images]. For example, first, the ratio of the area of the dish and the area of the dish is obtained from the sample image of “chinja olose” stored in the recipe DB 111c. Next, a ratio between the area of the dish and the area of the dish is obtained from the taken arrangement image. Then, the ratio of the area of the dish of the sample image to the area of the dish is compared with the ratio of the area of the dish of the photographed image to the area of the dish to score. For example, if the ratio of the area of the dish and the area of the dish in the sample image of “Tinjaoulose” is 60% and the ratio of the area of the dish and the area of the photographed image is within the range of 60% ± 5%, a point is added. If it is out of the range of 60% ± 10%, points will be deducted.

このように、料理評価部128は、レシピDB111cに予め記憶されている盛り付けの見本画像と、撮影された料理の盛り付け画像とを比較することによって、ユーザーが作成した料理の盛り付け画像を評価することができる。   In this manner, the dish evaluation unit 128 evaluates the dish image created by the user by comparing the serving sample image stored in advance in the recipe DB 111c with the photographed dish serving image. Can do.

尚、上記の説明では、レシピDB111cに予め記憶されている盛り付けの見本画像は一つだけとしたが、複数の見本画像を記憶しておき、複数の見本画像とそれぞれ比較して採点を行い、その平均点や最高得点の点数を採点結果として採用するようにしても構わない。また、複数の見本画像の中からユーザが目標とする見本画像を選択できるようにして、その見本画像に対する点数を採用するようにしても構わない。   In the above description, only one sample image of the arrangement stored in the recipe DB 111c is preliminarily stored. However, a plurality of sample images are stored and scored by comparing with each of the plurality of sample images. You may make it employ | adopt the score of the average score and the highest score as a scoring result. In addition, the user may select a target sample image from a plurality of sample images, and the score for the sample image may be adopted.

また、デジタルカメラ101に通信機能を持たせて、インターネットなどに接続できるようにし、料理の見本画像を予めプリセットされたサーバなどからダウンロードして作った料理を評価するようにしても構わない。さらに、ユーザーが作った料理ではなく、インターネット上の他人が作った料理画像をダウンロードして、デジタルカメラ101で評価することもできる。また、デジタルカメラ101の料理評価処理を行うプログラムをインターネット上のサーバー上で動作するようにすれば、世界中の様々な人が自分の作った料理を評価し合ったり、料理コンテストを行うことも可能である。   Further, the digital camera 101 may have a communication function so that it can be connected to the Internet or the like, and a dish prepared by downloading a sample image of a dish from a preset server or the like may be evaluated. Furthermore, it is possible to download a dish image created by another person on the Internet instead of the dish created by the user and evaluate it with the digital camera 101. In addition, if the program that performs the dish evaluation process of the digital camera 101 runs on a server on the Internet, various people around the world can evaluate their own dishes and conduct cooking contests. Is possible.

さらに、上記の説明では、見本画像と撮影画像のそれぞれから特徴量を抽出して比較するようにしたが、2つの画像の相関を計算して、直接、類似度を計算するようにしても構わない。尚、この場合は、画像内の皿の大きさや料理の大きさなどがほぼ同程度に撮影されている必要がある。
[料理評価処理の流れ]
次に、本実施形態に係るデジタルカメラ101で実行される料理評価部128の一連の料理評価処理について、図6のフローチャートを用いて説明する。尚、図6のフローチャートは、制御部107に予め記憶されたプログラムに従って処理される。また、デジタルカメラ101の撮影モードは、ユーザーが操作部110を操作して[料理評価モード]に設定されている状態とする。この状態で、図7(a)に示すように、表示部108には(料理評価モード)であることを示す表示と、「料理を撮影して下さい」というメッセージが表示される。
Furthermore, in the above description, feature amounts are extracted and compared from each of the sample image and the photographed image, but the correlation between the two images may be calculated to directly calculate the similarity. Absent. In this case, it is necessary that the size of the dish in the image, the size of the dish, etc. are photographed to approximately the same level.
[Flow of cooking evaluation process]
Next, a series of dish evaluation processes of the dish evaluation unit 128 executed by the digital camera 101 according to the present embodiment will be described with reference to the flowchart of FIG. 6 is processed according to a program stored in advance in the control unit 107. In addition, the shooting mode of the digital camera 101 is set to a state in which the user operates the operation unit 110 and is set to “food evaluation mode”. In this state, as shown in FIG. 7A, the display unit 108 displays a display indicating that it is in the (cooking evaluation mode) and a message “Please shoot food”.

(ステップS251)ユーザーは、デジタルカメラ101のレリーズボタン202を押下して料理画像を撮影する。撮像素子103で撮影された料理画像は、画像バッファ106に一時的に記憶される。この状態で、図7(b)に示すように、表示部108には、撮影された料理画像が表示される。   (Step S251) The user presses the release button 202 of the digital camera 101 to photograph a dish image. The dish image photographed by the image sensor 103 is temporarily stored in the image buffer 106. In this state, as shown in FIG. 7B, the captured dish image is displayed on the display unit 108.

(ステップS252)制御部107の料理評価部128は、画像バッファ106に一時的に記憶されている料理の盛り付け画像の特徴量を抽出する。尚、料理の盛り付け画像の特徴量は、先に説明した通り、色のバランス,盛り付け量,具材の分散などである。   (Step S <b> 252) The dish evaluation unit 128 of the control unit 107 extracts the feature amount of the dish arrangement image temporarily stored in the image buffer 106. As described above, the feature amount of the dish arrangement image includes color balance, arrangement amount, dispersion of ingredients, and the like.

(ステップS253)制御部107の料理評価部128は、ステップS252で抽出した料理画像の特徴量を用いて、撮影された料理の評価を行う。例えば、色のバランス:60点,盛り付け量:70点,具材の分散:50点などのように、レシピDB111dの料理別に記憶されている評価基準に応じて、ステップS252で抽出した料理画像の特徴量を評価する。或いは、レシピDB111dに記憶されている見本画像と比較して、見本画像との特徴量の差異や画像自体の類似度によって評価する。尚、評価処理を行っている間、表示部108には、図7(c)に示すように、(評価中)のメッセージが表示される。   (Step S253) The dish evaluation unit 128 of the control unit 107 evaluates the shot dish using the feature amount of the dish image extracted in step S252. For example, according to the evaluation criteria stored for each dish in the recipe DB 111d, such as color balance: 60 points, arrangement amount: 70 points, ingredient dispersion: 50 points, etc. Evaluate features. Alternatively, the evaluation is performed based on the difference in the feature amount from the sample image and the similarity of the image itself as compared with the sample image stored in the recipe DB 111d. During the evaluation process, a message (under evaluation) is displayed on the display unit 108 as shown in FIG.

(ステップS254)制御部107の料理評価部128は、ステップS253で評価した結果を表示部108に表示する。例えば、図7(d)に示すように、(評価結果)として、総合点:80点、個別評価点として盛り付けの配置:90点および配色:70点が表示部108に表示される。ユーザーは、評価結果を確認したら、「確認」項目を十字キー204で選択して確定ボタン205を押下すると料理評価処理を終了する。尚、料理評価処理の終了時に、料理評価部128は、レシピDB111cの当該料理の情報として評価結果を保存する。   (Step S254) The dish evaluation unit 128 of the control unit 107 displays the result evaluated in step S253 on the display unit 108. For example, as shown in FIG. 7 (d), as the (evaluation result), the total score: 80 points and the arrangement of arrangement: 90 points and the color scheme: 70 points are displayed on the display unit 108 as individual evaluation points. When the user confirms the evaluation result, the “evaluation” item is selected with the cross key 204 and the confirmation button 205 is pressed to end the dish evaluation process. At the end of the dish evaluation process, the dish evaluation unit 128 stores the evaluation result as information on the dish in the recipe DB 111c.

ここで、ユーザーが図7(d)の評価結果を気に入らないときは、「修正」項目を十字キー204で選択して確定ボタン205を押下すると、図7(d’)に示すような修正モードに入る。修正モードでは、「総合:80点」,「配置:90点」,「配色:70点」の中から修正したい項目を十字キー204で選択して確認ボタン205を押下すると、同図に示すようなポップアップウィンドウが開いて点数を修正することができる。同図の場合は、配色:70点を90点に修正しようとしている様子を描いてある。修正が終了したら、「終了」項目を十字キー204で選択して確認ボタン205を押下すると図7(d)の画面の状態に戻る。   Here, when the user does not like the evaluation result of FIG. 7D, when the “correction” item is selected with the cross key 204 and the confirm button 205 is pressed, the correction mode as shown in FIG. to go into. In the correction mode, when the item to be corrected is selected from the “total: 80 points”, “arrangement: 90 points”, and “color arrangement: 70 points” with the cross key 204 and the confirmation button 205 is pressed, as shown in FIG. A pop-up window will open and you can modify the score. In the case of the same figure, the color scheme: 70 points are being corrected to 90 points. When the correction is completed, when the “end” item is selected with the cross key 204 and the confirmation button 205 is pressed, the screen returns to the state of FIG.

尚、図7(d)では、評価結果を点数で示したが、図8(a)に示すように、三ツ星や五つ星など星の数で視覚的に分かり易く表示するようにしても構わない。また、図8(b)に示すように、コメントを入力できるようにしても構わない。図8(b)の場合は、味付けの評価を入力する画面例を示し、味付け全体の評価が30点で、甘さは5段階評価の3なので中くらい、辛さは5段階評価の5なので辛すぎたことがわかる。或いは、図8(c)に示すように、文章によるコメントを入力できるようにしても構わない。また、評価結果は、料理評価部128によって、レシピDB111cの当該料理の情報として保存されるので、次回同じ料理を調理する場合に、保存された評価結果を参照して、食材の量や味付けを変更したレシピを作成することができる。このような評価結果に応じてレシピ内容を変更する処理については次のレシピ作成処理で詳しく説明する。   In FIG. 7 (d), the evaluation results are indicated by points. However, as shown in FIG. 8 (a), the evaluation results may be displayed in a visually easy-to-understand manner using the number of stars such as three stars or five stars. Absent. Further, as shown in FIG. 8B, a comment may be input. In the case of FIG. 8 (b), an example of a screen for inputting the evaluation of seasoning is shown. Since the evaluation of the whole seasoning is 30 points and the sweetness is 3 of 5 grades, the medium is hot and the hotness is 5 of 5 grades. You can see that it was too hot. Alternatively, as shown in FIG. 8C, a comment by text may be input. Moreover, since the evaluation result is preserve | saved as the information of the said dish of recipe DB111c by the dish evaluation part 128, when cooking the same dish next time, the quantity and seasoning of an ingredient are referred with reference to the preserved evaluation result. A modified recipe can be created. The process of changing the recipe contents according to the evaluation result will be described in detail in the next recipe creation process.

[レシピ作成処理]
次に、図6のフローチャートで説明した料理評価処理を用いて、最適なレシピを作成するレシピ作成部122のレシピ作成処理について、図9のフローチャートを用いて詳しく説明する。尚、図9のフローチャートは、制御部107に予め記憶されたプログラムに従って処理される。また、デジタルカメラ101の撮影モードは、ユーザーが操作部110を操作して[レシピ作成モード]に設定されている状態とする。
[Recipe creation process]
Next, the recipe creation process of the recipe creation unit 122 that creates an optimum recipe using the dish evaluation process described with reference to the flowchart of FIG. 6 will be described in detail with reference to the flowchart of FIG. 9 is processed according to a program stored in advance in the control unit 107. Further, the photographing mode of the digital camera 101 is set to a state where the user operates the operation unit 110 and is set to [recipe creation mode].

(ステップS351)制御部107の人物認識部127は、人物判別処理を行う。尚、本ステップは、先に説明した人物判別処理を行うサブルーチンである。従って、本サブルーチンが終了すると、撮影された人物の年齢,性別,表情,人数などが分かっている状態にある。或いは、人物DB111dに予め登録されている特定人物の誰であるかが分かっている状態にある。   (Step S351) The person recognition unit 127 of the control unit 107 performs a person discrimination process. This step is a subroutine for performing the person discrimination process described above. Therefore, when this subroutine is completed, the photographed person's age, gender, facial expression, number of persons, etc. are known. Alternatively, it is in a state where it is known who is a specific person registered in advance in the person DB 111d.

(ステップS352)制御部107のレシピ作成部123は、例えば、図10(a)に示すように、「レシピ作成」または「食材撮影」を選択するメニュー画面を表示部108に表示する。そして、ユーザーは操作部110の十字キー204を用いて「レシピ作成」または「食材撮影」を選択し、確認ボタン205を押下する。図10(a)の場合は太枠で囲まれた「レシピ作成」が選択されている。例えば「食材撮影」が選択された場合はステップS353に進み、「レシピ作成」が選択された場合はステップS354に進む。   (Step S352) For example, as shown in FIG. 10A, the recipe creating unit 123 of the control unit 107 displays a menu screen for selecting “recipe creation” or “food photography” on the display unit 108. Then, the user selects “recipe creation” or “food photography” using the cross key 204 of the operation unit 110 and presses the confirmation button 205. In the case of FIG. 10A, “recipe creation” surrounded by a thick frame is selected. For example, if “foodstuff photography” is selected, the process proceeds to step S353. If “recipe creation” is selected, the process proceeds to step S354.

(ステップS353)制御部107の食材認識部122は、食材判別処理を行う。本ステップは、食材画像を撮影して食材が何であるかを判別するサブルーチン処理である。つまり、本サブルーチンが終了すると、撮影された食材が何であるかが分かっている状態にある。   (Step S353) The food material recognition unit 122 of the control unit 107 performs a food material discrimination process. This step is a subroutine process for taking a food image and determining what the food is. That is, when this subroutine is finished, it is in a state where it is known what the photographed food is.

(ステップS354)レシピ作成部123は、ステップS351で判別した人物情報に応じた料理名一覧を表示部108に表示する。この時、ステップS351の人物判別処理で判別した人物情報に応じた料理や、ステップS353の食材判別処理で判別した食材情報に応じた料理をレシピDB111cから検索して料理一覧を表示部108に表示する。例えば、判別した人物情報が高齢者で、撮影した食材がサバである場合は、図10(c)に示すように、「サバのみそ煮」や「サバの塩焼き」などカロリーが低い高齢者向けの料理一覧が表示部108に表示される。或いは、ステップS351の人物判別処理でその他DB111eに記憶されている特定人物が判別された場合は、その人物の好物や、その人物の基本情報として登録されている生年月日と、デートモジュール112から入力する年月日とから年齢を計算して、その他DB111eに記憶されている栄養重視マップなどを参照して、その特定人物に最適な料理一覧が表示される。   (Step S354) The recipe creation unit 123 displays a dish name list corresponding to the person information determined in step S351 on the display unit 108. At this time, a dish corresponding to the person information determined in the person determination process in step S351 and a dish corresponding to the ingredient information determined in the ingredient determination process in step S353 are retrieved from the recipe DB 111c and a list of dishes is displayed on the display unit 108. To do. For example, when the identified person information is elderly and the photographed food is mackerel, as shown in FIG. 10 (c), for elderly people with low calories such as “mackerel miso boiled” or “mackerel grilled with mackerel” Are displayed on the display unit 108. Alternatively, when the specific person stored in the DB 111e is determined in the person determination process in step S351, the favorite food of the person, the date of birth registered as basic information of the person, and the date module 112 The age is calculated from the input date, and a list of dishes most suitable for the specific person is displayed with reference to a nutrition-oriented map stored in the DB 111e.

(ステップS355)ユーザーは、表示部108に表示されている料理名一覧の中からレシピを作成したい料理名を選択する。例えば、操作部110の十字キー204を用いて料理名を選択し、確認ボタン205を押下する。   (Step S355) The user selects a dish name for which a recipe is to be created from the dish name list displayed on the display unit. For example, the dish name is selected using the cross key 204 of the operation unit 110 and the confirmation button 205 is pressed.

このようにして、レシピを作成したい料理名が決定される。そして、決定された料理名の応じた調理手順の表示処理に移行する。   In this way, the name of the dish for which a recipe is to be created is determined. And it transfers to the display process of the cooking procedure according to the determined dish name.

続いて、図9のフローチャートにおいて、レシピを作成したい料理名が決定された後の処理について説明する。尚、ここでは、図10(b)に示すように、太枠で囲まれた「サバのみそ煮」が選択された場合を例に挙げて説明する。   Next, processing after the name of a dish for which a recipe is to be created will be described in the flowchart of FIG. Here, as shown in FIG. 10B, a case where “mackerel miso boiled” surrounded by a thick frame is selected will be described as an example.

(ステップS356)レシピ作成部123は、選択した料理を作るのに必要な食材を表示部108に表示する。ここでは、「サバのみそ煮」が選択されているので、図10(c)に示すように、「サバのみそ煮」を作るのに必要な食材や調味料として、「サバ:250g(或いは、半身一枚)」、「しょうが:10g」、「みそ:大さじ1.5杯」、「酒:200cc」などが表示部108に表示される。   (Step S356) The recipe creation unit 123 displays the ingredients necessary to make the selected dish on the display unit 108. Here, since “mackerel miso boiled” is selected, as shown in FIG. 10 (c), as ingredients and seasonings necessary for making “mackerel miso boiled”, “mackerel: 250 g (or , Half body) ”,“ ginger: 10 g ”,“ miso: 1.5 tablespoon ”,“ sake: 200 cc ”, and the like are displayed on the display unit 108.

ここで、例えば、先に説明した料理評価処理において、過去に同じ料理を作った時の評価結果がレシピDB111dに記憶されている場合は、その評価結果を反映した食材の量を表示する。例えば、過去の評価結果が図8(b)に示したように辛過ぎたとすると、最初に登録されていた食材の量(図10(c))ではなく、みその量を少なくした食材の量(図10(c’))を表示する。この結果、みその量は大さじ1.5杯から1.0杯になり、ユーザーの過去の評価を反映した辛さを抑えたレシピを提供することができる。   Here, for example, in the dish evaluation process described above, when the evaluation result when the same dish has been made in the past is stored in the recipe DB 111d, the amount of the food material reflecting the evaluation result is displayed. For example, if the past evaluation result is too hot as shown in FIG. 8 (b), the amount of the food with the reduced amount is not the amount of the first registered food (FIG. 10 (c)). (FIG. 10 (c ′)) is displayed. As a result, the amount of miso is reduced from 1.5 tablespoons to 1.0 cup, and it is possible to provide a recipe that suppresses the hotness reflecting the user's past evaluation.

このようにして、レシピ作成部123は、過去の評価結果に応じて、レシピ内容を変えて表示することができる。ユーザーは、表示内容を確認したら確認ボタン205を押下し、次のステップに進む。   In this way, the recipe creating unit 123 can display the recipe contents in accordance with the past evaluation results. After confirming the display contents, the user presses the confirmation button 205 and proceeds to the next step.

(ステップS357)レシピ作成部123は、例えば、図10(d)に示すように、使用する調理器具を表示する。図10(d)の場合は、使用する調理器具として、「鍋(直径:20cm,深さ:8cm)」と、「おたま」と、「さい箸」と、「包丁」と、「まな板」と、「コンロ」などが表示部108に表示されている。   (Step S357) The recipe creation unit 123 displays a cooking utensil to be used, for example, as shown in FIG. In the case of FIG. 10 (d), as cooking utensils to be used, "pan (diameter: 20 cm, depth: 8 cm)", "Otama", "Sai chopsticks", "Knife", and "chopping board" , “Stove” and the like are displayed on the display unit 108.

ここで、調理器具DB111bには、ユーザーが所持している調理器具であるか否かを示す情報が付加されているので、レシピ作成部123は、使用する調理器具をユーザーが所持しているか否かを判別することができる。そこで、本実施形態では、もしユーザーが所持していない調理器具がある場合は、代用できる他の調理器具を表示する。例えば、ユーザーが「鍋(直径:20cm,深さ:8cm)」は持っていないが、「フライパン(直径:30cm)」を持っている場合は、図10(d‘)に示すように、「鍋(直径:20cm,深さ:8cm)」の代わりに「フライパン(直径:30cm)」が表示される。ユーザーは、表示内容を確認したら確認ボタン205を押下し、次のステップに進む。   Here, since information indicating whether or not the cooking utensil possessed by the user is added to the cooking utensil DB 111b, the recipe creating unit 123 determines whether or not the user possesses the cooking utensil to be used. Can be determined. Therefore, in this embodiment, if there is a cooking utensil that the user does not have, another cooking utensil that can be substituted is displayed. For example, if the user does not have a “pan (diameter: 20 cm, depth: 8 cm)” but has a “fry pan (diameter: 30 cm)”, as shown in FIG. “Fry pan (diameter: 30 cm)” is displayed instead of “pan (diameter: 20 cm, depth: 8 cm)”. After confirming the display contents, the user presses the confirmation button 205 and proceeds to the next step.

(ステップS358)レシピ作成部123は、例えば、図11から図14に示すように、調理方法を順番に表示する。以下、調理方法を表示部108に表示する一例を説明する。   (Step S358) The recipe creation unit 123 displays the cooking methods in order, for example, as shown in FIGS. Hereinafter, an example of displaying the cooking method on the display unit 108 will be described.

[手順1]として、図11(a)に示すように、「鍋に酒を入れて強火で沸騰させる。」という説明が表示される。ユーザーは、表示内容を確認して確認ボタン205を押下すると、図11(b)に示すような画面が表示される。図11(b)の例では、鍋に入れた酒が沸騰している画像が表示されている。ユーザーは、表示内容を確認して確認ボタン205を押下する。   As [Procedure 1], as shown in FIG. 11 (a), the description “Place sake in a pan and boil it with high heat” is displayed. When the user confirms the display contents and presses the confirmation button 205, a screen as shown in FIG. 11B is displayed. In the example of FIG. 11 (b), an image in which the sake placed in the pot is boiling is displayed. The user confirms the display contents and presses the confirmation button 205.

[手順2]として、図11(c)に示すように、「一尾のサバを二枚に下ろして半身にし二等分する。」という説明が表示される。ユーザーは、表示内容を確認して確認ボタン205を押下すると、図11(d)に示すような画面が表示される。図11(d)の例では、サバの切り身の画像が表示されている。ユーザーは、表示内容を確認して確認ボタン205を押下する。   As [Procedure 2], as shown in FIG. 11 (c), an explanation “Lower a mackerel into two pieces and halve it into two parts” is displayed. When the user confirms the display contents and presses the confirmation button 205, a screen as shown in FIG. 11D is displayed. In the example of FIG. 11D, an image of mackerel fillet is displayed. The user confirms the display contents and presses the confirmation button 205.

[手順3]として、図12(a)に示すように、「大さじ3杯のみそをおたまに取ってさい箸で溶かす。」という説明が表示される。ユーザーは、表示内容を確認して確認ボタン205を押下すると、図12(b)に示すような画面が表示される。図12(b)の例では、鍋の中でおたまに取ったみそをさい箸で溶かしている画像が表示されている。ユーザーは、表示内容を確認して確認ボタン205を押下する。   As [Procedure 3], as shown in FIG. 12 (a), an explanation “Take 3 tablespoons of sesame in a bowl and melt it with chopsticks” is displayed. When the user confirms the display contents and presses the confirmation button 205, a screen as shown in FIG. 12B is displayed. In the example of FIG. 12B, an image is displayed in which a miso taken in a pot in a pot is melted with chopsticks. The user confirms the display contents and presses the confirmation button 205.

[手順4]として、図12(c)に示すように、「サバの切り身を鍋に入れる。」という説明が表示される。ユーザーは、表示内容を確認して確認ボタン205を押下すると、図12(d)に示すような画面が表示される。図12(d)の例では、サバの切り身を鍋に入れた画像が表示されている。ユーザーは、表示内容を確認して確認ボタン205を押下する。   As [Procedure 4], as shown in FIG. 12 (c), an explanation “Put the mackerel fillet in the pan” is displayed. When the user confirms the display contents and presses the confirmation button 205, a screen as shown in FIG. 12D is displayed. In the example of FIG. 12D, an image of mackerel fillets in a pan is displayed. The user confirms the display contents and presses the confirmation button 205.

[手順5]として、図13(a)に示すように、「鍋にふたをして5分ほど強火で煮込む。」という説明が表示される。ユーザーは、表示内容を確認して確認ボタン205を押下すると、図13(b)に示すような画面が表示される。図13(b)の例では、鍋にふたをして煮込んでいる画像が表示されている。ユーザーは、表示内容を確認して確認ボタン205を押下する。   As [Procedure 5], as shown in FIG. 13 (a), an explanation is displayed indicating that the pan is simmered in a high heat for about 5 minutes. When the user confirms the display contents and presses the confirmation button 205, a screen as shown in FIG. 13B is displayed. In the example of FIG. 13 (b), an image in which the pan is boiled with a lid is displayed. The user confirms the display contents and presses the confirmation button 205.

[手順6]として、図13(c)に示すように、「ふたを開けて弱火にし、おたまでみそをサバにかける。」という説明が表示される。ユーザーは、表示内容を確認して確認ボタン205を押下すると、図13(d)に示すような画面が表示される。図13(d)の例では、おたまでみそをサバにかけている画像が表示されている。ユーザーは、表示内容を確認して確認ボタン205を押下する。   As [Procedure 6], as shown in FIG. 13 (c), an explanation “Open the lid to reduce the heat and put the miso on the mackerel” is displayed. When the user confirms the display contents and presses the confirmation button 205, a screen as shown in FIG. 13D is displayed. In the example of FIG. 13 (d), an image in which miso is put on mackerel is displayed. The user confirms the display contents and presses the confirmation button 205.

[手順7]として、図14(a)に示すように、「煮詰まってきたら火を止めてできあがり。」という説明が表示される。ユーザーは、表示内容を確認して確認ボタン205を押下すると、図14(b)に示すような画面が表示される。図14(b)の例では、サバが鍋の中で煮詰まっている画像が表示されている。ユーザーは、表示内容を確認して確認ボタン205を押下する。   As [Procedure 7], as shown in FIG. 14 (a), an explanation "Stop the fire when it is boiled and it is finished" is displayed. When the user confirms the display content and presses the confirmation button 205, a screen as shown in FIG. 14B is displayed. In the example of FIG. 14B, an image in which mackerel is boiled in a pan is displayed. The user confirms the display contents and presses the confirmation button 205.

最後に、図14(c)に示すように、サバのみそ煮をお皿に盛り付けた例が表示部108に表示される。尚,上記の説明では、調理している画像は静止画としたが、動画像であっても構わない。   Finally, as shown in FIG. 14 (c), an example in which mackerel miso boiled is put on a plate is displayed on the display unit 108. In the above description, the cooking image is a still image, but it may be a moving image.

(ステップS359)料理評価部128は、先に説明した図6のフローチャートのステップS251からステップS254までの処理を行う。この結果、図7(d)や図8(a)に示すような評価結果が表示部108に表示される。   (Step S359) The dish evaluation unit 128 performs the processing from step S251 to step S254 in the flowchart of FIG. 6 described above. As a result, the evaluation results as shown in FIG. 7D and FIG. 8A are displayed on the display unit 108.

このように、本実施形態に係るデジタルカメラ101を用いた自動レシピ作成装置は、料理評価部128の処理によって、撮影された料理の盛り付け画像の出来映えを評価して評価結果を表示するので、料理の上達に効果的であったり、料理をする楽しみを倍増することができる。特に、過去の評価結果を次に同じ料理を作る際に反映するので、ユーザーの好みにあったレシピを作成することができる。   As described above, the automatic recipe creation apparatus using the digital camera 101 according to the present embodiment evaluates the performance of the photographed dish arrangement image by the process of the dish evaluation unit 128 and displays the evaluation result. It can be effective for improving and double the pleasure of cooking. In particular, since past evaluation results are reflected when the same dish is made next time, a recipe suited to the user's preference can be created.

尚、上記の実施形態では、自動レシピ作成装置の一例として、デジタルカメラ101を例に挙げたが、既に撮影された料理画像や人物画像或いは食材画像をメモリカード109aに保存しておき、パソコンにメモリカード109aを装着して、料理画像や人物画像或いは食材画像を読み出して、レシピを作成するようにしても構わない。この場合は、図10のフローチャートで説明した料理評価処理,人物判別処理,食材判別処理および調理器具判別処理を行うプログラムをパソコンで走らせるようにすればよい。ここで、デジタルカメラ101の場合と異なるのは、撮像素子103で料理画像,人物画像,食材画像および調理器具画像を撮影する代わりに、メモリカード109aからこれらの画像を読み出すようにし、メモリ111に記憶されているレシピDB111c,人物DB111d,その他DB111e,食材DB111aおよび調理器具DB111bなどをパソコンのハードディスクなどの記憶装置に記憶しておく必要がある。そして、図9のフローチャートで説明したレシピ作成処理を行うプログラムをパソコンで走らせるようにすれば、メモリカード109aに記憶されている料理画像,人物画像,食材画像および調理器具画像に応じたレシピを作成して表示することができる。   In the above-described embodiment, the digital camera 101 is taken as an example of an automatic recipe creation device. However, an already shot dish image, person image, or food material image is stored in the memory card 109a and stored in a personal computer. A memory card 109a may be mounted, and a recipe image may be created by reading out a cooking image, a person image, or a food material image. In this case, the program for performing the dish evaluation process, the person discrimination process, the food ingredient discrimination process, and the cooking utensil discrimination process described in the flowchart of FIG. Here, different from the case of the digital camera 101, instead of taking a cooking image, a person image, a food material image, and a cooking utensil image with the image sensor 103, these images are read out from the memory card 109 a and stored in the memory 111. The stored recipe DB 111c, person DB 111d, other DB 111e, food DB 111a, cooking utensil DB 111b, etc. need to be stored in a storage device such as a hard disk of a personal computer. And if the program which performs the recipe creation process demonstrated with the flowchart of FIG. 9 is run with a personal computer, the recipe according to the cooking image, person image, foodstuff image, and cooking utensil image memorize | stored in the memory card 109a will be shown. Can be created and displayed.

このように、本発明に係る自動レシピ作成装置およびプログラムをデジタルカメラ101やパソコンで実現することができる。   Thus, the automatic recipe creation apparatus and program according to the present invention can be realized by the digital camera 101 or the personal computer.

第1の実施形態に係るデジタルカメラ101のブロック図である。1 is a block diagram of a digital camera 101 according to a first embodiment. デジタルカメラ101の外観図である。1 is an external view of a digital camera 101. FIG. 盛り付けの配置例を示す説明図である。It is explanatory drawing which shows the example of arrangement | positioning of arrangement | positioning. 盛り付けの形状例を示す説明図である。It is explanatory drawing which shows the example of a shape of arrangement | positioning. 盛り付け量の一例を示す説明図である。It is explanatory drawing which shows an example of the amount of arrangement | positioning. 料理評価処理の一例を示すフローチャートである。It is a flowchart which shows an example of a dish evaluation process. 料理評価処理の一例を示す説明図である。It is explanatory drawing which shows an example of a dish evaluation process. 料理評価結果のその他の表示例を示す説明図である。It is explanatory drawing which shows the other example of a display of a dish evaluation result. レシピ作成処理を示すフローチャートである。It is a flowchart which shows a recipe creation process. レシピ作成処理の一例を示す説明図である。It is explanatory drawing which shows an example of a recipe creation process. レシピ作成処理の調理手順1と2を示す説明図である。It is explanatory drawing which shows the cooking procedures 1 and 2 of a recipe creation process. レシピ作成処理の調理手順3と4を示す説明図である。It is explanatory drawing which shows the cooking procedures 3 and 4 of a recipe creation process. レシピ作成処理の調理手順5と6を示す説明図である。It is explanatory drawing which shows the cooking procedures 5 and 6 of a recipe creation process. レシピ作成処理の調理手順7を示す説明図である。It is explanatory drawing which shows the cooking procedure 7 of a recipe creation process.

符号の説明Explanation of symbols

101・・・デジタルカメラ 102・・・撮影光学系
103・・・撮像素子 104・・・AFE
105・・・A/D変換部 106・・・画像バッファ
107・・・制御部 108・・・表示部
109・・・メモリカードI/F 109a・・・メモリカード
110・・・操作部 111・・・メモリ
112・・・デートモジュール 121・・・レンズ制御部
122・・・食材認識部 123・・・レシピ作成部
125・・・調理器具認識部 126・・・AF制御部
127・・・人物認識部 128・・・料理評価部
201・・・電源ボタン 202・・・レリーズボタン
203・・・ズームボタン 204・・・十字キー
204a・・・上キー 204b・・・下キー
204c・・・左キー 204d・・・右キー
205・・・確定ボタン
DESCRIPTION OF SYMBOLS 101 ... Digital camera 102 ... Shooting optical system 103 ... Imaging element 104 ... AFE
105 ... A / D conversion unit 106 ... image buffer 107 ... control unit 108 ... display unit 109 ... memory card I / F 109a ... memory card 110 ... operation unit 111 ..Memory 112 ... Date module 121 ... Lens control unit 122 ... Food material recognition unit 123 ... Recipe creation unit 125 ... Cookware recognition unit 126 ... AF control unit 127 ... Person Recognizing unit 128 ... Cooking evaluation unit 201 ... Power button 202 ... Release button 203 ... Zoom button 204 ... Cross key 204a ... Up key 204b ... Down key 204c ... Left Key 204d ... Right key 205 ... Confirm button

Claims (9)

料理の盛りつけ画像を撮影する撮像手段と、
前記撮像手段で撮影された料理の盛りつけ画像から盛りつけの特徴量を抽出する画像処理手段と、
料理の種類毎に該料理の盛りつけ画像と盛りつけ基準とを記憶するレシピデータベースと、
前記画像処理手段で抽出した盛りつけの特徴量と前記レシピデータベースに記憶された盛りつけ基準とを比較する評価手段と
を有することを特徴とする自動レシピ作成装置。
An imaging means for taking a dish image,
Image processing means for extracting the feature quantity of the serving from the dish serving image photographed by the imaging means;
A recipe database for storing a cooking image and a cooking standard for each cooking type,
An automatic recipe creating apparatus comprising: an evaluation unit that compares the feature amount of the serving extracted by the image processing unit with the serving standard stored in the recipe database.
請求項1に記載の自動レシピ作成装置において、
前記画像処理手段が抽出する盛りつけの特徴量は、料理の配色,皿に対する料理の配置および形状,皿と料理の面積比率,具材の分散の少なくとも一つによって求められ、
前記レシピデータベースに記憶される盛りつけ基準は、料理の配色,皿に対する料理の配置および形状,皿と料理の面積比率,具材の分散の少なくとも一つによって決められる
ことを特徴とする自動レシピ作成装置。
In the automatic recipe preparation apparatus of Claim 1,
The serving feature amount extracted by the image processing means is determined by at least one of the color scheme of the dish, the arrangement and shape of the dish with respect to the dish, the area ratio of the dish to the dish, and the dispersion of ingredients.
The recipe reference stored in the recipe database is determined by at least one of the color scheme of the dish, the arrangement and shape of the dish relative to the dish, the area ratio of the dish to the dish, and the distribution of ingredients. .
請求項1または2に記載の自動レシピ作成装置において、
表示手段を更に設け、
前記評価手段は、評価結果を前記表示手段に表示する
ことを特徴とする自動レシピ作成装置。
In the automatic recipe preparation apparatus of Claim 1 or 2,
Further providing a display means,
The said evaluation means displays an evaluation result on the said display means. The automatic recipe preparation apparatus characterized by the above-mentioned.
請求項3に記載の自動レシピ作成装置において、
前記評価手段は、前記評価結果を数値または記号で前記表示手段に表示する
ことを特徴とする自動レシピ作成装置。
In the automatic recipe preparation apparatus of Claim 3,
The said evaluation means displays the said evaluation result on the said display means with a numerical value or a symbol. The automatic recipe preparation apparatus characterized by the above-mentioned.
請求項1から4のいずれか一項に記載の自動レシピ作成装置において、
前記評価手段は、前記撮像手段で撮影した料理の盛りつけ画像を過去の例として前記レシピデータベースの当該料理の種類に関連付けて記憶する
ことを特徴とする自動レシピ作成装置。
In the automatic recipe preparation apparatus as described in any one of Claim 1 to 4,
The said evaluation means memorize | stores the cooking arrangement | sequence image image | photographed with the said imaging means in association with the kind of the said dish of the said recipe database as a past example. The automatic recipe creation apparatus characterized by the above-mentioned.
請求項5に記載の自動レシピ作成装置において、
前記評価手段は、前記撮像手段で撮影した料理の盛りつけ画像を過去の例として前記レシピデータベースの当該料理の種類に関連付けて記憶する際に、前記評価手段の評価結果を付加して記憶する
ことを特徴とする自動レシピ作成装置。
In the automatic recipe preparation apparatus of Claim 5,
The evaluation unit adds and stores the evaluation result of the evaluation unit when storing the dish arrangement image captured by the imaging unit as a past example in association with the type of the dish in the recipe database. An automatic recipe creation device.
請求項6に記載の自動レシピ作成装置において、
コメントを入力するコメント入力手段を更に設け、
前記評価手段は、前記撮像手段で撮影した料理の盛りつけ画像を過去の例として前記レシピデータベースの当該料理の種類に関連付けて記憶する際に、前記評価手段の評価結果と前記コメント入力手段で入力された情報とを付加して記憶する
ことを特徴とする自動レシピ作成装置。
In the automatic recipe preparation apparatus of Claim 6,
A comment input means for inputting a comment is further provided.
The evaluation means inputs the evaluation result of the evaluation means and the comment input means when storing the dish arrangement image taken by the imaging means as a past example in association with the type of the food in the recipe database. An automatic recipe creation device characterized by adding and storing stored information.
請求項7に記載の自動レシピ作成装置において、
前記コメント入力手段で入力された情報に応じて、前記レシピデーターベースに記憶されたレシピ内容を変更するレシピ変更手段を更に設けたことを特徴とする自動レシピ作成装置。
In the automatic recipe preparation apparatus of Claim 7,
An automatic recipe creation device, further comprising: a recipe changing means for changing the contents of a recipe stored in the recipe database in accordance with information input by the comment input means.
コンピュータを用いて処理されるプログラムであって、
料理の盛りつけ画像を入力する画像入力手段と、
前記画像入力手段で入力された料理の盛りつけ画像から盛りつけの特徴量を抽出する画像処理手順と、
料理の種類毎に該料理の盛りつけ画像と盛りつけ基準とを記憶するレシピデータベースに記憶された盛りつけ基準と前記画像処理手段で抽出した盛りつけの特徴量とを比較する評価手順と
を有することを特徴とする自動レシピ作成プログラム。
A program processed using a computer,
An image input means for inputting a dish image,
An image processing procedure for extracting the feature amount of the serving from the dish serving image input by the image input means;
And an evaluation procedure for comparing the serving standard stored in the recipe database storing the serving image and the serving standard for each type of dish with the feature value of the serving extracted by the image processing means. Automatic recipe creation program.
JP2008226208A 2008-09-03 2008-09-03 Automatic recipe creation apparatus and program Withdrawn JP2010061383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008226208A JP2010061383A (en) 2008-09-03 2008-09-03 Automatic recipe creation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008226208A JP2010061383A (en) 2008-09-03 2008-09-03 Automatic recipe creation apparatus and program

Publications (1)

Publication Number Publication Date
JP2010061383A true JP2010061383A (en) 2010-03-18

Family

ID=42188119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008226208A Withdrawn JP2010061383A (en) 2008-09-03 2008-09-03 Automatic recipe creation apparatus and program

Country Status (1)

Country Link
JP (1) JP2010061383A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203387A (en) * 2013-04-09 2014-10-27 国立大学法人 東京大学 Image processing apparatus and program
JP6306785B1 (en) * 2017-07-24 2018-04-04 クックパッド株式会社 Information processing system, information processing method, and information processing program
JP6429344B1 (en) * 2017-07-24 2018-11-28 クックパッド株式会社 Information processing system, information processing method, and information processing program
JP2020516999A (en) * 2017-04-06 2020-06-11 ルシラ ヘルス インコーポレイテッド Image-based disease diagnosis using mobile devices
JP2020177468A (en) * 2019-04-18 2020-10-29 東京瓦斯株式会社 Recipe information provision system and program
WO2021235291A1 (en) * 2020-05-21 2021-11-25 パナソニックIpマネジメント株式会社 Cooking learning assistance system and cooking learning assistance method
JP7012187B1 (en) 2020-09-30 2022-01-27 PayPay株式会社 Calculation device, calculation method and calculation program
CN114269213A (en) * 2019-08-08 2022-04-01 索尼集团公司 Information processing device, information processing method, cooking robot, cooking method, and cooking apparatus
USD962470S1 (en) 2020-06-03 2022-08-30 Lucira Health, Inc. Assay device with LCD display
US11465142B2 (en) 2017-09-14 2022-10-11 Lucira Health, Inc. Multiplexed biological assay device with electronic readout
US11584957B2 (en) 2014-04-24 2023-02-21 Lucira Health, Inc. Colorimetric detection of nucleic acid amplification
JP7271803B1 (en) 2022-06-10 2023-05-11 セーフィー株式会社 Information processing system, information processing method and program
US11954851B2 (en) 2017-04-06 2024-04-09 Pfizer Inc. Image-based disease diagnostics using a mobile device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331953B2 (en) 2013-04-09 2019-06-25 The University Of Tokyo Image processing apparatus
JP2014203387A (en) * 2013-04-09 2014-10-27 国立大学法人 東京大学 Image processing apparatus and program
US11584957B2 (en) 2014-04-24 2023-02-21 Lucira Health, Inc. Colorimetric detection of nucleic acid amplification
US11954851B2 (en) 2017-04-06 2024-04-09 Pfizer Inc. Image-based disease diagnostics using a mobile device
JP2020516999A (en) * 2017-04-06 2020-06-11 ルシラ ヘルス インコーポレイテッド Image-based disease diagnosis using mobile devices
JP2019023822A (en) * 2017-07-24 2019-02-14 クックパッド株式会社 Information processing system, information processing method and information processing program
JP2019023809A (en) * 2017-07-24 2019-02-14 クックパッド株式会社 Information processing system, information processing method and information processing program
JP6429344B1 (en) * 2017-07-24 2018-11-28 クックパッド株式会社 Information processing system, information processing method, and information processing program
JP6306785B1 (en) * 2017-07-24 2018-04-04 クックパッド株式会社 Information processing system, information processing method, and information processing program
US11465142B2 (en) 2017-09-14 2022-10-11 Lucira Health, Inc. Multiplexed biological assay device with electronic readout
JP2020177468A (en) * 2019-04-18 2020-10-29 東京瓦斯株式会社 Recipe information provision system and program
JP7249854B2 (en) 2019-04-18 2023-03-31 東京瓦斯株式会社 Recipe information provision system and program
CN114269213A (en) * 2019-08-08 2022-04-01 索尼集团公司 Information processing device, information processing method, cooking robot, cooking method, and cooking apparatus
WO2021235291A1 (en) * 2020-05-21 2021-11-25 パナソニックIpマネジメント株式会社 Cooking learning assistance system and cooking learning assistance method
USD962470S1 (en) 2020-06-03 2022-08-30 Lucira Health, Inc. Assay device with LCD display
JP2022058185A (en) * 2020-09-30 2022-04-11 PayPay株式会社 Calculation device, calculation method, and calculation program
JP7012187B1 (en) 2020-09-30 2022-01-27 PayPay株式会社 Calculation device, calculation method and calculation program
JP7271803B1 (en) 2022-06-10 2023-05-11 セーフィー株式会社 Information processing system, information processing method and program

Similar Documents

Publication Publication Date Title
JP2010061383A (en) Automatic recipe creation apparatus and program
JP2010061382A (en) Automatic recipe creation apparatus and program
CN111684368B (en) Food preparation method and system based on ingredient identification
JP2010061381A (en) Automatic recipe preparing device and program
WO2019033843A1 (en) Method, apparatus and system for controlling cooking utensil
JP6299744B2 (en) Information processing apparatus and storage medium
CN104730931B (en) A kind of generation method of cuisines interactive system and cuisines recipe
WO2020077501A1 (en) System and method for collecting and annotating cooking images for training smart cooking appliances, locating food items in smart cooking appliances, and determining cooking progress of food items in smart cooking appliances
US20170188741A1 (en) Method and System for Acquiring Cooking Information
US20130149679A1 (en) System and methods for virtual cooking with recipe optimization
CN105243270B (en) Diet monitoring method, device, system and food and drink furniture
US20130149676A1 (en) System and methods for virtual cooking with recipe matching
CN112053428A (en) Method and device for identifying nutritional information contained in food
US20130149677A1 (en) System and methods for virtual cooking with food pairing
Young Food photography: From snapshots to great shots
WO2016031246A1 (en) Nutrient quantity calculating device and refrigerator provided with same
CN109431288A (en) A kind of electric cooker control method, device, storage medium and electric cooker
WO2017199389A1 (en) Information provision system, information provision method, and information provision program
WO2014168177A1 (en) Image processing device
US20220273139A1 (en) System and Method for Optimal Food Cooking or Heating Operations
Fujimoto Projection mapping for enhancing the perceived deliciousness of food
Akpa et al. Smartphone-based food weight and calorie estimation method for effective food journaling
JP2019192091A (en) Food information providing system
JP2019133512A (en) Recipe information provision apparatus, recipe information provision method, and recipe information provision program
JP6416429B1 (en) Information processing apparatus, information processing method, information processing program, and content distribution system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206