JP2021086215A - Palatability estimation system, control method thereof, and program - Google Patents

Palatability estimation system, control method thereof, and program Download PDF

Info

Publication number
JP2021086215A
JP2021086215A JP2019212530A JP2019212530A JP2021086215A JP 2021086215 A JP2021086215 A JP 2021086215A JP 2019212530 A JP2019212530 A JP 2019212530A JP 2019212530 A JP2019212530 A JP 2019212530A JP 2021086215 A JP2021086215 A JP 2021086215A
Authority
JP
Japan
Prior art keywords
data
food
learning
deliciousness
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019212530A
Other languages
Japanese (ja)
Inventor
北形 圭
Kei Kitakata
圭 北形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019212530A priority Critical patent/JP2021086215A/en
Publication of JP2021086215A publication Critical patent/JP2021086215A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To provide an accurate food palatability estimation system.SOLUTION: A palatability estimation system for estimating palatability of food comprises: acquisition means which acquires data including image data of a food, palatability evaluation information of the food, and user information of a user who has evaluated the food; determination means which determines a weight for the data on the basis of the user information included in the data; generation means which generates one piece or a plurality of pieces of image data for learning from the image data included in the data in accordance with the weight determined by the determination means; and learning means which generates a learned model for estimating palatability of the food by performing learning processing with the one piece or a plurality of pieces of image data for learning generated by the generation means as input data and the evaluation information included in the data as teacher data.SELECTED DRAWING: Figure 4

Description

本発明は、食品のおいしさを推定するおいしさ推定システムおよびその制御方法、並びにプログラムに関する。 The present invention relates to a deliciousness estimation system for estimating the deliciousness of food, a control method thereof, and a program.

野菜、果物などの農作物の食品のおいしさを購入前に知り、できるだけおいしいものを購入したいという消費者の要求は多い。しかし、一般的には購入前の食品を加工し、おいしさを分析することはできない。この課題に対し食品の見た目の情報等からAI(Artificial Intelligence)でおいしさを推定するシステムが考えられる。このような人間の感覚に訴える味覚から判断されるおいしさを推定するためのAIシステムでは、多くの人が納得のいく評価を得るために、できるだけ多くの学習用データを集め、多くの学習を繰り返す必要がある。しかし、単に多く集めた学習用データから作成した学習済モデルでは、AIでの推定精度は高くならない。できる限り精度の高い学習用データを多く収集する必要がある。 There are many consumer demands to know the deliciousness of agricultural products such as vegetables and fruits before purchasing and to purchase as delicious as possible. However, in general, it is not possible to process food before purchase and analyze its deliciousness. To solve this problem, a system for estimating the deliciousness by AI (Artificial Intelligence) from the appearance information of foods and the like can be considered. In the AI system for estimating the deliciousness judged from the taste that appeals to human senses, many people collect as much learning data as possible and learn as much as possible in order to obtain a convincing evaluation. Need to repeat. However, in a trained model created simply from a large amount of training data, the estimation accuracy in AI does not increase. It is necessary to collect as much accurate learning data as possible.

例えば、特許文献1では、多く学習用データの中で、所定の基準を満たしている学習用データをエキスパートデータとし、それ以外のデータを非エキスパートデータとする。非エキスパートデータに対し、エキスパートデータと比べた信頼度を付加することで、信頼度の高いデータを増やして精度の良い分類モデルを構築する技術が提案されている。 For example, in Patent Document 1, among many learning data, learning data satisfying a predetermined standard is defined as expert data, and other data is defined as non-expert data. A technique has been proposed in which highly reliable data is increased and a highly accurate classification model is constructed by adding reliability compared to expert data to non-expert data.

特開2009−110064号公報Japanese Unexamined Patent Publication No. 2009-110064

特許文献1では、所定の基準を満たしていないデータの一部も学習用データとして採用することで、質の高い学習用データが少量の状況であっても分類モデルを構築する。しかし、所定の基準を満たしていないデータを学習用データとして採用した分、学習モデルの精度は落ちる。 In Patent Document 1, a classification model is constructed even when a small amount of high-quality learning data is used by adopting a part of the data that does not meet the predetermined criteria as the learning data. However, the accuracy of the learning model is reduced because the data that does not meet the predetermined criteria is adopted as the learning data.

本願発明は上記課題に鑑みてなされたものであり、精度の高いおいしさ推定システムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a highly accurate taste estimation system.

上記課題を解決するために本願発明は以下の構成を有する。すなわち、食品のおいしさを推定するおいしさ推定システムであって、食品の画像データ、当該食品に対するおいしさの評価情報、および当該食品を評価したユーザーのユーザー情報を含むデータを取得する取得手段と、前記データに含まれるユーザー情報に基づき、当該データに対する重みを決定する決定手段と、前記決定手段にて決定した重みに応じて、前記データに含まれる画像データから1または複数の学習用の画像データを生成する生成手段と、前記生成手段にて生成された1または複数の学習用の画像データを入力データとし、前記データに含まれる評価情報を教師データとして学習処理を行うことで、食品のおいしさを推定するための学習済モデルを生成する学習手段とを備える。 In order to solve the above problems, the present invention has the following configuration. That is, it is a deliciousness estimation system that estimates the deliciousness of food, and is an acquisition means for acquiring data including image data of the food, evaluation information of the deliciousness of the food, and user information of the user who evaluated the food. , A determination means for determining a weight for the data based on the user information included in the data, and one or a plurality of learning images from the image data included in the data according to the weight determined by the determination means. A generation means for generating data and one or a plurality of image data for learning generated by the generation means are used as input data, and evaluation information included in the data is used as teacher data for learning processing to obtain food. It is provided with a learning means for generating a trained model for estimating the taste.

本願発明により、精度の高いおいしさ推定システムを提供することが可能となる。 According to the present invention, it is possible to provide a highly accurate taste estimation system.

第1の実施形態に係るおいしさ推定システムの全体構成の例を示す図。The figure which shows the example of the whole structure of the deliciousness estimation system which concerns on 1st Embodiment. 第1の実施形態に係るおいしさ推定システムのハードウェア構成の例を示す図。The figure which shows the example of the hardware configuration of the deliciousness estimation system which concerns on 1st Embodiment. 第1の実施形態に係るおいしさ推定システムのソフトウェア構成の例を示す図。The figure which shows the example of the software structure of the deliciousness estimation system which concerns on 1st Embodiment. 第1の実施形態に係るおいしさ推定システムの動作概要を説明するための図。The figure for demonstrating the operation outline of the deliciousness estimation system which concerns on 1st Embodiment. 第1の実施形態に係るおいしさ推定システムの学習フェーズのフローチャート。The flowchart of the learning phase of the deliciousness estimation system which concerns on 1st Embodiment. 第1の実施形態に係るおいしさ推定システムの学習フェーズのフローチャート。The flowchart of the learning phase of the deliciousness estimation system which concerns on 1st Embodiment. 第1の実施形態に係るおいしさ推定システムの推定フェーズのフローチャート。The flowchart of the estimation phase of the deliciousness estimation system which concerns on 1st Embodiment. 第1の実施形態に係る学習モデルの入出力を示す概念図。The conceptual diagram which shows the input / output of the learning model which concerns on 1st Embodiment. 第1の実施形態に係るおいしさ推定システムのUIの構成例を示す図。The figure which shows the configuration example of the UI of the deliciousness estimation system which concerns on 1st Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

<第1の実施形態>
[システム構成]
図1は、本発明の一実施形態に係るおいしさ推定システムの全体構成の例を示す図である。図1において、クライアント端末102、食品管理サーバー103、データ収集サーバー104、および推定サーバー105が、インターネット100およびローカルネットワーク101を介して通信可能に接続されている。インターネット100やローカルネットワーク101は、例えば、LAN、WAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、ケーブルテレビ回線、データ放送用無線回線等により実現される、いわゆる通信ネットワークである。各ネットワークは、データの送受信が可能であれば、その構成や規格、もしくは組み合わせは特に限定するものではない。
<First Embodiment>
[System configuration]
FIG. 1 is a diagram showing an example of the overall configuration of a deliciousness estimation system according to an embodiment of the present invention. In FIG. 1, the client terminal 102, the food management server 103, the data collection server 104, and the estimation server 105 are communicably connected via the Internet 100 and the local network 101. The Internet 100 and the local network 101 are so-called communication networks realized by, for example, LAN, WAN, telephone lines, dedicated digital lines, ATMs, frame relay lines, cable TV lines, wireless lines for data broadcasting, and the like. Each network is not particularly limited in its configuration, standard, or combination as long as it can send and receive data.

クライアント端末102は、ユーザーが利用する端末であり、例えば、PC(Personal Computer)などの情報処理端末でもよいし、スマートフォンやタブレット端末などのモバイル端末などであってもよい。 The client terminal 102 is a terminal used by the user, and may be, for example, an information processing terminal such as a PC (Personal Computer) or a mobile terminal such as a smartphone or tablet terminal.

食品管理サーバー103、データ収集サーバー104、および推定サーバー105は、それぞれサーバーコンピューター上にて実行されている。食品管理サーバー103は、後述の表1で示す農作物の食品データと食品購入者の顧客データを保持するサーバーであり、データ収集サーバー104に食品データや顧客データを提供する。データ収集サーバー104は、食品購入者より提供されるデータをクライアント端末102から受信し、それらのデータに重み付けし、推定サーバー105に提供するサーバーである。推定サーバー105は、データ収集サーバー104から渡されたデータを用いて学習用データを生成し、それらの学習用データを用いて学習を行い、学習済モデルを作成する。本明細書では、学習時のモデルを学習モデルと記載し、学習が行われた結果として得られるモデルを学習済モデルと記載する。推定サーバー105により行われる推定処理は、学習済モデルを用いて行われる。推定サーバー105は、クライアント端末102からおいしさの推定要求を受け付けると、推定要求にて示される画像データから生成される入力データを学習済モデルに入力し、おいしさの推定を行う。そして、推定サーバー105は、推定結果として得られる評価値を、推定要求の応答としてクライアント端末102に返す。 The food management server 103, the data collection server 104, and the estimation server 105 are each running on the server computer. The food management server 103 is a server that holds food data of agricultural products and customer data of food purchasers shown in Table 1 described later, and provides food data and customer data to the data collection server 104. The data collection server 104 is a server that receives data provided by the food purchaser from the client terminal 102, weights the data, and provides the data to the estimation server 105. The estimation server 105 generates training data using the data passed from the data collection server 104, performs training using the training data, and creates a trained model. In this specification, the model at the time of learning is described as a learning model, and the model obtained as a result of learning is described as a trained model. The estimation process performed by the estimation server 105 is performed using the trained model. When the estimation server 105 receives the deliciousness estimation request from the client terminal 102, the estimation server 105 inputs the input data generated from the image data indicated by the estimation request into the trained model and estimates the deliciousness. Then, the estimation server 105 returns the evaluation value obtained as the estimation result to the client terminal 102 as a response to the estimation request.

以降、本明細書で説明するサーバーの機能は、単体のサーバー又は単体の仮想サーバーによって実現しても構わないし、複数のサーバー又は複数の仮想サーバーによって実現しても構わない。あるいは複数の仮想サーバーが単体のサーバー上で実行されていても構わない。また、図1において各装置が1台ずつ示されているが、これに限定するものではなく、その数は変動してよい。 Hereinafter, the server functions described in the present specification may be realized by a single server or a single virtual server, or may be realized by a plurality of servers or a plurality of virtual servers. Alternatively, multiple virtual servers may be running on a single server. Further, although each device is shown one by one in FIG. 1, the number is not limited to this, and the number may vary.

[ハードウェア構成]
図2は、本実施形態に係るクライアント端末102、食品管理サーバー103、データ収集サーバー104、および推定サーバー105として適用可能な情報処理装置200のハードウェア構成の例を示す図である。ここでは、各装置は同じ構成を備えるものとして説明するが、それぞれが異なる構成であってもよい。例えば、学習処理を行わない装置においては、後述するGPU209は設けられていなくてもよい。
[Hardware configuration]
FIG. 2 is a diagram showing an example of a hardware configuration of an information processing device 200 applicable as a client terminal 102, a food management server 103, a data collection server 104, and an estimation server 105 according to the present embodiment. Here, each device is described as having the same configuration, but each device may have a different configuration. For example, in a device that does not perform learning processing, GPU 209, which will be described later, may not be provided.

CPU(Central Processing Unit)202は、装置全体の制御を行う。CPU202はHDD(Hard Disc Drive)205に格納されているアプリケーションプログラムやOS(Operating System)等を実行し、RAM(Randam Access Memory)204にプログラムの実行に必要な情報、ファイル等を一時的に格納する制御を行う。GPU(Graphics Processing Unit)209は、ディープラーニングのような機械学習手法により、複数回に渡り学習を行う場合の処理を行う。GPU209を利用することで、データをより多く並列処理することが可能となり、効率的な演算を行うことができる。ROM(Read Only Memory)204は記憶手段であり、内部には、基本I/Oプログラム等の各種データを記憶する。RAM204は一時記憶手段であり、CPU202、GPU209の主メモリ、ワークエリア等として機能する。HDD205は、外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザ等のアプリケーションプログラム、サービスサーバー群のプログラム、OS、関連プログラム等を格納している。 The CPU (Central Processing Unit) 202 controls the entire device. The CPU 202 executes an application program, an OS (Operating System), etc. stored in the HDD (Hard Disk Drive) 205, and temporarily stores information, files, etc. necessary for executing the program in the RAM (Random Access Memory) 204. Control to do. The GPU (Graphics Processing Unit) 209 performs processing when learning is performed a plurality of times by a machine learning method such as deep learning. By using GPU209, more data can be processed in parallel, and efficient calculation can be performed. The ROM (Read Only Memory) 204 is a storage means, and internally stores various data such as a basic I / O program. The RAM 204 is a temporary storage means, and functions as a main memory, a work area, and the like of the CPU 202 and the GPU 209. The HDD 205 is one of the external storage means, functions as a large-capacity memory, and stores an application program such as a Web browser, a service server group program, an OS, and related programs.

表示部208はディスプレイ等の表示手段であり、キーボードやマウス等で構成される入力部207から入力したコマンドや各種UI画面等を表示したりする。システムバス201は、装置内におけるデータの流れを司るものである。情報処理装置200が備える各部位は、システムバス201を介して通信可能に接続される。NIC(Network Interface Card)206は、各種ネットワークを介して外部装置とのデータのやり取りを行う。なお、上記コンピュータの構成はその一例であり、図2の構成例に限定されるものではない。例えば、データやプログラムの格納先は、その特徴に応じてROM203、RAM204、HDD205などで変更することも可能である。加えて、CPU202やGPU209がHDD205に記憶されているプログラムに基づき処理を実行することによって、図3に示されるようなソフトウェア構成における処理が実現される。 The display unit 208 is a display means such as a display, and displays a command input from an input unit 207 composed of a keyboard, a mouse, or the like, various UI screens, and the like. The system bus 201 controls the flow of data in the device. Each part of the information processing apparatus 200 is communicably connected via the system bus 201. The NIC (Network Interface Card) 206 exchanges data with an external device via various networks. The configuration of the computer is an example thereof, and is not limited to the configuration example of FIG. For example, the storage destination of data and programs can be changed in ROM 203, RAM 204, HDD 205, etc. according to the characteristics. In addition, when the CPU 202 or GPU 209 executes the process based on the program stored in the HDD 205, the process in the software configuration as shown in FIG. 3 is realized.

[ソフトウェア構成]
図3は、本実施形態に係るおいしさ推定システムのソフトウェア構成の例を示す図である。なお、以下に示すソフトウェア構成は一例であり、本実施形態に直接関連しない部位については省略している。なお、本実施形態では、食品の例として、りんごなどの農産物を例に挙げて説明するが、これに限定するものではない。例えば、魚などの海産物やその他の生鮮食品であってもよい。
[Software configuration]
FIG. 3 is a diagram showing an example of the software configuration of the deliciousness estimation system according to the present embodiment. The software configuration shown below is an example, and parts that are not directly related to this embodiment are omitted. In the present embodiment, as an example of food, agricultural products such as apples will be described as an example, but the present invention is not limited to this. For example, it may be seafood such as fish or other fresh food.

クライアント端末102は、外部サーバーにアクセス可能なブラウザ301を備える。ここでのブラウザ301の種類は特に限定するものではなく、ウェブブラウザとしての機能を備えるものであればよい。 The client terminal 102 includes a browser 301 that can access an external server. The type of the browser 301 here is not particularly limited as long as it has a function as a web browser.

食品管理サーバー103は、データ記憶部311、食品管理部312、および顧客管理部313を含んで構成される。データ記憶部311は、食品管理部312が管理する農作物の食品データ(表1)や顧客管理部313が管理する顧客データ(表2)を記録する。食品管理部312が管理する農作物の食品データの例を表1に示す。 The food management server 103 includes a data storage unit 311, a food management unit 312, and a customer management unit 313. The data storage unit 311 records food data (Table 1) of agricultural products managed by the food management unit 312 and customer data (Table 2) managed by the customer management unit 313. Table 1 shows an example of food data of agricultural products managed by the food management department 312.

Figure 2021086215
Figure 2021086215

食品ID列は、農作物を一意に示す管理ID(識別情報)である。品種列は、農作物の品種である。本実施形態において、推定サーバー105が作成する学習済モデルは、この品種ごとに作成される。産地列は、農作物が収穫された産地を示す。出荷日列は、農作物が出荷された日である。食べごろ期限列は、出荷日を算出した品種ごとの食べごろ期限である。この食べごろ期限については後述する。食品管理部312は、データ収集サーバー104のデータ収集/提供部321から食品IDを受け取ると、表1に示すような食品データを参照し、食品IDに対応する食品データを返す。 The food ID column is a management ID (identification information) that uniquely indicates an agricultural product. The variety line is the variety of crops. In the present embodiment, the trained model created by the estimation server 105 is created for each of these varieties. The production area column indicates the production area where the crop was harvested. The shipping date column is the date when the crop was shipped. The best time to eat column is the best time to eat for each variety for which the shipping date has been calculated. The deadline for eating will be described later. When the food management unit 312 receives the food ID from the data collection / provision unit 321 of the data collection server 104, the food management unit 312 refers to the food data as shown in Table 1 and returns the food data corresponding to the food ID.

顧客管理部313が管理するユーザー情報である顧客データの例を表2に示す。

Figure 2021086215
Table 2 shows an example of customer data which is user information managed by the customer management unit 313.
Figure 2021086215

顧客ID列は、顧客を一意に示す管理ID(識別情報)である。管理IDは、例えば、クライアント端末102のブラウザ301からの要求時に付随する認可トークン(不図示)から得られる値である。ポイント列は、データ提供の報酬となる食品購入者ごとのポイント還元データである。なお、本実施形態では、ユーザーからのデータ提供を促進するために、ポイント還元を行う構成としているが、この構成は省略されてもよい。もしくは、他の方法により、ユーザーからのデータ提供を促進するような構成であってもよい。隔たり率列は、食品購入者が提供したデータの評価値と、画像データを学習済モデルに入力しておいしさを推定した評価値に、隔たりがあった過去の回数の割合を示した値である。ここでは、隔たり率の分母はデータの提供回数を示し、隔たり率の分子は隔たりが生じた回数を示す。なお、食品購入者が提供したデータが示す評価値と、学習済モデルによる推定結果の評価値とが完全一致した場合以外を隔たりが生じた回数としてもよいし、一定の値以上の差異が生じた場合に隔たりが生じた回数としてもよい。隔たり率は、履歴情報として、データの提供が行われるごとに更新される。 The customer ID column is a management ID (identification information) that uniquely indicates a customer. The management ID is, for example, a value obtained from an authorization token (not shown) associated with a request from the browser 301 of the client terminal 102. The point column is point return data for each food purchaser that serves as a reward for providing the data. In the present embodiment, points are redeemed in order to promote data provision from the user, but this configuration may be omitted. Alternatively, the configuration may be such that the data provision from the user is promoted by another method. The separation rate column is a value that indicates the ratio of the number of past times that there was a gap between the evaluation value of the data provided by the food purchaser and the evaluation value that estimated the deliciousness by inputting the image data into the trained model. is there. Here, the denominator of the separation rate indicates the number of times the data was provided, and the numerator of the separation rate indicates the number of times the separation occurred. It should be noted that the number of times the gap may occur except when the evaluation value indicated by the data provided by the food purchaser and the evaluation value of the estimation result by the trained model completely match, or a difference of a certain value or more occurs. In this case, the number of times the gap occurs may be used. The separation rate is updated as historical information each time data is provided.

データ収集サーバー104は、データ収集/提供部321、および重み判定部322を含んで構成される。データ収集/提供部321は、クライアント端末102から各種データを収集する。また、データ収集/提供部321は、収集したデータを推定サーバー105へ提供する。重み判定部322は、評価者のおいしさを判断するアビリティに基づき、各データの重み値を決める。重み値の詳細については、後述する。 The data collection server 104 includes a data collection / provision unit 321 and a weight determination unit 322. The data collection / provision unit 321 collects various data from the client terminal 102. In addition, the data collection / provision unit 321 provides the collected data to the estimation server 105. The weight determination unit 322 determines the weight value of each data based on the ability to determine the deliciousness of the evaluator. The details of the weight value will be described later.

推定サーバー105は、データ記憶部331、学習用データ生成部332、学習部333、および推定部334を含んで構成される。データ記憶部331は、データ収集サーバー104から提供された各種データを記憶する。学習用データ生成部332は、データ記憶部331に記憶されている各種データから、学習部333による学習処理に用いられる学習用データを生成する。学習部333は、学習用データ生成部332にて生成された学習用データを用いて学習モデルの学習処理を行う。また、学習部333は、学習処理の結果として得られる学習済モデルを推定部334に提供する。推定部334が用いる学習済モデルは、学習が進むごとに更新されることとなる。推定部334は、学習部333の学習処理により得られる学習済モデルを用いて、推定処理を行う。本実施形態では、推定処理は、クライアント端末102からの要求に応じて実行される。 The estimation server 105 includes a data storage unit 331, a learning data generation unit 332, a learning unit 333, and an estimation unit 334. The data storage unit 331 stores various data provided by the data collection server 104. The learning data generation unit 332 generates learning data used for learning processing by the learning unit 333 from various data stored in the data storage unit 331. The learning unit 333 performs learning processing of the learning model using the learning data generated by the learning data generation unit 332. Further, the learning unit 333 provides the estimation unit 334 with a learned model obtained as a result of the learning process. The trained model used by the estimation unit 334 will be updated as the learning progresses. The estimation unit 334 performs the estimation process using the learned model obtained by the learning process of the learning unit 333. In this embodiment, the estimation process is executed in response to a request from the client terminal 102.

[学習モデル]
図8は、本実施形態に係る学習モデルの入出力の概念を説明するための図である。学習部333による学習モデル803に対する学習が繰り返し行われることで、学習済モデルが生成される。学習済モデルは、学習モデル803の一部が用いられてもよいし、全体が用いられてもよい。学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。
[Learning model]
FIG. 8 is a diagram for explaining the concept of input / output of the learning model according to the present embodiment. A learned model is generated by repeatedly learning the learning model 803 by the learning unit 333. As the trained model, a part of the training model 803 may be used, or the whole may be used. Specific learning algorithms include the nearest neighbor method, the naive Bayesian method, a decision tree, and a support vector machine. As appropriate, any of the above algorithms that can be used can be applied to this embodiment.

学習モデル803に対する入力データ801は、データ収集サーバー104から学習用データ生成部332が取得したデータである食品の画像データである。出力データ802は、入力データ801を基に学習モデル803によって推定部334が推定したおいしさの評価値となる。評価値は、入力データ801の画像データにて示される食品のおいしさを表す値とし、ここでは、「1」〜「5」の5段階にて表されるものとする。評価値の定義の例を表3に示す。この定義値は推定サーバー105の学習用データ生成部332が管理し、データ記憶部331に記録する。数字が高いほどおいしさが良いという判定値となる。なお、おいしさを示す評価情報はこれに限定するものではなく、数が増減してもよいし、他の評価方式に基づく評価情報であってもよい。 The input data 801 for the learning model 803 is food image data which is data acquired by the learning data generation unit 332 from the data collection server 104. The output data 802 is an evaluation value of the deliciousness estimated by the estimation unit 334 by the learning model 803 based on the input data 801. The evaluation value is a value representing the deliciousness of the food indicated by the image data of the input data 801 and is represented here in five stages of "1" to "5". Table 3 shows an example of the definition of the evaluation value. This defined value is managed by the learning data generation unit 332 of the estimation server 105 and recorded in the data storage unit 331. The higher the number, the better the taste. The evaluation information indicating the deliciousness is not limited to this, and the number may be increased or decreased, or the evaluation information may be based on another evaluation method.

Figure 2021086215
Figure 2021086215

例えば、「リンゴの見た目のおいしさの評価」(掲載誌 電子情報通信学会技術研究報告 : 信学技報 106(410) 2006.12.7・8 p.57〜61)によると、見た目でリンゴのおいしさを評価するときには、表面の状態・色・形の順番で重視される研究結果が紹介されている。本実施形態に係るおいしさ推定システムでは表面の状態・色・形の特徴がわかる食品の画像データを学習モデル803の入力データとし、その食品のおいしさの評価値を出力し、おいしさの推定をする。 For example, according to "Evaluation of the appearance of apples" (published journal IEICE Technical Report: IEICE Technical Report 106 (410) 2006.12.7.8 p.57-61), apples look like apples. When evaluating the deliciousness, research results that are emphasized in the order of surface condition, color, and shape are introduced. In the deliciousness estimation system according to the present embodiment, the image data of the food whose surface condition, color, and shape characteristics are known is used as the input data of the learning model 803, and the evaluation value of the deliciousness of the food is output to estimate the deliciousness. do.

[動作概要]
図4は、本実施形態に係るおいしさ推定システムの動作概要を示す図である。本実施形態に係るおいしさ推定システムでは、購入店舗等にて食品購入者に提供するレシートに、食品購入情報、データ収集サーバー104へのアクセス情報、および食品データを指し示す食品IDを二次元コードとして記載する。なお、上記情報の表示方法は他の方法により提供されてもよい。図4の(1)〜(11)が学習フェーズに相当し、図4の(12)〜(14)が推定フェーズに相当する。なお、各フェーズは、それぞれが独立して行われてよい。
[Outline of operation]
FIG. 4 is a diagram showing an outline of the operation of the deliciousness estimation system according to the present embodiment. In the deliciousness estimation system according to the present embodiment, the receipt provided to the food purchaser at the purchasing store or the like includes the food purchase information, the access information to the data collection server 104, and the food ID indicating the food data as a two-dimensional code. Describe. The method of displaying the above information may be provided by another method. (1) to (11) in FIG. 4 correspond to the learning phase, and (12) to (14) in FIG. 4 correspond to the estimation phase. Each phase may be performed independently.

本実施形態に係るおいしさ推定システムに対し、学習に用いられるデータを提供する食品購入者は、クライアント端末102のブラウザ301でレシートの二次元コードを読み取り、ブラウザ301を介してデータ収集サーバー104にアクセスする。クライアント端末102のブラウザ301では、データ収集サーバー104が提供する食品のおいしさ評価値と食品の画像データを入力するために、図9を用いて後述するUI画面901〜903が表示される。 The food purchaser who provides the data used for learning to the deliciousness estimation system according to the present embodiment reads the two-dimensional code of the receipt with the browser 301 of the client terminal 102 and sends it to the data collection server 104 via the browser 301. to access. In the browser 301 of the client terminal 102, UI screens 901 to 903, which will be described later, are displayed with reference to FIG. 9 in order to input the deliciousness evaluation value of the food provided by the data collection server 104 and the image data of the food.

図4(1)で、データ収集サーバー104は、ブラウザ301から各種データを受信する。ここで受信されるデータとしては、食品の画像データと食品購入者の評価値、舌の画像データ、職業情報、食品IDなどが含まれる。図4(2)で、データ収集サーバー104は、食品IDと顧客IDをキーとして、食品管理サーバー103から食品データと顧客データを取得する。 In FIG. 4 (1), the data collection server 104 receives various data from the browser 301. The data received here includes food image data, food purchaser's evaluation value, tongue image data, occupational information, food ID, and the like. In FIG. 4 (2), the data collection server 104 acquires food data and customer data from the food management server 103 using the food ID and the customer ID as keys.

図4(3)、データ収集サーバー104のデータ収集/提供部321は、クライアント端末102から取得したデータの画像を解析し、食品の品種を判定する。食品データ(表1)の品種と、判定した品種とが一致しない場合は、本処理シーケンスを終了する。図4(3)の動作は後述の図5のS503の処理に対応する。 FIG. 4 (3), the data collection / provision unit 321 of the data collection server 104 analyzes the image of the data acquired from the client terminal 102 and determines the type of food. If the varieties in the food data (Table 1) do not match the determined varieties, this processing sequence is terminated. The operation of FIG. 4 (3) corresponds to the process of S503 of FIG. 5 described later.

図4(4)で、データ収集/提供部321は、クライアント端末102からのデータの受信日が食品データ(表1)の食べごろ期限を過ぎているかを判定する。食べごろ期限を過ぎている場合は、このデータを学習用データとして採用しない。食べごろ期限は、食品の生産者が設定してもよいし、出荷日から算出されてもよい。また、食べごろ期限は、賞味期限や消費期限から求められてもよい。図4(4)の動作は後述の図5のS504の処理に対応する。また、データ収集/提供部321は、顧客IDを食品管理部312に渡し、顧客データ(表2)を取得する。 In FIG. 4 (4), the data collection / provision unit 321 determines whether the date of receiving the data from the client terminal 102 has passed the deadline for eating the food data (Table 1). If the deadline for eating has passed, this data will not be used as learning data. The deadline for eating may be set by the food producer or calculated from the shipping date. In addition, the expiration date for eating may be obtained from the expiration date or the expiration date. The operation of FIG. 4 (4) corresponds to the process of S504 of FIG. 5 described later. In addition, the data collection / provision unit 321 passes the customer ID to the food management unit 312 and acquires customer data (Table 2).

図4(5)で、データ収集サーバー104の重み判定部322は、評価者のおいしさを判断するアビリティに対し該当データの重み値を決める。評価者のおいしさを判断するアビリティとは、おいしさの評価を行った食品購入者のおいしさの評価能力を示した値である。本実施形態において評価者アビリティは、評価者アビリティの基準値(表4)で示すとおり、職業、テイスター値、隔たり率の3種類の種別を用いる。この3種類の各重み値である、職業に対する重みとテイスター値の重みと隔たり率の重みの合計値がデータの重み値になる。 In FIG. 4 (5), the weight determination unit 322 of the data collection server 104 determines the weight value of the corresponding data for the ability to determine the deliciousness of the evaluator. The ability to judge the taste of the evaluator is a value indicating the ability of the food purchaser who evaluated the taste to evaluate the taste. In this embodiment, as the evaluator ability, as shown in the reference value of the evaluator ability (Table 4), three types of occupation, taster value, and separation rate are used. The total value of the weight for the occupation, the weight of the taster value, and the weight of the separation rate, which are the weight values of each of the three types, becomes the weight value of the data.

重み値は、各種データと共にクライアント端末102のブラウザ301から受け取った職業情報、舌の画像データ、または過去に提供されたデータから検出した隔たり率から決定される。重み判定部322は、この重みを判定する際に基準とする評価者アビリティの基準値(表4)を保持する。評価者アビリティの基準値を以下に示す。 The weight value is determined from the occupation information received from the browser 301 of the client terminal 102 together with various data, the image data of the tongue, or the separation rate detected from the data provided in the past. The weight determination unit 322 holds a reference value (Table 4) of the evaluator ability as a reference when determining the weight. The standard values for evaluator abilities are shown below.

Figure 2021086215
Figure 2021086215

種別列ごとの重みの判断方法を説明する。職業に対する重みについては、顧客データの各職業値に対し基準値として重みを定義する。テイスター値は、重み判定部322が、舌の画像データから判定する。分子生物学的に味覚の仕組みとして、舌の乳頭中の味蕾の先にある味覚受容体で受容した化学物質に含まれる甘味、塩味、苦味、酸味、うま味の5つの基本味のシグナルが中枢神経を通って脳で知覚されることで人は味を感じ、おいしさを判断するとされている。本実施形態に係るテイスター値は、舌の乳頭中の味蕾の一定面積における密度を示した値であり、食品購入者が学習用データと共に提供する舌の画像データから求める値である。つまり、テイスター値は、味に対する感度の情報として用いられる。重み判定部322では、舌の画像データから一定面積における味蕾の数を判定し、密度を示した値としてテイスター値を定義する。ここでの判定方法は、特に限定するものではなく、公知の画像解析方法に基づいて行われてよい。隔たり率は、重み判定部322が、データ収集/提供部321を介して取得した顧客データ(表2)の隔たり率に対し食品購入者の重みを計算する。 The method of determining the weight for each type column will be described. Regarding the weight for occupation, the weight is defined as a reference value for each occupation value in the customer data. The taster value is determined by the weight determination unit 322 from the image data of the tongue. As a mechanism of taste in molecular biology, five basic taste signals of sweetness, saltiness, bitterness, acidity, and umami contained in chemical substances received by taste receptors at the tip of taste buds in the papillary of the tongue are central nerves. It is said that a person feels the taste and judges the taste by being perceived by the brain through the passage. The taster value according to the present embodiment is a value indicating the density of taste buds in the papilla of the tongue in a certain area, and is a value obtained from the image data of the tongue provided by the food purchaser together with the learning data. That is, the taster value is used as information on the sensitivity to taste. The weight determination unit 322 determines the number of taste buds in a certain area from the image data of the tongue, and defines the taster value as a value indicating the density. The determination method here is not particularly limited, and may be performed based on a known image analysis method. As for the separation rate, the weight determination unit 322 calculates the weight of the food purchaser with respect to the separation rate of the customer data (Table 2) acquired through the data collection / provision unit 321.

なお、評価者アビリティに用いられる種別は上記の3種類に限定するものではなく、他の情報が用いられてもよい。例えば、評価者のバイタル情報(血圧、脈拍、呼吸速度、体温、心拍数など)を更に含めてもよい。もしくは、食品の管理状態や評価時の気候などの情報も併せて用いてもよい。また、各種別の粒度や閾値として他の値が用いられてもよい。 The types used for the evaluator ability are not limited to the above three types, and other information may be used. For example, the evaluator's vital information (blood pressure, pulse, respiratory rate, body temperature, heart rate, etc.) may be further included. Alternatively, information such as the food management status and the climate at the time of evaluation may also be used. Further, other values may be used as the particle size and the threshold value for each type.

重み判定部322で学習用データの重みを決定すると、図4(6)で、データ収集/提供部321は、各種データと重み情報を推定サーバー105の学習用データ生成部332に送信する。学習用データ生成部332は、各種データを受信すると、それらのデータをデータ記憶部331に記録する。 When the weight determination unit 322 determines the weight of the learning data, the data collection / provision unit 321 transmits various data and weight information to the learning data generation unit 332 of the estimation server 105 in FIG. 4 (6). When the learning data generation unit 332 receives various data, the learning data generation unit 332 records the data in the data storage unit 331.

図4(7)で、学習用データ生成部332は、重み情報分の画像データをデータ収集/提供部321から受信した画像データから生成する。画像データの画像を回転させたり拡縮させたりして特徴をそのままにした異なる画像データを作成する。ここでの複数のパターンとなる画像データの作成方法は、回転や拡縮に限定するものではなく、他の方法を用いてもよい。これは後述の図6のS603の処理に対応する。そして、学習用データ生成部332は、これらの画像データに対し各データの評価値をセットとした学習用データを学習部333に送信する。 In FIG. 4 (7), the learning data generation unit 332 generates image data for weight information from the image data received from the data collection / provision unit 321. Create different image data with the same features by rotating or scaling the image of the image data. The method for creating image data having a plurality of patterns here is not limited to rotation and scaling, and other methods may be used. This corresponds to the process of S603 of FIG. 6 described later. Then, the learning data generation unit 332 transmits the learning data in which the evaluation values of the respective data are set for the image data to the learning unit 333.

図4(8)で、学習部333は、画像データと評価値を品種ごとの学習モデル803に適用することで学習を行う。その学習処理の結果、学習済モデルが作成される。これは後述の図6のS605の処理に対応する。これを重み情報分だけ繰り返すことで、アビリティの高い評価者から提供を受けた学習用データがより多く学習モデル803に入力され、精度の高い学習済モデルが作成される。 In FIG. 4 (8), the learning unit 333 performs learning by applying the image data and the evaluation value to the learning model 803 for each variety. As a result of the learning process, a trained model is created. This corresponds to the process of S605 of FIG. 6 described later. By repeating this for the weight information, more learning data provided by the evaluator with high ability is input to the learning model 803, and a highly accurate trained model is created.

図4(9)で、推定部334は、図4(8)にて生成された学習済モデルを用いて推定処理を行う。ここでの入力データは、学習に用いた画像データの元画像でよい。 In FIG. 4 (9), the estimation unit 334 performs the estimation process using the trained model generated in FIG. 4 (8). The input data here may be the original image of the image data used for learning.

図4(10)で、推定部334は、図4(9)の推定結果を食品管理サーバー103へ通知する。食品管理サーバー103の顧客管理部313は、推定サーバー105から受信した推定結果に基づき、顧客情報(表2)の隔たり率を更新する。 In FIG. 4 (10), the estimation unit 334 notifies the food management server 103 of the estimation result of FIG. 4 (9). The customer management unit 313 of the food management server 103 updates the separation rate of the customer information (Table 2) based on the estimation result received from the estimation server 105.

図4(11)で、食品管理サーバー103は、推定サーバー105から推定結果を取得されたことに応じて、顧客情報(表2)のポイント列に対し、所定のポイントを追加する。ここでの追加するポイントの内容は特に限定するものではない。 In FIG. 4 (11), the food management server 103 adds a predetermined point to the point sequence of the customer information (Table 2) in response to the acquisition of the estimation result from the estimation server 105. The content of the points to be added here is not particularly limited.

図4(12)で、推定サーバー105の推定部334は、クライアント端末102のブラウザ301からおいしさの推定要求を受ける。クライアント端末102のブラウザ301では、推定要求を行うために、図9を用いて後述する画面911〜913が表示される。 In FIG. 4 (12), the estimation unit 334 of the estimation server 105 receives a deliciousness estimation request from the browser 301 of the client terminal 102. In the browser 301 of the client terminal 102, screens 911 to 913, which will be described later, are displayed with reference to FIG. 9 in order to make an estimation request.

図4(13)で、推定部334は、推定要求にて示される画像データを学習済モデルに入力し、おいしさの推定を行う。 In FIG. 4 (13), the estimation unit 334 inputs the image data indicated by the estimation request into the trained model and estimates the deliciousness.

図4(14)で、推定部334は、推定したおいしさの評価値をクライアント端末102のブラウザ301に返す。 In FIG. 4 (14), the estimation unit 334 returns the estimated deliciousness evaluation value to the browser 301 of the client terminal 102.

[処理フロー]
(学習フェーズにおける処理)
図5、図6を用いて、本実施形態に係るおいしさ推定システムの学習フェーズの処理フローを説明する。
[Processing flow]
(Processing in the learning phase)
The processing flow of the learning phase of the deliciousness estimation system according to the present embodiment will be described with reference to FIGS. 5 and 6.

図5は、データ収集サーバー104の学習フェーズにおける処理フローである。本処理フローは、データ収集サーバー104として動作する情報処理装置200のCPU202がHDD205等に格納されたプログラムを読み出して実行することにより実現される。 FIG. 5 is a processing flow in the learning phase of the data collection server 104. This processing flow is realized by the CPU 202 of the information processing device 200 operating as the data collection server 104 reading and executing the program stored in the HDD 205 or the like.

S501にて、データ収集サーバー104は、クライアント端末102のブラウザ301から各種データを含む登録要求を受信したか否かを判定する。ここでの登録要求には、食品の画像データと食品購入者の評価値、舌の画像データ、職業情報、食品IDなどが含まれる。ここでの登録要求に含まれる情報は、後述する図9のUI画面901〜903にて入力される。登録要求を受信した場合(S501にてYES)S502へ進み、受信していない場合(S501にてNO)受信するまで待機する。 In S501, the data collection server 104 determines whether or not a registration request including various data has been received from the browser 301 of the client terminal 102. The registration request here includes food image data, food purchaser's evaluation value, tongue image data, occupational information, food ID, and the like. The information included in the registration request here is input on the UI screens 901 to 903 of FIG. 9, which will be described later. When the registration request is received (YES in S501), the process proceeds to S502, and when the registration request is not received (NO in S501), the process waits until it is received.

S502にて、データ収集サーバー104は、登録要求にて示される認可トークン(不図示)から顧客IDを求める。更に、データ収集サーバー104は、登録要求にて示される食品IDおよび顧客IDを食品管理サーバー103に渡し、食品データ(表1)および顧客データ(表2)を取得する。更に、データ収集サーバー104は、登録要求にて示される食品の画像データを解析し、食品の品種を特定する。 In S502, the data collection server 104 obtains the customer ID from the authorization token (not shown) indicated in the registration request. Further, the data collection server 104 passes the food ID and the customer ID indicated in the registration request to the food management server 103, and acquires the food data (Table 1) and the customer data (Table 2). Further, the data collection server 104 analyzes the image data of the food indicated in the registration request and identifies the food variety.

S503にて、データ収集サーバー104は、指定された食品IDに対応する食品データ(表1)の品種と、S502で画像データから特定した品種が一致するかを判定する。一致する場合は(S503にてYES)S504へ進み、一致しない場合は(S503にてNO)本処理フローを終了する。 In S503, the data collection server 104 determines whether the variety of the food data (Table 1) corresponding to the designated food ID matches the variety specified from the image data in S502. If they match, the process proceeds to S504 (YES in S503), and if they do not match (NO in S503), the present processing flow ends.

S504にて、データ収集サーバー104は、食品データ(表1)を参照し、対象となる食品の食べごろ期間を超えていないか確認する。超えていない場合は(S504にてYES)S505へ進み、超えている場合は(S504にてNO)本処理フローを終了する。 In S504, the data collection server 104 refers to the food data (Table 1) and confirms whether or not the eating period of the target food has been exceeded. If it does not exceed (YES in S504), the process proceeds to S505, and if it exceeds (NO in S504), the present processing flow ends.

S505にて、データ収集サーバー104は、評価者アビリティとしてブラウザ301から取得した舌の画像データからテイスター値を求める。また、データ収集サーバー104は、評価者アビリティとしてブラウザ301から取得した職業情報、テイスター値、および顧客データから取得した隔たり率から、評価者アビリティの基準値(表4)を基に重みを決定する。 In S505, the data collection server 104 obtains the taster value from the tongue image data acquired from the browser 301 as the evaluator ability. Further, the data collection server 104 determines the weight based on the reference value (Table 4) of the evaluator ability from the occupation information acquired from the browser 301 as the evaluator ability, the taster value, and the separation rate acquired from the customer data. ..

S506にて、データ収集サーバー104は、推定サーバー105に各種データと重み情報を送信する。そして、本処理フローを終了する。 In S506, the data collection server 104 transmits various data and weight information to the estimation server 105. Then, this processing flow is terminated.

図6は、推定サーバー105の学習フェーズにおける処理フローである。本処理フローは、推定サーバー105として動作する情報処理装置200のCPU202やGPU209がHDD205等に格納されたプログラムを読み出して実行することにより実現される。 FIG. 6 is a processing flow in the learning phase of the estimation server 105. This processing flow is realized by the CPU 202 and GPU 209 of the information processing device 200 operating as the estimation server 105 reading and executing the program stored in the HDD 205 and the like.

S601にて、推定サーバー105は、各種データと重み情報をデータ収集サーバー104から受信する。この情報は、図5のS506にてデータ収集サーバー104から送信される情報である。 In S601, the estimation server 105 receives various data and weight information from the data collection server 104. This information is the information transmitted from the data collection server 104 in S506 of FIG.

S602にて、推定サーバー105は、変数Nの値がS601にて受信した重み情報の値より小さいか否かを判定する。変数Nの初期値は0とし、ここでの判定が行われるごとに1インクリメントされていく。N<重みである場合は(S602にてYES)S603へ進み、N≧重みである場合(S602にてNO)S607へ進む。 In S602, the estimation server 105 determines whether the value of the variable N is smaller than the value of the weight information received in S601. The initial value of the variable N is set to 0, and is incremented by 1 each time the determination is made. If N <weight, the process proceeds to S603 (YES in S602), and if N ≥ weight (NO in S602), the process proceeds to S607.

S603にて、推定サーバー105は、S601にて受信した画像データを回転、または拡縮し、学習用の画像データを作成する。 In S603, the estimation server 105 rotates or scales the image data received in S601 to create image data for learning.

S604にて、推定サーバー105は、S603にて作成した画像データと評価値を学習用データとして、学習モデル803に入力する。ここでの評価値は学習モデル803から出力される評価値に対する教師データとして用いられる。 In S604, the estimation server 105 inputs the image data and the evaluation value created in S603 into the learning model 803 as learning data. The evaluation value here is used as teacher data for the evaluation value output from the learning model 803.

S605にて、推定サーバー105は、S604にて入力された学習用データを用いて学習を行う。例えば、推定サーバー105は、学習モデル803に入力された画像データに対して出力される出力データである評価値と、教師データである評価値との差異が小さくなるように学習モデル803のパラメータを制御することで学習を行う。 In S605, the estimation server 105 performs learning using the learning data input in S604. For example, the estimation server 105 sets the parameters of the learning model 803 so that the difference between the evaluation value, which is the output data output to the image data input to the learning model 803, and the evaluation value, which is the teacher data, becomes small. Learning is performed by controlling.

S606にて、推定サーバー105は、S605における学習処理の結果として得られる学習済モデルを、推定部334に適応させる。ここでの適応は、例えば、食品ごとに、学習モデル803の一部もしくは全部を学習済モデルとして推定部334に反映させる。その後、S602へ戻り、変数Nを更新した上で判定を再度行う。つまり、S601にて受信した重み情報の分だけ、S603〜S606の処理が繰り返されることとなる。 In S606, the estimation server 105 adapts the trained model obtained as a result of the learning process in S605 to the estimation unit 334. In the adaptation here, for example, for each food, a part or all of the learning model 803 is reflected in the estimation unit 334 as a learned model. After that, the process returns to S602, the variable N is updated, and the determination is performed again. That is, the processes of S603 to S606 are repeated by the amount of the weight information received in S601.

S607にて、推定サーバー105は、S601にてデータ収集サーバー104から取得した画像データを学習済モデルに入力し、推定処理を実行する。 In S607, the estimation server 105 inputs the image data acquired from the data collection server 104 in S601 into the trained model, and executes the estimation process.

S608にて、推定サーバー105は、S607における推定処理の推定結果を食品管理サーバー103に通知する。そして、本処理フローを終了する。 In S608, the estimation server 105 notifies the food management server 103 of the estimation result of the estimation process in S607. Then, this processing flow is terminated.

なお、本実施形態におけるS602では、学習回数と重み回数を同値として繰り返し学習を行う例を示しているが、学習回数と重み回数の値は必ずしも同値でなくてもよい。つまり、学習回数と重み回数が異なる値同士であっても、正の相関関係であればよい。具体的には、重み値が1〜10であれば、学習回数は1回とし、重み値が11〜20であれば、学習回数は3回とし、重み値が21〜30であれば、学習回数は5回のようにそれぞれが増加する関係であればよい。 Although S602 in the present embodiment shows an example in which the number of learnings and the number of weights are set to the same value for repeated learning, the values of the number of learnings and the number of weights do not necessarily have to be the same. That is, even if the values have different learning counts and weight counts, they may have a positive correlation. Specifically, if the weight value is 1 to 10, the number of learnings is one, if the weight value is 11 to 20, the number of learnings is three, and if the weight value is 21 to 30, learning is performed. The number of times may be such that each increases, such as 5 times.

(推定フェーズにおける処理)
図7を用いて、本実施形態に係るおいしさ推定システムの推定フェーズの処理フローを説明する。図7の処理フローは、推定サーバー105として動作する情報処理装置200のCPU202やGPU209がHDD205等に格納されたプログラムを読み出して実行することにより実現される。
(Processing in the estimation phase)
The processing flow of the estimation phase of the deliciousness estimation system according to the present embodiment will be described with reference to FIG. 7. The processing flow of FIG. 7 is realized by the CPU 202 and GPU 209 of the information processing device 200 operating as the estimation server 105 reading and executing the program stored in the HDD 205 and the like.

S701にて、推定サーバー105は、クライアント端末102のブラウザ301から食品の画像データを含む推定要求を受信したか否かを判定する。ここでの推定要求は、後述する図9のUI画面911〜913を用いて入力された情報に基づき、クライアント端末102から送信される。画像データを受信した場合(S701にてYES)S702へ進み、受信していない場合(S701にてNO)受信するまで待機する。 In S701, the estimation server 105 determines whether or not an estimation request including food image data has been received from the browser 301 of the client terminal 102. The estimation request here is transmitted from the client terminal 102 based on the information input using the UI screens 911 to 913 of FIG. 9 described later. When the image data is received (YES in S701), the process proceeds to S702, and when the image data is not received (NO in S701), the process waits until the image data is received.

S702にて、推定サーバー105の推定部334は、S701にて受信した推定要求にて示される画像データを学習済モデルに入力する。 In S702, the estimation unit 334 of the estimation server 105 inputs the image data indicated by the estimation request received in S701 into the trained model.

S703にて、推定部334は、S702にて入力された画像データに対する推定結果として、学習済モデルから出力されるおいしさを示す値(評価値)を取得する。 In S703, the estimation unit 334 acquires a value (evaluation value) indicating the deliciousness output from the trained model as an estimation result for the image data input in S702.

S704にて、推定サーバー105は、S703にて取得した評価値をブラウザ301に送信する。そして、本処理フローを終了する。 In S704, the estimation server 105 transmits the evaluation value acquired in S703 to the browser 301. Then, this processing flow is terminated.

[UI画面]
図9は、本実施形態に係るおいしさ推定システムのUI画面の構成例を示す。各UI画面は、クライアント端末102のブラウザ301にて表示される。ここではクライアント端末102をモバイル端末である構成として説明する。
[UI screen]
FIG. 9 shows a configuration example of the UI screen of the deliciousness estimation system according to the present embodiment. Each UI screen is displayed on the browser 301 of the client terminal 102. Here, the client terminal 102 will be described as a mobile terminal.

UI画面901〜903は、食品購入者であり、食品のおいしさを評価する評価者がおいしさ推定のためのデータを提供する際に用いられるUIの例を示す。UI画面901〜903は、クライアント端末102のブラウザ301がデータ収集サーバー104にアクセスした応答により表示され、図4の(1)のデータ送信の前に用いられる。UI画面901は、提供するデータの対象食品を選択するUI画面の例である。領域904にて、クライアント端末102のカメラ機能(不図示)により取得した画像データから、ユーザーが対象食品になりうる食品の画像部分をピックアップすることで、マーク表示される。マーク表示された後、OKボタン905が押下された場合、次の画面に遷移する。例えば、対象食品が1つの場合は、UI画面902を表示する。対象食品が複数の場合は、操作者に対象商品を指定させるためのUI画面(不図示)に遷移してよい。 The UI screens 901 to 903 show an example of a UI used by a food purchaser and an evaluator who evaluates the taste of food to provide data for estimating the taste. The UI screens 901 to 903 are displayed by the response that the browser 301 of the client terminal 102 accesses the data collection server 104, and are used before the data transmission of FIG. 4 (1). The UI screen 901 is an example of a UI screen for selecting the target food of the data to be provided. In the area 904, the mark is displayed by picking up the image portion of the food that can be the target food from the image data acquired by the camera function (not shown) of the client terminal 102. If the OK button 905 is pressed after the mark is displayed, the screen transitions to the next screen. For example, when there is only one target food, the UI screen 902 is displayed. When there are a plurality of target foods, the transition may be made to a UI screen (not shown) for allowing the operator to specify the target product.

UI画面902は、評価者の表3の評価値、職業情報、および評価者の舌画像データを入録するためのUI画面の例である。領域906は、UI画面901の領域904にて選択された評価対象の食品の画像を表示する。領域907は、評価値や職業情報を入力するための領域である。舌画像撮影ボタン908が押下されるとUI画面903が表示される。送信ボタン909が押下されると、評価者が選択した対象食品を含む画像データ、評価値、職業情報、舌画像データがクライアント端末102からデータ収集サーバー104に送信される。 The UI screen 902 is an example of a UI screen for recording the evaluation value, occupation information, and tongue image data of the evaluator in Table 3 of the evaluator. The area 906 displays an image of the food to be evaluated selected in the area 904 of the UI screen 901. The area 907 is an area for inputting an evaluation value and occupation information. When the tongue image capturing button 908 is pressed, the UI screen 903 is displayed. When the transmission button 909 is pressed, the image data including the target food selected by the evaluator, the evaluation value, the occupation information, and the tongue image data are transmitted from the client terminal 102 to the data collection server 104.

UI画面903は、ユーザーの舌画像データを撮影するためのUI画面である。クライアント端末102が備えるカメラ機能(不図示)を用いて舌画像を撮影した後、決定ボタン910が押下されることで、送信する舌画像データを選択することができる。 The UI screen 903 is a UI screen for capturing the tongue image data of the user. After taking a tongue image using the camera function (not shown) provided in the client terminal 102, the tongue image data to be transmitted can be selected by pressing the enter button 910.

UI画面911〜913は、食品購入予定者であり食品のおいしさの推定を行う際に用いられるUIの例を示す。UI画面911〜913は、クライアント端末102のブラウザ301が推定サーバー105にアクセスした応答により表示され、図4の(12)の推定要求を行う前に用いられる。UI画面911は、おいしさ推定対象の食品を選択するためのUI画面の例である。領域914にて、クライアント端末102のカメラ機能(不図示)により取得した画像データから、ユーザーが対象食品になりうる食品の画像部分をピックアップすることで、マーク表示される。送信ボタン915が押下されることで、推定サーバー105に推定要求を送信する。マーク表示された後、OKボタン915が押下された場合、次のUI画面に遷移する。例えば、おいしさ推定対象食品が1つの場合はUI画面912に遷移する。対象食品が複数の場合は、操作者に対象商品を指定させるためのUI画面(不図示)に遷移してよい。 The UI screens 911 to 913 show an example of a UI used when the person who is planning to purchase food and estimates the taste of food. The UI screens 911 to 913 are displayed by the response that the browser 301 of the client terminal 102 accesses the estimation server 105, and are used before making the estimation request of FIG. 4 (12). The UI screen 911 is an example of a UI screen for selecting a food to be estimated for deliciousness. In the area 914, the mark is displayed by picking up the image portion of the food that can be the target food from the image data acquired by the camera function (not shown) of the client terminal 102. When the send button 915 is pressed, the estimation request is transmitted to the estimation server 105. If the OK button 915 is pressed after the mark is displayed, the next UI screen is displayed. For example, when there is only one food for which the taste is estimated, the UI screen 912 is displayed. When there are a plurality of target foods, the transition may be made to a UI screen (not shown) for allowing the operator to specify the target product.

UI画面912は、おいしさ推定対象の食品の画像データを推定サーバー105に送る際のUI画面である。送信ボタン916が押下されることで、推定要求が推定サーバー105へ送信される。UI画面913は、推定サーバー105による推定処理の結果、推定した食品の画像データと推定したおいしさ評価値を表示するためのUI画面の例である。領域917に推定結果としての評価値が表示される。 The UI screen 912 is a UI screen for sending image data of food to be estimated for deliciousness to the estimation server 105. When the send button 916 is pressed, the estimation request is transmitted to the estimation server 105. The UI screen 913 is an example of a UI screen for displaying the estimated food image data and the estimated deliciousness evaluation value as a result of the estimation process by the estimation server 105. The evaluation value as the estimation result is displayed in the area 917.

以上、本実施形態では、おいしさの評価者アビリティに対し重み付けを行い、アビリティが高い評価者から提供される各データに高い重みを与え、重みに対応した回数データを学習させて、学習済モデルを生成する。そのため、重みが高いデータを用いた学習がより多く行われ精度の高い推定結果を得ることが可能な学習済モデルを生成することができる。したがって、精度の高いおいしさ推定システムを提供することが可能となる。 As described above, in the present embodiment, the evaluator ability of deliciousness is weighted, each data provided by the evaluator with high ability is given a high weight, and the number of times data corresponding to the weight is trained, and the trained model is trained. To generate. Therefore, it is possible to generate a trained model in which more training is performed using data having a high weight and a highly accurate estimation result can be obtained. Therefore, it is possible to provide a highly accurate taste estimation system.

<その他の実施形態>
本発明は上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. But it is feasible. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

102…クライアント端末、103…食品管理サーバー、104…データ収集サーバー、105…推定サーバー 102 ... client terminal, 103 ... food management server, 104 ... data collection server, 105 ... estimation server

Claims (10)

食品のおいしさを推定するおいしさ推定システムであって、
食品の画像データ、当該食品に対するおいしさの評価情報、および当該食品を評価したユーザーのユーザー情報を含むデータを取得する取得手段と、
前記データに含まれるユーザー情報に基づき、当該データに対する重みを決定する決定手段と、
前記決定手段にて決定した重みに応じて、前記データに含まれる画像データから1または複数の学習用の画像データを生成する生成手段と、
前記生成手段にて生成された1または複数の学習用の画像データを入力データとし、前記データに含まれる評価情報を教師データとして学習処理を行うことで、食品のおいしさを推定するための学習済モデルを生成する学習手段と
を備えることを特徴とするおいしさ推定システム。
It is a deliciousness estimation system that estimates the deliciousness of food.
Acquisition means for acquiring data including image data of food, evaluation information of deliciousness of the food, and user information of the user who evaluated the food,
A determination means for determining the weight for the data based on the user information contained in the data, and
A generation means for generating one or more image data for learning from the image data included in the data according to the weight determined by the determination means, and a generation means.
Learning to estimate the deliciousness of food by performing learning processing using one or more image data for learning generated by the generation means as input data and evaluation information included in the data as teacher data. A deliciousness estimation system characterized by having a learning means for generating a completed model.
食品の画像データを含む推定要求を受信する受信手段と、
前記推定要求に含まれる食品の画像データを、前記学習済モデルに入力することで、当該食品のおいしさを推定する推定手段と
を更に有することを特徴とする請求項1に記載のおいしさ推定システム。
A receiving means for receiving an estimation request including image data of food, and
The deliciousness estimation according to claim 1, further comprising an estimation means for estimating the deliciousness of the food by inputting the image data of the food included in the estimation request into the trained model. system.
前記生成手段は、前記データに含まれる画像データを回転もしくは拡縮することで、1または複数の学習用の画像データを生成することを特徴とする請求項1または2に記載のおいしさ推定システム。 The deliciousness estimation system according to claim 1 or 2, wherein the generation means generates one or a plurality of image data for learning by rotating or scaling the image data included in the data. 前記生成手段は、前記重みの値が高いほど、前記データに含まれる画像データから多くの学習用の画像データを生成することを特徴とする請求項1乃至3のいずれか一項に記載のおいしさ推定システム。 The deliciousness according to any one of claims 1 to 3, wherein the generation means generates more image data for learning from the image data included in the data as the value of the weight increases. Data estimation system. 前記ユーザー情報は、ユーザーの職業の情報、および当該ユーザーの舌の画像データを含むことを特徴とする請求項1乃至4のいずれか一項に記載のおいしさ推定システム。 The deliciousness estimation system according to any one of claims 1 to 4, wherein the user information includes information on the occupation of the user and image data of the tongue of the user. 前記決定手段は、前記ユーザーの舌の画像データから当該ユーザーの味覚の感度を特定する特定手段を更に有し、
前記決定手段は、前記特定手段にて特定した味覚の感度に基づき、前記重みを決定することを特徴とする請求項5に記載のおいしさ推定システム。
The determination means further includes a specific means for specifying the taste sensitivity of the user from the image data of the tongue of the user.
The deliciousness estimation system according to claim 5, wherein the determination means determines the weight based on the sensitivity of the taste specified by the specific means.
前記決定手段は、ユーザーが評価した食品に対するおいしさの評価情報と、当該食品の画像データを入力データとして前記学習手段にて生成されている学習済モデルに入力することで得られる推定結果との隔たりの履歴に基づいて、前記重みを決定することを特徴とする請求項1乃至6のいずれか一項に記載のおいしさ推定システム。 The determination means includes the evaluation information of the deliciousness of the food evaluated by the user and the estimation result obtained by inputting the image data of the food into the trained model generated by the learning means as input data. The deliciousness estimation system according to any one of claims 1 to 6, wherein the weight is determined based on the history of the distance. 食品の消費に関する期限を管理する管理手段と
前記取得手段にて取得したデータにて示される食品が前記期限を超えているか否かを判定する判定手段と
を更に有し、
前記学習手段は、前記判定手段にて前記期限を超えていると判定されたデータを、学習用のデータとして用いないことを特徴とする請求項1乃至7のいずれか一項に記載のおいしさ推定システム。
It further has a management means for managing the deadline for food consumption and a determination means for determining whether or not the food indicated by the data acquired by the acquisition means has exceeded the deadline.
The deliciousness according to any one of claims 1 to 7, wherein the learning means does not use the data determined by the determination means to exceed the deadline as learning data. Estimate system.
食品のおいしさを推定するおいしさ推定システムの制御方法であって、
食品の画像データ、当該食品に対するおいしさの評価情報、および当該食品を評価したユーザーのユーザー情報を含むデータを取得する取得工程と、
前記データに含まれるユーザー情報に基づき、当該データに対する重みを決定する決定工程と、
前記決定工程にて決定した重みに応じて、前記データに含まれる画像データから1または複数の学習用の画像データを生成する生成工程と、
前記生成工程にて生成された1または複数の学習用の画像データを入力データとし、前記データに含まれる評価情報を教師データとして学習処理を行うことで、食品のおいしさを推定するための学習済モデルを生成する学習工程と
を有することを特徴とする制御方法。
It is a control method of the deliciousness estimation system that estimates the deliciousness of food.
An acquisition process for acquiring data including image data of food, evaluation information of deliciousness of the food, and user information of the user who evaluated the food, and
A determination process for determining weights for the data based on the user information contained in the data, and
A generation step of generating one or more image data for learning from the image data included in the data according to the weight determined in the determination step, and a generation step.
Learning to estimate the deliciousness of food by performing learning processing using one or more image data for learning generated in the generation step as input data and evaluation information included in the data as teacher data. A control method characterized by having a learning process for generating a completed model.
コンピュータを、
食品の画像データ、当該食品に対するおいしさの評価情報、および当該食品を評価したユーザーのユーザー情報を含むデータを取得する取得手段、
前記データに含まれるユーザー情報に基づき、当該データに対する重みを決定する決定手段、
前記決定手段にて決定した重みに応じて、前記データに含まれる画像データから1または複数の学習用の画像データを生成する生成手段、
前記生成手段にて生成された1または複数の学習用の画像データを入力データとし、前記データに含まれる評価情報を教師データとして学習処理を行うことで、食品のおいしさを推定するための学習済モデルを生成する学習手段
として機能させるためのプログラム。
Computer,
Acquisition means for acquiring data including image data of food, evaluation information of deliciousness of the food, and user information of the user who evaluated the food,
A determinant that determines the weight for the data based on the user information contained in the data.
A generation means for generating one or more image data for learning from the image data included in the data according to the weight determined by the determination means.
Learning to estimate the deliciousness of food by performing learning processing using one or more image data for learning generated by the generation means as input data and evaluation information included in the data as teacher data. A program to function as a learning means to generate an input model.
JP2019212530A 2019-11-25 2019-11-25 Palatability estimation system, control method thereof, and program Pending JP2021086215A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019212530A JP2021086215A (en) 2019-11-25 2019-11-25 Palatability estimation system, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212530A JP2021086215A (en) 2019-11-25 2019-11-25 Palatability estimation system, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2021086215A true JP2021086215A (en) 2021-06-03

Family

ID=76087710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212530A Pending JP2021086215A (en) 2019-11-25 2019-11-25 Palatability estimation system, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2021086215A (en)

Similar Documents

Publication Publication Date Title
US10817778B2 (en) Customized cooking utilizing deep learning neuromorphic computing of hyperspectral input
EP3493138A1 (en) Recommendation system based on a user&#39;s physical features
CN114631133A (en) Method for simulating target food by artificial intelligence
JP2023538048A (en) Image-based packed meat quality classification and sales method, device and system
JP6942764B2 (en) System, client terminal, its control method
US11481791B2 (en) Method and apparatus for immediate prediction of performance of media content
US20170011421A1 (en) Preference analyzing system
JP2016091061A (en) Server device, shopping support system, and program
US11823042B2 (en) System for measuring food weight
JP2019046058A (en) Information processing device, and information processing method and program
JP7062960B2 (en) Information processing system, program, information processing device and information output method
US9839355B2 (en) Method of processing information, and information processing apparatus
JP2019125206A (en) Information processing device, information processing method, and program
JP2016045606A (en) Recipe evaluation device, program, and control method
JP2021086215A (en) Palatability estimation system, control method thereof, and program
JP2000316492A (en) Device, method and recording medium for exhibiting substituting food material
WO2022202410A1 (en) Determination device, learning device, determination system, determination method, learning method, and program
Ko et al. A deep learning-based framework for predicting pork preference
WO2021235200A1 (en) Device, method, and program for assisting creation of content used in intervention, and computer-readable recording medium
CN109643408A (en) Intelligent fellow grouping in incentive programme
Kavitha et al. Evaluation of flow–volume spirometric test using neural network based prediction and principal component analysis
JP6656626B2 (en) Sales support system and sales support method
KR102577604B1 (en) Japanese bar menu recommendation system based on artificial intelligence
KR20200122652A (en) Nutrient Profiling-based Pet Food Recommendation System
CN115375414B (en) Community group purchase commodity recommendation method and device based on big data, electronic equipment and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113