JP7284829B2 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP7284829B2 JP7284829B2 JP2021556122A JP2021556122A JP7284829B2 JP 7284829 B2 JP7284829 B2 JP 7284829B2 JP 2021556122 A JP2021556122 A JP 2021556122A JP 2021556122 A JP2021556122 A JP 2021556122A JP 7284829 B2 JP7284829 B2 JP 7284829B2
- Authority
- JP
- Japan
- Prior art keywords
- food
- person
- type
- information
- drink
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/60—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47G—HOUSEHOLD OR TABLE EQUIPMENT
- A47G23/00—Other table equipment
- A47G23/10—Devices for counting or marking the number of consumptions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30128—Food products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Nutrition Science (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置に関する。
近年、健康的思考の高まりに伴い、食事量を記録する人が増えている。そこで、食事量を簡単に記録するために、食事量を記録するサービスが提案されている。例えば、非特許文献1には、大皿に盛られた食べ物を複数の人物が食べる場合に、食卓を撮像した画像を複数の領域に区分けし、領域ごとに食べ物を食べたかを判定し、食べた場合には領域に対応付けられた人物の食事量を記録する技術が開示されている。
大塚雄一郎ほか2名,"会食状況認識によるテーブル型リアルタイム料理推薦システム",情報処理学会研究報告,Vol.2011-DN-78 No.8,2011/1/21
しかしながら、実際の食事では、人物によっては、大皿から取り皿に食べ物を移して、取り皿から料理を食べることがある。従来技術では、大皿に盛られた食べ物が減少した場合、取り皿に移動しただけで食べ物を食べていないにも関わらず食べたと判定されるため、人物の食事量を正確に特定することができない。
以上の課題を解決するために、本発明の好適な態様に係る情報処理装置は、複数の人物が摂取する飲食物が盛られた第1種別の器と前記飲食物の一部が盛られる第2種別の複数の器とが配置された卓、及び、前記複数の人物を、撮像することによって得られた動画像を示す動画像情報を取得する取得部と、前記動画像情報に基づいて、前記複数の人物の各々を識別する第1識別情報、前記第1種別の器及び前記第2種別の複数の器の各々を識別する第2識別情報、並びに、前記飲食物の種別を識別する第3識別情報を生成する識別情報生成部と、前記動画像情報に基づいて、前記第1種別の器及び前記第2種別の複数の器の各々に盛られた前記飲食物の量を推定する推定部と、前記動画像情報に基づいて、判定時点における前記第1種別の器に盛られた飲食物の量が、当該判定時点より所定期間前の前記第1種別の器に盛られた飲食物の量と比較して減少したか否かを判定する第1判定部と、前記第1判定部の判定結果が肯定を示す場合、前記動画像情報に基づいて、前記複数の人物のうち一の人物が前記第1種別の器に盛られた飲食物を摂取したか、又は当該飲食物が前記第2種別の複数の器のうち一の器に移されたかを判定する第2判定部と、前記一の人物が前記第1種別の器に盛られた飲食物を摂取したことを前記第2判定部の判定結果が示す場合、前記一の人物が摂取した飲食物の量、前記一の人物、及び、当該飲食物の種別を対応付ける摂取情報を生成する摂取情報生成部とを備え、前記推定部は、前記第2判定部の判定結果が前記一の器に前記飲食物が移されたことを示す場合、前記第2種別の前記一の器に盛られた飲食物の量を、前記第1種別の器に盛られた飲食物が減少した量だけ増加させる。
本発明によれば、人物の食事量を正確に特定できる。
1.実施形態
以下、本実施形態に係る食事量推定システム1を説明する。
以下、本実施形態に係る食事量推定システム1を説明する。
1.1.食事量推定システム1の概要
図1は、食事量推定システム1の概要を示す図である。食事量推定システム1は、食事中の人物Uを撮像することにより、人物Uの食事量を推定するサービスを提供する。食事量は、人物Uが摂取した飲食物の量である。飲食物(food or drink)とは、飲み物及び食べ物の一方である。飲食物の量は、例えば、飲食物が食べ物であれば食べ物のカロリー数又はグラム数であり、飲食物が飲み物であれば飲み物のカロリー数又はリットル数である。以下では、説明の簡略化のため、「人物Uが飲食物を摂取する」を、単に、「人物Uが食べ物を食べる」として説明し、食事量は、具体的には、人物Uが食べた食べ物のカロリー数であるとして説明する。
図1は、食事量推定システム1の概要を示す図である。食事量推定システム1は、食事中の人物Uを撮像することにより、人物Uの食事量を推定するサービスを提供する。食事量は、人物Uが摂取した飲食物の量である。飲食物(food or drink)とは、飲み物及び食べ物の一方である。飲食物の量は、例えば、飲食物が食べ物であれば食べ物のカロリー数又はグラム数であり、飲食物が飲み物であれば飲み物のカロリー数又はリットル数である。以下では、説明の簡略化のため、「人物Uが飲食物を摂取する」を、単に、「人物Uが食べ物を食べる」として説明し、食事量は、具体的には、人物Uが食べた食べ物のカロリー数であるとして説明する。
食事量推定システム1は、情報処理装置10と、撮像装置90とを含む。情報処理装置10は、食事量推定システム1に用いられるコンピュータである。図1の例示では、情報処理装置10は、部屋LRの天井に取り付けられている。撮像装置90は、情報処理装置10に取り付けられている。
部屋LR内において、複数の人物Uが食事を取っている。図1の例示では、複数の人物Uの一例として人物U_1と人物U_2とが、部屋LR内で食事を取っている。複数の人物は、2人に限らず、3人以上でもよい。以下の説明では、同種の要素を区別する場合、人物U_1及び人物U_2のように参照符号を使用する。一方、同種の要素を区別しない場合、人物Uのように、参照符号のうちの共通符号だけを使用する。
部屋LRには、食卓Tbが設けられている。食卓Tbには、人物Uが食べる食べ物FDが盛られた大皿CPと、複数の取り皿SPとが配置されている。大皿CPは、「複数の人物が摂取する飲食物が盛られた第1種別の器」の一例である。大皿CPは、1つでもよいし複数でもよい。複数の取り皿SPは、「飲食物の一部が盛られる第2種別の複数の器」の一例である。食卓Tbは、「複数の人物が摂取する飲食物が盛られた器と複数の取り皿とが配置された卓」の一例である。
図1の例示では、食卓Tbには、複数の取り皿SPの一例として、人物U_1が用いる取り皿SP_1と、人物U_2が用いる取り皿SP_2とが配置されている。取り皿SPの数は2に限らず、3以上でもよい。更に、大皿CPには、食べ物FDを取り分けるために用いるトングTOが配置されている。地域によっては、図1の例示のように、大皿CPに食べ物FDを盛り、各人物Uは、大皿CPに盛られた食べ物FDを取り皿SPに取り分け、取り皿SPに取り分けた食べ物FDを食べる習慣がある。また、人物Uは、取り皿SPに盛られた食べ物FDを食べる一方で、大皿CPから直接食べ物FDを食べることがある。取り皿SPは、食べ物FDを各自に取り分けるために用いる皿である。一般的に、取り皿SPは、大皿CPより小さい。
トングTOは、「飲食物を移動させる器具」の一例である。以下の記載では、飲食物を移動させる器具を、「移動用器具」と称する。移動用器具は、大別して、食べ物FDを取り分けるために食べ物FDを移動させる器具と、食べ物FDを直接食べるために食べ物FDを移動させる器具とがある。食べ物FDを取り分けるために食べ物FDを移動させる器具は、例えば、トングTO、菜箸(取り分け用の長い箸)、及び、取り分け用のスプーンである。食べ物FDを大皿CPから直接食べるために食べ物FDを移動させる器具は、例えば、箸、図7に示すスプーンSO、ナイフ、及び、フォークである。
図2は、食事量推定システム1のハードウェア構成を例示するブロック図である。食事量推定システム1は、図1の例示のように、情報処理装置10及び撮像装置90を備える。
撮像装置90は、大皿CPと複数の取り皿SPとが配置された食卓Tb、及び、複数の人物Uを撮像することによって、図3に示す動画像情報MIを生成する。動画像情報MIは、複数のフレームの各々について静止画像Pを示す画像情報PIを有する。動画像情報MIは、画像情報PI_1~PI_Nを有する。Nは、2以上の整数である。撮像装置90は、人物Uの全身を撮像してもよいし、人物Uの腹部周辺を撮像してもよい。撮像装置90は、例えば撮像光学系及び撮像素子を含む。撮像光学系は、少なくとも1つの撮像レンズを含む光学系である。撮像光学系は、プリズム等の各種の光学素子を備えてもよいし、ズームレンズやフォーカスレンズ等を備えてもよい。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary MOS)イメージセンサ等のセンサで構成される。
情報処理装置10は、処理装置20、記憶装置30、通信装置40、及び、バス19を備える。処理装置20、記憶装置30、及び、通信装置40は、情報を通信するためのバス19を介して互いにアクセスされる。バス19は、単一のバスによって構成されてもよいし、装置間で異なるバスで構成されてもよい。
処理装置20は、情報処理装置10の全体を制御するプロセッサであり、インタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成される。なお、処理装置20の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアで実現してもよい。処理装置20は、各種の処理を並列的又は逐次的に実行する。
記憶装置30は、処理装置20が読取可能な記録媒体であり、処理装置20が実行する制御プログラムPRaを含む複数のプログラム、及び、処理装置20が使用する各種の情報を記憶する。記憶装置30は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の記憶回路の1種別以上で構成される。
通信装置40は、他の装置と通信する機器であり、通信装置40は、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード又は通信モジュールとも表記される。通信装置40は、撮像装置90と通信可能である。
1.2.食事量推定システム1の機能
図3は、食事量推定システム1の機能を示すブロック図である。処理装置20は、記憶装置30から制御プログラムPRaを読み取る。処理装置20は、制御プログラムPRaを実行することによって、取得部21、識別情報生成部22、特定部23、推定部24、第1判定部25、第2判定部26、第3判定部28、及び、摂取情報生成部29として機能する。
図3は、食事量推定システム1の機能を示すブロック図である。処理装置20は、記憶装置30から制御プログラムPRaを読み取る。処理装置20は、制御プログラムPRaを実行することによって、取得部21、識別情報生成部22、特定部23、推定部24、第1判定部25、第2判定部26、第3判定部28、及び、摂取情報生成部29として機能する。
取得部21は、撮像装置90から、動画像情報MIを取得する。動画像情報MIは、大皿CPと複数の取り皿SPとが配置された食卓Tb、及び、複数の人物Uを撮像装置90が撮像することによって得られた動画像を示す。
識別情報生成部22は、動画像情報MIに基づいて、複数の人物Uの各々を識別する人物識別情報UID、大皿CP及び複数の取り皿SPの各々を識別する皿識別情報PID、及び、食べ物の種別を識別する食べ物識別情報FTIDを生成する。人物識別情報UIDは、「第1識別情報」の一例である。皿識別情報PIDは、「第2識別情報」の一例である。食べ物識別情報FTIDは、「第3識別情報」の一例である。食べ物の種別は、例えば、麺料理、野菜料理、肉料理、及び、魚介料理等である。例えば、識別情報生成部22は、動画像情報MIに含まれる複数のフレームの各々について、静止画像Pが有する特徴を抽出することによって、人物Uと、皿と、食べ物FDの種別とを識別する。識別情報生成部22は、識別結果に基づいて、人物Uと、皿と、食べ物の種別とに固有の識別情報を付与する。識別情報生成部22は、異なるフレームに存在する同一の人物U、皿、及び、食べ物の種別について、同一の識別情報を付与する。
本実施形態では、説明の簡略化のため、人物識別情報UIDとして、人物Uに付与した参照符号を用いる。例えば、人物U_1の人物識別情報UIDは、「U_1」である。同様に、皿識別情報PIDとして、大皿CP及び取り皿SPに付与した参照符号を用いる。食べ物識別情報FTIDは、例えば、麺料理を示すFT_1及び野菜料理を示すFT_2等である。
大皿CPと取り皿SPとの識別方法は、例えば、以下に示す2つの方法がある。第1の識別方法において、識別情報生成部22は、所定の大きさより大きい皿を大皿CPとして識別し、所定の大きさ以下の皿を取り皿SPとして識別する。一般的には、大皿CPの大きさは、皿の直径が25cm以上である。取り皿SPの大きさは、皿の直径が10cmから15cmまでの間である。従って、所定の大きさは、例えば、皿の直径が15cmより大きく25cm未満の値である。第2の識別方法において、予め、大皿CPの一部又は全部を第1色に着色しておき、取り皿SPの一部又は全部を第2色に着色しておく。そして、識別情報生成部22は、静止画像Pに含まれる皿の像の色が第1色であれば、第1色の皿を大皿CPと識別する。識別情報生成部22は、静止画像Pに含まれる皿の色が第2色であれば、第2色の皿を取り皿SPと識別する。
特定部23は、動画像情報MIに基づいて、複数の取り皿SPの各々が、複数の人物Uのうちいずれの人物Uに対応するかを特定する。例えば、特定部23は、以下に示す2つの特定方法のうちのいずれか一つの方法に従って、取り皿SPと人物Uとの対応付けを特定する。
第1の特定方法において、特定部23は、複数の取り皿SPのうち、複数の人物Uのいずれかとの対応付けの特定対象とする取り皿SPと、複数の人物Uの各々との距離を算出する。「特定対象とする取り皿SP」は、特定部23における「一の器」の一例である。そして、特定部23は、算出された複数の距離の中から最も短い距離に位置する人物Uを、対応付けの特定対象の取り皿SPに対応する人物Uとして特定する。取り皿SPと人物Uとの距離は、例えば、以下に示す2つの態様がある。第1の態様における距離は、取り皿SPにおける人物Uに最も近い端部から、人物Uにおける取り皿SPに最も近い端部までの距離である。第2の態様における距離は、取り皿SPの重心から人物Uの重心までの距離である。なお、重心とは、平面視したときに、対象となる形状において断面1次モーメントの総和がゼロになる地点であり、矩形形状であれば対角線の交点をいう。以下では、取り皿SPと人物Uとの距離は、第2の態様であるとして説明する。
図4は、特定部23における第1の特定方法を示す図である。図4では、動画像情報MIに含まれるいずれかの画像情報PI_xが示す静止画像P_xを例示する。xは、1からNまでのいずれかの整数である。図4に例示する静止画像P_xには、人物U_1の像、人物U_2の像、大皿CPの像、取り皿SP_1の像、取り皿SP_2の像、食べ物FD_CPの像、食べ物FD_SP1の像、及び、食べ物FD_SP2の像が含まれる。食べ物FD_CPは、大皿CPに盛られた食べ物である。食べ物FD_SP1は、取り皿SP_1に取り分けられた食べ物である。食べ物FD_SP2は、取り皿SP_2に取り分けられた食べ物である。特定部23は、静止画像P_xに基づいて、取り皿SP_1と複数の人物Uの各々との距離SLを算出する。例えば、特定部23は、取り皿SP_1と人物U_1との距離SL_1と、取り皿SP_1と人物U_2との距離SL_2とを算出する。図4では、人物U_1内の黒丸が人物U_1の重心を示し、人物U_2内の黒丸が人物U_2の重心を示し、取り皿SP_1内の黒丸が取り皿SP_1の重心を示す。図4の例示のように、特定部23は、距離SL_1と距離SL_2とのうち、最も短い距離SL_1に位置する人物U_1を、取り皿SP_1に対応する人物Uとして特定する。図4には示していないが、特定部23は、取り皿SP_2についても、取り皿SP_2を対応付けの特定対象とし、取り皿SP_1と同様の方法に従って、取り皿SP_2に対応する人物Uを特定する。
第1の特定方法において、取り皿SPに対応する人物Uの特定精度を高めるために、特定部23は、複数の静止画像Pの各々について、取り皿SPに対応する人物Uを特定することが好ましい。特定部23は、取り皿SPに対応する人物Uとして特定された回数が最も多い人物Uを、取り皿SPに対応する人物Uとして特定する。
第2の特定方法において、特定部23は、動画像情報MIに基づいて、取り皿SPに重なる移動用器具を特定する。特定部23は、特定した移動用器具を持つ手の人物Uを、取り皿SPに対応する人物Uとして特定する。例えば、特定部23は、動画像情報MIのうち、取り皿SPと移動用器具とが重なる静止画像Pを示す画像情報PIを抽出し、抽出した画像情報PIが示す静止画像Pを解析して、移動用器具を持つ手の人物Uを特定する。
第2の特定方法において特定精度を高めるために、特定部23は、動画像情報MIのうち、取り皿SPと移動用器具とが重なる静止画像Pを示す画像情報PIを複数抽出し、複数の画像情報PIの各々について、対応付けの特定対象とする取り皿SPに対応する人物Uを特定することが好ましい。特定部23は、対応付けの特定対象とする取り皿SPに対応する人物Uとして特定された回数が最も多い人物Uを、対応付けの特定対象とする取り皿SPに対応する人物Uとして特定する。
特定部23は、取り皿SPと人物Uとの対応付けを示す対応付け情報RIを出力する。
図5は、対応付け情報RIの一例を示す図である。対応付け情報RIは、取り皿SPを示す皿識別情報PIDと、取り皿SPに対応する人物Uを示す人物識別情報UIDとの対応付けを示す。図5の例示では、対応付け情報RIは、取り皿SP_1が人物U_1に対応付けられており、取り皿SP_2が人物U_2に対応付けられていることを示す。
なお、図5では例示していないが、複数の取り皿SPが、同一の人物Uに対応付けられてもよい。複数の食べ物FDの味が混ざらないように、ある一人の人物Uが、複数の食べ物FDの各々に対応する取り皿SPを用いることがあるためである。例えば、ある人物Uが、肉料理用の取り皿SPと、魚介料理用の取り皿SPとを用いている場合、ある人物Uに対応付けられる取り皿SPは、2つである。また、取り皿SPに対応付けられない人物Uがいてもよい。従って、人物Uの数と取り皿SPの数とは、互いに一致してもよいし、互いに異なってもよい。
説明を図3に戻す。推定部24は、動画像情報MIに基づいて、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を推定する。例えば、記憶装置30が、食べ物FDの種別ごとに、食べ物FDの単位面積当たりのカロリー数を記憶しておく。記憶内容の一例として、記憶装置30は、麺料理の単位面積当たりのカロリー数がc1カロリーであることを記憶する。同様に、記憶装置30は、野菜料理の単位面積当たりのカロリー数がc2カロリーであり、肉料理の単位面積当たりのカロリー数がc3カロリーであり、魚介料理の単位面積当たりのカロリー数がc4カロリーであることを記憶する。c1、c2、c3、及び、c4は、0より大きい実数である。推定部24は、動画像情報MIに含まれる画像情報PIが示す静止画像Pにおいて、静止画像Pに含まれる食べ物FDの像の面積を測定し、得られた面積を単位面積で除した値に、識別情報生成部22が識別した食べ物FDの種別に対応したカロリー数を乗じた値を、食べ物FDの量として推定する。
推定部24は、動画像情報MIに含まれる複数の画像情報PIのうち、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pを示す画像情報PIに基づいて、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を推定する。前述の物体は、例えば、人物U、移動用器具、及び、コップ等である。大皿CP及び複数の取り皿SPが物体によって遮られていないとは、大皿CP及び複数の取り皿SPの全てが物体に遮られていなくてもよいし、大皿CPの一部及び複数の取り皿SPのいずれかの取り皿SPの一部が物体に遮られていなくてもよい。以下の説明では、大皿CP及び複数の取り皿SPが物体によって遮られていないとは、大皿CP及び複数の取り皿SPの全てが物体に遮られていないこととして説明する。
図6は、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pの一例を示す図である。図6では、動画像情報MIに含まれる画像情報PI_xが示す静止画像P_xと、画像情報PI_yが示す静止画像P_yとを例示する。図6に例示する静止画像P_xは、図4に例示する静止画像P_xと同一である。図6に例示する静止画像P_yには、人物U_1の像、人物U_2の像、大皿CPの像、取り皿SP_1の像、取り皿SP_2の像、食べ物FD_CPの像、食べ物FD_SP1の像、及び、食べ物FD_SP2の像に加えて、トングTOの像及び手HDの像が含まれる。手HDは、トングTOを持っている。図6では、図面の煩雑化を防ぐため、手HDに対応する腕部分の描画を省略している。
静止画像P_xにおいて、大皿CP及び複数の取り皿SPの各々を遮る物体がない。一方、静止画像P_yにおいて、大皿CPの一部がトングTOによって遮られている。従って、推定部24は、静止画像P_xを示す画像情報PI_xに基づいて、大皿CP及び複数の取り皿の各々に盛られた食べ物FDの量を推定する。
推定部24は、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を示す食べ物量情報FIを出力する。食べ物量情報FIは、大皿CPに盛られた食べ物FD_CPのカロリー数と、複数の取り皿SPの各々に盛られた食べ物FD_SPのカロリー数とを示す。
説明を図3に戻す。第1判定部25は、動画像情報MIに基づいて、大皿CPに盛られた食べ物FD_CPの量が、判定時点より所定期間前の大皿CPに盛られた食べ物FD_CPの量と比較して減少したか否かを判定する。所定期間は、どのような時間長の期間でもよいが、人が食べ物を食べる標準的な速度を考慮して定められることが好ましい。例えば、所定期間は、1分以上5分以下の期間であってもよい。第1判定部25は、判定時点より所定期間前の大皿CPに盛られた食べ物FD_CPの量から、現在(判定時点)の大皿CPに盛られた食べ物FD_CPの量を減じた値が所定の閾値以上である場合、大皿CPに盛られた食べ物FD_CPの量が減少したと判定する。
第2判定部26は、第1判定部25の判定結果が肯定の場合、動画像情報MIに基づいて、複数の人物Uのうち、ある一人の人物Uが大皿CPの食べ物FD_CPを直接食べたか、又は複数の取り皿SPのうち、ある一つの取り皿SPに大皿CPから食べ物FD_CPが移されたかを判定する。ある一人の人物Uは、「一の人物」の一例である。例えば、第2判定部26は、以下に示す2つの判定方法のいずれか一方の方法を用いる。
第1の判定方法において、第2判定部26は、複数の取り皿SPの各取り皿SP_iに盛られた食べ物FD_SPiの量が、判定時点より所定期間前の各取り皿SP_iに盛られた食べ物FD_SPの量と比較して増加したか否かを判定する。iは、1から取り皿SPの総数までの各整数である。食べ物FD_SPが増加した取り皿SP_iがある場合、第2判定部26は、ある一つの取り皿SPに食べ物FD_CPが移されたと判定する。一方、食べ物FD_SPが増加した取り皿SPが1つもない場合、ある人物Uが大皿CPから食べ物FD_CPを直接食べたことを意味する。よって、第2判定部26は、ある一人の人物Uが大皿CPの食べ物FD_CPを食べたと判定する。
第2の判定方法において、第2判定部26は、第1判定部25の判定結果が肯定を示す場合、動画像情報MIに基づいて、大皿CPに盛られた食べ物FD_CPの移動先を追跡することを開始する。次に、第2判定部26は、動画像情報MIに基づいて、追跡中の食べ物FD_CHを運ぶ移動用器具を持つ手の人物Uを特定する。そして、第2判定部26は、動画像情報MIに基づいて、追跡中の食べ物FD_CHが複数の取り皿SPに移されることなく消滅したか否かを判定する。食べ物FD_CHが消滅した場合、移動用器具を持つ手の人物Uが大皿CPから食べ物FDを直接食べた人物Uであるから、第2判定部26は、移動用器具を持つ手の人物Uが大皿CPに盛られた食べ物FDを食べた人物Uであると判定する。一方、第2判定部26は、追跡中の食べ物FD_CHが複数の取り皿SPのうち、ある一つの取り皿SPに移された場合、ある一つの取り皿SPに移されたと判定する。
図7は、第2判定部26における第2の判定方法を示す図である。図7では、動画像情報MIに含まれる画像情報PI_aが示す静止画像P_aと、画像情報PI_bが示す静止画像P_bと、画像情報PI_cが示す静止画像P_cとを例示する。a、b、及び、cは、1からNまでの整数であり、a<b<cの関係を有する。
静止画像P_a、静止画像P_b、及び、静止画像P_cには、人物U_1の像、人物U_2の像、大皿CPの像、取り皿SP_1の像、取り皿SP_2の像、食べ物FD_CPの像、食べ物FD_SP1の像、及び、食べ物FD_SP2の像に加えて、スプーンSOの像及び手HDの像が含まれる。
静止画像P_bに基づいて、第1判定部25は、大皿CPに盛られた食べ物FD_CPの量が、静止画像P_aを撮像した時の大皿CPに盛られた食べ物FD_CPと比較して減少したと判定する。従って、第2判定部26は、静止画像P_bに基づいて、大皿CPに盛られた食べ物FD_CPの移動先を追跡することを開始する。静止画像P_bが得られたタイミングから、第2判定部26は、スプーンSOに盛られた食べ物FD_CHの追跡を開始する。追跡対象の食べ物FD_CHは、静止画像P_aを撮像した時には大皿CPに盛られた食べ物FD_CPの一部であった食べ物である。第2判定部26は、追跡対象の食べ物FD_CHを運ぶスプーンSOを持つ手の人物Uを特定する。
移動用器具を持つ手の人物Uの特定方法としては、以下に示す2つの態様がある。第1の態様の特定方法において、第2判定部26は、移動用器具を持つ手の腕の輪郭を抽出して、抽出した腕の輪郭と繋がる人物Uを、移動用器具を持つ手の人物Uとして特定する。
第2の態様の特定方法において、第2判定部26は、移動用器具を持つ手と複数の人物Uの各々との距離を算出し、算出された複数の距離の中から最も短い距離に位置する人物Uを、移動用器具を持つ手の人物Uとして特定する。移動用器具を持つ手と人物Uとの距離は、例えば、以下に示す2つの態様がある。第1の態様における距離は、移動用器具を持つ手における人物Uに最も近い端部から、人物Uにおける移動用器具を持つ手に最も近い端部までの距離である。第2の態様における距離は、移動用器具を持つ手の重心から人物Uの重心までの距離である。以下では、移動用器具を持つ手と人物Uとの距離は、第2の態様であるとして説明する。
静止画像P_bの例示において、第2判定部26は、スプーンSOを持つ手HDと人物U_1との距離HL_1と、手HDと人物U_2との距離HL_2とをそれぞれ算出する。静止画像P_bにおいて、人物U_1内の黒丸が人物U_1の重心を示し、人物U_2内の黒丸が人物U_2の重心を示し、手HD内の黒丸が手HDの重心を示す。静止画像P_bの例示のように、第2判定部26は、距離HL_1と距離HL_2とのうち、最も短い距離HL_2に位置する人物U_2を、スプーンSOを持つ手の人物Uとして特定する。
静止画像P_cでは、追跡対象の食べ物FD_CHが複数の取り皿SPに移されることなく消滅している。従って、第2判定部26は、スプーンSOを持つ手の人物Uとして特定した人物U_2が大皿CPに盛られた食べ物FDを食べたと判定する。
説明を図3に戻す。第3判定部28は、複数の取り皿SPのうち、ある一つの取り皿SPに盛られた食べ物FD_SPの量が、判定時点より所定期間前における、ある一つの取り皿SPに盛られた食べ物FD_SPの量と比較して減少したか否かを判定する。
摂取情報生成部29は、第2判定部26、及び、第3判定部28の判定結果、並びに、特定部23が出力した対応付け情報RIに基づいて、摂取情報TIを生成する。摂取情報TIを生成する契機は、以下に示す2つの契機がある。
第1の契機は、第2判定部26の判定結果が、ある一人の人物Uが大皿CPに盛られた食べ物FD_CPを食べたことを示す場合である。この場合、摂取情報生成部29は、この人物Uが食べた食べ物FDの量、この人物U、及び、この人物Uが食べた食べ物FDの種別を対応付ける摂取情報TIを生成する。より詳細には、摂取情報TIは、食べ物FDの量と、食べ物FDを食べた人物Uを識別する人物識別情報UIDと、食べ物FDの種別を識別するFTIDとを対応付けた情報である。第2判定部26の判定結果が、ある一つの取り皿SPに食べ物が移されたことを示す場合には、推定部24は、この取り皿SPに盛られた食べ物FD_SPの量を、大皿CPに盛られた食べ物FD_CPが減少した量だけ増加させる。
第2の契機は、第3判定部28の判定結果が肯定である場合、すなわち、ある一つの取り皿SPに盛られた食べ物FD_SPの量が減少した場合である。この場合、摂取情報生成部29は、この取り皿SPに対応付けられた人物U、この取り皿SPに盛られた食べ物FD_SPから減少した食べ物FDの量、及び、この食べ物FDの種別を対応付ける摂取情報TIを生成する。
図8は、摂取情報TIの記憶内容の一例を示す図である。図8は、摂取情報TI_1~摂取情報TI_Mを例示する。Mは、1以上の整数である。図8に例示する摂取情報TIは、人物識別情報UID、食べ物FDの量、及び、食べ物識別情報FTIDに加えて、時刻情報と、摂取態様情報とを対応付けた情報である。時刻情報及び摂取態様情報は、摂取情報TIに含まれていなくてもよい。時刻情報は、人物Uが食べ物FDを食べた時刻を示す。摂取態様情報は、人物Uが大皿CPから直接食べ物FDを食べたか、又は、取り皿SPから食べ物FDを食べたかを示す。
摂取情報生成部29は、上述の第2の契機によって摂取情報TI_1及び摂取情報TI_2を生成しており、第1の契機によって摂取情報TI_Mを生成する。摂取情報TI_1は、12時0分1秒に、人物U_1が、FT_1に対応する食べ物の種別を、xxカロリー分、取り皿SP_1から食べたことを示す。
摂取情報生成部29は、生成した摂取情報TIを、記憶装置30又は通信装置40に出力する。
1.3.食事量推定システム1の動作
図9~図11Bを用いて、食事量推定システム1の動作について説明する。
図9~図11Bを用いて、食事量推定システム1の動作について説明する。
図9、図10、図11A、及び図11Bは、食事量推定システム1の動作を示すフローチャートである。図9、図10、図11A、及び図11Bに例示する動作が開始する契機は、例えば、以下に示す2つの契機がある。第1の契機は、人物Uが食事を終了し、撮像装置90が、食事中の人物Uの像が含まれた動画像を示す動画像情報MIを生成した場合である。第2の契機は、撮像装置90が、所定数の静止画像Pを含む動画像情報MIを生成した場合である。
処理装置20は、取得部21として機能することにより、撮像装置90から、動画像情報MIを取得する(ステップS1)。次に、処理装置20は、識別情報生成部22として機能することにより、複数の人物Uと、大皿CPと、複数の取り皿SPと、大皿CP又は取り皿SPに盛られた食べ物FDの種別とを識別する(ステップS2)。
そして、処理装置20は、特定部23として機能することにより、複数の取り皿SPの各々が、複数の人物Uのうちいずれの人物Uに対応するかを特定する(ステップS3)。次に、処理装置20は、推定部24として機能することにより、抽出したフレームに基づいて、大皿CPと複数SPの取り皿の各々とに盛られた食べ物の量を推定する(ステップS4)。処理装置20は、推定部24として機能することにより、動画像情報MIから、食べ物FDの量を検出できたフレーム群をフレームセットAとして選択する(ステップS5)。更に、処理装置20は、推定部24として機能することにより、精度良く食べ物の量を検出できたフレーム群をフレームセットBとして選択する(ステップS6)。精度良く食べ物の量を検出できたフレーム群は、言い換えれば、大皿CP及び複数の取り皿SPが物体によって遮られていないフレーム群である。
図10において、処理装置20は、フレームセットBのうち先頭のフレームをフレームXとして選択する(ステップS11)。次に、処理装置20は、フレームセットBにおけるフレームXの次のフレームを、フレームYとして選択する(ステップS12)。そして、処理装置20は、第1判定部25又は第3判定部28として機能することにより、フレームXと比較した、フレームYにおける大皿CP又は複数の取り皿SPの各々に盛られた食べ物FDの減少量ΔFDが所定の閾値以上かを判定する(ステップS13)。言い換えると、ステップS13の処理では、処理装置20は、下記に示す減少量ΔFD_CP及び減少量ΔFD_SPiのうちいずれかが所定の閾値以上かを判定する。iは、1から取り皿SPの総数までの各整数である。
ΔFD_CP=フレームXにおける大皿CPに盛られた食べ物FD_CP-フレームYにおける大皿CPに盛られた食べ物FD_CP
ΔFD_SPi=フレームXにおける取り皿SP_iに盛られた食べ物FD_SPi-フレームYにおける取り皿SP_iに盛られた食べ物FD_SPi
ΔFD_SPi=フレームXにおける取り皿SP_iに盛られた食べ物FD_SPi-フレームYにおける取り皿SP_iに盛られた食べ物FD_SPi
ステップS13の判定結果が肯定である場合、処理装置20は、フレームXからフレームYまでの時間を示す情報を、減少期間情報として記憶装置30に記憶させる(ステップS15)。続けて、処理装置20は、所定の閾値以上である減少量ΔFDを、記憶装置30に記憶する(ステップS16)。処理装置20は、所定の閾値以上である減少量ΔFDに対応する皿の皿識別情報PIDを記憶装置30に記憶する(ステップS17)。減少期間情報と、減少量ΔFDと、皿識別情報PIDとは相互に対応付けられて記憶装置30に記憶される。
そして、処理装置20は、フレームセットBにおけるフレームYの次以降のフレーム群を新たなフレームセットBとして更新する(ステップS18)。フレームセットBにおけるフレームYの位置が末尾であれば、更新後のフレームセットBに含まれるフレームの数は0である。
処理装置20は、更新後のフレームセットBが1以上のフレームを有するか否かを判定する(ステップS19)。ステップS19の判定結果が肯定である場合、処理装置20は、処理をステップS11に戻す。
ステップS19の判定結果が否定である場合、即ち、フレームセットBが1つもフレームを有しない場合、図11Aにおいて、処理装置20は、ステップS15の処理で記憶装置30に記憶された1以上の減少期間情報のうち、最も古い時間を示す減少期間情報を選択する(ステップS31)。
ステップS13の判定結果が否定である場合、即ち、減少量ΔFD_CP及び減少量ΔFD_SPiの全てが所定の閾値未満である場合、処理装置20は、フレームセットBにおけるフレームYの次のフレームがあるか否かを判定する(ステップS21)。ステップS21の判定結果が肯定である場合、処理装置20は、フレームセットBにおけるフレームYの次のフレームを、フレームYとして選択し(ステップS22)、再びステップS13の処理を実行する。一方、ステップS21の判定結果が否定である場合、処理装置20は、ステップS31の処理を実行する。
ステップS31の処理終了後、処理装置20は、フレームセットAから、選択した減少期間情報が示す時間に含まれるフレーム群を、フレームセットCとして選択する(ステップS32)。
処理装置20は、ステップS17の処理によって記憶した皿識別情報PIDを参照して、食べ物FDが減少した皿が大皿CPか又は取り皿SPかを判定する。具体的には、処理装置20は、食べ物FDが減少した皿が大皿CPか否かを判定する(ステップS33)。判定結果が肯定の場合、すなわち、食べ物FDが減少した皿が大皿CPである場合(ステップS33:Yes)、処理装置20は、第2判定部26として機能することにより、フレームセットCにおいて、大皿CPに盛られた食べ物FD_CPの移動先を追跡することを開始する(ステップS34)。続けて、処理装置20は、第2判定部26として機能することにより、追跡対象の食べ物FD_CHを運ぶ食卓用器具を持つ手の人物Uを特定する(ステップS35)。処理装置20は、第2判定部26として機能することにより、追跡対象の食べ物FD_CHの移動先に基づいて、特定された人物Uが大皿CPから直接食べ物FDを食べたか、又は食べ物FDが取り皿SPに移されたかを判定する。具体的には、処理装置20は、特定された人物Uが大皿CPから直接食べ物FDを食べたか否かを判定する(ステップS36)。
なお、ステップS33においては、処理装置20は、食べ物FDが減少した皿が大皿CPか否かを判定する代わりに食べ物FDが減少した皿が取り皿SPか否かを判定してもよい。同様に、ステップS36においては、処理装置20は、特定された人物Uが大皿CPから直接食べ物FDを食べたか否かを判定する代わりに食べ物FDが取り皿SPに移されたか否かを判定してもよい。
なお、ステップS33においては、処理装置20は、食べ物FDが減少した皿が大皿CPか否かを判定する代わりに食べ物FDが減少した皿が取り皿SPか否かを判定してもよい。同様に、ステップS36においては、処理装置20は、特定された人物Uが大皿CPから直接食べ物FDを食べたか否かを判定する代わりに食べ物FDが取り皿SPに移されたか否かを判定してもよい。
特定された人物Uが大皿CPから直接食べ物FDを食べた場合、言い換えれば、追跡対象の食べ物FD_CHが複数の取り皿SPに移されることなく消滅した場合(ステップS36:Yes)、処理装置20は、摂取情報生成部29として機能することにより、食べ物FDの減少量ΔFD、大皿CPから直接食べた人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する(ステップS37)。一方、ステップS36における判定結果が否定の場合、すなわち、追跡中の食べ物FD_CHが取り皿SPに移された場合(ステップS36:No)、処理装置20は、推定部24として機能することにより、追跡中の食べ物FD_CHが移された取り皿SPに盛られた食べ物FDの量を、食べ物FDの減少量ΔFDだけ増加する(ステップS38)。
ステップS33の判断結果が否定の場合、すなわち、食べ物FDが減少した皿が取り皿SPである場合(ステップS33:No)、処理装置20は、摂取情報生成部29として機能することにより、食べ物FDの減少量ΔFD、食べ物FDが減少した取り皿SPに対応する人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する(ステップS39)。
ステップS37の処理終了後、ステップS38の処理終了後、又は、ステップS39の処理終了後、処理装置20は、全ての減少期間情報を選択したか否かを判定する(ステップS40)。ステップS40の判定結果が否定である場合、すなわちまだ選択していない減少期間情報がある場合、処理装置20は、現在選択中の減少期間情報が示す時間の次に古い時間を示す減少期間情報を選択し(ステップS41)、ステップS32の処理を実行する。一方、ステップS40の判定結果が肯定である場合、すなわち全ての減少期間情報を選択した場合、処理装置20は、図9、図10、図11A、及び図11Bに示す一連の処理を終了する。
以上の説明によれば、処理装置20は、大皿CPに盛られた食べ物FD_CPの量が減少した場合に、ある一人の人物Uが大皿CPの食べ物FDを食べたか、又は食べ物FDが複数の取り皿SPのうち、ある一つの取り皿SPに移されたかを判定する。ある一人の人物Uが大皿CPの食べ物FDを食べた場合、処理装置20は、大皿CPから直接食べた食べ物FDの量、大皿CPから直接食べた人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する。以上のように、処理装置20は、人物Uが大皿CPから直接食べ物FDを食べたことを示す摂取情報TIを生成するため、大皿CPから直接食べた人物Uがいる場合であっても、人物Uの食事量を正確に特定できる。
また、処理装置20は、複数の取り皿SPのうち、ある一つの取り皿SPに盛られた食べ物FDの量が減少した場合、食べ物FDが減少した量、食べ物FDが減少した取り皿SPに対応する人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する。以上のように、処理装置20は、人物Uが取り皿SPから食べ物を食べたことを示す摂取情報TIを生成するため、取り皿SPに食べ物を取り分ける場合であっても、人物Uの食事量を正確に特定できる。
また、特定部23における第1の特定方法として、複数の取り皿SPのうち、対応付けの特定対象とする取り皿SPと、複数の人物Uの各々との距離を算出し、算出された複数の距離の中から最も短い距離に位置する人物Uを、特定対象の取り皿SPに対応する人物Uとして特定する。第1の特定方法は、第2の特定方法と比較すると、取り皿SPと移動用器具とが重なる静止画像Pを探索しなくてよい。従って、第1の特定方法によれば、第2の特定方法と比較して、取り皿SPに対応する人物Uを容易に特定できる。
また、推定部24は、動画像情報MIが有する各画像情報PIのうち、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pを示す画像情報PIに基づいて、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を推定する。大皿CP又は複数の取り皿SPのいずれかが物体によって遮られている静止画像Pを用いて食べ物FDの量を推定すると、物体に食べ物FDが隠れている場合に、食べ物FDの量が実際よりも少ない量であると誤推定してしまう。そこで、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pを示す画像情報PIを用いることにより、推定部24は、食べ物FDの量の推定精度を向上できる。
また、第2判定部26は、大皿CPに盛られた食べ物FD_CPの量が減少した場合、動画像情報MIに基づいて、大皿CPに盛られた食べ物FDの移動先を追跡することを開始する。そして、第2判定部26は、移動中の食べ物FD_CHを運ぶ移動用器具を持つ手の人物Uを特定し、移動中の食べ物FD_CHが複数の取り皿SPに移されることなく消滅した場合に、移動用器具を持つ手の人物Uが、大皿CPに盛られた食べ物FD_CPを食べたと判定する。移動中の食べ物FD_CHが複数の取り皿SPに移されることなく消滅していることが確認されているため、大皿CPから食べ物FDを直接食べたことが正確に判定される。
また、移動用器具を持つ手の人物Uの第2の態様の特定方法として、第2判定部26は、動画像情報MIに基づいて、大皿CPを持つ手と複数の人物Uの各々との距離を算出し、算出された複数の距離の中から最も短い距離に位置する人物Uを、大皿CPを持つ手の人物Uとして特定する。第2の態様の特定方法は、第1の態様の特定方法と比較して、移動用器具を持つ手の腕の輪郭を抽出しなくてよい。従って、第2の態様の特定方法によれば、第1の態様の特定方法と比較して、移動用器具を持つ手の人物Uを容易に特定できる。
2.変形例
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜に併合され得る。なお、以下に例示する変形例において作用や機能が実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜に併合され得る。なお、以下に例示する変形例において作用や機能が実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
(1)実施形態において、大皿CPは、複数の人物が摂取する飲食物が盛られた第1種別の器の一例であると説明したが、第1種別の器は、皿に限らない。例えば、第1種別の器は、鍋及び飯櫃等でもよい。飯櫃は、炊き上がった飯を釜から移し入れておく為の櫃である。
(2)上述した各態様において、複数の取り皿SPは、飲食物の一部が盛られる第2種別の複数の器の一例であると説明したが、第2種別の器は、皿に限らない。例えば、第2種別の器は、鍋内の飲食物を取り分ける為に用いる呑水でもよいし、飯櫃内の飯を取り分ける為に用いる茶碗でもよい。呑水とは、縁の一部が突出した小鉢である。
(3)上述した各態様において、一般的に、取り皿SPは大皿CPより小さいことを記載したが、これに限らない。例えば、人物Uによっては、複数の大皿CPの各々に盛られた食べ物を、同一の取り皿SPに移動させる場合がある。この場合、取り皿SPに複数の種別の食べ物FDを盛るため、大皿CPと取り皿SPとがほぼ同一の大きさである場合もあるし、取り皿SPが大皿CPより大きい場合もある。
大皿CPと取り皿SPとがほぼ同一の大きさであり、大きさでは区別できない場合、識別情報生成部22は、上述した大皿CPと取り皿SPとの第2の識別方法以外の方法として、例えば、下記に示す第3の識別方法又は第4の識別方法を用いて大皿CPと取り皿SPとを識別してもよい。第3の識別方法において、識別情報生成部22は、食事を開始した時点において、食べ物FDが盛られた皿を大皿CPとして識別し、食べ物FDが盛られていない皿を取り皿SPとして識別する。第4の識別方法において、識別情報生成部22は、人物Uが大皿CPと取り皿SPとを指差すことにより、大皿CPと取り皿SPとを識別する。より詳細に第4の識別方法を説明する。前提として、食事量推定システム1は、スピーカを有する。識別情報生成部22は、スピーカに、「大皿を所定の秒数間指差して下さい」という旨の音声を出力させる。識別情報生成部22は、前述の音声出力後において撮像装置90が撮像した動画像を示す動画像情報を解析して、所定の秒数の間、人物Uが指差した皿を大皿CPとして識別する。同様に、識別情報生成部22は、スピーカに、「取り皿を所定の秒数間指差して下さい。所定の秒数経過後、指差ししていない取り皿を所定の秒数間指差して下さい」という旨の音声を出力させる。識別情報生成部22は、前述の音声出力後において撮像装置90が撮像した動画像を示す動画像情報を解析して、所定の秒数の間、人物Uが指差した皿を取り皿SPとして識別する。
大皿CPと取り皿SPとがほぼ同一の大きさであり、大きさでは区別できない場合、識別情報生成部22は、上述した大皿CPと取り皿SPとの第2の識別方法以外の方法として、例えば、下記に示す第3の識別方法又は第4の識別方法を用いて大皿CPと取り皿SPとを識別してもよい。第3の識別方法において、識別情報生成部22は、食事を開始した時点において、食べ物FDが盛られた皿を大皿CPとして識別し、食べ物FDが盛られていない皿を取り皿SPとして識別する。第4の識別方法において、識別情報生成部22は、人物Uが大皿CPと取り皿SPとを指差すことにより、大皿CPと取り皿SPとを識別する。より詳細に第4の識別方法を説明する。前提として、食事量推定システム1は、スピーカを有する。識別情報生成部22は、スピーカに、「大皿を所定の秒数間指差して下さい」という旨の音声を出力させる。識別情報生成部22は、前述の音声出力後において撮像装置90が撮像した動画像を示す動画像情報を解析して、所定の秒数の間、人物Uが指差した皿を大皿CPとして識別する。同様に、識別情報生成部22は、スピーカに、「取り皿を所定の秒数間指差して下さい。所定の秒数経過後、指差ししていない取り皿を所定の秒数間指差して下さい」という旨の音声を出力させる。識別情報生成部22は、前述の音声出力後において撮像装置90が撮像した動画像を示す動画像情報を解析して、所定の秒数の間、人物Uが指差した皿を取り皿SPとして識別する。
(4)上述した各態様において、食べ物FDは、大皿CPから取り皿SPに取り分けられ、人物Uに食べられる。このように、上述した各態様では、食べ物FDは、多くとも2つの皿を経由して人物Uに食べられていたが、これに限らない。例えば、食べ物FDは、3つ以上の皿を経由して人物Uに食べられてもよい。
(5)上述した各態様において、取り皿SPに盛られた食べ物FDが減少した場合、人物Uに食べられる場合のみを記載したが、食べ物FDが取り皿SPから大皿CPに戻される場合もあるし、食べ物FDが他の取り皿SPに移動する場合もある。処理装置20は、取り皿SPに盛られた食べ物FDが減少した場合に食べ物FDの移動先を追跡することにより、食べ物FDが人物Uに食べられたか、食べ物FDが大皿CPに戻されたか、又は、食べ物FDが他の取り皿に移動したかを特定することができる。
(6)上述した各態様において、取り分ける飲食物として、食べ物を用いて説明したが、飲み物でもよい。例えば、底の深い大皿CP内のスープを、底の深い取り皿SPに取り分ける場合であっても、上述した各態様を適用できる。
(7)上述した各態様において、情報処理装置10は、部屋LRの天井に取り付けられていたが、これに限らない。例えば、情報処理装置10は、食卓Tbの天板上面に取り付けられてもよい。又は、情報処理装置10は、部屋LRの外部に設置されていてもよい。部屋LRの外部に情報処理装置10が設置される場合、情報処理装置10は、撮像装置90に対して、移動体通信網又はインターネット等のネットワークを介してアクセスする。
(8)上述した各態様において、情報処理装置10は、部屋LRの天井に取り付けられた、可搬型でないコンピュータを想定しているが、これに限らず、スマートフォン又はタブレット端末等の可搬型の端末装置でもよい。
(9)上述した各態様において、情報処理装置10は、撮像装置90を有さないが、撮像装置90を有してもよい。
(10)上述した各態様の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
(11)上述した各態様における処理手順、シーケンス、フローチャートなどは、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(12)上述した各態様において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(13)上述した各態様において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(14)上述した各態様では、記憶装置30は、処理装置20が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、ネットワークから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。
(15)上述した各態様は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
(16)上述した各態様において、説明した情報及び信号などは、様々な異なる技術の何れかを使用して表されてもよい。例えば、上述の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
(17)図3に例示された各機能は、ハードウェア及びソフトウェアの任意の組み合わせによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。
(18)上述した各実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(19)上述した各実施形態において、情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。
(20)上述したパラメータに使用する名称はいかなる点においても限定的なものではない。更に、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。
(21)上述した各実施形態において、情報処理装置10は、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
(22)上述した各実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(23)本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。従って、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
(24)上述した各実施形態において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。更に、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(25)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
(26)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
1…食事量推定システム、10…情報処理装置、20…処理装置、21…取得部、22…識別情報生成部、23…特定部、24…推定部、25…第1判定部、26…第2判定部、28…第3判定部、29…摂取情報生成部、30…記憶装置、90…撮像装置、CP…大皿、FD…食べ物、MI…動画像情報、P…静止画像、PI…画像情報、TO…トング、U…人物。
Claims (6)
- 複数の人物が摂取する飲食物が盛られた第1種別の器と前記飲食物の一部が盛られる第2種別の複数の器とが配置された卓、及び、前記複数の人物を、撮像することによって得られた動画像を示す動画像情報を取得する取得部と、
前記動画像情報に基づいて、前記複数の人物の各々を識別する第1識別情報、前記第1種別の器及び前記第2種別の複数の器の各々を識別する第2識別情報、並びに、前記飲食物の種別を識別する第3識別情報を生成する識別情報生成部と、
前記動画像情報に基づいて、前記第1種別の器及び前記第2種別の複数の器の各々に盛られた前記飲食物の量を推定する推定部と、
前記動画像情報に基づいて、判定時点における前記第1種別の器に盛られた飲食物の量が、当該判定時点より所定期間前の前記第1種別の器に盛られた飲食物の量と比較して減少したか否かを判定する第1判定部と、
前記第1判定部の判定結果が肯定を示す場合、前記動画像情報に基づいて、前記複数の人物のうち一の人物が前記第1種別の器に盛られた飲食物を摂取したか、又は当該飲食物が前記第2種別の複数の器のうち一の器に移されたかを判定する第2判定部と、
前記一の人物が前記第1種別の器に盛られた飲食物を摂取したことを前記第2判定部の判定結果が示す場合、前記一の人物が摂取した飲食物の量、前記一の人物、及び、当該飲食物の種別を対応付ける摂取情報を生成する摂取情報生成部とを備え、
前記推定部は、前記第2判定部の判定結果が前記一の器に前記飲食物が移されたことを示す場合、前記第2種別の前記一の器に盛られた飲食物の量を、前記第1種別の器に盛られた飲食物が減少した量だけ増加させる、
情報処理装置。 - 前記動画像情報に基づいて、前記第2種別の複数の器の各々が、前記複数の人物のうちいずれの人物に対応するかを特定する特定部と、
判定時点における前記第2種別の複数の器のうち一の器に盛られた飲食物の量が、当該判定時点より前記所定期間前の前記一の器に盛られた飲食物の量と比較して減少したか否かを判定する第3判定部とを備え、
前記摂取情報生成部は、前記第3判定部の判定結果が肯定を示す場合、前記第2種別の前記一の器に対応する人物、前記第3判定部による判定時点より前記所定期間前の時点の前記一の器に盛られた飲食物から減少した飲食物の量、及び、当該飲食物の種別を対応付ける摂取情報を生成する、
請求項1に記載の情報処理装置。 - 前記特定部は、
前記第2種別の複数の器のうち一の器と、前記複数の人物の各々との距離を算出し、
当該複数の人物について算出された複数の距離の中から最も短い距離に位置する人物を、前記一の器に対応する人物として特定する、
請求項2に記載の情報処理装置。 - 前記動画像情報は、複数のフレームの各々について静止画像を示す画像情報を有し、
前記推定部は、前記複数のフレームにそれぞれ対応する複数の画像情報のうち、前記第1種別の器及び前記第2種別の複数の器のいずれもが物体によって遮られていない静止画像を示す画像情報に基づいて、前記第1種別の器及び前記第2種別の複数の器の各々に盛られた前記飲食物の量を推定する、
請求項1から3のいずれか1項に記載の情報処理装置。 - 前記第2判定部は、
前記第1判定部の判定結果が肯定を示す場合、前記動画像情報に基づいて、前記第1種別の器に盛られた飲食物の移動先を追跡することを開始し、
前記動画像情報に基づいて、当該飲食物を移動させる器具を持つ手の人物を特定し、
前記動画像情報に基づいて、当該飲食物が前記第2種別の複数の器に移されることなく消滅した場合に、前記器具を持つ手の人物が前記第1種別の器に盛られた飲食物を摂取した前記一の人物であると判定する、
請求項1から4のいずれか1項に記載の情報処理装置。 - 前記第2判定部は、
前記動画像情報に基づいて、前記器具を持つ手と前記複数の人物の各々との距離を算出し、前記複数の人物について算出された複数の距離の中から最も短い距離に位置する人物を、前記器具を持つ手の人物として特定する、
請求項5に記載の情報処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019206663 | 2019-11-15 | ||
JP2019206663 | 2019-11-15 | ||
PCT/JP2020/042073 WO2021095767A1 (ja) | 2019-11-15 | 2020-11-11 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021095767A1 JPWO2021095767A1 (ja) | 2021-05-20 |
JP7284829B2 true JP7284829B2 (ja) | 2023-05-31 |
Family
ID=75912698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556122A Active JP7284829B2 (ja) | 2019-11-15 | 2020-11-11 | 情報処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12108892B2 (ja) |
JP (1) | JP7284829B2 (ja) |
WO (1) | WO2021095767A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102670002B1 (ko) * | 2023-02-15 | 2024-05-28 | 한윤희 | 식단 모니터링 기능을 구비한 급식 관리 시스템 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011028382A (ja) | 2009-07-22 | 2011-02-10 | Kddi Corp | 利用者毎に食事の栄養成分を管理する栄養管理サーバ及び栄養管理方法 |
JP2015146168A (ja) | 2014-02-04 | 2015-08-13 | 株式会社吉田製作所 | 食生活管理プログラム、食生活管理方法、および食生活管理装置 |
JP2018049393A (ja) | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | 健康管理装置、健康管理システム、及び健康管理方法 |
JP2018106580A (ja) | 2016-12-28 | 2018-07-05 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、システム、及びそれらの制御方法、プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160232811A9 (en) * | 2012-06-14 | 2016-08-11 | Robert A. Connor | Eyewear System for Monitoring and Modifying Nutritional Intake |
US20230335253A1 (en) * | 2012-06-14 | 2023-10-19 | Medibotics Llc | Devices, Systems, and Methods, including Augmented Reality (AR) Eyewear, for Estimating Food Consumption and Providing Nutritional Coaching |
US11754542B2 (en) * | 2012-06-14 | 2023-09-12 | Medibotics Llc | System for nutritional monitoring and management |
-
2020
- 2020-11-11 US US17/769,927 patent/US12108892B2/en active Active
- 2020-11-11 JP JP2021556122A patent/JP7284829B2/ja active Active
- 2020-11-11 WO PCT/JP2020/042073 patent/WO2021095767A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011028382A (ja) | 2009-07-22 | 2011-02-10 | Kddi Corp | 利用者毎に食事の栄養成分を管理する栄養管理サーバ及び栄養管理方法 |
JP2015146168A (ja) | 2014-02-04 | 2015-08-13 | 株式会社吉田製作所 | 食生活管理プログラム、食生活管理方法、および食生活管理装置 |
JP2018049393A (ja) | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | 健康管理装置、健康管理システム、及び健康管理方法 |
JP2018106580A (ja) | 2016-12-28 | 2018-07-05 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、システム、及びそれらの制御方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220386797A1 (en) | 2022-12-08 |
WO2021095767A1 (ja) | 2021-05-20 |
US12108892B2 (en) | 2024-10-08 |
JPWO2021095767A1 (ja) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mirtchouk et al. | Automated estimation of food type and amount consumed from body-worn audio and motion sensors | |
Boushey et al. | New mobile methods for dietary assessment: review of image-assisted and image-based dietary assessment methods | |
US9314206B2 (en) | Diet and calories measurements and control | |
WO2017028451A1 (zh) | 信息生成方法及装置 | |
US10013755B2 (en) | Information processing apparatus and information processing method | |
Bruno et al. | A survey on automated food monitoring and dietary management systems | |
WO2018233489A1 (zh) | 用餐推荐方法及装置 | |
Doulah et al. | A systematic review of technology-driven methodologies for estimation of energy intake | |
US20200342977A1 (en) | System, computer-readable storage medium, and method | |
US20210272303A1 (en) | Method for estimating object parameter and electronic device | |
US20190221134A1 (en) | Meal Management System | |
Ferdinand Christ et al. | Diabetes60-inferring bread units from food images using fully convolutional neural networks | |
JP7284829B2 (ja) | 情報処理装置 | |
CN107851183A (zh) | 用于提供食谱的系统和方法 | |
WO2014168177A1 (ja) | 画像処理装置 | |
US11928150B1 (en) | Image-based item identification | |
KR20190074474A (ko) | 유전자 분석 결과를 토대로 한 개인 맞춤형 식습관 관리 장치 및 이의 동작 방법 | |
JP2010061381A (ja) | 自動レシピ作成装置およびプログラム | |
Akpa et al. | Smartphone-based food weight and calorie estimation method for effective food journaling | |
Anzawa et al. | Recognition of multiple food items in a single photo for use in a buffet-style restaurant | |
JP6468590B2 (ja) | 健康管理装置、および健康管理プログラム | |
CN111863194A (zh) | 一种饮食信息的展示方法、装置、设备及存储介质 | |
JP2018082766A (ja) | 診断装置、診断方法、プログラム | |
JP2018049584A (ja) | 食事量推定プログラム、食事量推定方法及び食事量推定装置 | |
Cohen et al. | Contactless Drink Intake Monitoring Using Depth Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230502 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7284829 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |