WO2021095767A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2021095767A1
WO2021095767A1 PCT/JP2020/042073 JP2020042073W WO2021095767A1 WO 2021095767 A1 WO2021095767 A1 WO 2021095767A1 JP 2020042073 W JP2020042073 W JP 2020042073W WO 2021095767 A1 WO2021095767 A1 WO 2021095767A1
Authority
WO
WIPO (PCT)
Prior art keywords
food
person
drink
type
information
Prior art date
Application number
PCT/JP2020/042073
Other languages
English (en)
French (fr)
Inventor
健介 上田
信貴 松嶌
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Priority to US17/769,927 priority Critical patent/US20220386797A1/en
Priority to JP2021556122A priority patent/JP7284829B2/ja
Publication of WO2021095767A1 publication Critical patent/WO2021095767A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G23/00Other table equipment
    • A47G23/10Devices for counting or marking the number of consumptions
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • the present invention relates to an information processing device.
  • Non-Patent Document 1 when a plurality of people eat food on a platter, the image of the table is divided into a plurality of areas, and it is determined whether or not the food is eaten in each area, and the food is eaten. In some cases, a technique for recording the amount of food consumed by a person associated with an area is disclosed.
  • the food may be transferred from the platter to the plate and the food may be eaten from the plate.
  • the amount of food on the platter decreases, it is determined that the person has eaten even though he / she has just moved to the plate and has not eaten the food, so that it is not possible to accurately identify the amount of food eaten by the person. ..
  • the information processing apparatus includes a first-class vessel in which foods and drinks consumed by a plurality of persons are placed and a part of the foods and drinks. Based on the table in which a plurality of two types of vessels are arranged, an acquisition unit that acquires moving image information indicating a moving image obtained by photographing the plurality of persons, and the moving image information.
  • the first identification information that identifies each of the plurality of persons
  • the second identification information that identifies each of the first type vessel and the second type plurality of vessels
  • the second that identifies the type of food and drink is a first-class vessel in which foods and drinks consumed by a plurality of persons are placed and a part of the foods and drinks.
  • the amount of food and drink placed in the first type container at the time of determination is the amount of food and drink placed in the first type container before a predetermined period from the time of the determination.
  • a second determination unit that determines whether a person has ingested food or drink served in the first type of vessel, or whether the food or drink has been transferred to one of the plurality of vessels of the second type.
  • the determination result of the second determination unit indicates that the one person has ingested the food and drink served in the first type of vessel, the amount of the food and drink ingested by the one person, the one person ,
  • an intake information generation unit that generates intake information that associates the types of the food and drink, and the estimation unit has transferred the food and drink to the one vessel based on the determination result of the second determination unit.
  • the amount of food and drink placed in the one vessel of the second type is increased by the amount of decrease in the food and drink placed in the first type vessel.
  • the amount of food eaten by a person can be accurately specified.
  • FIG. 1 is a diagram showing an outline of the food amount estimation system 1.
  • the meal amount estimation system 1 provides a service of estimating the meal amount of the person U by imaging the person U during the meal.
  • the amount of food is the amount of food and drink ingested by person U.
  • Food or drink is one of drinks and foods.
  • the amount of food and drink is, for example, the number of calories or grams of food if the food or drink is food, and the number of calories or liters of the drink if the food or drink is a drink.
  • “person U eats food and drink” is simply explained as “person U eats food", and the amount of food is specifically eaten by person U. Explain that it is the number of calories in food.
  • the meal amount estimation system 1 includes an information processing device 10 and an imaging device 90.
  • the information processing device 10 is a computer used in the meal amount estimation system 1.
  • the information processing device 10 is attached to the ceiling of the room LR.
  • the image pickup device 90 is attached to the information processing device 10.
  • a person U_1 and a person U_2 are eating in a room LR.
  • the plurality of persons is not limited to two, and may be three or more.
  • reference codes such as person U_1 and person U_2 are used to distinguish elements of the same type. On the other hand, when the same kind of elements are not distinguished, only the common code among the reference codes is used like the person U.
  • Room LR is provided with a dining table Tb.
  • a platter CP on which the food FD eaten by the person U is placed and a plurality of plates SP are arranged.
  • the platter CP is an example of "a first-class vessel in which food and drinks consumed by a plurality of people are served".
  • the platter CP may be one or a plurality.
  • the plurality of plates SP is an example of "a plurality of vessels of the second type in which a part of food and drink is placed".
  • the dining table Tb is an example of "a table in which a container filled with food and drink consumed by a plurality of people and a plurality of plates are arranged".
  • a plate SP_1 used by the person U_1 and a plate SP_2 used by the person U_2 are arranged on the dining table Tb.
  • the number of plate SPs is not limited to 2, and may be 3 or more.
  • a tong TO used for separating the food FD is arranged on the platter CP.
  • the food FD is placed on the platter CP, and each person U divides the food FD on the platter CP into the plate SP and eats the food FD divided on the plate SP. I have a habit.
  • the person U may eat the food FD directly from the platter CP while eating the food FD served on the plate SP.
  • the plate SP is a plate used to separate food FDs for each person. Generally, the plate SP is smaller than the platter CP.
  • Tong TO is an example of "a device for moving food and drink”.
  • the device for moving food and drink is referred to as "moving device”.
  • the moving device is roughly classified into a device for moving the food FD to separate the food FD and a device for moving the food FD to directly eat the food FD.
  • the devices for moving the food FD to separate the food FD are, for example, tongs TO, chopsticks (long chopsticks for separating), and a spoon for separating.
  • the devices for moving the food FD to eat the food FD directly from the platter CP are, for example, chopsticks, a spoon SO shown in FIG. 7, a knife, and a fork.
  • FIG. 2 is a block diagram illustrating the hardware configuration of the meal amount estimation system 1.
  • the food amount estimation system 1 includes an information processing device 10 and an image pickup device 90 as illustrated in FIG.
  • the imaging device 90 generates the moving image information MI shown in FIG. 3 by imaging the dining table Tb in which the platter CP and the plurality of pans SP are arranged, and the plurality of persons U.
  • the moving image information MI has an image information PI indicating a still image P for each of the plurality of frames.
  • the moving image information MI has image information PI_1 to PI_N.
  • N is an integer greater than or equal to 2.
  • the image pickup apparatus 90 may image the whole body of the person U, or may image the periphery of the abdomen of the person U.
  • the image pickup apparatus 90 includes, for example, an image pickup optical system and an image pickup element.
  • the imaging optical system is an optical system including at least one imaging lens.
  • the imaging optical system may include various optical elements such as a prism, or may include a zoom lens, a focus lens, and the like.
  • the image sensor is composed of, for example, a sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor.
  • CCD Charge Coupled Device
  • CMOS Complementary MOS
  • the information processing device 10 includes a processing device 20, a storage device 30, a communication device 40, and a bus 19.
  • the processing device 20, the storage device 30, and the communication device 40 are accessed from each other via a bus 19 for communicating information.
  • the bus 19 may be composed of a single bus, or may be composed of different buses between the devices.
  • the processing device 20 is a processor that controls the entire information processing device 10, and is composed of a central processing unit (CPU: Central Processing Unit) including an interface, an arithmetic unit, registers, and the like.
  • CPU Central Processing Unit
  • a part or all of the functions of the processing device 20 are realized by hardware such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array). You may.
  • the processing device 20 executes various processes in parallel or sequentially.
  • the storage device 30 is a recording medium that can be read by the processing device 20, and stores a plurality of programs including the control program PRa executed by the processing device 20 and various information used by the processing device 20.
  • the storage device 30 is composed of, for example, one or more types of storage circuits such as ROM (ReadOnlyMemory), EPROM (ErasableProgrammableROM), EEPROM (ElectricallyErasableProgrammableROM), and RAM (RandomAccessMemory).
  • the communication device 40 is a device that communicates with another device, and the communication device 40 is also referred to as, for example, a network device, a network controller, a network card, or a communication module.
  • the communication device 40 can communicate with the image pickup device 90.
  • FIG. 3 is a block diagram showing a function of the meal amount estimation system 1.
  • the processing device 20 reads the control program PRa from the storage device 30. By executing the control program PRa, the processing device 20 includes an acquisition unit 21, an identification information generation unit 22, a specific unit 23, an estimation unit 24, a first determination unit 25, a second determination unit 26, and a third determination unit 28. And, it functions as an intake information generation unit 29.
  • the acquisition unit 21 acquires the moving image information MI from the image pickup device 90.
  • the moving image information MI shows a moving image obtained by taking an image of a dining table Tb in which a platter CP and a plurality of plates SP are arranged, and a plurality of persons U by an imaging device 90.
  • the identification information generation unit 22 identifies each of the plurality of persons U based on the moving image information MI, the person identification information UID, the plate identification information PID that identifies each of the platter CP and the plurality of plates SP, and the food. Generates food identification information FTID that identifies the type of food.
  • the person identification information UID is an example of "first identification information”.
  • the dish identification information PID is an example of "second identification information”.
  • the food identification information FTID is an example of "third identification information”.
  • the types of food are, for example, noodle dishes, vegetable dishes, meat dishes, seafood dishes and the like.
  • the identification information generation unit 22 identifies the person U, the plate, and the type of food FD by extracting the features of the still image P for each of the plurality of frames included in the moving image information MI. ..
  • the identification information generation unit 22 adds identification information unique to the person U, the plate, and the type of food based on the identification result.
  • the identification information generation unit 22 assigns the same identification information to the same person U, the plate, and the type of food existing in different frames.
  • the reference code given to the person U is used as the person identification information UID.
  • the person identification information UID of the person U_1 is "U_1".
  • the dish identification information PID the reference code assigned to the platter CP and the dish SP is used.
  • the food identification information FTID is, for example, FT_1 indicating a noodle dish, FT_1 indicating a vegetable dish, and the like.
  • the identification information generation unit 22 identifies a plate larger than a predetermined size as a platter CP, and identifies a plate having a predetermined size or less as a plate SP.
  • the size of the platter CP is such that the diameter of the platter is 25 cm or more.
  • the size of the plate SP is such that the diameter of the plate is between 10 cm and 15 cm. Therefore, the predetermined size is, for example, a value in which the diameter of the dish is larger than 15 cm and less than 25 cm.
  • a part or all of the platter CP is colored in the first color in advance, and a part or all of the plate SP is colored in the second color. Then, if the color of the image of the plate included in the still image P is the first color, the identification information generation unit 22 identifies the plate of the first color as the platter CP. If the color of the plate included in the still image P is the second color, the identification information generation unit 22 identifies the plate of the second color as the plate SP.
  • the identification unit 23 specifies which of the plurality of persons U each of the plurality of dish SPs corresponds to, based on the moving image information MI. For example, the identification unit 23 specifies the association between the plate SP and the person U according to any one of the two identification methods shown below.
  • the specific unit 23 determines the distance between each of the plurality of person U and the plate SP to be specified for the association with any of the plurality of person U among the plurality of plate SP. calculate.
  • the “dish SP to be specified” is an example of the “one vessel” in the specific unit 23.
  • the identification unit 23 identifies the person U located at the shortest distance from the calculated plurality of distances as the person U corresponding to the plate SP of the identification target of the association.
  • the distance between the plate SP and the person U has, for example, the following two modes.
  • the distance in the first aspect is the distance from the end of the person U closest to the person U to the end of the person U closest to the person U.
  • the distance in the second aspect is the distance from the center of gravity of the plate SP to the center of gravity of the person U.
  • the center of gravity is a point where the total sum of the first moments of the cross section becomes zero in the target shape when viewed in a plane, and in the case of a rectangular shape, it means an intersection of diagonal lines.
  • the distance between the plate SP and the person U will be described as the second aspect.
  • FIG. 4 is a diagram showing a first specific method in the specific unit 23.
  • FIG. 4 illustrates a still image P_x indicated by any of the image information PI_x included in the moving image information MI.
  • x is any integer from 1 to N.
  • the still image P_x illustrated in FIG. 4 includes an image of a person U_1, an image of a person U_2, an image of a platter CP, an image of a plate SP_1, an image of a plate SP_2, an image of food FD_CP, an image of food FD_SP1, and Includes an image of food FD_SP2.
  • Food FD_CP is the food served on the platter CP.
  • Food FD_SP1 is the food set aside in the plate SP_1.
  • Food FD_SP2 is the food set aside in the plate SP_2.
  • the specific unit 23 calculates the distance SL between the plate SP_1 and each of the plurality of persons U based on the still image P_x. For example, the specific unit 23 calculates the distance SL_1 between the plate SP_1 and the person U_1 and the distance SL_2 between the plate SP_1 and the person U_1.
  • the black circle in the person U_1 indicates the center of gravity of the person U_1
  • the black circle in the person U_2 indicates the center of gravity of the person U_2
  • the black circle in the plate SP_1 indicates the center of gravity of the plate SP_1.
  • the identification unit 23 identifies the person U_1 located at the shortest distance SL_1 among the distance SL_1 and the distance SL_1 as the person U corresponding to the plate SP_1. Although not shown in FIG. 4, the identification unit 23 also specifies the plate SP_2 as the identification target of the association, and identifies the person U corresponding to the plate SP_2 according to the same method as that of the plate SP_1. To do.
  • the identification unit 23 may specify the person U corresponding to the plate SP for each of the plurality of still images P. preferable. The identification unit 23 identifies the person U who is most frequently identified as the person U corresponding to the plate SP as the person U corresponding to the plate SP.
  • the identification unit 23 identifies the moving device that overlaps the plate SP based on the moving image information MI.
  • the identification unit 23 identifies the person U of the hand holding the specified moving device as the person U corresponding to the plate SP.
  • the specific unit 23 extracts the image information PI indicating the still image P in which the plate SP and the moving device overlap from the moving image information MI, and analyzes the still image P indicated by the extracted image information PI. , Identify the person U in the hand holding the moving device.
  • the specific unit 23 extracts a plurality of image information PIs indicating a still image P in which the plate SP and the moving device overlap from the moving image information MI, and a plurality of image information PIs. For each of the image information PIs, it is preferable to specify the person U corresponding to the plate SP to be specified for the association.
  • the identification unit 23 specifies the person U who has been identified most frequently as the person U corresponding to the plate SP to be specified for the association as the person U corresponding to the plate SP to be specified for the association. ..
  • the identification unit 23 outputs the association information RI indicating the association between the plate SP and the person U.
  • FIG. 5 is a diagram showing an example of the association information RI.
  • the association information RI shows the association between the plate identification information PID indicating the plate SP and the person identification information UID indicating the person U corresponding to the plate SP.
  • the association information RI indicates that the plate SP_1 is associated with the person U_1 and the plate SP_2 is associated with the person U_2.
  • a plurality of plate SPs may be associated with the same person U. This is because one person U may use a plate SP corresponding to each of the plurality of food FDs so that the tastes of the plurality of food FDs are not mixed. For example, when a person U uses a plate SP for meat cooking and a plate SP for seafood cooking, there are two plate SPs associated with the person U. Further, there may be a person U who cannot be associated with the plate SP. Therefore, the number of persons U and the number of dishes SP may be the same as each other or may be different from each other.
  • the estimation unit 24 estimates the amount of food FD placed on each of the platter CP and the plurality of plate SPs based on the moving image information MI.
  • the storage device 30 stores the number of calories per unit area of the food FD for each type of food FD.
  • the storage device 30 stores that the number of calories per unit area of the noodle dish is c1 calories.
  • the number of calories per unit area of the vegetable dish is c2 calories
  • the number of calories per unit area of the meat dish is c3 calories
  • the number of calories per unit area of the seafood dish is c4 calories.
  • c1, c2, c3, and c4 are real numbers greater than 0.
  • the estimation unit 24 measures the area of the food FD image included in the still image P in the still image P indicated by the image information PI included in the moving image information MI, and divides the obtained area by the unit area to obtain a value. , The value obtained by multiplying the number of calories corresponding to the type of food FD identified by the identification information generation unit 22 is estimated as the amount of food FD.
  • the estimation unit 24 determines the platter CP and the platter CP based on the image information PI indicating the still image P in which the platter CP and the plurality of pans SP are not blocked by the object. Estimate the amount of food FD served in each of the plurality of pans SP.
  • the above-mentioned objects are, for example, a person U, a moving device, a cup, and the like.
  • the fact that the platter CP and the plurality of pans SP are not obstructed by an object means that all of the platter CP and the plurality of pans SP may not be obstructed by the object, and a part of the platter CP and the plurality of pans SP may be unobstructed. A part of the plate SP of any of the SPs may not be obstructed by an object.
  • the fact that the platter CP and the plurality of pans SP are not blocked by the object will be described as the fact that all of the platter CP and the plurality of pans SP are not obstructed by the object.
  • FIG. 6 is a diagram showing an example of a still image P in which the platter CP and the plurality of plate SPs are not blocked by an object.
  • FIG. 6 illustrates a still image P_x indicated by the image information PI_x included in the moving image information MI and a still image P_y indicated by the image information PI_y.
  • the still image P_x illustrated in FIG. 6 is the same as the still image P_x illustrated in FIG.
  • Hand HD includes an image of a person U_1, an image of a person U_2, an image of a platter CP, an image of a plate SP_1, an image of a plate SP_2, an image of food FD_CP, an image of food FD_SP1, and In addition to the image of food FD_SP2, the image of tong TO and the image of hand HD are included.
  • Hand HD has a tong TO.
  • the drawing of the arm portion corresponding to the hand HD is omitted.
  • the estimation unit 24 estimates the amount of food FD placed on each of the platter CP and the plurality of plates based on the image information PI_x indicating the still image P_x.
  • the estimation unit 24 outputs a food amount information FI indicating the amount of food FD placed on each of the platter CP and the plurality of plate SPs.
  • the food amount information FI indicates the number of calories of food FD_CP placed on the platter CP and the number of calories of food FD_SP placed on each of the plurality of plate SPs.
  • the first determination unit 25 reduced the amount of food FD_CP placed on the platter CP as compared with the amount of food FD_CP placed on the platter CP a predetermined period before the determination time. Judge whether or not.
  • the predetermined period may be any length of time, but is preferably determined in consideration of the standard rate at which a person eats food. For example, the predetermined period may be a period of 1 minute or more and 5 minutes or less.
  • the first determination unit 25 has a predetermined threshold value obtained by subtracting the amount of food FD_CP placed on the current (at the time of determination) platter CP from the amount of food FD_CP placed on the platter CP before the determination period. If it is the above, it is determined that the amount of food FD_CP placed on the platter CP has decreased.
  • the second determination unit 26 When the determination result of the first determination unit 25 is affirmative, the second determination unit 26 directly eats the food FD_CP of the platter CP among the plurality of persons U based on the moving image information MI. Or, it is determined whether the food FD_CP has been transferred from the platter CP to one of the plurality of plate SPs.
  • One person U is an example of "one person”.
  • the second determination unit 26 uses one of the two determination methods shown below.
  • the second determination unit 26 determines that the amount of food FD_SPi placed on each plate SP_i of the plurality of plates SP is the food placed on each plate SP_i for a predetermined period before the determination time. It is determined whether or not the amount of FD_SP is increased as compared with the amount of FD_SP. i is each integer from 1 to the total number of dishes SP. When there is a plate SP_i with an increased food FD_SP, the second determination unit 26 determines that the food FD_CP has been transferred to a certain plate SP. On the other hand, if there is no plate SP with increased food FD_SP, it means that a person U ate food FD_CP directly from the platter CP. Therefore, the second determination unit 26 determines that one person U has eaten the food FD_CP of the platter CP.
  • the second determination unit 26 tracks the destination of the food FD_CP placed on the platter CP based on the moving image information MI. To start that. Next, the second determination unit 26 identifies the person U of the hand holding the moving device carrying the food FD_CH being tracked based on the moving image information MI. Then, the second determination unit 26 determines whether or not the food FD_CH being tracked has disappeared without being transferred to the plurality of pans SP based on the moving image information MI. When the food FD_CH disappears, the person U of the hand holding the moving device is the person U who ate the food FD directly from the platter CP.
  • the person U of the hand holding the moving device is the platter. It is determined that the person U has eaten the food FD on the CP. On the other hand, the second determination unit 26 determines that when the food FD_CH being tracked is transferred to a certain plate SP among the plurality of plate SPs, it is transferred to a certain plate SP.
  • FIG. 7 is a diagram showing a second determination method in the second determination unit 26.
  • FIG. 7 illustrates a still image P_a indicated by the image information PI_a included in the moving image information MI, a still image P_b indicated by the image information PI_b, and a still image P_c indicated by the image information PI_c.
  • a, b, and c are integers from 1 to N and have a relationship of a ⁇ b ⁇ c.
  • the still image P_a, the still image P_b, and the still image P_c include an image of a person U_1, an image of a person U_2, an image of a platter CP, an image of a plate SP_1, an image of a plate SP_2, an image of food FD_CP, and food FD_SP1. And the image of food FD_SP2, as well as the image of spoon SO and the image of hand HD are included.
  • the first determination unit 25 determines that the amount of food FD_CP placed on the platter CP is reduced as compared with the food FD_CP placed on the platter CP when the still image P_a is imaged. To do. Therefore, the second determination unit 26 starts tracking the destination of the food FD_CP placed on the platter CP based on the still image P_b. From the timing when the still image P_b is obtained, the second determination unit 26 starts tracking the food FD_CH placed on the spoon SO.
  • the food FD_CH to be tracked is the food that was a part of the food FD_CP placed on the platter CP when the still image P_a was imaged.
  • the second determination unit 26 identifies the person U of the hand holding the spoon SO carrying the food FD_CH to be tracked.
  • the second determination unit 26 extracts the contour of the arm of the hand holding the moving device, and determines the person U connected to the contour of the extracted arm as the person of the hand holding the moving device. Specify as U.
  • the second determination unit 26 calculates the distance between the hand holding the moving device and each of the plurality of persons U, and positions the distance at the shortest distance among the calculated plurality of distances.
  • the person U to be used is specified as the person U of the hand holding the moving device.
  • the distance between the hand holding the moving device and the person U has, for example, the following two modes.
  • the distance in the first aspect is the distance from the end of the hand holding the moving device closest to the person U to the end of the person U closest to the hand holding the moving device.
  • the distance in the second aspect is the distance from the center of gravity of the hand holding the moving device to the center of gravity of the person U. In the following, the distance between the hand holding the moving device and the person U will be described as the second aspect.
  • the second determination unit 26 calculates the distance HL_1 between the hand HD holding the spoon SO and the person U_1 and the distance HL_2 between the hand HD and the person U_1, respectively.
  • the black circle in the person U_1 indicates the center of gravity of the person U_1
  • the black circle in the person U_2 indicates the center of gravity of the person U_2
  • the black circle in the hand HD indicates the center of gravity of the hand HD.
  • the second determination unit 26 identifies the person U_2 located at the shortest distance HL_2 among the distance HL_1 and the distance HL_2 as the person U of the hand holding the spoon SO.
  • the food FD_CH to be tracked disappears without being transferred to a plurality of pans SP. Therefore, the second determination unit 26 determines that the person U_2 specified as the person U of the hand holding the spoon SO has eaten the food FD placed on the platter CP.
  • the amount of food FD_SP placed on one plate SP among the plurality of plate SPs is the food placed on one plate SP before a predetermined period from the time of determination. It is determined whether or not the amount of FD_SP is reduced as compared with the amount of FD_SP.
  • the intake information generation unit 29 generates the intake information TI based on the determination results of the second determination unit 26 and the third determination unit 28, and the association information RI output by the specific unit 23. There are two triggers for generating intake information TI as shown below.
  • the first opportunity is when the determination result of the second determination unit 26 indicates that one person U has eaten the food FD_CP served on the platter CP.
  • the intake information generation unit 29 generates an intake information TI that associates the amount of food FD eaten by this person U, this person U, and the type of food FD eaten by this person U. More specifically, the intake information TI is information in which the amount of the food FD, the person identification information UID that identifies the person U who ate the food FD, and the FTID that identifies the type of the food FD are associated with each other.
  • the estimation unit 24 sets the amount of food FD_SP placed on the plate SP as the platter CP. Increase the amount of food FD_CP served on the plate by the amount of decrease.
  • the second opportunity is when the determination result of the third determination unit 28 is affirmative, that is, when the amount of food FD_SP placed on one plate SP decreases.
  • the intake information generation unit 29 associates the person U associated with the plate SP, the amount of food FD reduced from the food FD_SP served on the plate SP, and the type of the food FD. Generate information TI.
  • FIG. 8 is a diagram showing an example of the stored contents of the intake information TI.
  • FIG. 8 illustrates intake information TI_1 to intake information TI_M.
  • M is an integer of 1 or more.
  • the intake information TI illustrated in FIG. 8 is information in which time information and intake mode information are associated with each other, in addition to the person identification information UID, the amount of food FD, and the food identification information FTID.
  • the time information and the intake mode information may not be included in the intake information TI.
  • the time information indicates the time when the person U ate the food FD.
  • the intake mode information indicates whether the person U ate the food FD directly from the platter CP or the food FD from the plate SP.
  • the intake information generation unit 29 generates the intake information TI_1 and the intake information TI_2 by the second trigger described above, and generates the intake information TI_M by the first trigger.
  • the intake information TI_1 indicates that at 12:00:01, the person U_1 ate the type of food corresponding to FT_1 from the plate SP_1 for xx calories.
  • the intake information generation unit 29 outputs the generated intake information TI to the storage device 30 or the communication device 40.
  • FIG. 9, FIG. 10, FIG. 11A, and FIG. 11B are flowcharts showing the operation of the meal amount estimation system 1. There are, for example, the following two triggers for starting the operations illustrated in FIGS. 9, 10, 11A, and 11B.
  • the first opportunity is when the person U finishes the meal and the imaging device 90 generates the moving image information MI showing the moving image including the image of the person U who is eating.
  • the second opportunity is when the image pickup apparatus 90 generates moving image information MI including a predetermined number of still images P.
  • the processing device 20 acquires the moving image information MI from the image pickup device 90 by functioning as the acquisition unit 21 (step S1). Next, the processing device 20 functions as the identification information generation unit 22, and thereby, a plurality of persons U, a platter CP, a plurality of plate SPs, and a type of food FD served on the platter CP or the plate SP. And are identified (step S2).
  • the processing device 20 functions as the specific unit 23 to specify which of the plurality of persons U each of the plurality of dish SPs corresponds to (step S3).
  • the processing device 20 functions as the estimation unit 24 to estimate the amount of food served in each of the platter CP and the plates of the plurality of SPs based on the extracted frame (step S4).
  • the processing device 20 functions as the estimation unit 24 to select a frame group in which the amount of food FD can be detected from the moving image information MI as the frame set A (step S5).
  • the processing device 20 functions as the estimation unit 24 to select a frame group capable of accurately detecting the amount of food as the frame set B (step S6).
  • the frame group in which the amount of food can be detected with high accuracy is, in other words, the frame group in which the platter CP and the plurality of plate SPs are not blocked by an object.
  • the processing device 20 selects the first frame in the frame set B as the frame X (step S11). Next, the processing device 20 selects the frame next to the frame X in the frame set B as the frame Y (step S12). Then, the processing device 20 functions as the first determination unit 25 or the third determination unit 28, so that the food FD placed on each of the platter CP or the plurality of plate SPs in the frame Y as compared with the frame X It is determined whether the reduction amount ⁇ FD is equal to or greater than a predetermined threshold value (step S13).
  • the processing apparatus 20 determines whether any of the reduced amount ⁇ FD_CP and the reduced amount ⁇ FD_SPi shown below is equal to or greater than a predetermined threshold value.
  • i is each integer from 1 to the total number of dishes SP.
  • ⁇ FD_CP Food served on platter CP in frame X FD_CP-Food served on platter CP in frame Y FD_CP
  • ⁇ FD_SPi Food served on the plate SP_i in frame X FD_SPi-Food served on the plate SP_i in frame Y FD_SPi
  • step S13 If the determination result in step S13 is affirmative, the processing device 20 stores information indicating the time from frame X to frame Y in the storage device 30 as reduction period information (step S15). Subsequently, the processing device 20 stores the reduced amount ⁇ FD, which is equal to or greater than a predetermined threshold value, in the storage device 30 (step S16). The processing device 20 stores the dish identification information PID of the dish corresponding to the reduction amount ⁇ FD which is equal to or more than a predetermined threshold value in the storage device 30 (step S17). The decrease period information, the decrease amount ⁇ FD, and the dish identification information PID are associated with each other and stored in the storage device 30.
  • the processing device 20 updates the subsequent frame group after the frame Y in the frame set B as a new frame set B (step S18). If the position of the frame Y in the frame set B is the end, the number of frames included in the updated frame set B is 0.
  • the processing device 20 determines whether or not the updated frame set B has one or more frames (step S19). If the determination result in step S19 is affirmative, the processing apparatus 20 returns the processing to step S11.
  • step S19 When the determination result in step S19 is negative, that is, when the frame set B has no frame, in FIG. 11A, the processing device 20 is reduced by one or more stored in the storage device 30 in the processing of step S15. Among the period information, the decrease period information indicating the oldest time is selected (step S31).
  • step S13 determines whether or not there is a frame next to the frame Y in the frame set B. (Step S21). If the determination result in step S21 is affirmative, the processing device 20 selects the frame next to the frame Y in the frame set B as the frame Y (step S22), and executes the process of step S13 again. On the other hand, if the determination result in step S21 is negative, the processing device 20 executes the process in step S31.
  • the processing device 20 selects from the frame set A a frame group included in the time indicated by the selected reduction period information as the frame set C (step S32).
  • the processing device 20 refers to the dish identification information PID stored in the process of step S17, and determines whether the dish with reduced food FD is the platter CP or the dish SP. Specifically, the processing device 20 determines whether or not the dish with reduced food FD is a platter CP (step S33). When the determination result is affirmative, that is, when the dish with reduced food FD is the platter CP (step S33: Yes), the processing device 20 functions as the second determination unit 26, whereby the platter in the frame set C It starts to track the destination of the food FD_CP on the CP (step S34).
  • the processing device 20 functions as the second determination unit 26 to identify the person U of the hand holding the table utensil carrying the food FD_CH to be tracked (step S35).
  • the processing device 20 causes the identified person U to eat the food FD directly from the platter CP or the food FD to take the plate based on the destination of the food FD_CH to be tracked. Determine if it has been transferred to the SP.
  • the processing device 20 determines whether or not the specified person U has eaten the food FD directly from the platter CP (step S36).
  • step S33 the processing device 20 may determine whether or not the plate with reduced food FD is the platter SP, instead of determining whether or not the plate with reduced food FD is the platter CP. Similarly, in step S36, the processing device 20 determines whether the food FD has been transferred to the pan SP instead of determining whether the identified person U has eaten the food FD directly from the platter CP. You may.
  • step S36 If the identified person U eats the food FD directly from the platter CP, in other words, if the food FD_CH to be tracked disappears without being transferred to the plurality of pans SP (step S36: Yes), the processing device 20 By functioning as the intake information generation unit 29, the reduction amount ⁇ FD of the food FD, the person U who ate directly from the platter CP, and the intake information TI corresponding to the type of the food FD are generated (step S37). On the other hand, when the determination result in step S36 is negative, that is, when the food FD_CH being tracked is transferred to the pan SP (step S36: No), the processing device 20 functions as the estimation unit 24 to track the food FD_CH. The amount of food FD placed on the plate SP to which the food FD_CH inside is transferred is increased by the decrease amount ⁇ FD of the food FD (step S38).
  • step S33 When the determination result in step S33 is negative, that is, when the dish with reduced food FD is the dish SP (step S33: No), the processing device 20 functions as the intake information generation unit 29, thereby causing the food FD.
  • the amount of decrease ⁇ FD, the person U corresponding to the plate SP with reduced food FD, and the intake information TI corresponding to the type of food FD are generated (step S39).
  • step S40 determines whether or not all the reduction period information has been selected. If the determination result in step S40 is negative, that is, if there is a reduction period information that has not yet been selected, the processing device 20 displays the reduction period information indicating the next oldest time after the time indicated by the currently selected reduction period information. It is selected (step S41), and the process of step S32 is executed. On the other hand, when the determination result in step S40 is affirmative, that is, when all the reduction period information is selected, the processing apparatus 20 ends the series of processes shown in FIGS. 9, 10, 11A, and 11B.
  • the processing device 20 when the amount of food FD_CP placed on the platter CP decreases, one person U eats the food FD of the platter CP, or the food FD takes a plurality of food FDs. It is determined whether or not the dish SP has been transferred to a certain dish SP. When one person U eats the food FD of the platter CP, the processing device 20 associates the amount of food FD eaten directly from the platter CP, the person U eaten directly from the platter CP, and the type of food FD. Generate information TI.
  • the processing device 20 since the processing device 20 generates the intake information TI indicating that the person U ate the food FD directly from the platter CP, even if there is a person U who ate directly from the platter CP, the person The amount of food in U can be accurately specified.
  • the processing device 20 when the amount of food FD placed on one of the plurality of dish SPs is reduced, the processing device 20 is used as a dish SP having a reduced amount of food FD and a reduced amount of food FD. Generates intake information TI that associates the corresponding person U and the type of food FD. As described above, since the processing device 20 generates the intake information TI indicating that the person U has eaten the food from the plate SP, the amount of food of the person U even when the food is divided into the plate SP. Can be accurately identified.
  • the first specific method in the specific unit 23 among the plurality of plate SPs, the distances between the plate SP to be specified for the association and each of the plurality of persons U are calculated, and the calculated plurality of plates SP.
  • the person U located at the shortest distance from the distances of the above is specified as the person U corresponding to the plate SP of the specific target.
  • the first specific method does not have to search for the still image P in which the plate SP and the moving device overlap. Therefore, according to the first identification method, the person U corresponding to the plate SP can be easily identified as compared with the second identification method.
  • the estimation unit 24 uses the large plate CP and the large plate CP and the large plate CP and the plurality of plate SPs based on the image information PI showing the still image P in which the large plate CP and the plurality of plate SPs are not blocked by the object among the image information PIs of the moving image information MI. Estimate the amount of food FD served in each of the plurality of pans SP. When the amount of food FD is estimated using the still image P in which either the platter CP or the plurality of plate SPs is blocked by the object, the amount of food FD is larger than the actual amount when the food FD is hidden in the object. Is mispresumed to be a small amount. Therefore, the estimation unit 24 can improve the estimation accuracy of the amount of food FD by using the image information PI showing the still image P in which the platter CP and the plurality of plate SPs are not obstructed by the object.
  • the second determination unit 26 starts tracking the destination of the food FD placed on the platter CP based on the moving image information MI. .. Then, the second determination unit 26 identifies the person U of the hand holding the moving device carrying the moving food FD_CH, and when the moving food FD_CH disappears without being transferred to the plurality of pans SP. It is determined that the person U in the hand holding the moving device ate the food FD_CP served on the platter CP. Since it has been confirmed that the moving food FD_CH disappears without being transferred to the plurality of pans SP, it is accurately determined that the food FD was eaten directly from the platter CP.
  • the second determination unit 26 sets the hand holding the platter CP and each of the plurality of persons U based on the moving image information MI. The distance is calculated, and the person U located at the shortest distance among the plurality of calculated distances is specified as the person U of the hand holding the platter CP.
  • the method for identifying the second aspect does not have to extract the contour of the arm of the hand holding the moving device as compared with the method for identifying the first aspect. Therefore, according to the identification method of the second aspect, the person U of the hand holding the moving device can be easily identified as compared with the identification method of the first aspect.
  • the platter CP has been described as an example of a first-class vessel in which food and drinks ingested by a plurality of people are placed, but the first-class vessel is not limited to a plate.
  • the first type of vessel may be a pot, a rice bowl, or the like.
  • the rice chest is a chest for transferring cooked rice from the kettle.
  • the plurality of trays SP is an example of a plurality of vessels of the second type in which a part of food and drink is placed, but the vessels of the second type are limited to plates. Absent.
  • the second type of vessel may be a drinking water used to separate food and drink in a pot, or a bowl used to separate rice in a rice bowl. Drinking water is a small bowl with a protruding edge.
  • the plate SP is generally smaller than the platter CP, but the present invention is not limited to this.
  • the food served on each of the plurality of platter CPs may be moved to the same plate SP.
  • the plate CP and the plate SP may have substantially the same size, or the plate SP may be larger than the plate CP.
  • the identification information generation unit 22 uses the method other than the above-mentioned second method of identifying the plate CP and the plate SP as a method.
  • the platter CP and the pan SP may be discriminated by using the third identification method or the fourth identification method shown below.
  • the identification information generation unit 22 identifies the plate on which the food FD is placed as a platter CP and the plate on which the food FD is not placed as a plate SP at the time when the meal is started. ..
  • the identification information generation unit 22 identifies the platter CP and the plate SP by the person U pointing at the platter CP and the plate SP.
  • the fourth identification method will be described in more detail.
  • the meal amount estimation system 1 has a speaker.
  • the identification information generation unit 22 causes the speaker to output a voice saying "Please point to the platter for a predetermined number of seconds."
  • the identification information generation unit 22 analyzes the moving image information indicating the moving image captured by the imaging device 90 after the above-mentioned audio output, and identifies the dish pointed by the person U as a platter CP for a predetermined number of seconds. To do.
  • the identification information generation unit 22 tells the speaker, "Point to the plate for a predetermined number of seconds. After a predetermined number of seconds, point to the plate that is not pointing for a predetermined number of seconds.
  • the identification information generation unit 22 analyzes the moving image information indicating the moving image captured by the imaging device 90 after the above-mentioned audio output, and uses the dish pointed by the person U as the taking dish SP for a predetermined number of seconds. Identify.
  • the food FD is separated from the platter CP into the plate SP and eaten by the person U.
  • the food FD was eaten by the person U via at most two dishes, but is not limited to this.
  • the food FD may be eaten by the person U via three or more dishes.
  • the information processing device 10 is attached to the ceiling of the room LR, but the present invention is not limited to this.
  • the information processing device 10 may be attached to the upper surface of the top plate of the dining table Tb.
  • the information processing device 10 may be installed outside the room LR.
  • the information processing device 10 accesses the image pickup device 90 via a mobile communication network or a network such as the Internet.
  • the information processing device 10 assumes a non-portable computer mounted on the ceiling of the room LR, but is not limited to this, and is not limited to this, and is a portable terminal such as a smartphone or a tablet terminal. It may be a device.
  • the information processing device 10 does not have the image pickup device 90, but may have the image pickup device 90.
  • each functional block (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these a plurality of devices.
  • the input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
  • the determination may be made by a value represented by 1 bit (0 or 1) or by a boolean value (Boolean: true or false). , May be done by numerical comparison (eg, comparison with a given value).
  • the storage device 30 is a recording medium that can be read by the processing device 20, and examples thereof include a ROM and a RAM.
  • Disks Blu-ray (registered trademark) disks, smart cards, flash memory devices (for example, cards, sticks, key drives), CD-ROMs (Compact Disc-ROM), registers, removable disks, hard disks, floppy systems (registered trademarks). ) Disks, magnetic strips, databases, servers and other suitable storage media.
  • the program may also be transmitted from the network.
  • the program may also be transmitted from the communication network via a telecommunication line.
  • Each of the above-described aspects includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (registered trademark). , GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), LTE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered trademark) ), Other systems that utilize suitable systems and / or next-generation systems that are extended based on them.
  • the information, signals, and the like described may be represented using any of a variety of different techniques.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.
  • the terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.
  • Each function illustrated in FIG. 3 is realized by any combination of hardware and software. Further, each function may be realized by a single device, or may be realized by two or more devices configured as separate bodies from each other.
  • the software uses wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.
  • wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other
  • the information, parameters, etc. may be represented by absolute values, relative values from predetermined values, or other corresponding information. May be good.
  • the information processing device 10 includes a case where it is a mobile station.
  • Mobile stations can be used by those skilled in the art as subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless. It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.
  • 1 food amount estimation system, 10 ... information processing device, 20 ... processing device, 21 ... acquisition unit, 22 ... identification information generation unit, 23 ... specific unit, 24 ... estimation unit, 25 ... first judgment unit, 26 ... 2 Judgment unit, 28 ... 3rd judgment unit, 29 ... Intake information generation unit, 30 ... Storage device, 90 ... Imaging device, CP ... Large plate, FD ... Food, MI ... Moving image information, P ... Still image, PI ... Image Information, TO ... Tong, U ... Person.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Nutrition Science (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

情報処理装置は、動画像情報を取得する取得部と、複数の人物の各々、大皿及び複数の取り皿の各々、並びに、飲食物の種別を識別する識別情報生成部と、大皿及び複数の取り皿の各々の飲食物の量を推定する推定部と、大皿の飲食物の量が減少したか否かを判定する第1判定部と、第1判定部の判定結果が肯定を示す場合、複数の人物のうち一の人物が大皿の飲食物を摂取したか、又は当該飲食物が複数の取り皿のうち一の取り皿に移されたかを判定する第2判定部と、一の人物が大皿の飲食物を摂取したことを示す場合、一の人物が摂取した飲食物の量、一の人物、及び、当該飲食物の種別を対応付ける摂取情報を生成する摂取情報生成部とを備え、推定部は、一の取り皿に飲食物が移された場合、一の取り皿の飲食物の量を、大皿の飲食物が減少した量だけ増加させる。

Description

情報処理装置
 本発明は、情報処理装置に関する。
 近年、健康的思考の高まりに伴い、食事量を記録する人が増えている。そこで、食事量を簡単に記録するために、食事量を記録するサービスが提案されている。例えば、非特許文献1には、大皿に盛られた食べ物を複数の人物が食べる場合に、食卓を撮像した画像を複数の領域に区分けし、領域ごとに食べ物を食べたかを判定し、食べた場合には領域に対応付けられた人物の食事量を記録する技術が開示されている。
大塚雄一郎ほか2名,"会食状況認識によるテーブル型リアルタイム料理推薦システム",情報処理学会研究報告,Vol.2011-DN-78 No.8,2011/1/21
 しかしながら、実際の食事では、人物によっては、大皿から取り皿に食べ物を移して、取り皿から料理を食べることがある。従来技術では、大皿に盛られた食べ物が減少した場合、取り皿に移動しただけで食べ物を食べていないにも関わらず食べたと判定されるため、人物の食事量を正確に特定することができない。
 以上の課題を解決するために、本発明の好適な態様に係る情報処理装置は、複数の人物が摂取する飲食物が盛られた第1種別の器と前記飲食物の一部が盛られる第2種別の複数の器とが配置された卓、及び、前記複数の人物を、撮像することによって得られた動画像を示す動画像情報を取得する取得部と、前記動画像情報に基づいて、前記複数の人物の各々を識別する第1識別情報、前記第1種別の器及び前記第2種別の複数の器の各々を識別する第2識別情報、並びに、前記飲食物の種別を識別する第3識別情報を生成する識別情報生成部と、前記動画像情報に基づいて、前記第1種別の器及び前記第2種別の複数の器の各々に盛られた前記飲食物の量を推定する推定部と、前記動画像情報に基づいて、判定時点における前記第1種別の器に盛られた飲食物の量が、当該判定時点より所定期間前の前記第1種別の器に盛られた飲食物の量と比較して減少したか否かを判定する第1判定部と、前記第1判定部の判定結果が肯定を示す場合、前記動画像情報に基づいて、前記複数の人物のうち一の人物が前記第1種別の器に盛られた飲食物を摂取したか、又は当該飲食物が前記第2種別の複数の器のうち一の器に移されたかを判定する第2判定部と、前記一の人物が前記第1種別の器に盛られた飲食物を摂取したことを前記第2判定部の判定結果が示す場合、前記一の人物が摂取した飲食物の量、前記一の人物、及び、当該飲食物の種別を対応付ける摂取情報を生成する摂取情報生成部とを備え、前記推定部は、前記第2判定部の判定結果が前記一の器に前記飲食物が移されたことを示す場合、前記第2種別の前記一の器に盛られた飲食物の量を、前記第1種別の器に盛られた飲食物が減少した量だけ増加させる。
 本発明によれば、人物の食事量を正確に特定できる。
食事量推定システム1の概要を示す図。 食事量推定システム1のハードウェア構成を例示するブロック図。 食事量推定システム1の機能を示すブロック図。 特定部23における第1の特定方法を示す図。 対応付け情報RIの一例を示す図。 大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pの一例を示す図。 第2判定部26における第2の判定方法を示す図。 摂取情報TIの記憶内容の一例を示す図。 食事量推定システム1の動作を示すフローチャートを示す図(その1)。 食事量推定システム1の動作を示すフローチャートを示す図(その2)。 食事量推定システム1の動作を示すフローチャートを示す図(その3)。 食事量推定システム1の動作を示すフローチャートを示す図(その4)。
1.実施形態
 以下、本実施形態に係る食事量推定システム1を説明する。
1.1.食事量推定システム1の概要
 図1は、食事量推定システム1の概要を示す図である。食事量推定システム1は、食事中の人物Uを撮像することにより、人物Uの食事量を推定するサービスを提供する。食事量は、人物Uが摂取した飲食物の量である。飲食物(food or drink)とは、飲み物及び食べ物の一方である。飲食物の量は、例えば、飲食物が食べ物であれば食べ物のカロリー数又はグラム数であり、飲食物が飲み物であれば飲み物のカロリー数又はリットル数である。以下では、説明の簡略化のため、「人物Uが飲食物を摂取する」を、単に、「人物Uが食べ物を食べる」として説明し、食事量は、具体的には、人物Uが食べた食べ物のカロリー数であるとして説明する。
 食事量推定システム1は、情報処理装置10と、撮像装置90とを含む。情報処理装置10は、食事量推定システム1に用いられるコンピュータである。図1の例示では、情報処理装置10は、部屋LRの天井に取り付けられている。撮像装置90は、情報処理装置10に取り付けられている。
 部屋LR内において、複数の人物Uが食事を取っている。図1の例示では、複数の人物Uの一例として人物U_1と人物U_2とが、部屋LR内で食事を取っている。複数の人物は、2人に限らず、3人以上でもよい。以下の説明では、同種の要素を区別する場合、人物U_1及び人物U_2のように参照符号を使用する。一方、同種の要素を区別しない場合、人物Uのように、参照符号のうちの共通符号だけを使用する。
 部屋LRには、食卓Tbが設けられている。食卓Tbには、人物Uが食べる食べ物FDが盛られた大皿CPと、複数の取り皿SPとが配置されている。大皿CPは、「複数の人物が摂取する飲食物が盛られた第1種別の器」の一例である。大皿CPは、1つでもよいし複数でもよい。複数の取り皿SPは、「飲食物の一部が盛られる第2種別の複数の器」の一例である。食卓Tbは、「複数の人物が摂取する飲食物が盛られた器と複数の取り皿とが配置された卓」の一例である。
 図1の例示では、食卓Tbには、複数の取り皿SPの一例として、人物U_1が用いる取り皿SP_1と、人物U_2が用いる取り皿SP_2とが配置されている。取り皿SPの数は2に限らず、3以上でもよい。更に、大皿CPには、食べ物FDを取り分けるために用いるトングTOが配置されている。地域によっては、図1の例示のように、大皿CPに食べ物FDを盛り、各人物Uは、大皿CPに盛られた食べ物FDを取り皿SPに取り分け、取り皿SPに取り分けた食べ物FDを食べる習慣がある。また、人物Uは、取り皿SPに盛られた食べ物FDを食べる一方で、大皿CPから直接食べ物FDを食べることがある。取り皿SPは、食べ物FDを各自に取り分けるために用いる皿である。一般的に、取り皿SPは、大皿CPより小さい。
 トングTOは、「飲食物を移動させる器具」の一例である。以下の記載では、飲食物を移動させる器具を、「移動用器具」と称する。移動用器具は、大別して、食べ物FDを取り分けるために食べ物FDを移動させる器具と、食べ物FDを直接食べるために食べ物FDを移動させる器具とがある。食べ物FDを取り分けるために食べ物FDを移動させる器具は、例えば、トングTO、菜箸(取り分け用の長い箸)、及び、取り分け用のスプーンである。食べ物FDを大皿CPから直接食べるために食べ物FDを移動させる器具は、例えば、箸、図7に示すスプーンSO、ナイフ、及び、フォークである。
 図2は、食事量推定システム1のハードウェア構成を例示するブロック図である。食事量推定システム1は、図1の例示のように、情報処理装置10及び撮像装置90を備える。
 撮像装置90は、大皿CPと複数の取り皿SPとが配置された食卓Tb、及び、複数の人物Uを撮像することによって、図3に示す動画像情報MIを生成する。動画像情報MIは、複数のフレームの各々について静止画像Pを示す画像情報PIを有する。動画像情報MIは、画像情報PI_1~PI_Nを有する。Nは、2以上の整数である。撮像装置90は、人物Uの全身を撮像してもよいし、人物Uの腹部周辺を撮像してもよい。撮像装置90は、例えば撮像光学系及び撮像素子を含む。撮像光学系は、少なくとも1つの撮像レンズを含む光学系である。撮像光学系は、プリズム等の各種の光学素子を備えてもよいし、ズームレンズやフォーカスレンズ等を備えてもよい。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary MOS)イメージセンサ等のセンサで構成される。
 情報処理装置10は、処理装置20、記憶装置30、通信装置40、及び、バス19を備える。処理装置20、記憶装置30、及び、通信装置40は、情報を通信するためのバス19を介して互いにアクセスされる。バス19は、単一のバスによって構成されてもよいし、装置間で異なるバスで構成されてもよい。
 処理装置20は、情報処理装置10の全体を制御するプロセッサであり、インタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成される。なお、処理装置20の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアで実現してもよい。処理装置20は、各種の処理を並列的又は逐次的に実行する。
 記憶装置30は、処理装置20が読取可能な記録媒体であり、処理装置20が実行する制御プログラムPRaを含む複数のプログラム、及び、処理装置20が使用する各種の情報を記憶する。記憶装置30は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の記憶回路の1種別以上で構成される。
 通信装置40は、他の装置と通信する機器であり、通信装置40は、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード又は通信モジュールとも表記される。通信装置40は、撮像装置90と通信可能である。
1.2.食事量推定システム1の機能
 図3は、食事量推定システム1の機能を示すブロック図である。処理装置20は、記憶装置30から制御プログラムPRaを読み取る。処理装置20は、制御プログラムPRaを実行することによって、取得部21、識別情報生成部22、特定部23、推定部24、第1判定部25、第2判定部26、第3判定部28、及び、摂取情報生成部29として機能する。
 取得部21は、撮像装置90から、動画像情報MIを取得する。動画像情報MIは、大皿CPと複数の取り皿SPとが配置された食卓Tb、及び、複数の人物Uを撮像装置90が撮像することによって得られた動画像を示す。
 識別情報生成部22は、動画像情報MIに基づいて、複数の人物Uの各々を識別する人物識別情報UID、大皿CP及び複数の取り皿SPの各々を識別する皿識別情報PID、及び、食べ物の種別を識別する食べ物識別情報FTIDを生成する。人物識別情報UIDは、「第1識別情報」の一例である。皿識別情報PIDは、「第2識別情報」の一例である。食べ物識別情報FTIDは、「第3識別情報」の一例である。食べ物の種別は、例えば、麺料理、野菜料理、肉料理、及び、魚介料理等である。例えば、識別情報生成部22は、動画像情報MIに含まれる複数のフレームの各々について、静止画像Pが有する特徴を抽出することによって、人物Uと、皿と、食べ物FDの種別とを識別する。識別情報生成部22は、識別結果に基づいて、人物Uと、皿と、食べ物の種別とに固有の識別情報を付与する。識別情報生成部22は、異なるフレームに存在する同一の人物U、皿、及び、食べ物の種別について、同一の識別情報を付与する。
 本実施形態では、説明の簡略化のため、人物識別情報UIDとして、人物Uに付与した参照符号を用いる。例えば、人物U_1の人物識別情報UIDは、「U_1」である。同様に、皿識別情報PIDとして、大皿CP及び取り皿SPに付与した参照符号を用いる。食べ物識別情報FTIDは、例えば、麺料理を示すFT_1及び野菜料理を示すFT_2等である。
 大皿CPと取り皿SPとの識別方法は、例えば、以下に示す2つの方法がある。第1の識別方法において、識別情報生成部22は、所定の大きさより大きい皿を大皿CPとして識別し、所定の大きさ以下の皿を取り皿SPとして識別する。一般的には、大皿CPの大きさは、皿の直径が25cm以上である。取り皿SPの大きさは、皿の直径が10cmから15cmまでの間である。従って、所定の大きさは、例えば、皿の直径が15cmより大きく25cm未満の値である。第2の識別方法において、予め、大皿CPの一部又は全部を第1色に着色しておき、取り皿SPの一部又は全部を第2色に着色しておく。そして、識別情報生成部22は、静止画像Pに含まれる皿の像の色が第1色であれば、第1色の皿を大皿CPと識別する。識別情報生成部22は、静止画像Pに含まれる皿の色が第2色であれば、第2色の皿を取り皿SPと識別する。
 特定部23は、動画像情報MIに基づいて、複数の取り皿SPの各々が、複数の人物Uのうちいずれの人物Uに対応するかを特定する。例えば、特定部23は、以下に示す2つの特定方法のうちのいずれか一つの方法に従って、取り皿SPと人物Uとの対応付けを特定する。
 第1の特定方法において、特定部23は、複数の取り皿SPのうち、複数の人物Uのいずれかとの対応付けの特定対象とする取り皿SPと、複数の人物Uの各々との距離を算出する。「特定対象とする取り皿SP」は、特定部23における「一の器」の一例である。そして、特定部23は、算出された複数の距離の中から最も短い距離に位置する人物Uを、対応付けの特定対象の取り皿SPに対応する人物Uとして特定する。取り皿SPと人物Uとの距離は、例えば、以下に示す2つの態様がある。第1の態様における距離は、取り皿SPにおける人物Uに最も近い端部から、人物Uにおける取り皿SPに最も近い端部までの距離である。第2の態様における距離は、取り皿SPの重心から人物Uの重心までの距離である。なお、重心とは、平面視したときに、対象となる形状において断面1次モーメントの総和がゼロになる地点であり、矩形形状であれば対角線の交点をいう。以下では、取り皿SPと人物Uとの距離は、第2の態様であるとして説明する。
 図4は、特定部23における第1の特定方法を示す図である。図4では、動画像情報MIに含まれるいずれかの画像情報PI_xが示す静止画像P_xを例示する。xは、1からNまでのいずれかの整数である。図4に例示する静止画像P_xには、人物U_1の像、人物U_2の像、大皿CPの像、取り皿SP_1の像、取り皿SP_2の像、食べ物FD_CPの像、食べ物FD_SP1の像、及び、食べ物FD_SP2の像が含まれる。食べ物FD_CPは、大皿CPに盛られた食べ物である。食べ物FD_SP1は、取り皿SP_1に取り分けられた食べ物である。食べ物FD_SP2は、取り皿SP_2に取り分けられた食べ物である。特定部23は、静止画像P_xに基づいて、取り皿SP_1と複数の人物Uの各々との距離SLを算出する。例えば、特定部23は、取り皿SP_1と人物U_1との距離SL_1と、取り皿SP_1と人物U_2との距離SL_2とを算出する。図4では、人物U_1内の黒丸が人物U_1の重心を示し、人物U_2内の黒丸が人物U_2の重心を示し、取り皿SP_1内の黒丸が取り皿SP_1の重心を示す。図4の例示のように、特定部23は、距離SL_1と距離SL_2とのうち、最も短い距離SL_1に位置する人物U_1を、取り皿SP_1に対応する人物Uとして特定する。図4には示していないが、特定部23は、取り皿SP_2についても、取り皿SP_2を対応付けの特定対象とし、取り皿SP_1と同様の方法に従って、取り皿SP_2に対応する人物Uを特定する。
 第1の特定方法において、取り皿SPに対応する人物Uの特定精度を高めるために、特定部23は、複数の静止画像Pの各々について、取り皿SPに対応する人物Uを特定することが好ましい。特定部23は、取り皿SPに対応する人物Uとして特定された回数が最も多い人物Uを、取り皿SPに対応する人物Uとして特定する。
 第2の特定方法において、特定部23は、動画像情報MIに基づいて、取り皿SPに重なる移動用器具を特定する。特定部23は、特定した移動用器具を持つ手の人物Uを、取り皿SPに対応する人物Uとして特定する。例えば、特定部23は、動画像情報MIのうち、取り皿SPと移動用器具とが重なる静止画像Pを示す画像情報PIを抽出し、抽出した画像情報PIが示す静止画像Pを解析して、移動用器具を持つ手の人物Uを特定する。
 第2の特定方法において特定精度を高めるために、特定部23は、動画像情報MIのうち、取り皿SPと移動用器具とが重なる静止画像Pを示す画像情報PIを複数抽出し、複数の画像情報PIの各々について、対応付けの特定対象とする取り皿SPに対応する人物Uを特定することが好ましい。特定部23は、対応付けの特定対象とする取り皿SPに対応する人物Uとして特定された回数が最も多い人物Uを、対応付けの特定対象とする取り皿SPに対応する人物Uとして特定する。
 特定部23は、取り皿SPと人物Uとの対応付けを示す対応付け情報RIを出力する。
 図5は、対応付け情報RIの一例を示す図である。対応付け情報RIは、取り皿SPを示す皿識別情報PIDと、取り皿SPに対応する人物Uを示す人物識別情報UIDとの対応付けを示す。図5の例示では、対応付け情報RIは、取り皿SP_1が人物U_1に対応付けられており、取り皿SP_2が人物U_2に対応付けられていることを示す。
 なお、図5では例示していないが、複数の取り皿SPが、同一の人物Uに対応付けられてもよい。複数の食べ物FDの味が混ざらないように、ある一人の人物Uが、複数の食べ物FDの各々に対応する取り皿SPを用いることがあるためである。例えば、ある人物Uが、肉料理用の取り皿SPと、魚介料理用の取り皿SPとを用いている場合、ある人物Uに対応付けられる取り皿SPは、2つである。また、取り皿SPに対応付けられない人物Uがいてもよい。従って、人物Uの数と取り皿SPの数とは、互いに一致してもよいし、互いに異なってもよい。
 説明を図3に戻す。推定部24は、動画像情報MIに基づいて、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を推定する。例えば、記憶装置30が、食べ物FDの種別ごとに、食べ物FDの単位面積当たりのカロリー数を記憶しておく。記憶内容の一例として、記憶装置30は、麺料理の単位面積当たりのカロリー数がc1カロリーであることを記憶する。同様に、記憶装置30は、野菜料理の単位面積当たりのカロリー数がc2カロリーであり、肉料理の単位面積当たりのカロリー数がc3カロリーであり、魚介料理の単位面積当たりのカロリー数がc4カロリーであることを記憶する。c1、c2、c3、及び、c4は、0より大きい実数である。推定部24は、動画像情報MIに含まれる画像情報PIが示す静止画像Pにおいて、静止画像Pに含まれる食べ物FDの像の面積を測定し、得られた面積を単位面積で除した値に、識別情報生成部22が識別した食べ物FDの種別に対応したカロリー数を乗じた値を、食べ物FDの量として推定する。
 推定部24は、動画像情報MIに含まれる複数の画像情報PIのうち、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pを示す画像情報PIに基づいて、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を推定する。前述の物体は、例えば、人物U、移動用器具、及び、コップ等である。大皿CP及び複数の取り皿SPが物体によって遮られていないとは、大皿CP及び複数の取り皿SPの全てが物体に遮られていなくてもよいし、大皿CPの一部及び複数の取り皿SPのいずれかの取り皿SPの一部が物体に遮られていなくてもよい。以下の説明では、大皿CP及び複数の取り皿SPが物体によって遮られていないとは、大皿CP及び複数の取り皿SPの全てが物体に遮られていないこととして説明する。
 図6は、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pの一例を示す図である。図6では、動画像情報MIに含まれる画像情報PI_xが示す静止画像P_xと、画像情報PI_yが示す静止画像P_yとを例示する。図6に例示する静止画像P_xは、図4に例示する静止画像P_xと同一である。図6に例示する静止画像P_yには、人物U_1の像、人物U_2の像、大皿CPの像、取り皿SP_1の像、取り皿SP_2の像、食べ物FD_CPの像、食べ物FD_SP1の像、及び、食べ物FD_SP2の像に加えて、トングTOの像及び手HDの像が含まれる。手HDは、トングTOを持っている。図6では、図面の煩雑化を防ぐため、手HDに対応する腕部分の描画を省略している。
 静止画像P_xにおいて、大皿CP及び複数の取り皿SPの各々を遮る物体がない。一方、静止画像P_yにおいて、大皿CPの一部がトングTOによって遮られている。従って、推定部24は、静止画像P_xを示す画像情報PI_xに基づいて、大皿CP及び複数の取り皿の各々に盛られた食べ物FDの量を推定する。
 推定部24は、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を示す食べ物量情報FIを出力する。食べ物量情報FIは、大皿CPに盛られた食べ物FD_CPのカロリー数と、複数の取り皿SPの各々に盛られた食べ物FD_SPのカロリー数とを示す。
 説明を図3に戻す。第1判定部25は、動画像情報MIに基づいて、大皿CPに盛られた食べ物FD_CPの量が、判定時点より所定期間前の大皿CPに盛られた食べ物FD_CPの量と比較して減少したか否かを判定する。所定期間は、どのような時間長の期間でもよいが、人が食べ物を食べる標準的な速度を考慮して定められることが好ましい。例えば、所定期間は、1分以上5分以下の期間であってもよい。第1判定部25は、判定時点より所定期間前の大皿CPに盛られた食べ物FD_CPの量から、現在(判定時点)の大皿CPに盛られた食べ物FD_CPの量を減じた値が所定の閾値以上である場合、大皿CPに盛られた食べ物FD_CPの量が減少したと判定する。
 第2判定部26は、第1判定部25の判定結果が肯定の場合、動画像情報MIに基づいて、複数の人物Uのうち、ある一人の人物Uが大皿CPの食べ物FD_CPを直接食べたか、又は複数の取り皿SPのうち、ある一つの取り皿SPに大皿CPから食べ物FD_CPが移されたかを判定する。ある一人の人物Uは、「一の人物」の一例である。例えば、第2判定部26は、以下に示す2つの判定方法のいずれか一方の方法を用いる。
 第1の判定方法において、第2判定部26は、複数の取り皿SPの各取り皿SP_iに盛られた食べ物FD_SPiの量が、判定時点より所定期間前の各取り皿SP_iに盛られた食べ物FD_SPの量と比較して増加したか否かを判定する。iは、1から取り皿SPの総数までの各整数である。食べ物FD_SPが増加した取り皿SP_iがある場合、第2判定部26は、ある一つの取り皿SPに食べ物FD_CPが移されたと判定する。一方、食べ物FD_SPが増加した取り皿SPが1つもない場合、ある人物Uが大皿CPから食べ物FD_CPを直接食べたことを意味する。よって、第2判定部26は、ある一人の人物Uが大皿CPの食べ物FD_CPを食べたと判定する。
 第2の判定方法において、第2判定部26は、第1判定部25の判定結果が肯定を示す場合、動画像情報MIに基づいて、大皿CPに盛られた食べ物FD_CPの移動先を追跡することを開始する。次に、第2判定部26は、動画像情報MIに基づいて、追跡中の食べ物FD_CHを運ぶ移動用器具を持つ手の人物Uを特定する。そして、第2判定部26は、動画像情報MIに基づいて、追跡中の食べ物FD_CHが複数の取り皿SPに移されることなく消滅したか否かを判定する。食べ物FD_CHが消滅した場合、移動用器具を持つ手の人物Uが大皿CPから食べ物FDを直接食べた人物Uであるから、第2判定部26は、移動用器具を持つ手の人物Uが大皿CPに盛られた食べ物FDを食べた人物Uであると判定する。一方、第2判定部26は、追跡中の食べ物FD_CHが複数の取り皿SPのうち、ある一つの取り皿SPに移された場合、ある一つの取り皿SPに移されたと判定する。
 図7は、第2判定部26における第2の判定方法を示す図である。図7では、動画像情報MIに含まれる画像情報PI_aが示す静止画像P_aと、画像情報PI_bが示す静止画像P_bと、画像情報PI_cが示す静止画像P_cとを例示する。a、b、及び、cは、1からNまでの整数であり、a<b<cの関係を有する。
 静止画像P_a、静止画像P_b、及び、静止画像P_cには、人物U_1の像、人物U_2の像、大皿CPの像、取り皿SP_1の像、取り皿SP_2の像、食べ物FD_CPの像、食べ物FD_SP1の像、及び、食べ物FD_SP2の像に加えて、スプーンSOの像及び手HDの像が含まれる。
 静止画像P_bに基づいて、第1判定部25は、大皿CPに盛られた食べ物FD_CPの量が、静止画像P_aを撮像した時の大皿CPに盛られた食べ物FD_CPと比較して減少したと判定する。従って、第2判定部26は、静止画像P_bに基づいて、大皿CPに盛られた食べ物FD_CPの移動先を追跡することを開始する。静止画像P_bが得られたタイミングから、第2判定部26は、スプーンSOに盛られた食べ物FD_CHの追跡を開始する。追跡対象の食べ物FD_CHは、静止画像P_aを撮像した時には大皿CPに盛られた食べ物FD_CPの一部であった食べ物である。第2判定部26は、追跡対象の食べ物FD_CHを運ぶスプーンSOを持つ手の人物Uを特定する。
 移動用器具を持つ手の人物Uの特定方法としては、以下に示す2つの態様がある。第1の態様の特定方法において、第2判定部26は、移動用器具を持つ手の腕の輪郭を抽出して、抽出した腕の輪郭と繋がる人物Uを、移動用器具を持つ手の人物Uとして特定する。
 第2の態様の特定方法において、第2判定部26は、移動用器具を持つ手と複数の人物Uの各々との距離を算出し、算出された複数の距離の中から最も短い距離に位置する人物Uを、移動用器具を持つ手の人物Uとして特定する。移動用器具を持つ手と人物Uとの距離は、例えば、以下に示す2つの態様がある。第1の態様における距離は、移動用器具を持つ手における人物Uに最も近い端部から、人物Uにおける移動用器具を持つ手に最も近い端部までの距離である。第2の態様における距離は、移動用器具を持つ手の重心から人物Uの重心までの距離である。以下では、移動用器具を持つ手と人物Uとの距離は、第2の態様であるとして説明する。
 静止画像P_bの例示において、第2判定部26は、スプーンSOを持つ手HDと人物U_1との距離HL_1と、手HDと人物U_2との距離HL_2とをそれぞれ算出する。静止画像P_bにおいて、人物U_1内の黒丸が人物U_1の重心を示し、人物U_2内の黒丸が人物U_2の重心を示し、手HD内の黒丸が手HDの重心を示す。静止画像P_bの例示のように、第2判定部26は、距離HL_1と距離HL_2とのうち、最も短い距離HL_2に位置する人物U_2を、スプーンSOを持つ手の人物Uとして特定する。
 静止画像P_cでは、追跡対象の食べ物FD_CHが複数の取り皿SPに移されることなく消滅している。従って、第2判定部26は、スプーンSOを持つ手の人物Uとして特定した人物U_2が大皿CPに盛られた食べ物FDを食べたと判定する。
 説明を図3に戻す。第3判定部28は、複数の取り皿SPのうち、ある一つの取り皿SPに盛られた食べ物FD_SPの量が、判定時点より所定期間前における、ある一つの取り皿SPに盛られた食べ物FD_SPの量と比較して減少したか否かを判定する。
 摂取情報生成部29は、第2判定部26、及び、第3判定部28の判定結果、並びに、特定部23が出力した対応付け情報RIに基づいて、摂取情報TIを生成する。摂取情報TIを生成する契機は、以下に示す2つの契機がある。
 第1の契機は、第2判定部26の判定結果が、ある一人の人物Uが大皿CPに盛られた食べ物FD_CPを食べたことを示す場合である。この場合、摂取情報生成部29は、この人物Uが食べた食べ物FDの量、この人物U、及び、この人物Uが食べた食べ物FDの種別を対応付ける摂取情報TIを生成する。より詳細には、摂取情報TIは、食べ物FDの量と、食べ物FDを食べた人物Uを識別する人物識別情報UIDと、食べ物FDの種別を識別するFTIDとを対応付けた情報である。第2判定部26の判定結果が、ある一つの取り皿SPに食べ物が移されたことを示す場合には、推定部24は、この取り皿SPに盛られた食べ物FD_SPの量を、大皿CPに盛られた食べ物FD_CPが減少した量だけ増加させる。
 第2の契機は、第3判定部28の判定結果が肯定である場合、すなわち、ある一つの取り皿SPに盛られた食べ物FD_SPの量が減少した場合である。この場合、摂取情報生成部29は、この取り皿SPに対応付けられた人物U、この取り皿SPに盛られた食べ物FD_SPから減少した食べ物FDの量、及び、この食べ物FDの種別を対応付ける摂取情報TIを生成する。
 図8は、摂取情報TIの記憶内容の一例を示す図である。図8は、摂取情報TI_1~摂取情報TI_Mを例示する。Mは、1以上の整数である。図8に例示する摂取情報TIは、人物識別情報UID、食べ物FDの量、及び、食べ物識別情報FTIDに加えて、時刻情報と、摂取態様情報とを対応付けた情報である。時刻情報及び摂取態様情報は、摂取情報TIに含まれていなくてもよい。時刻情報は、人物Uが食べ物FDを食べた時刻を示す。摂取態様情報は、人物Uが大皿CPから直接食べ物FDを食べたか、又は、取り皿SPから食べ物FDを食べたかを示す。
 摂取情報生成部29は、上述の第2の契機によって摂取情報TI_1及び摂取情報TI_2を生成しており、第1の契機によって摂取情報TI_Mを生成する。摂取情報TI_1は、12時0分1秒に、人物U_1が、FT_1に対応する食べ物の種別を、xxカロリー分、取り皿SP_1から食べたことを示す。
 摂取情報生成部29は、生成した摂取情報TIを、記憶装置30又は通信装置40に出力する。
1.3.食事量推定システム1の動作
 図9~図11Bを用いて、食事量推定システム1の動作について説明する。
 図9、図10、図11A、及び図11Bは、食事量推定システム1の動作を示すフローチャートである。図9、図10、図11A、及び図11Bに例示する動作が開始する契機は、例えば、以下に示す2つの契機がある。第1の契機は、人物Uが食事を終了し、撮像装置90が、食事中の人物Uの像が含まれた動画像を示す動画像情報MIを生成した場合である。第2の契機は、撮像装置90が、所定数の静止画像Pを含む動画像情報MIを生成した場合である。
 処理装置20は、取得部21として機能することにより、撮像装置90から、動画像情報MIを取得する(ステップS1)。次に、処理装置20は、識別情報生成部22として機能することにより、複数の人物Uと、大皿CPと、複数の取り皿SPと、大皿CP又は取り皿SPに盛られた食べ物FDの種別とを識別する(ステップS2)。
 そして、処理装置20は、特定部23として機能することにより、複数の取り皿SPの各々が、複数の人物Uのうちいずれの人物Uに対応するかを特定する(ステップS3)。次に、処理装置20は、推定部24として機能することにより、抽出したフレームに基づいて、大皿CPと複数SPの取り皿の各々とに盛られた食べ物の量を推定する(ステップS4)。処理装置20は、推定部24として機能することにより、動画像情報MIから、食べ物FDの量を検出できたフレーム群をフレームセットAとして選択する(ステップS5)。更に、処理装置20は、推定部24として機能することにより、精度良く食べ物の量を検出できたフレーム群をフレームセットBとして選択する(ステップS6)。精度良く食べ物の量を検出できたフレーム群は、言い換えれば、大皿CP及び複数の取り皿SPが物体によって遮られていないフレーム群である。
 図10において、処理装置20は、フレームセットBのうち先頭のフレームをフレームXとして選択する(ステップS11)。次に、処理装置20は、フレームセットBにおけるフレームXの次のフレームを、フレームYとして選択する(ステップS12)。そして、処理装置20は、第1判定部25又は第3判定部28として機能することにより、フレームXと比較した、フレームYにおける大皿CP又は複数の取り皿SPの各々に盛られた食べ物FDの減少量ΔFDが所定の閾値以上かを判定する(ステップS13)。言い換えると、ステップS13の処理では、処理装置20は、下記に示す減少量ΔFD_CP及び減少量ΔFD_SPiのうちいずれかが所定の閾値以上かを判定する。iは、1から取り皿SPの総数までの各整数である。
 ΔFD_CP=フレームXにおける大皿CPに盛られた食べ物FD_CP-フレームYにおける大皿CPに盛られた食べ物FD_CP
 ΔFD_SPi=フレームXにおける取り皿SP_iに盛られた食べ物FD_SPi-フレームYにおける取り皿SP_iに盛られた食べ物FD_SPi
 ステップS13の判定結果が肯定である場合、処理装置20は、フレームXからフレームYまでの時間を示す情報を、減少期間情報として記憶装置30に記憶させる(ステップS15)。続けて、処理装置20は、所定の閾値以上である減少量ΔFDを、記憶装置30に記憶する(ステップS16)。処理装置20は、所定の閾値以上である減少量ΔFDに対応する皿の皿識別情報PIDを記憶装置30に記憶する(ステップS17)。減少期間情報と、減少量ΔFDと、皿識別情報PIDとは相互に対応付けられて記憶装置30に記憶される。
 そして、処理装置20は、フレームセットBにおけるフレームYの次以降のフレーム群を新たなフレームセットBとして更新する(ステップS18)。フレームセットBにおけるフレームYの位置が末尾であれば、更新後のフレームセットBに含まれるフレームの数は0である。
 処理装置20は、更新後のフレームセットBが1以上のフレームを有するか否かを判定する(ステップS19)。ステップS19の判定結果が肯定である場合、処理装置20は、処理をステップS11に戻す。
 ステップS19の判定結果が否定である場合、即ち、フレームセットBが1つもフレームを有しない場合、図11Aにおいて、処理装置20は、ステップS15の処理で記憶装置30に記憶された1以上の減少期間情報のうち、最も古い時間を示す減少期間情報を選択する(ステップS31)。
 ステップS13の判定結果が否定である場合、即ち、減少量ΔFD_CP及び減少量ΔFD_SPiの全てが所定の閾値未満である場合、処理装置20は、フレームセットBにおけるフレームYの次のフレームがあるか否かを判定する(ステップS21)。ステップS21の判定結果が肯定である場合、処理装置20は、フレームセットBにおけるフレームYの次のフレームを、フレームYとして選択し(ステップS22)、再びステップS13の処理を実行する。一方、ステップS21の判定結果が否定である場合、処理装置20は、ステップS31の処理を実行する。
 ステップS31の処理終了後、処理装置20は、フレームセットAから、選択した減少期間情報が示す時間に含まれるフレーム群を、フレームセットCとして選択する(ステップS32)。
 処理装置20は、ステップS17の処理によって記憶した皿識別情報PIDを参照して、食べ物FDが減少した皿が大皿CPか又は取り皿SPかを判定する。具体的には、処理装置20は、食べ物FDが減少した皿が大皿CPか否かを判定する(ステップS33)。判定結果が肯定の場合、すなわち、食べ物FDが減少した皿が大皿CPである場合(ステップS33:Yes)、処理装置20は、第2判定部26として機能することにより、フレームセットCにおいて、大皿CPに盛られた食べ物FD_CPの移動先を追跡することを開始する(ステップS34)。続けて、処理装置20は、第2判定部26として機能することにより、追跡対象の食べ物FD_CHを運ぶ食卓用器具を持つ手の人物Uを特定する(ステップS35)。処理装置20は、第2判定部26として機能することにより、追跡対象の食べ物FD_CHの移動先に基づいて、特定された人物Uが大皿CPから直接食べ物FDを食べたか、又は食べ物FDが取り皿SPに移されたかを判定する。具体的には、処理装置20は、特定された人物Uが大皿CPから直接食べ物FDを食べたか否かを判定する(ステップS36)。
 なお、ステップS33においては、処理装置20は、食べ物FDが減少した皿が大皿CPか否かを判定する代わりに食べ物FDが減少した皿が取り皿SPか否かを判定してもよい。同様に、ステップS36においては、処理装置20は、特定された人物Uが大皿CPから直接食べ物FDを食べたか否かを判定する代わりに食べ物FDが取り皿SPに移されたか否かを判定してもよい。
 特定された人物Uが大皿CPから直接食べ物FDを食べた場合、言い換えれば、追跡対象の食べ物FD_CHが複数の取り皿SPに移されることなく消滅した場合(ステップS36:Yes)、処理装置20は、摂取情報生成部29として機能することにより、食べ物FDの減少量ΔFD、大皿CPから直接食べた人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する(ステップS37)。一方、ステップS36における判定結果が否定の場合、すなわち、追跡中の食べ物FD_CHが取り皿SPに移された場合(ステップS36:No)、処理装置20は、推定部24として機能することにより、追跡中の食べ物FD_CHが移された取り皿SPに盛られた食べ物FDの量を、食べ物FDの減少量ΔFDだけ増加する(ステップS38)。
 ステップS33の判断結果が否定の場合、すなわち、食べ物FDが減少した皿が取り皿SPである場合(ステップS33:No)、処理装置20は、摂取情報生成部29として機能することにより、食べ物FDの減少量ΔFD、食べ物FDが減少した取り皿SPに対応する人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する(ステップS39)。
 ステップS37の処理終了後、ステップS38の処理終了後、又は、ステップS39の処理終了後、処理装置20は、全ての減少期間情報を選択したか否かを判定する(ステップS40)。ステップS40の判定結果が否定である場合、すなわちまだ選択していない減少期間情報がある場合、処理装置20は、現在選択中の減少期間情報が示す時間の次に古い時間を示す減少期間情報を選択し(ステップS41)、ステップS32の処理を実行する。一方、ステップS40の判定結果が肯定である場合、すなわち全ての減少期間情報を選択した場合、処理装置20は、図9、図10、図11A、及び図11Bに示す一連の処理を終了する。
 以上の説明によれば、処理装置20は、大皿CPに盛られた食べ物FD_CPの量が減少した場合に、ある一人の人物Uが大皿CPの食べ物FDを食べたか、又は食べ物FDが複数の取り皿SPのうち、ある一つの取り皿SPに移されたかを判定する。ある一人の人物Uが大皿CPの食べ物FDを食べた場合、処理装置20は、大皿CPから直接食べた食べ物FDの量、大皿CPから直接食べた人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する。以上のように、処理装置20は、人物Uが大皿CPから直接食べ物FDを食べたことを示す摂取情報TIを生成するため、大皿CPから直接食べた人物Uがいる場合であっても、人物Uの食事量を正確に特定できる。
 また、処理装置20は、複数の取り皿SPのうち、ある一つの取り皿SPに盛られた食べ物FDの量が減少した場合、食べ物FDが減少した量、食べ物FDが減少した取り皿SPに対応する人物U、及び、食べ物FDの種別を対応付ける摂取情報TIを生成する。以上のように、処理装置20は、人物Uが取り皿SPから食べ物を食べたことを示す摂取情報TIを生成するため、取り皿SPに食べ物を取り分ける場合であっても、人物Uの食事量を正確に特定できる。
 また、特定部23における第1の特定方法として、複数の取り皿SPのうち、対応付けの特定対象とする取り皿SPと、複数の人物Uの各々との距離を算出し、算出された複数の距離の中から最も短い距離に位置する人物Uを、特定対象の取り皿SPに対応する人物Uとして特定する。第1の特定方法は、第2の特定方法と比較すると、取り皿SPと移動用器具とが重なる静止画像Pを探索しなくてよい。従って、第1の特定方法によれば、第2の特定方法と比較して、取り皿SPに対応する人物Uを容易に特定できる。
 また、推定部24は、動画像情報MIが有する各画像情報PIのうち、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pを示す画像情報PIに基づいて、大皿CP及び複数の取り皿SPの各々に盛られた食べ物FDの量を推定する。大皿CP又は複数の取り皿SPのいずれかが物体によって遮られている静止画像Pを用いて食べ物FDの量を推定すると、物体に食べ物FDが隠れている場合に、食べ物FDの量が実際よりも少ない量であると誤推定してしまう。そこで、大皿CP及び複数の取り皿SPが物体によって遮られていない静止画像Pを示す画像情報PIを用いることにより、推定部24は、食べ物FDの量の推定精度を向上できる。
 また、第2判定部26は、大皿CPに盛られた食べ物FD_CPの量が減少した場合、動画像情報MIに基づいて、大皿CPに盛られた食べ物FDの移動先を追跡することを開始する。そして、第2判定部26は、移動中の食べ物FD_CHを運ぶ移動用器具を持つ手の人物Uを特定し、移動中の食べ物FD_CHが複数の取り皿SPに移されることなく消滅した場合に、移動用器具を持つ手の人物Uが、大皿CPに盛られた食べ物FD_CPを食べたと判定する。移動中の食べ物FD_CHが複数の取り皿SPに移されることなく消滅していることが確認されているため、大皿CPから食べ物FDを直接食べたことが正確に判定される。
 また、移動用器具を持つ手の人物Uの第2の態様の特定方法として、第2判定部26は、動画像情報MIに基づいて、大皿CPを持つ手と複数の人物Uの各々との距離を算出し、算出された複数の距離の中から最も短い距離に位置する人物Uを、大皿CPを持つ手の人物Uとして特定する。第2の態様の特定方法は、第1の態様の特定方法と比較して、移動用器具を持つ手の腕の輪郭を抽出しなくてよい。従って、第2の態様の特定方法によれば、第1の態様の特定方法と比較して、移動用器具を持つ手の人物Uを容易に特定できる。
2.変形例
 以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜に併合され得る。なお、以下に例示する変形例において作用や機能が実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
(1)実施形態において、大皿CPは、複数の人物が摂取する飲食物が盛られた第1種別の器の一例であると説明したが、第1種別の器は、皿に限らない。例えば、第1種別の器は、鍋及び飯櫃等でもよい。飯櫃は、炊き上がった飯を釜から移し入れておく為の櫃である。
(2)上述した各態様において、複数の取り皿SPは、飲食物の一部が盛られる第2種別の複数の器の一例であると説明したが、第2種別の器は、皿に限らない。例えば、第2種別の器は、鍋内の飲食物を取り分ける為に用いる呑水でもよいし、飯櫃内の飯を取り分ける為に用いる茶碗でもよい。呑水とは、縁の一部が突出した小鉢である。
(3)上述した各態様において、一般的に、取り皿SPは大皿CPより小さいことを記載したが、これに限らない。例えば、人物Uによっては、複数の大皿CPの各々に盛られた食べ物を、同一の取り皿SPに移動させる場合がある。この場合、取り皿SPに複数の種別の食べ物FDを盛るため、大皿CPと取り皿SPとがほぼ同一の大きさである場合もあるし、取り皿SPが大皿CPより大きい場合もある。
 大皿CPと取り皿SPとがほぼ同一の大きさであり、大きさでは区別できない場合、識別情報生成部22は、上述した大皿CPと取り皿SPとの第2の識別方法以外の方法として、例えば、下記に示す第3の識別方法又は第4の識別方法を用いて大皿CPと取り皿SPとを識別してもよい。第3の識別方法において、識別情報生成部22は、食事を開始した時点において、食べ物FDが盛られた皿を大皿CPとして識別し、食べ物FDが盛られていない皿を取り皿SPとして識別する。第4の識別方法において、識別情報生成部22は、人物Uが大皿CPと取り皿SPとを指差すことにより、大皿CPと取り皿SPとを識別する。より詳細に第4の識別方法を説明する。前提として、食事量推定システム1は、スピーカを有する。識別情報生成部22は、スピーカに、「大皿を所定の秒数間指差して下さい」という旨の音声を出力させる。識別情報生成部22は、前述の音声出力後において撮像装置90が撮像した動画像を示す動画像情報を解析して、所定の秒数の間、人物Uが指差した皿を大皿CPとして識別する。同様に、識別情報生成部22は、スピーカに、「取り皿を所定の秒数間指差して下さい。所定の秒数経過後、指差ししていない取り皿を所定の秒数間指差して下さい」という旨の音声を出力させる。識別情報生成部22は、前述の音声出力後において撮像装置90が撮像した動画像を示す動画像情報を解析して、所定の秒数の間、人物Uが指差した皿を取り皿SPとして識別する。
(4)上述した各態様において、食べ物FDは、大皿CPから取り皿SPに取り分けられ、人物Uに食べられる。このように、上述した各態様では、食べ物FDは、多くとも2つの皿を経由して人物Uに食べられていたが、これに限らない。例えば、食べ物FDは、3つ以上の皿を経由して人物Uに食べられてもよい。
(5)上述した各態様において、取り皿SPに盛られた食べ物FDが減少した場合、人物Uに食べられる場合のみを記載したが、食べ物FDが取り皿SPから大皿CPに戻される場合もあるし、食べ物FDが他の取り皿SPに移動する場合もある。処理装置20は、取り皿SPに盛られた食べ物FDが減少した場合に食べ物FDの移動先を追跡することにより、食べ物FDが人物Uに食べられたか、食べ物FDが大皿CPに戻されたか、又は、食べ物FDが他の取り皿に移動したかを特定することができる。
(6)上述した各態様において、取り分ける飲食物として、食べ物を用いて説明したが、飲み物でもよい。例えば、底の深い大皿CP内のスープを、底の深い取り皿SPに取り分ける場合であっても、上述した各態様を適用できる。
(7)上述した各態様において、情報処理装置10は、部屋LRの天井に取り付けられていたが、これに限らない。例えば、情報処理装置10は、食卓Tbの天板上面に取り付けられてもよい。又は、情報処理装置10は、部屋LRの外部に設置されていてもよい。部屋LRの外部に情報処理装置10が設置される場合、情報処理装置10は、撮像装置90に対して、移動体通信網又はインターネット等のネットワークを介してアクセスする。
(8)上述した各態様において、情報処理装置10は、部屋LRの天井に取り付けられた、可搬型でないコンピュータを想定しているが、これに限らず、スマートフォン又はタブレット端末等の可搬型の端末装置でもよい。
(9)上述した各態様において、情報処理装置10は、撮像装置90を有さないが、撮像装置90を有してもよい。
(10)上述した各態様の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
(11)上述した各態様における処理手順、シーケンス、フローチャートなどは、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(12)上述した各態様において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(13)上述した各態様において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(14)上述した各態様では、記憶装置30は、処理装置20が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、ネットワークから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。
(15)上述した各態様は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
(16)上述した各態様において、説明した情報及び信号などは、様々な異なる技術の何れかを使用して表されてもよい。例えば、上述の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
 なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
(17)図3に例示された各機能は、ハードウェア及びソフトウェアの任意の組み合わせによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。
(18)上述した各実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(19)上述した各実施形態において、情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。
(20)上述したパラメータに使用する名称はいかなる点においても限定的なものではない。更に、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。
(21)上述した各実施形態において、情報処理装置10は、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
(22)上述した各実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(23)本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。従って、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
(24)上述した各実施形態において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。更に、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(25)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
(26)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
 1…食事量推定システム、10…情報処理装置、20…処理装置、21…取得部、22…識別情報生成部、23…特定部、24…推定部、25…第1判定部、26…第2判定部、28…第3判定部、29…摂取情報生成部、30…記憶装置、90…撮像装置、CP…大皿、FD…食べ物、MI…動画像情報、P…静止画像、PI…画像情報、TO…トング、U…人物。

Claims (6)

  1.  複数の人物が摂取する飲食物が盛られた第1種別の器と前記飲食物の一部が盛られる第2種別の複数の器とが配置された卓、及び、前記複数の人物を、撮像することによって得られた動画像を示す動画像情報を取得する取得部と、
     前記動画像情報に基づいて、前記複数の人物の各々を識別する第1識別情報、前記第1種別の器及び前記第2種別の複数の器の各々を識別する第2識別情報、並びに、前記飲食物の種別を識別する第3識別情報を生成する識別情報生成部と、
     前記動画像情報に基づいて、前記第1種別の器及び前記第2種別の複数の器の各々に盛られた前記飲食物の量を推定する推定部と、
     前記動画像情報に基づいて、判定時点における前記第1種別の器に盛られた飲食物の量が、当該判定時点より所定期間前の前記第1種別の器に盛られた飲食物の量と比較して減少したか否かを判定する第1判定部と、
     前記第1判定部の判定結果が肯定を示す場合、前記動画像情報に基づいて、前記複数の人物のうち一の人物が前記第1種別の器に盛られた飲食物を摂取したか、又は当該飲食物が前記第2種別の複数の器のうち一の器に移されたかを判定する第2判定部と、
     前記一の人物が前記第1種別の器に盛られた飲食物を摂取したことを前記第2判定部の判定結果が示す場合、前記一の人物が摂取した飲食物の量、前記一の人物、及び、当該飲食物の種別を対応付ける摂取情報を生成する摂取情報生成部とを備え、
     前記推定部は、前記第2判定部の判定結果が前記一の器に前記飲食物が移されたことを示す場合、前記第2種別の前記一の器に盛られた飲食物の量を、前記第1種別の器に盛られた飲食物が減少した量だけ増加させる、
     情報処理装置。
  2.  前記動画像情報に基づいて、前記第2種別の複数の器の各々が、前記複数の人物のうちいずれの人物に対応するかを特定する特定部と、
     判定時点における前記第2種別の複数の器のうち一の器に盛られた飲食物の量が、当該判定時点より前記所定期間前の前記一の器に盛られた飲食物の量と比較して減少したか否かを判定する第3判定部とを備え、
     前記摂取情報生成部は、前記第3判定部の判定結果が肯定を示す場合、前記第2種別の前記一の器に対応する人物、前記第3判定部による判定時点より前記所定期間前の時点の前記一の器に盛られた飲食物から減少した飲食物の量、及び、当該飲食物の種別を対応付ける摂取情報を生成する、
     請求項1に記載の情報処理装置。
  3.  前記特定部は、
     前記第2種別の複数の器のうち一の器と、前記複数の人物の各々との距離を算出し、
     当該複数の人物について算出された複数の距離の中から最も短い距離に位置する人物を、前記一の器に対応する人物として特定する、
     請求項2に記載の情報処理装置。
  4.  前記動画像情報は、複数のフレームの各々について静止画像を示す画像情報を有し、
     前記推定部は、前記複数のフレームにそれぞれ対応する複数の画像情報のうち、前記第1種別の器及び前記第2種別の複数の器のいずれもが物体によって遮られていない静止画像を示す画像情報に基づいて、前記第1種別の器及び前記第2種別の複数の器の各々に盛られた前記飲食物の量を推定する、
     請求項1から3のいずれか1項に記載の情報処理装置。
  5.  前記第2判定部は、
     前記第1判定部の判定結果が肯定を示す場合、前記動画像情報に基づいて、前記第1種別の器に盛られた飲食物の移動先を追跡することを開始し、
     前記動画像情報に基づいて、当該飲食物を移動させる器具を持つ手の人物を特定し、
     前記動画像情報に基づいて、当該飲食物が前記第2種別の複数の器に移されることなく消滅した場合に、前記器具を持つ手の人物が前記第1種別の器に盛られた飲食物を摂取した前記一の人物であると判定する、
     請求項1から4のいずれか1項に記載の情報処理装置。
  6.  前記第2判定部は、
     前記動画像情報に基づいて、前記器具を持つ手と前記複数の人物の各々との距離を算出し、前記複数の人物について算出された複数の距離の中から最も短い距離に位置する人物を、前記器具を持つ手の人物として特定する、
     請求項5に記載の情報処理装置。
PCT/JP2020/042073 2019-11-15 2020-11-11 情報処理装置 WO2021095767A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/769,927 US20220386797A1 (en) 2019-11-15 2020-11-11 Information processing apparatus
JP2021556122A JP7284829B2 (ja) 2019-11-15 2020-11-11 情報処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-206663 2019-11-15
JP2019206663 2019-11-15

Publications (1)

Publication Number Publication Date
WO2021095767A1 true WO2021095767A1 (ja) 2021-05-20

Family

ID=75912698

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042073 WO2021095767A1 (ja) 2019-11-15 2020-11-11 情報処理装置

Country Status (3)

Country Link
US (1) US20220386797A1 (ja)
JP (1) JP7284829B2 (ja)
WO (1) WO2021095767A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102670002B1 (ko) * 2023-02-15 2024-05-28 한윤희 식단 모니터링 기능을 구비한 급식 관리 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028382A (ja) * 2009-07-22 2011-02-10 Kddi Corp 利用者毎に食事の栄養成分を管理する栄養管理サーバ及び栄養管理方法
JP2015146168A (ja) * 2014-02-04 2015-08-13 株式会社吉田製作所 食生活管理プログラム、食生活管理方法、および食生活管理装置
JP2018049393A (ja) * 2016-09-20 2018-03-29 ヤフー株式会社 健康管理装置、健康管理システム、及び健康管理方法
JP2018106580A (ja) * 2016-12-28 2018-07-05 キヤノンマーケティングジャパン株式会社 情報処理装置、システム、及びそれらの制御方法、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028382A (ja) * 2009-07-22 2011-02-10 Kddi Corp 利用者毎に食事の栄養成分を管理する栄養管理サーバ及び栄養管理方法
JP2015146168A (ja) * 2014-02-04 2015-08-13 株式会社吉田製作所 食生活管理プログラム、食生活管理方法、および食生活管理装置
JP2018049393A (ja) * 2016-09-20 2018-03-29 ヤフー株式会社 健康管理装置、健康管理システム、及び健康管理方法
JP2018106580A (ja) * 2016-12-28 2018-07-05 キヤノンマーケティングジャパン株式会社 情報処理装置、システム、及びそれらの制御方法、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102670002B1 (ko) * 2023-02-15 2024-05-28 한윤희 식단 모니터링 기능을 구비한 급식 관리 시스템

Also Published As

Publication number Publication date
JPWO2021095767A1 (ja) 2021-05-20
JP7284829B2 (ja) 2023-05-31
US20220386797A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
KR102003149B1 (ko) 정보 생성 방법 및 디바이스
US9159088B2 (en) Generating a location-aware preference and restriction-based customized menu
JP6299744B2 (ja) 情報処理装置および記憶媒体
US20140095479A1 (en) Device, method, and system for recipe recommendation and recipe ingredient management
US10013755B2 (en) Information processing apparatus and information processing method
WO2018233489A1 (zh) 用餐推荐方法及装置
CN105844445B (zh) 信息提供方法、服务器以及信息提供系统
Bruno et al. A survey on automated food monitoring and dietary management systems
US11763437B2 (en) Analyzing apparatus and method, and image capturing system
CN109493254A (zh) 一种菜品制作排序与催菜方法、装置以及菜品处理系统
US20170169189A1 (en) Method and apparatus for receiving nutritional information via a network
CN109431288A (zh) 一种电饭煲控制方法、装置、存储介质及电饭煲
US20190080629A1 (en) Monitoring food intake
JP2021513708A (ja) 食品を分類する方法及びシステム
WO2021095767A1 (ja) 情報処理装置
CN106096993A (zh) 餐馆推荐方法及装置、电子设备
CN107851183A (zh) 用于提供食谱的系统和方法
JP2010061381A (ja) 自動レシピ作成装置およびプログラム
CN112053428A (zh) 一种识别食物所含营养信息的方法及装置
CN109300526A (zh) 一种推荐方法及移动终端
CN107657992A (zh) 基于饮食的医疗服务系统
US11928150B1 (en) Image-based item identification
CN111863194A (zh) 一种饮食信息的展示方法、装置、设备及存储介质
CN109074861A (zh) 食物监测系统
US20220171837A1 (en) Information processing apparatus, information processing method, and food preservation apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20887659

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021556122

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20887659

Country of ref document: EP

Kind code of ref document: A1