WO2020136725A1 - サーバ装置、情報処理端末、システム、方法およびプログラム - Google Patents

サーバ装置、情報処理端末、システム、方法およびプログラム Download PDF

Info

Publication number
WO2020136725A1
WO2020136725A1 PCT/JP2018/047658 JP2018047658W WO2020136725A1 WO 2020136725 A1 WO2020136725 A1 WO 2020136725A1 JP 2018047658 W JP2018047658 W JP 2018047658W WO 2020136725 A1 WO2020136725 A1 WO 2020136725A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
recipe
output
user
control information
Prior art date
Application number
PCT/JP2018/047658
Other languages
English (en)
French (fr)
Inventor
伸弥 大谷
将之 伊尾木
金子 晃久
朋享 住
純 原島
Original Assignee
クックパッド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クックパッド株式会社 filed Critical クックパッド株式会社
Priority to JP2019500696A priority Critical patent/JP6533634B1/ja
Priority to PCT/JP2018/047658 priority patent/WO2020136725A1/ja
Publication of WO2020136725A1 publication Critical patent/WO2020136725A1/ja
Priority to US17/352,366 priority patent/US20210312830A1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0092Nutrition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied

Definitions

  • the present disclosure relates to a server device, an information processing terminal, a system, a method, and a program for performing suitable recipe output based on the attributes of devices and users.
  • Patent Document 1 discloses a method of supplying cooking recipe data of a search result requested by a user from a host device that stores a plurality of cooking recipe data via a communication network.
  • Patent Document 2 discloses a method of obtaining information on food, cooking, and health via the Internet and outputting the character information, audio information, video information, and the like.
  • Patent Document 2 As described in Patent Document 2, it has already been performed to output text information in a read-out format on so-called smart home appliances, smart speakers, mobile terminals, and the like.
  • the recipe is written on the assumption that it is browsed in a normal text format, and even if it is read out or output in the form of VR, AR, etc., it will be different from the human perception, the pace of thought, and the sense. Therefore, the content of the recipe is likely to be difficult for the user to understand.
  • the above problem may be further increased depending on the output device of the recipe and the attribute of the user.
  • output devices differ in recognition accuracy and habits of vocabulary and clauses, tempo of utterance, etc. due to differences in OS (Operating System) and various engines such as morphological analysis, voice synthesis, and drawing output.
  • OS Operating System
  • various engines such as morphological analysis, voice synthesis, and drawing output.
  • the user is likely to differ in speed and accuracy of information recognition depending on his age and cooking skill.
  • the present disclosure aims to provide a server device, an information processing terminal, a system, a method, and a program for performing a suitable recipe output in consideration of the attributes of a device or a user.
  • a server device based on each information of a recipe information storage unit that stores recipe information, a user who uses the recipe information, and a device used by the user, the server in the device used.
  • a control information generation unit that generates output control information of the recipe information according to the attribute of the user.
  • the information processing terminal includes an information acquisition unit that acquires the output control information from the server device, and an output unit that outputs the recipe information based on the output control information. , Is provided.
  • the system provides a recipe information storage unit that stores recipe information, a user who uses the recipe information, and a device used by the user based on each information of the device used.
  • a server device including a control information generation unit that generates output control information of the recipe information according to an attribute of the user, an information acquisition unit that acquires the output control information from the server device, and the output control information. And an output unit for outputting the recipe information based on the above.
  • the method according to the present disclosure includes the step of storing recipe information in a recipe information storage unit, the use of the recipe information based on each information of a user who uses the recipe information and a device used by the user. Generating output control information of the recipe information in the device according to the attribute of the user.
  • recipe information in the present embodiment both recipe information in which the cooking content is described by a quantitative expression and recipe information in which the cooking content is described by a qualitative expression can be targeted.
  • Recipe information based only on qualitative expressions includes expressions that do not represent the work and ingredients in the cooking process with numerical values such as quantity, temperature, and time. Specifically, the expressions are "bake until the meat smells”, “a little salt”, “boil until the skewers pass through the potatoes", and the like.
  • the recipe obtained in this way is normally viewed on the user's PC or the like and used as it is.
  • VR virtual reality
  • AR Augmented Reality
  • the recipe is written on the assumption that it is browsed in a normal text format, and even if it is read out or output in the form of VR, AR, etc., it will be different from the human perception, the pace of thought, and the sense. Therefore, the content of the recipe is likely to be difficult for the user to understand.
  • the above problem may be further increased depending on the output device of the recipe and the attribute of the user.
  • output devices have different recognition accuracy and habits such as vocabulary and clauses, tempo of utterance, etc. due to differences in OS (Operating System) and various engines such as morphological analysis, speech synthesis and drawing output.
  • OS Operating System
  • various engines such as morphological analysis, speech synthesis and drawing output.
  • the user is likely to differ in speed and accuracy of information recognition depending on his age and cooking skill.
  • the recipe output control system based on the information output tempo in various devices such as an oven, a microwave oven, a refrigerator, or a mobile terminal, and the information recognition ability according to the cooking skill or age of the user,
  • the output control information for outputting at the information output tempo according to the information recognition power of the user is generated and used. This makes it possible to accurately respond to situations where different users use different equipment, or situations where their understanding of cooking skills and ages differ, and to output recipe information at a tempo that is easy for each user to understand. It will be possible.
  • ⁇ Output control information> As an example of the output control information according to the present embodiment, it is assumed that the cooking appliance can read the recipe information including a series of cooking steps, that is, the recipe information described in a quantitative expression.
  • the device to be controlled in this recipe information is a food material or a device related to cooking using it (a device that merely outputs information may be included).
  • the cooking appliance to which the output control information is given performs an action (processing) according to the output control information.
  • the output control information that can be read and read by the cooking appliance is referred to as MRR (Machine Readable Recipe).
  • FIG. 1 is a diagram showing a data structure of output control information according to the embodiment.
  • the output control information that is the MRR according to the embodiment is represented by a graph (directed graph) including a plurality of nodes and edges between the nodes.
  • nodes are indicated by circles and edges are indicated by arrows.
  • Edges represent actions required for state transition between nodes.
  • An action is a basic procedure that constitutes cooking, and for example, a procedure such as “cutting” and “warming” corresponds to the action. Further, the action includes a specific set temperature of the device, cooking time, work content, and the like.
  • the type of action and its ID are specified in advance, or the ID is added afterwards to the type of action to define the list of actions and their IDs, and the edge is given the action ID selected from this list. It The ID may be assigned to the state (intermediate node).
  • the multiple nodes in the graph are the start point of the graph, the material node that represents the ingredients of the dish, the end point of the graph that represents the dish node that represents the dish, and the state of the ingredients on the way to the dish. And an intermediate node to represent.
  • the state of the material means a state after the action is applied, and for example, "material A cut into three equal parts”, “material B cut into 3 cm squares”, “warmed material C”, etc. It corresponds to the state of the material.
  • the data structure of the output control information according to the embodiment does not represent the description of the recipe sentence, which is a natural language, as it is, but represents the state transition of each material as a graph.
  • a material ID that uniquely identifies the material is given to each material, and an action ID that uniquely identifies the action is given to each action required for state transition. Therefore, the machine can easily and surely decode the recipe information based on the ID.
  • a subgraph obtained by removing some edges from a graph as shown in FIG. 1 and removing some isolated nodes from the graph is a specific cooking step among a series of cooking steps shown in the recipe information. It can be regarded as device control information of a cooking process in which cooking equipment is controlled and cooked.
  • Such device control information can be output control information, that is, information for controlling the voice output of cooking contents at the tempo according to the attributes of the above-mentioned device or user. That is, of the cooking processes of the entire recipe information, the device control information in the cooking process performed by a certain specific cooking device can be represented by the subgraph as the output control information.
  • Table 1 shows the types of nodes in the output control information according to this embodiment.
  • each node in the present embodiment is also provided with respective attributes of an output speed (in this case, a reading speed) when outputting information such as “name” and “quantity” of the corresponding node by voice, and an output waiting time. It
  • the output waiting time is the waiting time after the reading output for the node is completed and before the reading output for the edge connected on the graph is performed. Output control of the node is performed based on these attributes.
  • each node When making a dish “salad”, the dish node is “salad”.
  • the material nodes are, for example, “onion”, “cucumber”, “tomato”, “ketchup”, and “mayonnaise”. An ID that uniquely identifies a material is given to each material node.
  • the output speed is set to 75 words/minute
  • the output standby time is 2 seconds, etc. as in the examples of Tables 2 and 3 above, and for each edge, the output speed is 75 words/minute. Minutes, output standby time is set to 5 minutes, and so on.
  • the material node “onion” is connected to the intermediate node “chopped onion” by “cut” which is an edge (action).
  • the material node “cucumber” is connected to the intermediate node “1 cm square cucumber” by “cut” which is an edge (action).
  • the material node “tomato” is connected to the intermediate node “1/2 tomato” by the edge (action) "cut”.
  • the material node “ketchup” and the material node “mayonnaise” are connected to the intermediate node “aurora source” by “mix” which is an edge (action).
  • An ID that uniquely identifies an action is given to each of “cut” and “mix”.
  • the voice of ““onion” “half” is produced at a speed of 75 words/min.
  • the voice of "cutting” is read out at a speed of 75 words/min for the edge (action) connected to the material node.
  • the voice of "Choped onion” was made for the intermediate node is read out at a speed of 75 words/minute.
  • FIG. 2 is a configuration diagram of the recipe output control system 1. The configuration of the recipe output control system 1 will be described with reference to FIG.
  • the recipe output control system 1 includes a device 100, a terminal device 200, and a recipe output control server 300, and is communicably connected to each other via a network NW.
  • the network NW includes a WAN (World Area Network), a LAN (Local Area Network), and the like.
  • the device 100 may directly communicate (for example, near field communication) with the terminal device 200 without passing through the network NW.
  • FIG. 2 one of the device 100 and the terminal device 200 is shown as a representative, but a plurality of devices may be connected to the network NW.
  • the device 100 has a communication function, and is a device related to cooking ingredients or cooking using the same, or a device existing in a kitchen space.
  • the device 100 may be a home electric device used at home or a business device.
  • the device 100 may be any device as long as it is a device related to a material or cooking using it, or a device existing in a kitchen space.
  • a refrigerator a microwave oven, an oven, an electromagnetic cooker, a toaster.
  • Food processor, mixer rice cooker, electric pan, electric fryer, electric steamer, noodle making machine, weighing machine, cooking robot, gas cooker, lighting, etc.
  • the device 100 receives the above-mentioned output control information from the recipe output control server 300, executes voice output of the recipe information based on the output control information, and presents it to the user.
  • the terminal device 200 is a device that has a communication function and provides a user interface.
  • the terminal device 200 posts (transmits) recipe information (recipe text, image data of dishes, etc.) to the recipe output control server 300 in response to a user operation.
  • recipe information recipe text, image data of dishes, etc.
  • the above-mentioned output control information is received from the recipe output control server 300, and based on this, the voice output of the recipe information or the like is executed and presented to the user.
  • the terminal device 200 is an information processing terminal, and is, for example, a mobile terminal (for example, a tablet, a smartphone, a laptop, a feature phone, a portable game machine, an electronic book reader, etc.).
  • the terminal device 200 may be a television receiver (including Internet television), a PC (Personal Computer), a VR (Virtual Reality) terminal, an AR (Augmented Reality) terminal, or the like.
  • the recipe output control server 300 stores the recipe information posted from the terminal device 200, and based on each information of the user who uses this recipe information and the device 100 or the terminal device 200 of the user, the recipe output control server 300 in the device 100 or the terminal device 200.
  • the output control information of the recipe information is generated according to the attribute of the user.
  • the recipe output control server 300 also transmits the generated output control information to the terminal device 200 and the device 100.
  • the output control information has the data structure of the above-described recipe (see FIG. 1, Tables 1 to 3) and is machine-readable.
  • the recipe output control server 300 distributes this output control information to the terminal device 200 and/or the device 100 via the network NW.
  • the recipe output control server 300 receives attribute information such as the cooking skill and age of the user from the terminal device 200, and the OS (Operating System), morphological analysis, and voice of the device 100 or the terminal device 200 from the device 100 or the terminal device 200. It collects various engines such as composition and drawing output, and specification information such as utterance tempo.
  • the device 100 starts an action according to the MRR, which is the output control information described above, in accordance with the distribution.
  • the user of the terminal device 200 performs, on the device 100, an action start operation for causing the device 100 to start an action according to the MRR.
  • the device 100 or the terminal device 200 is provided with a physical button for accepting an action start operation.
  • a software button for accepting an action start operation may be displayed on the device 100 or the terminal device 200.
  • the terminal device 200 or the device 100 performs output control of the recipe information based on the output control information and the automatic operation of the cooking operation in the device 100 based on the output control information that is the MRR is not intended, the above-described device is used.
  • the sequence of actions based on MRR at 100 is optional.
  • FIG. 3 is a block diagram showing a hardware configuration example of each of the device 100, the terminal device 200, and the recipe output control server 300.
  • each of the device 100, the terminal device 200, and the recipe output control server 300 has a CPU 21, a RAM 22, a ROM 23, an auxiliary storage device 24, a communication module 25, an input device 26, and an output.
  • the CPU 21 reads and executes software (program) from the RAM 22 and the ROM 23 that form the main storage device.
  • RAM 22 is used as a work area of CPU 21.
  • the auxiliary storage device 24 is composed of a hard disk, a flash memory, or the like.
  • the communication module 25 is a module that sends and receives data by wire communication or wireless communication.
  • the input device 26 includes a touch panel and/or a keyboard, etc., and receives a user operation.
  • the input device 26 may accept an operation by voice input.
  • the output device 27 includes a display and outputs (displays) various information.
  • the communication module 25 By reading the software on the hardware such as the CPU 21 and the RAM 22, the communication module 25, the input device 26, and the output device 27 are operated under the control of the CPU 21, and the data is read out from the RAM 22 and the auxiliary storage device 24. By writing, a series of functions in each device and each device is realized.
  • the device 100 further includes various mechanisms 28.
  • the various mechanisms 28 are mechanisms for executing actions in the device 100, and are configured by, for example, a heating mechanism, a refrigeration/freezing mechanism, a cutting mechanism, a stirring mechanism, and the like.
  • FIG. 4 is a diagram showing a functional block configuration of the terminal device 200 according to the present embodiment.
  • the terminal device 200 includes a control unit 210, a communication unit 220, a storage unit 230, an operation unit 240, and an output unit 250.
  • the control unit 210 includes a CPU 21, and controls the operation of the terminal device 200.
  • the communication unit 220 is configured to include the communication module 25 and performs communication via the network NW.
  • the communication unit 220 may have a function of directly communicating with the device 100.
  • the storage unit 230 includes a RAM 22, a ROM 23, and an auxiliary storage device 24, and stores various types of information and data.
  • the above-mentioned control unit 210 includes a recipe information acquisition unit 211 and an output control unit 212.
  • the recipe information acquisition unit 212 acquires recipe information from the recipe output control server 300 via the communication unit 220 according to the user's operation on the operation unit 240.
  • a quantitative HRR that includes a quantitative expression and is human-readable
  • an MRR that is recipe information that can be read and read by the device 100 are acquired.
  • the MRR in this case can be the base of the output control information.
  • the recipe information acquisition unit 212 may acquire the recipe information selected by the user from the recipe list displayed on the output unit 250, or may search the recipe output control server 300 using a search condition (keyword or the like). You may acquire the recipe information which matches a condition by performing.
  • the recipe information acquisition unit 212 displays the acquired recipe information on the output unit 250.
  • a button for accepting a voice output request for this recipe information (hereinafter, “output control button”) may be displayed along with such recipe information.
  • the output control unit 212 generates a control request such as voice output of the recipe information in response to the user operating the device control button with respect to the above recipe information, and transmits the generated control request to the communication unit 220. Via the recipe output control server 300.
  • the control request includes a recipe ID corresponding to the selected recipe information.
  • the control request further includes the device ID of the terminal device 200 or device 100 to be controlled. Further, the MRR corresponding to the selected recipe information may be transmitted to the output control server 300.
  • the output control unit 212 Based on the output control information obtained from the recipe output control server 300 in response to the above-described control request, the output control unit 212 outputs the information included in the user-specified MRR node and edge to the output unit 250 at a predetermined tempo or the like. For example, audio output or drawing object output is performed.
  • the storage unit 230 also holds the specification information 231 of the terminal device 200 and the user information 232.
  • the specification information 231 can be assumed to be, for example, an OS (Operating System), various engines such as morphological analysis, voice synthesis, drawing output, and tempo of utterance.
  • the user information 232 as shown in FIG. 6, for example, information regarding the age and cooking skill of the user can be assumed.
  • cooking skills include the presence or absence of cooking experience declared by the user and the length of the cooking experience. For example, a recipe posted by the user on a predetermined recipe posting site, or a report posting of cooking using a recipe posted by another user.
  • the level is determined by a predetermined rule based on various information such as the total number of various activities related to cooking, frequency, evaluation from other users, and the like.
  • the recipe information that the user is going to use that is, the recipe information of the recipe output control target (held in the recipe information DB 331) can also be the target information of the level determination described above.
  • a recipe with excellent cooking skills and a recipe that requires advanced techniques are unlikely to conflict with each other in terms of usage relationships, but it is considered that a person with poor cooking skills may use recipes that require advanced techniques. It is possible to make judgments based on the tendency of difficulty.
  • the recipe information to be used may include the contents of the recipe and evaluations and comments by the user who uses the recipe.
  • the operation unit 240 is configured to include the input device 26 and receives a user operation.
  • the output unit 250 is configured to include an output device 27 such as a display and a speaker, and displays and outputs various kinds of information and data.
  • the output unit 250 is controlled by the output control unit 212 of the control unit 210 so as to control voice output of the relevant recipe information based on the output control information received by the communication unit 220 from the recipe output control server 300. For example, when reading out the recipe information designated by the user, the reading speed and the waiting time until the next information is read are controlled.
  • FIG. 7 is a diagram showing a functional block configuration of the recipe output control server 300 according to the present embodiment.
  • the recipe output control server 300 includes a control unit 310, a communication unit 320, and a storage unit 330.
  • control unit 310 is configured to include the CPU 21, and controls the operation of the recipe output control server 300.
  • the communication unit 320 is configured to include the communication module 25, and performs communication via the network NW.
  • the storage unit 330 is configured to include the RAM 22, the ROM 23, and the auxiliary storage device 24, and stores various information and data.
  • the storage unit 330 also includes a recipe information DB 331, a determination rule DB 332, and an expression DB 333. These DBs will be described together with the components of the control unit 310 described below.
  • the control unit 310 includes a recipe information management unit 311, a device information collection unit 312, a user information collection unit 313, and a control information generation unit 314.
  • the recipe information management unit 311 acquires the recipe information posted by the user via the communication unit 320 and stores it in the recipe information DB 331 (recipe information storage unit).
  • the recipe information DB 331 includes recipe information in which the quantitative expression accompanying the qualitative expression is described as a set in addition to the recipe information in the MRR format.
  • qualitative expression “fragrance” is accompanied by quantitative expression “600 watts” and “3 minutes”, such as "baking garlic in an IH cooker 600 watts for 3 minutes until it smells”.
  • the user who actually cooked has commented on the setting of specific cooking equipment, or the operator of the recipe output control system 1 has a quantitative expression. It may be given.
  • the recipe information management unit 311 generates a recipe list that matches the search condition from the recipe information DB 331 in response to a search request from the terminal device 200 or the device 100, and distributes it to the terminal device 200 or the device 100. Shall also be provided.
  • the device information collection unit 312 collects the specification information 131, 231 held by the device 100 or the terminal device 200 via the communication unit 320, for example, when the output control button in the device 100 or the terminal device 200 is pressed. To do.
  • the specification information 131, 231 of the device 100 or the terminal device 200 collected here can be assumed to be, for example, an OS (Operating System), various engines such as morphological analysis, voice synthesis, drawing output, tempo of speech, and the like.
  • OS Operating System
  • various engines such as morphological analysis, voice synthesis, drawing output, tempo of speech, and the like.
  • the user information collecting unit 313 collects the information about the user of the terminal device 200, that is, the user information 232 via the communication unit 320, for example, when the output control button on the device 100 or the terminal device 200 is pressed.
  • This user information 232 can assume information such as the age, cooking experience, and cooking qualification (cooking skill) of the user.
  • the output control information when the output control information is generated, attributes such as the specifications of the device 100 or the terminal device 200 and the age and cooking skill of the user, which are collected by the device information collecting unit 312 and the user information collecting unit 313, are used as the determination rule.
  • the output tempo suitable for such specifications and attributes is checked against the DB 332. Each value of the output speed and the output standby time is assumed as the output tempo.
  • the determination rule DB 332 is based on the specifications of the device 100 or the terminal device 200 and the user attributes, and defines the output tempo value suitable for the environment that matches the conditions.
  • This data structure is composed of records in which the output speed and the output standby time are defined as the output tempo for the above conditions 1 to 3 and the above user attribute conditions 4 to 5.
  • the processing capacity and the output tempo (eg, reading speed at which voice synthesized voice is output, cooking procedures, objects, etc. are objects.
  • the conditions 1 to 4 in the example of FIG. 9 cover the cases.
  • Condition 1 corresponds to the type of OS
  • condition 2 corresponds to the type of engine for voice synthesis, drawing output, etc.
  • condition 3 corresponds to the speech tempo at the time of reading aloud
  • condition 4 corresponds to the transition speed of the drawing object at the time of drawing output.
  • the recipe information is output at a predetermined speed by voice synthesis, drawing output, etc., whether or not it can be understood as it is is likely to depend on attributes such as the age and cooking skill of the user on the viewing side. .. Therefore, the conditions 5 to 6 in the example of FIG. 9 cover the cases. Requirement 5 corresponds to the age group of the user, and condition 6 corresponds to the cooking skill of the user.
  • the control information generation unit 314 determines the conditions of the specifications of the device 100 or the terminal device 200, such as the OS, the type of the engine, the utterance tempo or the drawing tempo, which are the specifications of the device 100 or the terminal device 200, which are the conditions 1 of the determination rule DB 332. ⁇ By matching with the condition 4 and by comparing the respective values of the age and cooking skill of the user collected by the user information collecting unit 313 with the condition 5 and the condition 6 of the determination rule DB 332, the output control button is specified. With respect to the prepared recipe information, it is possible to specify each value of the output speed as the output tempo and the output standby time.
  • control information generation unit 31 based on the MRR corresponding to the user-specified recipe information and the expression DB 333, for example, as the content of the voice output of the MRR, for example, the vocabulary “half of the onion” of a certain material node, Between the vocabulary “cut” of the edge connected to this material node, “” is specified as the value to be supplemented, and “please” is specified as the value to be supplemented after “cut”. Such processing is comprehensively executed according to the configuration of each node and edge of the MRR.
  • control information generation unit 314 distributes the information of the output tempo specified similarly to the content of the audio output specified based on the expression DB 333 described above to the device 100 or the terminal device 200 as the output control information.
  • the control information generation unit 314 also sets the value of the output tempo specified as described above in each column of each node in the MRR, the output speed at the edge, and the output standby time, and delivers this MRR to the device 100.
  • materials that can be nodes, state transitions of materials, and actions that can be edges in such MRRs are stored in the storage unit 330 in advance as graph information (not shown). Therefore, the control information generation unit 314 executes the settings related to MRR based on this graph information.
  • FIG. 11 is a diagram showing a functional block configuration of the device 100 according to the present embodiment.
  • the device 100 includes a control unit 110, a communication unit 120, a storage unit 130, an operation unit 140, and an output unit 150.
  • control unit 110 is configured to include the CPU 21, and controls the operation of the device 100.
  • the communication unit 120 is configured to include the communication module 25, and performs communication via the network NW.
  • the communication unit 120 may have a function of directly communicating with the terminal device 200.
  • the storage unit 130 includes a RAM 22, a ROM 23, and an auxiliary storage device 24, and stores various information and data.
  • the operation unit 140 includes the input device 26 and receives a user operation.
  • the operation unit 140 has a physical button or a software button for accepting an action (process).
  • the output unit 150 outputs the recipe information received by the communication unit 120 from the recipe output control server 300, outputs voice information of the relevant recipe information based on the output control information obtained by the output control information acquisition unit 111, and the like.
  • the output control unit 112 of the control unit 110 controls so as to perform the above control. For example, when reading out the recipe information designated by the user, the reading speed and the waiting time until the next information is read are controlled.
  • control unit 110 includes an output control information acquisition unit 111 and an output control unit 112.
  • the output control information acquisition unit 111 delivers the specification information 131 held in the storage unit 130 to the device information collection unit 312 in response to a request from the recipe output control server 300. Further, the output control information acquisition unit 111 acquires the MRR and its output control information distributed from the recipe output control server 300 via the communication unit 120 after the specification information 131 is distributed.
  • the output control unit 112 controls to start the output control corresponding to the output control information regarding the audio output and the drawing output of the MRR.
  • the output control unit 112 may start output of audio output or drawing output in response to the operation of the operation unit 140 (eg, output start button) by the user.
  • FIG. 12 is a diagram showing an operation example of the recipe output control system 1.
  • step S101 the terminal device 200 acquires recipe information from the recipe output control server 300 via the communication unit 220 in response to a user operation on the operation unit 240.
  • step S102 the terminal device 200 displays the acquired recipe information on the output unit 250, and the operation unit 240 receives a request for voice output or drawing output of this recipe information.
  • a voice output request is received.
  • step S103 the terminal device 200 generates a voice output control request for the recipe information in response to the voice output request described above, and transmits the control request to the recipe output control server 300 via the communication unit 220.
  • the control request includes the recipe ID corresponding to the selected recipe information, and further includes the device ID of the terminal device 200 or the device 100 to be controlled.
  • step S104 the recipe output control server 300 receives the above-described voice output request from the terminal device 200, and collects the specification information 231 held by the terminal device 200 via the communication unit 320.
  • the specification information 131 held by the device 100 is collected.
  • step S105 the recipe output control server 300 collects the user information 232 held by the terminal device 200 via the communication unit 320.
  • step S106 the recipe output control server 300 collates the specification information 231 and the user information 232 of the terminal device 200, which are collected in the above S104 and S105, with the determination rule DB 332, and conditions and user information of the specification information 231. The output tempo that matches the conditions of H.232 is determined.
  • step S107 the recipe output control server 300 identifies the corresponding MRR in the recipe information DB 331 using the recipe ID indicated by the above-mentioned voice output request as a key, and based on this MRR and the expression DB 333, determines the content of the voice output of the MRR. Identify.
  • step S108 the recipe output control server 300 delivers the output tempo information, which is the same as the content of the audio output specified in s106, to the terminal device 200 (or the device 100) as output control information.
  • step S109 the recipe output control server 300 sets the value of the output tempo specified as described above in each field of each node in the MRR, the output speed at the edge, and the output standby time, and distributes this MRR to the device 100. To do.
  • step S110 the terminal device 200 causes the output unit 250 to output the information included in the node and edge of the MRR based on the content and the output tempo of the voice output of the MRR distributed from the recipe output control server 300 at a predetermined tempo. For example, voice output.
  • step S111 the device 100 receives the MRR (output control information has been set) distributed from the recipe output control server 300, and performs output control corresponding to the output control information regarding the audio output of the MRR and cooking based on the MRR. Perform an action.
  • MRR output control information has been set
  • the recipe output control system 1 is suitable for understanding by the user in consideration of specifications of various devices such as an oven, a microwave oven, a refrigerator, and a mobile terminal such as a smartphone, and attributes such as the age and cooking skill of the user. It is possible to output recipes at various tempos.
  • the device 100 and the terminal device 200 are separate devices.
  • the functions and information of the device 100 and the terminal device 200 may be integrated and operated in any one device.
  • the device 100 or the terminal device 200 may have the function/information of the recipe output control server 300.
  • a program that causes a computer to execute each process in the recipe output control system 1 may be provided. Further, the program may be recorded in a computer-readable medium.
  • a computer readable medium can be used to install the program on a computer.
  • the computer-readable medium in which the program is recorded may be a non-transitory recording medium.
  • the non-transitory recording medium is not particularly limited, but may be a recording medium such as a CD-ROM or a DVD-ROM.
  • the recipe output control system is, for example, a form in which a recipe content is read aloud by a user who cannot keep their hands due to childcare or other housework, or a user who has an audiovisual disorder, or VR (virtual reality).
  • VR virtual reality
  • voice output and drawing output are performed in a form that is easy to understand the contents of the recipe, with little difference between human perception, pace of thought, and sense. It becomes possible to plan.
  • the tempo is easy to understand for users whose recognition speed and recognition efficiency are lower than that of young people due to aging, and users whose recognition speed and recognition efficiency are lower than those who have extensive cooking experience due to lack of cooking skills.
  • Voice output and drawing output of the recipe are performed, so that the content of the recipe can be surely understood.
  • the recipe output control system appropriately responds to situations in which a device is used by a user, and situations in which the user has different understanding skills depending on the cooking skill and age of the user, and the tempo and the like that are easy for each user to understand. It is possible to output the recipe information by voice.
  • Recipe output control system 21 CPU 22: RAM 23: ROM 24: auxiliary storage device 25: communication module 26: input device 27: output device 28: mechanism 100: device 110: control unit 111: output control information acquisition unit 112: output control unit 120: communication unit 130: storage unit 131: specifications Information 140: Operation part 150: Output part 200: Terminal device 210: Control part 211: Recipe information acquisition part 212: Output control part 220: Communication part 230: Storage part 231, Specification information 232: User information 240: Operation part 250: Output unit 300: Recipe output control server 310: Control unit 311: Recipe information management unit 312: Device information collection unit 313: User information collection unit 314: Control information generation unit 320: Communication unit 330: Storage unit 331: Recipe information DB 332: Judgment rule DB 333: Expression DB

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Nutrition Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

機器やユーザの属性を踏まえた好適なレシピ出力を図るサーバ装置、情報処理端末、システム、方法およびプログラム。レシピ出力制御サーバ(300)は、レシピ情報(331)を記憶するレシピ情報記憶部と、レシピ情報(331)を利用するユーザおよび当該ユーザの使用機器の各情報に基づき、使用機器におけるレシピ情報の出力制御情報を、ユーザの属性に応じて生成する制御情報生成部(314)を備える。

Description

サーバ装置、情報処理端末、システム、方法およびプログラム
 本開示は、機器やユーザの属性を踏まえた好適なレシピ出力を図るサーバ装置、情報処理端末、システム、方法およびプログラムに関する。
 近年、インターネット、テレビ、雑誌などを介して様々なレシピが公開されている。公開されたレシピには一連の調理手順が記載されていて、一般のユーザは、これらのレシピを利用することができる。例えば、特許文献1には、通信網を介して、調理レシピデータを複数格納するホスト装置から、ユーザの要求する検索結果の調理レシピデータを供給する方法が開示されている。
 また、そうして得られるレシピは、通常であればユーザのPC等で閲覧され、そのまま利用される。一方、育児や他の家事で手が離せないユーザなどは、音声で読み上げる形、あるいは、VR(virtual reality)やAR(Augmented Reality)の形でレシピを確認したいニーズも存在する。例えば特許文献2は、インターネットを介して、食品や料理、健康に関する情報を得て、これらの文字情報、音声情報、映像情報等を出力する方法が開示されている。
特開2002-063178号公報 特開2001-248955号公報
 特許文献2に記載されるように、いわゆるスマート家電やスマートスピーカー、あるいは携帯端末等にて、テキスト情報を読み上げ形式で出力することは既に行われている。
 ところがレシピは、あくまで通常のテキスト形式での閲覧を前提に記述されたもので、読み上げやVR、AR等の形で出力しても、人の知覚、思考のペース、感覚とはずれが生じる。そのため、当該レシピの内容がユーザに理解されにくい結果となりやすい。
 しかも、上述の問題は、レシピの出力機器やそのユーザの属性によって、さらに増大する恐れもある。例えば出力機器は、OS(Operating System)の違いや、形態素解析、音声合成、描画出力等の各種エンジンの違いにより、語彙や文節等の認識精度と癖、発話のテンポ等が異なる。また、ユーザは、その年齢や調理スキルにより、情報認識のスピードや精度が異なりやすい。
 したがって、ある属性のユーザにとって理解しにくい出力傾向の機器が使用されている状況下で、そのままレシピの読み上げ出力等がなされると、当該ユーザにとってレシピの理解は更に困難なものとなる。
 そこで、本開示は、このような事情に鑑み、機器やユーザの属性を踏まえた好適なレシピ出力を図るサーバ装置、情報処理端末、システム、方法およびプログラムを提供することを目的とする。
 上記目的を達成するため、本開示に係るサーバ装置は、レシピ情報を記憶するレシピ情報記憶部と、前記レシピ情報を利用するユーザおよび当該ユーザの使用機器の各情報に基づき、前記使用機器における前記レシピ情報の出力制御情報を、前記ユーザの属性に応じて生成する制御情報生成部と、を備える。
 また、上記目的を達成するため、本開示に係る情報処理端末は、前記サーバ装置から前記出力制御情報を取得する情報取得部と、前記出力制御情報に基づいて前記レシピ情報を出力する出力部と、を備える。
 また、上記目的を達成するため、本開示に係るシステムは、レシピ情報を記憶するレシピ情報記憶部と、前記レシピ情報を利用するユーザおよび当該ユーザの使用機器の各情報に基づき、前記使用機器における前記レシピ情報の出力制御情報を、前記ユーザの属性に応じて生成する制御情報生成部と、を備えるサーバ装置と、前記サーバ装置から前記出力制御情報を取得する情報取得部と、前記出力制御情報に基づいて前記レシピ情報を出力する出力部と、を備える情報処理端末とを含む。
 また、上記目的を達成するため、本開示に係る方法は、レシピ情報をレシピ情報記憶部に記憶するステップと、前記レシピ情報を利用するユーザおよび当該ユーザの使用機器の各情報に基づき、前記使用機器における前記レシピ情報の出力制御情報を、前記ユーザの属性に応じて生成するステップと、を備える。
 また、上記目的を達成するため、本開示に係るプログラムは、上述の方法をコンピュータに実行させる。
 本開示によれば機器やユーザの属性を踏まえた好適なレシピ出力を図ることができる。
本実施形態における出力制御情報のデータ構造を示す図である。 本実施形態におけるレシピ出力制御システム1の構成図である。 本実施形態におけるハードウェア構成例を示すブロック図である。 本実施形態における端末装置200の機能ブロック構成を示す図である。 本実施形態における仕様情報の構成例を示す図である。 本実施形態におけるユーザ情報の構成例を示す図である。 本実施形態におけるレシピ出力制御サーバ300の機能ブロック構成を示す図である。 本実施形態におけるレシピ情報DBの構成例を示す図である。 本実施形態における判定ルールDBの構成例を示す図である。 本実施形態における表現DBの構成例を示す図である。 本実施形態における機器100の機能ブロック構成を示す図である。 本実施形態におけるレシピ出力制御システム1の動作例を示す図である。
 以下、本開示の実施形態について図面を参照して説明する。実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。なお、以下の実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。
 <実施形態の概要>
 本実施形態に係るレシピ出力制御システムは、オーブンや電子レンジ、冷蔵庫、或いはスマートフォン等の携帯端末といった各種機器やそのユーザの各属性を踏まえ、当該ユーザにおける理解に関して好適なテンポ等でのレシピ出力を図るシステムである。
 本実施形態におけるレシピ情報としては、定量的表現で調理内容が記述されたレシピ情報と、定性的表現で調理内容が記述されたレシピ情報のいずれも対象となりうる。
 ただしいずれのレシピ情報であっても、その音声出力等に接した人間が理解できるよう、調理工程の作業内容を言葉によって説明した表現を含むことが必要である。また好ましくは、人によって理解が異なることの無いよう、或いは各種機器が調理機器である場合にその調理動作等に利用可能なよう、定量的表現を含むことが好ましい。
 定性的表現のみによるレシピ情報では、調理工程における作業や材料の様子などを、分量や温度、時間等の数値で表さない表現を含んでいる。具体的には、「肉が香り立つまで焼く」、「塩少々」、「じゃがいもに串が通る程度まで茹でる」等の表現である。
 こうした定性的表現のみで構成されたレシピ情報を音声等で出力した場合、これを聴いたユーザの調理スキルが十分高ければレシピ意図を理解できるが、スキル不十分であれば説明の曖昧さゆえに正確な理解もできず、具体的な動作を起こせない可能性もある。
 一方、定量的表現が適宜に含まれている場合、調理工程の作業内容に関して具体的な数値を用いた説明がなされることとなる。具体的には、「肉を200度に温めたオーブンで20分焼く」、「塩3グラム」、「じゃがいもを電子レンジにて600ワットで5分温める」等の表現による説明である。定量的表現は、調理機器(道具)を用いた作業内容が具体的に数値によって表されるので、調理機器の制御に適した表現であるといえる。
 ところで近年、インターネット、テレビ、雑誌などを介して様々なレシピが公開されている。公開されたレシピには一連の調理手順が記載されていて、一般のユーザは、これらのレシピを利用することができる。
 また、そうして得られるレシピは、通常であればユーザのPC等で閲覧され、そのまま利用される。一方、育児や他の家事で手が離せないユーザなどにおいては、音声で読み上げる形、あるいは、VR(virtual reality)やAR(Augmented Reality)の形でレシピを確認したいニーズも存在する。
 一方、いわゆるスマート家電やスマートスピーカー、あるいは携帯端末等にて、テキスト情報を読み上げ形式で出力することは既に行われている。
 ところがレシピは、あくまで通常のテキスト形式での閲覧を前提に記述されたもので、読み上げやVR、AR等の形で出力しても、人の知覚、思考のペース、感覚とはずれが生じる。そのため、当該レシピの内容がユーザに理解されにくい結果となりやすい。
 しかも、上述の問題は、レシピの出力機器やそのユーザの属性によって、さらに増大する恐れもある。例えば出力機器は、OS(Operating System)の違いや、形態素解析、音声合成や描画出力等の各種エンジンの違いにより、語彙や文節等の認識精度と癖、発話のテンポ等が異なる。また、ユーザは、その年齢や調理スキルにより、情報認識のスピードや精度が異なりやすい。
 したがって、ある属性のユーザにとって理解しにくい出力傾向の機器が使用されている状況下で、そのままレシピの読み上げ出力等がなされると、当該ユーザにとってレシピの理解は更に困難なものとなる。
 そこで、本実施形態に係るレシピ出力制御システムでは、オーブンや電子レンジ、冷蔵庫、或いは携帯端末といった各種機器における情報出力テンポと、そのユーザにおける調理スキルや年齢などに応じた情報認識力とに基づき、ユーザにおける情報認識力に応じた情報出力テンポでの出力を行う出力制御情報を生成・利用する。これにより、ユーザによって使用する機器が異なる状況や、当該ユーザの調理スキルや年齢によって理解力が異なる状況に的確に対応し、各ユーザにとって理解が容易なテンポ等でのレシピ情報の音声出力等が可能となる。
 <出力制御情報>
 本実施形態に係る出力制御情報の一例として、調理機器が解読可能な、一連の調理工程から成るレシピ情報、すなわち定量的表現で記述されたレシピ情報を想定する。このレシピ情報における制御対象の機器は、料理の材料又はそれを用いた調理に関連する機器(単に情報を出力するのみの装置も含みうる)である。
 出力制御情報が与えられた調理機器は、当該出力制御情報に従ったアクション(処理)を行う。なお、本明細書では、調理機器が読み込んで解読可能な出力制御情報をMRR(Machine Readable Recipe)と記載する。
 図1は、実施形態に係る出力制御情報のデータ構造を示す図である。図1に示すように、実施形態に係るMRRたる出力制御情報は、複数のノードとノード間のエッジとからなるグラフ(有向グラフ)により表現される。図1において、ノードを円で示し、エッジを矢印で示している。
 複数のノードは、各材料の状態遷移を定義する。エッジは、ノード間の状態遷移に必要なアクションを表す。アクションとは調理を構成する基本的な手順をいい、例えば「切る」、「温める」等の手順がアクションに該当する。また、アクションには、機器の具体的な設定温度や調理時間、作業内容などを含む。アクションの種類及びそのIDが予め規定され、或いはアクションの種類に対してIDが事後的に付与され、アクション及びそのIDの一覧を定義し、エッジにはこの一覧から選択されたアクションIDが付与される。なお、状態(中間ノード)にもIDが付与されてもよい。
 グラフ内の複数のノードは、グラフの始点であって、料理の材料を表す材料ノードと、グラフの終点であって、当該料理を表す料理ノードと、料理に至るまでの途中における材料の状態を表す中間ノードと、を含む。
 材料とは料理を作るための材料をいうが、調味料や、調理の過程で廃棄されるものも材料に含まれてもよい。材料の種類及びそのIDが予め規定されており、材料及びそのIDの一覧を定義し、材料ノードにはこの一覧から選択された材料IDが付与される。
 材料の状態とは、アクションが施された後の状態をいい、例えば「3等分に切られた材料A」、「3cm角に切られた材料B」、「温められた材料C」等が材料の状態に該当する。
 このように、実施形態に係る出力制御情報のデータ構造は、自然言語であるレシピ文章の記述をそのままグラフとして表現するのではなく、各材料の状態遷移をグラフとして表現したものである。
 各材料には材料を一意に識別する材料IDが付与され、状態遷移に必要な各アクションにはアクションを一意に識別するアクションIDが付与されている。よって、IDに基づいて容易且つ確実に機械がレシピ情報を解読できる。
 また、アクションを行うべき機器をレシピ情報において必ずしも指定する必要がないため、将来的に登場する新たな機器を含む様々な機器に対応することが容易である。さらに、各アクションがすべてエッジとして表現されているため、レシピ情報中から各アクションを抽出することが容易である。
 また、図1で示すようなグラフからいくつかエッジを開放除去し、さらにいくつかの孤立するノードを除去して得られる部分グラフは、レシピ情報に示される一連の調理工程のうち、ある特定の調理機器を制御して調理する調理工程の機器制御情報とみなすことができる。
 こうした機器制御情報は、上述の機器やユーザの属性に応じたテンポ等で、調理内容の音声出力等を制御する情報、すなわち出力制御情報となりうる。すなわち、レシピ情報全体の調理工程のうち、ある特定の調理機器が行う調理工程における機器制御情報は、出力制御情報として部分グラフによって表現されうる。
 本実施形態に係る出力制御情報におけるノードの種類を表1に示す。
Figure JPOXMLDOC01-appb-T000001
各ノードには、ノードの属性として、例えば表2に示す属性を付与可能である。ここではノードが材料ノードであって、この材料ノードが「ニンジン」を表すと仮定する。
Figure JPOXMLDOC01-appb-T000002
 なお、「名前」は、人間がMRRを作成及び解読するために必要な情報であって、必ずしも機械可読である必要は無い。
 また、本実施形態における各ノードには、該当ノードの「名前」、「分量」といった情報を音声出力等する場合の出力速度(この場合、読み上げ速度)、および出力待機時間の各属性も付与される。
 このうち出力待機時間は、当該ノードに関する読み上げ出力等が完了後、グラフ上で接続されているエッジに関する読み上げ出力等を行うまでの待機時間となる。これらの属性に基づいて当該ノードの出力制御がなされることとなる。
 各エッジには、エッジの属性として、表3に示す属性を付与可能である。表3の例で示すように、エッジに関しても、ノードと同様に出力速度および出力待機時間の各属性が付与される。
Figure JPOXMLDOC01-appb-T000003
ここで、各ノードの具体的な例を挙げて説明する。料理「サラダ」をつくる場合、料理ノードは、「サラダ」である。また、材料ノードは、例えば、「玉ネギ」、「キュウリ」、「トマト」、「ケチャップ」、「マヨネーズ」である。各材料ノードには、材料を一意に識別するIDが付与される。
 また、各ノードに関しては、上述の表2,3の例のように、出力速度が75ワード/分、出力待機時間が2秒、などと設定され、各エッジに関しては、出力速度が75ワード/分、出力待機時間が5分、などと設定されているものとする。
 材料ノード「玉ネギ」は、エッジ(アクション)である「カット」により、中間ノード「みじん切り玉ネギ」と連結される。また、材料ノード「キュウリ」は、エッジ(アクション)である「カット」により、中間ノード「1センチ角キュウリ」と連結される。
 さらに、材料ノード「トマト」は、エッジ(アクション)である「カット」により、中間ノード「1/2トマト」と連結される。さらにまた、材料ノード「ケチャップ」及び材料ノード「マヨネーズ」は、エッジ(アクション)である「混ぜる」により、中間ノード「オーロラソース」と連結される。なお、「カット」、「混ぜる」のそれぞれには、アクションを一意に識別するIDが付与される。
 そして、中間ノード「みじん切り玉ネギ」、「1センチ角キュウリ」、及び「1/2トマト」は、エッジ(アクション)である「盛り付ける」により、料理ノード「サラダ」に連結される。また、中間ノード「オーロラソース」は、エッジ(アクション)である「かける」により、料理ノード「サラダ」に連結される。なお、「盛り付ける」、「かける」のそれぞれには、アクションを一意に識別するIDが付与される。また、「かける」は、「盛り付ける」の次に行われるように、エッジ間での順序が設定される。なお、「かける」に代えて、「あえる」というアクションであってもよい。
 こうした構成のMRR形式における出力制御情報により、当該MRRの例えば音声出力を制御する場合、例えば或る材料ノードに関して、「“玉ネギ”“半個”を」の音声を75ワード/分の速度で読み上げた後、2秒待機して、当該材料ノードに接続するエッジ(アクション)に関して「“カット”する」の音声を75ワード/分の速度で読み上げる。また、これに引き続く出力待機時間「5分」の経過後、中間ノードに関して「“みじん切り玉ネギ”ができました」の音声を75ワード/分の速度で読み上げることとなる。
 <実施形態の説明>
 上述したデータ構造を用いるレシピ出力制御システムの実施形態について説明する。
 (レシピ出力制御システム1の構成)
 図2は、レシピ出力制御システム1の構成図である。図2を参照して、レシピ出力制御システム1の構成について説明する。
 レシピ出力制御システム1は、機器100と、端末装置200と、レシピ出力制御サーバ300と、を備え、ネットワークNWを介して互いに通信可能に接続される。なお、ネットワークNWは、WAN(World Area Network)、LAN(Local Area Network)等から構成される。また、機器100は、ネットワークNWを介さずに端末装置200と直接的に通信(例えば、近距離無線通信)を行ってもよい。また、図2において、機器100および端末装置200は、代表として1つが記載されているが、複数台がネットワークNWに接続されていてもよい。
 機器100は、通信機能を有しており、料理の材料又はそれを用いた調理に関連する機器、キッチンスペースに存在する機器である。機器100は、家庭内で用いる家電機器であってもよいし、業務用の機器であってもよい。
 機器100は、材料又はそれを用いた調理に関連する機器、キッチンスペースに存在する機器であればどのような機器であってもよいが、例えば、冷蔵庫、電子レンジ、オーブン、電磁調理器、トースター、フードプロセッサー、ミキサー、炊飯器、電気鍋、電気フライヤー、電気蒸し器、製麺機、計量器、調理ロボット、ガス調理器、照明等である。
 また機器100は、レシピ出力制御サーバ300から、上述の出力制御情報を受信し、これに基づいてレシピ情報の音声出力等を実行し、ユーザに提示する。
 端末装置200は、通信機能を有しており、ユーザインターフェイスを提供する装置である。端末装置200は、ユーザの操作に応じて、レシピ出力制御サーバ300へ、レシピ情報(レシピ文章や料理の画像データ等)を投稿(送信)する。また、レシピ出力制御サーバ300から、上述の出力制御情報を受信し、これに基づいてレシピ情報の音声出力等を実行し、ユーザに提示する。
 端末装置200は、情報処理端末であり、例えば、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、電子書籍リーダなど)である。或いは、端末装置200は、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、VR(Virtual Reality)端末、AR(Augmented Reality)端末等であってもよい。
 レシピ出力制御サーバ300は、端末装置200から投稿されたレシピ情報を格納し、このレシピ情報を利用するユーザおよび当該ユーザの機器100や端末装置200の各情報に基づき、機器100や端末装置200におけるレシピ情報の出力制御情報を、当該ユーザの属性に応じて生成する。
 また、レシピ出力制御サーバ300は、生成した出力制御情報を端末装置200や機器100に送信する。出力制御情報は、上述したレシピのデータ構造(図1、表1乃至表3参照)を有しており、機械が解読可能なものである。レシピ出力制御サーバ300は、この出力制御情報を、ネットワークNWを介して、端末装置200及び/又は機器100に配信する。
 また、レシピ出力制御サーバ300は、端末装置200から当該ユーザの調理スキルや年齢といった属性情報を、機器100又は端末装置200から当該機器100又は端末装置200のOS(Operating System)や形態素解析、音声合成や描画出力等の各種エンジン、発話のテンポ等といった仕様情報を収集する。
 一方、機器100は、上述の出力制御情報たるMRRの配信に伴い、当該MRRに応じたアクションを開始する。または、端末装置200のユーザは、MRRに応じたアクションを機器100に開始させるためのアクション開始操作を機器100に対して行う。例えば、機器100ないし端末装置200には、アクション開始操作を受け付けるための物理ボタンが設けられる。或いは、機器100ないし端末装置200には、アクション開始操作を受け付けるためのソフトウェアボタンが表示されてもよい。
 ただし、出力制御情報によるレシピ情報の出力制御を、端末装置200ないし機器100で行うのみで、MRRである出力制御情報に基づく機器100での調理動作の自動実行を目的としない場合、上述の機器100でのMRRに基づく一連のアクションは省略可能である。
 (ハードウェア構成)
 レシピ出力制御システム1に含まれる各機器及び各装置のハードウェア構成について説明する。図3は、機器100、端末装置200、およびレシピ出力制御サーバ300のそれぞれのハードウェア構成例を示すブロック図である。
 図3に示すように、機器100、端末装置200、およびレシピ出力制御サーバ300のそれぞれは、CPU21と、RAM22と、ROM23と、補助記憶装置24と、通信モジュール25と、入力装置26と、出力装置27とを備える。
 CPU21は、主記憶装置を構成するRAM22及びROM23からソフトウェア(プログラム)を読み出して実行する。
 RAM22は、CPU21の作業領域として用いられる。補助記憶装置24は、ハードディスクやフラッシュメモリ等により構成される。
 通信モジュール25は有線通信又は無線通信によりデータを送受信するモジュールである。入力装置26は、タッチパネル及び/又はキーボード等により構成され、ユーザの操作を受け付ける。入力装置26は、音声入力により操作を受け付けてもよい。出力装置27は、ディスプレイ等により構成され、各種の情報を出力(表示する)。
 CPU21及びRAM22等のハードウェア上にソフトウェアを読み込ませることにより、CPU21の制御のもとで通信モジュール25、入力装置26、出力装置27を動作させるとともに、RAM22や補助記憶装置24におけるデータの読み出し及び書き込みを行うことで、各機器及び各装置における一連の機能が実現される。
 機器100は、さらに、各種機構28を備える。各種機構28は、機器100におけるアクションを実行するための機構であり、例えば、加熱機構、冷蔵・冷凍機構、切断機構、撹拌機構等により構成される。
 (端末装置200の機能ブロック構成)
 端末装置200の機能ブロック構成について説明する。図4は、本実施形態に係る端末装置200の機能ブロック構成を示す図である。
 図4に示すように、端末装置200は、制御部210と、通信部220と、記憶部230と、操作部240と、出力部250とを備える。
 制御部210は、CPU21を含んで構成され、端末装置200の動作を制御する。通信部220は、通信モジュール25を含んで構成され、ネットワークNWを介した通信を行う。通信部220は、機器100と直接的に通信する機能を有していてもよい。記憶部230は、RAM22、ROM23、及び補助記憶装置24を含んで構成され、各種の情報及びデータを記憶する。
 上述の制御部210は、レシピ情報取得部211および出力制御部212を備える。このうちレシピ情報取得部212は、操作部240に対するユーザの操作に応じて、レシピ出力制御サーバ300から通信部220を介してレシピ情報を取得する。具体的には、定量的表現を含み且つ人が解読可能である定量的HRRや、機器100が読み込んで解読可能なレシピ情報であるMRRを取得する。この場合のMRRは出力制御情報のベースとなりうる。
 レシピ情報取得部212は、出力部250に表示されるレシピ一覧からユーザが選択したレシピ情報を取得してもよいし、検索条件(キーワード等)を用いてレシピ出力制御サーバ300に対して検索処理を行うことにより条件に合致するレシピ情報を取得してもよい。レシピ情報取得部212は、取得したレシピ情報を出力部250上に表示させる。こうしたレシピ情報と共に、このレシピ情報の音声出力要求を受け付けるためのボタン(以下、「出力制御ボタン」)が表示されてもよい。
 また、出力制御部212は、ユーザが上述のレシピ情報に関して機器制御ボタンを操作したことに応じて、当該レシピ情報の音声出力等の制御要求を生成し、生成した制御要求を、通信部220を介してレシピ出力制御サーバ300に送信する。制御要求は、選択されたレシピ情報に対応するレシピIDを含む。制御要求は、制御対象の端末装置200ないし機器100の機器IDをさらに含む。また、出力制御サーバ300に対し、選択されたレシピ情報に対応するMRRを送信してもよい。
 出力制御部212は、上述の制御要求に応じてレシピ出力制御サーバ300から得た、出力制御情報に基づき、ユーザ指定のMRRのノードおよびエッジが含む情報を、所定テンポ等で、出力部250にて例えば音声出力ないし描画オブジェクト出力を行う。
 また、記憶部230は、この端末装置200の仕様情報231、およびユーザ情報232を保持している。このうち仕様情報231は、図5で示すように、例えば、OS(Operating System)、形態素解析、音声合成、描画出力等の各種エンジン、発話のテンポ等といったものを想定できる。また、ユーザ情報232は、図6で示すように、例えば当該ユーザの年齢や調理スキルに関する情報といったものを想定できる。このうち調理スキルは、当該ユーザが申告した調理経験の有無や長短といったものの他、例えば、所定のレシピ投稿サイトでの、当該ユーザによるレシピ投稿や、他ユーザの投稿レシピを利用した調理の報告投稿、といった調理に関する各種活動の総数、頻度、他ユーザからの評価、など種々の情報に基づき、所定ルールでレベル判定したもの、なども想定できる。また、当該ユーザが利用しようとしている、すなわちレシピ出力制御対象のレシピ情報(レシピ情報DB331で保持)も、上述のレベル判定の対象情報となりうる。この場合、例えば、調理スキルに優れた者と高度なテクニックを要するレシピとは、利用関係という観点で矛盾は生じにくいが、調理スキルの乏しい者が高度なテクニックを要するレシピを利用することは考えにくい、といった傾向を踏まえた判定が可能である。なお、利用するレシピ情報としては、レシピ内容の他、その利用ユーザによる評価やコメントも含みうる。
 操作部240は、入力装置26を含んで構成され、ユーザ操作を受け付ける。出力部250は、ディスプレイおよびスピーカー等の出力装置27を含んで構成され、各種の情報及びデータを表示・音声出力する。
 出力部250は、レシピ出力制御サーバ300から通信部220が受信した出力制御情報に基づく、該当レシピ情報の音声出力等の制御を行うよう、制御部210の出力制御部212から制御される。例えば、ユーザが指定したレシピ情報の読み上げ出力に際し、その読み上げ速度や次の情報の読み上げまでの待機時間について制御が行われる。
 (レシピ出力制御サーバ300の機能ブロック構成)
 レシピ出力制御サーバ300の機能ブロック構成について説明する。図7は、本実施形態に係るレシピ出力制御サーバ300の機能ブロック構成を示す図である。
 図7に示すように、レシピ出力制御サーバ300は、制御部310、通信部320、および記憶部330を備える。
 このうち制御部310は、CPU21を含んで構成され、レシピ出力制御サーバ300の動作を制御する。通信部320は、通信モジュール25を含んで構成され、ネットワークNWを介した通信を行う。
 また、記憶部330は、RAM22、ROM23、及び補助記憶装置24を含んで構成され、各種の情報及びデータを記憶する。また、記憶部330は、レシピ情報DB331、判定ルールDB332、および表現DB333を含む。これらのDBについては、下記制御部310の構成要素とともに説明する。
 制御部310は、レシピ情報管理部311、機器情報収集部312、ユーザ情報収集部313、および制御情報生成部314を含む。
 このうちレシピ情報管理部311は、通信部320を介して、ユーザから投稿されたレシピ情報を取得し、レシピ情報DB331(レシピ情報格納部)に格納する。
 レシピ情報DB331には、図8で例示するように、複数のレシピ情報が格納されている。例えば、ユーザから投稿されたレシピ情報や、レシピ出力制御システム1の事業者によって予め作成されたレシピ情報などが格納される。各レシピ情報には、レシピ情報を利用したユーザによるレシピの評価やコメントを含んでもよい。
 また、レシピ情報DB331は、MRR形式のレシピ情報の他、定性的表現に付随した定量的表現がセットで記載されているレシピ情報を含む。例えば、「ニンニクをIH調理器600ワットで3分間香り立つまで焼く」などのように、定性的表現である「香り立つ」に定量的表現である「600ワット」、「3分間」が付随し、セットで記載されているレシピ情報である。また、例えば、定性的表現で記載されている調理工程に対して、実際調理したユーザから、具体的な調理機器の設定がコメントされていたり、レシピ出力制御システム1の事業者によって定量的表現が付与されていたりしてもよい。
 また、レシピ情報管理部311は、端末装置200ないし機器100からの検索要求に応じて、レシピ情報DB331から検索条件に合致するレシピリストを生成し、これを端末装置200ないし機器100に配信する機能も備えるものとする。
 また、機器情報収集部312は、例えば上述の機器100ないし端末装置200における出力制御ボタンの押下を受け、通信部320を介して、機器100ないし端末装置200が保持する仕様情報131、231を収集する。
 ここで収集する機器100ないし端末装置200の仕様情報131、231は、例えば、OS(Operating System)、形態素解析、音声合成、描画出力等の各種エンジン、発話のテンポ等といったものを想定できる。
 また、ユーザ情報収集部313は、例えば上述の機器100ないし端末装置200における出力制御ボタンの押下を受け、通信部320を介して、端末装置200のユーザに関する情報すなわちユーザ情報232を収集する。このユーザ情報232は、当該ユーザの年齢や調理経験、調理資格(調理スキル)といった情報を想定できる。
 また、制御情報生成部314は、機器情報収集部312およびユーザ情報収集部313が収集した、機器100ないし端末装置200の仕様や当該ユーザの年齢や調理スキルといった属性に基づき、上述の出力制御ボタンで指定されたレシピ情報に関する出力制御情報を生成する。
 本実施形態では、この出力制御情報の生成に際し、機器情報収集部312およびユーザ情報収集部313が収集した、機器100ないし端末装置200の仕様や当該ユーザの年齢や調理スキルといった属性を、判定ルールDB332に照合し、そうした仕様や属性に関して好適な出力テンポを判定する。出力テンポとしては、出力速度および出力待機時間の各値を想定する。
 判定ルールDB332の例を図9に示す。判定ルールDB332は、機器100ないし端末装置200の仕様とユーザ属性を条件とし、当該条件にマッチする環境で好適な出力テンポの値を規定したものとなる。
 このデータ構造は、上述の仕様に関する条件1~3と、上述のユーザ属性に関する条件4~5に対し、出力テンポとして出力速度および出力待機時間の各値が規定されたレコードから構成されている。
 機器100ないし端末装置200のOSや音声合成、描画出力等のエンジンの種類により、処理能力やそれに伴う出力テンポ(例:音声合成した音声を出力する読み上げ速度や、調理手順や対象等をオブジェクトで順次描画し遷移させる速度の仕様)は異なるケースがあり、図9の例における条件1~4は、その場合分けをカバーしている。条件1はOSの種別、条件2は音声合成、描画出力等のエンジンの種別、条件3は音声読み上げ時の発話テンポ、条件4は描画出力時の描画オブジェクトの遷移速度にそれぞれ対応している。
 同様に、レシピ情報が音声合成や描画出力等により所定速度で出力された場合、それを内容通りに理解出来るか否かは、視聴する側のユーザの年齢や調理スキル等の属性に左右されやすい。そこで図9の例における条件5~6は、その場合分けをカバーしている。 条件5はユーザの年齢層、条件6はユーザの調理スキル、にそれぞれ対応している。
 そこで制御情報生成部314は、機器情報収集部312が収集した、機器100ないし端末装置200の仕様である、OS、エンジンの各種別、発話テンポないし描画テンポの各条件を判定ルールDB332の条件1~条件4に照合し、また、ユーザ情報収集部313が収集した当該ユーザの年齢および調理スキルの各値を判定ルールDB332の条件5および条件6に照合することで、上述の出力制御ボタンで指定されたレシピ情報に関し、出力テンポたる出力速度および出力待機時間の各値を特定できる。
 また、制御情報生成部314は、ユーザ指定のレシピ情報に対応するMRR、および表現DB333に基づき、当該MRRの例えば音声出力の内容として、例えば或る材料ノードの語彙「玉ネギ半個」と、この材料ノードに連なるエッジの語彙「カット」との間に、補うべき値として「を」を特定し、また、「カット」の後に補うべき値として「してください」を特定する。こうした処理は、当該MRRの各ノード、エッジの構成に応じて網羅的に実行する。
 また、制御情報生成部314は、上述の表現DB333に基づき特定した音声出力の内容と同じく特定した出力テンポの情報を、出力制御情報として機器100ないし端末装置200に配信する。
 また、制御情報生成部314は、上述のように特定した出力テンポの値を、MRRにおける各ノード、エッジにおける出力速度および出力待機時間の各欄に設定し、このMRRを機器100に配信する。なお、こうしたMRRにおいてノードとされ得る材料、材料の状態遷移や、エッジとされ得るアクションは、予め記憶部330にグラフ情報(不図示)として記憶されている。よって制御情報生成部314は、このグラフ情報に基づいて、MRRに関する設定等を実行する。
 (機器100の機能ブロック構成)
 次に、機器100の機能ブロック構成について説明する。図11は、本実施形態に係る機器100の機能ブロック構成を示す図である。
 図11に示すように、機器100は、制御部110と、通信部120と、記憶部130と、操作部140と、出力部150と、を備える。
 このうち制御部110はCPU21を含んで構成され、機器100の動作を制御する。通信部120は、通信モジュール25を含んで構成され、ネットワークNWを介した通信を行う。この通信部120は、端末装置200と直接的に通信する機能を有していてもよい。記憶部130は、RAM22、ROM23、及び補助記憶装置24を含んで構成され、各種の情報及びデータを記憶する。操作部140は、入力装置26を含んで構成され、ユーザ操作を受け付ける。この操作部140は、アクション(処理)を受け付けるための物理ボタン又はソフトウェアボタンを有する。また、出力部150は、レシピ出力制御サーバ300から通信部120が受信したレシピ情報の出力処理や、上述の出力制御情報取得部111が得た出力制御情報に基づく、該当レシピ情報の音声出力等の制御を行うよう、制御部110の出力制御部112から制御される。例えば、ユーザが指定したレシピ情報の読み上げ出力に際し、その読み上げ速度や次の情報の読み上げまでの待機時間について制御が行われる。
 上述のうち制御部110は、出力制御情報取得部111と、出力制御部112とを備える。
 出力制御情報取得部111は、記憶部130で保持する仕様情報131を、レシピ出力制御サーバ300からの要求に応じて機器情報収集部312に配信する。また、出力制御情報取得部111は、上述の仕様情報131の配信の後、レシピ出力制御サーバ300から配信されたMRRおよびその出力制御情報を、通信部120を介して取得する。
 また、出力制御部112は、出力制御情報取得部111によりMRRおよび出力制御情報が取得された後、当該MRRの音声出力や描画出力に関して出力制御情報に対応する出力制御を開始するよう制御する。出力制御部112は、ユーザにより操作部140(例:出力開始ボタン)が操作されたことに応じて、音声出力や描画出力の出力を開始するようにしてもよい。
 (実施形態に係る動作例)
 本実施形態のレシピ出力制御システム1の動作の一例について説明する。図12は、レシピ出力制御システム1の動作例を示す図である。
 図12に示すように、ステップS101において、端末装置200は、操作部240に対するユーザの操作に応じて、レシピ出力制御サーバ300から通信部220を介してレシピ情報を取得する。
 ステップS102において、端末装置200は、取得したレシピ情報を出力部250上に表示させ、このレシピ情報の音声出力または描画出力の要求を操作部240で受け付ける。ここでは音声出力要求を受けたとする。
 ステップS103において、端末装置200は、上述の音声出力要求に応じて、当該レシピ情報に関する音声出力の制御要求を生成し、この制御要求を、通信部220を介してレシピ出力制御サーバ300に送信する。制御要求は、選択されたレシピ情報に対応するレシピIDを含み、また、制御対象の端末装置200ないし機器100の機器IDをさらに含む。
 ステップS104において、レシピ出力制御サーバ300は、上述の音声出力要求を端末装置200から受けて、通信部320を介し、当該端末装置200が保持する仕様情報231を収集する。なお、音声出力要求を機器100から受信した場合、機器100が保持する仕様情報131を収集する。
 ステップS105において、レシピ出力制御サーバ300は、通信部320を介して、端末装置200が保持するユーザ情報232を収集する。
 ステップS106において、レシピ出力制御サーバ300は、上述のS104、S105で収集した、端末装置200の仕様情報231およびユーザ情報232を、判定ルールDB332に照合して、当該仕様情報231の条件およびユーザ情報232の条件にそれぞれ合致した出力テンポを判定する。
 ステップS107において、レシピ出力制御サーバ300は、上述の音声出力要求が示すレシピIDをキーにレシピ情報DB331で対応するMRRを特定し、このMRRおよび表現DB333に基づき、当該MRRの音声出力の内容を特定する。
 ステップS108において、レシピ出力制御サーバ300は、上述のs106で特定した音声出力の内容と同じく特定した出力テンポの情報を、出力制御情報として端末装置200(または機器100)に配信する。
 ステップS109において、レシピ出力制御サーバ300は、上述のように特定した出力テンポの値を、MRRにおける各ノード、エッジにおける出力速度および出力待機時間の各欄に設定し、このMRRを機器100に配信する。
 ステップS110において、端末装置200は、レシピ出力制御サーバ300から配信されたMRRの音声出力の内容および出力テンポに基づき、当該MRRのノードおよびエッジが含む情報を、所定テンポで、出力部250にて例えば音声出力する。
 ステップS111において、機器100は、レシピ出力制御サーバ300から配信されたMRR(出力制御情報の設定済み)を受信し、当該MRRの音声出力に関して出力制御情報に対応する出力制御と、MRRに基づく調理動作を実行する。
 上述したように、レシピ出力制御システム1では、オーブンや電子レンジ、冷蔵庫、或いはスマートフォン等の携帯端末といった各種機器の仕様やそのユーザの年齢や調理スキルといった各属性を踏まえ、当該ユーザにおける理解に関して好適なテンポでのレシピ出力を図ることが可能となる。
 こうした効果の背景には、従前から存在するレシピが、あくまで通常のテキスト形式での閲覧を前提に記述されたもので、読み上げやVR、AR等の形で出力しても、人の知覚、思考のペース、感覚とはずれが生じやすいといった課題や、その課題故に当該レシピの内容がユーザに理解されにくい結果となりやすい等の課題、更には、これら課題が、レシピの出力機器やそのユーザの属性によって、さらに増大するといった課題を解決している本実施形態のレシピ出力制御システムの構成がある。
 <その他の実施形態>
 以上、実施形態について記載したが、この開示の一部をなす論述及び図面はこの発明を
限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなる。
 上述した実施形態において、機器100および端末装置200が別々の装置である一例について説明した。しかしながら、機器100および端末装置200のそれぞれの機能・情報をいずれか1つの装置に統合し運用するとしてもよい。勿論、レシピ出力制御サーバ300の機能・情報を、機器100ないし端末装置200に持たせるとしてもよい。
 レシピ出力制御システム1における各処理をコンピュータに実行させるプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。
 (効果の説明)
 本実施形態に係るレシピ出力制御システムは、例えば、育児や他の家事で手が離せないユーザや、視聴覚に関して障害があるユーザなどにおける、レシピ内容を音声で読み上げる形、あるいは、VR(virtual reality)やAR(Augmented Reality)の形でレシピを確認したいといったニーズに応える際、人の知覚、思考のペース、感覚とずれが少なく、当該レシピの内容を理解しやすい形で音声出力や描画出力を行うよう図ることが可能となる。特に、加齢により情報の認識速度、認識効率が若年層より低下しているユーザや、調理スキルの不足により情報の認識速度、認識効率が調理経験豊富な者より低いユーザにとって、理解しやすいテンポでのレシピの音声出力や描画出力がなされ、レシピ内容の確実な理解が図られる。
 したがって本実施形態に係るレシピ出力制御システムでは、ユーザによって使用する機器が異なる状況や、当該ユーザの調理スキルや年齢によって理解力が異なる状況に的確に対応し、各ユーザにとって理解が容易なテンポ等でのレシピ情報の音声出力等が可能となる。
 本実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
1    :レシピ出力制御システム
21   :CPU
22   :RAM
23   :ROM
24   :補助記憶装置
25   :通信モジュール
26   :入力装置
27   :出力装置
28   :機構
100  :機器
110  :制御部
111  :出力制御情報取得部
112  :出力制御部
120  :通信部
130  :記憶部
131  :仕様情報
140  :操作部
150  :出力部
200  :端末装置
210  :制御部
211  :レシピ情報取得部
212  :出力制御部
220  :通信部
230  :記憶部
231  :仕様情報
232  :ユーザ情報
240  :操作部
250  :出力部
300  :レシピ出力制御サーバ
310  :制御部
311  :レシピ情報管理部
312  :機器情報収集部
313  :ユーザ情報収集部
314  :制御情報生成部
320  :通信部
330  :記憶部
331  :レシピ情報DB
332  :判定ルールDB
333  :表現DB

Claims (12)

  1.  レシピ情報を記憶するレシピ情報記憶部と、
     前記レシピ情報を利用するユーザおよび当該ユーザの使用機器の各情報に基づき、前記使用機器における前記レシピ情報の出力制御情報を、前記ユーザの属性に応じて生成する制御情報生成部と、
     を備えるサーバ装置。
  2.  前記制御情報生成部は、前記出力制御情報を前記使用機器に配信し、前記レシピ情報を前記出力制御情報に応じて出力させる、請求項1に記載のサーバ装置。
  3.  前記使用機器の情報を収集する機器情報収集部と、
     前記ユーザの属性情報を収集するユーザ情報収集部と、をさらに備え、
     前記制御情報生成部は、前記機器情報収集部により収集した情報が示す情報出力テンポと、前記ユーザ情報収集部により収集した情報が示す前記ユーザの情報認識力とに基づき、前記ユーザにおける情報認識力に応じた情報出力テンポでの出力を行う制御情報を、前記出力制御情報として生成する、請求項2に記載のサーバ装置。
  4.  前記制御情報生成部は、前記出力制御情報における情報出力テンポとして、前記レシピ情報の各構成情報の出力速度、および各構成情報の各間における出力待機時間を特定する、請求項3に記載のサーバ装置。
  5.  前記制御情報生成部は、前記使用機器の情報が示す当該使用機器の仕様に基づいて、前記情報出力テンポを特定し、前記ユーザの属性情報が示す当該ユーザの年齢または調理スキルの少なくともいずれかに基づいて、前記情報認識力を特定する、請求項4に記載のサーバ装置。
  6.  前記制御情報生成部は、前記情報出力テンポである発話テンポと、前記情報認識力である当該ユーザの年齢または調理スキルの少なくともいずれかとに基づき、前記ユーザにおける年齢または調理スキルの少なくともいずれかに応じた発話テンポでの出力を行う制御情報を、前記出力制御情報として生成する、請求項5に記載のサーバ装置。
  7.  前記制御情報生成部は、前記情報出力テンポであるオブジェクトの表示テンポと、前記情報認識力である当該ユーザの年齢または調理スキルの少なくともいずれかとに基づき、前記ユーザにおける年齢または調理スキルの少なくともいずれかに応じた表示テンポでの出力を行う制御情報を、前記出力制御情報として生成する、請求項5に記載のサーバ装置。
  8.  前記レシピ情報記憶部は、前記レシピ情報として、料理の材料および当該材料に基づく料理を示す複数のノードと、前記ノードの間にあって該当材料の状態遷移に関する情報を示すエッジとからなるグラフで表現される定量的レシピ情報を記憶し、
     前記制御情報生成部は、前記出力制御情報として、前記ノードおよび前記エッジのそれぞれの情報の出力速度、および前記ノードと前記エッジの各間における出力待機時間を特定する、請求項1から請求項7のいずれか一項に記載のサーバ装置。
  9.  請求項1に記載の前記サーバ装置から前記出力制御情報を取得する情報取得部と、
     前記出力制御情報に基づいて前記レシピ情報を出力する出力部と、
     を備える情報処理端末。
  10.   レシピ情報を記憶するレシピ情報記憶部と、
     前記レシピ情報を利用するユーザおよび当該ユーザの使用機器の各情報に基づき、前記使用機器における前記レシピ情報の出力制御情報を、前記ユーザの属性に応じて生成する制御情報生成部と、
     を備えるサーバ装置と、
     前記サーバ装置から前記出力制御情報を取得する情報取得部と、
     前記出力制御情報に基づいて前記レシピ情報を出力する出力部と、
     を備える情報処理端末と、
     を含むシステム。
  11.  レシピ情報をレシピ情報記憶部に記憶するステップと、
     前記レシピ情報を利用するユーザおよび当該ユーザの使用機器の各情報に基づき、前記使用機器における前記レシピ情報の出力制御情報を、前記ユーザの属性に応じて生成するステップと、
     を備える方法。
  12.  請求項11に記載の方法をコンピュータに実行させるためのプログラム。
PCT/JP2018/047658 2018-12-25 2018-12-25 サーバ装置、情報処理端末、システム、方法およびプログラム WO2020136725A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019500696A JP6533634B1 (ja) 2018-12-25 2018-12-25 サーバ装置、情報処理端末、システム、方法およびプログラム
PCT/JP2018/047658 WO2020136725A1 (ja) 2018-12-25 2018-12-25 サーバ装置、情報処理端末、システム、方法およびプログラム
US17/352,366 US20210312830A1 (en) 2018-12-25 2021-06-21 Server device, electronic device, and method for controlling output control information for recipe information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/047658 WO2020136725A1 (ja) 2018-12-25 2018-12-25 サーバ装置、情報処理端末、システム、方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/352,366 Continuation US20210312830A1 (en) 2018-12-25 2021-06-21 Server device, electronic device, and method for controlling output control information for recipe information

Publications (1)

Publication Number Publication Date
WO2020136725A1 true WO2020136725A1 (ja) 2020-07-02

Family

ID=66934362

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/047658 WO2020136725A1 (ja) 2018-12-25 2018-12-25 サーバ装置、情報処理端末、システム、方法およびプログラム

Country Status (3)

Country Link
US (1) US20210312830A1 (ja)
JP (1) JP6533634B1 (ja)
WO (1) WO2020136725A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153715A (ja) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd 音声対話機能を備えた携帯端末機及びその音声対話方法
JP2017215687A (ja) * 2016-05-30 2017-12-07 シャープ株式会社 レシピ提供システムおよびサーバ

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020171674A1 (en) * 2001-05-15 2002-11-21 Paris Harry G. Kitchen internet appliance
US8419434B2 (en) * 2008-04-15 2013-04-16 International Business Machines Corporation Interactive recipe preparation using interactive cooking device to communicate with kitchen appliances
US20110213667A1 (en) * 2010-02-26 2011-09-01 Salvatore Ierullo Method and system for preparing a dish and content presentation
US20130171304A1 (en) * 2011-07-14 2013-07-04 Robert E. Huntley System and method for culinary interaction
US20130092032A1 (en) * 2011-10-18 2013-04-18 Bsh Home Appliances Corporation Intelligent home cooking appliance, associated systems, and/or methods
US20130149676A1 (en) * 2011-12-12 2013-06-13 Yukie J. Tokuda System and methods for virtual cooking with recipe matching
US20130183642A1 (en) * 2012-01-12 2013-07-18 Apperax LLC System and method for displaying recipes visually
US20140272817A1 (en) * 2013-03-15 2014-09-18 Provictus, Inc. System and method for active guided assistance
US20140272816A1 (en) * 2013-03-15 2014-09-18 Tricia Callahan Multi-day meal preparation instruction generation
US20150099245A1 (en) * 2013-10-01 2015-04-09 Universite Du Quebec A Chicoutimi Method for monitoring an activity of a cognitively impaired user and device therefore
US20170011649A1 (en) * 2015-07-10 2017-01-12 Samsung Electronics Co., Ltd. Recipe system
US10593319B1 (en) * 2017-06-27 2020-03-17 Amazon Technologies, Inc. Parallelization of instruction steps
US10504384B1 (en) * 2018-10-12 2019-12-10 Haier Us Appliance Solutions, Inc. Augmented reality user engagement system
US11741390B2 (en) * 2019-04-30 2023-08-29 Haier Us Appliance Solutions, Inc. Cooking system and method for making recipe suggestions in real time
US11551575B1 (en) * 2021-07-13 2023-01-10 Cooksy Corporation Intelligent cooking process flow

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153715A (ja) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd 音声対話機能を備えた携帯端末機及びその音声対話方法
JP2017215687A (ja) * 2016-05-30 2017-12-07 シャープ株式会社 レシピ提供システムおよびサーバ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TESTURO TAKANO , SHINICHI UESHIMA: "Cooking studio : Cooking simulation for web recipes generation of scenario and cooking scheduling", PROCEEDINGS OF DATA ENGINEERING WORKSHOP (DEWS2004) IEICE DATA ENGINEERING TECHNICAL GROUP, 18 June 2004 (2004-06-18), pages 1 - 8, XP055721870 *

Also Published As

Publication number Publication date
JPWO2020136725A1 (ja) 2021-02-15
JP6533634B1 (ja) 2019-06-19
US20210312830A1 (en) 2021-10-07

Similar Documents

Publication Publication Date Title
US8342847B2 (en) Interactive recipe preparation instruction delivery to disabled indiviuals
US8419434B2 (en) Interactive recipe preparation using interactive cooking device to communicate with kitchen appliances
US8419433B2 (en) Monitoring recipe preparation using interactive cooking device
US8323026B2 (en) Interactive recipe preparation using instructive device with integrated actuators to provide tactile feedback
US8990274B1 (en) Generating a presentation associated with a set of instructions
US20090259688A1 (en) Interactive recipe preparation using instructive device with integrated actuators to provide tactile feedback
JP6491807B1 (ja) サーバ装置、情報処理端末、システム、方法およびプログラム
WO2020066361A1 (ja) レシピ提案装置、レシピ提案方法、および、レシピ提案プログラム
WO2021220603A1 (ja) 調理支援装置、調理支援システム、調理支援方法及び調理支援プログラム
JP6664538B1 (ja) サーバ装置、調理機器、システム、方法およびプログラム
JP2008123131A (ja) 調理レシピ抽出装置および方法、並びに調理レシピ抽出プログラム
JP6572403B1 (ja) サーバ装置、調理機器、システム、方法およびプログラム
WO2020136725A1 (ja) サーバ装置、情報処理端末、システム、方法およびプログラム
JP2020107299A (ja) サーバ装置、情報処理端末、システム、方法およびプログラム
JP2020107305A (ja) サーバ装置、情報処理端末、システム、方法およびプログラム
JP6541203B1 (ja) サーバ装置、情報処理端末、システム、方法およびプログラム
JP2021022365A (ja) レシピ生成装置、レシピ生成方法、および、レシピ生成プログラム
US12011116B2 (en) Device control system, device control method, and non-transitory computer readable medium for recipe
JP2020107309A (ja) サーバ装置、調理機器、システム、方法およびプログラム
WO2020066359A1 (ja) サーバ装置、情報処理端末、システム、方法およびプログラム
US12121179B2 (en) Server apparatus, method, and non-transitory computer readable medium for quantitative expressed recipe
JP6866615B2 (ja) メニュー生成システム、メニュー生成方法及びメニュー生成プログラム
JP2020057353A (ja) サーバ装置、情報処理端末、システム、方法およびプログラム
JP2019204504A (ja) 機器制御システム、サーバ装置、機器制御方法、プログラム、及びレシピのデータ構造
WO2020066362A1 (ja) 機器制御支援装置、端末、機器制御支援システム、機器制御支援方法、および、機器制御支援プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019500696

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18945183

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18945183

Country of ref document: EP

Kind code of ref document: A1