WO2020261028A1 - 情報処理システム、および情報処理方法 - Google Patents

情報処理システム、および情報処理方法 Download PDF

Info

Publication number
WO2020261028A1
WO2020261028A1 PCT/IB2020/055509 IB2020055509W WO2020261028A1 WO 2020261028 A1 WO2020261028 A1 WO 2020261028A1 IB 2020055509 W IB2020055509 W IB 2020055509W WO 2020261028 A1 WO2020261028 A1 WO 2020261028A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
wearable device
information
cooking
user
Prior art date
Application number
PCT/IB2020/055509
Other languages
English (en)
French (fr)
Inventor
金村卓郎
東泰佑
日比野洋也
鴇巣敦哉
郷戸宏充
岡本悟
Original Assignee
株式会社半導体エネルギー研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社半導体エネルギー研究所 filed Critical 株式会社半導体エネルギー研究所
Priority to CN202080043825.5A priority Critical patent/CN114026592A/zh
Priority to JP2021528031A priority patent/JPWO2020261028A1/ja
Priority to KR1020227001953A priority patent/KR20220025817A/ko
Priority to US17/619,623 priority patent/US11922690B2/en
Priority to DE112020003104.7T priority patent/DE112020003104T5/de
Publication of WO2020261028A1 publication Critical patent/WO2020261028A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements

Definitions

  • One aspect of the present invention relates to an information processing system, an information processing device, and an information processing method. Further, one aspect of the present invention relates to a cooking assist system, a cooking assist device, and a cooking assist method.
  • Patent Document 1 In recent years, cooking recipe introduction services through information terminals such as smartphones and tablets have gained support (Patent Document 1).
  • the user can have an information terminal on which the recipe is displayed at hand and cook while referring to the recipe.
  • the object detection is a technique for recognizing an object in a rectangle by extracting a portion of an image in which an object is expected to appear as a bounding box (Patent Document 2).
  • Patent Document 2 R-CNN (Regions with Convolutional Neural Networks), YOLO (You Only Look Access), SSD (Single Shot MultiBox Detector) and the like have been proposed.
  • Patent Document 3 a technique called semantic segmentation has been proposed in which an image is divided into regions using a neural network and labels are given to each divided region.
  • FCN Full Convolutional Network
  • SegNet U-Net
  • PSPNet Pulid Scene Parsing Network
  • Information terminals such as smartphones and tablets are generally operated using a touch panel.
  • the user cooks while looking at these information terminals, it is necessary to operate the information terminals according to the cooking process.
  • the information terminal may not be operated accurately, which is inconvenient.
  • the information terminal is touched with such a hand, the information terminal becomes dirty, and further, the dirt causes the information terminal to malfunction, which is not preferable.
  • a fire source such as a water supply or a stove in the kitchen
  • bringing an information terminal to the kitchen may cause a malfunction of the information terminal due to water or fire.
  • the electromagnetic field may cause malfunction or failure of the information terminal.
  • One aspect of the present invention is to provide an information processing system capable of obtaining information without using hands. Further, one aspect of the present invention is to provide an information processing device capable of obtaining information without using a hand. Further, one aspect of the present invention is to provide an information processing method capable of obtaining information without using a hand. Further, one aspect of the present invention is to provide a cooking assist system capable of obtaining information without using hands. Further, one aspect of the present invention is to provide a cooking assist device capable of obtaining information without using hands. Further, one aspect of the present invention is to provide a cooking assist method capable of obtaining information without using hands.
  • One aspect of the invention comprises a wearable device with display means and imaging means and a database connected to the wearable device via a network, the database being at least one of information about cooking recipes, cooking methods, and ingredients.
  • the wearable device detects the first material by the imaging means, the wearable device collects information about the first material from the database, and the first material is in a specific area of the range to be imaged by the imaging means.
  • an information processing system that displays information about the first material in the display means when is present and hides information about the first material from the display means when the first material is not present in a particular area. is there.
  • the information about the first material preferably includes the cutting position of the first material.
  • the information about the first material preferably includes the position of the bone contained in the first material.
  • the wearable device is preferably a glasses-type wearable device.
  • the database is preferably stored on the server.
  • One aspect of the present invention includes a wearable device including a display means and an imaging means, and a cooking utensil having a temperature sensor.
  • the wearable device and the temperature sensor are connected via a first network, and the wearable device is
  • the wearable device collects information about the temperature inside the cooking utensil from the temperature sensor, and when the cooking utensil is present in a specific area of the range to be imaged by the imaging means, the display means is used. It is an information processing system that displays information about temperature and hides information about temperature from the display means when there is no cooking utensil in a specific area.
  • the information processing system further has a database, the database is connected via a wearable device and a second network including a temperature sensor and a first network, and the database provides information about the temperature. Received via the second network, the database preferably calculates the time required to heat the cookware from the information about the temperature and displays it on the display means.
  • the wearable device is preferably a glasses-type wearable device.
  • the database is preferably stored on the server.
  • One aspect of the present invention is an information processing method using a display means and a wearable device provided with an imaging means, and the wearable device allows the user to see materials and cooking utensils through the display means.
  • the information processing method includes a step of detecting a cutting board existing in the user's line of sight using an imaging means, a step of identifying a first material provided on the cutting board, and a cooking method as a display means. It includes a step of displaying and a step of displaying the cutting position of the first material on the display means so as to overlap the first material in the line of sight of the user.
  • the information processing method further includes a step of displaying the position of a foreign substance existing on the surface or inside of the material on the display means so as to overlap the material in the line of sight of the user.
  • the foreign body is preferably one selected from bone, scales, parasites, and hair.
  • the wearable device is preferably a glasses-type wearable device.
  • an information processing system in which information can be obtained without using hands.
  • an information processing device capable of obtaining information without using a hand.
  • one aspect of the present invention makes it possible to provide an information processing method capable of obtaining information without using a hand.
  • a cooking assist system in which information can be obtained without using hands.
  • a cooking assist device capable of obtaining information without using hands.
  • a cooking assist method capable of obtaining information without using hands.
  • FIG. 1 is a schematic view illustrating an example of how to use the AR glass according to one aspect of the present invention.
  • FIG. 2 is a block diagram illustrating one aspect of the present invention.
  • FIG. 3 is a flowchart illustrating one aspect of the present invention.
  • 4A and 4B are schematic views illustrating an aspect of the present invention.
  • 5A and 5B are schematic views illustrating an aspect of the present invention.
  • 6A and 6B are schematic views illustrating an aspect of the present invention.
  • FIG. 7 is a schematic diagram illustrating an example of a method for displaying a guideline, which is one aspect of the present invention.
  • FIG. 8A is a schematic diagram illustrating a method of causing a neural network to learn teacher data by using machine learning, which is one aspect of the present invention.
  • FIG. 8B is a schematic diagram illustrating a method of generating an image using a trained neural network, which is one aspect of the present invention.
  • FIG. 9 is a schematic diagram illustrating a method of generating an image according to one aspect of the present invention.
  • FIG. 10A is a schematic diagram illustrating a method of causing a neural network to learn teacher data by using machine learning, which is one aspect of the present invention.
  • FIG. 10B is a schematic diagram illustrating a method of generating an image using a trained neural network, which is one aspect of the present invention.
  • 11A and 11B are schematic views illustrating an aspect of the present invention.
  • 12A and 12B are schematic views illustrating an example of a method of displaying a guideline, which is one aspect of the present invention.
  • 13A and 13B are schematic views illustrating an aspect of the present invention.
  • 14A and 14B are schematic views illustrating a method for detecting a cooking utensil, which is one aspect of the present invention.
  • 15A and 15B are schematic views illustrating an aspect of the present invention.
  • the user can cook while using the information terminal.
  • the information terminal one that can be worn by the user is preferable.
  • an example of using a wearable device as an information terminal used by a user is shown.
  • the wearable device shown in the present embodiment is preferably a spectacle-type wearable device, and such a wearable device may be referred to as an AR glass.
  • FIG. 1 shows an example in which a user cooks while wearing an AR glass 10.
  • AR is an abbreviation for Augmented Reality
  • the AR glass 10 can project information such as images and characters onto the outside world seen by the user.
  • the AR glass 10 can present to the user information necessary for the user to perform cooking, such as information on cooking recipes, cooking methods, and ingredients.
  • the ingredients are plant-based materials such as grains, vegetables, fruits and seaweed, animal-based materials such as seafood, meat, eggs, dairy products and bones, seasonings, flavors, oils, food additives, etc. for cooking. Contains the necessary materials.
  • the material may be called a food material. The user can acquire the information necessary for cooking through the AR glass 10 even when both hands are closed.
  • the AR glass 10 is composed of a glass portion 10a, a housing 10b, and a wiring 10c.
  • the wiring 10c connects the glass portion 10a and the housing 10b.
  • the housing 10b is housed in a pocket of an apron. If the glass portion 10a and the housing 10b are capable of wireless communication, the wiring 10c may be omitted. Further, when all the elements required for the AR glass 10 fit in the glass portion 10a, the housing 10b and the wiring 10c may be omitted.
  • FIG. 2 is a block diagram showing a configuration example of the AR glass 10.
  • the AR glass 10 includes a first camera module 11, a second camera module 12, a controller 13, a display unit 14, a processor 15, a memory 16, a communication module 17, an audio controller 18, and a microphone 19. It has a speaker 20, a battery 21, a sensor 25, and a bus 22.
  • the first camera module 11, the second camera module 12, the controller 13, the processor 15, the memory 16, the communication module 17, the sensor 25, and the audio controller 18 are used for data via the bus 22. Communicate.
  • the first camera module 11 has a function of acquiring the user's field of view as an image. Further, the second camera module 12 has a function of capturing the movement of the user's eyeball and detecting the user's line of sight.
  • the imaging direction of the first camera module 11 substantially matches the line of sight of the user.
  • the imaging range of the first camera module 11 preferably includes a field of view that the user can see through the AR glass 10. That is, it is preferable that a specific region of the imaging range of the first camera module 11 matches the field of view that the user can see through the AR glasses 10.
  • the audio controller 18 has a function of analyzing the audio signal acquired by the microphone 19 and converting it into a digital signal. It also has a function of generating an audio signal to be output to the speaker 20.
  • the controller 13 has a function of generating an image to be displayed on the display unit 14.
  • the communication module 17 has a function of communicating with a database via a network such as the Internet.
  • the AR glass 10 can communicate with the database via the network.
  • the data downloaded from the database is stored in the memory 16.
  • the database is preferably stored on the server 23.
  • the AR glass 10 uses the communication module 17 to connect to the server 23 via the network.
  • the AR glass 10 may connect to the server 23 via a device connected to the AR glass 10 and the server 23 via a network.
  • a desktop computer 26, a laptop computer 27, a tablet computer 28 (tablet terminal), a smartphone 29, and the like can be used.
  • the database may be stored in the above device.
  • the user can register user information in the AR glass 10 and the database, set usage conditions, register cooking utensils used by the user, and the like using the above device.
  • the server 23 preferably performs machine learning using the teacher data.
  • the AR glass 10 can download the learning result obtained by the above learning from the server 23 and store it in the memory 16.
  • the battery 21 has a function of supplying power to each device constituting the AR glass 10.
  • the processor 15 has a function of integrally controlling the device connected to the bus 22.
  • the processor 15 comprehensively determines the information acquired from the first camera module 11, the second camera module 12, the communication module 17, and the audio controller 18, and gives an instruction to the controller 13.
  • the controller 13 receives an instruction from the processor 15 to generate image data and display it on the display unit 14.
  • see-through panel that transmits external light
  • examples of the see-through panel include an organic EL (Electro Luminescence) display, a liquid crystal display, and the like.
  • the pixel density of the see-through panel can be 1000 ppi or more and 50000 ppi or less, preferably 2000 ppi or more and 50000 ppi or less, more preferably 3000 ppi or more and 50000 ppi or less, and further preferably 5000 ppi or more and 50000 ppi or less.
  • the pixel density can be 4500 ppi or more and 5500 ppi or less, 5500 ppi or more and 6500 ppi or less, or 6500 ppi or more and 7500 ppi or less.
  • the number of pixels in the see-through panel can be, for example, 1000 or more and 20000 or less, preferably 2000 or more and 20000 or less, and more preferably 3000 or more and 20000 or less in the scanning line direction or the signal line direction.
  • the shape of the display area can be close to a square (the ratio of the length to the width is 0.8 or more and 1.2 or less).
  • the shape of the display area is a horizontally long rectangle (for example, the ratio of the horizontal length to the vertical is 1.5 or more and 5.0 or less).
  • the see-through panel may be adapted to a television standard having an aspect ratio of 16: 9, in which case the resolution may be FHD standard, 4K2K standard, or 8K4K standard.
  • the display unit 14 may have a device for projecting an image on a reflector arranged in front of the user's eyes.
  • the display unit 14 has an optical member such as a light guide plate and a half mirror, and a light emitting element.
  • the light emitting element include an organic EL element, an LED (Light Emitting Diode) element, and an inorganic EL element.
  • the display unit 14 may have a retinal projection type display device.
  • the retinal projection type display device is a device that projects an image on the retina by irradiating the user's retina with a low-intensity laser beam.
  • the display unit 14 includes a laser oscillator, an optical system (light guide plate, reflector, half mirror, etc.) and the like. Further, the laser oscillator is preferably controlled by MEMS (Micro Electro Mechanical System).
  • the user wearing the AR glass 10 can see the ingredients and utensils necessary for cooking through the display unit 14. From the user's line of sight, the display unit 14 displays information about the material and cooking utensil that the user is looking at. That is, from the user's point of view, the display unit 14 displays information about these so as to overlap with the ingredients and cooking utensils.
  • the AR glass 10 may also have a sensor 25 such as an acceleration sensor, a gyro sensor, a temperature sensor, and an electro-oculography sensor.
  • the electro-oculography sensor is a sensor that detects a potential change caused by the movement of the eye, and is provided on the glass portion 10a. By having the electro-oculography sensor, the AR glass 10 can analyze the movement of the user's eyes and track the user's line of sight.
  • the AR glass 10 may include the processor 15, the memory 16, the communication module 17, and the battery 21 in the housing 10b, and may include other components in the glass portion 10a. By doing so, the weight of the glass portion 10a can be reduced, and the burden felt by the user can be reduced.
  • only the battery 21 may be included in the housing 10b, and other components may be included in the glass portion 10a, if it does not burden the user.
  • the device connected to the bus 22 nearby it is possible to improve the processing speed and save power.
  • the battery 21 can be further miniaturized, all the structural elements of the AR glass 10 may be included in the glass portion 10a. In that case, the housing 10b and the wiring 10c are unnecessary.
  • FIG. 3 is a flowchart for explaining the processing flow of the system.
  • FIG. 3 includes steps S0 to S10.
  • steps S0 to S10 the details of the system will be described step by step from step S0.
  • the AR glass 10 is used to prepare the fish will be described.
  • the field of view 50 shown in FIG. 4A represents a field of view that the user can see through the AR glass 10 immediately after the system is started.
  • the cutting board 60 and the material 62, as well as the kitchen knife 63 and the cloth width 64, are present in the field of view 50.
  • an example in which fish is used as the material 62 is shown.
  • the imaging range of the first camera module 11 preferably includes the field of view 50. That is, it is preferable that a specific region of the imaging range of the first camera module 11 coincides with the field of view 50.
  • the cutting board 60 is preferably a plain one with less dirt and scratches.
  • markers 61a, 61b, 61c and 61d are arranged at the four corners of the cutting board 60.
  • the markers 61a to 61d may be printed directly on the cutting board 60, or may be placed on the cutting board by the user, such as a sticker.
  • the number of markers is not limited to this, and may be arranged only at the three corners of the cutting board 60, for example.
  • step S1 the system detects the positions of the cutting board 60 by detecting the markers 61a to 61d using the first camera module 11.
  • the system adds only the region surrounded by the markers 61a to 61d to the analysis target, and excludes the region outside the region from the analysis target. For example, as shown in FIG. 4B, the system excludes the shaded areas in the figure from analysis.
  • the system tries to recognize the material 62 by image analysis, but if the material existing around the cutting board 60 such as the kitchen knife 63 and the cloth width 64 is added to the target of the image analysis, the recognition accuracy of the material 62 is adversely affected. To exert. As shown in FIG. 4B, the system can improve the recognition accuracy of the material 62 by excluding those existing around the cutting board 60 from the analysis target. Further, by narrowing the area of the image to be analyzed, it becomes possible to perform image analysis at higher speed.
  • the region of the cutting board 60 is formed by using the object detection method such as R-CNN, YOLO, SSD described in the background technique and the semantic segmentation such as FCN, SegNet, U-Net, PSPNet, etc. without using a marker. May be detected.
  • object detection method such as R-CNN, YOLO, SSD described in the background technique
  • semantic segmentation such as FCN, SegNet, U-Net, PSPNet, etc. without using a marker. May be detected.
  • step S2 the system identifies the type of material 62.
  • a rectangle 65 is displayed so as to surround the material 62, and candidates for the material 62 are displayed in the menu 70. It is preferable to use the above-mentioned object detection method for specifying the material 62. It is preferable that the menu 70 is displayed in order from the most probable candidate for the material 62.
  • the user can select the type of material 62 from the candidates displayed in the menu 70.
  • the user can select a menu by voice input. For example, when the user utters "horse mackerel", the system analyzes the user's voice and determines that "horse mackerel" has been selected.
  • the user can select a menu by looking at it. For example, the user stares at the item of "horse mackerel" displayed on the menu 70.
  • the AR glass 10 detects the line of sight of the user and determines that "horse mackerel" has been selected.
  • the detection of the user's line of sight can be performed by using the second camera module 12. From the user's eyeball image acquired by the second camera module 12, the user's line of sight can be detected by analyzing the positional relationship between the inner corner of the eye and the iris with the inner corner of the user as a reference point.
  • the line of sight of the user can be detected. Detecting the user's line of sight by irradiating the user's eyes with infrared rays emitted from an infrared source and analyzing the positional relationship between the corneal reflex and the pupil with the reflection position on the cornea (called the corneal reflex) as the reference point. Can be done.
  • an infrared source such as an infrared LED and an infrared detector such as an infrared camera
  • the AR glass 10 may track the user's line of sight by analyzing the user's electro-oculography.
  • the pointer 51 may be displayed on the menu 70 in accordance with the line of sight of the user. By displaying the pointer 51, the user can determine whether or not the item intended by the user is selected.
  • the pointer 51 may be displayed only when an item is selected from the menu 70.
  • the sensor 25 may be used to detect the movement of the user to display or hide the pointer 51.
  • the user wearing the AR glasses 10 may show or hide the pointer 51 by shaking his head up and down or left and right.
  • a user wearing the AR glass 10 can display the pointer 51 by shaking his head up and down, and can hide the pointer 51 by shaking it left and right.
  • the user can select a menu without using his / her hands. By doing so, the user can operate the system even when both hands are closed during cooking.
  • the movement of the user's hand may be detected by using the first camera module 11.
  • the user can select a desired item by arranging a hand, particularly a finger, on the display unit 14 so as to overlap the desired item of the menu 70.
  • the selected item may be determined in combination with a known gesture recognition method such as a finger gesture.
  • the user can operate the system without touching the information terminal.
  • the user can operate the system without touching the information terminal, it is possible to suppress the failure or malfunction of the information terminal due to touching the information terminal with a wet hand or a hand with a material attached. Can be done. In addition, it is not necessary to continue cooking by touching the information terminal, which is preferable in terms of food hygiene.
  • the menu 70 and the pointer 51 are preferably displayed when the material 62 is present in the field of view 50.
  • the menu 70 and the pointer 51 may be hidden.
  • the menu 70 and the pointer 51 may be hidden after a certain period of time has elapsed in the state where the material 62 does not exist in the visual field 50.
  • step S3 the system displays recipe candidates using the ingredient 62.
  • a recipe candidate using horse mackerel is displayed in the menu 70.
  • the user can select a recipe from the menu 70 in the same manner as in step S2. It is preferable that the recipe displays health-related information such as calories, salt and sugar, and necessary ingredients and seasonings.
  • the user can register the number of people who serve dishes, taste preferences, etc. when selecting a recipe.
  • step S4 the system displays the recipe selected in step S3.
  • the recipe 71 is displayed above the field of view 50.
  • the recipe 71 a number of each procedure and an image for explaining each procedure are displayed.
  • the procedure in the recipe 71 is selected in the same manner as in step S2
  • the image of the selected procedure is displayed in a large size (FIG. 6B).
  • a text 72 explaining the procedure and a text 73 explaining the one-point advice are displayed below the visual field 50.
  • the image displayed in the recipe 71 is not limited to the still image, and a moving image may be used.
  • the recipe 71, the text 72, the text 73, and the pointer 51 are preferably displayed when one of the material 62 and the cutting board 60 is present in the field of view 50.
  • the recipe 71, the text 72, the text 73, and the pointer 51 may be hidden when the material 62 and the cutting board 60 are not present in the visual field 50 due to the movement of the line of sight by the user or the movement of the material 62 or the cutting board 60.
  • the recipe 71, the text 72, the text 73, and the pointer 51 may be hidden after a certain period of time has elapsed in the state where the material 62 and the cutting board 60 are not present in the field of view 50.
  • step S5 the user selects whether to enable or disable the display function of the kitchen knife guideline indicating the cutting position of the material. If the kitchen knife guideline is enabled, in step S6, the system displays the kitchen knife guideline indicating the proper cutting position of the material.
  • FIG. 7 is a view of the field of view 50 when the kitchen knife guideline is displayed.
  • the user is handling the fish (material 62) with a kitchen knife.
  • the system displays the guideline 75 so as to overlap the material 62.
  • the user can correctly cut and cook the material 62 by inserting the knife blade according to the guideline 75.
  • the guideline 75 three-dimensionally along the shape of the material 62, the user can easily cut or process the material 62.
  • a method of displaying the kitchen knife guideline on the system will be described with reference to FIGS. 8A and 8B. It is preferable to display the kitchen knife guideline by using machine learning using a neural network.
  • FIG. 8A shows a method of training a neural network with teacher data. The learning is preferably performed on the server 23 shown in FIG.
  • FIG. 8B shows a method of generating a target image using a trained neural network.
  • the process shown in FIG. 8B is performed inside the AR glass 10.
  • the AR glass 10 downloads the trained neural network from the server 23 and generates a target image.
  • Data set 80 is prepared as teacher data.
  • the data set 80 has an image set 81 and an image set 82.
  • the image set 81 has images of a plurality of materials.
  • the image set 82 is obtained by adding a start point 83 represented by a circle and an end point 84 also represented by a circle to each image of the image set 81.
  • the data set 80 is trained by the neural network 85.
  • the neural network 85 it is preferable to use a neural network used for image generation such as Autoencoder, CAE (Convolutional Autoencoder), VAE (Variational Autoencoder), U-net, and GAN (Generative Adversarial Networks).
  • Image 86 is an image of material 62 acquired by the system.
  • the image 86 is input to the trained neural network 85, the image 87 in which the start point 88 and the end point 89 are added to the material 62 is obtained.
  • the target image 90 to which the kitchen knife guideline is added to the material can be obtained.
  • step S7 the user selects whether to enable or disable the bone detection function. If bone detection is enabled, the system performs bone detection in step S9.
  • the bone detection function is particularly effective in detecting small bones. By using the bone detection function, it is possible to suppress the cooking and provision of the material in which the small bone remains.
  • the detection function is also effective in detecting scales and parasites. Foreign substances such as bones, scales, and parasites that are not edible are called foreign substances. Therefore, the bone detection function can be called a foreign substance detection function.
  • FIG. 9 shows how the field of view 50 looks when bone detection is enabled.
  • Material 76 represents a fish fillet.
  • the material 76 is a part of the body cut out from the material 62.
  • the bone 78 contained in the material 76 is emphasized. Therefore, the user can easily find and remove the bone contained in the fish fillet regardless of its size.
  • the text 73 may be displayed on the detected bone 78.
  • the text 73 preferably contains information about the bone 78 and advice on how to deal with it. For example, when the detected bone 78 is a small bone to be removed, information indicating that the small bone has been detected and advice for prompting the removal may be displayed as text 73.
  • a method for detecting bone contained in fish will be described with reference to FIGS. 10A and 10B.
  • For bone detection it is preferable to use a method of Semantic Segmentation.
  • FIG. 10A shows a method of training a neural network with teacher data. The learning is preferably performed on the server 23 shown in FIG.
  • FIG. 10B shows a method of generating a target image using a trained neural network.
  • the process shown in FIG. 1B is performed inside the AR glass 10.
  • the AR glass 10 downloads the trained neural network from the server 23 and generates a target image.
  • Data set 100 is prepared as teacher data.
  • the data set 100 includes an image set 91 and an image set 92.
  • the image set 91 comprises images of a plurality of materials (in this case, fish fillets).
  • each image of the image set 91 is painted separately in the bone region and the other regions.
  • the data set 100 is trained by the neural network 95.
  • the neural network 95 a neural network used for Semantic Segmentation such as FCN, SegNet, U-net, PSPNet, etc. is preferable.
  • Image 96 is an image of material 76 acquired by the system.
  • the image 96 is input to the trained neural network 95, the image 97 in which the material 76 is painted on the bone and the other regions is obtained.
  • image 98 By synthesizing image 97 and image 96, it is possible to obtain image 98 in which the bones of the material 76, particularly the small bones, are emphasized.
  • the above system can detect not only bones but also fish scales and parasites parasitized on fish by using techniques such as object detection and Semantic Segmentation.
  • the material 76 is not a fish
  • hair, feathers, and the like are also included in the foreign matter.
  • foreign substances include shells, shell fragments, and sand.
  • foreign substances include hair, lint, fibers, and other parts of clothing such as users and people involved in cooking such as chefs.
  • the detection function of the system preferably detects any foreign matter that is not edible, such as these. In particular, it is not hygienic that hair adheres to or mixes with the material. It is preferable to detect and remove using the above system.
  • step S9 the user selects "terminate” to terminate the system (step S10).
  • an information processing system capable of obtaining information without using hands.
  • an information processing device capable of obtaining information without using a hand.
  • one aspect of the present invention makes it possible to provide an information processing method capable of obtaining information without using a hand.
  • a cooking assist system in which information can be obtained without using hands.
  • a cooking assist device capable of obtaining information without using hands.
  • a cooking assist method capable of obtaining information without using hands.
  • Embodiment 2 In the previous embodiment, an example of fish is shown as a material, but the present invention is not limited to this.
  • Materials include seafood other than fish, meat of mammals such as cows, pigs and sheep, meat of birds such as chickens, duck and turkey, reptiles such as snakes and lizards, amphibians such as frogs, insects such as crickets, vegetables and fruits. Mushrooms and the like can be used.
  • meat of mammals such as cows, pigs and sheep
  • meat of birds such as chickens, duck and turkey
  • reptiles such as snakes and lizards
  • amphibians such as frogs
  • insects such as crickets, vegetables and fruits. Mushrooms and the like
  • Mushrooms and the like can be used.
  • an example in which vegetables are used as the material 77 is shown.
  • FIG. 11A shows the user's field of view 50 looking through the AR glass 10 as the material 77 is provided on the cutting board 60.
  • the recipe 71 and the guideline 75 are displayed on the display unit 14 of the AR glass 10. The user can cut the material 77 while aligning the knife with the guideline 75.
  • FIG. 11B shows how the AR glass 10 detects the user's line of sight and selects a desired procedure from the recipe 71.
  • a pointer 51 is displayed on the recipe 71 according to the line of sight of the user, and the user can select a procedure while checking the position of the pointer 51.
  • the image of the selected procedure is displayed larger. Further, a text 72 explaining the procedure and a text 73 explaining the one-point advice are displayed below the visual field 50. As a result, the user can grasp the points to be noted in each procedure.
  • the image displayed in the recipe 71 is not limited to the still image, and a moving image may be used.
  • a method of displaying the kitchen knife guideline on the system will be described with reference to FIGS. 12A and 12B. It is preferable to display the kitchen knife guideline by using machine learning using a neural network.
  • the system uses the first camera module 11 to detect the markers 61a to 61d to detect the position of the cutting board 60 (FIG. 12A).
  • the material 77 on the cutting board is detected, and the material 77 candidate and the recipe candidate are displayed to the user.
  • the user identifies material 77 and selects a recipe using a method similar to that of the previous embodiment.
  • the system obtains information about the material 77 and recipes for the material 77, that is, cooking methods and processing methods from the database.
  • FIG. 12B shows an example of cutting the material 77 into small pieces (cut into julienne).
  • the system displays the guideline 75 on the display 14 so as to overlap the desired position of the material 77. For example, the guideline 75 is displayed at a position at a predetermined distance from the end of the material 77.
  • the number of the displayed guideline 75 is not limited.
  • One guideline 75 may be displayed for each cutting, or a plurality of guideline 75s required for a plurality of cuttings may be displayed.
  • the neural network may be made to learn the teacher data as in the previous embodiment.
  • a neural network used for image generation such as Autoencoder, CAE, VAE, U-net, and GAN.
  • Image 99 can be obtained by performing image processing based on this information and adding the guideline 75 to the material 77.
  • an information processing system capable of obtaining information without using hands.
  • an information processing device capable of obtaining information without using a hand.
  • one aspect of the present invention makes it possible to provide an information processing method capable of obtaining information without using a hand.
  • a cooking assist system in which information can be obtained without using hands.
  • a cooking assist device capable of obtaining information without using hands.
  • a cooking assist method capable of obtaining information without using hands.
  • the heating time varies depending on the cooking content, ingredients, and amount of ingredients.
  • the system detects an object of the cooking utensil during cooking while performing the cooking and processing shown in the previous embodiment, and displays the heating time in the cooking utensil and the time until the end of cooking on the AR glass 10. Let me. By detecting an object with this system, even when cooking is performed simultaneously using a plurality of cooking utensils, the heating time and the time until the end of cooking can be displayed on the AR glass 10 for each cooking utensil.
  • FIG. 13A shows a user observing through the AR glass 10 how cooking utensils 210, cooking utensils 212, and cooking utensils 214 are arranged on a stove 200 having a plurality of heating means and cooked by each heating means.
  • the field of view 50 is shown.
  • heating means included in the stove 200 heating by gas, induction heating (IH), heating by electric resistance, or the like can be used.
  • the heating intensity can be adjusted.
  • the heating intensity that is, the thermal power can be adjusted by the amount of gas introduced.
  • the heating intensity can be adjusted by the introduced electric power.
  • FIG. 13A shows an example in which a cooking utensil 210 is used to heat a material that requires cooking for 15 minutes.
  • FIG. 13A shows a state in which 10 minutes have passed since the start of cooking. Further, it is shown that the text 220a indicating the elapsed time of cooking and the remaining heating time is displayed on the display unit 14 of the AR glass 10.
  • FIG. 13A shows an example in which a cooking utensil 212 is used to heat a material that requires cooking for 10 minutes.
  • FIG. 13A shows a state in which 2 minutes have passed since the start of cooking. Further, it is shown that the text 220b indicating the elapsed time of cooking and the remaining heating time is displayed on the display unit 14 of the AR glass 10.
  • FIG. 13A shows an example in which water is heated to 100 ° C. using cooking utensil 214.
  • FIG. 13A shows how the water in the cooking utensil 214 is heated to 80 ° C.
  • the cooking utensil 214 is provided with a temperature sensor 216 capable of wirelessly communicating with the AR glass 10.
  • the temperature inside the cooking utensil 214 detected by the temperature sensor 216 is transmitted to the AR glass 10 and can be displayed on the display unit 14.
  • the system predicts the heating time required to reach the desired temperature from the amount of water contained in the cooking utensil 214, the temperature of the water before heating, and the amount of change in the temperature of the water due to heating.
  • the heating time is preferably predicted in a database. Further, for predicting the heating time, machine learning or a data sheet in which the energy required for heating a certain amount of water is described can be used.
  • FIG. 13A shows that the current temperature of water in the cooking utensil 214 and the result predicted to reach 100 ° C. in 2 minutes are displayed in the text 220c.
  • the cooking utensil 210 and the cooking utensil 212 may be provided with the temperature sensor 216 in the same manner as the cooking utensil 214.
  • the temperature sensor 216 can acquire the temperature of the oil and transmit it to the AR glass 10.
  • the AR glass 10 can display the internal temperature of each cooking utensil on the display unit 14.
  • the user can cook at the optimum temperature while checking the temperature inside the cooking utensil.
  • excessive heating of the oil in the cooking utensil may cause the oil to ignite.
  • the AR glass 10 can display a warning on the display unit 14 to alert the user.
  • the AR glass 10 may be connected to the stove 200 via a network. In this case, it is preferable to stop the heating of the desired heating portion by the signal emitted from the AR glass 10.
  • the temperature information in the cooking utensil and the cooking recipe acquired from the temperature sensor 216 may be analyzed by a database, the time required for cooking may be calculated, and displayed in the texts 220a, 220b, and 220c.
  • FIG. 13B shows the user's field of view 50 looking through the AR glass 10 on the stove 200 after 5 minutes have passed from the state of FIG. 13A.
  • FIG. 13B shows how the predetermined heating time has ended.
  • the text 220a indicates that the heating time has ended.
  • the AR glass 10 may transmit a signal to the stove 200, and the stove 200 that receives the signal may end the heating of the cooking utensil 210.
  • FIG. 13B shows a state in which 7 minutes have passed from the start of cooking.
  • the text 220b on the display unit 14 of the AR glass 10 shows that the elapsed cooking time and the remaining heating time are updated.
  • the AR glass 10 analyzes the temperature obtained from the temperature sensor 216 provided on the cooking utensil 212, and transmits a signal for adjusting the heating intensity (thermal power, etc.) to the cooking utensil 212 to the stove 200. May be good. For example, if the inside of the cooking utensil 212 is overheated, the AR glass 10 can send a signal to the stove 200 to reduce the heating. Further, when the internal temperature of the cooking utensil 212 is low, the AR glass 10 can transmit a signal to increase the heating to the stove 200. The stove 200 that has received the signal adjusts the heating intensity of the corresponding heating unit.
  • FIG. 13B shows a user moving the cooking utensil 214 from the stove 200. Since the cooking utensil 214 does not exist in the field of view 50, the text 220c is hidden on the display unit 14.
  • the system may terminate the heating when the water inside the cookware 214 reaches the desired temperature. Further, the system may detect that the cooking utensil 214 is moved from the heating means by image processing described later, and may end the heating. At the end of heating, the AR glass 10 may send a signal of the end of heating to the stove 200, and the stove 200 may receive the signal to end the heating of the desired heating means.
  • the object detection method such as R-CNN, YOLO, SSD described in the background technique and the semantic segmentation such as FCN, SegNet, U-Net, PSPNet can be used.
  • the system can image-analyze features such as the shape and size of the cookware to identify the type of cookware.
  • the characteristics of the shape include the shape and number of handles of the cooking utensil and the shape of the spout.
  • the size is characterized by the area, height, volume, etc. of the bottom surface.
  • a rectangle 222a surrounding the cooking utensil 210, a rectangle 222b surrounding the cooking utensil 212, and a rectangle 222c surrounding the cooking utensil 214 are displayed on the display unit 14.
  • the system determines that the cooking utensil 210 is a pan and displays the text 224a.
  • the rectangle 222b it is determined that the cooking utensil 212 is a frying pan, and the text 224b is displayed.
  • the image in the rectangle 222c it is determined that the cooking utensil 214 is a kettle, and the text 224c is displayed.
  • each cooking utensil may be determined by machine learning using teacher data, or the cooking utensils used by the user in advance are registered in the database or the memory 16 of the AR glass 10 and the registered data. You may go based on.
  • each cooking utensil may be divided into regions.
  • the type of cooking utensil may be specified from the shape of each area and a label may be given to each area, or the type of cooking utensil may be specified by the above image analysis and then a label may be given to each area. ..
  • the system displays information about the cooking utensil on the display unit 14.
  • the information displayed on the display unit 14 includes the type of cooking utensil, the ingredients contained in the cooking utensil, the cooking time, and the like.
  • the information about the cooking utensil may be hidden.
  • the information about the cooking utensil may be hidden after a certain period of time has passed in the state where the cooking utensil is not present in the field of view 50.
  • an information processing system capable of obtaining information without using hands.
  • an information processing device capable of obtaining information without using a hand.
  • one aspect of the present invention makes it possible to provide an information processing method capable of obtaining information without using a hand.
  • a cooking assist system in which information can be obtained without using hands.
  • a cooking assist device capable of obtaining information without using hands.
  • a cooking assist method capable of obtaining information without using hands.
  • FIG. 15A shows a perspective view of the glasses-type information terminal 900.
  • the information terminal 900 has a pair of display panels 901, a pair of housings (housing 902a, housing 902b), a pair of optical members 903, a pair of mounting portions 904, and the like.
  • the information terminal 900 can project the image displayed on the display panel 901 onto the display area 906 of the optical member 903. Further, since the optical member 903 has translucency, the user can see the image displayed in the display area 906 by superimposing it on the transmitted image visually recognized through the optical member 903. Therefore, the information terminal 900 is an information terminal capable of AR display.
  • the display unit 14 described in the previous embodiment includes not only the display panel 901 but also an optical member 903 including a display area 906, and an optical system having a lens 911, a reflector 912, and a reflection surface 913 described later. Can also be included.
  • As the display panel 901 an organic EL display, an LED display, an inorganic EL display, a liquid crystal display, or the like can be used. When a liquid crystal display is used as the display panel 901, it is preferable to provide a light source that functions as a backlight.
  • the information terminal 900 is provided with a pair of cameras 905 capable of photographing the front and a pair of cameras 909 capable of photographing the user side.
  • the camera 905 is a part of the component of the first camera module 11, and the camera 909 is a part of the component of the second camera module 12.
  • the camera 905 of the present embodiment is not limited to this.
  • the number of cameras 905 provided in the information terminal 900 may be one.
  • the camera 905 may be provided in the central portion of the front surface of the information terminal 900, or may be provided in the front surface of one of the housing 902a and the housing 902b. Further, the two cameras 905 may be provided in front of the housing 902a and the housing 902b, respectively.
  • the camera 909 can detect the line of sight of the user. Therefore, it is preferable that two cameras 909 are provided, one for the right eye and the other for the left eye. However, if one camera can detect the line of sight of both eyes, one camera 909 may be used. Further, the camera 909 may be an infrared camera capable of detecting infrared rays.
  • the housing 902a has a wireless communication device 907, and a video signal or the like can be supplied to the housing 902. Further, it is preferable that the wireless communication device 907 has a communication module 17 and communicates with the database. In addition to the wireless communication device 907 or in addition to the wireless communication device 907, a connector to which a cable 910 to which a video signal or a power supply potential is supplied may be connected may be provided. The cable 910 may have a function as a wiring 10c connected to the housing 10b. Further, by providing the housing 902 with an acceleration sensor, a gyro sensor, or the like as the sensor 25, it is possible to detect the direction of the user's head and display an image corresponding to the direction in the display area 906. Further, the housing 902 is preferably provided with a battery 21, and can be charged wirelessly or by wire.
  • the housing 902b is provided with an integrated circuit 908.
  • the integrated circuit 908 includes a controller 13, a processor 15, a memory 16, an audio controller 18, and the information terminal 900 such as a camera 905, a wireless communication device 907, a pair of display panels 901, a microphone 19, and a speaker 20. It has a function to control various components and a function to generate an image.
  • the integrated circuit 908 may have a function of generating a composite image for AR display.
  • the wireless communication device 907 can communicate data with an external device.
  • data transmitted from the outside can be output to the integrated circuit 908, and the integrated circuit 908 can generate image data for AR display based on the data.
  • Examples of data transmitted from the outside include data including information necessary for cooking transmitted from a database and data including information related to cooking transmitted from various sensors provided in cooking utensils. ..
  • a display panel 901, a lens 911, and a reflector 912 are provided inside the housing 902. Further, a portion of the optical member 903 corresponding to the display area 906 has a reflecting surface 913 that functions as a half mirror.
  • the light 915 emitted from the display panel 901 passes through the lens 911 and is reflected by the reflector 912 toward the optical member 903. Inside the optical member 903, the light 915 repeats total internal reflection at the end surface of the optical member 903 and reaches the reflecting surface 913 to project an image on the reflecting surface 913. As a result, the user can visually recognize both the light 915 reflected on the reflecting surface 913 and the transmitted light 916 transmitted through the optical member 903 (including the reflecting surface 913).
  • the light source is provided so that the light from the light source functioning as a backlight enters the lens 911 through the display panel 901. That is, it is preferable that the liquid crystal panel of the liquid crystal display is provided between the light source and the lens 911.
  • FIG. 15B shows an example in which the reflector 912 and the reflector 913 each have a curved surface.
  • the degree of freedom in optical design can be increased and the thickness of the optical member 903 can be reduced as compared with the case where these are flat surfaces.
  • the reflector 912 and the reflection surface 913 may be flat.
  • the reflector 912 a member having a mirror surface can be used, and it is preferable that the reflector has a high reflectance. Further, as the reflecting surface 913, a half mirror utilizing the reflection of the metal film may be used, but if a prism or the like utilizing the total reflection is used, the transmittance of the transmitted light 916 can be increased.
  • the housing 902 has a mechanism for adjusting the distance between the lens 911 and the display panel 901 and the angles thereof. This makes it possible to adjust the focus and enlarge / reduce the image.
  • the lens 911 and the display panel 901 may be configured to be movable in the optical axis direction.
  • the housing 902 has a mechanism capable of adjusting the angle of the reflector 912. By changing the angle of the reflector 912, it is possible to change the position of the display area 906 in which the image is displayed. This makes it possible to arrange the display area 906 at an optimum position according to the position of the user's eyes.
  • a display device can be applied to the display panel 901. Therefore, the information terminal 900 can be displayed with extremely high definition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Library & Information Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

情報処理システム、情報処理装置、および情報処理方法を提供する。 表示手段、および撮像手段を備えたウェアラブル装置と、ウェアラブル装置とネットワークを介し て接続するデータベースとを有し、データベースは、調理レシピ、調理方法、および材料に関する 情報の少なくとも一を有し、ウェアラブル装置は、撮像手段により第1の材料を検出し、ウェアラ ブル装置は、データベースから第1の材料に関する情報を収集し、撮像手段が撮像する範囲の特定 の領域に第1の材料が存在するとき、表示手段に第1の材料に関する情報を表示し、特定の領域に 第1の材料が存在しないとき、表示手段から第1の材料に関する情報を非表示にする。

Description

情報処理システム、および情報処理方法
本発明の一態様は、情報処理システム、情報処理装置、および情報処理方法に関する。また、本発明の一態様は、調理補助システム、調理補助装置、および調理補助方法に関する。
近年、スマートフォンやタブレットなどの情報端末を通じた、料理レシピ紹介サービスが支持を得ている(特許文献1)。
ユーザーは、レシピが表示された情報端末を手元に置き、レシピを参照しながら調理を行うことができる。
また、近年、ニューラルネットワークを用いて画像から物体検出を行う技術が提案されている。
上記物体検出とは、画像から対象物が写っていると予想される部分を矩形(bounding box)として抽出し、矩形内の物体を認識する技術である(特許文献2)。上記物体検出の方法として、R−CNN(Regions with Convolutional Neural Networks)、YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)などが提案されている。
また、近年、ニューラルネットワークを用いて、画像を領域ごとに分割し、分割された領域ごとにラベルを与えるセマンティック・セグメンテーションという技術が提案されている(特許文献3)。
上記セマンティック・セグメンテーションの方法として、FCN(Fully Convolutional Network)、SegNet、U−Net、PSPNet(Pyramid Scene Parsing Network)などが提案されている。
特開2018−124672号公報 特開2017−55177号公報 特表2018−535491号公報
スマートフォンやタブレットなどの情報端末は、タッチパネルによる操作が一般的である。一方、ユーザーがこれら情報端末を見ながら調理を行う場合、調理工程に応じて情報端末を操作する必要がある。しかしながら、調理中、ユーザーの手に水、食材、および調味料などが付着していると、情報端末を正確に操作できない場合があり、不便である。また、そのような手で情報端末に触れると、情報端末が汚れ、さらには汚れによる情報端末の故障を引き起こし、好ましくない。また、情報端末に触れた手で調理を続けることは食品衛生上好ましくない。
また、調理場には、水道やコンロなどの火元があり、情報端末を調理場に持ち込むことで、水や火による情報端末の故障を引き起こす恐れがある。また、調理場に電磁調理器がある場合、電磁場による情報端末の誤作動や、故障を引き起こす恐れがある。
本発明の一態様は、手を使わずに情報の入手が可能な情報処理システムを提供することを課題の一とする。また、本発明の一態様は、手を使わずに情報の入手が可能な情報処理装置を提供することを課題の一とする。また、本発明の一態様は、手を使わずに情報の入手が可能な情報処理方法を提供することを課題の一とする。また、本発明の一態様は、手を使わずに情報の入手が可能な調理補助システムを提供することを課題の一とする。また、本発明の一態様は、手を使わずに情報の入手が可能な調理補助装置を提供することを課題の一とする。また、本発明の一態様は、手を使わずに情報の入手が可能な調理補助方法を提供することを課題の一とする。
本発明の一態様は、表示手段、および撮像手段を備えたウェアラブル装置と、ウェアラブル装置とネットワークを介して接続するデータベースを有し、データベースは、調理レシピ、調理方法、および材料に関する情報の少なくとも一を有し、ウェアラブル装置は、撮像手段により第1の材料を検出し、ウェアラブル装置は、データベースから第1の材料に関する情報を収集し、撮像手段が撮像する範囲の特定の領域に第1の材料が存在するとき、表示手段に第1の材料に関する情報を表示し、特定の領域に第1の材料が存在しないとき、表示手段から第1の材料に関する情報を非表示にする、情報処理システムである。
上記において、調理レシピに基づき、表示手段に第1の材料を用いる調理方法を表示することが好ましい。
上記において、第1の材料に関する情報は、第1の材料の切断位置を含むことが好ましい。
上記において、第1の材料に関する情報は、第1の材料に含まれる骨の位置を含むことが好ましい。
上記において、ウェアラブル装置は、眼鏡型ウェアラブル装置であることが好ましい。
上記において、データベースは、サーバーに保存されていることが好ましい。
本発明の一態様は、表示手段、および撮像手段を備えたウェアラブル装置と、温度センサを有する調理器具を有し、ウェアラブル装置と温度センサは、第1のネットワークを介して接続され、ウェアラブル装置は、撮像手段により調理器具を検出し、ウェアラブル装置は、温度センサから調理器具の内部の温度に関する情報を収集し、撮像手段が撮像する範囲の特定の領域に調理器具が存在するとき、表示手段に温度に関する情報を表示し、特定の領域に調理器具が存在しないとき、表示手段から温度に関する情報を非表示にする情報処理システムである。
上記において、情報処理システムは、さらにデータベースを有し、データベースは、ウェアラブル装置、および温度センサと第1のネットワークを含む第2のネットワークを介して接続されており、データベースは、温度に関する情報を、第2のネットワークを介して受信し、データベースは、温度に関する情報から、調理器具の加熱に必要な時間を計算により求め、表示手段に表示することが好ましい。
上記において、ウェアラブル装置は、眼鏡型ウェアラブル装置であることが好ましい。
上記において、データベースは、サーバーに保存されていることが好ましい。
本発明の一態様は、表示手段、および撮像手段を備えたウェアラブル装置を用いた情報処理方法であり、ウェアラブル装置は、ユーザーが、表示手段を通して、材料や調理器具を見ることができるよう、ユーザーに装着され、情報処理方法は、撮像手段を用いてユーザーの視線上に存在するまな板を検出する工程と、まな板上に設けられた第1の材料を特定する工程と、表示手段に調理方法を表示する工程と、ユーザーの視線上で、第1の材料と重なるように、表示手段に第1の材料の切断位置を表示する工程とを含む。
上記において、情報処理方法は、さらに、ユーザーの視線上で、材料と重なるように、表示手段に材料の表面または内部に存在する異物の位置を表示する工程を含むことが好ましい。
上記において、異物は、骨、鱗、寄生虫、および毛から選ばれた一であることが好ましい。
上記において、ウェアラブル装置は、眼鏡型ウェアラブル装置であることが好ましい。
本発明の一態様により、手を使わずに情報の入手が可能な情報処理システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理方法を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助方法を提供することが可能になる。
図1は、本発明の一態様のARグラスの使用方法の一例を説明する模式図である。
図2は、本発明の一態様を説明するブロック図である。
図3は、本発明の一態様を説明するフローチャートである。
図4A、および図4Bは、本発明の一態様を説明する模式図である。
図5A、および図5Bは、本発明の一態様を説明する模式図である。
図6A、および図6Bは、本発明の一態様を説明する模式図である。
図7は、本発明の一態様であるガイドラインを表示させる方法の一例を説明する模式図である。
図8Aは、本発明の一態様である、機械学習を用いてニューラルネットワークに教師データを学習させる方法を説明する模式図である。図8Bは、本発明の一態様である、学習済みのニューラルネットワークを用いた画像の生成方法を説明する模式図である。
図9は、本発明の一態様の画像の生成方法を説明する模式図である。
図10Aは、本発明の一態様である、機械学習を用いてニューラルネットワークに教師データを学習させる方法を説明する模式図である。図10Bは、本発明の一態様である、学習済みのニューラルネットワークを用いた画像の生成方法を説明する模式図である。
図11A、および図11Bは、本発明の一態様を説明する模式図である。
図12A、および図12Bは、本発明の一態様であるガイドラインを表示させる方法の一例を説明する模式図である。
図13A、および図13Bは、本発明の一態様を説明する模式図である。
図14A、および図14Bは、本発明の一態様である、調理器具の検出方法を説明する模式図である。
図15A、および図15Bは、本発明の一態様を説明する模式図である。
(実施の形態1)
本実施の形態では、本発明の一態様である情報処理システムについて説明を行う。本実施の形態の情報処理システムでは、ユーザーに対し、調理を補助することができる。
本実施の形態の情報処理システムでは、ユーザーは、情報端末を利用しながら調理を行うことができる。情報端末としては、ユーザーが装着できるものが好ましい。本実施の形態では、ユーザーが利用する情報端末として、ウェアラブル装置を用いる例を示す。さらに、本実施の形態で示すウェアラブル装置は、眼鏡型のウェアラブル装置であることが好ましく、このようなウェアラブル装置をARグラスと呼ぶ場合がある。
<ARグラスの使用例>
図1は、ユーザーがARグラス10を装着しながら、調理を行う例を示している。なお、ARとはAugmented Reality(拡張現実)の略であり、ARグラス10は、ユーザーが見ている外部の世界に、画像や文字などの情報を投影することができる。
ARグラス10は、例えば調理レシピ、調理方法、材料に関する情報など、ユーザーが調理を行う際に必要となる情報を、ユーザーに提示することができる。ここで、材料は、穀物、野菜、果物、海藻などの植物系材料、魚介類、肉、卵、乳製品、骨などの動物系材料、調味料、香料、油、食品添加物など、調理に必要な材料を含む。また、材料を食材と呼ぶ場合がある。ユーザーは、両手が塞がった状態でも、ARグラス10を通して、調理に必要な情報を取得することができる。
ARグラス10は、グラス部10a、筐体10b、および配線10cで構成されている。配線10cは、グラス部10aと筐体10bを接続している。図1において、筐体10bは、エプロンのポケットに収納されている。なお、グラス部10aと筐体10bが無線通信可能な場合は、配線10cを省略してもよい。また、ARグラス10に必要な要素が、全てグラス部10aに収まる場合、筐体10bと配線10cを省略してもよい。
<ARグラスの構成例>
図2は、ARグラス10の構成例を示すブロック図である。ARグラス10は、第1のカメラモジュール11と、第2のカメラモジュール12と、コントローラ13と、表示部14と、プロセッサ15と、メモリ16と、通信モジュール17と、オーディオコントローラ18と、マイクロフォン19と、スピーカ20と、バッテリ21と、センサ25と、バス22を有する。
第1のカメラモジュール11と、第2のカメラモジュール12と、コントローラ13と、プロセッサ15と、メモリ16と、通信モジュール17と、センサ25と、オーディオコントローラ18は、バス22を介して、データのやり取りを行う。
第1のカメラモジュール11は、ユーザーの視野を、画像として取得する機能を有する。また、第2のカメラモジュール12は、ユーザーの眼球の動きを捉え、ユーザーの視線を検出する機能を有する。
詳細は後述するが、第1のカメラモジュール11により撮像された画像に応じて表示部14に様々な情報を表示するため、第1のカメラモジュール11の撮像方向は、ユーザーの視線と概略一致することが好ましい。また、第1のカメラモジュール11の撮像範囲は、ユーザーがARグラス10を通して見える視野を含むことが好ましい。すなわち、第1のカメラモジュール11の撮像範囲の特定の領域が、ユーザーがARグラス10を通して見える視野に一致することが好ましい。
オーディオコントローラ18は、マイクロフォン19が取得した音声信号を解析し、デジタル信号に変換する機能を有する。また、スピーカ20に出力させる音声信号を生成する機能を有する。
コントローラ13は、表示部14に表示させる画像を生成する機能を有する。
通信モジュール17は、インターネットなどのネットワークを介して、データベースと通信を行う機能を有する。これにより、ARグラス10は、ネットワークを介して、データベースと通信を行うことができる。データベースからダウンロードされたデータは、メモリ16に格納される。データベースは、サーバー23に保存されていることが好ましい。この場合、ARグラス10は、通信モジュール17を用い、ネットワークを介してサーバー23と接続する。または、ARグラス10は、ネットワークを介してARグラス10、およびサーバー23と接続されたデバイスを介して、サーバー23と接続してもよい。該デバイスとして、デスクトップ型のコンピュータ26、ラップトップ型のコンピュータ27、タブレット型のコンピュータ28(タブレット端末)、スマートフォン29などを用いることができる。
また、データベースは、上記デバイスに保存されていてもよい。また、ユーザーは、上記デバイスを用いてARグラス10、およびデータベースへユーザー情報の登録、使用条件の設定、ユーザーが使用する調理器具の登録などを行うことができる。
例えば、サーバー23は、教師データを用いた機械学習を行うことが好ましい。ARグラス10は、上記学習によって得られた学習結果を、サーバー23からダウンロードし、メモリ16に格納することができる。
バッテリ21は、ARグラス10を構成する各装置に、電源を供給する機能を有する。
プロセッサ15は、バス22に繋がれた装置を統合的に制御する機能を有する。例えば、プロセッサ15は、第1のカメラモジュール11、第2のカメラモジュール12、通信モジュール17およびオーディオコントローラ18から取得した情報を総合的に判断し、コントローラ13に指示を与える。コントローラ13は、プロセッサ15からの指示を受けて、画像データを生成し、表示部14に表示させる。
表示部14として、外光を透過する、いわゆるシースルーパネルを用いることが好ましい。シースルーパネルの例として、有機EL(Electro Luminescence)ディスプレイ、液晶ディスプレイなどが挙げられる。
 上記シースルーパネルは、精細度が高いほど好ましい。シースルーパネルの画素密度は、1000ppi以上50000ppi以下、好ましくは2000ppi以上50000ppi以下、より好ましくは3000ppi以上50000ppi以下、さらに好ましくは、5000ppi以上50000ppi以下とすることができる。代表的には、4500ppi以上5500ppi以下の画素密度、5500ppi以上6500ppi以下の画素密度、または、6500ppi以上7500ppi以下の画素密度とすることができる。
 また、上記シースルーパネルは、解像度が高いほど好ましい。シースルーパネルの画素数は、走査線方向または信号線方向の画素数が、例えば1000以上20000以下、好ましくは、2000以上20000以下、より好ましくは、3000以上20000以下とすることができる。シースルーパネルを左目用と右目用で2つ設ける場合には、表示領域の形状が正方形に近い(縦と横の長さの比が0.8以上1.2以下)とすることができる。一方、一つの表示領域を右目と左目とで分けて使用する場合には、表示領域の形状は横長な長方形(例えば、縦に対する横の長さの比が、1.5以上5.0以下)とすることが好ましい。また、シースルーパネルは、アスペクト比が16:9であるテレビジョンの規格に合わせてもよく、その場合には、FHD規格、4K2K規格、または8K4K規格の解像度とすることができる。
また、表示部14は、ユーザーの眼前に配置された反射板に画像を投影する装置を有していてもよい。その場合、表示部14は、導光板、ハーフミラーなどの光学部材や、発光素子を有する。上記発光素子として、有機EL素子、LED(Light Emitting Diode)素子、無機EL素子、が挙げられる。
また、表示部14は、網膜投影型表示装置を有していてもよい。網膜投影型表示装置は、強度の弱いレーザー光をユーザーの網膜に照射することで、網膜に画像を投影させる装置である。この場合、表示部14は、レーザー発振器、光学系(導光板、反射板、ハーフミラーなど)などを有する。また、レーザー発振器は、MEMS(Micro Electro Mechanical System)により制御されることが好ましい。
ARグラス10を装着したユーザーは、表示部14を通して、調理に必要な材料や器具を見ることができる。ユーザーの視線上において、表示部14には、ユーザーが見ている材料や調理器具に関する情報が表示される。すなわち、ユーザーから見ると、表示部14には、材料や調理器具と重なるようにこれらに関する情報が表示される。
また、ARグラス10は、他にも、加速度センサ、ジャイロセンサ、温度センサ、眼電位センサ、などのセンサ25を有していてもよい。眼電位センサは、眼の動きにより生じる電位変化を検知するセンサで、グラス部10aに設けられる。ARグラス10は眼電位センサを有することで、ユーザーの眼の動きを解析し、ユーザーの視線を追跡することができる。
ARグラス10は、図2に示す構造要素のうち、プロセッサ15、メモリ16、通信モジュール17およびバッテリ21を筐体10bに含め、その他の構成要素をグラス部10aに含めてもよい。こうすることで、グラス部10aの軽量化が可能になり、ユーザーが感じる負担を少なくすることができる。
また、ユーザーの負担にならない場合は、図2に示す構造要素のうち、バッテリ21のみを筐体10bに含め、その他の構成要素をグラス部10aに含めてもよい。バス22に接続された装置を近くに配置することで、処理速度の向上と、省電力化が可能になる。
また、さらにバッテリ21の小型化が可能な場合は、ARグラス10の構造要素を全てグラス部10aに含めてもよい。その場合、筐体10bおよび配線10cは不要である。
<システムの詳細>
ARグラス10を用いた情報処理システムの詳細について、図3乃至図10を用いて説明を行う。なお、以降の説明において、上記情報処理システムを、単に「システム」と略記する。
図3は、システムの処理の流れを説明するためのフローチャートである。図3は、ステップS0乃至ステップS10を含む。以下、システムの詳細について、ステップS0から順を追って説明を行う。なお、本実施の形態では、ARグラス10を用いて、魚の下処理を行う場合について説明を行う。
まず、ステップS0において、ユーザーがシステムを起動する。図4Aに示す視野50は、システム起動直後に、ユーザーがARグラス10を通して見える視野を表している。図4Aでは、視野50に、まな板60および材料62、その他に、包丁63と布巾64が存在している。本実施の形態では、材料62として魚を用いた例を示す。なお、第1のカメラモジュール11の撮像範囲は、視野50を含むことが好ましい。すなわち、第1のカメラモジュール11の撮像範囲の特定の領域が、視野50に一致することが好ましい。
まな板60は、汚れや傷が少ない無地のものが好ましい。また、まな板60の四隅にはマーカー61a、61b、61cおよび61dが配置されている。
マーカー61a乃至61dは、まな板60に直接プリントされていてもよいし、シールのように、ユーザーがまな板に張ったものでもよい。なお、マーカーの数は、これに限定されず、例えば、まな板60の三隅のみに配置されていてもよい。
次に、ステップS1において、システムは、第1のカメラモジュール11を用いてマーカー61a乃至61dを検知して、まな板60の位置を検知する。システムは、マーカー61a乃至61dで囲まれた領域のみを解析対象に加え、それより外側の領域を解析対象から除外する。例えば、図4Bに示すように、システムは、図中の斜線で示された領域を解析対象から外す。
システムは画像解析によって材料62を認識しようとするが、例えば、包丁63や布巾64など、まな板60の周囲に存在するものまで画像解析の対象に加えてしまうと、材料62の認識精度に悪影響を及ぼす。システムは、図4Bに示すように、まな板60の周囲に存在するものを解析対象から除外することで、材料62の認識精度を向上させることができる。また、解析対象となる画像の面積を狭めることで、より高速に画像解析を行うことが可能になる。
なお、マーカーを用いずに、背景技術で説明した、R−CNN、YOLO、SSDなどの物体検出法や、FCN、SegNet、U−Net、PSPNetなどのセマンティック・セグメンテーションを用いて、まな板60の領域を検出してもよい。
次に、ステップS2において、システムは材料62の種類を特定する。例として、図5Aは、材料62を囲むように矩形65が表示され、材料62の候補が、メニュー70に表示される。材料62の特定には、上記物体検出法を用いることが好ましい。メニュー70は、材料62の候補として、可能性の高いものから順に表示することが好ましい。
ユーザーは、メニュー70に表示された候補から、材料62の種類を選択することができる。ユーザーは音声入力によって、メニューを選択することができる。例えば、「アジ」とユーザーが音声を発すると、システムはユーザーの音声を解析し、「アジ」が選択されたと判断する。
また、ユーザーは視線によって、メニューを選択することができる。例えば、ユーザーがメニュー70に表示された「アジ」の項目を凝視する。ARグラス10は、ユーザーの視線を検出し、「アジ」が選択されたと判断する。ユーザーの視線の検出は、第2のカメラモジュール12を用いて行うことができる。第2のカメラモジュール12が取得したユーザーの眼球画像から、ユーザーの目頭を基準点とし、目頭と虹彩の位置関係を解析することで、ユーザーの視線を検出することができる。
また、ARグラス10に赤外LEDなどの赤外線源と赤外カメラなどの赤外線検出器を搭載することで、ユーザーの視線を検出することができる。赤外線源から発せられた赤外線をユーザーの目に照射し、角膜上の反射位置(角膜反射という)を基準点とし、角膜反射と瞳孔の位置関係を解析することで、ユーザーの視線を検出することができる。
また、ARグラス10が眼電位センサを有する場合、ARグラス10は、ユーザーの眼電位を解析することで、ユーザーの視線を追跡してもよい。
このとき、メニュー70上にユーザーの視線に合わせてポインタ51を表示させてもよい。ポインタ51が表示されることで、ユーザーは、ユーザー自身が意図した項目が選択されているか判断することができる。
ポインタ51は、メニュー70から項目を選択するときのみ表示されていればよい。あるいは、センサ25を用いてユーザーの動きを検知し、ポインタ51の表示や非表示を行ってもよい。例えば、ARグラス10を装着したユーザーが頭を上下、または左右に振ることで、ポインタ51の表示や非表示を行ってもよい。より具体的な例として、ARグラス10を装着したユーザーが頭を上下に振ることで、ポインタ51を表示し、左右に振ることで、ポインタ51を非表示にすることができる。
このように、ユーザーは、手を使わずにメニューの選択をできることが好ましい。そうすることで、ユーザーは、調理中の両手が塞がった状態でも、システムを操作することができる。
一方、第1のカメラモジュール11を用いて、ユーザーの手の動きを検出してもよい。ユーザーは、表示部14上で、メニュー70の所望の項目と重なるように手、特に指を配置することで、所望の項目を選択することができる。この場合、フィンガージェスチャーなど、公知のジェスチャー認識方法と組み合わせて、選択した項目を決定してもよい。
ARグラス10がユーザーの動きを読み取ることで、ユーザーは、情報端末に触れることなくシステムを操作することができる。
以上のように、ユーザーは、情報端末に触れることなくシステムを操作することができるため、濡れた手、または材料が付着した手で情報端末に触れることによる情報端末の故障や誤動作を抑制することができる。また、情報端末に触れた手で調理を続ける必要が無いため、食品衛生上好ましい。
なお、メニュー70、およびポインタ51は、視野50に材料62が存在するときに表示されることが好ましい。ユーザーによる視線の移動や、材料62の移動により、視野50に材料62が存在しない場合、メニュー70、およびポインタ51を非表示としてもよい。あるいは、視野50に材料62が存在しない状態が一定時間経過した後、メニュー70、およびポインタ51を非表示としてもよい。
次に、ステップS3において、システムは材料62を使ったレシピの候補を表示する。図5Bでは、例として、メニュー70に、アジを使ったレシピの候補が表示されている。ユーザーはステップS2と同様の方法で、メニュー70からレシピを選択することができる。レシピには、カロリー、塩分、糖質などの健康に関わる情報や、必要な食材や調味料を表示することが好ましい。また、ユーザーは、レシピ選択の際、料理を提供する人数、味の好みなどを登録することができる。
次に、ステップS4において、ステップS3で選択されたレシピを、システムが表示する。図6Aでは、例として、視野50の上側にレシピ71が表示されている。
レシピ71には、各手順の番号と、各手順を説明するための画像が表示されている。ステップS2と同様の方法で、レシピ71中の手順を選択すると、選択された手順の画像が大きく表示される(図6B)。また、視野50の下側に、手順を説明するテキスト72と、ワンポイントアドバイスを説明するテキスト73が表示される。これにより、ユーザーは各手順の注意点を把握することができる。なお、レシピ71に表示される画像は静止画像に限定されず、動画像を用いてもよい。
なお、レシピ71、テキスト72、テキスト73、およびポインタ51は、視野50に材料62およびまな板60の一方が存在するときに表示されることが好ましい。ユーザーによる視線の移動や、材料62またはまな板60の移動により、視野50に材料62およびまな板60が存在しない場合、レシピ71、テキスト72、テキスト73、およびポインタ51を非表示としてもよい。あるいは、視野50に材料62およびまな板60が存在しない状態が一定時間経過した後、レシピ71、テキスト72、テキスト73、およびポインタ51を非表示としてもよい。
次に、ステップS5において、ユーザーは、材料の切断位置を示す、包丁ガイドラインの表示機能を有効にするか、無効にするか選択を行う。包丁ガイドラインを有効にした場合、ステップS6において、システムは、材料の適切な切断位置を示す、包丁ガイドラインの表示を行う。
図7は、包丁ガイドラインを表示させた場合の視野50の見え方である。ユーザーは魚(材料62)を包丁でさばいている。このときに、システムはガイドライン75を、材料62と重なるように表示させる。ユーザーはガイドライン75に沿って、包丁の刃を入れることで、材料62を正しく切断し、調理することができる。材料62の形に添って立体的にガイドライン75を表示することで、ユーザーは、容易に材料62の切断や、加工を行うことができる。
図8Aおよび図8Bを用いて、システムに包丁ガイドラインを表示させる方法について説明を行う。包丁ガイドラインの表示は、ニューラルネットワークを用いた機械学習を用いて行うことが好ましい。
図8Aは、ニューラルネットワークに教師データを学習させる方法を示している。上記学習は、図2に示すサーバー23で行われることが好ましい。
図8Bは、学習済みのニューラルネットワークを用いて、目的の画像を生成する方法を示している。図8Bに示す処理は、ARグラス10の内部で行われる。ARグラス10は、サーバー23から学習済みのニューラルネットワークをダウンロードし、目的の画像を生成する。
まず、図8Aの学習方法について説明を行う。教師データとして、データセット80を用意する。データセット80は、画像セット81と画像セット82を有する。画像セット81は、複数の材料の画像を有する。画像セット82は、画像セット81の各画像に、円で表される始点83と、同じく円で表される終点84が付加されたものである。
次に、データセット80をニューラルネットワーク85に学習させる。ニューラルネットワーク85として、Autoencoder、CAE(Convolutional Autoencoder)、VAE(Variational Autoencoder)、U−net、GAN(Generative Adversarial Networks)など、画像生成に用いられるニューラルネットワークを用いることが好ましい。
次に、図8Bの目的画像の生成について説明を行う。画像86は、システムが取得した材料62の画像である。画像86を学習済みのニューラルネットワーク85に入力すると、材料62に始点88と終点89が付加された画像87が得られる。画像処理によって、始点88と終点89を結ぶガイドライン75を表示することで、材料に包丁ガイドラインが付加された目的の画像90を得ることができる。
再び図3に説明を戻す。ステップS7において、骨の検出機能を有効にするか、無効にするか、ユーザーが選択を行う。骨の検出を有効にした場合、システムはステップS9において、骨の検出を行う。なお、骨の検出機能は、特に小骨の検出に有効である。骨の検出機能を用いることで、小骨が残った材料の調理や提供を抑制することができる。また、当該検出機能では、骨以外にも鱗や寄生虫などの検出も有効である。骨、鱗、寄生虫など、食用に適さないものを異物と称する。よって、当該骨の検出機能は異物の検出機能と呼ぶことができる。
図9は、骨の検出を有効にした場合の視野50の見え方である。材料76は魚の切り身を表している。例えば、材料76は、材料62から切り出した身の一部である。ARグラス10を通してみると、材料76に含まれている骨78が強調されている。そのため、ユーザーは魚の切り身に含まれている骨を、その大きさによらず容易に見つけ、取り除くことができる。
また、検出した骨78に対してテキスト73を表示してもよい。テキスト73には、骨78に関する情報や、対処方法などのアドバイスが含まれていることが好ましい。例えば、検出された骨78が除去されるべき小骨である場合、小骨が検出された旨の情報と、除去を促すアドバイスをテキスト73として表示すればよい。
図10Aおよび図10Bを用いて、魚に含まれている骨を検知する方法について説明を行う。骨の検知は、Semantic Segmentationの方法を用いることが好ましい。
図10Aは、ニューラルネットワークに教師データを学習させる方法を示している。上記学習は、図2に示すサーバー23で行われることが好ましい。
図10Bは、学習済みのニューラルネットワークを用いて、目的の画像を生成する方法を示している。図1Bに示す処理は、ARグラス10の内部で行われる。ARグラス10は、サーバー23から学習済みのニューラルネットワークをダウンロードし、目的の画像を生成する。
まず、図10Aの学習方法について説明を行う。教師データとして、データセット100を用意する。データセット100は、画像セット91と画像セット92からなる。画像セット91は、複数の材料(この場合、魚の切り身)の画像からなる。画像セット92は、画像セット91の各画像に、骨の領域とそれ以外の領域で塗り分けがされている。
次に、データセット100をニューラルネットワーク95に学習させる。ニューラルネットワーク95として、FCN、SegNet、U−net、PSPNetなど、Semantic Segmentationに用いられるニューラルネットワークが好ましい。
次に、図10Bの目的画像の生成について説明を行う。画像96は、システムが取得した材料76の画像である。画像96を学習済みのニューラルネットワーク95に入力すると、材料76を骨とそれ以外の領域に塗分けした画像97が得られる。画像97と画像96を合成することで、材料76の骨、特に小骨が強調された画像98を得ることができる。
なお、上記システムは、物体検出やSemantic Segmentationなどの技術を用いることで、骨だけでなく、魚の鱗や、魚に寄生した寄生虫の検出を行うことができる。また、材料76が魚ではない場合、毛や羽なども異物に含まれる。また、材料が甲殻類や貝類の場合、殻や貝のかけら、砂なども異物に含まれる。また、ユーザーや、料理人など調理に関係する人などの毛、糸くずや繊維など衣服の一部も異物に含まれる。上記システムの検出機能では、これらのような食用に適さないあらゆる異物を検出することが好ましい。特に、材料に毛が付着、または混入することは衛生上好ましくない。上記システムを用いて検出し、除去することが好ましい。
最後に、ステップS9において、ユーザーが「終了」を選択することで、システムが終了される(ステップS10)。
以上、本発明の一態様により、手を使わずに情報の入手が可能な情報処理システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理方法を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助方法を提供することが可能になる。
本実施の形態に示す構成、構造、方法などは、他の実施の形態、および実施例に示す構成、構造、方法などと適宜組み合わせて用いることができる。
(実施の形態2)
先の実施の形態では、材料として魚の例を示したが、本発明はこれに限らない。材料として、魚以外の魚介類、牛、豚、羊など哺乳類の肉、鶏、鴨、七面鳥など鳥類の肉、蛇やトカゲなどのは虫類、カエルなどの両生類、コオロギなどの昆虫、野菜、果物、キノコなどを用いることができる。本実施の形態では、材料77として、野菜を用いる例を示す。
なお、先の実施の形態と共通する調理器具や表示部14に表示される項目などには同じ符号を記し、詳細な説明を省略する場合がある。
図11Aは、まな板60の上に材料77が設けられている様子をARグラス10を通して見ているユーザーの視野50を示している。ARグラス10の表示部14には、レシピ71、およびガイドライン75が表示されている。ユーザーは、包丁をガイドライン75に合わせながら材料77を切ることができる。
図11Bは、ユーザーの視線をARグラス10が検知し、レシピ71から所望の手順を選択している様子を示している。レシピ71上には、ユーザーの視線に合わせてポインタ51が表示されており、ユーザーは、ポインタ51の位置を確認しながら、手順の選択を行うことができる。
ユーザーにより所望の手順が選択されると、選択された手順の画像が大きく表示される。また、視野50の下側に、手順を説明するテキスト72と、ワンポイントアドバイスを説明するテキスト73が表示される。これにより、ユーザーは各手順の注意点を把握することができる。なお、レシピ71に表示される画像は静止画像に限定されず、動画像を用いてもよい。
図12Aおよび図12Bを用いて、システムに包丁ガイドラインを表示させる方法について説明を行う。包丁ガイドラインの表示は、ニューラルネットワークを用いた機械学習を用いて行うことが好ましい。
先の実施の形態と同様に、システムは、第1のカメラモジュール11を用いてマーカー61a乃至61dを検知して、まな板60の位置を検知する(図12A)。
次に、まな板の上の材料77を検知し、ユーザーに対して材料77の候補、およびレシピの候補を表示する。ユーザーは、先の実施の形態と同様の方法を用いて材料77を特定し、レシピを選択する。
システムは、材料77に関する情報や、材料77のレシピ、すなわち調理方法、や加工方法をデータベースから取得する。図12Bは、材料77を細かく切る(千切りにする)場合の例を示す。システムは、表示部14上で材料77の所望の位置と重なるようにガイドライン75を表示する。例えば、材料77の端部から決められた距離の位置にガイドライン75を表示する。
このとき、表示されるガイドライン75の数は限定されない。1回の切断につき1本のガイドライン75を表示してもよいし、複数回の切断に必要なガイドライン75を複数本表示してもよい。
材料77に対する切断位置の学習は、先の実施の形態と同様に、ニューラルネットワークに教師データを学習させればよい。ニューラルネットワークとして、Autoencoder、CAE、VAE、U−net、GANなど、画像生成に用いられるニューラルネットワークを用いることが好ましい。
システムが取得した材料77の画像を学習済みのニューラルネットワークに入力すると、材料77に対する切断位置の情報が得られる。この情報を基に画像処理を行い、材料77に対してガイドライン75を付加することで画像99を得ることができる。
以上、本発明の一態様により、手を使わずに情報の入手が可能な情報処理システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理方法を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助方法を提供することが可能になる。
本実施の形態に示す構成、構造、方法などは、他の実施の形態、および実施例に示す構成、構造、方法などと適宜組み合わせて用いることができる。
(実施の形態3)
本実施の形態では、調理中の調理器具に対する処理時間をARグラス10に表示させる方法を説明する。
なべ、フライパン、やかんなどの調理器具を用いて、材料や水を加熱調理する際、調理内容、材料、および材料の量によりその加熱時間は異なる。
システムは、先の実施の形態で示した調理、および加工を行いながら、加熱調理中の調理器具を物体検出し、該調理器具における加熱時間、および加熱調理終了までの時間をARグラス10に表示させる。本システムにより物体検出を行うことで、複数の調理器具を用いて同時に加熱調理を行う場合でも、調理器具ごとに加熱時間、および加熱調理終了までの時間をARグラス10に表示させることができる。
図13Aは、複数の加熱手段を有するコンロ200上に調理器具210、調理器具212、および調理器具214が配置され、各加熱手段により加熱調理されている様子を、ARグラス10を通して見ているユーザーの視野50を示している。コンロ200が有する加熱手段は、ガスによる加熱、誘導加熱(induction heating:IH)、電気抵抗による加熱などを用いることができる。
加熱手段では、加熱強度を調整することができる。ガスによる加熱を行う加熱手段では、ガスの導入量により加熱強度、すなわち火力を調整することができる。誘導加熱や電気抵抗による加熱を行う加熱手段では、導入する電力により加熱強度を調整することができる。
図13Aでは、調理器具210を用いて、15分間の加熱調理が必要な材料を加熱している例を示している。図13Aでは、加熱調理開始から10分経過した様子を示している。また、ARグラス10の表示部14上に、加熱調理の経過時間、および残りの加熱時間を示すテキスト220aを表示している様子を示している。
また、図13Aでは、調理器具212を用いて、10分間の加熱調理が必要な材料を加熱している例を示している。図13Aでは、加熱調理開始から2分経過した様子を示している。また、ARグラス10の表示部14上に、加熱調理の経過時間、および残りの加熱時間を示すテキスト220bを表示している様子を示している。
また、図13Aでは、調理器具214を用いて、水を100℃になるまで加熱している例を示している。図13Aでは、調理器具214内の水が80℃まで加熱された様子を示している。
また、調理器具214には、無線でARグラス10と通信可能な温度センサ216が設けられている。温度センサ216で検知した調理器具214内部の温度は、ARグラス10に送信され、表示部14に表示させることができる。
システムは、調理器具214に入れられた水の量、および加熱前の水の温度と、加熱による水の温度の変化量から、所望の温度に到達するまでに必要な加熱時間を予測する。加熱時間の予測は、データベースで行われることが好ましい。また、加熱時間の予測には、機械学習や、ある量の水の加熱に必要なエネルギーが記されたデータシートなどを用いることができる。
図13Aでは、現在の調理器具214内の水の温度と、あと2分で100℃に到達すると予測した結果をテキスト220cに表示している様子を示している。
なお、図13Aに図示しないが、調理器具210、および調理器具212にも調理器具214と同様に温度センサ216を設けてもよい。調理器具210、および調理器具212を用いて、天ぷらやフライなど、油を用いる調理を行う際、温度センサ216は、油の温度を取得し、ARグラス10に送信することができる。ARグラス10は、調理器具ごとに内部の温度を表示部14に表示することができる。
ユーザーは、調理器具内部の温度を確認しながら、最適な温度で調理することができる。また、調理器具内の油に対する過剰な加熱は、油の加熱発火を引き起こす恐れがある。ARグラス10は、油の温度がある値を超えたとき、表示部14に警告を表示し、ユーザーに注意を促すことができる。また、ARグラス10はコンロ200とネットワークを介して接続されていてもよい。この場合、ARグラス10から発せられる信号により、所望の加熱部の加熱を停止することが好ましい。
また、温度センサ216から取得した調理器具内の温度情報と調理レシピをデータベースにより解析し、加熱調理に必要な時間を計算により求め、テキスト220a、220b、および220cに表示してもよい。
図13Bは、図13Aの状態から5分経過した後のコンロ200上の様子をARグラス10を通して見ているユーザーの視野50を示している。
調理器具210を用いた加熱調理において、図13Bでは、所定の加熱時間が終了した様子を示している。テキスト220aには、加熱時間が終了した旨表示されている。所定の加熱時間が経過した際、ARグラス10がコンロ200に信号を送信し、該信号を受信したコンロ200は、調理器具210の加熱を終了してもよい。
調理器具212を用いた加熱調理において、図13Bでは、加熱調理開始から7分経過した様子を示している。また、ARグラス10の表示部14上のテキスト220bにおいて、加熱調理の経過時間、および残りの加熱時間が更新されている様子を示している。このとき、ARグラス10は、調理器具212に設けられた温度センサ216から得られた温度を解析し、コンロ200に対して調理器具212に対する加熱強度(火力など)を調整する信号を送信してもよい。例えば、調理器具212の内部が過剰に加熱されている場合、ARグラス10は、コンロ200に対して加熱を弱める信号を送信することができる。また、調理器具212の内部温度が低い場合、ARグラス10は、コンロ200に対して加熱を強める信号を送信することができる。信号を受信したコンロ200は、該当する加熱部の加熱強度を調整する。
図13Bにおいて、調理器具214を用いた水の加熱はすでに終了している。図13Bでは、ユーザーが調理器具214をコンロ200から移動した様子を示している。視野50に調理器具214は存在しないため、テキスト220cは、表示部14上で非表示となっている。
システムは、調理器具214内部の水が所望の温度に達した段階で加熱を終了してもよい。また、システムは、調理器具214が加熱手段から移動されるのを後述する画像処理により検知し、加熱を終了してもよい。加熱の終了は、ARグラス10がコンロ200に対して加熱終了の信号を送信し、該信号をコンロ200が受信することで所望の加熱手段の加熱を終了してもよい。
次に、図14A、および図14Bを用いて、調理器具210、調理器具212、調理器具214などの調理器具の検出方法について説明する。調理器具の検出には、背景技術で説明した、R−CNN、YOLO、SSDなどの物体検出法や、FCN、SegNet、U−Net、PSPNetなどのセマンティック・セグメンテーションを用いることができる。システムは、調理器具の形状や大きさなどの特徴を画像解析し、調理器具の種類を特定することができる。形状の特徴として、調理器具が有する取っ手の形状や数、注ぎ口の形状などが挙げられる。また、大きさの特徴として、底面の面積、高さ、容積などが挙げられる。
図14Aでは、表示部14上に、調理器具210を囲う矩形222a、調理器具212を囲う矩形222b、および調理器具214を囲う矩形222cが表示されている様子を示す。システムは、矩形222a内を画像解析することで、調理器具210がなべであると判断し、テキスト224aを表示する。また、矩形222b内を画像解析することで、調理器具212がフライパンであると判断し、テキスト224bを表示する。また、矩形222c内を画像解析することで、調理器具214がやかんであると判断し、テキスト224cを表示する。
各調理器具の種類の判定は、教師データを用いた機械学習により行ってもよいし、ユーザーが事前に使用する調理器具をデータベースや、ARグラス10が有するメモリ16に登録し、登録されたデータを基に行ってもよい。
また、図14Bに示すように、各調理器具を領域として分割してもよい。各領域の形状から調理器具の種類を特定し、各領域に対してラベルを与えてもよいし、上記画像解析により調理器具の種類を特定した後、各領域に対してラベルを与えてもよい。
以上の方法により視野50内に調理器具が検出されると、システムは、該調理器具に関する情報を表示部14に表示する。表示部14に表示される情報として、調理器具の種類、調理器具に入っている材料、調理時間などが挙げられる。また、ユーザーによる視線の移動や、調理器具の移動により、視野50に調理器具が存在しない場合、調理器具に関する情報を非表示としてもよい。あるいは、視野50に調理器具が存在しない状態が一定時間経過した後、調理器具に関する情報を非表示としてもよい。
以上、本発明の一態様により、手を使わずに情報の入手が可能な情報処理システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な情報処理方法を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助システムを提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助装置を提供することが可能になる。また、本発明の一態様により、手を使わずに情報の入手が可能な調理補助方法を提供することが可能になる。
本実施の形態に示す構成、構造、方法などは、他の実施の形態、および実施例に示す構成、構造、方法などと適宜組み合わせて用いることができる。
(実施の形態4)
本実施の形態では、ARグラス10に用いることのできる、表示装置を備える情報端末の構成例について説明する。
図15Aに、メガネ型の情報端末900の斜視図を示す。情報端末900は、一対の表示パネル901、一対の筐体(筐体902a、筐体902b)、一対の光学部材903、一対の装着部904等を有する。
情報端末900は、光学部材903の表示領域906に、表示パネル901で表示した画像を投影することができる。また、光学部材903は透光性を有するため、ユーザーは光学部材903を通して視認される透過像に重ねて、表示領域906に表示された画像を見ることができる。したがって情報端末900は、AR表示が可能な情報端末である。なお、先の実施の形態で説明した表示部14には、表示パネル901だけでなく、表示領域906を含む光学部材903、および後述するレンズ911、反射板912、および反射面913を有する光学系も含めることができる。表示パネル901として、有機ELディスプレイ、LEDディスプレイ、無機ELディスプレイ、液晶ディスプレイなどを用いることができる。なお、表示パネル901として、液晶ディスプレイを用いる場合、バックライトとして機能する光源が設けられることが好ましい。
また、情報端末900には、前方を撮像することのできる一対のカメラ905、およびユーザー側を撮像することのできる一対のカメラ909が設けられている。カメラ905は、第1のカメラモジュール11の構成要素の一部であり、カメラ909は、第2のカメラモジュール12の構成要素の一部である。情報端末900にカメラ905を複数設けることで、材料や調理器具を立体的に撮像することができるため好ましい。ただし、本実施の形態のカメラ905はこれに限らない。情報端末900に設けられるカメラ905は、1つでもよい。この場合、カメラ905は、情報端末900の前面の中央部に設けられてもよいし、筐体902a、および筐体902bの一方の前面に設けられてもよい。また、2つのカメラ905を、それぞれ筐体902a、および筐体902bの前面に設けてもよい。
カメラ909は、ユーザーの視線を検知することができる。よって、カメラ909は、右目用、および左目用として2つ設けられることが好ましい。ただし、1つのカメラで両目の視線を検知できる場合、カメラ909は1つでもよい。また、カメラ909は、赤外線を検出できる赤外カメラでもよい。
また、筐体902aには無線通信機907を有し、筐体902に映像信号等を供給することができる。また、無線通信機907は、通信モジュール17を有し、データベースと通信を行うことが好ましい。なお、無線通信機907に代えて、または無線通信機907に加えて、映像信号や電源電位が供給されるケーブル910を接続可能なコネクタを備えていてもよい。ケーブル910は、筐体10bと接続する配線10cとしての機能を有していてもよい。また、センサ25として、筐体902に、加速度センサやジャイロセンサなどを備えることで、ユーザーの頭部の向きを検知して、その向きに応じた画像を表示領域906に表示することもできる。また、筐体902にはバッテリ21が設けられていることが好ましく、無線、または有線によって充電することができる。
また筐体902bには、集積回路908が設けられている。集積回路908は、コントローラ13、プロセッサ15、メモリ16、オーディオコントローラ18などを有しており、カメラ905、無線通信機907、一対の表示パネル901、マイクロフォン19、スピーカ20等、情報端末900が有する各種コンポーネントを制御する機能や、画像を生成する機能等を有している。集積回路908は、AR表示のための合成画像を生成する機能を有していてもよい。
無線通信機907によって、外部の機器とデータの通信を行うことができる。例えば外部から送信されるデータを集積回路908に出力し、集積回路908は、当該データに基づいて、AR表示のための画像データを生成することもできる。外部から送信されるデータの例としては、データベースから送信される調理に必要な情報を含むデータのほか、調理器具に設けられた各種センサなどから送信される調理に関する情報を含むデータなどが挙げられる。
続いて、図15Bを用いて、情報端末900の表示領域906への画像の投影方法について説明する。筐体902の内部には、表示パネル901、レンズ911、反射板912が設けられている。また、光学部材903の表示領域906に相当する部分には、ハーフミラーとして機能する反射面913を有する。
表示パネル901から発せられた光915は、レンズ911を通過し、反射板912により光学部材903側へ反射される。光学部材903の内部において、光915は光学部材903の端面で全反射を繰り返し、反射面913に到達することで、反射面913に画像が投影される。これにより、ユーザーは、反射面913に反射された光915と、光学部材903(反射面913を含む)を透過した透過光916の両方を視認することができる。なお、表示パネル901として液晶ディスプレイを用いる場合、バックライトとして機能する光源からの光が表示パネル901を通ってレンズ911に入射するように、光源が設けられることが好ましい。すなわち、液晶ディスプレイの液晶パネルは、光源とレンズ911の間に設けられることが好ましい。
図15Bでは、反射板912及び反射面913がそれぞれ曲面を有する例を示している。これにより、これらが平面である場合に比べて、光学設計の自由度を高めることができ、光学部材903の厚さを薄くすることができる。なお、反射板912及び反射面913を平面としてもよい。
反射板912としては、鏡面を有する部材を用いることができ、反射率が高いことが好ましい。また、反射面913としては、金属膜の反射を利用したハーフミラーを用いてもよいが、全反射を利用したプリズムなどを用いると、透過光916の透過率を高めることができる。
ここで、筐体902は、レンズ911と表示パネル901との距離や、これらの角度を調整する機構を有していることが好ましい。これにより、ピント調整や、画像の拡大、縮小などを行うことが可能となる。例えば、レンズ911または表示パネル901の一方または両方が、光軸方向に移動可能な構成とすればよい。
また筐体902は、反射板912の角度を調整可能な機構を有していることが好ましい。反射板912の角度を変えることで、画像が表示される表示領域906の位置を変えることが可能となる。これにより、ユーザーの目の位置に応じて最適な位置に表示領域906を配置することが可能となる。
表示パネル901には、本発明の一態様の表示装置を適用することができる。したがって極めて精細度の高い表示が可能な情報端末900とすることができる。
10:ARグラス、10a:グラス部、10b:筐体、10c:配線、11:カメラモジュール、12:カメラモジュール、13:コントローラ、14:表示部、15:プロセッサ、16:メモリ、17:通信モジュール、18:オーディオコントローラ、19:マイクロフォン、20:スピーカ、21:バッテリ、22:バス、23:サーバー、25:センサ、26:コンピュータ、27:コンピュータ、28:コンピュータ、29:スマートフォン、50:視野、51:ポインタ、60:まな板、61a:マーカー、61b:マーカー、61c:マーカー、61d:マーカー、62:材料、63:包丁、64:布巾、65:矩形、70:メニュー、71:レシピ、72:テキスト、73:テキスト、75:ガイドライン、76:材料、77:材料、78:骨、80:データセット、81:画像セット、82:画像セット、83:始点、84:終点、85:ニューラルネットワーク、86:画像、87:画像、88:始点、89:終点、90:画像、91:画像セット、92:画像セット、95:ニューラルネットワーク、96:画像、97:画像、98:画像、99:画像、100:データセット、200:コンロ、210:調理器具、212:調理器具、214:調理器具、216:温度センサ、220a:テキスト、220b:テキスト、220c:テキスト、222a:矩形、222b:矩形、222c:矩形、224a:テキスト、224b:テキスト、224c:テキスト、900:情報端末、901:表示パネル、902:筐体、902a:筐体、902b:筐体、903:光学部材、904:装着部、905:カメラ、906:表示領域、907:無線通信機、908:集積回路、909:カメラ、910:ケーブル、911:レンズ、912:反射板、913:反射面、915:光、916:透過光

Claims (14)

  1.  表示手段、および撮像手段を備えたウェアラブル装置と、
     前記ウェアラブル装置とネットワークを介して接続するデータベースと、
     を有し、
     前記データベースは、調理レシピ、調理方法、および材料に関する情報の少なくとも一、を有し、
     前記ウェアラブル装置は、前記撮像手段により第1の材料を検出し、
     前記ウェアラブル装置は、前記データベースから前記第1の材料に関する情報を収集し、
     前記撮像手段が撮像する範囲の特定の領域に前記第1の材料が存在するとき、前記表示手段に前記第1の材料に関する情報を表示し、
     前記領域に前記第1の材料が存在しないとき、前記表示手段から前記第1の材料に関する情報を非表示にする、情報処理システム。
  2.  請求項1において、前記調理レシピに基づき、前記表示手段に前記第1の材料を用いる調理方法を表示する情報処理システム。
  3.  請求項1または請求項2において、前記第1の材料に関する情報は、前記第1の材料の切断位置を含む情報処理システム。
  4.  請求項1乃至請求項3のいずれか一項において、前記第1の材料に関する情報は、前記第1の材料に含まれる骨の位置を含む情報処理システム。
  5.  請求項1乃至請求項4のいずれか一項において、前記ウェアラブル装置は、眼鏡型ウェアラブル装置である情報処理システム。
  6.  請求項1乃至請求項5のいずれか一項において、前記データベースは、サーバーに保存されている情報処理システム。
  7.  表示手段、および撮像手段を備えたウェアラブル装置と、
     温度センサを有する調理器具と、
     を有し、
     前記ウェアラブル装置と前記温度センサは、第1のネットワークを介して接続され、
     前記ウェアラブル装置は、前記撮像手段により前記調理器具を検出し、
     前記ウェアラブル装置は、前記温度センサから前記調理器具の内部の温度に関する情報を収集し、
     前記撮像手段が撮像する範囲の特定の領域に前記調理器具が存在するとき、前記表示手段に前記温度に関する情報を表示し、
     前記領域に前記調理器具が存在しないとき、前記表示手段から前記温度に関する情報を非表示にする、情報処理システム。
  8.  請求項7において、
     前記情報処理システムは、さらにデータベースを有し、
     前記データベースは、前記ウェアラブル装置、および前記温度センサと前記第1のネットワークを含む第2のネットワークを介して接続されており、
     前記データベースは、前記温度に関する情報を、前記第2のネットワークを介して受信し、
     前記データベースは、前記温度に関する情報から、前記調理器具の加熱に必要な時間を計算により求め、前記表示手段に表示する、情報処理システム。
  9.  請求項7または請求項8において、前記ウェアラブル装置は、眼鏡型ウェアラブル装置である情報処理システム。
  10.  請求項8において、前記データベースは、サーバーに保存されている情報処理システム。
  11.  表示手段、および撮像手段を備えたウェアラブル装置を用いた情報処理方法であり、
     前記ウェアラブル装置は、ユーザーが、前記表示手段を通して、材料や調理器具を見ることができるよう、前記ユーザーに装着され、
     前記情報処理方法は、
     前記撮像手段を用いて前記ユーザーの視線上に存在するまな板を検出する工程と、
     前記まな板上に設けられた第1の材料を特定する工程と、
     前記表示手段に調理方法を表示する工程と、
     前記ユーザーの視線上で、前記第1の材料と重なるように、前記表示手段に前記第1の材料の切断位置を表示する工程と、
     を含む情報処理方法。
  12.  請求項11において、前記情報処理方法は、さらに、
     前記ユーザーの視線上で、前記材料と重なるように、前記表示手段に前記材料の表面または内部に存在する異物の位置を表示する工程を含む情報処理方法。
  13.  請求項12において、前記異物は、骨、鱗、寄生虫、および毛から選ばれた一である情報処理方法。
  14.  請求項11乃至請求項13のいずれか一項において、前記ウェアラブル装置は、眼鏡型ウェアラブル装置である情報処理方法。
PCT/IB2020/055509 2019-06-25 2020-06-12 情報処理システム、および情報処理方法 WO2020261028A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080043825.5A CN114026592A (zh) 2019-06-25 2020-06-12 信息处理系统及信息处理方法
JP2021528031A JPWO2020261028A1 (ja) 2019-06-25 2020-06-12
KR1020227001953A KR20220025817A (ko) 2019-06-25 2020-06-12 정보 처리 시스템 및 정보 처리 방법
US17/619,623 US11922690B2 (en) 2019-06-25 2020-06-12 Data processing system and data processing method
DE112020003104.7T DE112020003104T5 (de) 2019-06-25 2020-06-12 Datenverarbeitungssystem und Verfahren zur Datenverarbeitung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-117639 2019-06-25
JP2019117639 2019-06-25

Publications (1)

Publication Number Publication Date
WO2020261028A1 true WO2020261028A1 (ja) 2020-12-30

Family

ID=74060027

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2020/055509 WO2020261028A1 (ja) 2019-06-25 2020-06-12 情報処理システム、および情報処理方法

Country Status (6)

Country Link
US (1) US11922690B2 (ja)
JP (1) JPWO2020261028A1 (ja)
KR (1) KR20220025817A (ja)
CN (1) CN114026592A (ja)
DE (1) DE112020003104T5 (ja)
WO (1) WO2020261028A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323590A (ja) * 2005-05-18 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> レシートおよびレシート発行装置、カードおよびカード記録装置、端末装置、家計簿データ管理システム、家計簿データ管理方法、コンピュータプログラム、記録媒体
JP2011058782A (ja) * 2009-09-14 2011-03-24 Keio Gijuku 調理システム、この調理システムに用いられる調理器具、及び、調理システムセット
JP2017120329A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 調理用ヘッドマウントディスプレイおよび調理用ヘッドマウントディスプレイのプログラム
JP2017120164A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 調理調整ヘッドマウントディスプレイ、調理調整ヘッドマウントディスプレイのプログラム、および調理調整ヘッドマウントディスプレイシステム
JP2018128979A (ja) * 2017-02-10 2018-08-16 パナソニックIpマネジメント株式会社 厨房支援システム
WO2019031020A1 (ja) * 2017-08-09 2019-02-14 株式会社DSi 計量システム、電子秤及び電子秤用マーカー
KR20190100496A (ko) * 2018-02-05 2019-08-29 충북대학교 산학협력단 요리안내 시스템 및 방법
JP6692960B1 (ja) * 2019-03-29 2020-05-13 株式会社エヌ・ティ・ティ・データ 調理支援システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1887874T3 (da) * 2005-05-31 2012-10-15 Teknologisk Inst Fremgangsmåde og anvendelse af en database til automatisk at bestemme kvalitetskarakteristika for en slagtekrop i en slagtelinje
EP3116358B2 (en) * 2014-03-14 2022-12-07 Spectrum Brands, Inc. Wirelessly operable cooking appliance
WO2016079960A1 (en) * 2014-11-18 2016-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program
JP6509686B2 (ja) * 2015-09-04 2019-05-08 株式会社東芝 電子機器及び方法
JP6444835B2 (ja) 2015-09-07 2018-12-26 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム
US9704257B1 (en) 2016-03-25 2017-07-11 Mitsubishi Electric Research Laboratories, Inc. System and method for semantic segmentation using Gaussian random field network
JP6327682B1 (ja) 2017-01-30 2018-05-23 クックパッド株式会社 情報処理システム、情報処理装置、情報処理方法、及びプログラム
US10360734B2 (en) * 2017-05-05 2019-07-23 Unity IPR ApS Contextual applications in a mixed reality environment
JP7338184B2 (ja) * 2018-03-28 2023-09-05 株式会社リコー 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
JP7076007B2 (ja) * 2018-11-29 2022-05-26 マクセル株式会社 映像表示装置および方法
CN113939223A (zh) 2019-06-07 2022-01-14 株式会社半导体能源研究所 复合装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323590A (ja) * 2005-05-18 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> レシートおよびレシート発行装置、カードおよびカード記録装置、端末装置、家計簿データ管理システム、家計簿データ管理方法、コンピュータプログラム、記録媒体
JP2011058782A (ja) * 2009-09-14 2011-03-24 Keio Gijuku 調理システム、この調理システムに用いられる調理器具、及び、調理システムセット
JP2017120329A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 調理用ヘッドマウントディスプレイおよび調理用ヘッドマウントディスプレイのプログラム
JP2017120164A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 調理調整ヘッドマウントディスプレイ、調理調整ヘッドマウントディスプレイのプログラム、および調理調整ヘッドマウントディスプレイシステム
JP2018128979A (ja) * 2017-02-10 2018-08-16 パナソニックIpマネジメント株式会社 厨房支援システム
WO2019031020A1 (ja) * 2017-08-09 2019-02-14 株式会社DSi 計量システム、電子秤及び電子秤用マーカー
KR20190100496A (ko) * 2018-02-05 2019-08-29 충북대학교 산학협력단 요리안내 시스템 및 방법
JP6692960B1 (ja) * 2019-03-29 2020-05-13 株式会社エヌ・ティ・ティ・データ 調理支援システム

Also Published As

Publication number Publication date
CN114026592A (zh) 2022-02-08
KR20220025817A (ko) 2022-03-03
DE112020003104T5 (de) 2022-03-17
JPWO2020261028A1 (ja) 2020-12-30
US11922690B2 (en) 2024-03-05
US20220351509A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
JP6299744B2 (ja) 情報処理装置および記憶媒体
KR102179142B1 (ko) 착용식 식품 영양 피드백 시스템
US10458845B2 (en) Mobile device for food identification an quantification using spectroscopy and imaging
EP4011274A1 (en) Eye tracking using eyeball center position
RU2668408C2 (ru) Устройства, системы и способы виртуализации зеркала
US9135508B2 (en) Enhanced user eye gaze estimation
US20170227754A1 (en) Systems and applications for generating augmented reality images
CN112507799A (zh) 基于眼动注视点引导的图像识别方法、mr眼镜及介质
CN105446474B (zh) 可穿戴智能设备及其交互的方法、可穿戴智能设备系统
CN108416703A (zh) 厨房支援系统
CN112181152A (zh) 基于mr眼镜的广告推送管理方法、设备及应用
US11763437B2 (en) Analyzing apparatus and method, and image capturing system
CN110021404A (zh) 用于处理与食物相关的信息的电子设备和方法
CN103648366A (zh) 用于远程测量光学焦点的系统和方法
JP2014167716A (ja) 情報処理装置および記憶媒体
JPWO2018066190A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2010061381A (ja) 自動レシピ作成装置およびプログラム
JP2017120329A (ja) 調理用ヘッドマウントディスプレイおよび調理用ヘッドマウントディスプレイのプログラム
JP2021165622A (ja) 食材貯蔵システム、嗜好情報取得方法および嗜好情報取得装置
WO2020261028A1 (ja) 情報処理システム、および情報処理方法
KR20190048922A (ko) 스마트 테이블 및 스마트 테이블의 제어방법
JP2016162124A (ja) 調理法決定方法及び調理法決定装置
JP6895830B2 (ja) 調理支援装置
CN113631094A (zh) 身心状态的判定系统、判定装置、方法及计算机程序
US11864834B1 (en) Multi-tiled plenoptic system for the detection and correction of ocular defects and for improved foveated rendering

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20833441

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528031

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20227001953

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20833441

Country of ref document: EP

Kind code of ref document: A1