JPWO2019065304A1 - Food delivery system, food delivery method and management device for food delivery system - Google Patents

Food delivery system, food delivery method and management device for food delivery system Download PDF

Info

Publication number
JPWO2019065304A1
JPWO2019065304A1 JP2019544586A JP2019544586A JPWO2019065304A1 JP WO2019065304 A1 JPWO2019065304 A1 JP WO2019065304A1 JP 2019544586 A JP2019544586 A JP 2019544586A JP 2019544586 A JP2019544586 A JP 2019544586A JP WO2019065304 A1 JPWO2019065304 A1 JP WO2019065304A1
Authority
JP
Japan
Prior art keywords
food
data
unit
taste
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019544586A
Other languages
Japanese (ja)
Inventor
茂憲 蛭田
茂憲 蛭田
大輔 村松
大輔 村松
史郎 北村
史郎 北村
祐至 齋藤
祐至 齋藤
修司 仲山
修司 仲山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2019065304A1 publication Critical patent/JPWO2019065304A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23PSHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
    • A23P20/00Coating of foodstuffs; Coatings therefor; Making laminated, multi-layered, stuffed or hollow foodstuffs
    • A23P20/20Making of laminated, multi-layered, stuffed or hollow foodstuffs, e.g. by wrapping in preformed edible dough sheets or in edible food containers
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23PSHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
    • A23P30/00Shaping or working of foodstuffs characterised by the process or apparatus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • B29C64/393Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y30/00Apparatus for additive manufacturing; Details thereof or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • B33Y50/02Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Materials Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Polymers & Plastics (AREA)
  • Food Science & Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Manipulator (AREA)
  • Formation And Processing Of Food Products (AREA)

Abstract

食品提供システムは、注文食品の形状データと色データと味データとを出力するデータ出力部(443)と、データ出力部から出力された形状データと味データとに基づいて食材を積層して注文食品に対応する形状と味とを有する造形食品を製造する三次元造形装置と、ユーザに装着されるとともに、現実空間に合致した三次元画像を表示する表示部を有するユーザ機器と、三次元造形装置により製造された造形食品の三次元画像が注文食品と同一色で表示されるようにデータ出力部から出力された色データに基づいて表示部を制御する表示制御部と、を備える。The food provision system stacks and orders foodstuffs based on a data output unit (443) that outputs shape data, color data, and taste data of ordered foods, and shape data and taste data output from the data output unit. A three-dimensional modeling device that manufactures a shaped food having a shape and taste corresponding to the food, a user device that is attached to the user and has a display unit that displays a three-dimensional image that matches the real space, and three-dimensional modeling. It includes a display control unit that controls the display unit based on the color data output from the data output unit so that the three-dimensional image of the shaped food produced by the apparatus is displayed in the same color as the ordered food.

Description

本発明は、3Dプリンタなどにより製造された食品を提供する食品提供システム、食品提供方法および食品提供システム用管理装置に関する。 The present invention relates to a food providing system for providing food produced by a 3D printer or the like, a food providing method, and a management device for the food providing system.

従来より、3Dプリンタを用いて食品を製造するようにした装置が知られている(例えば特許文献1参照)。この特許文献1記載の装置では、着色料や香味料を添加しながらCADデータの断面図に基づいて食材を積層することにより、所望の色や風味をもった所定形状の食品を製造する。 Conventionally, an apparatus for producing food using a 3D printer has been known (see, for example, Patent Document 1). In the apparatus described in Patent Document 1, foodstuffs having a desired color and flavor are produced by laminating foodstuffs based on a cross-sectional view of CAD data while adding a colorant and a flavoring agent.

特許文献1:国際公開第2015/106059号 Patent Document 1: International Publication No. 2015/1060659

ところで、実際の食品には、色とりどりの食材を用いて彩り豊富な状態で提供されるものがある。このような食品を、上記特許文献1記載の3Dプリンタなどを用いて再現しようとすると、食品の製造コストが大幅に上昇するおそれがある。 By the way, some actual foods are provided in a colorful state using colorful ingredients. If an attempt is made to reproduce such a food using the 3D printer described in Patent Document 1 or the like, the manufacturing cost of the food may increase significantly.

本発明の一態様である食品提供システムは、食品の形状データと色データと味データとを出力するデータ出力部と、データ出力部から出力された形状データと味データとに基づいて食材を積層して食品に対応する形状と味とを有する造形食品を製造する三次元造形装置と、ユーザに装着されるとともに、現実空間に合致した三次元画像を表示する表示部を有するユーザ機器と、三次元造形装置により製造された造形食品の三次元画像が食品と同一色で表示されるようにデータ出力部から出力された色データに基づいて表示部を制御する表示制御部と、を備える。 The food providing system, which is one aspect of the present invention, stacks foodstuffs based on a data output unit that outputs food shape data, color data, and taste data, and shape data and taste data output from the data output unit. A three-dimensional modeling device that manufactures a shaped food having a shape and taste corresponding to the food, a user device that is attached to the user and has a display unit that displays a three-dimensional image that matches the real space, and a tertiary. It includes a display control unit that controls the display unit based on the color data output from the data output unit so that the three-dimensional image of the modeled food produced by the original modeling device is displayed in the same color as the food.

本発明の他の態様である食品提供方法は、食品の形状データと色データと味データとを出力し、出力された形状データと味データとに基づいて食材を積層して食品に対応する形状と味とを有する造形食品を製造し、ユーザに装着されたユーザ機器の表示部に、製造された造形食品の現実空間に合致した三次元画像が食品と同一色で表示されるように、出力された色データに基づいて表示部を制御することを含む。 The food providing method according to another aspect of the present invention outputs food shape data, color data, and taste data, and stacks foodstuffs based on the output shape data and taste data to form a shape corresponding to the food. Manufactures a shaped food with the taste and taste, and outputs it so that a three-dimensional image matching the real space of the manufactured shaped food is displayed in the same color as the food on the display unit of the user device attached to the user. It includes controlling the display unit based on the color data.

本発明のさらに他の態様である食品提供システム用管理装置は、ユーザ機器及びロボットから送信されたデータを受信する信号入力部と、信号入力部を介して受信したデータに基づき食品の形状データと色データと味データとを特定し出力するデータ出力部と、データ出力部から出力された形状データと味データとを外部の三次元造形装置に出力するプリンタ制御部と、三次元造形装置により製造される造形食品の三次元画像が食品と同一色で表示されるようにデータ出力部から出力された色データを外部のユーザ機器に出力するユーザ機器制御部と、を備える。 The management device for a food providing system, which is still another aspect of the present invention, includes a signal input unit that receives data transmitted from a user device and a robot, and food shape data based on the data received via the signal input unit. Manufactured by a data output unit that identifies and outputs color data and taste data, a printer control unit that outputs shape data and taste data output from the data output unit to an external three-dimensional modeling device, and a three-dimensional modeling device. It is provided with a user equipment control unit that outputs color data output from a data output unit to an external user equipment so that a three-dimensional image of the shaped food to be produced is displayed in the same color as the food.

本発明によれば、三次元造形装置によって製造される造形食品自体の色を気にする必要がなく、安価に造形食品を製造することができる。 According to the present invention, it is not necessary to worry about the color of the shaped food itself produced by the three-dimensional modeling device, and the shaped food can be produced at low cost.

本発明の実施形態に係る食品提供システムの全体構成を概略的に示す図。The figure which shows outline the whole structure of the food provision system which concerns on embodiment of this invention. 図1のユーザ機器の構成を示す図。The figure which shows the structure of the user apparatus of FIG. 図1の3Dプリンタの概略構成を示す図。The figure which shows the schematic structure of the 3D printer of FIG. 図1のロボットの構成を示す図。The figure which shows the structure of the robot of FIG. 図1の管理サーバの概略構成を示すブロック図。The block diagram which shows the schematic structure of the management server of FIG. 図5の演算部で実行される処理の一例を示すフローチャート。The flowchart which shows an example of the processing executed by the arithmetic unit of FIG. 本発明の実施形態に係る食品提供システムによる動作の一例を示す図。The figure which shows an example of the operation by the food providing system which concerns on embodiment of this invention.

以下、図1〜図7を参照して本発明の実施形態について説明する。本発明の実施形態に係る食品提供システムは、ロボットシステムに適用され、ユーザからの指令によって動作するロボットが取得した情報を用いてユーザに食品を提供するものである。より具体的には、遠隔地のロボットを用いて取得したカメラの画像信号を介して、その遠隔地で注文可能な食品(注文食品)をユーザに認識させ、ユーザからの指令に応じて注文食品に対応する食品を3Dプリンタで製造し、製造された食品(造形食品)をユーザに提供するように構成する。注文食品と造形食品とは、形状および味が互いに同一であるが、色は異なる。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 7. The food providing system according to the embodiment of the present invention is applied to a robot system, and provides food to a user by using information acquired by a robot that operates according to a command from the user. More specifically, the user is made to recognize the food (ordered food) that can be ordered in the remote place through the image signal of the camera acquired by using the robot in the remote place, and the ordered food is ordered according to the command from the user. The food corresponding to the above is manufactured by a 3D printer, and the manufactured food (modeled food) is provided to the user. Custom foods and shaped foods have the same shape and taste, but different colors.

ロボットは、ユーザからの指令により単独で行動することができるが、以下では、単独ではなくロボットがユーザの家族等の第三者とともに行動する例を説明する。例えば、ユーザが家族と一緒に外出(例えば旅行)することが困難な場合に、ユーザの代わりにロボットが家族と一緒に旅行する場合を想定する。このとき、ユーザからの指令によりロボットを動作させるとともに、ロボットにより取得された情報をユーザに提供する。これによりユーザは、例えば自宅にいながら、あたかも家族とともに旅行している気分を味わうことができる。特に本実施形態では、以下のように旅行先の食品の情報を、ロボットを介してユーザに提供し、その情報を用いて3Dプリンタで食品を製造する。これによりユーザは、旅行先で家族と一緒に食事している気分を味わうことができる。 The robot can act independently by a command from the user, but the following describes an example in which the robot acts together with a third party such as the user's family instead of acting alone. For example, suppose that it is difficult for a user to go out (for example, travel) with a family member, and a robot travels with the family member instead of the user. At this time, the robot is operated according to a command from the user, and the information acquired by the robot is provided to the user. As a result, the user can feel as if he / she is traveling with his / her family while staying at home, for example. In particular, in the present embodiment, the information on the food at the travel destination is provided to the user via the robot as follows, and the food is manufactured by the 3D printer using the information. This allows the user to feel as if they are eating with their family while traveling.

図1は、本発明の実施形態に係る食品提供システム100の全体構成を概略的に示す図である。図1に示すように、食品提供システム100は、A地点に位置するユーザ1に装着されたユーザ機器10と、A地点に配置された3Dプリンタ20と、B地点に位置してA地点のユーザ1により操作されるロボット30と、管理サーバ40とを含んで構成される。 FIG. 1 is a diagram schematically showing an overall configuration of a food providing system 100 according to an embodiment of the present invention. As shown in FIG. 1, the food providing system 100 includes a user device 10 mounted on the user 1 located at the A point, a 3D printer 20 arranged at the A point, and a user at the A point located at the B point. It is configured to include a robot 30 operated by 1 and a management server 40.

これらユーザ機器10と、3Dプリンタ20と、ロボット30と、管理サーバ40とは、インターネット回線等の無線通信網を含むネットワーク2で通信可能に接続される。A地点は例えばユーザの自宅であり、B地点はA地点から離れた地点、例えば異なる地域の地点である。なお、A地点とB地点とが互いに異なる国であってもよい。 The user device 10, the 3D printer 20, the robot 30, and the management server 40 are communicably connected by a network 2 including a wireless communication network such as an Internet line. Point A is, for example, the user's home, and point B is a point away from point A, for example, a point in a different area. It should be noted that points A and B may be different countries from each other.

B地点のロボット30は、B地点またはB地点の近傍の店舗3からレンタルされる。すなわち、ロボット30は、店舗3に赴いたユーザ1の家族によりレンタルされ、B地点でユーザ1の家族とともに行動する。ロボット30は、B地点での旅行が終了するときにユーザ1の家族により店舗3に返却される。店舗3の各ロボット30には、予め固有の識別IDが付されている。 The robot 30 at point B is rented from the store 3 at point B or near point B. That is, the robot 30 is rented by the family of the user 1 who has gone to the store 3, and acts together with the family of the user 1 at the point B. The robot 30 is returned to the store 3 by the family of the user 1 when the trip at the point B is completed. Each robot 30 in the store 3 is given a unique identification ID in advance.

図2は、ユーザ機器10の構成を示す図である。図2に示すようにユーザ機器10は、例えば全体が略ヘルメット形状を呈するウェアラブルコンピュータであり、ユーザの頭部に装着される。ユーザ機器10は、ユーザの脳波や脳磁波、脳血流の状態等の脳活動を検出する複数のセンサ11を備える。すなわち、ユーザ機器10は、ユーザの思考ないし意図を脳活動信号から検出し、身体を使うことなく機械操作を実現する、いわゆるブレインマシンインタフェース(BMI)を備える。 FIG. 2 is a diagram showing the configuration of the user device 10. As shown in FIG. 2, the user device 10 is, for example, a wearable computer having a substantially helmet shape as a whole, and is worn on the user's head. The user device 10 includes a plurality of sensors 11 that detect brain activities such as the user's electroencephalogram, magnetoencephalogram, and cerebral blood flow. That is, the user device 10 includes a so-called brain-machine interface (BMI) that detects a user's thoughts or intentions from a brain activity signal and realizes machine operation without using the body.

さらにユーザ機器10は、ディスプレイ12と、マイク13と、スピーカ14と、入力装置15と、コントローラ16と、無線ユニット17と、カメラ18とを有する。ディスプレイ12は、例えば非透過型のヘッドマウントディスプレイであり、ユーザの両眼の周囲を覆うように配置され、ロボット30からのカメラ画像が表示される。なお、ユーザの鼻と口の位置は、ユーザ機器10に覆われずに露出する。 Further, the user device 10 includes a display 12, a microphone 13, a speaker 14, an input device 15, a controller 16, a wireless unit 17, and a camera 18. The display 12 is, for example, a non-transparent head-mounted display, which is arranged so as to cover the periphery of both eyes of the user, and displays a camera image from the robot 30. The positions of the user's nose and mouth are exposed without being covered by the user device 10.

ディスプレイ12の外表面には、ユーザの両眼の位置に対応してCCD等の撮像素子を有する一対のカメラ18が設けられる。ディスプレイ12には、カメラ18により撮影された現実空間の三次元画像を表示することもできる。この三次元画像には、仮想の画像を重ねて表示することができる。 On the outer surface of the display 12, a pair of cameras 18 having an image sensor such as a CCD corresponding to the positions of both eyes of the user are provided. The display 12 can also display a three-dimensional image of the real space taken by the camera 18. A virtual image can be superimposed and displayed on this three-dimensional image.

マイク13は、ユーザの口元に向けて移動可能に設けられ、ユーザの発話による音声信号を入力する。スピーカ14は、ユーザの耳元に配置され、音声を出力する。入力装置15は、ユーザにより操作されるスイッチやタッチパネル等により構成され、入力装置15を介してユーザの個人情報等、各種情報を入力することができる。 The microphone 13 is provided so as to be movable toward the user's mouth, and inputs an audio signal uttered by the user. The speaker 14 is placed near the user's ear and outputs voice. The input device 15 is composed of a switch, a touch panel, or the like operated by the user, and various information such as personal information of the user can be input via the input device 15.

コントローラ16は、CPU,ROM,RAM等を有するマイクロコンピュータを含み、無線ユニット17を制御して管理サーバ40と通信する。例えばコントローラ16は、センサ11とマイク13とからの信号を管理サーバ40に送信させる。さらにコントローラ16は、管理サーバ40から送信された信号に基づきディスプレイ12やスピーカ14などに制御信号を出力する。 The controller 16 includes a microcomputer having a CPU, ROM, RAM, and the like, and controls the wireless unit 17 to communicate with the management server 40. For example, the controller 16 causes the management server 40 to transmit signals from the sensor 11 and the microphone 13. Further, the controller 16 outputs a control signal to the display 12, the speaker 14, and the like based on the signal transmitted from the management server 40.

図3は、3Dプリンタ20の概略構成を示すブロック図である。3Dプリンタ20は、三次元モデルの形状データに基づいて材料を積層していくことでオブジェクトを作成するものであり、本実施形態では、食材を積層して食品(造形食品)を製造する。図3に示すように、3Dプリンタ20は、入力装置21と、食材貯蔵部22と、風味貯蔵部23と、掻き混ぜ部24と、ノズル25と、コントローラ26と、無線ユニット27とを有する。 FIG. 3 is a block diagram showing a schematic configuration of the 3D printer 20. The 3D printer 20 creates an object by laminating materials based on the shape data of a three-dimensional model, and in the present embodiment, the foodstuffs are laminated to produce a food (modeled food). As shown in FIG. 3, the 3D printer 20 includes an input device 21, a food material storage unit 22, a flavor storage unit 23, a stirring unit 24, a nozzle 25, a controller 26, and a wireless unit 27.

食材貯蔵部22は、寒天、こんにゃく、ゼリー等の硬さの異なる複数の食材を細切れにされた状態でそれぞれ異なる容器に保管する。食材貯蔵部22は、粉末状の食材を容器に保管することもできる。風味貯蔵部23は、例えば甘味、苦味、酸味、塩味、うま味等の基本の風味を粉末または液体の形態でそれぞれ異なる容器に保管する。掻き混ぜ部24は、食材貯蔵部22から供給された所定種類の所定量の食材と、風味貯蔵部23から供給された所定種類の所定量の風味とを掻き混ぜる。ノズル25は、コントローラ26から出力される座標データに従って移動し、掻き混ぜ部24から供給された風味付き食材を、その先端から射出しながら積層し、これにより三次元形状の造形食品を製造する。 The food storage unit 22 stores a plurality of foods having different hardness, such as agar, konjac, and jelly, in different containers in a shredded state. The food storage unit 22 can also store powdered food in a container. The flavor storage unit 23 stores basic flavors such as sweetness, bitterness, sourness, saltiness, and umami in different containers in the form of powder or liquid. The stirring unit 24 stirs a predetermined amount of foodstuff of a predetermined type supplied from the foodstuff storage unit 22 and a predetermined amount of flavor of a predetermined type supplied from the flavor storage unit 23. The nozzle 25 moves according to the coordinate data output from the controller 26, and stacks the flavored foods supplied from the stirring unit 24 while ejecting them from the tip thereof, thereby producing a three-dimensional shaped food.

コントローラ26は、CPU等の演算部26Aと、ROM,RAM等の記憶部26Bと、各種周辺回路とを有するマイクロコンピュータを含む。演算部26Aは、機能的構成として、データ入力部261と、信号出力部262とを有する。データ入力部261は、入力装置21から入力された信号を取り込むとともに、管理サーバ40から送信された信号(食品データ)を、無線ユニット27を介して取り込む。信号出力部262は、データ入力部261により取り込まれた信号に従い食材貯蔵部22、風味貯蔵部23、掻き混ぜ部24およびノズル25の各動作部(アクチュエータなど)に制御信号を出力し、食材貯蔵部22、風味貯蔵部23、掻き混ぜ部24およびノズル25の動作を制御する。 The controller 26 includes a microcomputer having a calculation unit 26A such as a CPU, a storage unit 26B such as a ROM and RAM, and various peripheral circuits. The calculation unit 26A has a data input unit 261 and a signal output unit 262 as a functional configuration. The data input unit 261 captures the signal input from the input device 21, and also captures the signal (food data) transmitted from the management server 40 via the wireless unit 27. The signal output unit 262 outputs a control signal to each operation unit (actuator, etc.) of the food storage unit 22, the flavor storage unit 23, the stirring unit 24, and the nozzle 25 according to the signal captured by the data input unit 261 to store the food. The operation of the unit 22, the flavor storage unit 23, the stirring unit 24, and the nozzle 25 is controlled.

図4は、ロボット30の構成を示す図である。図4に示すようにロボット30は、頭、胴体、2つの腕部、2つの脚部を有する人型ロボットであり、二足歩行によりロボット自身で移動することができる。ロボット30の高さは、成人の身長に近く、例えば140〜160cm程度である。 FIG. 4 is a diagram showing the configuration of the robot 30. As shown in FIG. 4, the robot 30 is a humanoid robot having a head, a body, two arms, and two legs, and can be moved by the robot itself by bipedal walking. The height of the robot 30 is close to the height of an adult, for example, about 140 to 160 cm.

ロボット30は、外界を感知するための人の感覚機能である五感に対応した検出機能を有する複数のセンサ、すなわち視覚センサ311と、聴覚センサ312と、触覚センサ313と、臭覚センサ314と、味覚センサ315とを有する。これらセンサ311〜315は、人の五感に対応した信号(五感信号)を検出信号として出力する。 The robot 30 has a plurality of sensors having detection functions corresponding to five senses, which are human sensory functions for sensing the outside world, that is, a visual sensor 311, an auditory sensor 312, a tactile sensor 313, an odor sensor 314, and a taste sensation. It has a sensor 315. These sensors 31 to 315 output signals corresponding to the five human senses (five sense signals) as detection signals.

より具体的には、視覚センサ311はカメラにより構成され、ロボット30の目の位置に設けられたCMOSセンサやCCDセンサ等の画像センサとレンズとを有する撮影部と、撮影部を上下左右に駆動する駆動部と、被写体を拡大縮小するズーム機構とを有し、ロボット30の周囲の画像(動画)を取得する。聴覚センサ312は、例えばロボット30の耳の位置に設けられたマイクにより構成され、ロボット30の周囲の音声を取得する。触覚センサ313は、例えばロボット30のハンドの位置等に設けられた力覚センサにより構成され、ロボット30のハンドに作用する外力を検出する。臭覚センサ314は、ロボット30の鼻の位置に設けられ、臭いを検出する。味覚センサ315は、ロボット30の口の位置に設けられ、味を検出する。 More specifically, the visual sensor 311 is composed of a camera, and drives an imaging unit having an image sensor such as a CMOS sensor or a CCD sensor provided at the eye position of the robot 30 and a lens, and the imaging unit vertically and horizontally. It has a driving unit that operates the robot and a zoom mechanism that enlarges / reduces the subject, and acquires an image (moving image) around the robot 30. The auditory sensor 312 is composed of, for example, a microphone provided at the position of the ear of the robot 30, and acquires the sound around the robot 30. The tactile sensor 313 is composed of, for example, a force sensor provided at the position of the hand of the robot 30, and detects an external force acting on the hand of the robot 30. The odor sensor 314 is provided at the position of the nose of the robot 30 and detects the odor. The taste sensor 315 is provided at the position of the mouth of the robot 30 and detects the taste.

さらにロボット30は、アクチュエータ32と、スピーカ33と、入力装置34と、GPSセンサ35と、コントローラ36と、無線ユニット37とを有する。アクチュエータ32は、例えばロボット30の関節部に設けられた複数のサーボモータ等により構成され、アクチュエータ32の駆動によりロボット30が動作する。スピーカ33は、ロボット30の口の位置に設けられ、音声を出力する。入力装置34は、電源スイッチ等の各種スイッチを備える。GPSセンサ35は、GPS衛星からのGPS信号を受信する。GPSセンサ35からの信号により、ロボット30の位置を検出することができる。 Further, the robot 30 has an actuator 32, a speaker 33, an input device 34, a GPS sensor 35, a controller 36, and a wireless unit 37. The actuator 32 is composed of, for example, a plurality of servomotors provided at the joints of the robot 30, and the robot 30 is operated by driving the actuator 32. The speaker 33 is provided at the position of the mouth of the robot 30 and outputs sound. The input device 34 includes various switches such as a power switch. The GPS sensor 35 receives GPS signals from GPS satellites. The position of the robot 30 can be detected by the signal from the GPS sensor 35.

コントローラ36は、CPU,ROM,RAM等を有するマイクロコンピュータを含み、無線ユニット37を制御して管理サーバ40と通信する。例えばコントローラ36は、五感信号を出力するセンサ311〜315とGPSセンサ35とからの信号を管理サーバ40に送信させる。さらにコントローラ36は、管理サーバ40から送信された信号に基づきアクチュエータ32やスピーカ33などに制御信号を出力する。 The controller 36 includes a microcomputer having a CPU, ROM, RAM, etc., and controls the wireless unit 37 to communicate with the management server 40. For example, the controller 36 causes the management server 40 to transmit signals from the sensors 31 to 315 that output the five senses signals and the GPS sensor 35. Further, the controller 36 outputs a control signal to the actuator 32, the speaker 33, and the like based on the signal transmitted from the management server 40.

図5は、管理サーバ40の概略構成の一例を示すブロック図である。図5に示すように、管理サーバ40は、入力装置41と、表示装置42と、無線ユニット43と、コントローラ44とを有する。なお、入力装置41と表示装置42とは、省略することができる。また、無線ユニット43は無線だけでなく有線により通信接続される構成であってもよい。 FIG. 5 is a block diagram showing an example of a schematic configuration of the management server 40. As shown in FIG. 5, the management server 40 includes an input device 41, a display device 42, a wireless unit 43, and a controller 44. The input device 41 and the display device 42 can be omitted. Further, the wireless unit 43 may be configured to be connected by wire as well as wirelessly.

コントローラ44は、CPU等の演算部44Aと、ROM,RAM,ハードディスク等の記憶部44Bと、その他の周辺回路とを有し、無線ユニット43を制御してユーザ機器10、3Dプリンタ20およびロボット30と通信する。演算部44Aは、機能的構成として、信号入力部441と、注文受付部442と、データ出力部443と、ロボット制御部444と、プリンタ制御部445と、ユーザ機器制御部446とを有する。記憶部44Bは、機能的構成として、食品データベース447を有する。 The controller 44 has a calculation unit 44A such as a CPU, a storage unit 44B such as a ROM, RAM, and a hard disk, and other peripheral circuits, and controls the wireless unit 43 to control the user equipment 10, the 3D printer 20, and the robot 30. Communicate with. The calculation unit 44A has a signal input unit 441, an order reception unit 442, a data output unit 443, a robot control unit 444, a printer control unit 445, and a user equipment control unit 446 as functional configurations. The storage unit 44B has a food database 447 as a functional configuration.

食品データベース447は、単一または複数の食材と風味とにより形成される複数の食品(料理等)の形状データと色データと味データとを含む食品データを、食品の名称とともに記憶する。食品データには、ロボット30(視覚センサ311)を介してユーザが認識した食品、例えば料理店や食品を販売している店舗で注文可能な食品(注文食品)のデータと、注文食品に形状と味とを真似して3Dプリンタ20で食品(造形食品)を製造する場合の造形食品のデータとが含まれる。造形食品のデータは、注文食品のデータに対応付けて食品データベース447に記憶される。食品データベース447には、種々のジャンルの食品の情報が記憶され、この情報は例えば入力装置41を介して定期的に更新あるいは逐次更新される。 The food database 447 stores food data including shape data, color data, and taste data of a plurality of foods (dishes, etc.) formed by a single or a plurality of foodstuffs and flavors together with food names. The food data includes data on foods recognized by the user via the robot 30 (visual sensor 311), for example, foods that can be ordered at a restaurant or a store that sells foods (custom foods), and the shape of the custom foods. It includes data on the shaped food when the food (shaped food) is manufactured by the 3D printer 20 by imitating the taste. The data of the shaped food is stored in the food database 447 in association with the data of the ordered food. Information on foods of various genres is stored in the food database 447, and this information is periodically updated or sequentially updated, for example, via an input device 41.

信号入力部441は、ユーザ機器10(図2のセンサ11やマイク13等)から送信されたデータ、およびロボット30(図4のセンサ311〜315等)から送信されたデータを、無線ユニット43を介して取得する。信号入力部441は、3Dプリンタ20で食品の製造が完了したときに3Dプリンタ20から出力される動作完了信号も取得する。 The signal input unit 441 transmits the data transmitted from the user device 10 (sensor 11, microphone 13 and the like in FIG. 2) and the data transmitted from the robot 30 (sensors 31 to 315 and the like in FIG. 4) to the wireless unit 43. Get through. The signal input unit 441 also acquires an operation completion signal output from the 3D printer 20 when the production of food is completed by the 3D printer 20.

注文受付部442は、3Dプリンタ20で製造すべき食品の注文を受け付ける。例えばロボット30のカメラ(視覚センサ311)で食品を撮影し、食品がユーザ機器10のディスプレイ12に表示されている状態で、ユーザからの指令によりロボット30を介して食品を注文すると、注文受付部431は、その食品の注文を受け付ける。なお、ロボット30は食品を食べることができないので、注文した食品が料理店で実際に作られる必要はない。 The order receiving unit 442 receives an order for food to be manufactured by the 3D printer 20. For example, when food is photographed by the camera (visual sensor 311) of the robot 30 and the food is displayed on the display 12 of the user device 10 and the food is ordered via the robot 30 by a command from the user, the order reception unit 431 accepts an order for the food. Since the robot 30 cannot eat food, it is not necessary for the ordered food to be actually made at the restaurant.

ユーザからの指令により、ロボット30に実際に食品を注文させてもよいが、単に注文のふりをさせるだけでもよい。注文のふりすらさせずに、ユーザの食品の注文の意思を、注文受付部442が判断して注文を受け付けるようにしてもよい。すなわち、ロボット30による注文動作を介さずに、ユーザがセンサ11やマイク13を介して食品の注文を指令し、これを注文受付部442が受け付けるようにしてもよい。 The robot 30 may actually order food according to a command from the user, but it may simply pretend to be an order. Instead of pretending to be an order, the order receiving unit 442 may determine the user's intention to order food and accept the order. That is, the user may instruct the food order via the sensor 11 or the microphone 13 without going through the ordering operation by the robot 30, and the order receiving unit 442 may accept the order.

注文受付部442は、ロボット30により食品の注文動作がなされると、その注文された食品の名称をセンサ11や視覚センサ311からの信号に基づいて判断し、注文食品を特定する。注文食品の名称が不明なとき、視覚センサ311により取得された食品の形状データと色データとに合致する食品データを食品データベース436から検索し、これにより注文食品を特定することもできる。 When the robot 30 makes an ordering operation for food, the order receiving unit 442 determines the name of the ordered food based on the signals from the sensor 11 and the visual sensor 311 and identifies the ordered food. When the name of the ordered food is unknown, the food data matching the shape data and the color data of the food acquired by the visual sensor 311 can be searched from the food database 436, and the ordered food can be specified by this.

データ出力部443は、食品データベース447を参照し、注文受付部442により特定された注文食品の形状データと色データと味データとを抽出して出力する。 The data output unit 443 refers to the food database 447 and extracts and outputs the shape data, the color data, and the taste data of the ordered food specified by the order receiving unit 442.

ロボット制御部444は、信号入力部441が読み込んだユーザ機器10のセンサ11からの信号(脳活動信号)に基づいて、ロボット30のアクチュエータ32に対する動作信号を、無線ユニット43を介してロボット30に送信する。ロボット30のコントローラ36は、この動作信号に応じてアクチュエータ32に制御信号を出力する。これにより、ユーザの意図に従いロボット30を動作させることができる。ロボット制御部444は、ユーザ機器10のマイク13からの信号に基づく音声を、ロボット30のスピーカ33から出力させることもできる。 Based on the signal (brain activity signal) from the sensor 11 of the user device 10 read by the signal input unit 441, the robot control unit 444 transmits an operation signal to the actuator 32 of the robot 30 to the robot 30 via the wireless unit 43. Send. The controller 36 of the robot 30 outputs a control signal to the actuator 32 in response to this operation signal. As a result, the robot 30 can be operated according to the user's intention. The robot control unit 444 can also output the voice based on the signal from the microphone 13 of the user device 10 from the speaker 33 of the robot 30.

プリンタ制御部445は、データ出力部443から出力された食品データのうち、注文食品の形状データと味データとを、無線ユニット43を介して3Dプリンタ20に送信する。3Dプリンタ20のコントローラ26(信号出力部262)は、送信された形状データと味データとに基づいて食材貯蔵部22、風味貯蔵部23、掻き混ぜ部24およびノズル25の各動作部に制御信号を出力する。これにより、注文食品と形状および味が一致する造形食品が製造される。 The printer control unit 445 transmits the shape data and taste data of the ordered food among the food data output from the data output unit 443 to the 3D printer 20 via the wireless unit 43. The controller 26 (signal output unit 262) of the 3D printer 20 sends control signals to each operation unit of the food storage unit 22, the flavor storage unit 23, the stirring unit 24, and the nozzle 25 based on the transmitted shape data and taste data. Is output. As a result, a shaped food having the same shape and taste as the custom-made food is produced.

ユーザ機器制御部446は、信号入力部441が読み込んだロボット30のセンサ311〜315からの信号(五感信号)に基づいて、ユーザ機器10に対する動作信号を、無線ユニット43を介してユーザ機器10に送信する。例えば視覚センサ311により検出された画像信号を送信する。ユーザ機器10のコントローラ16は、この画像信号に応じてディスプレイ12に制御信号を出力し、ディスプレイ12に視覚センサ311から得られた三次元画像を表示させる。ユーザ機器制御部446は、聴覚センサ312からの信号に基づく音声を、ユーザ機器10のスピーカ14から出力させることもできる。 The user device control unit 446 transmits an operation signal to the user device 10 to the user device 10 via the wireless unit 43 based on the signals (five sense signals) from the sensors 31 to 315 of the robot 30 read by the signal input unit 441. Send. For example, the image signal detected by the visual sensor 311 is transmitted. The controller 16 of the user device 10 outputs a control signal to the display 12 in response to the image signal, and causes the display 12 to display the three-dimensional image obtained from the visual sensor 311. The user device control unit 446 can also output the voice based on the signal from the auditory sensor 312 from the speaker 14 of the user device 10.

ユーザ機器制御部446は、ロボット30の視覚センサ311により取得された画像とユーザ機器10のカメラ18により取得された画像のうち、いずれをディスプレイ12に表示するかを決定する。この決定に応じてディスプレイ12の表示が切り替えられる。例えばユーザからの指令によりロボット30を動作させているときは、ユーザ機器制御部446は、視覚センサ311からの信号をユーザ機器10に送信し、ディスプレイ12に視覚センサ311からの信号に基づく画像を表示させる。一方、食品の注文後に3Dプリンタ20で造形食品の製造が完了すると、ユーザ機器制御部446は、カメラ18からの信号に基づく画像を表示させるようにユーザ機器10に画像切替信号を送信する。なお、ユーザ機器10の入力装置15の操作により、表示画像を切り替えることもできる。 The user equipment control unit 446 determines which of the image acquired by the visual sensor 311 of the robot 30 and the image acquired by the camera 18 of the user equipment 10 is displayed on the display 12. The display of the display 12 is switched according to this determination. For example, when the robot 30 is operated by a command from the user, the user device control unit 446 transmits a signal from the visual sensor 311 to the user device 10, and displays an image based on the signal from the visual sensor 311 on the display 12. Display it. On the other hand, when the production of the shaped food is completed by the 3D printer 20 after ordering the food, the user device control unit 446 transmits an image switching signal to the user device 10 so as to display an image based on the signal from the camera 18. The display image can be switched by operating the input device 15 of the user device 10.

ユーザ機器制御部446は、画像切替信号の送信時に、データ出力部443から出力された注文食品の色データを併せてユーザ機器10に送信する。ユーザ機器10のコントローラ16は、この色データに基づいて造形食品の表示画像の色を制御する。すなわち、コントローラ16は、カメラ18により撮影された造形食品の画像をディスプレイ12に表示させるとき、造形食品が注文食品と同一の色で表示されるように画像の表示色を制御する。 When transmitting the image switching signal, the user device control unit 446 also transmits the color data of the ordered food output from the data output unit 443 to the user device 10. The controller 16 of the user device 10 controls the color of the display image of the shaped food based on the color data. That is, when the image of the shaped food taken by the camera 18 is displayed on the display 12, the controller 16 controls the display color of the image so that the shaped food is displayed in the same color as the ordered food.

図6は、予め記憶部44Bに記憶されたプログラムに従い管理サーバ40の演算部44Aで実行される処理、特にユーザ機器10のディスプレイ12に対する表示制御に係る処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばユーザ機器10からロボットの動作開始指令が入力されると開始され、所定周期で繰り返される。 FIG. 6 is a flowchart showing an example of a process executed by the calculation unit 44A of the management server 40 according to a program stored in the storage unit 44B in advance, particularly a process related to display control on the display 12 of the user device 10. The process shown in this flowchart is started when, for example, a robot operation start command is input from the user device 10, and is repeated at a predetermined cycle.

まず、ステップS1で、ユーザからの指令によりロボット30が食品を注文したか否か、すなわち注文受付部442で食品の注文が受け付けられたか否かを判定する。ステップS1で否定されるとステップS2に進み、信号入力部441が読み込んだ、ロボット30の視覚センサ311により取得された画像信号を、無線ユニット43を介してユーザ機器10に送信する。これによりユーザ機器10のディスプレイ12に、ロボット30を介して取得された画像(動画)が表示される。 First, in step S1, it is determined whether or not the robot 30 has ordered food according to a command from the user, that is, whether or not the order receiving unit 442 has accepted the food order. If the result is denied in step S1, the process proceeds to step S2, and the image signal acquired by the visual sensor 311 of the robot 30 read by the signal input unit 441 is transmitted to the user device 10 via the wireless unit 43. As a result, the image (moving image) acquired via the robot 30 is displayed on the display 12 of the user device 10.

一方、ステップS1で肯定されるとステップS3に進み、注文受付部442が注文食品の名称を特定する。次いで、ステップS4で、データ出力部443が食品データベース447を参照し、ステップS3で特定された注文食品の食品データ、すなわち形状データと色データと味データとを出力する。次いで、ステップS5で、プリンタ制御部445が、無線ユニット43を介して3Dプリンタ20に注文食品の食品データ(形状データと味データ)を送信する。 On the other hand, if affirmed in step S1, the process proceeds to step S3, and the order receiving unit 442 specifies the name of the ordered food. Next, in step S4, the data output unit 443 refers to the food database 447 and outputs the food data of the ordered food specified in step S3, that is, the shape data, the color data, and the taste data. Next, in step S5, the printer control unit 445 transmits the food data (shape data and taste data) of the ordered food to the 3D printer 20 via the wireless unit 43.

次いで、ステップS6で、3Dプリンタ20から動作完了信号が送信されたか否かにより、造形食品の製造が完了したか否かを判定する。ステップS6で肯定されるとステップS7に進み、否定されるとステップS2に進む。ステップS7では、ユーザ機器制御部446が、カメラ18により取得された画像をディスプレイ12に表示させるように無線ユニット43を介してユーザ機器10に信号(例えば画像切替信号)を送信する。これによりディスプレイ12の画像表示が切り替えられ、ディスプレイ12にはカメラ18により撮影された現実空間の画像(造形食品の画像)が表示される。 Next, in step S6, it is determined whether or not the production of the shaped food is completed based on whether or not the operation completion signal is transmitted from the 3D printer 20. If affirmed in step S6, the process proceeds to step S7, and if denied, the process proceeds to step S2. In step S7, the user device control unit 446 transmits a signal (for example, an image switching signal) to the user device 10 via the wireless unit 43 so that the image acquired by the camera 18 is displayed on the display 12. As a result, the image display of the display 12 is switched, and the image of the real space (image of the shaped food) taken by the camera 18 is displayed on the display 12.

さらに、ステップS7では、ユーザ機器制御部446が、ステップS4でデータ出力部443から出力された注文食品の色データをユーザ機器10に送信する。ユーザ機器10のコントローラ16は、この色データに基づいて、造形食品の表示色を制御する。これによりユーザは、造形食品を注文食品と同一の色と認識する。このため、注文食品と同一の食品を簡易に再現してユーザに提供することができる。造形食品の形状と味とは、注文食品の形状と味とに対応(例えば一致)しており、しかもディスプレイ12に表示される造形食品の見た目が注文食品と同一であるため、ユーザはまるで注文食品を味わったかのような気分となる。 Further, in step S7, the user equipment control unit 446 transmits the color data of the ordered food output from the data output unit 443 in step S4 to the user equipment 10. The controller 16 of the user device 10 controls the display color of the shaped food based on the color data. As a result, the user recognizes the shaped food as the same color as the ordered food. Therefore, the same food as the ordered food can be easily reproduced and provided to the user. The shape and taste of the shaped food correspond to (for example, match) the shape and taste of the custom-made food, and the appearance of the shaped food displayed on the display 12 is the same as that of the custom-made food. It makes me feel as if I tasted food.

本実施形態に係る食品提供システム100の動作をより具体的に説明する。図7に示すように、B地点でロボット30が注文食品5(ケーキ)を注文すると、その注文食品5の形状データと味データとが3Dプリンタ20に送信される(ステップS5)。これら形状データと味データとに基づき3Dプリンタ20が動作し、A地点で注文食品5と同一形状および同一味の造形食品6(ケーキ)が製造される。なお、注文食品5は複数の色と模様とで表面が形成されているのに対し、造形食品6の表面は例えば単色で形成され、模様もない。 The operation of the food providing system 100 according to the present embodiment will be described more specifically. As shown in FIG. 7, when the robot 30 orders the custom food 5 (cake) at the point B, the shape data and the taste data of the custom food 5 are transmitted to the 3D printer 20 (step S5). The 3D printer 20 operates based on these shape data and taste data, and a shaped food 6 (cake) having the same shape and taste as the ordered food 5 is produced at point A. The surface of the custom-made food 5 is formed by a plurality of colors and patterns, whereas the surface of the shaped food 6 is formed by, for example, a single color and has no pattern.

造形食品6の製造が完了すると、ディスプレイ12の画像表示が切り替えられる(ステップS7)。このとき、ユーザ機器10には注文食品5の色データが送信され、造形食品6は、注文食品5と同一の色および模様でディスプレイ12に表示される。これによりユーザ1は、実際には色が異なる造形食品6でありながら、注文食品5と同一であると認識し、造形食品6を食べることで注文食品5を食べたような感覚が得られる。 When the production of the shaped food 6 is completed, the image display on the display 12 is switched (step S7). At this time, the color data of the custom food 5 is transmitted to the user device 10, and the shaped food 6 is displayed on the display 12 in the same color and pattern as the custom food 5. As a result, the user 1 recognizes that the shaped food 6 is actually different in color but is the same as the custom-made food 5, and by eating the shaped food 6, the user 1 can obtain the feeling of eating the custom-made food 5.

本実施形態によれば以下のような作用効果を奏することができる。
(1)本実施形態に係る食品提供システム100は、食品(注文食品)の形状データと色データと味データとを出力するデータ出力部443と、データ出力部443から出力された形状データと味データとに基づいて食材を積層して注文食品に対応する形状と味とを有する造形食品を製造する3Dプリンタ20と、ユーザに装着されるとともに、現実空間に合致した三次元画像を表示するディスプレイ12を有するユーザ機器10と、3Dプリンタ20により製造された造形食品の三次元画像が注文食品と同一色で表示されるようにデータ出力部443から出力された色データに基づいてディスプレイ12を制御するユーザ機器制御部446およびコントローラ16とを備える(図1,2,5)。
According to this embodiment, the following effects can be obtained.
(1) The food providing system 100 according to the present embodiment has a data output unit 443 that outputs shape data, color data, and taste data of food (custom food), and shape data and taste output from the data output unit 443. A 3D printer 20 that manufactures shaped foods that have a shape and taste corresponding to custom foods by stacking foodstuffs based on data, and a display that is attached to the user and displays a three-dimensional image that matches the real space. The display 12 is controlled based on the color data output from the data output unit 443 so that the three-dimensional image of the shaped food produced by the user device 10 having the 12 and the 3D printer 20 is displayed in the same color as the ordered food. The user equipment control unit 446 and the controller 16 are provided (FIGS. 1, 2, and 5).

これにより注文食品の形状と味とを3Dプリンタ20で容易に再現することができる。注文食品の色については再現させずに、ディスプレイ12を介して注文食品に一致した色で造形食品を擬似的に表示させる。このため、造形食品の色を気にせずに、例えば食材貯蔵部22から供給された食材の色のままで造形食品を製造することができ、造形食品の製造コストを低減することができる。すなわち、安価な構成で、3Dプリンタ20を用いてユーザに満足感の高い造形食品を提供することができる。 As a result, the shape and taste of the custom-made food can be easily reproduced by the 3D printer 20. The color of the custom-made food is not reproduced, and the shaped food is simulated in a color matching the custom-made food through the display 12. Therefore, it is possible to manufacture the shaped food with the color of the food material supplied from the food material storage unit 22, for example, without worrying about the color of the shaped food, and it is possible to reduce the manufacturing cost of the shaped food. That is, it is possible to provide a highly satisfying shaped food to the user by using the 3D printer 20 with an inexpensive configuration.

(2)食品提供システム100は、無線通信を介したユーザからの指令に応じて動作し、視覚センサ311を有する移動可能なロボット30をさらに備える(図1)。ユーザ機器制御部446とコントローラ16とは、さらに視覚センサ311により撮影された三次元画像が、現実空間に合致した三次元画像に代えて表示されるようにディスプレイ12を制御する(ステップS2)。これにより遠隔地のロボット30を介してユーザが各種の情報を得ることができる。例えばディスプレイ12に表示される食品の外見から、ユーザがどの食品を注文するかを判断することができる。(2) The food providing system 100 further includes a movable robot 30 that operates in response to a command from a user via wireless communication and has a visual sensor 311 (FIG. 1). The user device control unit 446 and the controller 16 further control the display 12 so that the three-dimensional image captured by the visual sensor 311 is displayed in place of the three-dimensional image that matches the real space (step S2). As a result, the user can obtain various information via the robot 30 at a remote location. For example, from the appearance of the food displayed on the display 12, it is possible to determine which food the user wants to order.

(3)食品提供システム100は、複数の食品の形状データと色データと味データとを含む食品データが記憶された食品データベース447をさらに備える(図5)。データ出力部443は、ロボット30を介して食品が注文されると、この食品に対応した形状データと色データと味データとを食品データベース447から抽出して出力する(ステップS4)。これにより、ロボット30を介して注文された食品を再現した造形食品をユーザに提供することができる。したがって、ユーザは家族と一緒に食事している気分を味わうことができ、高い満足感が得られる。(3) The food provision system 100 further includes a food database 447 in which food data including shape data, color data, and taste data of a plurality of foods are stored (FIG. 5). When a food is ordered via the robot 30, the data output unit 443 extracts shape data, color data, and taste data corresponding to the food from the food database 447 and outputs the data (step S4). As a result, it is possible to provide the user with a shaped food that reproduces the food ordered via the robot 30. Therefore, the user can feel as if he / she is eating with his / her family, and a high degree of satisfaction can be obtained.

(4)データ出力部443は、視覚センサ311により撮影された食品の形状データと色データとを出力するとともに、この食品に対応する味データを食品データベース447から抽出して出力することもできる。これにより、例えば注文したい食品の名称がわからないときであっても、視覚センサ311により撮影された食品の形状データと色データから、食品データ(味データ)を抽出することができ、3Dプリンタ20を用いて所望の食品を容易に製造することができる。(4) The data output unit 443 can output the shape data and the color data of the food photographed by the visual sensor 311, and can also extract and output the taste data corresponding to the food from the food database 447. As a result, for example, even when the name of the food to be ordered is unknown, the food data (taste data) can be extracted from the shape data and the color data of the food taken by the visual sensor 311. It can be used to easily produce a desired food product.

(5)本発明の実施形態に係る食品提供方法は、注文食品の形状データと色データと味データとを出力し(ステップS4)、このうち出力された形状データと味データとに基づいて食材を積層して注文食品に対応する形状と味とを有する造形食品を製造し(ステップS5)、ユーザに装着されたユーザ機器10のディスプレイ12に、製造された造形食品の現実空間における三次元画像が注文食品と同一色で表示されるように、出力された色データに基づいてディスプレイ12を制御することを含む(ステップS7)。これにより、食品の製造コストを抑えて注文食品と同様の食品をユーザに対し提供することができる。(5) The food providing method according to the embodiment of the present invention outputs shape data, color data, and taste data of custom-made food (step S4), and the foodstuff is based on the output shape data and taste data. To produce a shaped food having a shape and taste corresponding to the custom-made food (step S5), a three-dimensional image of the manufactured shaped food in the real space is displayed on the display 12 of the user device 10 attached to the user. Includes controlling the display 12 based on the output color data so that is displayed in the same color as the ordered food (step S7). As a result, it is possible to reduce the manufacturing cost of the food and provide the user with the same food as the custom food.

なお、上記実施形態では、食品提供システム100をロボットシステムに適用したが、本発明の食品提供システムは、ロボットシステム以外にも同様に適用することができる。すなわち、ロボット30を介さずに注文を受け付けた食品の形状データと色データと味データとを、データ出力部443が出力するようにしてもよい。上記実施形態では、3Dプリンタ20を用いて造形食品を製造したが、データ出力部から出力された形状データと味データとに基づいて食材を積層して食品に対応する形状と味とを有する造形食品を製造するのであれば、三次元造形装置の構成は上述したものに限らない。 In the above embodiment, the food providing system 100 is applied to the robot system, but the food providing system of the present invention can be similarly applied to other than the robot system. That is, the data output unit 443 may output the shape data, the color data, and the taste data of the food for which the order has been received without going through the robot 30. In the above embodiment, the shaped food is manufactured by using the 3D printer 20, but the shaped food has a shape and taste corresponding to the food by laminating the ingredients based on the shape data and the taste data output from the data output unit. If food is manufactured, the configuration of the three-dimensional modeling apparatus is not limited to that described above.

上記実施形態では、ヘッドマウントディスプレイをディスプレイ12として用いたが、現実空間に合致した三次元画像を表示する表示部の構成はこれに限らない。ユーザに装着されるユーザ機器の構成も上述したものに限らない。上記実施形態では、ユーザ機器制御部446からの指令によりユーザ機器10のディスプレイ12の表示を切り替えるとともに、ユーザ機器制御部446からの指令によって送信された色データに基づいて、ユーザ機器10のコントローラ16が造形食品の表示画像の色を制御するようにしたが、造形食品の三次元画像が注文食品と同一色で表示されるようにデータ出力部から出力された色データに基づいて表示部が制御されるのであれば、表示制御部の構成は上述したものに限らない。 In the above embodiment, the head-mounted display is used as the display 12, but the configuration of the display unit that displays a three-dimensional image that matches the real space is not limited to this. The configuration of the user device attached to the user is not limited to that described above. In the above embodiment, the display 12 of the user device 10 is switched by a command from the user device control unit 446, and the controller 16 of the user device 10 is based on the color data transmitted by the command from the user device control unit 446. Controls the color of the display image of the shaped food, but the display controls based on the color data output from the data output unit so that the three-dimensional image of the shaped food is displayed in the same color as the ordered food. If so, the configuration of the display control unit is not limited to that described above.

上記実施形態では、二足歩行可能な人型ロボット30を用いたが、無線通信を介したユーザからの指令に応じて動作し、視覚センサ311などの撮影部を有するのであれば、ロボットの構成は上述したものに限らない。上記実施形態では、複数の食品の形状データと色データと味データとを含む食品データを、管理サーバ40の食品データベース447に記憶するようにしたが、記憶部の構成はこれに限らない。 In the above embodiment, the humanoid robot 30 capable of bipedal walking is used, but if it operates in response to a command from the user via wireless communication and has a photographing unit such as a visual sensor 311, the robot configuration. Is not limited to the above. In the above embodiment, the food data including the shape data, the color data, and the taste data of a plurality of foods is stored in the food database 447 of the management server 40, but the configuration of the storage unit is not limited to this.

上記実施形態では、管理サーバ40とユーザ機器10、3Dプリンタ20およびロボット30との間で信号を送受信するようにした。すなわち、ユーザ機器10、3Dプリンタ20およびロボット30が、管理サーバ40を介して互いに通信するようにしたが、これらが管理サーバ40を介さずに直接通信するようにしてもよい。この場合、管理サーバ40の機能を、ユーザ機器10、3Dプリンタ20およびロボット30のコントローラ16,26,36等が有するようにすればよい。 In the above embodiment, signals are transmitted and received between the management server 40, the user equipment 10, the 3D printer 20, and the robot 30. That is, the user equipment 10, the 3D printer 20, and the robot 30 communicate with each other via the management server 40, but they may communicate directly without going through the management server 40. In this case, the functions of the management server 40 may be provided by the user equipment 10, the 3D printer 20, the controllers 16, 26, 36, etc. of the robot 30.

上記実施形態では、ロボット30を店舗3でレンタルするようにしたが、例えばユーザが自宅に所有するロボットを用いても、本発明は、同様に構成することができる。ロボット30を家族とともに行動させるのではなく、単独で行動させてもよい。管理サーバ40と店舗3の端末とを通信可能に構成し、ロボット30のレンタル予約の申し込み、レンタル料金の支払い等を、管理サーバ40を介して行うようにしてもよい。 In the above embodiment, the robot 30 is rented at the store 3, but the present invention can be similarly configured by using, for example, a robot owned by the user at home. The robot 30 may be acted alone instead of acting with the family. The management server 40 and the terminal of the store 3 may be configured to be able to communicate with each other, and the application for rental reservation of the robot 30 and the payment of the rental fee may be performed via the management server 40.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or a plurality of the above-described embodiments and the modified examples, and it is also possible to combine the modified examples.

10 ユーザ機器、12 ディスプレイ、16 コントローラ、20 3Dプリンタ、30 ロボット、100 食品提供システム、311 視覚センサ、443 データ出力部、446 ユーザ機器制御部、447 食品データベース10 user equipment, 12 displays, 16 controllers, 20 3D printers, 30 robots, 100 food delivery systems, 311 visual sensors, 443 data output units, 446 user equipment control units, 447 food databases

Claims (6)

食品の形状データと色データと味データとを出力するデータ出力部と、
前記データ出力部から出力された形状データと味データとに基づいて食材を積層して前記食品に対応する形状と味とを有する造形食品を製造する三次元造形装置と、
ユーザに装着されるとともに、現実空間に合致した三次元画像を表示する表示部を有するユーザ機器と、
前記三次元造形装置により製造された造形食品の三次元画像が前記食品と同一色で表示されるように前記データ出力部から出力された色データに基づいて前記表示部を制御する表示制御部と、を備えることを特徴とする食品提供システム。
A data output unit that outputs food shape data, color data, and taste data,
A three-dimensional modeling apparatus that manufactures a shaped food having a shape and taste corresponding to the food by laminating foodstuffs based on the shape data and taste data output from the data output unit.
A user device that is attached to the user and has a display unit that displays a three-dimensional image that matches the real space.
A display control unit that controls the display unit based on the color data output from the data output unit so that the three-dimensional image of the shaped food produced by the three-dimensional modeling apparatus is displayed in the same color as the food product. A food delivery system characterized by being equipped with.
請求項1に記載の食品提供システムにおいて、
無線通信を介したユーザからの指令に応じて動作し、撮影部を有する移動可能なロボットをさらに備え、
前記表示制御部は、さらに前記撮影部により撮影された三次元画像が前記現実空間に合致した三次元画像に代えて表示されるように前記表示部を制御することを特徴とする食品提供システム。
In the food provision system according to claim 1,
It is equipped with a mobile robot that operates in response to commands from the user via wireless communication and has a shooting unit.
The display control unit further controls the display unit so that the three-dimensional image captured by the photographing unit is displayed in place of the three-dimensional image matching the real space.
請求項2に記載の食品提供システムにおいて、
複数の食品の形状データと色データと味データとを含む食品データが記憶された記憶部をさらに備え、
前記データ出力部は、前記ロボットを介して食品が注文されると、この食品に対応した形状データと色データと味データとを前記記憶部から抽出して出力することを特徴とする食品提供システム。
In the food provision system according to claim 2.
Further provided with a storage unit for storing food data including shape data, color data, and taste data of a plurality of foods.
The food providing system is characterized in that when a food is ordered via the robot, the data output unit extracts shape data, color data, and taste data corresponding to the food from the storage unit and outputs the data. ..
請求項2に記載の食品提供システムにおいて、
複数の食品の形状データと色データと味データとを含む食品データが記憶された記憶部をさらに備え、
前記データ出力部は、前記撮影部により撮影された食品の形状データと色データとを出力するとともに、この食品に対応する味データを前記記憶部から抽出して出力することを特徴とする食品提供システム。
In the food provision system according to claim 2.
Further provided with a storage unit for storing food data including shape data, color data, and taste data of a plurality of foods.
The data output unit outputs the shape data and the color data of the food photographed by the photographing unit, and extracts and outputs the taste data corresponding to the food from the storage unit. system.
食品の形状データと色データと味データとを出力し、
出力された形状データと味データとに基づいて食材を積層して前記食品に対応する形状と味とを有する造形食品を製造し、
ユーザに装着されたユーザ機器の表示部に、製造された造形食品の現実空間に合致した三次元画像が前記食品と同一色で表示されるように、出力された色データに基づいて前記表示部を制御することを含むことを特徴とする食品提供方法。
Outputs food shape data, color data, and taste data,
Based on the output shape data and taste data, ingredients are laminated to produce a shaped food having a shape and taste corresponding to the food.
The display unit is based on the output color data so that a three-dimensional image matching the real space of the manufactured shaped food is displayed in the same color as the food on the display unit of the user device attached to the user. A method of providing a food product, which comprises controlling the food.
ユーザ機器及びロボットから送信されたデータを受信する信号入力部と、
前記信号入力部を介して受信したデータに基づき食品の形状データと色データと味データとを特定し出力するデータ出力部と、
前記データ出力部から出力された形状データと味データとを外部の三次元造形装置に出力するプリンタ制御部と、
前記三次元造形装置により製造される造形食品の三次元画像が前記食品と同一色で表示されるように前記データ出力部から出力された色データを外部のユーザ機器に出力するユーザ機器制御部と、を備えることを特徴とする食品提供システム用管理装置。
A signal input unit that receives data transmitted from user equipment and robots,
A data output unit that identifies and outputs food shape data, color data, and taste data based on data received via the signal input unit.
A printer control unit that outputs the shape data and taste data output from the data output unit to an external three-dimensional modeling device, and
A user device control unit that outputs color data output from the data output unit to an external user device so that a three-dimensional image of the shaped food produced by the three-dimensional modeling device is displayed in the same color as the food. A management device for a food delivery system, which comprises.
JP2019544586A 2017-09-29 2018-09-14 Food delivery system, food delivery method and management device for food delivery system Pending JPWO2019065304A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017189797 2017-09-29
JP2017189797 2017-09-29
PCT/JP2018/034162 WO2019065304A1 (en) 2017-09-29 2018-09-14 Food provision system, food provision method, and device for managing food provision system

Publications (1)

Publication Number Publication Date
JPWO2019065304A1 true JPWO2019065304A1 (en) 2020-12-03

Family

ID=65902430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019544586A Pending JPWO2019065304A1 (en) 2017-09-29 2018-09-14 Food delivery system, food delivery method and management device for food delivery system

Country Status (2)

Country Link
JP (1) JPWO2019065304A1 (en)
WO (1) WO2019065304A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7222000B2 (en) * 2005-01-18 2007-05-22 Intouch Technologies, Inc. Mobile videoconferencing platform with automatic shut-off features
ATE546077T1 (en) * 2007-01-19 2012-03-15 Nestec Sa AUTONOMOUS FOOD AND BEVERAGE DISPENSING MACHINE
JP6098326B2 (en) * 2013-04-18 2017-03-22 ソニー株式会社 Information processing apparatus and storage medium
JP2016131507A (en) * 2015-01-16 2016-07-25 株式会社リコー Method for producing three-dimensional molded food product, and three-dimensional molded food product
JP6712453B2 (en) * 2015-10-16 2020-06-24 富士フイルム株式会社 Augmented reality providing system and method, information processing device, and program

Also Published As

Publication number Publication date
WO2019065304A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
JP6155448B2 (en) Wireless wrist computing and controlling device and method for 3D imaging, mapping, networking and interfacing
JP6598500B2 (en) Viewport based augmented reality haptic effect system, method and non-transitory computer readable medium
US9387397B2 (en) Peripheral apparatus and method of construction
EP2905972A2 (en) System and method for producing a personalized earphone
CN105955456A (en) Virtual reality and augmented reality fusion method, device and intelligent wearable equipment
US20200077148A1 (en) Video distribution system, video distribution method, and storage medium storing video distribution program
US20150081076A1 (en) Customization of manufactured articles responsive to remote capture of three dimensional data
JP7239916B2 (en) Remote control system, information processing method, and program
WO2003063086A1 (en) Image processing system, image processing apparatus, and display apparatus
JP7160669B2 (en) Program, Information Processing Apparatus, and Method
JP7416903B2 (en) Video distribution system, video distribution method, and video distribution program
WO2016209299A1 (en) Virtual fantasy system & method of use
JP2007130691A (en) Communication robot
JPWO2019065304A1 (en) Food delivery system, food delivery method and management device for food delivery system
JP6470387B1 (en) Method executed by computer to provide information via head-mounted device, program causing computer to execute the method, and information processing apparatus
WO2021145452A1 (en) Information processing device and information processing terminal
JP2004042151A (en) Communication robot
JP7023971B2 (en) Service provision system, service provision method, and management device for service provision system
JP2008080431A (en) Robot system
JP6892928B2 (en) Information provision system, information provision method and management device for information provision system
US11135725B2 (en) Robot control system, robot control method and user apparatus for robot control system
JP2019106192A (en) Method executed by computer to provide information via head mount device, program causing the computer to execute the method, and information processing device
JP2021093105A (en) Healthcare system and processor
WO2022044843A1 (en) Information processing device, information processing method, and program
JP6937803B2 (en) Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user.