JP2018101353A - Determination system, method for determination, and determination program - Google Patents

Determination system, method for determination, and determination program Download PDF

Info

Publication number
JP2018101353A
JP2018101353A JP2016248208A JP2016248208A JP2018101353A JP 2018101353 A JP2018101353 A JP 2018101353A JP 2016248208 A JP2016248208 A JP 2016248208A JP 2016248208 A JP2016248208 A JP 2016248208A JP 2018101353 A JP2018101353 A JP 2018101353A
Authority
JP
Japan
Prior art keywords
information
phase
determination
user
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016248208A
Other languages
Japanese (ja)
Other versions
JP6719373B2 (en
Inventor
暁史 津森
Akifumi Tsumori
暁史 津森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016248208A priority Critical patent/JP6719373B2/en
Publication of JP2018101353A publication Critical patent/JP2018101353A/en
Application granted granted Critical
Publication of JP6719373B2 publication Critical patent/JP6719373B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow an appropriate assist to a user who performs work.SOLUTION: A determination system according to the present application includes an acquisition part and a determination part. The acquisition part acquires image information on a user who performs work including a plurality of phases of which operational contents are related to one another and of which sequence is determined in advance. The determination part determines a working phase, which is the phase in the work of the user, on the basis of the image information acquired by the acquisition part and the information on the phases.SELECTED DRAWING: Figure 1

Description

本発明は、判定システム、判定方法、及び判定プログラムに関する。   The present invention relates to a determination system, a determination method, and a determination program.

従来、ユーザが行っている作業や状況に応じてユーザに情報を提供する技術が提供されている。例えば、ユーザに拡張現実感のある案内を行う案内情報を提供するシステムが知られている。   2. Description of the Related Art Conventionally, there has been provided a technique for providing information to a user according to the work or situation that the user is performing. For example, a system that provides guidance information for performing guidance with augmented reality to a user is known.

特開2012−014606号公報JP 2012-014606 A

しかしながら、上記の従来技術では、作業を行うユーザに対する適切なアシストを可能にすることが難しい場合がある。例えば、ユーザが所持する紙媒体を利用して情報を提供する場合、例えば紙媒体を手に持った状態で行うことが難しい作業等を行っているユーザに情報提供等のアシストを適切に行うことが難しい場合がある。   However, in the above-described conventional technology, it may be difficult to enable appropriate assistance for a user who performs work. For example, when providing information using a paper medium possessed by the user, for example, appropriately providing information assistance to a user who is performing a task that is difficult to perform while holding the paper medium in his / her hand May be difficult.

本願は、上記に鑑みてなされたものであって、作業を行うユーザに対する適切なアシストを可能にする判定システム、判定方法、及び判定プログラムを提供することを目的とする。   The present application has been made in view of the above, and an object thereof is to provide a determination system, a determination method, and a determination program that enable appropriate assistance for a user who performs work.

本願に係る判定システムは、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する取得部と、前記取得部により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定部と、を備えたことを特徴とする。   The determination system according to the present application includes: an acquisition unit configured to acquire image information related to a user who performs a work including a plurality of phases in which work contents are associated with each other and the order between the phases is determined in advance; A determination unit that determines a working phase that is a phase in the user's work based on the image information acquired by the acquiring unit and information on the plurality of phases.

実施形態の一態様によれば、作業を行うユーザに対する適切なアシストを可能にすることができるという効果を奏する。   According to one aspect of the embodiment, there is an effect that it is possible to enable appropriate assistance for a user who performs work.

図1は、実施形態に係る判定処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of a determination process according to the embodiment. 図2は、実施形態に係る判定システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the determination system according to the embodiment. 図3は、実施形態に係る判定装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the determination apparatus according to the embodiment. 図4は、実施形態に係る作業情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of the work information storage unit according to the embodiment. 図5は、実施形態に係る出力情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of the output information storage unit according to the embodiment. 図6は、実施形態に係る端末装置の構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of the terminal device according to the embodiment. 図7は、実施形態に係る判定処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the determination process according to the embodiment. 図8は、実施形態に係る判定処理の一例を示すシーケンス図である。FIG. 8 is a sequence diagram illustrating an example of the determination process according to the embodiment. 図9は、実施形態に係る判定システムにおける作業誤りの通知の一例を示す図である。FIG. 9 is a diagram illustrating an example of work error notification in the determination system according to the embodiment. 図10は、判定装置及び端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the determination device and the terminal device.

以下に、本願に係る判定システム、判定方法、及び判定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る判定システム、判定方法、及び判定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, modes for carrying out a determination system, a determination method, and a determination program according to the present application (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings. Note that the determination system, the determination method, and the determination program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

(実施形態)
〔1−1.判定処理〕
図1を用いて、実施形態に係る判定処理の一例について説明する。図1は、実施形態に係る判定処理の一例を示す図である。図1では、ユーザが行う作業が料理であり、判定システム1がユーザによる料理の作業をアシストする情報を出力する場合を示す。例えば、図1の例では、判定システム1が料理支援サービスを提供する場合を示す。具体的には、図1の例では、判定システム1がユーザから指定された料理に関する料理支援サービスを提供する場合を示す。なお、判定システム1が対象とする作業は料理に限らず、ユーザが行う作業であればどのような作業であってもよい。
(Embodiment)
[1-1. Determination process〕
An example of the determination process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a determination process according to the embodiment. FIG. 1 shows a case where the work performed by the user is cooking, and the determination system 1 outputs information for assisting the cooking work by the user. For example, the example of FIG. 1 shows a case where the determination system 1 provides a cooking support service. Specifically, the example of FIG. 1 illustrates a case where the determination system 1 provides a dish support service related to a dish specified by the user. The work targeted by the determination system 1 is not limited to cooking, and may be any work as long as the work is performed by the user.

〔1−2.判定システムの構成〕
まず、図1及び図2に示す判定システム1について説明する。図2に示すように、判定システム1は、端末装置10と、センサ装置20と、判定装置100とが含まれる。端末装置10と、センサ装置20と、判定装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図2は、実施形態に係る判定システムの構成例を示す図である。なお、図2に示した判定システム1には、複数台の端末装置10や、複数台のセンサ装置20や複数台の判定装置100が含まれてもよい。
[1-2. (Configuration of judgment system)
First, the determination system 1 shown in FIGS. 1 and 2 will be described. As shown in FIG. 2, the determination system 1 includes a terminal device 10, a sensor device 20, and a determination device 100. The terminal device 10, the sensor device 20, and the determination device 100 are connected via a predetermined network N so as to be communicable by wire or wirelessly. FIG. 2 is a diagram illustrating a configuration example of the determination system according to the embodiment. The determination system 1 illustrated in FIG. 2 may include a plurality of terminal devices 10, a plurality of sensor devices 20, and a plurality of determination devices 100.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、上述した端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。   The terminal device 10 is an information processing device used by a user. The terminal device 10 receives various operations by the user. Hereinafter, the terminal device 10 may be referred to as a user. That is, hereinafter, the user can be read as the terminal device 10. The terminal device 10 described above is realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like.

図1に示す例において、端末装置10は、音声応答システム(音声認識)の機能を有し、ユーザが発する音声情報(以下、「発話」ともいう)を検知し、検知した発話を入力情報として受け付ける。例えば、端末装置10は、ユーザの発話に対して、処理を行う端末装置である。図1の例では、端末装置10は、ユーザによる発話を検知した場合、ユーザの発話に基づく入力情報を配信装置100へ送信したり、ユーザの発話に対応するコンテンツを表示したりする。   In the example shown in FIG. 1, the terminal device 10 has a function of a voice response system (voice recognition), detects voice information (hereinafter also referred to as “utterance”) uttered by the user, and uses the detected utterance as input information. Accept. For example, the terminal device 10 is a terminal device that processes a user's utterance. In the example of FIG. 1, when the terminal device 10 detects an utterance by the user, the terminal device 10 transmits input information based on the user's utterance to the distribution device 100 or displays content corresponding to the user's utterance.

センサ装置20は、所定の情報を検知する情報処理装置である。センサ装置20は、メガネ型端末や腕時計型端末等のウェアラブル端末であってもよい。図1の例では、センサ装置20は、ユーザU1が身に着けているメガネ型端末である場合を示す。図1の例では、センサ装置20は、撮像機能や通信機能を有する。例えば、センサ装置20は、CCD(Charge Coupled Device)等の撮像素子により実現されるカメラ機能やビデオ機能を有し、静止画像や動画像を撮像する。また、センサ装置20は、画像情報を端末装置10に送信する。なお、センサ装置20及び端末装置10間の通信は、例えばWiFi(登録商標)(Wireless Fidelity)やブルートゥース(登録商標)の機能により行われてもよいし、他の通信(近距離無線通信等)の機能により行われてもよい。   The sensor device 20 is an information processing device that detects predetermined information. The sensor device 20 may be a wearable terminal such as a glasses-type terminal or a wristwatch-type terminal. In the example of FIG. 1, the sensor device 20 is a glasses-type terminal worn by the user U1. In the example of FIG. 1, the sensor device 20 has an imaging function and a communication function. For example, the sensor device 20 has a camera function and a video function realized by an imaging element such as a CCD (Charge Coupled Device), and captures a still image or a moving image. In addition, the sensor device 20 transmits image information to the terminal device 10. The communication between the sensor device 20 and the terminal device 10 may be performed by, for example, a function of WiFi (registered trademark) (Wireless Fidelity) or Bluetooth (registered trademark), or other communication (short-range wireless communication or the like). This function may be performed.

判定装置100は、ユーザの行動情報に基づいて、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定する情報処理装置である。例えば、判定装置100は、料理支援サービスを提供する情報処理装置であってもよい。   The determination apparatus 100 is an information processing apparatus that determines a working phase, which is a phase in a user's work, based on image information and information on a plurality of phases based on user behavior information. For example, the determination apparatus 100 may be an information processing apparatus that provides a dish assistance service.

また、判定装置100は、音声認識の機能を有してもよい。また、判定装置100は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、判定システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、判定装置100や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを特定したりするものとして、音声認識の機能に関する説明を省略する。   The determination apparatus 100 may have a voice recognition function. Further, the determination apparatus 100 may be able to acquire information from a voice recognition server that provides a voice recognition service. In this case, the determination system 1 may include a voice recognition server. In the example of FIG. 1, it is assumed that the determination device 100 and the voice recognition server use various conventional techniques as appropriate to recognize the user's utterance and specify the user who has spoken. Is omitted.

ここから、図1に戻って、判定システム1による判定処理について説明する。図1の例では、ユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)が料理「肉じゃが」を作る作業を支援(アシスト)する場合を示す。図1では、ユーザU1が自宅等で判定システム1による料理支援サービスを利用する場合を示す。なお、以下では、判定システム1によりユーザが作業中であるフェーズと判定されたフェーズを「作業中フェーズ」と記載する場合がある。   From here, it returns to FIG. 1 and the determination process by the determination system 1 is demonstrated. The example of FIG. 1 shows a case where a user identified by the user ID “U1” (hereinafter, may be referred to as “user U1”) supports (assists) the work of making a dish “meat potato”. FIG. 1 shows a case where the user U1 uses a cooking support service by the determination system 1 at home or the like. In the following description, a phase determined by the determination system 1 as a phase in which the user is working may be referred to as a “working phase”.

また、図1では、判定が行われるタイミングや出力が行われるタイミング等に応じて、判定装置100を判定装置100−1〜100−3として説明する。すなわち、図1では、判定装置100−1、100−2、100−3の順で時間が経過していることを示す。なお、判定装置100−1〜100−3は同一の判定装置100である。また、以下では、判定装置100−1〜100−3について、特に区別することなく説明する場合には、判定装置100と記載する。   In FIG. 1, the determination device 100 will be described as determination devices 100-1 to 100-3 according to the timing at which determination is performed, the timing at which output is performed, and the like. That is, FIG. 1 shows that time has passed in the order of the determination devices 100-1, 100-2, and 100-3. The determination devices 100-1 to 100-3 are the same determination device 100. Hereinafter, the determination devices 100-1 to 100-3 will be referred to as the determination device 100 when they are not particularly distinguished.

また、以下では、作業中フェーズに応じて、作業情報記憶部121を作業情報記憶部121−1〜121−3として説明する。すなわち、図1では、作業情報記憶部121−1、121−2、121−3の順で時間が経過していることを示す。また、作業情報記憶部121−1〜121−3は同一の作業情報記憶部121である。また、以下では、作業情報記憶部121−1〜121−3について、特に区別することなく説明する場合には、作業情報記憶部121と記載する。   In the following, the work information storage unit 121 will be described as work information storage units 121-1 to 121-3 according to the working phase. That is, FIG. 1 shows that time has elapsed in the order of the work information storage units 121-1, 121-2, and 121-3. The work information storage units 121-1 to 121-3 are the same work information storage unit 121. Hereinafter, the work information storage units 121-1 to 121-3 will be referred to as the work information storage unit 121 when they are not particularly distinguished.

また、図1では、端末装置10を端末装置10−1〜10−3として説明する。すなわち、図1では、端末装置10−1、10−2、10−3の順で時間が経過していることを示す。なお、端末装置10−1〜10−3は同一の端末装置10である。また、以下では、端末装置10−1〜10−3について、特に区別することなく説明する場合には、端末装置10と記載する。   Moreover, in FIG. 1, the terminal device 10 is demonstrated as terminal device 10-1 to 10-3. That is, FIG. 1 shows that time has elapsed in the order of the terminal devices 10-1, 10-2, and 10-3. The terminal devices 10-1 to 10-3 are the same terminal device 10. Hereinafter, the terminal devices 10-1 to 10-3 will be referred to as the terminal device 10 when they are described without particular distinction.

例えば、図1の例では、作業情報記憶部121中のハッチングが付されたフェーズが作業中フェーズと判定されたフェーズであることを示す。例えば、作業情報記憶部121−2においては、第2フェーズにハッチングが付されているため、ユーザU1の肉じゃがを作る作業における作業中フェーズが第2フェーズであることを示す。なお、図1では、説明のために、作業中フェーズをハッチングにより図示するが、作業情報記憶部121には、作業中フェーズを識別するフラグ等の情報が記憶されてもよい。   For example, in the example of FIG. 1, the hatched phase in the work information storage unit 121 is a phase determined to be the working phase. For example, in the work information storage unit 121-2, since the second phase is hatched, it indicates that the working phase in the work of making the meat potato of the user U1 is the second phase. In FIG. 1, the working phase is illustrated by hatching for the sake of explanation, but the work information storage unit 121 may store information such as a flag for identifying the working phase.

また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理は、料理名「肉じゃが」であることを示す。また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理は、第1フェーズ〜第3フェーズを含む複数のフェーズを含むことを示す。また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理の第1フェーズは、内容が「材料を揃える」ことであることを示す。また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理の第1フェーズは、対象が「肉、じゃがいも・・・」であることを示す。このように、作業情報記憶部121には、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズに関する情報等、ユーザの料理を支援するための各種情報が記憶される。例えば、図1中の作業情報記憶部121に示すように、各フェーズには、そのフェーズにおいて行われるべき作業内容が関連(タグ)付けされる。また、例えば、各フェーズは、第1フェーズ〜第20フェーズ等のように、各フェーズ間の順序が予め決められている。この場合、ユーザが、第1フェーズ、第2フェーズ、第3フェーズ、第4フェーズ・・・第20フェーズと、フェーズを示す数を昇順に作業を行うことにより、所望の料理が完成するように作業情報は構成される。これにより、ユーザは、第1フェーズを行った後に第2フェーズを行い、第2フェーズを行った後に第3フェーズを行い、第19フェーズを行った後に第20フェーズを行いといったように、各フェーズを順序通り作業を行うことにより、料理を作ることができる。以下、判定システム1がユーザによる料理の作業をアシストする情報を作業情報記憶部121に基づいて出力する処理について説明する。   Further, the work information storage unit 121 in FIG. 1 indicates that the dish identified by the dish ID “CK1” is the dish name “meat potato”. Further, the work information storage unit 121 in FIG. 1 indicates that the dish identified by the dish ID “CK1” includes a plurality of phases including the first phase to the third phase. Further, the work information storage unit 121 in FIG. 1 indicates that the content of the first phase of the dish identified by the dish ID “CK1” is “align the ingredients”. Further, the work information storage unit 121 in FIG. 1 indicates that the target of the first phase of the dish identified by the dish ID “CK1” is “meat, potatoes ...”. As described above, the work information storage unit 121 supports the user's cooking such as information on a plurality of phases in which work contents are associated with each other and the order between the phases is determined in advance. Various kinds of information are stored. For example, as shown in the work information storage unit 121 in FIG. 1, each phase is associated (tagged) with the work content to be performed in that phase. In addition, for example, the order of the phases is determined in advance, such as the first phase to the twentieth phase. In this case, the user completes the desired dishes by performing the first phase, the second phase, the third phase, the fourth phase,..., The 20th phase and the numbers indicating the phases in ascending order. Work information is composed. Thus, the user performs the second phase after performing the first phase, performs the third phase after performing the second phase, performs the 20th phase after performing the 19th phase, and so on. By doing the work in order, you can cook. Hereinafter, a process in which the determination system 1 outputs information for assisting the cooking work by the user based on the work information storage unit 121 will be described.

まず、図1の例では、ユーザU1がキッチンKCにおいて料理を行う際に、端末装置10の周囲において、「肉じゃがを作ります」という発話PA11を行う。これにより、端末装置10−1は、「肉じゃがを作ります」という発話PA11を入力として取得する(ステップS11)。例えば、図1の例では、端末装置10−1は、ユーザU1の発話を検知可能なキッチンKCの周囲に配置され、判定システム1による料理支援サービスに関するアプリケーション(以下、「料理支援アプリ」ともいう)が起動されているものとする。   First, in the example of FIG. 1, when the user U1 cooks in the kitchen KC, the utterance PA11 “make meat potatoes” is performed around the terminal device 10. Thereby, the terminal device 10-1 acquires the utterance PA11 “Meat potato is made” as an input (step S11). For example, in the example of FIG. 1, the terminal device 10-1 is arranged around the kitchen KC that can detect the utterance of the user U <b> 1, and is an application related to a cooking support service (hereinafter also referred to as “cooking support app”) by the determination system 1. ) Is activated.

なお、ユーザU1は、端末装置10に表示された料理支援アプリのアイコンを押下したり、所定の発話を行ったりすることにより、料理支援アプリを起動してもよい。例えば、ユーザU1は、「料理支援アプリXXを起動」や「はい、XX」や「オーケー、XX」等のアプリを起動させる所定の発話を行うことにより、アプリを起動させてもよい。そして、端末装置10−1は、取得した発話PA11の音声情報を入力情報として判定装置100に送信する(ステップS12)。   Note that the user U1 may activate the cooking support application by pressing an icon of the cooking support application displayed on the terminal device 10 or performing a predetermined utterance. For example, the user U1 may activate the application by performing a predetermined utterance that activates an application such as “activate cooking support application XX”, “yes, XX”, or “ok, XX”. And the terminal device 10-1 transmits the audio | voice information of acquired utterance PA11 to the determination apparatus 100 as input information (step S12).

なお、端末装置10は、発話PA11の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA11の文字情報を取得し、取得した文字情報を判定装置100へ送信してもよい。この場合、端末装置10は、取得した発話PA11を行ったユーザがユーザU1であることを示す情報を判定装置100に送信してもよい。また、端末装置10が音声認識機能を有する場合、端末装置10は、判定装置100に送信することを要する入力情報のみを判定装置100に送信してもよい。   Note that the terminal device 10 may transmit the speech information of the utterance PA11 to the speech recognition server, acquire the character information of the utterance PA11 from the speech recognition server, and transmit the acquired character information to the determination device 100. In this case, the terminal device 10 may transmit information indicating that the user who performed the acquired utterance PA11 is the user U1 to the determination device 100. When the terminal device 10 has a voice recognition function, the terminal device 10 may transmit only input information that needs to be transmitted to the determination device 100 to the determination device 100.

端末装置10から発話PA11の音声情報を取得した判定装置100は、発話PA11に料理の指定に関する情報(以下、「料理指定情報」ともいう)が含まれているかどうかを判定する(ステップS13)。例えば、判定装置100は、受け付けた発話PA11の音声情報を解析することにより、発話PA11に料理指定情報が含まれているかどうかを判定する。例えば、判定装置100は、料理支援サービスにおいて対象とする料理名のリストと発話PA11に含まれる文字列とを比較することにより、発話PA11に料理指定情報が含まれるかどうかを判定する。なお、ユーザの発話に料理指定情報が含まれるかどうかの判定は、判定装置100が行ってもよいし、他の装置が行ってもよい。ユーザの発話に料理指定情報が含まれるかどうかの判定を他の装置が行う場合、判定装置100は発話PA11に料理指定情報が含まれるかどうかの判定結果や指定された料理名に関する情報を他の装置から取得するものとする。   The determination apparatus 100 that has acquired the voice information of the utterance PA11 from the terminal device 10 determines whether the utterance PA11 includes information related to the designation of a dish (hereinafter also referred to as “dish designation information”) (step S13). For example, the determination apparatus 100 determines whether the utterance PA11 includes cooking designation information by analyzing the voice information of the received utterance PA11. For example, the determination apparatus 100 determines whether or not dish designation information is included in the utterance PA11 by comparing a list of dish names targeted in the dish assistance service with a character string included in the utterance PA11. Note that the determination device 100 may determine whether or not the dish designation information is included in the user's utterance, or may be performed by another device. When the other device determines whether the user's utterance includes the dish designation information, the determination apparatus 100 provides the determination result whether the utterance PA11 includes the dish designation information or information on the designated dish name. Shall be obtained from the device.

図1の例では、判定装置100は、受け付けた発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、発話PA11にユーザU1が肉じゃがを作ろうとしていることを示す内容が含まれると判定する。例えば、判定装置100は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザU1が肉じゃがを作ろうとしていることを特定する。すなわち、判定装置100は、発話PA11を行ったユーザU1から料理名「肉じゃが」に関する料理指定情報を受け付ける。   In the example of FIG. 1, the determination device 100 converts the received speech information of the utterance PA11 into character information, and indicates that the user U1 is trying to make meat potatoes in the utterance PA11 based on the converted character information. Is determined to be included. For example, the determination apparatus 100 identifies that the user U1 is trying to make meat potatoes by appropriately analyzing the character information of the utterance PA11 using various conventional techniques such as syntax analysis. That is, the determination apparatus 100 receives the dish designation information related to the dish name “meat potato” from the user U1 who has made the utterance PA11.

例えば、図1中の作業情報記憶部121−1に示すように、ユーザU1の発話PA11により、判定装置100は、料理ID「CK1」により識別される料理名「肉じゃが」を対象に料理支援サービスに関する情報等を提供する。例えば、判定装置100は、出力情報記憶部122に記憶された出力情報を端末装置10に提供する。   For example, as illustrated in the work information storage unit 121-1 in FIG. 1, the determination device 100 uses the utterance PA 11 of the user U 1 as a target for the dish name “meat potato” identified by the dish ID “CK 1”. Provides information on For example, the determination device 100 provides the output information stored in the output information storage unit 122 to the terminal device 10.

図1中の出力情報記憶部122は、ユーザU1が肉じゃがを作る場合、第1フェーズでは、出力ID「OP1」により識別される「肉、じゃがいも…を用意してください」といった内容の出力情報(以下、「第1フェーズ情報OP1」ともいう)を提供することを示す。また、図1中の出力情報記憶部122は、ユーザU1が肉じゃがを作る場合、第2フェーズでは、出力ID「OP2」により識別される「肉を一口大に切ってください」といった内容の出力情報(以下、「第2フェーズ情報OP2」ともいう)を提供することを示す。   In the first phase, when the user U1 makes meat potatoes, the output information storage unit 122 in FIG. 1 outputs output information (such as “Please prepare meat, potatoes ...” identified by the output ID “OP1”). Hereinafter, this is also referred to as “first phase information OP1”. In addition, when the user U1 makes meat potatoes, the output information storage unit 122 in FIG. 1 outputs information such as “Please cut meat into bites” identified by the output ID “OP2” in the second phase. (Hereinafter also referred to as “second phase information OP2”).

また、以下では、提供する出力情報に応じて、出力情報記憶部122を出力情報記憶部122−1〜122−3として説明する。なお、出力情報記憶部122−1〜122−3は同一の出力情報記憶部122である。また、以下では、出力情報記憶部122−1〜122−3について、特に区別することなく説明する場合には、出力情報記憶部122と記載する。   Hereinafter, the output information storage unit 122 will be described as output information storage units 122-1 to 122-3 in accordance with the output information to be provided. The output information storage units 122-1 to 122-3 are the same output information storage unit 122. In the following description, the output information storage units 122-1 to 122-3 will be referred to as the output information storage unit 122 when they are not particularly distinguished.

図1の例では、判定装置100は、作業情報記憶部121−1に示すように、ユーザU1が作る料理が肉じゃがであると判定したため、肉じゃがの第1フェーズを作業中フェーズに設定する。そして、判定装置100は、作業中フェーズに対応する出力情報を端末装置10−1に提供する(ステップS14)。図1の例では、判定装置100は、出力情報記憶部122−1に示すように、作業中フェーズである第1フェーズに対応する「肉、じゃがいも…を用意してください」という内容の第1フェーズ情報OP1を端末装置10に提供する。   In the example of FIG. 1, the determination apparatus 100 determines that the dish made by the user U1 is meat potato as shown in the work information storage unit 121-1, and therefore sets the first phase of meat potato as the working phase. Then, the determination device 100 provides output information corresponding to the working phase to the terminal device 10-1 (step S14). In the example of FIG. 1, as shown in the output information storage unit 122-1, the determination apparatus 100 has the first content “Please prepare meat, potatoes” corresponding to the first phase that is the working phase. The phase information OP1 is provided to the terminal device 10.

そして、第1フェーズ情報OP1を受信した端末装置10は、第1フェーズ情報OP1を音声として出力する(ステップS15)。なお、端末装置10は、スピーカにより音声を出力してもよいし、ユーザU1がイヤフォンを耳に着けている場合、そのイヤフォンに第1フェーズ情報OP1を送信することにより、イヤフォンが第1フェーズ情報OP1を音声として出力してもよい。すなわち、第1フェーズ情報OP1は、ユーザU1に音声として伝達可能であれば、どのような形態により音声として出力されてもよい。また、端末装置10は、第1フェーズ情報OP1を文字情報として画面に表示してもよい。   And the terminal device 10 which received 1st phase information OP1 outputs 1st phase information OP1 as an audio | voice (step S15). Note that the terminal device 10 may output sound through a speaker. When the user U1 wears the earphone, the earphone transmits the first phase information OP1 to the earphone so that the earphone can receive the first phase information. OP1 may be output as sound. That is, the first phase information OP1 may be output as audio in any form as long as it can be transmitted as audio to the user U1. Further, the terminal device 10 may display the first phase information OP1 on the screen as character information.

そして、第1フェーズ情報OP1に含まれる「肉、じゃがいも…を用意してください」という音声により第1フェーズの作業内容を認識したユーザU1は、その音声の内容に従って、肉やじゃがいもを準備することとなる。また、図1の例では、ユーザU1は、メガネ型端末であるセンサ装置20を身に着けており、センサ装置20は、撮像機能により画像を撮像する。すなわち、センサ装置20は、ユーザの視線方向を撮像する。また、センサ装置20は、メガネ型端末であるため、ユーザが手を使った作業を行う場合、ユーザが注視するユーザの手元を撮像することとなる。   Then, the user U1 who has recognized the work contents of the first phase with the voice “please prepare meat, potatoes ...” included in the first phase information OP1 prepares meat and potatoes according to the contents of the sounds. It becomes. In the example of FIG. 1, the user U1 wears a sensor device 20 that is a glasses-type terminal, and the sensor device 20 captures an image using an imaging function. That is, the sensor device 20 images the user's line-of-sight direction. In addition, since the sensor device 20 is a glasses-type terminal, when the user performs a work using his / her hand, the user's hand being watched by the user is imaged.

なお、センサ装置20は、動画像を撮像してもよいし、所定の間隔で画像を撮像してもよい。また、センサ装置20は、撮像した画像情報を端末装置10に送信する。なお、センサ装置20は、撮像した全情報を端末装置10に送信してもよいし、動画像を撮像する場合、所定のフレームレートで抽出した画像情報を端末装置10に送信してもよい。   The sensor device 20 may capture a moving image, or may capture an image at a predetermined interval. In addition, the sensor device 20 transmits the captured image information to the terminal device 10. The sensor device 20 may transmit all the captured information to the terminal device 10, or may transmit image information extracted at a predetermined frame rate to the terminal device 10 when capturing a moving image.

図1中のステップS15後のユーザU1(図1中央のユーザU1)が、肉MT1、じゃがいもPT1、及び玉ねぎON1を準備した状態を示し、センサ装置20は、その状況を撮像した画像情報IM11を端末装置10−2に送信する。そして、端末装置10−2は、画像情報IM11を受信する(ステップS16)。例えば、端末装置10は、センサ装置20に画像情報を送信するように指示することにより、センサ装置20から送信される画像情報IM11を受信してもよい。このように、センサ装置20は、端末装置10からの指示に応じて、端末装置10に画像情報IM11を送信してもよい。その後、端末装置10−2は、画像情報IM11を判定装置100に送信する(ステップS17)。なお、端末装置10は、センサ装置20が撮像した全情報をセンサ装置20から受信する場合、所定の間隔(フレームレート等)で抽出した画像情報を判定装置100に送信してもよい。   FIG. 1 shows a state where the user U1 (user U1 in the center of FIG. 1) has prepared meat MT1, potato PT1, and onion ON1, and the sensor device 20 uses image information IM11 obtained by imaging the situation. It transmits to the terminal device 10-2. Then, the terminal device 10-2 receives the image information IM11 (Step S16). For example, the terminal device 10 may receive the image information IM11 transmitted from the sensor device 20 by instructing the sensor device 20 to transmit the image information. Thus, the sensor device 20 may transmit the image information IM11 to the terminal device 10 in response to an instruction from the terminal device 10. Thereafter, the terminal device 10-2 transmits the image information IM11 to the determination device 100 (step S17). Note that the terminal device 10 may transmit image information extracted at a predetermined interval (frame rate or the like) to the determination device 100 when receiving all information captured by the sensor device 20 from the sensor device 20.

端末装置10−2から画像情報IM11を取得した判定装置100は、ユーザU1の作業中フェーズを判定する(ステップS18)。例えば、判定装置100は、その時点における作業中フェーズである肉じゃがの第1フェーズに関する判定情報「DCK1−1」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。   The determination apparatus 100 that has acquired the image information IM11 from the terminal apparatus 10-2 determines the working phase of the user U1 (step S18). For example, the determination apparatus 100 determines the working phase of the user U1 based on the determination information “DCK1-1” (see FIG. 4) regarding the first phase of meat potato that is the working phase at that time.

例えば、判定情報「DCK1−1」には、肉MT1の画像情報や、じゃがいもPT1の画像情報や、玉ねぎON1の画像情報が含まれており、判定装置100は、端末装置10から取得した画像情報IM11と、判定情報「DCK1−1」に含まれる画像情報等を比較することにより、材料が揃っているかを判定するものとする。図1の例では、画像情報IM11には、肉MT1、じゃがいもPT1、及び玉ねぎON1が含まれているため、判定装置100は、ユーザU1が第1フェーズを完了したと判定する。すなわち、判定装置100は、第1フェーズの次のフェーズである第2フェーズを作業中フェーズであると判定する。なお、判定装置100は、画像情報から料理に使用される物を判定する技術として、パターン認識等の画像処理の種々の技術を適宜用いてもよい。   For example, the determination information “DCK1-1” includes the image information of the meat MT1, the image information of the potato PT1, and the image information of the onion ON1, and the determination device 100 acquires the image information acquired from the terminal device 10. By comparing IM11 and image information included in the determination information “DCK1-1”, it is determined whether or not the materials are available. In the example of FIG. 1, since the image information IM11 includes meat MT1, potato PT1, and onion ON1, the determination apparatus 100 determines that the user U1 has completed the first phase. That is, the determination apparatus 100 determines that the second phase, which is the next phase after the first phase, is the working phase. Note that the determination apparatus 100 may appropriately use various techniques of image processing such as pattern recognition as a technique for determining an object used for cooking from image information.

図1の例では、判定装置100は、作業情報記憶部121−2に示すように、ユーザU1の作業中フェーズが第2フェーズであると判定したため、肉じゃがの第2フェーズを作業中フェーズに設定する。そして、判定装置100は、作業中フェーズに対応する出力情報を端末装置10−2に提供する(ステップS19)。図1の例では、判定装置100は、出力情報記憶部122−2に示すように、作業中フェーズである第2フェーズに対応する「肉を一口大に切ってください」という内容の第2フェーズ情報OP2を端末装置10に提供する。   In the example of FIG. 1, since the determination apparatus 100 determines that the working phase of the user U1 is the second phase as shown in the work information storage unit 121-2, the second phase of meat potato is set as the working phase. To do. Then, the determination device 100 provides output information corresponding to the working phase to the terminal device 10-2 (step S19). In the example of FIG. 1, as shown in the output information storage unit 122-2, the determination apparatus 100 corresponds to the second phase, which is the working phase, and the second phase with the content “Please cut the meat into bites”. Information OP2 is provided to the terminal device 10.

そして、第2フェーズ情報OP2を受信した端末装置10は、第2フェーズ情報OP2を音声として出力する(ステップS20)。例えば、端末装置10は、スピーカやユーザU1が耳に着けているイヤフォンにより第2フェーズ情報OP2を音声として出力する。   And the terminal device 10 which received 2nd phase information OP2 outputs 2nd phase information OP2 as an audio | voice (step S20). For example, the terminal device 10 outputs the second phase information OP2 as sound by a speaker or an earphone worn by the user U1.

そして、第2フェーズ情報OP2に含まれる「肉を一口大に切ってください」という音声により第2フェーズの作業内容を認識したユーザU1は、その音声の内容に従って、肉を一口大に切ることとなる。   Then, the user U1 who has recognized the work content of the second phase by the voice “Please cut the meat into a bite” included in the second phase information OP2 cuts the meat into a bite size according to the content of the voice. Become.

図1中のステップS20後のユーザU1(図1右側のユーザU1)が、まな板CB上で肉MT1を肉MT1−1、MT1−2、MT1−3に切った状態を示し、センサ装置20は、その状況を撮像した画像情報IM21を端末装置10に送信する。上述したように、センサ装置20は、メガネ型端末であるため、ユーザU1が包丁で肉MT1を切っている際は、ユーザU1が注視するユーザの手元を撮像することとなる。そのため、判定システム1は、ユーザU1に特に意識させたり、余計な手間をかけさせたりすることなく、作業中フェーズの判定に用いる画像情報を収集することができる。   The user U1 after step S20 in FIG. 1 (the user U1 on the right side in FIG. 1) shows a state in which the meat MT1 is cut into the meat MT1-1, MT1-2, MT1-3 on the cutting board CB, and the sensor device 20 The image information IM21 obtained by imaging the situation is transmitted to the terminal device 10. As described above, since the sensor device 20 is a glasses-type terminal, when the user U1 cuts the meat MT1 with a knife, the user's hand watched by the user U1 is captured. Therefore, the determination system 1 can collect image information used for determination of the working phase without causing the user U1 to be particularly conscious or extra effort.

そして、端末装置10−3は、画像情報IM21を受信する(ステップS21)。その後、端末装置10−3は、画像情報IM21を判定装置100に送信する(ステップS22)。   Then, the terminal device 10-3 receives the image information IM21 (step S21). Thereafter, the terminal device 10-3 transmits the image information IM21 to the determination device 100 (step S22).

端末装置10−3から画像情報IM21を取得した判定装置100は、ユーザU1の作業中フェーズを判定する(ステップS23)。例えば、判定装置100は、その時点における作業中フェーズである肉じゃがの第2フェーズに関する判定情報「DCK1−2」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。   The determination apparatus 100 that has acquired the image information IM21 from the terminal device 10-3 determines the working phase of the user U1 (step S23). For example, the determination apparatus 100 determines the working phase of the user U1 based on the determination information “DCK1-2” (see FIG. 4) regarding the second phase of meat potato that is the working phase at that time.

例えば、判定情報「DCK1−2」には、肉MT1が一口大に成形された状態の画像情報が含まれており、判定装置100は、端末装置10−3から取得した画像情報IM21と、判定情報「DCK1−2」に含まれる画像情報等を比較することにより、肉MT1が一口大に切られているかを判定するものとする。図1の例では、画像情報IM21には、肉MT1が一口大に切られた肉MT1−1、MT1−2、MT1−3が含まれているため、判定装置100は、ユーザU1が第2フェーズを完了したと判定する。すなわち、判定装置100は、第2フェーズの次のフェーズである第3フェーズを作業中フェーズであると判定する。   For example, the determination information “DCK1-2” includes image information in a state where the meat MT1 is formed into a bite, and the determination apparatus 100 determines whether the image information IM21 acquired from the terminal apparatus 10-3 and the determination information It is determined whether or not the meat MT1 is cut into a bite by comparing image information included in the information “DCK1-2”. In the example of FIG. 1, since the image information IM21 includes meat MT1-1, MT1-2, and MT1-3 that are cut into pieces, the determination device 100 has the user U1 as the second. Determine that the phase is complete. That is, the determination apparatus 100 determines that the third phase, which is the next phase after the second phase, is the working phase.

図1の例では、判定装置100は、作業情報記憶部121−3に示すように、ユーザU1の作業中フェーズが第3フェーズであると判定したため、肉じゃがの第3フェーズを作業中フェーズに設定する。そして、判定装置100は、作業中フェーズに対応する出力情報を端末装置10−3に提供する(ステップS24)。図1の例では、判定装置100は、出力情報記憶部122−3に示すように、作業中フェーズである第3フェーズに対応する出力情報である出力ID「OP3」により識別される「じゃがいもを一口大に切ってください」という内容の出力情報(第3フェーズ情報OP3)を端末装置10−3に提供する。そして、第3フェーズ情報OP3を受信した端末装置10は、第3フェーズ情報OP3を音声として出力する。その後、判定システム1は、第3フェーズ、第4フェーズ等の肉じゃがの全フェーズを完了する、すなわちユーザU1が肉じゃがを作り終わるまで処理を繰り返す。   In the example of FIG. 1, since the determination apparatus 100 determines that the working phase of the user U1 is the third phase as shown in the work information storage unit 121-3, the third phase of meat potato is set as the working phase. To do. Then, the determination device 100 provides output information corresponding to the working phase to the terminal device 10-3 (step S24). In the example of FIG. 1, as shown in the output information storage unit 122-3, the determination device 100 identifies “potatoes” identified by the output ID “OP3” that is output information corresponding to the third phase that is the working phase. The terminal device 10-3 is provided with output information (third phase information OP3) with the content “Please cut to bite size”. And the terminal device 10 which received 3rd phase information OP3 outputs 3rd phase information OP3 as an audio | voice. Thereafter, the determination system 1 repeats the process until all meat potato phases such as the third phase and the fourth phase are completed, that is, the user U1 finishes making meat potatoes.

上述したように、判定システム1は、ユーザU1が身に付けたセンサ装置20により情報を収集することにより、ユーザU1に特に意識させたり、余計な手間をかけさせたりすることなく、作業中フェーズの判定に用いる画像情報を収集することができる。このように、判定システム1は、ユーザU1が身に付けたセンサ装置20から画像情報を収集することにより、ユーザU1が行っている作業のうち、どのフェーズにあるのかを適切に把握することができる。また、判定システム1は、各フェーズに対応する作業内容に関する情報を順序通り出力することにより、ユーザには、各フェーズを順序通り作業を行うことができるため、ユーザが初めて作る料理や作り方を全く知らない料理等であっても、ユーザが料理することを可能にすることができる。言い換えると、判定システム1は、ユーザがフェーズを完了する毎に、次のフェーズへと順次フェーズを進行させて、そのフェーズに対応する作業内容に関する情報を提供することにより、普段料理をしないユーザ等であっても、料理を適切に完成されることを可能にすることができる。また、判定システム1は、ユーザU1が行っている作業に対応する出力情報を音声として出力することにより、ユーザU1は視線を作業から離したりすることなく、ユーザU1は自身の作業を行いながら、情報を認識することができる。したがって、判定システム1は、ユーザU1の作業中フェーズに応じた出力情報をユーザU1に提供することにより、作業を行うユーザに対する適切なアシストを可能にすることができる。   As described above, the determination system 1 collects information by the sensor device 20 worn by the user U1, thereby making the user U1 not particularly aware of the work in progress phase without extra effort. Image information used for the determination can be collected. As described above, the determination system 1 can appropriately grasp which phase the user U1 is performing by collecting image information from the sensor device 20 worn by the user U1. it can. Moreover, since the determination system 1 outputs the information regarding the work content corresponding to each phase in order, the user can work in each phase in order. Even if it is a dish that you do not know, the user can cook. In other words, each time the user completes a phase, the determination system 1 advances the phase sequentially to the next phase, and provides information on the work content corresponding to the phase, so that a user who does not normally cook, etc. Even so, cooking can be properly completed. Moreover, the determination system 1 outputs the output information corresponding to the work performed by the user U1 as a voice, so that the user U1 does not take his line of sight away from the work, while the user U1 is performing his / her work, Can recognize information. Accordingly, the determination system 1 can provide appropriate assistance to the user who performs the work by providing the user U1 with the output information corresponding to the in-work phase of the user U1.

〔1−3.作業について〕
上述した例では、作業の一例として料理を示したが、判定システム1が対象とする作業は料理に限らず、ユーザが行う作業であればどのような作業であってもよい。例えば、判定システム1は、ユーザが身体的動作を行う種々の作業を対象としてもよい。例えば、判定システム1は、習字や編み物等のユーザが手を用いて行う作業を対象としてもよい。また、判定システム1は、所定の工場等に導入されて、工場でのプロセス管理等に適用されてもよい。
[1-3. About work)
In the above-described example, cooking is shown as an example of the work. However, the work targeted by the determination system 1 is not limited to cooking, and any work may be performed as long as the work is performed by the user. For example, the determination system 1 may target various works in which the user performs physical actions. For example, the determination system 1 may target an operation performed by a user such as calligraphy or knitting using a hand. Further, the determination system 1 may be introduced into a predetermined factory or the like and applied to process management or the like at the factory.

〔1−4.システム構成〕
また、上述した例では、端末装置10から判定装置100に情報を送信し、判定装置100において作業中フェーズが判定される判定システム1を一例として説明したが、判定システムの構成は上記に限らない。例えば、端末装置10が作業中フェーズを判定する判定システムの構成であってもよい。すなわち、この場合、端末装置10は判定装置100と一体であってもよい。また、端末装置10は、センサ装置20と一体であってもよい。例えば、端末装置10は、判定装置100及びセンサ装置20と一体であってもよい。例えば、ユーザは、身に着けたメガネ型の端末装置10により、判定システムによる料理支援サービスの提供を受けてもよい。この場合、ユーザは、スタンドアロン型の端末装置10により、判定システムによる料理支援サービスの提供を受けてもよい。また、例えば、端末装置10は、判定装置100等の外部装置に料理の指定を送信し、指定した料理に関する作業情報や出力情報を判定装置100等の外部装置から受信し、受信した作業情報や出力情報に基づいて、判定システムによる料理支援サービスの提供を行ってもよい。なお、上記は一例であり、上述したサービスをユーザに提供可能であれば、判定システムはどのように構成されてもよい。
[1-4. System configuration〕
In the example described above, the determination system 1 that transmits information from the terminal device 10 to the determination device 100 and determines the working phase in the determination device 100 is described as an example. However, the configuration of the determination system is not limited to the above. . For example, a configuration of a determination system in which the terminal device 10 determines a working phase may be used. That is, in this case, the terminal device 10 may be integrated with the determination device 100. Further, the terminal device 10 may be integrated with the sensor device 20. For example, the terminal device 10 may be integrated with the determination device 100 and the sensor device 20. For example, the user may be provided with a cooking support service by the determination system by the glasses-type terminal device 10 worn. In this case, the user may be provided with a cooking support service by the determination system using the stand-alone terminal device 10. In addition, for example, the terminal device 10 transmits a dish designation to an external device such as the determination device 100, receives work information and output information related to the designated dish from the external device such as the determination device 100, and receives the received work information or A cooking support service may be provided by the determination system based on the output information. Note that the above is an example, and the determination system may be configured in any way as long as the above-described service can be provided to the user.

〔1−5.フェーズについて〕
また、上記の例では、ユーU1が第1フェーズ〜第3フェーズと順番に行っていく場合を示したが、ユーザU1は順不同であってもよいフェーズの順番は適宜変更して作業を行ってもよい。例えば、図1の例において、肉を切る第2フェーズとじゃがいもを切る第3フェーズとはいずれを先に行ってもよい。そのため、判定システム1は、切る作業全体を1つのフェーズとしたり、切る作業に関する各フェーズを順不同のフェーズとして識別したりしてもよい。各フェーズの処理が順不同である場合、判定装置100は、順不同である各フェーズの処理が全て完了した後、次のフェーズを作業中フェーズとして、次の作業に進むようにしてもよい。例えば、判定装置100は、第2フェーズや第3フェーズの切る作業が全て完了した場合に、例えば鍋で炒める等の次のフェーズを作業中フェーズであると判定してもよい。
[1-5. About the phase)
Further, in the above example, the case where the user U1 goes in order from the first phase to the third phase is shown, but the user U1 may change the order of the phases that may be out of order and perform the work. Also good. For example, in the example of FIG. 1, either the second phase for cutting meat or the third phase for cutting potatoes may be performed first. Therefore, the determination system 1 may identify the entire cutting operation as one phase, or identify each phase related to the cutting operation as an unordered phase. When the processing of each phase is out of order, the determination apparatus 100 may proceed to the next operation by setting the next phase as a working phase after completing the processing of each phase out of order. For example, the determination apparatus 100 may determine that the next phase, such as frying in a pan, is the in-operation phase when all the operations for cutting the second phase and the third phase are completed.

〔1−6.出力情報について〕
また、上記の例では、ユーU1が第1フェーズ〜第3フェーズにおいて1つの出力情報を出力する場合を示したが、判定システム1は、各フェーズにおいて複数の出力情報を出力してもよい。例えば、判定システム1は、各フェーズで複数の出力情報が出力される場合、各フェーズに対応付けて複数の出力情報を記憶したり、各フェーズに対応付けられた複数の出力情報の出力順を記憶したりすることにより、各フェーズにおいて複数の出力情報を出力してもよい。
[1-6. About output information)
Moreover, although the case where the user U1 outputs one output information in the first phase to the third phase has been described in the above example, the determination system 1 may output a plurality of output information in each phase. For example, when a plurality of pieces of output information are output in each phase, the determination system 1 stores a plurality of pieces of output information in association with each phase, or sets an output order of a plurality of pieces of output information associated with each phase. Or a plurality of pieces of output information may be output in each phase.

〔1−6−1.警告や作業催促〕
また、判定システム1は、ユーザの作業内容に応じて、各種情報を出力してもよい。例えば、判定システム1は、作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力してもよい。また、例えば、判定システム1は、ユーザに作業の進行を促す情報を出力してもよい。例えば、判定システム1は、作業中フェーズの変更後、5分以上ユーザが作業を行わなかった場合、「作業を進めてください」等のユーザに作業の進行を促す情報を出力してもよい。また、判定システム1は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力してもよい。なお、この点についての詳細は後述する。
[1-6-1. Warning and work reminder)
Moreover, the determination system 1 may output various information according to the user's work content. For example, the determination system 1 may output warning information when a predetermined period has elapsed without the transition to the next phase or the completion of work after the work phase is determined. For example, the determination system 1 may output information that prompts the user to proceed with work. For example, the determination system 1 may output information that prompts the user to proceed with work such as “Please proceed with work” when the user does not perform work for more than 5 minutes after the change in work phase. Further, the determination system 1 may output warning information when the user performs an operation different from the operation content in the operation phase. Details of this point will be described later.

〔2.判定装置の構成〕
次に、図3を用いて、実施形態に係る判定装置100の構成について説明する。図3は、実施形態に係る判定装置の構成例を示す図である。図3に示すように、判定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、判定装置100は、判定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. (Configuration of judgment device)
Next, the configuration of the determination apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the determination apparatus according to the embodiment. As illustrated in FIG. 3, the determination apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The determination apparatus 100 includes an input unit (for example, a keyboard and a mouse) that receives various operations from an administrator of the determination apparatus 100 and a display unit (for example, a liquid crystal display) for displaying various types of information. May be.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワーク(例えば図2中のネットワークN)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to a network (for example, the network N in FIG. 2) by wire or wireless, and transmits / receives information to / from the terminal device 10.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、作業情報記憶部121と、出力情報記憶部122とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 3, the storage unit 120 according to the embodiment includes a work information storage unit 121 and an output information storage unit 122.

(作業情報記憶部121)
実施形態に係る作業情報記憶部121は、作業に関する情報を記憶する。例えば、作業情報記憶部121には、作業に含まれる各フェーズの情報等の各種情報が記憶される。図4は、実施形態に係る作業情報記憶部の一例を示す図である。図4には、作業情報記憶部121に記憶される作業に関する情報の一例を示す。図4に示すように、作業情報記憶部121は、作業に関する情報として、「料理ID」、「料理名」、「フェーズ」、「内容」、「対象」、「判定情報」といった項目が含まれる。
(Work information storage unit 121)
The work information storage unit 121 according to the embodiment stores information related to work. For example, the work information storage unit 121 stores various types of information such as information on each phase included in the work. FIG. 4 is a diagram illustrating an example of the work information storage unit according to the embodiment. FIG. 4 shows an example of information related to work stored in the work information storage unit 121. As illustrated in FIG. 4, the work information storage unit 121 includes items such as “cooking ID”, “cooking name”, “phase”, “content”, “target”, and “determination information” as work-related information. .

「料理ID」は、作業である料理を識別するための識別情報を示す。「料理名」は、対応する作業の料理名を示す。「フェーズ」は、料理に含まれるフェーズを示す。また、「内容」は、対応するフェーズの作業内容を示す。また、「対象」は、対応するフェーズの作業の対象を示す。また、「判定情報」は、対応するフェーズの作業が完了したかを判定するために用いる情報を示す。   “Cooking ID” indicates identification information for identifying cooking as a work. “Cooking name” indicates the cooking name of the corresponding work. “Phase” indicates a phase included in the dish. “Content” indicates the work content of the corresponding phase. “Target” indicates the target of work in the corresponding phase. Further, “determination information” indicates information used for determining whether or not the operation of the corresponding phase has been completed.

例えば、図4に示す例において、料理ID「CK1」により識別される料理は、料理名「肉じゃが」であることを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理は、第1フェーズ〜第3フェーズを含む複数のフェーズを含むことを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理の第1フェーズは、内容が「材料を揃える」ことであることを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理の第1フェーズは、対象が「肉、じゃがいも・・・」であることを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理の第1フェーズの判定情報は、判定情報「DCK1−1」であることを示す。   For example, in the example illustrated in FIG. 4, the dish identified by the dish ID “CK1” indicates the dish name “meat potato”. Further, for example, in the example illustrated in FIG. 4, the dish identified by the dish ID “CK1” includes a plurality of phases including the first phase to the third phase. Further, for example, in the example illustrated in FIG. 4, the first phase of the dish identified by the dish ID “CK1” indicates that the content is “align the ingredients”. Further, for example, in the example illustrated in FIG. 4, the first phase of the dish identified by the dish ID “CK1” indicates that the target is “meat, potatoes ...”. For example, in the example illustrated in FIG. 4, the determination information of the first phase of the dish identified by the dish ID “CK1” is the determination information “DCK1-1”.

なお、図4の例では、判定情報を「DCK1−1」等と抽象的に図示するが、判定情報には、対応するフェーズが完了したかの判定に用いる種々の情報が含まれてもよい。例えば、フェーズの判定に画像を用いる場合、判定情報として静止画像や動画像やテキストデータやURL(Uniform Resource Locator)、または、これらの格納場所を示すファイルパス名などが格納されてもよい。例えば、料理ID「CK1」により識別される料理の第1フェーズにおいての判定に画像を用いる場合、判定情報「DCK1−1」には、肉MT1の画像情報や、じゃがいもPT1の画像情報や、玉ねぎON1の画像情報が含まれてもよい。この場合、例えば、判定装置100は、端末装置10から取得した画像情報と、判定情報「DCK1−1」に含まれる画像情報等を比較することにより、材料が揃っているかを判定してもよい。また、例えば、フェーズが「5分煮る」等の時間に関する指定があるフェーズである場合、判定情報には、待ち時間「5分」等の時間に関する情報が含まれてもよい。   In the example of FIG. 4, the determination information is illustrated abstractly as “DCK1-1” or the like, but the determination information may include various information used for determining whether the corresponding phase is completed. . For example, when an image is used for phase determination, a still image, a moving image, text data, a URL (Uniform Resource Locator), or a file path name indicating the storage location thereof may be stored as determination information. For example, when an image is used for the determination in the first phase of the dish identified by the dish ID “CK1”, the determination information “DCK1-1” includes the image information of meat MT1, the image information of potato PT1, and the onion. Image information of ON1 may be included. In this case, for example, the determination apparatus 100 may determine whether the materials are prepared by comparing the image information acquired from the terminal apparatus 10 with the image information included in the determination information “DCK1-1”. . In addition, for example, when the phase is a phase having a designation related to time such as “simmer for 5 minutes”, the determination information may include information related to time such as a waiting time “5 minutes”.

なお、作業情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、作業情報記憶部121は、各フェーズの処理が順不同である場合、その情報を記憶してもよい。また、例えば、作業情報記憶部121は、順不同である各フェーズの処理が全て完了した場合に、次のフェーズに進む場合、その情報を記憶してもよい。例えば、作業情報記憶部121は、料理ID「CK1」により識別される料理である肉じゃがにおいて、肉を切る第2フェーズやじゃがいもを切る第3フェーズ等の切る作業が順不同である場合、その情報を記憶してもよい。また、この場合、作業情報記憶部121は、第2フェーズや第3フェーズの切る作業が全て完了した場合に、例えば鍋で炒める等の次のフェーズに進む場合、その情報を記憶してもよい。   The work information storage unit 121 is not limited to the above, and may store various types of information according to the purpose. For example, the work information storage unit 121 may store the information when the processing of each phase is out of order. In addition, for example, the work information storage unit 121 may store the information when proceeding to the next phase when the processing of each phase that is out of order is completed. For example, in the meat potato that is the dish identified by the dish ID “CK1”, the work information storage unit 121 stores the information when the cutting work such as the second phase of cutting meat or the third phase of cutting potato is out of order. You may remember. Further, in this case, the work information storage unit 121 may store the information when proceeding to the next phase, for example, frying in a pan, when all the work to be cut off in the second phase and the third phase is completed. .

(出力情報記憶部122)
実施形態に係る出力情報記憶部122は、出力に関する各種情報を記憶する。図5は、実施形態に係る出力情報記憶部の一例を示す図である。例えば、出力情報記憶部122は、ユーザの作業をアシストするために出力する情報を記憶する。図5の例では、出力情報記憶部122には、「料理ID」、「フェーズ」、「出力ID」、「内容」といった項目が含まれる。
(Output information storage unit 122)
The output information storage unit 122 according to the embodiment stores various types of information related to output. FIG. 5 is a diagram illustrating an example of the output information storage unit according to the embodiment. For example, the output information storage unit 122 stores information to be output to assist the user's work. In the example of FIG. 5, the output information storage unit 122 includes items such as “cooking ID”, “phase”, “output ID”, and “content”.

「料理ID」は、作業である料理を識別するための識別情報を示す。「フェーズ」は、料理に含まれるフェーズを示す。「出力ID」は、出力する情報を識別するための識別情報を示す。また、「内容」は、対応する出力の内容を示す。   “Cooking ID” indicates identification information for identifying cooking as a work. “Phase” indicates a phase included in the dish. “Output ID” indicates identification information for identifying information to be output. “Content” indicates the content of the corresponding output.

例えば、図5に示す例において、料理ID「CK1」により識別される料理において、第1フェーズでは、出力ID「OP1」により識別される「肉、じゃがいも…を用意してください」といった内容の出力情報が出力されることを示す。   For example, in the example shown in FIG. 5, in the dish identified by the dish ID “CK1”, in the first phase, the contents such as “Please prepare meat, potatoes ...” identified by the output ID “OP1” are output. Indicates that information is output.

なお、出力情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、出力情報記憶部122は、各フェーズで複数の出力情報が出力される場合、各フェーズに対応付けて複数の出力情報を記憶してもよい。また、例えば、出力情報記憶部122は、各フェーズに対応付けられた複数の出力情報に出力順がある場合、出力順を記憶してもよい。   The output information storage unit 122 is not limited to the above, and may store various types of information according to the purpose. For example, when a plurality of output information is output in each phase, the output information storage unit 122 may store a plurality of output information in association with each phase. Further, for example, the output information storage unit 122 may store the output order when the plurality of output information associated with each phase has an output order.

(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、判定装置100内部の記憶装置に記憶されている各種プログラム(判定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 3, the control unit 130 is a controller, and is stored in a storage device inside the determination apparatus 100 by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Various programs (corresponding to an example of a determination program) are implemented by using the RAM as a work area. The control unit 130 is a controller, and is realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図3に示すように、制御部130は、取得部131と、判定部132と、提供部133とを有し、以下に説明する判定処理等の情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   As illustrated in FIG. 3, the control unit 130 includes an acquisition unit 131, a determination unit 132, and a provision unit 133, and implements or executes information processing functions and operations such as determination processing described below. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 3, and may be another configuration as long as the information processing described below is performed.

(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、作業情報記憶部121や出力情報記憶部122等から各種情報を取得する。また、取得部131は、各種情報を外部の情報処理装置から取得してもよい。また、取得部131は、端末装置10やセンサ装置20から各種情報を取得する。
(Acquisition part 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from the work information storage unit 121, the output information storage unit 122, and the like. The acquisition unit 131 may acquire various types of information from an external information processing apparatus. The acquisition unit 131 acquires various types of information from the terminal device 10 and the sensor device 20.

例えば、取得部131は、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する。例えば、取得部131は、ユーザの視線方向に関する画像情報を取得する。例えば、取得部131は、ユーザの手元に関する画像情報を取得する。例えば、取得部131は、ユーザが装着した端末装置により画像情報を取得する。例えば、取得部131は、複数のフェーズを含む料理を行うユーザに関する画像情報を取得する。   For example, the acquisition unit 131 acquires image information relating to a user who performs a work including a plurality of phases, each of which includes work contents associated with each other, and in which the order between the phases is determined in advance. For example, the acquisition unit 131 acquires image information related to the user's line-of-sight direction. For example, the acquisition unit 131 acquires image information related to the user's hand. For example, the acquisition unit 131 acquires image information from a terminal device worn by the user. For example, the acquisition unit 131 acquires image information related to a user who performs cooking including a plurality of phases.

図1の例では、取得部131は、端末装置10から発話PA11の音声情報を取得する。図1の例では、取得部131は、端末装置10から画像情報IM11を取得する。図1の例では、取得部131は、端末装置10から画像情報IM21を取得する。   In the example of FIG. 1, the acquisition unit 131 acquires voice information of the utterance PA11 from the terminal device 10. In the example of FIG. 1, the acquisition unit 131 acquires image information IM11 from the terminal device 10. In the example of FIG. 1, the acquisition unit 131 acquires image information IM21 from the terminal device 10.

(判定部132)
判定部132は、各種情報を判定する。例えば、判定部132は、取得部131により取得された画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定する。例えば、判定部132は、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの料理における作業中フェーズを判定する。
(Determination unit 132)
The determination unit 132 determines various types of information. For example, the determination unit 132 determines a working phase that is a phase in the user's work based on the image information acquired by the acquiring unit 131 and information on a plurality of phases. For example, the determination unit 132 determines a working phase in the user's cooking based on the image information and information regarding a plurality of phases.

図1の例では、判定部132は、発話PA11に料理指定情報が含まれているかどうかを判定する。例えば、判定部132は、受け付けた発話PA11の音声情報を解析することにより、発話PA11に料理指定情報が含まれているかどうかを判定する。例えば、判定部132は、料理支援サービスにおいて対象とする料理名のリストと発話PA11に含まれる文字列とを比較することにより、発話PA11に料理指定情報が含まれるかどうかを判定する。図1の例では、判定部132は、受け付けた発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、発話PA11にユーザU1が肉じゃがを作ろうとしていることを示す内容が含まれると判定する。   In the example of FIG. 1, the determination unit 132 determines whether or not dish designation information is included in the utterance PA11. For example, the determination unit 132 determines whether the utterance PA11 includes cooking designation information by analyzing the voice information of the received utterance PA11. For example, the determination unit 132 determines whether or not the dish designation information is included in the utterance PA11 by comparing a list of dish names targeted in the dish assistance service with a character string included in the utterance PA11. In the example of FIG. 1, the determination unit 132 converts the received speech information of the utterance PA11 into character information, and indicates that the user U1 is trying to make meat potatoes in the utterance PA11 based on the converted character information. Is determined to be included.

図1の例では、判定部132は、ユーザU1の作業中フェーズを判定する。例えば、判定部132は、その時点における作業中フェーズである肉じゃがの第1フェーズに関する判定情報「DCK1−1」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。図1の例では、判定部132は、端末装置10から取得した画像情報IM11と、判定情報「DCK1−1」に含まれる画像情報等を比較することにより、材料が揃っているかを判定するものとする。図1の例では、画像情報IM11には、肉MT1、じゃがいもPT1、及び玉ねぎON1が含まれているため、判定部132は、ユーザU1が第1フェーズを完了したと判定する。例えば、判定部132は、第1フェーズの次のフェーズである第2フェーズを作業中フェーズであると判定する。   In the example of FIG. 1, the determination unit 132 determines the working phase of the user U1. For example, the determination unit 132 determines the working phase of the user U1 based on the determination information “DCK1-1” (see FIG. 4) regarding the first phase of meat potato that is the working phase at that time. In the example of FIG. 1, the determination unit 132 determines whether the materials are prepared by comparing the image information IM11 acquired from the terminal device 10 with the image information included in the determination information “DCK1-1”. And In the example of FIG. 1, since the image information IM11 includes meat MT1, potato PT1, and onion ON1, the determination unit 132 determines that the user U1 has completed the first phase. For example, the determination unit 132 determines that the second phase, which is the next phase after the first phase, is the working phase.

図1の例では、判定部132は、ユーザU1の作業中フェーズを判定する。例えば、判定部132は、その時点における作業中フェーズである肉じゃがの第2フェーズに関する判定情報「DCK1−2」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。   In the example of FIG. 1, the determination unit 132 determines the working phase of the user U1. For example, the determination unit 132 determines the working phase of the user U1 based on the determination information “DCK1-2” (see FIG. 4) regarding the second phase of meat potato that is the working phase at that time.

図1の例では、判定部132は、端末装置10から取得した画像情報IM21と、判定情報「DCK1−2」に含まれる画像情報等を比較することにより、肉MT1が一口大に切られているかを判定するものとする。図1の例では、画像情報IM21には、肉MT1が一口大に切られた肉MT1−1、MT1−2、MT1−3が含まれているため、判定部132は、ユーザU1が第2フェーズを完了したと判定する。例えば、判定部132は、第2フェーズの次のフェーズである第3フェーズを作業中フェーズであると判定する。   In the example of FIG. 1, the determination unit 132 compares the image information IM21 acquired from the terminal device 10 with the image information included in the determination information “DCK1-2”, so that the meat MT1 is cut into a bite. It shall be determined. In the example of FIG. 1, the image information IM21 includes meat MT1-1, MT1-2, and MT1-3 in which the meat MT1 is cut into a bite. Determine that the phase is complete. For example, the determination unit 132 determines that the third phase, which is the next phase after the second phase, is the working phase.

(提供部133)
提供部133は、各種情報を提供する。例えば、提供部133は、端末装置10に各種情報を提供する。例えば、提供部133は、出力情報記憶部122に記憶された出力情報を端末装置10に提供する。図1の例では、提供部133は、端末装置10に第1フェーズ情報OP1を提供する。図1の例では、提供部133は、端末装置10に第2フェーズ情報OP2を提供する。
(Providing unit 133)
The providing unit 133 provides various types of information. For example, the providing unit 133 provides various information to the terminal device 10. For example, the providing unit 133 provides the output information stored in the output information storage unit 122 to the terminal device 10. In the example of FIG. 1, the providing unit 133 provides the first phase information OP1 to the terminal device 10. In the example of FIG. 1, the providing unit 133 provides the second phase information OP2 to the terminal device 10.

図1の例では、提供部133は、作業情報記憶部121−1に示すように、ユーザU1が作る料理が肉じゃがであると判定したため、肉じゃがの第1フェーズを作業中フェーズに設定する。例えば、提供部133は、作業中フェーズに対応する出力情報を端末装置10に提供する。図1の例では、提供部133は、出力情報記憶部122−1に示すように、作業中フェーズである第1フェーズに対応する「肉、じゃがいも…を用意してください」という内容の第1フェーズ情報OP1を端末装置10に提供する。   In the example of FIG. 1, as shown in the work information storage unit 121-1, the providing unit 133 determines that the dish made by the user U1 is meat potato, and sets the first phase of meat potato as the working phase. For example, the providing unit 133 provides output information corresponding to the working phase to the terminal device 10. In the example of FIG. 1, the providing unit 133 has the first content “Please prepare meat, potatoes ...” corresponding to the first phase that is the working phase, as shown in the output information storage unit 122-1. The phase information OP1 is provided to the terminal device 10.

図1の例では、提供部133は、作業情報記憶部121−2に示すように、ユーザU1の作業中フェーズが第2フェーズであると判定したため、肉じゃがの第2フェーズを作業中フェーズに設定する。例えば、提供部133は、作業中フェーズに対応する出力情報を端末装置10に提供する。図1の例では、提供部133は、出力情報記憶部122−2に示すように、作業中フェーズである第2フェーズに対応する「肉を一口大に切ってください」という内容の第2フェーズ情報OP2を端末装置10に提供する。   In the example of FIG. 1, the providing unit 133 sets the second phase of meat potato as the working phase because the providing unit 133 determines that the working phase of the user U1 is the second phase, as shown in the work information storage unit 121-2. To do. For example, the providing unit 133 provides output information corresponding to the working phase to the terminal device 10. In the example of FIG. 1, the providing unit 133, as shown in the output information storage unit 122-2, corresponds to the second phase, which is the working phase, in the second phase of “Please cut the meat into bite-sized pieces”. Information OP2 is provided to the terminal device 10.

図1の例では、提供部133は、作業情報記憶部121−3に示すように、ユーザU1の作業中フェーズが第3フェーズであると判定したため、肉じゃがの第3フェーズを作業中フェーズに設定する。例えば、提供部133は、作業中フェーズに対応する出力情報を端末装置10に提供する。図1の例では、提供部133は、出力情報記憶部122−3に示すように、作業中フェーズである第3フェーズに対応する出力情報である出力ID「OP3」により識別される「じゃがいもを一口大に切ってください」という内容の出力情報(第3フェーズ情報OP3)を端末装置10に提供する。   In the example of FIG. 1, since the providing unit 133 determines that the working phase of the user U1 is the third phase as illustrated in the working information storage unit 121-3, the third phase of meat potato is set as the working phase. To do. For example, the providing unit 133 provides output information corresponding to the working phase to the terminal device 10. In the example of FIG. 1, as shown in the output information storage unit 122-3, the providing unit 133 recognizes “potatoes” identified by the output ID “OP3” that is output information corresponding to the third phase that is the working phase. The terminal device 10 is provided with output information (third phase information OP3) indicating that “please cut it into a bite”.

〔3.端末装置の構成〕
次に、図6を用いて、実施形態に係る端末装置10の構成について説明する。図6は、実施形態に係る端末装置の構成例を示す図である。図6に示すように、端末装置10は、通信部11と、記憶部12と、入力部13と、表示部14と、制御部15とを有する。また、端末装置10は、音声として出力するスピーカやイヤフォン等の外部デバイスの端子の差し込み口(イヤフォンジャック等)を有してもよい。
[3. Configuration of terminal device]
Next, the configuration of the terminal device 10 according to the embodiment will be described with reference to FIG. FIG. 6 is a diagram illustrating a configuration example of the terminal device according to the embodiment. As illustrated in FIG. 6, the terminal device 10 includes a communication unit 11, a storage unit 12, an input unit 13, a display unit 14, and a control unit 15. Moreover, the terminal device 10 may have an insertion port (an earphone jack or the like) of a terminal of an external device such as a speaker or an earphone that outputs as sound.

(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、判定装置100との間で情報の送受信を行う。
(Communication unit 11)
The communication unit 11 is realized by a communication circuit or the like, for example. The communication unit 11 is connected to a predetermined communication network (not shown) by wire or wireless, and transmits / receives information to / from the determination device 100.

(記憶部12)
記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、例えば、端末装置10にインストールされているアプリケーション(例えば料理支援アプリ等)に関する情報、例えばプログラム等を記憶する。
(Storage unit 12)
The storage unit 12 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 stores, for example, information related to an application (for example, a cooking support application) installed in the terminal device 10, such as a program.

(入力部13)
入力部13は、ユーザからの各種操作を受け付ける。例えば、入力部13は、タッチパネル機能により表示面(例えば出力部153)を介してユーザからの各種操作を受け付けてもよい。また、入力部13は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(Input unit 13)
The input unit 13 receives various operations from the user. For example, the input unit 13 may accept various operations from the user via a display surface (for example, the output unit 153) by a touch panel function. Further, the input unit 13 may accept various operations from buttons provided on the terminal device 10 or a keyboard or mouse connected to the terminal device 10.

(表示部14)
表示部14は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。
(Display unit 14)
The display unit 14 is a display screen such as a tablet terminal realized by, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display, and is a display device for displaying various information.

(制御部15)
制御部15は、コントローラであり、例えば、CPUやMPU等によって、端末装置10内部の記憶部12などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、インストールされているアプリケーション(例えば料理支援アプリ等)のプログラムが含まれる。また、制御部15は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 15)
The control unit 15 is a controller, and is realized, for example, by executing various programs stored in a storage device such as the storage unit 12 inside the terminal device 10 using the RAM as a work area by a CPU, an MPU, or the like. . For example, the various programs include an installed application program (for example, a cooking support application). The control unit 15 is a controller, and is realized by an integrated circuit such as an ASIC or FPGA, for example.

図6に示すように、制御部15は、送信部151と、受信部152と、出力部153とを有し、以下に説明する出力処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図6に示した構成に限られず、後述する出力処理を行う構成であれば他の構成であってもよい。   As illustrated in FIG. 6, the control unit 15 includes a transmission unit 151, a reception unit 152, and an output unit 153, and realizes or executes functions and operations of output processing described below. Note that the internal configuration of the control unit 15 is not limited to the configuration illustrated in FIG. 6, and may be another configuration as long as it performs output processing described later.

送信部151は、種々の情報を送信する。例えば、送信部151は、入力部13により受け付けたユーザからの入力に従って、所定の情報を外部装置へ送信する。例えば、送信部151は、所定のマイクロフォン等により検知したユーザの発話に応じて、所定の情報を外部装置へ送信する。例えば、送信部151は、起動したアプリにより各種情報を判定装置100へ送信する。図1の例では、送信部151は、ユーザU1の発話PA11に関する情報を判定装置100へ送信する。図1の例では、送信部151は、取得した発話PA11の音声情報を入力情報として判定装置100に送信する。また、図1の例では、送信部151は、センサ装置20から受信した画像情報IM11を判定装置100へ送信する。また、図1の例では、送信部151は、センサ装置20から受信した画像情報IM21を判定装置100へ送信する。   The transmission unit 151 transmits various information. For example, the transmission unit 151 transmits predetermined information to the external device in accordance with the input from the user received by the input unit 13. For example, the transmission unit 151 transmits predetermined information to the external device according to the user's utterance detected by a predetermined microphone or the like. For example, the transmission unit 151 transmits various types of information to the determination apparatus 100 using the activated application. In the example of FIG. 1, the transmission unit 151 transmits information regarding the utterance PA11 of the user U1 to the determination device 100. In the example of FIG. 1, the transmission unit 151 transmits the acquired voice information of the utterance PA11 to the determination apparatus 100 as input information. In the example of FIG. 1, the transmission unit 151 transmits the image information IM11 received from the sensor device 20 to the determination device 100. In the example of FIG. 1, the transmission unit 151 transmits the image information IM21 received from the sensor device 20 to the determination device 100.

受信部152は、種々の情報を受信する。受信部152は、判定装置100やセンサ装置20等から種々の情報を受信する。図1の例では、受信部152は、センサ装置20から画像情報IM11を受信する。また、図1の例では、受信部152は、センサ装置20から画像情報IM21を受信する。また、図1の例では、受信部152は、判定装置100から第1フェーズ情報OP1を受信する。また、図1の例では、受信部152は、判定装置100から第2フェーズ情報OP2を受信する。また、図1の例では、受信部152は、「肉じゃがを作ります」という発話PA11を入力として受信(取得)する。   The receiving unit 152 receives various information. The receiving unit 152 receives various information from the determination device 100, the sensor device 20, and the like. In the example of FIG. 1, the reception unit 152 receives image information IM11 from the sensor device 20. In the example of FIG. 1, the reception unit 152 receives image information IM <b> 21 from the sensor device 20. In the example of FIG. 1, the reception unit 152 receives the first phase information OP <b> 1 from the determination device 100. In the example of FIG. 1, the reception unit 152 receives the second phase information OP2 from the determination device 100. In the example of FIG. 1, the reception unit 152 receives (acquires) the utterance PA11 “Meat potato is made” as an input.

出力部153は、種々の情報を出力する。出力部153は、スピーカ等により音声として出力する。また、例えば、出力部153は、表示部14により文字情報や画像情報として表示してもよい。   The output unit 153 outputs various information. The output unit 153 outputs the sound through a speaker or the like. Further, for example, the output unit 153 may be displayed as character information or image information by the display unit 14.

例えば、出力部153は、判定装置100により判定された作業中フェーズに関する情報を出力する。例えば、出力部153は、作業中フェーズに関する情報を音声情報として出力する。例えば、出力部153は、作業中フェーズにおける作業内容に関する情報を出力する。図1の例では、出力部153は、第1フェーズ情報OP1である「肉、じゃがいも…を用意してください」を音声として出力する。また、図1の例では、出力部153は、第2フェーズ情報OP2である「肉を一口大に切ってください」を音声として出力する。   For example, the output unit 153 outputs information regarding the working phase determined by the determination device 100. For example, the output unit 153 outputs information related to the working phase as audio information. For example, the output unit 153 outputs information on the work content in the work phase. In the example of FIG. 1, the output unit 153 outputs the first phase information OP1 “Please prepare meat, potatoes ...” as a sound. In the example of FIG. 1, the output unit 153 outputs the second phase information OP2 “Please cut the meat into a bite” as sound.

例えば、出力部153は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力する。例えば、出力部153は、判定装置100による作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力する。例えば、出力部153は、ユーザに作業の進行を促す情報を出力する。なお、これらの点についての詳細は後述する。   For example, the output unit 153 outputs warning information when the user performs a work different from the work content in the working phase. For example, the output unit 153 outputs warning information when a predetermined period elapses without the transition to the next phase or the completion of the work after the determination apparatus 100 determines the in-work phase. For example, the output unit 153 outputs information that prompts the user to proceed with work. Details of these points will be described later.

なお、上述した制御部15による出力処理等の処理は、例えば、JavaScript(登録商標)などの所定の制御情報により実現されてもよい。また、上述した出力処理が所定のアプリケーション(例えば料理支援アプリ等)により行われる場合や出力処理が専用アプリにより行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。   Note that the processing such as output processing by the control unit 15 described above may be realized by predetermined control information such as JavaScript (registered trademark). In addition, when the output process described above is performed by a predetermined application (for example, a cooking support application) or when the output process is performed by a dedicated application, the control unit 15 performs, for example, application control for controlling the predetermined application or the dedicated application. You may have a part.

〔4.判定処理のフロー〕
次に、図7を用いて、実施形態に係る判定システム1による判定処理の手順について説明する。図7は、実施形態に係る判定処理の一例を示すフローチャートである。
[4. (Judgment process flow)
Next, the procedure of determination processing by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the determination process according to the embodiment.

図7に示すように、判定システム1は、料理が指定されたかどうかを判定する(ステップS101)。例えば、判定システム1は、ユーザの発話を検知した端末装置10から取得したユーザの発話に関する情報に基づいて、ユーザにより料理が指定されたかどうかを判定する。料理が指定されていないと判定した場合(ステップS101:No)、判定システム1は、ステップS101の処理を繰り返す。   As shown in FIG. 7, the determination system 1 determines whether or not a dish has been designated (step S101). For example, the determination system 1 determines whether a user has specified a dish based on information related to the user's utterance acquired from the terminal device 10 that has detected the user's utterance. If it is determined that the dish is not specified (step S101: No), the determination system 1 repeats the process of step S101.

一方、料理が指定されたと判定した場合(ステップS101:Yes)、判定システム1は、作業情報を取得する。例えば、判定システム1は、作業情報記憶部121(図4参照)に記憶された作業情報のうち、料理指定情報に対応する作業情報を取得する(ステップS102)。   On the other hand, when it determines with cooking having been designated (step S101: Yes), the determination system 1 acquires work information. For example, the determination system 1 acquires work information corresponding to the dish designation information among the work information stored in the work information storage unit 121 (see FIG. 4) (step S102).

そして、判定システム1は、第1フェーズを作業中フェーズに設定する(ステップS103)。そして、判定システム1は、作業中フェーズの情報を出力する(ステップS104)。図1の例では、判定システム1の端末装置10は、第1フェーズ情報OP1である「肉、じゃがいも…を用意してください」を音声として出力する。   Then, the determination system 1 sets the first phase as a working phase (step S103). Then, the determination system 1 outputs information on the working phase (step S104). In the example of FIG. 1, the terminal device 10 of the determination system 1 outputs the first phase information OP1 “Please prepare meat, potatoes ...” as a voice.

そして、判定システム1は、画像情報を取得する(ステップS105)。そして、判定システム1は、取得した画像情報に基づいて、作業中フェーズの作業が完了したかどうかを判定する(ステップS106)。作業中フェーズの作業が完了していないと判定した場合(ステップS106:No)、判定システム1は、ステップS105の処理を繰り返す。   Then, the determination system 1 acquires image information (step S105). Then, the determination system 1 determines whether the work in the work phase is completed based on the acquired image information (step S106). If it is determined that the work in the work phase is not completed (step S106: No), the determination system 1 repeats the process of step S105.

一方、作業中フェーズの作業が完了したと判定した場合(ステップS106:Yes)、判定システム1は、全フェーズが完了したかどうかを判定する(ステップS107)。全フェーズが完了していないと判定した場合(ステップS107:No)、判定システム1は、作業中フェーズを次のフェーズに遷移する(ステップS108)。その後、判定システム1は、ステップS104に戻って処理を繰り返す。   On the other hand, when it is determined that the work in the work phase is completed (step S106: Yes), the determination system 1 determines whether all the phases are completed (step S107). When it is determined that all the phases are not completed (step S107: No), the determination system 1 shifts the working phase to the next phase (step S108). Thereafter, the determination system 1 returns to step S104 and repeats the process.

一方、全フェーズが完了したと判定した場合(ステップS107:Yes)、判定システム1は、処理を終了する。   On the other hand, when it determines with all the phases having been completed (step S107: Yes), the determination system 1 complete | finishes a process.

〔5.判定処理のフロー〕
次に、図8を用いて、実施形態に係る判定システム1による判定処理の手順について説明する。図8は、実施形態に係る判定処理の一例を示すシーケンス図である。
[5. (Judgment process flow)
Next, the procedure of determination processing by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 8 is a sequence diagram illustrating an example of the determination process according to the embodiment.

図8に示すように、判定装置100は、端末装置10から料理指定情報を取得する(ステップS201)。例えば、判定装置100は、ユーザの発話を検知した端末装置10から、ユーザの発話の内容に応じた料理指定情報を取得する。   As illustrated in FIG. 8, the determination device 100 acquires dish designation information from the terminal device 10 (step S201). For example, the determination apparatus 100 acquires cooking designation information corresponding to the content of the user's utterance from the terminal device 10 that has detected the user's utterance.

そして、判定装置100は、料理指定情報に基づいて作業情報を取得する(ステップS202)。例えば、判定装置100は、作業情報記憶部121(図4参照)に記憶された作業情報のうち、料理指定情報に対応する作業情報を取得する。   And the determination apparatus 100 acquires work information based on cooking designation information (step S202). For example, the determination apparatus 100 acquires work information corresponding to dish designation information among the work information stored in the work information storage unit 121 (see FIG. 4).

また、判定装置100は、作業情報のうち、第1フェーズ情報を端末装置10へ提供する(ステップS203)。図1の例では、判定装置100は、出力情報記憶部122(図5参照)に記憶された出力情報のうち、第1フェーズ情報OP1を端末装置10へ提供する。   Moreover, the determination apparatus 100 provides the first phase information among the work information to the terminal device 10 (step S203). In the example of FIG. 1, the determination device 100 provides the first phase information OP <b> 1 among the output information stored in the output information storage unit 122 (see FIG. 5) to the terminal device 10.

判定装置100から第1フェーズ情報を受信した端末装置10は、第1フェーズ情報を出力する(ステップS204)。図1の例では、端末装置10は、第1フェーズ情報OP1である「肉、じゃがいも…を用意してください」を音声として出力する。   The terminal device 10 that has received the first phase information from the determination device 100 outputs the first phase information (step S204). In the example of FIG. 1, the terminal device 10 outputs the first phase information OP1 “Please prepare meat, potatoes ...” as a voice.

そして、端末装置10は、画像情報をセンサ装置20から受信する(ステップS205)。図1の例では、端末装置10は、ユーザが装着したメガネ型の撮像装置であるセンサ装置20から送信される画像情報を受信する。例えば、端末装置10は、センサ装置20に画像情報を送信するように指示することにより、センサ装置20から送信される画像情報を受信してもよい。   Then, the terminal device 10 receives image information from the sensor device 20 (step S205). In the example of FIG. 1, the terminal device 10 receives image information transmitted from a sensor device 20 that is a glasses-type imaging device worn by a user. For example, the terminal device 10 may receive the image information transmitted from the sensor device 20 by instructing the sensor device 20 to transmit the image information.

そして、センサ装置20から画像情報を受信した端末装置10は、画像情報を判定装置100へ送信する(ステップS206)。図1の例では、端末装置10は、肉MT1やじゃがいもPT1や玉ねぎON1等を含む画像情報IM11を判定装置100へ送信する。   And the terminal device 10 which received image information from the sensor apparatus 20 transmits image information to the determination apparatus 100 (step S206). In the example of FIG. 1, the terminal device 10 transmits image information IM11 including meat MT1, potato PT1, onion ON1, and the like to the determination device 100.

端末装置10から画像情報を取得した判定装置100は、画像情報に基づいて判定処理を行う(ステップS207)。図1の例では、判定装置100は、肉MT1やじゃがいもPT1や玉ねぎON1等を含む画像情報IM11に基づいて、ユーザU1が第1フェーズを完了したかどうかを判定する。そして、判定装置100は、ユーザU1が第1フェーズを完了したと判定した場合、第1フェーズの次の第2フェーズへ遷移し、端末装置10に第2フェーズ情報OP2を提供する。また、判定装置100は、ユーザU1が第1フェーズを完了していないと判定した場合、所定の情報を提供したり、次の画像情報を取得するまで待機したりする。なお、判定装置100は、第2フェーズ以降も同様の判定処理を行うため、説明を省略する。   The determination apparatus 100 that has acquired the image information from the terminal device 10 performs a determination process based on the image information (step S207). In the example of FIG. 1, the determination apparatus 100 determines whether the user U1 has completed the first phase based on the image information IM11 including the meat MT1, potato PT1, onion ON1, and the like. If the determination device 100 determines that the user U1 has completed the first phase, the determination device 100 transitions to the second phase next to the first phase, and provides the terminal device 10 with the second phase information OP2. If the determination device 100 determines that the user U1 has not completed the first phase, the determination device 100 provides predetermined information or waits until the next image information is acquired. Note that the determination apparatus 100 performs the same determination process in the second and subsequent phases, and thus the description thereof is omitted.

〔6.作業の誤り出力〕
なお、判定システム1は、ユーザの作業内容に応じて、各種情報を出力してもよい。例えば、判定装置100は、ユーザの作業内容が作業中フェーズの内容と異なる場合、所定の警告を出力してもよい。この点について、図9を基に説明する。図9は、実施形態に係る判定システムにおける作業誤りの通知の一例を示す図である。なお、図9において、図1と同様の点については、適宜説明を省略する。
[6. Operation error output)
Note that the determination system 1 may output various types of information according to the user's work content. For example, the determination device 100 may output a predetermined warning when the user's work content is different from the content of the working phase. This point will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of work error notification in the determination system according to the embodiment. In FIG. 9, the description of the same points as in FIG. 1 will be omitted as appropriate.

端末装置10−3は、図1中の端末装置10−3に対応する。また、出力記憶部121−2は、図1中の出力記憶部121−2に対応する。また、図9の例では、所定の警告情報を出力情報として含む出力情報記憶部122Aを示す。なお、上記の点以外は、出力情報記憶部122Aは出力情報記憶部122と同様である。図9の例では、ユーザの作業中フェーズが肉じゃがの第2フェーズである場合を示す。   The terminal device 10-3 corresponds to the terminal device 10-3 in FIG. The output storage unit 121-2 corresponds to the output storage unit 121-2 in FIG. In the example of FIG. 9, an output information storage unit 122A that includes predetermined warning information as output information is shown. Except for the above points, the output information storage unit 122A is the same as the output information storage unit 122. The example of FIG. 9 shows a case where the user's working phase is the second phase of meat potato.

まず、図9の例では、まな板CB上で玉ねぎON1を玉ねぎON1−1、ON1−2に切った状態を示し、センサ装置20は、その状況を撮像した画像情報IM31を端末装置10に送信する。そして、端末装置10−3は、画像情報IM31を受信する(ステップS31)。その後、端末装置10−3は、画像情報IM31を判定装置100に送信する(ステップS32)。   First, the example of FIG. 9 shows a state in which the onion ON1 is cut into the onions ON1-1 and ON1-2 on the cutting board CB, and the sensor device 20 transmits image information IM31 obtained by imaging the situation to the terminal device 10. . Then, the terminal device 10-3 receives the image information IM31 (Step S31). Thereafter, the terminal device 10-3 transmits the image information IM31 to the determination device 100 (step S32).

端末装置10−3から画像情報IM31を取得した判定装置100は、ユーザU1の作業中フェーズを判定する(ステップS33)。例えば、判定装置100は、その時点における作業中フェーズである肉じゃがの第2フェーズに関する判定情報「DCK1−2」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。   The determination apparatus 100 that has acquired the image information IM31 from the terminal device 10-3 determines the working phase of the user U1 (step S33). For example, the determination apparatus 100 determines the working phase of the user U1 based on the determination information “DCK1-2” (see FIG. 4) regarding the second phase of meat potato that is the working phase at that time.

例えば、判定情報「DCK1−2」には、肉MT1が一口大に成形された状態の画像情報が含まれており、判定装置100は、端末装置10−3から取得した画像情報IM31と、判定情報「DCK1−2」に含まれる画像情報等を比較することにより、肉MT1が一口大に切られているかを判定するものとする。図9の例では、画像情報IM31には、肉MT1ではない玉ねぎON1が2つに切られた玉ねぎON1−1、ON1−2が含まれているため、判定装置100は、ユーザU1が第2フェーズとは異なる作業を行っていると判定する。すなわち、判定装置100は、作業中フェーズが第2フェーズのままであり、第2フェーズが完了していないと判定する。   For example, the determination information “DCK1-2” includes image information in a state in which the meat MT1 is formed into a bite size, and the determination device 100 determines whether the image information IM31 acquired from the terminal device 10-3 and the determination information It is determined whether or not the meat MT1 is cut into a bite by comparing image information included in the information “DCK1-2”. In the example of FIG. 9, since the image information IM31 includes onions ON1-1 and ON1-2 in which the onions ON1 that are not meat MT1 are cut into two, the determination device 100 determines that the user U1 is the second one. It is determined that the work different from the phase is being performed. That is, the determination apparatus 100 determines that the working phase remains the second phase and the second phase is not completed.

そのため、図9の例では、判定装置100は、作業情報記憶部121−2に示すように、ユーザU1の作業中フェーズが第2フェーズのままであると判定したため、作業中フェーズを第2フェーズのままにする。また、判定装置100は、上記の判定に基づいて、ユーザU1の作業内容が誤りであると判定する。   Therefore, in the example of FIG. 9, the determination apparatus 100 determines that the in-working phase of the user U1 remains the second phase as illustrated in the work information storage unit 121-2, and therefore determines the in-working phase as the second phase. Leave. Moreover, the determination apparatus 100 determines that the work content of the user U1 is incorrect based on the above determination.

そして、判定装置100は、全フェーズに対応する出力情報を端末装置10−3に提供する(ステップS34)。図9の例では、判定装置100は、出力情報記憶部122Aに示すように、全フェーズに対応する出力情報である出力ID「ER1」により識別される「作業内容が違うようです」という内容の出力情報(警告情報ER1)を端末装置10−3に提供する。そして、警告情報ER1を受信した端末装置10は、警告情報ER1を音声として出力する(ステップS35)。図9の例では、端末装置10−4は、スピーカやユーザU1が耳に着けているイヤフォンにより警告情報ER1を音声として出力する。警告情報ER1に含まれる「作業内容が違うようです」という音声により、ユーザU1は、自身の作業が誤っていることを認識することができ、作業を適切に変更することができる。   And the determination apparatus 100 provides the output information corresponding to all the phases to the terminal device 10-3 (step S34). In the example of FIG. 9, the determination device 100 has a content of “work content seems to be different” identified by the output ID “ER1” which is output information corresponding to all phases, as shown in the output information storage unit 122A. Output information (warning information ER1) is provided to the terminal device 10-3. And the terminal device 10 which received warning information ER1 outputs warning information ER1 as an audio | voice (step S35). In the example of FIG. 9, the terminal device 10-4 outputs the warning information ER <b> 1 as sound using a speaker or an earphone worn by the user U <b> 1. The voice “The work contents seem to be different” included in the warning information ER1 enables the user U1 to recognize that his / her work is wrong, and can appropriately change the work.

〔7.効果〕
上述してきたように、実施形態に係る判定システム1は、取得部131と、判定部132とを有する。取得部131は、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する。判定部132は、取得部131により取得された画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定する。
[7. effect〕
As described above, the determination system 1 according to the embodiment includes the acquisition unit 131 and the determination unit 132. The acquisition unit 131 acquires image information relating to a user who performs a work including a plurality of phases, each of which includes work contents associated with each other, and in which the order between the phases is determined in advance. The determination unit 132 determines a working phase that is a phase in the user's work based on the image information acquired by the acquiring unit 131 and information on a plurality of phases.

これにより、実施形態に係る判定システム1は、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   As a result, the determination system 1 according to the embodiment provides appropriate assistance to a user who performs work by determining a working phase that is a phase in the user's work based on the image information and information on the plurality of phases. Can be possible.

また、実施形態に係る判定システム1において、取得部131は、ユーザの視線方向に関する画像情報を取得する。   In the determination system 1 according to the embodiment, the acquisition unit 131 acquires image information related to the user's line-of-sight direction.

これにより、実施形態に係る判定システム1は、ユーザの視線方向に関する画像情報を取得することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment can enable appropriate assistance to a user who performs work by acquiring image information related to the user's line-of-sight direction.

また、実施形態に係る判定システム1において、取得部131は、ユーザの手元に関する画像情報を取得する。   In the determination system 1 according to the embodiment, the acquisition unit 131 acquires image information related to the user's hand.

これにより、実施形態に係る判定システム1は、ユーザの手元に関する画像情報を取得することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment can enable appropriate assistance for the user who performs the work by acquiring the image information regarding the user's hand.

また、実施形態に係る判定システム1において、取得部131は、ユーザが装着したウェアラブル端末(実施形態においては「センサ装置20」。以下同じ)により画像情報を取得する。   In the determination system 1 according to the embodiment, the acquisition unit 131 acquires image information from a wearable terminal worn by the user (in the embodiment, “sensor device 20”; the same applies hereinafter).

これにより、実施形態に係る判定システム1は、ユーザのウェアラブル端末から画像情報を取得することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment can enable appropriate assistance for the user who performs the work by acquiring the image information from the wearable terminal of the user.

また、実施形態に係る判定システム1は、出力部153を有する。出力部153は、判定部132により判定された作業中フェーズに関する情報を出力する。   In addition, the determination system 1 according to the embodiment includes an output unit 153. The output unit 153 outputs information related to the working phase determined by the determination unit 132.

これにより、実施形態に係る判定システム1は、作業中フェーズに関する情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment can appropriately assist the user who performs the work by outputting information on the working phase.

また、実施形態に係る判定システム1において、出力部153は、作業中フェーズに関する情報を音声情報として出力する。   Further, in the determination system 1 according to the embodiment, the output unit 153 outputs information related to the working phase as audio information.

これにより、実施形態に係る判定システム1は、作業中フェーズに関する情報を音声情報として出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Accordingly, the determination system 1 according to the embodiment can appropriately assist the user who performs the work by outputting the information related to the working phase as audio information.

また、実施形態に係る判定システム1において、出力部153は、作業中フェーズにおける作業内容に関する情報を出力する。   Further, in the determination system 1 according to the embodiment, the output unit 153 outputs information on the work content in the working phase.

これにより、実施形態に係る判定システム1は、作業中フェーズにおける作業内容に関する情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment can appropriately assist the user who performs the work by outputting information on the work content in the working phase.

また、実施形態に係る判定システム1において、出力部153は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力する。   In the determination system 1 according to the embodiment, the output unit 153 outputs warning information when the user performs a work different from the work content in the work phase.

これにより、実施形態に係る判定システム1は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment enables appropriate assistance to the user who performs the work by outputting the warning information when the user performs a work different from the work content in the work phase. Can do.

また、実施形態に係る判定システム1において、出力部153は、判定部132による作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力する。   Further, in the determination system 1 according to the embodiment, the output unit 153 displays warning information when a predetermined period has elapsed without the transition to the next phase or the completion of the operation after the determination unit 132 determines the in-work phase. Output.

これにより、実施形態に係る判定システム1は、作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment performs the operation by outputting the warning information when the predetermined period has elapsed without the transition to the next phase or the completion of the operation after the determination of the in-operation phase. Appropriate assistance for the user can be made possible.

また、実施形態に係る判定システム1において、出力部153は、ユーザに作業の進行を促す情報を出力する。   In the determination system 1 according to the embodiment, the output unit 153 outputs information that prompts the user to proceed with work.

これにより、実施形態に係る判定システム1は、ユーザに作業の進行を促す情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 according to the embodiment can appropriately assist the user who performs the work by outputting information that prompts the user to proceed with the work.

また、実施形態に係る判定システム1において、取得部131は、複数のフェーズを含む料理を行うユーザに関する画像情報を取得する。判定部132は、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの料理における作業中フェーズを判定する。   In the determination system 1 according to the embodiment, the acquisition unit 131 acquires image information related to a user who performs cooking including a plurality of phases. The determination unit 132 determines a working phase in the user's cooking based on the image information and information regarding a plurality of phases.

これにより、実施形態に係る判定システム1は、料理を行うユーザに対する適切なアシストを可能にすることができる。   Thereby, the determination system 1 which concerns on embodiment can enable suitable assistance with respect to the user who cooks.

〔8.ハードウェア構成〕
上述してきた実施形態に係る判定装置100や端末装置10は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、判定装置及び端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration)
The determination device 100 and the terminal device 10 according to the above-described embodiments are realized by a computer 1000 having a configuration as shown in FIG. 10, for example. FIG. 10 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the determination device and the terminal device. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the network N and sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to other devices via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る判定装置100や端末装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130や制御部15の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the determination device 100 or the terminal device 10 according to the embodiment, the CPU 1100 of the computer 1000 executes the program loaded on the RAM 1200 to thereby execute the functions of the control unit 130 and the control unit 15. Realize. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them. However, as another example, these programs may be acquired from other devices via the network N.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. It is possible to implement the present invention in other forms with improvements.

〔9.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[9. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上述してきた各実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the processes described in the embodiments described above can be appropriately combined within a range in which the process contents are not contradictory.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 判定システム
100 判定装置
121 作業情報記憶部
122 出力情報記憶部
130 制御部
131 取得部
132 判定部
133 提供部
10 端末装置
15 制御部
151 送信部
152 受信部
153 出力部
20 センサ装置
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Determination system 100 Determination apparatus 121 Work information storage part 122 Output information storage part 130 Control part 131 Acquisition part 132 Determination part 133 Provision part 10 Terminal device 15 Control part 151 Transmission part 152 Reception part 153 Output part 20 Sensor apparatus N Network

Claims (13)

作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する取得部と、
前記取得部により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定部と、
を備えることを特徴とする判定システム。
An acquisition unit that acquires image information related to a user who performs a work including a plurality of phases in which work contents are associated with each of the phases and the order between the phases is determined in advance;
A determination unit that determines a working phase that is a phase in the user's work based on the image information acquired by the acquiring unit and information on the plurality of phases;
A determination system comprising:
前記取得部は、
前記ユーザの視線方向に関する前記画像情報を取得する
ことを特徴とする請求項1に記載の判定システム。
The acquisition unit
The determination system according to claim 1, wherein the image information related to a visual line direction of the user is acquired.
前記取得部は、
前記ユーザの手元に関する前記画像情報を取得する
ことを特徴とする請求項1または請求項2に記載の判定システム。
The acquisition unit
The determination system according to claim 1, wherein the image information relating to the hand of the user is acquired.
前記取得部は、
前記ユーザが装着したウェアラブル端末により前記画像情報を取得する
ことを特徴とする請求項1〜3のいずれか1項に記載の判定システム。
The acquisition unit
The determination system according to any one of claims 1 to 3, wherein the image information is acquired by a wearable terminal worn by the user.
前記判定部により判定された前記作業中フェーズに関する情報を出力する出力部
をさらに備えたことを特徴とする請求項1〜4のいずれか1項に記載の判定システム。
The determination system according to any one of claims 1 to 4, further comprising an output unit that outputs information on the working phase determined by the determination unit.
前記出力部は、
前記作業中フェーズに関する情報を音声情報として出力する
ことを特徴とする請求項5に記載の判定システム。
The output unit is
The determination system according to claim 5, wherein information regarding the working phase is output as voice information.
前記出力部は、
前記作業中フェーズにおける作業内容に関する情報を出力する
ことを特徴とする請求項5または請求項6に記載の判定システム。
The output unit is
The determination system according to claim 5 or 6, wherein information regarding work contents in the work phase is output.
前記出力部は、
前記ユーザが前記作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力する
ことを特徴とする請求項5〜7のいずれか1項に記載の判定システム。
The output unit is
The determination system according to any one of claims 5 to 7, wherein warning information is output when the user performs an operation different from the operation content in the in-operation phase.
前記出力部は、
前記判定部による前記作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力する
ことを特徴とする請求項5〜8のいずれか1項に記載の判定システム。
The output unit is
9. The warning information is output when a predetermined period has elapsed without the transition to the next phase or the completion of the work after the judgment unit has judged the in-work phase. The determination system according to item 1.
前記出力部は、
前記ユーザに作業の進行を促す情報を出力する
ことを特徴とする請求項5〜9のいずれか1項に記載の判定システム。
The output unit is
The determination system according to any one of claims 5 to 9, wherein information prompting the user to proceed with work is output.
前記取得部は、
前記複数のフェーズを含む料理を行うユーザに関する前記画像情報を取得し、
前記判定部は、
前記画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの料理における前記作業中フェーズを判定する
ことを特徴とする請求項1〜10のいずれか1項に記載の判定システム。
The acquisition unit
Obtaining the image information about a user who cooks including the plurality of phases;
The determination unit
The determination system according to any one of claims 1 to 10, wherein the in-work phase of the user's dish is determined based on the image information and information on the plurality of phases.
コンピュータが実行する判定方法であって、
作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する取得工程と、
前記取得工程により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定工程と、
を含むことを特徴とする判定方法。
A determination method executed by a computer,
An acquisition step of acquiring image information relating to a user who performs a work including a plurality of phases in which work contents are associated with each of the phases and the order between the phases is determined in advance;
A determination step of determining a working phase that is a phase in the user's work, based on the image information obtained by the obtaining step and information on the plurality of phases;
The determination method characterized by including.
作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する取得手順と、
前記取得手順により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定手順と、
をコンピュータに実行させることを特徴とする判定プログラム。
An acquisition procedure for acquiring image information relating to a user who performs a work including a plurality of phases in which work contents are associated with each of the phases and the order between the phases is determined in advance;
A determination procedure for determining a working phase that is a phase in the user's work based on the image information obtained by the obtaining procedure and information on the plurality of phases;
The determination program characterized by causing a computer to execute.
JP2016248208A 2016-12-21 2016-12-21 Judgment system, judgment method, and judgment program Active JP6719373B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016248208A JP6719373B2 (en) 2016-12-21 2016-12-21 Judgment system, judgment method, and judgment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016248208A JP6719373B2 (en) 2016-12-21 2016-12-21 Judgment system, judgment method, and judgment program

Publications (2)

Publication Number Publication Date
JP2018101353A true JP2018101353A (en) 2018-06-28
JP6719373B2 JP6719373B2 (en) 2020-07-08

Family

ID=62715465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016248208A Active JP6719373B2 (en) 2016-12-21 2016-12-21 Judgment system, judgment method, and judgment program

Country Status (1)

Country Link
JP (1) JP6719373B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166782A (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system and information provision method
WO2020202825A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
US11341714B2 (en) 2018-07-31 2022-05-24 Information System Engineering Inc. Information service system and information service method
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
WO2016084142A1 (en) * 2014-11-26 2016-06-02 株式会社日立製作所 Work assistance system and work assistance method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
WO2016084142A1 (en) * 2014-11-26 2016-06-02 株式会社日立製作所 Work assistance system and work assistance method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11341714B2 (en) 2018-07-31 2022-05-24 Information System Engineering Inc. Information service system and information service method
JP2020166782A (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system and information provision method
WO2020202825A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
WO2020202824A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
JP2020166783A (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system and information provision method
US11520822B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11520823B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system
US11934446B2 (en) 2019-03-29 2024-03-19 Information System Engineering Inc. Information providing system

Also Published As

Publication number Publication date
JP6719373B2 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
JP6719373B2 (en) Judgment system, judgment method, and judgment program
CN106663245B (en) Social alerts
KR102438199B1 (en) Display device and method for changing settings of display device
JP6916167B2 (en) Interactive control methods and devices for voice and video calls
TWI394410B (en) Method and system for filtering incoming messages to a mobile device
JP5735592B2 (en) Information processing apparatus, control method, and control program
US7787869B2 (en) Device, method, and computer program product for providing enhanced blogging features on a mobile phone
CN104935491B (en) A kind of method and device sending facial expression image
JP6212654B2 (en) User information acquisition method and apparatus
US10171985B1 (en) Method and apparatus for data sharing
KR101796400B1 (en) Information collection method, apparatus, program and recording medium
US9961267B2 (en) Personal camera companion for real-time streaming
CN110781408B (en) Information display method and device
JP2015201168A (en) Method and apparatus for prompting based on smart glasses
TW201407485A (en) Device for operating module identification information
JP6321523B2 (en) Cooking information providing method, control method, program, and terminal device
WO2016202074A1 (en) Method and apparatus for setting state of contact in address book
JP2016220183A (en) Information processing device, information processing system, and program
JP2017021650A (en) Cooking recipe creation method and program
EP3214527A1 (en) Electronic instrument and feedback provision method
JP2013226257A (en) Information provision system, information provision method, and electronic device
JP6354848B2 (en) Sensor management system, sensor management device, sensor device, sensor management method and program
US9979492B2 (en) Method of sharing and receiving information based on sound signal and apparatus using the same
EP3280149A1 (en) Method for providing additional contents at terminal, and terminal using same
EP3121698B1 (en) Data transfer system, display device, portable information terminal, data transfer method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200616

R150 Certificate of patent or registration of utility model

Ref document number: 6719373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350