JP2018101353A - Determination system, method for determination, and determination program - Google Patents
Determination system, method for determination, and determination program Download PDFInfo
- Publication number
- JP2018101353A JP2018101353A JP2016248208A JP2016248208A JP2018101353A JP 2018101353 A JP2018101353 A JP 2018101353A JP 2016248208 A JP2016248208 A JP 2016248208A JP 2016248208 A JP2016248208 A JP 2016248208A JP 2018101353 A JP2018101353 A JP 2018101353A
- Authority
- JP
- Japan
- Prior art keywords
- information
- phase
- determination
- user
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 45
- 230000007704 transition Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims 1
- 238000003860 storage Methods 0.000 description 91
- 235000013372 meat Nutrition 0.000 description 69
- 244000061456 Solanum tuberosum Species 0.000 description 53
- 235000002595 Solanum tuberosum Nutrition 0.000 description 53
- 238000010411 cooking Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 28
- 235000012015 potatoes Nutrition 0.000 description 21
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 241000234282 Allium Species 0.000 description 11
- 235000002732 Allium cepa var. cepa Nutrition 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 238000005520 cutting process Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 7
- 230000010365 information processing Effects 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 235000021186 dishes Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000009940 knitting Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Images
Abstract
Description
本発明は、判定システム、判定方法、及び判定プログラムに関する。 The present invention relates to a determination system, a determination method, and a determination program.
従来、ユーザが行っている作業や状況に応じてユーザに情報を提供する技術が提供されている。例えば、ユーザに拡張現実感のある案内を行う案内情報を提供するシステムが知られている。 2. Description of the Related Art Conventionally, there has been provided a technique for providing information to a user according to the work or situation that the user is performing. For example, a system that provides guidance information for performing guidance with augmented reality to a user is known.
しかしながら、上記の従来技術では、作業を行うユーザに対する適切なアシストを可能にすることが難しい場合がある。例えば、ユーザが所持する紙媒体を利用して情報を提供する場合、例えば紙媒体を手に持った状態で行うことが難しい作業等を行っているユーザに情報提供等のアシストを適切に行うことが難しい場合がある。 However, in the above-described conventional technology, it may be difficult to enable appropriate assistance for a user who performs work. For example, when providing information using a paper medium possessed by the user, for example, appropriately providing information assistance to a user who is performing a task that is difficult to perform while holding the paper medium in his / her hand May be difficult.
本願は、上記に鑑みてなされたものであって、作業を行うユーザに対する適切なアシストを可能にする判定システム、判定方法、及び判定プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide a determination system, a determination method, and a determination program that enable appropriate assistance for a user who performs work.
本願に係る判定システムは、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する取得部と、前記取得部により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定部と、を備えたことを特徴とする。 The determination system according to the present application includes: an acquisition unit configured to acquire image information related to a user who performs a work including a plurality of phases in which work contents are associated with each other and the order between the phases is determined in advance; A determination unit that determines a working phase that is a phase in the user's work based on the image information acquired by the acquiring unit and information on the plurality of phases.
実施形態の一態様によれば、作業を行うユーザに対する適切なアシストを可能にすることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that it is possible to enable appropriate assistance for a user who performs work.
以下に、本願に係る判定システム、判定方法、及び判定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る判定システム、判定方法、及び判定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for carrying out a determination system, a determination method, and a determination program according to the present application (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings. Note that the determination system, the determination method, and the determination program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
(実施形態)
〔1−1.判定処理〕
図1を用いて、実施形態に係る判定処理の一例について説明する。図1は、実施形態に係る判定処理の一例を示す図である。図1では、ユーザが行う作業が料理であり、判定システム1がユーザによる料理の作業をアシストする情報を出力する場合を示す。例えば、図1の例では、判定システム1が料理支援サービスを提供する場合を示す。具体的には、図1の例では、判定システム1がユーザから指定された料理に関する料理支援サービスを提供する場合を示す。なお、判定システム1が対象とする作業は料理に限らず、ユーザが行う作業であればどのような作業であってもよい。
(Embodiment)
[1-1. Determination process〕
An example of the determination process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a determination process according to the embodiment. FIG. 1 shows a case where the work performed by the user is cooking, and the
〔1−2.判定システムの構成〕
まず、図1及び図2に示す判定システム1について説明する。図2に示すように、判定システム1は、端末装置10と、センサ装置20と、判定装置100とが含まれる。端末装置10と、センサ装置20と、判定装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図2は、実施形態に係る判定システムの構成例を示す図である。なお、図2に示した判定システム1には、複数台の端末装置10や、複数台のセンサ装置20や複数台の判定装置100が含まれてもよい。
[1-2. (Configuration of judgment system)
First, the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、上述した端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。
The
図1に示す例において、端末装置10は、音声応答システム(音声認識)の機能を有し、ユーザが発する音声情報(以下、「発話」ともいう)を検知し、検知した発話を入力情報として受け付ける。例えば、端末装置10は、ユーザの発話に対して、処理を行う端末装置である。図1の例では、端末装置10は、ユーザによる発話を検知した場合、ユーザの発話に基づく入力情報を配信装置100へ送信したり、ユーザの発話に対応するコンテンツを表示したりする。
In the example shown in FIG. 1, the
センサ装置20は、所定の情報を検知する情報処理装置である。センサ装置20は、メガネ型端末や腕時計型端末等のウェアラブル端末であってもよい。図1の例では、センサ装置20は、ユーザU1が身に着けているメガネ型端末である場合を示す。図1の例では、センサ装置20は、撮像機能や通信機能を有する。例えば、センサ装置20は、CCD(Charge Coupled Device)等の撮像素子により実現されるカメラ機能やビデオ機能を有し、静止画像や動画像を撮像する。また、センサ装置20は、画像情報を端末装置10に送信する。なお、センサ装置20及び端末装置10間の通信は、例えばWiFi(登録商標)(Wireless Fidelity)やブルートゥース(登録商標)の機能により行われてもよいし、他の通信(近距離無線通信等)の機能により行われてもよい。
The
判定装置100は、ユーザの行動情報に基づいて、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定する情報処理装置である。例えば、判定装置100は、料理支援サービスを提供する情報処理装置であってもよい。
The
また、判定装置100は、音声認識の機能を有してもよい。また、判定装置100は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、判定システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、判定装置100や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを特定したりするものとして、音声認識の機能に関する説明を省略する。
The
ここから、図1に戻って、判定システム1による判定処理について説明する。図1の例では、ユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)が料理「肉じゃが」を作る作業を支援(アシスト)する場合を示す。図1では、ユーザU1が自宅等で判定システム1による料理支援サービスを利用する場合を示す。なお、以下では、判定システム1によりユーザが作業中であるフェーズと判定されたフェーズを「作業中フェーズ」と記載する場合がある。
From here, it returns to FIG. 1 and the determination process by the
また、図1では、判定が行われるタイミングや出力が行われるタイミング等に応じて、判定装置100を判定装置100−1〜100−3として説明する。すなわち、図1では、判定装置100−1、100−2、100−3の順で時間が経過していることを示す。なお、判定装置100−1〜100−3は同一の判定装置100である。また、以下では、判定装置100−1〜100−3について、特に区別することなく説明する場合には、判定装置100と記載する。
In FIG. 1, the
また、以下では、作業中フェーズに応じて、作業情報記憶部121を作業情報記憶部121−1〜121−3として説明する。すなわち、図1では、作業情報記憶部121−1、121−2、121−3の順で時間が経過していることを示す。また、作業情報記憶部121−1〜121−3は同一の作業情報記憶部121である。また、以下では、作業情報記憶部121−1〜121−3について、特に区別することなく説明する場合には、作業情報記憶部121と記載する。
In the following, the work
また、図1では、端末装置10を端末装置10−1〜10−3として説明する。すなわち、図1では、端末装置10−1、10−2、10−3の順で時間が経過していることを示す。なお、端末装置10−1〜10−3は同一の端末装置10である。また、以下では、端末装置10−1〜10−3について、特に区別することなく説明する場合には、端末装置10と記載する。
Moreover, in FIG. 1, the
例えば、図1の例では、作業情報記憶部121中のハッチングが付されたフェーズが作業中フェーズと判定されたフェーズであることを示す。例えば、作業情報記憶部121−2においては、第2フェーズにハッチングが付されているため、ユーザU1の肉じゃがを作る作業における作業中フェーズが第2フェーズであることを示す。なお、図1では、説明のために、作業中フェーズをハッチングにより図示するが、作業情報記憶部121には、作業中フェーズを識別するフラグ等の情報が記憶されてもよい。
For example, in the example of FIG. 1, the hatched phase in the work
また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理は、料理名「肉じゃが」であることを示す。また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理は、第1フェーズ〜第3フェーズを含む複数のフェーズを含むことを示す。また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理の第1フェーズは、内容が「材料を揃える」ことであることを示す。また、図1中の作業情報記憶部121は、料理ID「CK1」により識別される料理の第1フェーズは、対象が「肉、じゃがいも・・・」であることを示す。このように、作業情報記憶部121には、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズに関する情報等、ユーザの料理を支援するための各種情報が記憶される。例えば、図1中の作業情報記憶部121に示すように、各フェーズには、そのフェーズにおいて行われるべき作業内容が関連(タグ)付けされる。また、例えば、各フェーズは、第1フェーズ〜第20フェーズ等のように、各フェーズ間の順序が予め決められている。この場合、ユーザが、第1フェーズ、第2フェーズ、第3フェーズ、第4フェーズ・・・第20フェーズと、フェーズを示す数を昇順に作業を行うことにより、所望の料理が完成するように作業情報は構成される。これにより、ユーザは、第1フェーズを行った後に第2フェーズを行い、第2フェーズを行った後に第3フェーズを行い、第19フェーズを行った後に第20フェーズを行いといったように、各フェーズを順序通り作業を行うことにより、料理を作ることができる。以下、判定システム1がユーザによる料理の作業をアシストする情報を作業情報記憶部121に基づいて出力する処理について説明する。
Further, the work
まず、図1の例では、ユーザU1がキッチンKCにおいて料理を行う際に、端末装置10の周囲において、「肉じゃがを作ります」という発話PA11を行う。これにより、端末装置10−1は、「肉じゃがを作ります」という発話PA11を入力として取得する(ステップS11)。例えば、図1の例では、端末装置10−1は、ユーザU1の発話を検知可能なキッチンKCの周囲に配置され、判定システム1による料理支援サービスに関するアプリケーション(以下、「料理支援アプリ」ともいう)が起動されているものとする。
First, in the example of FIG. 1, when the user U1 cooks in the kitchen KC, the utterance PA11 “make meat potatoes” is performed around the
なお、ユーザU1は、端末装置10に表示された料理支援アプリのアイコンを押下したり、所定の発話を行ったりすることにより、料理支援アプリを起動してもよい。例えば、ユーザU1は、「料理支援アプリXXを起動」や「はい、XX」や「オーケー、XX」等のアプリを起動させる所定の発話を行うことにより、アプリを起動させてもよい。そして、端末装置10−1は、取得した発話PA11の音声情報を入力情報として判定装置100に送信する(ステップS12)。
Note that the user U1 may activate the cooking support application by pressing an icon of the cooking support application displayed on the
なお、端末装置10は、発話PA11の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA11の文字情報を取得し、取得した文字情報を判定装置100へ送信してもよい。この場合、端末装置10は、取得した発話PA11を行ったユーザがユーザU1であることを示す情報を判定装置100に送信してもよい。また、端末装置10が音声認識機能を有する場合、端末装置10は、判定装置100に送信することを要する入力情報のみを判定装置100に送信してもよい。
Note that the
端末装置10から発話PA11の音声情報を取得した判定装置100は、発話PA11に料理の指定に関する情報(以下、「料理指定情報」ともいう)が含まれているかどうかを判定する(ステップS13)。例えば、判定装置100は、受け付けた発話PA11の音声情報を解析することにより、発話PA11に料理指定情報が含まれているかどうかを判定する。例えば、判定装置100は、料理支援サービスにおいて対象とする料理名のリストと発話PA11に含まれる文字列とを比較することにより、発話PA11に料理指定情報が含まれるかどうかを判定する。なお、ユーザの発話に料理指定情報が含まれるかどうかの判定は、判定装置100が行ってもよいし、他の装置が行ってもよい。ユーザの発話に料理指定情報が含まれるかどうかの判定を他の装置が行う場合、判定装置100は発話PA11に料理指定情報が含まれるかどうかの判定結果や指定された料理名に関する情報を他の装置から取得するものとする。
The
図1の例では、判定装置100は、受け付けた発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、発話PA11にユーザU1が肉じゃがを作ろうとしていることを示す内容が含まれると判定する。例えば、判定装置100は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザU1が肉じゃがを作ろうとしていることを特定する。すなわち、判定装置100は、発話PA11を行ったユーザU1から料理名「肉じゃが」に関する料理指定情報を受け付ける。
In the example of FIG. 1, the
例えば、図1中の作業情報記憶部121−1に示すように、ユーザU1の発話PA11により、判定装置100は、料理ID「CK1」により識別される料理名「肉じゃが」を対象に料理支援サービスに関する情報等を提供する。例えば、判定装置100は、出力情報記憶部122に記憶された出力情報を端末装置10に提供する。
For example, as illustrated in the work information storage unit 121-1 in FIG. 1, the
図1中の出力情報記憶部122は、ユーザU1が肉じゃがを作る場合、第1フェーズでは、出力ID「OP1」により識別される「肉、じゃがいも…を用意してください」といった内容の出力情報(以下、「第1フェーズ情報OP1」ともいう)を提供することを示す。また、図1中の出力情報記憶部122は、ユーザU1が肉じゃがを作る場合、第2フェーズでは、出力ID「OP2」により識別される「肉を一口大に切ってください」といった内容の出力情報(以下、「第2フェーズ情報OP2」ともいう)を提供することを示す。
In the first phase, when the user U1 makes meat potatoes, the output
また、以下では、提供する出力情報に応じて、出力情報記憶部122を出力情報記憶部122−1〜122−3として説明する。なお、出力情報記憶部122−1〜122−3は同一の出力情報記憶部122である。また、以下では、出力情報記憶部122−1〜122−3について、特に区別することなく説明する場合には、出力情報記憶部122と記載する。
Hereinafter, the output
図1の例では、判定装置100は、作業情報記憶部121−1に示すように、ユーザU1が作る料理が肉じゃがであると判定したため、肉じゃがの第1フェーズを作業中フェーズに設定する。そして、判定装置100は、作業中フェーズに対応する出力情報を端末装置10−1に提供する(ステップS14)。図1の例では、判定装置100は、出力情報記憶部122−1に示すように、作業中フェーズである第1フェーズに対応する「肉、じゃがいも…を用意してください」という内容の第1フェーズ情報OP1を端末装置10に提供する。
In the example of FIG. 1, the
そして、第1フェーズ情報OP1を受信した端末装置10は、第1フェーズ情報OP1を音声として出力する(ステップS15)。なお、端末装置10は、スピーカにより音声を出力してもよいし、ユーザU1がイヤフォンを耳に着けている場合、そのイヤフォンに第1フェーズ情報OP1を送信することにより、イヤフォンが第1フェーズ情報OP1を音声として出力してもよい。すなわち、第1フェーズ情報OP1は、ユーザU1に音声として伝達可能であれば、どのような形態により音声として出力されてもよい。また、端末装置10は、第1フェーズ情報OP1を文字情報として画面に表示してもよい。
And the
そして、第1フェーズ情報OP1に含まれる「肉、じゃがいも…を用意してください」という音声により第1フェーズの作業内容を認識したユーザU1は、その音声の内容に従って、肉やじゃがいもを準備することとなる。また、図1の例では、ユーザU1は、メガネ型端末であるセンサ装置20を身に着けており、センサ装置20は、撮像機能により画像を撮像する。すなわち、センサ装置20は、ユーザの視線方向を撮像する。また、センサ装置20は、メガネ型端末であるため、ユーザが手を使った作業を行う場合、ユーザが注視するユーザの手元を撮像することとなる。
Then, the user U1 who has recognized the work contents of the first phase with the voice “please prepare meat, potatoes ...” included in the first phase information OP1 prepares meat and potatoes according to the contents of the sounds. It becomes. In the example of FIG. 1, the user U1 wears a
なお、センサ装置20は、動画像を撮像してもよいし、所定の間隔で画像を撮像してもよい。また、センサ装置20は、撮像した画像情報を端末装置10に送信する。なお、センサ装置20は、撮像した全情報を端末装置10に送信してもよいし、動画像を撮像する場合、所定のフレームレートで抽出した画像情報を端末装置10に送信してもよい。
The
図1中のステップS15後のユーザU1(図1中央のユーザU1)が、肉MT1、じゃがいもPT1、及び玉ねぎON1を準備した状態を示し、センサ装置20は、その状況を撮像した画像情報IM11を端末装置10−2に送信する。そして、端末装置10−2は、画像情報IM11を受信する(ステップS16)。例えば、端末装置10は、センサ装置20に画像情報を送信するように指示することにより、センサ装置20から送信される画像情報IM11を受信してもよい。このように、センサ装置20は、端末装置10からの指示に応じて、端末装置10に画像情報IM11を送信してもよい。その後、端末装置10−2は、画像情報IM11を判定装置100に送信する(ステップS17)。なお、端末装置10は、センサ装置20が撮像した全情報をセンサ装置20から受信する場合、所定の間隔(フレームレート等)で抽出した画像情報を判定装置100に送信してもよい。
FIG. 1 shows a state where the user U1 (user U1 in the center of FIG. 1) has prepared meat MT1, potato PT1, and onion ON1, and the
端末装置10−2から画像情報IM11を取得した判定装置100は、ユーザU1の作業中フェーズを判定する(ステップS18)。例えば、判定装置100は、その時点における作業中フェーズである肉じゃがの第1フェーズに関する判定情報「DCK1−1」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。
The
例えば、判定情報「DCK1−1」には、肉MT1の画像情報や、じゃがいもPT1の画像情報や、玉ねぎON1の画像情報が含まれており、判定装置100は、端末装置10から取得した画像情報IM11と、判定情報「DCK1−1」に含まれる画像情報等を比較することにより、材料が揃っているかを判定するものとする。図1の例では、画像情報IM11には、肉MT1、じゃがいもPT1、及び玉ねぎON1が含まれているため、判定装置100は、ユーザU1が第1フェーズを完了したと判定する。すなわち、判定装置100は、第1フェーズの次のフェーズである第2フェーズを作業中フェーズであると判定する。なお、判定装置100は、画像情報から料理に使用される物を判定する技術として、パターン認識等の画像処理の種々の技術を適宜用いてもよい。
For example, the determination information “DCK1-1” includes the image information of the meat MT1, the image information of the potato PT1, and the image information of the onion ON1, and the
図1の例では、判定装置100は、作業情報記憶部121−2に示すように、ユーザU1の作業中フェーズが第2フェーズであると判定したため、肉じゃがの第2フェーズを作業中フェーズに設定する。そして、判定装置100は、作業中フェーズに対応する出力情報を端末装置10−2に提供する(ステップS19)。図1の例では、判定装置100は、出力情報記憶部122−2に示すように、作業中フェーズである第2フェーズに対応する「肉を一口大に切ってください」という内容の第2フェーズ情報OP2を端末装置10に提供する。
In the example of FIG. 1, since the
そして、第2フェーズ情報OP2を受信した端末装置10は、第2フェーズ情報OP2を音声として出力する(ステップS20)。例えば、端末装置10は、スピーカやユーザU1が耳に着けているイヤフォンにより第2フェーズ情報OP2を音声として出力する。
And the
そして、第2フェーズ情報OP2に含まれる「肉を一口大に切ってください」という音声により第2フェーズの作業内容を認識したユーザU1は、その音声の内容に従って、肉を一口大に切ることとなる。 Then, the user U1 who has recognized the work content of the second phase by the voice “Please cut the meat into a bite” included in the second phase information OP2 cuts the meat into a bite size according to the content of the voice. Become.
図1中のステップS20後のユーザU1(図1右側のユーザU1)が、まな板CB上で肉MT1を肉MT1−1、MT1−2、MT1−3に切った状態を示し、センサ装置20は、その状況を撮像した画像情報IM21を端末装置10に送信する。上述したように、センサ装置20は、メガネ型端末であるため、ユーザU1が包丁で肉MT1を切っている際は、ユーザU1が注視するユーザの手元を撮像することとなる。そのため、判定システム1は、ユーザU1に特に意識させたり、余計な手間をかけさせたりすることなく、作業中フェーズの判定に用いる画像情報を収集することができる。
The user U1 after step S20 in FIG. 1 (the user U1 on the right side in FIG. 1) shows a state in which the meat MT1 is cut into the meat MT1-1, MT1-2, MT1-3 on the cutting board CB, and the
そして、端末装置10−3は、画像情報IM21を受信する(ステップS21)。その後、端末装置10−3は、画像情報IM21を判定装置100に送信する(ステップS22)。 Then, the terminal device 10-3 receives the image information IM21 (step S21). Thereafter, the terminal device 10-3 transmits the image information IM21 to the determination device 100 (step S22).
端末装置10−3から画像情報IM21を取得した判定装置100は、ユーザU1の作業中フェーズを判定する(ステップS23)。例えば、判定装置100は、その時点における作業中フェーズである肉じゃがの第2フェーズに関する判定情報「DCK1−2」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。
The
例えば、判定情報「DCK1−2」には、肉MT1が一口大に成形された状態の画像情報が含まれており、判定装置100は、端末装置10−3から取得した画像情報IM21と、判定情報「DCK1−2」に含まれる画像情報等を比較することにより、肉MT1が一口大に切られているかを判定するものとする。図1の例では、画像情報IM21には、肉MT1が一口大に切られた肉MT1−1、MT1−2、MT1−3が含まれているため、判定装置100は、ユーザU1が第2フェーズを完了したと判定する。すなわち、判定装置100は、第2フェーズの次のフェーズである第3フェーズを作業中フェーズであると判定する。
For example, the determination information “DCK1-2” includes image information in a state where the meat MT1 is formed into a bite, and the
図1の例では、判定装置100は、作業情報記憶部121−3に示すように、ユーザU1の作業中フェーズが第3フェーズであると判定したため、肉じゃがの第3フェーズを作業中フェーズに設定する。そして、判定装置100は、作業中フェーズに対応する出力情報を端末装置10−3に提供する(ステップS24)。図1の例では、判定装置100は、出力情報記憶部122−3に示すように、作業中フェーズである第3フェーズに対応する出力情報である出力ID「OP3」により識別される「じゃがいもを一口大に切ってください」という内容の出力情報(第3フェーズ情報OP3)を端末装置10−3に提供する。そして、第3フェーズ情報OP3を受信した端末装置10は、第3フェーズ情報OP3を音声として出力する。その後、判定システム1は、第3フェーズ、第4フェーズ等の肉じゃがの全フェーズを完了する、すなわちユーザU1が肉じゃがを作り終わるまで処理を繰り返す。
In the example of FIG. 1, since the
上述したように、判定システム1は、ユーザU1が身に付けたセンサ装置20により情報を収集することにより、ユーザU1に特に意識させたり、余計な手間をかけさせたりすることなく、作業中フェーズの判定に用いる画像情報を収集することができる。このように、判定システム1は、ユーザU1が身に付けたセンサ装置20から画像情報を収集することにより、ユーザU1が行っている作業のうち、どのフェーズにあるのかを適切に把握することができる。また、判定システム1は、各フェーズに対応する作業内容に関する情報を順序通り出力することにより、ユーザには、各フェーズを順序通り作業を行うことができるため、ユーザが初めて作る料理や作り方を全く知らない料理等であっても、ユーザが料理することを可能にすることができる。言い換えると、判定システム1は、ユーザがフェーズを完了する毎に、次のフェーズへと順次フェーズを進行させて、そのフェーズに対応する作業内容に関する情報を提供することにより、普段料理をしないユーザ等であっても、料理を適切に完成されることを可能にすることができる。また、判定システム1は、ユーザU1が行っている作業に対応する出力情報を音声として出力することにより、ユーザU1は視線を作業から離したりすることなく、ユーザU1は自身の作業を行いながら、情報を認識することができる。したがって、判定システム1は、ユーザU1の作業中フェーズに応じた出力情報をユーザU1に提供することにより、作業を行うユーザに対する適切なアシストを可能にすることができる。
As described above, the
〔1−3.作業について〕
上述した例では、作業の一例として料理を示したが、判定システム1が対象とする作業は料理に限らず、ユーザが行う作業であればどのような作業であってもよい。例えば、判定システム1は、ユーザが身体的動作を行う種々の作業を対象としてもよい。例えば、判定システム1は、習字や編み物等のユーザが手を用いて行う作業を対象としてもよい。また、判定システム1は、所定の工場等に導入されて、工場でのプロセス管理等に適用されてもよい。
[1-3. About work)
In the above-described example, cooking is shown as an example of the work. However, the work targeted by the
〔1−4.システム構成〕
また、上述した例では、端末装置10から判定装置100に情報を送信し、判定装置100において作業中フェーズが判定される判定システム1を一例として説明したが、判定システムの構成は上記に限らない。例えば、端末装置10が作業中フェーズを判定する判定システムの構成であってもよい。すなわち、この場合、端末装置10は判定装置100と一体であってもよい。また、端末装置10は、センサ装置20と一体であってもよい。例えば、端末装置10は、判定装置100及びセンサ装置20と一体であってもよい。例えば、ユーザは、身に着けたメガネ型の端末装置10により、判定システムによる料理支援サービスの提供を受けてもよい。この場合、ユーザは、スタンドアロン型の端末装置10により、判定システムによる料理支援サービスの提供を受けてもよい。また、例えば、端末装置10は、判定装置100等の外部装置に料理の指定を送信し、指定した料理に関する作業情報や出力情報を判定装置100等の外部装置から受信し、受信した作業情報や出力情報に基づいて、判定システムによる料理支援サービスの提供を行ってもよい。なお、上記は一例であり、上述したサービスをユーザに提供可能であれば、判定システムはどのように構成されてもよい。
[1-4. System configuration〕
In the example described above, the
〔1−5.フェーズについて〕
また、上記の例では、ユーU1が第1フェーズ〜第3フェーズと順番に行っていく場合を示したが、ユーザU1は順不同であってもよいフェーズの順番は適宜変更して作業を行ってもよい。例えば、図1の例において、肉を切る第2フェーズとじゃがいもを切る第3フェーズとはいずれを先に行ってもよい。そのため、判定システム1は、切る作業全体を1つのフェーズとしたり、切る作業に関する各フェーズを順不同のフェーズとして識別したりしてもよい。各フェーズの処理が順不同である場合、判定装置100は、順不同である各フェーズの処理が全て完了した後、次のフェーズを作業中フェーズとして、次の作業に進むようにしてもよい。例えば、判定装置100は、第2フェーズや第3フェーズの切る作業が全て完了した場合に、例えば鍋で炒める等の次のフェーズを作業中フェーズであると判定してもよい。
[1-5. About the phase)
Further, in the above example, the case where the user U1 goes in order from the first phase to the third phase is shown, but the user U1 may change the order of the phases that may be out of order and perform the work. Also good. For example, in the example of FIG. 1, either the second phase for cutting meat or the third phase for cutting potatoes may be performed first. Therefore, the
〔1−6.出力情報について〕
また、上記の例では、ユーU1が第1フェーズ〜第3フェーズにおいて1つの出力情報を出力する場合を示したが、判定システム1は、各フェーズにおいて複数の出力情報を出力してもよい。例えば、判定システム1は、各フェーズで複数の出力情報が出力される場合、各フェーズに対応付けて複数の出力情報を記憶したり、各フェーズに対応付けられた複数の出力情報の出力順を記憶したりすることにより、各フェーズにおいて複数の出力情報を出力してもよい。
[1-6. About output information)
Moreover, although the case where the user U1 outputs one output information in the first phase to the third phase has been described in the above example, the
〔1−6−1.警告や作業催促〕
また、判定システム1は、ユーザの作業内容に応じて、各種情報を出力してもよい。例えば、判定システム1は、作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力してもよい。また、例えば、判定システム1は、ユーザに作業の進行を促す情報を出力してもよい。例えば、判定システム1は、作業中フェーズの変更後、5分以上ユーザが作業を行わなかった場合、「作業を進めてください」等のユーザに作業の進行を促す情報を出力してもよい。また、判定システム1は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力してもよい。なお、この点についての詳細は後述する。
[1-6-1. Warning and work reminder)
Moreover, the
〔2.判定装置の構成〕
次に、図3を用いて、実施形態に係る判定装置100の構成について説明する。図3は、実施形態に係る判定装置の構成例を示す図である。図3に示すように、判定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、判定装置100は、判定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. (Configuration of judgment device)
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワーク(例えば図2中のネットワークN)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to a network (for example, the network N in FIG. 2) by wire or wireless, and transmits / receives information to / from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、作業情報記憶部121と、出力情報記憶部122とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 3, the storage unit 120 according to the embodiment includes a work
(作業情報記憶部121)
実施形態に係る作業情報記憶部121は、作業に関する情報を記憶する。例えば、作業情報記憶部121には、作業に含まれる各フェーズの情報等の各種情報が記憶される。図4は、実施形態に係る作業情報記憶部の一例を示す図である。図4には、作業情報記憶部121に記憶される作業に関する情報の一例を示す。図4に示すように、作業情報記憶部121は、作業に関する情報として、「料理ID」、「料理名」、「フェーズ」、「内容」、「対象」、「判定情報」といった項目が含まれる。
(Work information storage unit 121)
The work
「料理ID」は、作業である料理を識別するための識別情報を示す。「料理名」は、対応する作業の料理名を示す。「フェーズ」は、料理に含まれるフェーズを示す。また、「内容」は、対応するフェーズの作業内容を示す。また、「対象」は、対応するフェーズの作業の対象を示す。また、「判定情報」は、対応するフェーズの作業が完了したかを判定するために用いる情報を示す。 “Cooking ID” indicates identification information for identifying cooking as a work. “Cooking name” indicates the cooking name of the corresponding work. “Phase” indicates a phase included in the dish. “Content” indicates the work content of the corresponding phase. “Target” indicates the target of work in the corresponding phase. Further, “determination information” indicates information used for determining whether or not the operation of the corresponding phase has been completed.
例えば、図4に示す例において、料理ID「CK1」により識別される料理は、料理名「肉じゃが」であることを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理は、第1フェーズ〜第3フェーズを含む複数のフェーズを含むことを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理の第1フェーズは、内容が「材料を揃える」ことであることを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理の第1フェーズは、対象が「肉、じゃがいも・・・」であることを示す。また、例えば、図4に示す例において、料理ID「CK1」により識別される料理の第1フェーズの判定情報は、判定情報「DCK1−1」であることを示す。 For example, in the example illustrated in FIG. 4, the dish identified by the dish ID “CK1” indicates the dish name “meat potato”. Further, for example, in the example illustrated in FIG. 4, the dish identified by the dish ID “CK1” includes a plurality of phases including the first phase to the third phase. Further, for example, in the example illustrated in FIG. 4, the first phase of the dish identified by the dish ID “CK1” indicates that the content is “align the ingredients”. Further, for example, in the example illustrated in FIG. 4, the first phase of the dish identified by the dish ID “CK1” indicates that the target is “meat, potatoes ...”. For example, in the example illustrated in FIG. 4, the determination information of the first phase of the dish identified by the dish ID “CK1” is the determination information “DCK1-1”.
なお、図4の例では、判定情報を「DCK1−1」等と抽象的に図示するが、判定情報には、対応するフェーズが完了したかの判定に用いる種々の情報が含まれてもよい。例えば、フェーズの判定に画像を用いる場合、判定情報として静止画像や動画像やテキストデータやURL(Uniform Resource Locator)、または、これらの格納場所を示すファイルパス名などが格納されてもよい。例えば、料理ID「CK1」により識別される料理の第1フェーズにおいての判定に画像を用いる場合、判定情報「DCK1−1」には、肉MT1の画像情報や、じゃがいもPT1の画像情報や、玉ねぎON1の画像情報が含まれてもよい。この場合、例えば、判定装置100は、端末装置10から取得した画像情報と、判定情報「DCK1−1」に含まれる画像情報等を比較することにより、材料が揃っているかを判定してもよい。また、例えば、フェーズが「5分煮る」等の時間に関する指定があるフェーズである場合、判定情報には、待ち時間「5分」等の時間に関する情報が含まれてもよい。
In the example of FIG. 4, the determination information is illustrated abstractly as “DCK1-1” or the like, but the determination information may include various information used for determining whether the corresponding phase is completed. . For example, when an image is used for phase determination, a still image, a moving image, text data, a URL (Uniform Resource Locator), or a file path name indicating the storage location thereof may be stored as determination information. For example, when an image is used for the determination in the first phase of the dish identified by the dish ID “CK1”, the determination information “DCK1-1” includes the image information of meat MT1, the image information of potato PT1, and the onion. Image information of ON1 may be included. In this case, for example, the
なお、作業情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、作業情報記憶部121は、各フェーズの処理が順不同である場合、その情報を記憶してもよい。また、例えば、作業情報記憶部121は、順不同である各フェーズの処理が全て完了した場合に、次のフェーズに進む場合、その情報を記憶してもよい。例えば、作業情報記憶部121は、料理ID「CK1」により識別される料理である肉じゃがにおいて、肉を切る第2フェーズやじゃがいもを切る第3フェーズ等の切る作業が順不同である場合、その情報を記憶してもよい。また、この場合、作業情報記憶部121は、第2フェーズや第3フェーズの切る作業が全て完了した場合に、例えば鍋で炒める等の次のフェーズに進む場合、その情報を記憶してもよい。
The work
(出力情報記憶部122)
実施形態に係る出力情報記憶部122は、出力に関する各種情報を記憶する。図5は、実施形態に係る出力情報記憶部の一例を示す図である。例えば、出力情報記憶部122は、ユーザの作業をアシストするために出力する情報を記憶する。図5の例では、出力情報記憶部122には、「料理ID」、「フェーズ」、「出力ID」、「内容」といった項目が含まれる。
(Output information storage unit 122)
The output
「料理ID」は、作業である料理を識別するための識別情報を示す。「フェーズ」は、料理に含まれるフェーズを示す。「出力ID」は、出力する情報を識別するための識別情報を示す。また、「内容」は、対応する出力の内容を示す。 “Cooking ID” indicates identification information for identifying cooking as a work. “Phase” indicates a phase included in the dish. “Output ID” indicates identification information for identifying information to be output. “Content” indicates the content of the corresponding output.
例えば、図5に示す例において、料理ID「CK1」により識別される料理において、第1フェーズでは、出力ID「OP1」により識別される「肉、じゃがいも…を用意してください」といった内容の出力情報が出力されることを示す。 For example, in the example shown in FIG. 5, in the dish identified by the dish ID “CK1”, in the first phase, the contents such as “Please prepare meat, potatoes ...” identified by the output ID “OP1” are output. Indicates that information is output.
なお、出力情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、出力情報記憶部122は、各フェーズで複数の出力情報が出力される場合、各フェーズに対応付けて複数の出力情報を記憶してもよい。また、例えば、出力情報記憶部122は、各フェーズに対応付けられた複数の出力情報に出力順がある場合、出力順を記憶してもよい。
The output
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、判定装置100内部の記憶装置に記憶されている各種プログラム(判定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 3, the control unit 130 is a controller, and is stored in a storage device inside the
図3に示すように、制御部130は、取得部131と、判定部132と、提供部133とを有し、以下に説明する判定処理等の情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As illustrated in FIG. 3, the control unit 130 includes an
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、作業情報記憶部121や出力情報記憶部122等から各種情報を取得する。また、取得部131は、各種情報を外部の情報処理装置から取得してもよい。また、取得部131は、端末装置10やセンサ装置20から各種情報を取得する。
(Acquisition part 131)
The
例えば、取得部131は、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する。例えば、取得部131は、ユーザの視線方向に関する画像情報を取得する。例えば、取得部131は、ユーザの手元に関する画像情報を取得する。例えば、取得部131は、ユーザが装着した端末装置により画像情報を取得する。例えば、取得部131は、複数のフェーズを含む料理を行うユーザに関する画像情報を取得する。
For example, the
図1の例では、取得部131は、端末装置10から発話PA11の音声情報を取得する。図1の例では、取得部131は、端末装置10から画像情報IM11を取得する。図1の例では、取得部131は、端末装置10から画像情報IM21を取得する。
In the example of FIG. 1, the
(判定部132)
判定部132は、各種情報を判定する。例えば、判定部132は、取得部131により取得された画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定する。例えば、判定部132は、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの料理における作業中フェーズを判定する。
(Determination unit 132)
The
図1の例では、判定部132は、発話PA11に料理指定情報が含まれているかどうかを判定する。例えば、判定部132は、受け付けた発話PA11の音声情報を解析することにより、発話PA11に料理指定情報が含まれているかどうかを判定する。例えば、判定部132は、料理支援サービスにおいて対象とする料理名のリストと発話PA11に含まれる文字列とを比較することにより、発話PA11に料理指定情報が含まれるかどうかを判定する。図1の例では、判定部132は、受け付けた発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、発話PA11にユーザU1が肉じゃがを作ろうとしていることを示す内容が含まれると判定する。
In the example of FIG. 1, the
図1の例では、判定部132は、ユーザU1の作業中フェーズを判定する。例えば、判定部132は、その時点における作業中フェーズである肉じゃがの第1フェーズに関する判定情報「DCK1−1」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。図1の例では、判定部132は、端末装置10から取得した画像情報IM11と、判定情報「DCK1−1」に含まれる画像情報等を比較することにより、材料が揃っているかを判定するものとする。図1の例では、画像情報IM11には、肉MT1、じゃがいもPT1、及び玉ねぎON1が含まれているため、判定部132は、ユーザU1が第1フェーズを完了したと判定する。例えば、判定部132は、第1フェーズの次のフェーズである第2フェーズを作業中フェーズであると判定する。
In the example of FIG. 1, the
図1の例では、判定部132は、ユーザU1の作業中フェーズを判定する。例えば、判定部132は、その時点における作業中フェーズである肉じゃがの第2フェーズに関する判定情報「DCK1−2」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。
In the example of FIG. 1, the
図1の例では、判定部132は、端末装置10から取得した画像情報IM21と、判定情報「DCK1−2」に含まれる画像情報等を比較することにより、肉MT1が一口大に切られているかを判定するものとする。図1の例では、画像情報IM21には、肉MT1が一口大に切られた肉MT1−1、MT1−2、MT1−3が含まれているため、判定部132は、ユーザU1が第2フェーズを完了したと判定する。例えば、判定部132は、第2フェーズの次のフェーズである第3フェーズを作業中フェーズであると判定する。
In the example of FIG. 1, the
(提供部133)
提供部133は、各種情報を提供する。例えば、提供部133は、端末装置10に各種情報を提供する。例えば、提供部133は、出力情報記憶部122に記憶された出力情報を端末装置10に提供する。図1の例では、提供部133は、端末装置10に第1フェーズ情報OP1を提供する。図1の例では、提供部133は、端末装置10に第2フェーズ情報OP2を提供する。
(Providing unit 133)
The providing unit 133 provides various types of information. For example, the providing unit 133 provides various information to the
図1の例では、提供部133は、作業情報記憶部121−1に示すように、ユーザU1が作る料理が肉じゃがであると判定したため、肉じゃがの第1フェーズを作業中フェーズに設定する。例えば、提供部133は、作業中フェーズに対応する出力情報を端末装置10に提供する。図1の例では、提供部133は、出力情報記憶部122−1に示すように、作業中フェーズである第1フェーズに対応する「肉、じゃがいも…を用意してください」という内容の第1フェーズ情報OP1を端末装置10に提供する。
In the example of FIG. 1, as shown in the work information storage unit 121-1, the providing unit 133 determines that the dish made by the user U1 is meat potato, and sets the first phase of meat potato as the working phase. For example, the providing unit 133 provides output information corresponding to the working phase to the
図1の例では、提供部133は、作業情報記憶部121−2に示すように、ユーザU1の作業中フェーズが第2フェーズであると判定したため、肉じゃがの第2フェーズを作業中フェーズに設定する。例えば、提供部133は、作業中フェーズに対応する出力情報を端末装置10に提供する。図1の例では、提供部133は、出力情報記憶部122−2に示すように、作業中フェーズである第2フェーズに対応する「肉を一口大に切ってください」という内容の第2フェーズ情報OP2を端末装置10に提供する。
In the example of FIG. 1, the providing unit 133 sets the second phase of meat potato as the working phase because the providing unit 133 determines that the working phase of the user U1 is the second phase, as shown in the work information storage unit 121-2. To do. For example, the providing unit 133 provides output information corresponding to the working phase to the
図1の例では、提供部133は、作業情報記憶部121−3に示すように、ユーザU1の作業中フェーズが第3フェーズであると判定したため、肉じゃがの第3フェーズを作業中フェーズに設定する。例えば、提供部133は、作業中フェーズに対応する出力情報を端末装置10に提供する。図1の例では、提供部133は、出力情報記憶部122−3に示すように、作業中フェーズである第3フェーズに対応する出力情報である出力ID「OP3」により識別される「じゃがいもを一口大に切ってください」という内容の出力情報(第3フェーズ情報OP3)を端末装置10に提供する。
In the example of FIG. 1, since the providing unit 133 determines that the working phase of the user U1 is the third phase as illustrated in the working information storage unit 121-3, the third phase of meat potato is set as the working phase. To do. For example, the providing unit 133 provides output information corresponding to the working phase to the
〔3.端末装置の構成〕
次に、図6を用いて、実施形態に係る端末装置10の構成について説明する。図6は、実施形態に係る端末装置の構成例を示す図である。図6に示すように、端末装置10は、通信部11と、記憶部12と、入力部13と、表示部14と、制御部15とを有する。また、端末装置10は、音声として出力するスピーカやイヤフォン等の外部デバイスの端子の差し込み口(イヤフォンジャック等)を有してもよい。
[3. Configuration of terminal device]
Next, the configuration of the
(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、判定装置100との間で情報の送受信を行う。
(Communication unit 11)
The
(記憶部12)
記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、例えば、端末装置10にインストールされているアプリケーション(例えば料理支援アプリ等)に関する情報、例えばプログラム等を記憶する。
(Storage unit 12)
The storage unit 12 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 stores, for example, information related to an application (for example, a cooking support application) installed in the
(入力部13)
入力部13は、ユーザからの各種操作を受け付ける。例えば、入力部13は、タッチパネル機能により表示面(例えば出力部153)を介してユーザからの各種操作を受け付けてもよい。また、入力部13は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(Input unit 13)
The input unit 13 receives various operations from the user. For example, the input unit 13 may accept various operations from the user via a display surface (for example, the output unit 153) by a touch panel function. Further, the input unit 13 may accept various operations from buttons provided on the
(表示部14)
表示部14は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。
(Display unit 14)
The
(制御部15)
制御部15は、コントローラであり、例えば、CPUやMPU等によって、端末装置10内部の記憶部12などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、インストールされているアプリケーション(例えば料理支援アプリ等)のプログラムが含まれる。また、制御部15は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 15)
The control unit 15 is a controller, and is realized, for example, by executing various programs stored in a storage device such as the storage unit 12 inside the
図6に示すように、制御部15は、送信部151と、受信部152と、出力部153とを有し、以下に説明する出力処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図6に示した構成に限られず、後述する出力処理を行う構成であれば他の構成であってもよい。
As illustrated in FIG. 6, the control unit 15 includes a
送信部151は、種々の情報を送信する。例えば、送信部151は、入力部13により受け付けたユーザからの入力に従って、所定の情報を外部装置へ送信する。例えば、送信部151は、所定のマイクロフォン等により検知したユーザの発話に応じて、所定の情報を外部装置へ送信する。例えば、送信部151は、起動したアプリにより各種情報を判定装置100へ送信する。図1の例では、送信部151は、ユーザU1の発話PA11に関する情報を判定装置100へ送信する。図1の例では、送信部151は、取得した発話PA11の音声情報を入力情報として判定装置100に送信する。また、図1の例では、送信部151は、センサ装置20から受信した画像情報IM11を判定装置100へ送信する。また、図1の例では、送信部151は、センサ装置20から受信した画像情報IM21を判定装置100へ送信する。
The
受信部152は、種々の情報を受信する。受信部152は、判定装置100やセンサ装置20等から種々の情報を受信する。図1の例では、受信部152は、センサ装置20から画像情報IM11を受信する。また、図1の例では、受信部152は、センサ装置20から画像情報IM21を受信する。また、図1の例では、受信部152は、判定装置100から第1フェーズ情報OP1を受信する。また、図1の例では、受信部152は、判定装置100から第2フェーズ情報OP2を受信する。また、図1の例では、受信部152は、「肉じゃがを作ります」という発話PA11を入力として受信(取得)する。
The receiving
出力部153は、種々の情報を出力する。出力部153は、スピーカ等により音声として出力する。また、例えば、出力部153は、表示部14により文字情報や画像情報として表示してもよい。
The output unit 153 outputs various information. The output unit 153 outputs the sound through a speaker or the like. Further, for example, the output unit 153 may be displayed as character information or image information by the
例えば、出力部153は、判定装置100により判定された作業中フェーズに関する情報を出力する。例えば、出力部153は、作業中フェーズに関する情報を音声情報として出力する。例えば、出力部153は、作業中フェーズにおける作業内容に関する情報を出力する。図1の例では、出力部153は、第1フェーズ情報OP1である「肉、じゃがいも…を用意してください」を音声として出力する。また、図1の例では、出力部153は、第2フェーズ情報OP2である「肉を一口大に切ってください」を音声として出力する。
For example, the output unit 153 outputs information regarding the working phase determined by the
例えば、出力部153は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力する。例えば、出力部153は、判定装置100による作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力する。例えば、出力部153は、ユーザに作業の進行を促す情報を出力する。なお、これらの点についての詳細は後述する。
For example, the output unit 153 outputs warning information when the user performs a work different from the work content in the working phase. For example, the output unit 153 outputs warning information when a predetermined period elapses without the transition to the next phase or the completion of the work after the
なお、上述した制御部15による出力処理等の処理は、例えば、JavaScript(登録商標)などの所定の制御情報により実現されてもよい。また、上述した出力処理が所定のアプリケーション(例えば料理支援アプリ等)により行われる場合や出力処理が専用アプリにより行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。 Note that the processing such as output processing by the control unit 15 described above may be realized by predetermined control information such as JavaScript (registered trademark). In addition, when the output process described above is performed by a predetermined application (for example, a cooking support application) or when the output process is performed by a dedicated application, the control unit 15 performs, for example, application control for controlling the predetermined application or the dedicated application. You may have a part.
〔4.判定処理のフロー〕
次に、図7を用いて、実施形態に係る判定システム1による判定処理の手順について説明する。図7は、実施形態に係る判定処理の一例を示すフローチャートである。
[4. (Judgment process flow)
Next, the procedure of determination processing by the
図7に示すように、判定システム1は、料理が指定されたかどうかを判定する(ステップS101)。例えば、判定システム1は、ユーザの発話を検知した端末装置10から取得したユーザの発話に関する情報に基づいて、ユーザにより料理が指定されたかどうかを判定する。料理が指定されていないと判定した場合(ステップS101:No)、判定システム1は、ステップS101の処理を繰り返す。
As shown in FIG. 7, the
一方、料理が指定されたと判定した場合(ステップS101:Yes)、判定システム1は、作業情報を取得する。例えば、判定システム1は、作業情報記憶部121(図4参照)に記憶された作業情報のうち、料理指定情報に対応する作業情報を取得する(ステップS102)。
On the other hand, when it determines with cooking having been designated (step S101: Yes), the
そして、判定システム1は、第1フェーズを作業中フェーズに設定する(ステップS103)。そして、判定システム1は、作業中フェーズの情報を出力する(ステップS104)。図1の例では、判定システム1の端末装置10は、第1フェーズ情報OP1である「肉、じゃがいも…を用意してください」を音声として出力する。
Then, the
そして、判定システム1は、画像情報を取得する(ステップS105)。そして、判定システム1は、取得した画像情報に基づいて、作業中フェーズの作業が完了したかどうかを判定する(ステップS106)。作業中フェーズの作業が完了していないと判定した場合(ステップS106:No)、判定システム1は、ステップS105の処理を繰り返す。
Then, the
一方、作業中フェーズの作業が完了したと判定した場合(ステップS106:Yes)、判定システム1は、全フェーズが完了したかどうかを判定する(ステップS107)。全フェーズが完了していないと判定した場合(ステップS107:No)、判定システム1は、作業中フェーズを次のフェーズに遷移する(ステップS108)。その後、判定システム1は、ステップS104に戻って処理を繰り返す。
On the other hand, when it is determined that the work in the work phase is completed (step S106: Yes), the
一方、全フェーズが完了したと判定した場合(ステップS107:Yes)、判定システム1は、処理を終了する。
On the other hand, when it determines with all the phases having been completed (step S107: Yes), the
〔5.判定処理のフロー〕
次に、図8を用いて、実施形態に係る判定システム1による判定処理の手順について説明する。図8は、実施形態に係る判定処理の一例を示すシーケンス図である。
[5. (Judgment process flow)
Next, the procedure of determination processing by the
図8に示すように、判定装置100は、端末装置10から料理指定情報を取得する(ステップS201)。例えば、判定装置100は、ユーザの発話を検知した端末装置10から、ユーザの発話の内容に応じた料理指定情報を取得する。
As illustrated in FIG. 8, the
そして、判定装置100は、料理指定情報に基づいて作業情報を取得する(ステップS202)。例えば、判定装置100は、作業情報記憶部121(図4参照)に記憶された作業情報のうち、料理指定情報に対応する作業情報を取得する。
And the
また、判定装置100は、作業情報のうち、第1フェーズ情報を端末装置10へ提供する(ステップS203)。図1の例では、判定装置100は、出力情報記憶部122(図5参照)に記憶された出力情報のうち、第1フェーズ情報OP1を端末装置10へ提供する。
Moreover, the
判定装置100から第1フェーズ情報を受信した端末装置10は、第1フェーズ情報を出力する(ステップS204)。図1の例では、端末装置10は、第1フェーズ情報OP1である「肉、じゃがいも…を用意してください」を音声として出力する。
The
そして、端末装置10は、画像情報をセンサ装置20から受信する(ステップS205)。図1の例では、端末装置10は、ユーザが装着したメガネ型の撮像装置であるセンサ装置20から送信される画像情報を受信する。例えば、端末装置10は、センサ装置20に画像情報を送信するように指示することにより、センサ装置20から送信される画像情報を受信してもよい。
Then, the
そして、センサ装置20から画像情報を受信した端末装置10は、画像情報を判定装置100へ送信する(ステップS206)。図1の例では、端末装置10は、肉MT1やじゃがいもPT1や玉ねぎON1等を含む画像情報IM11を判定装置100へ送信する。
And the
端末装置10から画像情報を取得した判定装置100は、画像情報に基づいて判定処理を行う(ステップS207)。図1の例では、判定装置100は、肉MT1やじゃがいもPT1や玉ねぎON1等を含む画像情報IM11に基づいて、ユーザU1が第1フェーズを完了したかどうかを判定する。そして、判定装置100は、ユーザU1が第1フェーズを完了したと判定した場合、第1フェーズの次の第2フェーズへ遷移し、端末装置10に第2フェーズ情報OP2を提供する。また、判定装置100は、ユーザU1が第1フェーズを完了していないと判定した場合、所定の情報を提供したり、次の画像情報を取得するまで待機したりする。なお、判定装置100は、第2フェーズ以降も同様の判定処理を行うため、説明を省略する。
The
〔6.作業の誤り出力〕
なお、判定システム1は、ユーザの作業内容に応じて、各種情報を出力してもよい。例えば、判定装置100は、ユーザの作業内容が作業中フェーズの内容と異なる場合、所定の警告を出力してもよい。この点について、図9を基に説明する。図9は、実施形態に係る判定システムにおける作業誤りの通知の一例を示す図である。なお、図9において、図1と同様の点については、適宜説明を省略する。
[6. Operation error output)
Note that the
端末装置10−3は、図1中の端末装置10−3に対応する。また、出力記憶部121−2は、図1中の出力記憶部121−2に対応する。また、図9の例では、所定の警告情報を出力情報として含む出力情報記憶部122Aを示す。なお、上記の点以外は、出力情報記憶部122Aは出力情報記憶部122と同様である。図9の例では、ユーザの作業中フェーズが肉じゃがの第2フェーズである場合を示す。
The terminal device 10-3 corresponds to the terminal device 10-3 in FIG. The output storage unit 121-2 corresponds to the output storage unit 121-2 in FIG. In the example of FIG. 9, an output
まず、図9の例では、まな板CB上で玉ねぎON1を玉ねぎON1−1、ON1−2に切った状態を示し、センサ装置20は、その状況を撮像した画像情報IM31を端末装置10に送信する。そして、端末装置10−3は、画像情報IM31を受信する(ステップS31)。その後、端末装置10−3は、画像情報IM31を判定装置100に送信する(ステップS32)。
First, the example of FIG. 9 shows a state in which the onion ON1 is cut into the onions ON1-1 and ON1-2 on the cutting board CB, and the
端末装置10−3から画像情報IM31を取得した判定装置100は、ユーザU1の作業中フェーズを判定する(ステップS33)。例えば、判定装置100は、その時点における作業中フェーズである肉じゃがの第2フェーズに関する判定情報「DCK1−2」(図4参照)に基づいて、ユーザU1の作業中フェーズを判定する。
The
例えば、判定情報「DCK1−2」には、肉MT1が一口大に成形された状態の画像情報が含まれており、判定装置100は、端末装置10−3から取得した画像情報IM31と、判定情報「DCK1−2」に含まれる画像情報等を比較することにより、肉MT1が一口大に切られているかを判定するものとする。図9の例では、画像情報IM31には、肉MT1ではない玉ねぎON1が2つに切られた玉ねぎON1−1、ON1−2が含まれているため、判定装置100は、ユーザU1が第2フェーズとは異なる作業を行っていると判定する。すなわち、判定装置100は、作業中フェーズが第2フェーズのままであり、第2フェーズが完了していないと判定する。
For example, the determination information “DCK1-2” includes image information in a state in which the meat MT1 is formed into a bite size, and the
そのため、図9の例では、判定装置100は、作業情報記憶部121−2に示すように、ユーザU1の作業中フェーズが第2フェーズのままであると判定したため、作業中フェーズを第2フェーズのままにする。また、判定装置100は、上記の判定に基づいて、ユーザU1の作業内容が誤りであると判定する。
Therefore, in the example of FIG. 9, the
そして、判定装置100は、全フェーズに対応する出力情報を端末装置10−3に提供する(ステップS34)。図9の例では、判定装置100は、出力情報記憶部122Aに示すように、全フェーズに対応する出力情報である出力ID「ER1」により識別される「作業内容が違うようです」という内容の出力情報(警告情報ER1)を端末装置10−3に提供する。そして、警告情報ER1を受信した端末装置10は、警告情報ER1を音声として出力する(ステップS35)。図9の例では、端末装置10−4は、スピーカやユーザU1が耳に着けているイヤフォンにより警告情報ER1を音声として出力する。警告情報ER1に含まれる「作業内容が違うようです」という音声により、ユーザU1は、自身の作業が誤っていることを認識することができ、作業を適切に変更することができる。
And the
〔7.効果〕
上述してきたように、実施形態に係る判定システム1は、取得部131と、判定部132とを有する。取得部131は、作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する。判定部132は、取得部131により取得された画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定する。
[7. effect〕
As described above, the
これにより、実施形態に係る判定システム1は、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの作業におけるフェーズである作業中フェーズを判定することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
As a result, the
また、実施形態に係る判定システム1において、取得部131は、ユーザの視線方向に関する画像情報を取得する。
In the
これにより、実施形態に係る判定システム1は、ユーザの視線方向に関する画像情報を取得することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1において、取得部131は、ユーザの手元に関する画像情報を取得する。
In the
これにより、実施形態に係る判定システム1は、ユーザの手元に関する画像情報を取得することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1において、取得部131は、ユーザが装着したウェアラブル端末(実施形態においては「センサ装置20」。以下同じ)により画像情報を取得する。
In the
これにより、実施形態に係る判定システム1は、ユーザのウェアラブル端末から画像情報を取得することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1は、出力部153を有する。出力部153は、判定部132により判定された作業中フェーズに関する情報を出力する。
In addition, the
これにより、実施形態に係る判定システム1は、作業中フェーズに関する情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1において、出力部153は、作業中フェーズに関する情報を音声情報として出力する。
Further, in the
これにより、実施形態に係る判定システム1は、作業中フェーズに関する情報を音声情報として出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Accordingly, the
また、実施形態に係る判定システム1において、出力部153は、作業中フェーズにおける作業内容に関する情報を出力する。
Further, in the
これにより、実施形態に係る判定システム1は、作業中フェーズにおける作業内容に関する情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1において、出力部153は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力する。
In the
これにより、実施形態に係る判定システム1は、ユーザが作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1において、出力部153は、判定部132による作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力する。
Further, in the
これにより、実施形態に係る判定システム1は、作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1において、出力部153は、ユーザに作業の進行を促す情報を出力する。
In the
これにより、実施形態に係る判定システム1は、ユーザに作業の進行を促す情報を出力することで、作業を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
また、実施形態に係る判定システム1において、取得部131は、複数のフェーズを含む料理を行うユーザに関する画像情報を取得する。判定部132は、画像情報と複数のフェーズに関する情報とに基づいて、ユーザの料理における作業中フェーズを判定する。
In the
これにより、実施形態に係る判定システム1は、料理を行うユーザに対する適切なアシストを可能にすることができる。
Thereby, the
〔8.ハードウェア構成〕
上述してきた実施形態に係る判定装置100や端末装置10は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、判定装置及び端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration)
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る判定装置100や端末装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130や制御部15の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. It is possible to implement the present invention in other forms with improvements.
〔9.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[9. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた各実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the processes described in the embodiments described above can be appropriately combined within a range in which the process contents are not contradictory.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 判定システム
100 判定装置
121 作業情報記憶部
122 出力情報記憶部
130 制御部
131 取得部
132 判定部
133 提供部
10 端末装置
15 制御部
151 送信部
152 受信部
153 出力部
20 センサ装置
N ネットワーク
DESCRIPTION OF
Claims (13)
前記取得部により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定部と、
を備えることを特徴とする判定システム。 An acquisition unit that acquires image information related to a user who performs a work including a plurality of phases in which work contents are associated with each of the phases and the order between the phases is determined in advance;
A determination unit that determines a working phase that is a phase in the user's work based on the image information acquired by the acquiring unit and information on the plurality of phases;
A determination system comprising:
前記ユーザの視線方向に関する前記画像情報を取得する
ことを特徴とする請求項1に記載の判定システム。 The acquisition unit
The determination system according to claim 1, wherein the image information related to a visual line direction of the user is acquired.
前記ユーザの手元に関する前記画像情報を取得する
ことを特徴とする請求項1または請求項2に記載の判定システム。 The acquisition unit
The determination system according to claim 1, wherein the image information relating to the hand of the user is acquired.
前記ユーザが装着したウェアラブル端末により前記画像情報を取得する
ことを特徴とする請求項1〜3のいずれか1項に記載の判定システム。 The acquisition unit
The determination system according to any one of claims 1 to 3, wherein the image information is acquired by a wearable terminal worn by the user.
をさらに備えたことを特徴とする請求項1〜4のいずれか1項に記載の判定システム。 The determination system according to any one of claims 1 to 4, further comprising an output unit that outputs information on the working phase determined by the determination unit.
前記作業中フェーズに関する情報を音声情報として出力する
ことを特徴とする請求項5に記載の判定システム。 The output unit is
The determination system according to claim 5, wherein information regarding the working phase is output as voice information.
前記作業中フェーズにおける作業内容に関する情報を出力する
ことを特徴とする請求項5または請求項6に記載の判定システム。 The output unit is
The determination system according to claim 5 or 6, wherein information regarding work contents in the work phase is output.
前記ユーザが前記作業中フェーズにおける作業内容と異なる作業を行った場合に、警告情報を出力する
ことを特徴とする請求項5〜7のいずれか1項に記載の判定システム。 The output unit is
The determination system according to any one of claims 5 to 7, wherein warning information is output when the user performs an operation different from the operation content in the in-operation phase.
前記判定部による前記作業中フェーズの判定後、次のフェーズへの移行または作業の完了がなく所定の期間が経過した場合、警告情報を出力する
ことを特徴とする請求項5〜8のいずれか1項に記載の判定システム。 The output unit is
9. The warning information is output when a predetermined period has elapsed without the transition to the next phase or the completion of the work after the judgment unit has judged the in-work phase. The determination system according to item 1.
前記ユーザに作業の進行を促す情報を出力する
ことを特徴とする請求項5〜9のいずれか1項に記載の判定システム。 The output unit is
The determination system according to any one of claims 5 to 9, wherein information prompting the user to proceed with work is output.
前記複数のフェーズを含む料理を行うユーザに関する前記画像情報を取得し、
前記判定部は、
前記画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの料理における前記作業中フェーズを判定する
ことを特徴とする請求項1〜10のいずれか1項に記載の判定システム。 The acquisition unit
Obtaining the image information about a user who cooks including the plurality of phases;
The determination unit
The determination system according to any one of claims 1 to 10, wherein the in-work phase of the user's dish is determined based on the image information and information on the plurality of phases.
作業内容が各々に関連付けられた複数のフェーズであって、各フェーズ間の順序が予め決められた複数のフェーズを含む作業を行うユーザに関する画像情報を取得する取得工程と、
前記取得工程により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定工程と、
を含むことを特徴とする判定方法。 A determination method executed by a computer,
An acquisition step of acquiring image information relating to a user who performs a work including a plurality of phases in which work contents are associated with each of the phases and the order between the phases is determined in advance;
A determination step of determining a working phase that is a phase in the user's work, based on the image information obtained by the obtaining step and information on the plurality of phases;
The determination method characterized by including.
前記取得手順により取得された画像情報と前記複数のフェーズに関する情報とに基づいて、前記ユーザの作業におけるフェーズである作業中フェーズを判定する判定手順と、
をコンピュータに実行させることを特徴とする判定プログラム。 An acquisition procedure for acquiring image information relating to a user who performs a work including a plurality of phases in which work contents are associated with each of the phases and the order between the phases is determined in advance;
A determination procedure for determining a working phase that is a phase in the user's work based on the image information obtained by the obtaining procedure and information on the plurality of phases;
The determination program characterized by causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016248208A JP6719373B2 (en) | 2016-12-21 | 2016-12-21 | Judgment system, judgment method, and judgment program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016248208A JP6719373B2 (en) | 2016-12-21 | 2016-12-21 | Judgment system, judgment method, and judgment program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018101353A true JP2018101353A (en) | 2018-06-28 |
JP6719373B2 JP6719373B2 (en) | 2020-07-08 |
Family
ID=62715465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016248208A Active JP6719373B2 (en) | 2016-12-21 | 2016-12-21 | Judgment system, judgment method, and judgment program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6719373B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166782A (en) * | 2019-03-29 | 2020-10-08 | 株式会社 情報システムエンジニアリング | Information provision system and information provision method |
WO2020202825A1 (en) * | 2019-03-29 | 2020-10-08 | 株式会社 情報システムエンジニアリング | Information provision system, and information provision method |
US11341714B2 (en) | 2018-07-31 | 2022-05-24 | Information System Engineering Inc. | Information service system and information service method |
US11651023B2 (en) | 2019-03-29 | 2023-05-16 | Information System Engineering Inc. | Information providing system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281297A (en) * | 2002-03-22 | 2003-10-03 | National Institute Of Advanced Industrial & Technology | Information presenting device and information presenting method |
WO2016084142A1 (en) * | 2014-11-26 | 2016-06-02 | 株式会社日立製作所 | Work assistance system and work assistance method |
-
2016
- 2016-12-21 JP JP2016248208A patent/JP6719373B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281297A (en) * | 2002-03-22 | 2003-10-03 | National Institute Of Advanced Industrial & Technology | Information presenting device and information presenting method |
WO2016084142A1 (en) * | 2014-11-26 | 2016-06-02 | 株式会社日立製作所 | Work assistance system and work assistance method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11341714B2 (en) | 2018-07-31 | 2022-05-24 | Information System Engineering Inc. | Information service system and information service method |
JP2020166782A (en) * | 2019-03-29 | 2020-10-08 | 株式会社 情報システムエンジニアリング | Information provision system and information provision method |
WO2020202825A1 (en) * | 2019-03-29 | 2020-10-08 | 株式会社 情報システムエンジニアリング | Information provision system, and information provision method |
WO2020202824A1 (en) * | 2019-03-29 | 2020-10-08 | 株式会社 情報システムエンジニアリング | Information provision system, and information provision method |
JP2020166783A (en) * | 2019-03-29 | 2020-10-08 | 株式会社 情報システムエンジニアリング | Information provision system and information provision method |
US11520822B2 (en) | 2019-03-29 | 2022-12-06 | Information System Engineering Inc. | Information providing system and information providing method |
US11520823B2 (en) | 2019-03-29 | 2022-12-06 | Information System Engineering Inc. | Information providing system and information providing method |
US11651023B2 (en) | 2019-03-29 | 2023-05-16 | Information System Engineering Inc. | Information providing system |
US11934446B2 (en) | 2019-03-29 | 2024-03-19 | Information System Engineering Inc. | Information providing system |
Also Published As
Publication number | Publication date |
---|---|
JP6719373B2 (en) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6719373B2 (en) | Judgment system, judgment method, and judgment program | |
CN106663245B (en) | Social alerts | |
KR102438199B1 (en) | Display device and method for changing settings of display device | |
JP6916167B2 (en) | Interactive control methods and devices for voice and video calls | |
TWI394410B (en) | Method and system for filtering incoming messages to a mobile device | |
JP5735592B2 (en) | Information processing apparatus, control method, and control program | |
US7787869B2 (en) | Device, method, and computer program product for providing enhanced blogging features on a mobile phone | |
CN104935491B (en) | A kind of method and device sending facial expression image | |
JP6212654B2 (en) | User information acquisition method and apparatus | |
US10171985B1 (en) | Method and apparatus for data sharing | |
KR101796400B1 (en) | Information collection method, apparatus, program and recording medium | |
US9961267B2 (en) | Personal camera companion for real-time streaming | |
CN110781408B (en) | Information display method and device | |
JP2015201168A (en) | Method and apparatus for prompting based on smart glasses | |
TW201407485A (en) | Device for operating module identification information | |
JP6321523B2 (en) | Cooking information providing method, control method, program, and terminal device | |
WO2016202074A1 (en) | Method and apparatus for setting state of contact in address book | |
JP2016220183A (en) | Information processing device, information processing system, and program | |
JP2017021650A (en) | Cooking recipe creation method and program | |
EP3214527A1 (en) | Electronic instrument and feedback provision method | |
JP2013226257A (en) | Information provision system, information provision method, and electronic device | |
JP6354848B2 (en) | Sensor management system, sensor management device, sensor device, sensor management method and program | |
US9979492B2 (en) | Method of sharing and receiving information based on sound signal and apparatus using the same | |
EP3280149A1 (en) | Method for providing additional contents at terminal, and terminal using same | |
EP3121698B1 (en) | Data transfer system, display device, portable information terminal, data transfer method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6719373 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |