JP2015152948A - Life log recording system and program thereof - Google Patents
Life log recording system and program thereof Download PDFInfo
- Publication number
- JP2015152948A JP2015152948A JP2014023420A JP2014023420A JP2015152948A JP 2015152948 A JP2015152948 A JP 2015152948A JP 2014023420 A JP2014023420 A JP 2014023420A JP 2014023420 A JP2014023420 A JP 2014023420A JP 2015152948 A JP2015152948 A JP 2015152948A
- Authority
- JP
- Japan
- Prior art keywords
- user
- sensor data
- data
- sensor
- conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 claims abstract description 80
- 230000009471 action Effects 0.000 claims abstract description 54
- 238000004458 analytical method Methods 0.000 claims abstract description 39
- 238000007405 data analysis Methods 0.000 claims description 100
- 230000006399 behavior Effects 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 description 36
- 238000013500 data storage Methods 0.000 description 26
- 230000001133 acceleration Effects 0.000 description 20
- 238000002372 labelling Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 235000013305 food Nutrition 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 235000015429 Mirabilis expansa Nutrition 0.000 description 2
- 244000294411 Mirabilis expansa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 235000013536 miso Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Abstract
Description
本発明は、各種センサから得られたライフログに、ロボットとユーザとの音声対話に基づいてラベル付けをするライフログ記録システム及びそのプログラムに関するものである。 The present invention relates to a life log recording system for labeling life logs obtained from various sensors based on a voice dialogue between a robot and a user, and a program therefor.
近年、さまざまなセンサが小型化、省電力化され、ライフログとしてのセンサデータの収集が容易に行えるようになってきている。収集されたライフログは、ユーザの行動を把握し、より良いサービスを提供できるようにするため、例えば、サービスの使い勝手の向上や、行動を予測したさまざまなサービスの提供などに利用されている(例えば、特許文献1並びに非特許文献1及び2参照)。 In recent years, various sensors have been reduced in size and power consumption, and sensor data as life logs can be easily collected. The collected life log is used to improve the usability of services and provide various services that predict behaviors in order to understand user behavior and provide better services ( For example, see Patent Document 1 and Non-Patent Documents 1 and 2).
一方、音声による自動応答システムは古くから検討が重ねられてきており、電話でのサポートデスクの対応や、カーナビゲーションシステム、ロボットとの対話などで広く活用されている(例えば、非特許文献3参照)。 On the other hand, an automatic response system using voice has been studied for a long time, and is widely used for support of a telephone support desk, car navigation system, interaction with a robot, and the like (for example, see Non-Patent Document 3). ).
また、人とコミュニケーションをとることができ、さらにネットワークと接続することも可能な小型のヒューマノイドロボットの普及が始まってきており、家庭に置くことも可能な状況になってきている(例えば、非特許文献4参照)。 In addition, the spread of small humanoid robots that can communicate with people and can be connected to a network has begun to spread, and it is now possible to place them at home (for example, non-patented). Reference 4).
上述したように、近年、さまざまなセンサデータの収集が容易に行えるようになってきている。しかしながら、センサデータは、単なる数値の並びのままであっては利用価値が低い。 As described above, in recent years, various sensor data can be easily collected. However, the sensor data has a low utility value if it is merely a sequence of numerical values.
センサデータは、ラベルを付与して何らかの意味付けをすることにより、有用なデータとして活用することが可能となるが、従来、センサデータにラベルを付与することは非常に労力のかかる作業であった。例えば、センサデータが非常に特徴的なデータである場合などに、自動的にラベル付けができる場合はあったが、そのようなケースは少なく、その他の多くの場合は、人手でラベル付けをする必要があり、非常に労力がかかっていた。 Sensor data can be used as useful data by giving a label and giving some meaning, but it has been a very laborious task to give a label to sensor data. . For example, when sensor data is very characteristic data, there was a case where automatic labeling was possible, but such cases are rare, and in many other cases, manual labeling is performed. It was necessary and very labor intensive.
かかる点に鑑みてなされた本発明の目的は、センサデータに対し、ユーザにとって意味のあるラベルを容易に付与することが可能なライフログ記録システム及びそのプログラムを提供することにある。 An object of the present invention made in view of such a point is to provide a life log recording system and a program thereof capable of easily giving a meaningful label to a user to sensor data.
上記課題を解決するため、本発明に係るライフログ記録システムは、センサ装置、サーバ、センサデータ解析装置及びロボット装置を備え、前記センサ装置は、該センサ装置のユーザに関するセンサデータを取得する手段を有し、前記サーバは、前記センサ装置から前記センサデータを受信する手段と、前記センサデータを蓄積する手段とを有し、前記センサデータ解析装置は、前記サーバから前記センサデータを受信する手段と、学習済みのユーザの行動を学習データとして記憶している学習記憶手段と、前記センサデータに、前記学習データを参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成する解析手段と、前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断する手段と、ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信する手段とを有し、前記ロボット装置は、前記会話をユーザと行う手段と、前記会話に対するユーザの応答を前記センサデータ解析装置に送信する手段とを有し、前記センサデータ解析装置は、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信する手段を有するものである。 In order to solve the above problems, a life log recording system according to the present invention includes a sensor device, a server, a sensor data analysis device, and a robot device, and the sensor device includes means for acquiring sensor data relating to a user of the sensor device. The server has means for receiving the sensor data from the sensor device and means for storing the sensor data, and the sensor data analysis device has means for receiving the sensor data from the server; If the learning storage means stores learning user behavior as learning data and the sensor data includes data that cannot identify the user behavior even with reference to the learning data, the user behavior is identified. From the analysis means that constitutes a conversation for extracting information to be performed from the user and the sensor data, the user Means for determining whether or not it is in a state of being able to talk to a device, and means for transmitting the conversation to the robot device when the user is in a state of being able to talk to the robot device, the robot The apparatus includes means for performing the conversation with the user, and means for transmitting a user response to the conversation to the sensor data analysis apparatus. The sensor data analysis apparatus further includes: It has a means to transmit the label information which gives meaning to the sensor data to the server.
また、上記課題を解決するため、本発明に係るプログラムは、センサ装置、サーバ、センサデータ解析装置及びロボット装置を備えるライフログ記録システムを動作させるプログラムであって、前記センサ装置に、該センサ装置のユーザに関するセンサデータを取得するステップを実行させ、前記サーバに、前記センサ装置から前記センサデータを受信するステップと、前記センサデータを蓄積するステップとを実行させ、前記センサデータ解析装置に、前記サーバから前記センサデータを受信するステップと、受信した前記センサデータに、学習済みのユーザの行動を参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成するステップと、前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断するステップと、ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信するステップとを実行させ、前記ロボット装置に、前記会話をユーザと行うステップと、前記会話に対するユーザの応答を前記センサデータ解析装置に送信するステップとを実行させ、前記センサデータ解析装置に、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信するステップを実行させるものである。 In order to solve the above problems, a program according to the present invention is a program for operating a life log recording system including a sensor device, a server, a sensor data analysis device, and a robot device, and the sensor device includes the sensor device. Obtaining sensor data relating to the user of the user, causing the server to receive the sensor data from the sensor device, and storing the sensor data, and causing the sensor data analysis device to When the sensor data received from the server and the received sensor data includes data that cannot identify the user's behavior even if the learned user's behavior is referred to, information for identifying the user's behavior is provided to the user. Constructing a conversation to be drawn from the sensor data Performing a step of determining whether or not a user is in a state of being able to talk to the robot device, and a step of transmitting the configured conversation to the robot device when the user is in a state of being able to talk to the robot device. And causing the robot apparatus to execute the conversation with the user and transmitting the user response to the conversation to the sensor data analysis apparatus, and further causing the sensor data analysis apparatus to further execute the user response. Based on the above, a step of transmitting label information giving meaning to the sensor data to the server is executed.
本発明によれば、センサデータに対し、ユーザにとって意味のあるラベルを自然な対話を通して容易に付与することができ、ラベル付けされたことで、ライフログのより広い活用が期待できる。また、ロボットを介した自然な会話をさせることで、ラベル付け作業をしている、という直接的な印象を和らげることができ、継続性が期待できる。 According to the present invention, a label that is meaningful to the user can be easily given to the sensor data through a natural dialogue, and a wider use of the life log can be expected because the label is attached. In addition, by having a natural conversation through the robot, the direct impression that the labeling work is performed can be eased, and continuity can be expected.
以下、本発明に係る実施形態について、図面を参照して説明する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係るライフログ記録システムの構成例を示すブロック図である。図1に示すように、本発明の一実施形態に係るライフログ記録システムは、センサ装置100と、サーバ200と、センサデータ解析装置300と、ロボット装置400とを備える。
FIG. 1 is a block diagram showing a configuration example of a life log recording system according to an embodiment of the present invention. As shown in FIG. 1, the life log recording system according to an embodiment of the present invention includes a
センサ装置100は、ユーザが日頃から持ち歩いている装置である。センサ装置100は、加速度センサ101と、位置センサ102と、記憶部110と、データ送信部120とを備える。
The
加速度センサ101は、センサ装置100を持ち歩いているユーザの加速度を検出し、検出した加速度データを時刻情報と同期させて記憶部110に記憶する。加速度データは、ユーザの移動情報や歩数情報などを得るために用いられる。
The
位置センサ102は、例えばGPS(Global Positioning System)を用いたセンサであり、センサ装置100を持ち歩いているユーザの位置データを検出する。位置センサ102は、検出した位置データを時刻情報と同期させて記憶部110に記憶する。
The
以下、加速度データや位置データなど、センサ装置100に含まれる各種センサにより取得されたユーザに関するデータを「センサデータ」と総称する。
Hereinafter, data relating to a user acquired by various sensors included in the
記憶部110は、加速度センサ101や位置センサ102が検出したセンサデータを記憶する。
The
データ送信部120は、記憶部110に記憶されているセンサデータをサーバ200に送信する。
The
サーバ200は、データ受信部210と、データ蓄積部220と、データ要求受信部230と、データ送信部240とを備える。
The
データ受信部210は、センサ装置100からユーザのセンサデータを受信する。また、データ受信部210は、センサデータ解析装置300からセンサデータに意味付けをするためのラベル情報を受信する。
The
データ蓄積部220は、センサ装置100から受信したユーザのセンサデータを蓄積する。また、データ蓄積部220は、センサデータ解析装置300から受信したラベル情報に基づいて、蓄積しているセンサデータにラベル付けをする。ラベルには、行動の種類、場所の名称、一緒にいた人の情報、移動手段などがある。センサデータ、ラベル情報、及び、時刻情報を含む情報は、ライフログとして扱われる。
The
データ要求受信部230は、センサデータ解析装置300から、ユーザのセンサデータの要求を受信する。
The data
データ送信部240は、センサデータ解析装置300からの要求に応じて、ユーザのセンサデータをセンサデータ解析装置300に送信する。
The
センサデータ解析装置300は、データ要求部310と、データ受信部320と、データ解析部330と、学習データ記憶部340と、発話内容構成部350と、ロボットアクション送信部360と、応答結果受信部370と、応答結果解析部380と、ラベル情報送信部390とを備える。
The sensor
データ要求部310は、サーバ200に対し、ユーザのセンサデータを要求する。
The
データ受信部320は、サーバ200から、ユーザのセンサデータを受信し、データ解析部330に送信する。
The
データ解析部330は、学習データ記憶部340に記憶されている学習データを参照して、サーバ200から受信したセンサデータを解析し、ユーザの行動を特定できるか否かを判断する。データ解析部330は、ユーザの行動を特定できると判断した場合は、ラベル情報送信部390に、センサデータに意味付けするためのラベル情報をサーバ200に送信させ、また、学習データ記憶部340にラベル情報を記憶させる。データ解析部330は、ユーザの行動を特定できないと判断した場合は、発話内容構成部350に、ユーザからラベル情報を引き出すための質問を含む会話やロボットアクションを構成させる。
The
学習データ記憶部340は、学習済みのユーザの行動を学習データとして記憶している。
The learning
発話内容構成部350は、ユーザから情報を引き出すための会話を構成する。また、該会話に伴ってロボット装置400に行わせるロボットアクションを構成する。
The utterance
ロボットアクション送信部360は、発話内容構成部350が構成した会話や、該会話に基づいて構成されたロボットの動作情報を、ロボット装置400に送信する。
The robot
応答結果受信部370は、ロボット装置400からユーザの応答結果を受信し、応答結果解析部380に送信する。
The response
応答結果解析部380は、応答結果受信部370から受信したユーザの応答結果を解析し、ユーザの行動を特定できると判断した場合は、ラベル情報送信部390に、センサデータに意味付けするためのラベル情報をサーバ200に送信させ、また、学習データ記憶部340にラベル情報を記憶させる。応答結果解析部380は、ユーザの応答結果を解析しても、ユーザの行動を特定できないと判断した場合は、発話内容構成部350に、ユーザからラベル情報を引き出すための質問を含む会話やロボットアクションを再度構成させる。
When the response
ラベル情報送信部390は、センサデータに意味付けするためのラベル情報をサーバ200に送信する。
The label
ロボット装置400は、ロボットアクション受信部410と、ロボットアクション部420と、応答入力部430と、応答結果送信部440とを備える。ロボット装置400は、例えば、小型のヒューマノイドロボットであるが、エージェントなどのバーチャルロボットであってもよい。
The
ロボットアクション受信部410は、センサデータ解析装置300からロボットアクション情報を受信する。
The robot
ロボットアクション部420は、受信したロボットアクション情報に基づいて発話や動作を行う。
The
応答入力部430は、ユーザからの音声による発話や、頷きや首振りなどの動作による肯定/否定の応答を取得する。
The
応答結果送信部440は、取得した応答情報を、センサデータ解析装置300に送信する。
The response
なお、図1に示したライフログ記録システムのブロック図はあくまで一例であり、複数の構成部を1つに組み合わせたり分割したりすることも可能である。また、各装置の各構成部は他の装置に含まれていてもよい。例えば、データ解析部330と応答結果解析部380を統合して1つの解析部として構成してもよい。また、例えば、センサデータ解析装置300の構成部の一部又は全部がサーバ200に含まれていてもよい。
The block diagram of the life log recording system shown in FIG. 1 is merely an example, and a plurality of components can be combined or divided into one. Each component of each device may be included in another device. For example, the
図2は、本発明の一実施形態に係るライフログ記録システムの処理フローを示す図である。以下、図2を参照して、本発明の一実施形態に係るライフログ記録システムの処理フローを説明する。 FIG. 2 is a diagram showing a processing flow of the life log recording system according to the embodiment of the present invention. Hereinafter, the processing flow of the life log recording system according to the embodiment of the present invention will be described with reference to FIG.
センサ装置100において、加速度センサ101は、常時、ユーザの加速度データを取得し(ステップS101)、一時的に記憶部110に記憶する(ステップS102)。また、位置センサ102は、常時、ユーザの位置データを取得し(ステップS103)、一時的に記憶部110に記憶する(ステップS104)。データ送信部120は、例えば毎日決められた所定の時刻に、記憶部110に記憶された加速度データ及び位置データをサーバ200に送信(アップロード)する(ステップS105)。
In the
サーバ200において、データ受信部210は、センサ装置100からセンサデータを受信し、また、センサデータ解析装置300からラベル情報を受信する(ステップS201)。データ受信部210は、受信したセンサデータ及びラベル情報をデータ蓄積部220に蓄積する(ステップS202)。データ蓄積部220に蓄積されるデータの一例を図3に示す。図3(a)はラベル情報によりラベル付けされた加速度データの例であり、図3(b)はラベル情報によりラベル付けされた位置データの例である。一方、データ要求受信部230がセンサデータ解析装置300から要求を受信すると(ステップS203)、データ送信部240は、要求のあったデータをデータ蓄積部220から読み出し(ステップS204)、センサデータ解析装置300に送信する(ステップS205)。
In the
センサデータ解析装置300において、データ要求部310は、定期的に、例えば1時間毎に、サーバ200に対して、新たに蓄積されたデータを要求する(ステップS301)。データ受信部320は、データ要求部310が要求したデータを、サーバ200から受信する(ステップS302)。データ解析部330は、学習データ記憶部340に記憶されている学習データを参照して(ステップS303)、サーバ200から受信したデータを解析し(ステップS304)、ユーザの行動を特定してデータへのラベル付けが可能であるか否かを判断する(ステップS305)。学習データ記憶部340に記憶されている学習データの一例を図4に示す。
In the sensor
データ解析部330は、位置データを解析する場合、例えば、移動速度、ある点からある点まで移動した際の所要時間、滞留の有無(位置ずれが閾値以内で、一定時間以上など)、軌跡の外れ方(平均位置よりどの位ずれているか)、及び、軌跡自体などに基づいて解析する。例えば、データ解析部330は、学習済みの場所から半径5m以内に一定時間以上留まっている場合に、その場所にいると判断してラベル付けを行う。また、データ解析部330は、加速度データを解析する場合、例えば、波形の微分値や波形自体の類似性などに基づいて解析する。例えば、データ解析部330は、学習済みの波形と比較して、類似性から、歩いている/走っている/車や電車で移動している、といった行動をユーザがとったと判断しラベル付けを行う。なお、上記説明は、データ解析部330がセンサデータにラベル付けを行う例をいくつか示したものであって、ラベル付けをする項目やラベル付けの方法はこれらに限定されるものではない。データ解析部330は、任意の項目について任意の方法でセンサデータにラベルを付けることができる。
When analyzing the position data, the
データ解析部330は、例えば、学習されている定常的な移動ルートからユーザが外れている場合、その理由がわからないので、ラベル付けを自動ですることができない。また、例えば、データ解析部330は、ユーザがある店で食事をしたことが特定できた場合に、店の名前は特定できても、食べた料理までは特定できない。この場合、データ解析部330は、店の名前までは自動でラベル付けをすることができるが、食べた料理は自動でラベル付けをすることができない。
For example, when the user deviates from the learned steady movement route, the
データ解析部330は、ステップS305においてYesと判断した場合、データへのラベル付けを行い(ステップS306)、ラベル情報送信部390に、ラベル情報をサーバ200に送信させる(ステップS307)。データ解析部330は、ステップS305においてNoと判断した場合、すなわち、センサデータに何らかの変化を検出したものの、学習データ記憶部340に記憶された学習データを参照してもラベル付けができなかった場合は、発話内容構成部350に、ユーザから、ユーザの行動を特定し、そのデータの変化に対するラベル情報を引き出すための質問を含む会話やロボットアクションを構成させる(ステップS308及びS309)。データ解析部330は、ユーザからラベル情報を引き出すための質問を構成させる際、例えば、欲しい情報に関する言葉を質問に含ませる(例えば、味噌ラーメンを食べたかどうかを確認したい場合に、「味噌ラーメン」という言葉を質問に含ませる)。
If the
データ解析部330は、サーバ200から取得したセンサデータから、ユーザがロボット装置400のそばにいてロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360に、発話内容構成部350が構成した発話情報や、該発話情報に基づいて構成されたロボットの動作情報を、ロボット装置400に送信させる(ステップS310)。ロボットアクション送信部360が送信するデータの一例を図5に示す。
When the
応答結果受信部370は、ロボット装置400からユーザの応答結果を受信し(ステップS302)、今度は、応答結果解析部380が、データ解析部330が実行したステップS303〜S305に対応する処理を実行する。応答結果解析部380は、応答結果受信部370が受信したユーザの応答を解析し、ラベル付けが可能と判断した場合(ステップS305のYes)、データへのラベル付けを行い(ステップS306)、ラベル情報送信部390に、センサデータに意味付けをするラベル情報をサーバ200に送信させる(ステップS307)とともに、ラベル情報を学習データ記憶部340に登録する(ステップS311)。応答結果解析部380は、ラベル付けが十分であるか否かを判断する(ステップS312)。応答結果解析部380は、ステップS312にてYesと判断した場合、処理を終了する。応答結果解析部380は、ステップS312にてNoと判断した場合、例えば、さらに追加となるラベル情報を付けたい場合など、さらなる会話が必要であると判断した場合は、再びステップS308にすすみ、発話内容構成部350に、さらなる会話を構成させる。
The response
ロボット装置400において、ロボットアクション受信部410は、センサデータ解析装置300からロボットアクション情報を受信する(ステップS401)。ロボットアクション部420は、受信したロボットアクション情報に基づいて発話や動作を行う(ステップS402)。応答入力部430は、ユーザからの音声による発話や、頷きや首振りなどの動作による肯定/否定の応答を取得する(ステップS403)。応答結果送信部440は、取得した応答情報を、センサデータ解析装置300に送信する(ステップS404)。
In the
なお、上記構成においては、センサ装置100からのデータを一旦サーバ200に蓄積してから、センサデータ解析装置300が、サーバ200に蓄積されたデータを取得しているが、サーバ200とセンサデータ解析装置300が、センサ装置100からのデータを並列で受信し、センサデータ解析装置300がデータの解析を行うように構成してもよい。
In the above configuration, the data from the
以下、センサデータ解析装置300がサーバ200からセンサデータを取得した後の処理について、具体例(実施例1〜9)を挙げて詳しく説明する。なお、以下の説明においては、ロボット装置400は、自宅にある小型のヒューマノイドロボットであるものとする。また、各実施例で重複する処理については適宜省略して説明する。
Hereinafter, the processing after the sensor
[実施例1]
データ解析部330は、サーバ200から取得したユーザの位置データから、ユーザが昼頃にある場所に長く留まっていたと判断した。しかしながら、データ解析部330は、学習データ記憶部340に記憶されている学習データを参照しても、ユーザがその時間に昼食をとることが多いことはわかったが、普段は長時間留まらない場所であるため、場所を特定することはできなかった。
[Example 1]
The
この場合、データ解析部330は、昼食の可能性が高いこと、及び、場所が不明であることをキー情報として、ラベル付けに必要な情報を聞き出すために、発話内容構成部350に、
「xx時頃、お昼ご飯を食べに行った?」
「何ていうお店?」
「何を食べたの?」
「おいしかった?」
といった会話を構成させる。また、データ解析部330は、発話内容構成部350に、例えば、上記例の最初の3つの質問については、わからないことを聞く際の首をかしげるような動作をロボット装置400がしながら質問の発話をするように構成させ、また、最後の質問については、わくわくして身を乗り出すような動作をロボット装置400がしながら質問の発話をするように構成させる。
In this case, the
"Did you go to eat lunch around xx?"
"What kind of shop?"
"What did you eat?"
"it was delicious?"
Make a conversation. In addition, the
さらに、データ解析部330は、サーバ200から取得したセンサデータから、ユーザが自宅に帰ってロボット装置400のそばにいる状態で夕食を食べているときなど、ユーザがロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に情報を順に送信させる。データ解析部330は、サーバ200から取得したセンサデータから、例えば、夕方の時間帯に、ユーザが、食卓のある位置にいて、大きな移動をほとんどせずに手を動かしていると判断した場合に、ユーザが自宅で夕食を食べていると特定することができる。
Furthermore, the
ロボット装置400は、ロボットアクション受信部410が受信した情報に基づいて、ロボットアクション部420により一つずつユーザに質問をする。応答結果送信部440は、応答入力部430がユーザから得た応答を、センサデータ解析装置300に送信する。
The
応答結果解析部380は、応答結果受信部370がロボット装置400から受信したユーザの応答を解析する。この際、望んだような応答が得られなかった場合は、応答結果解析部380は、変更した発話内容を発話内容構成部350に構成させ、ロボットアクション送信部360は、変更後の発話内容及びロボットアクションをロボット装置400に送信する。
The response
上記例においては、例えば、1つ目の質問に対する応答が肯定的なものである場合は、応答結果解析部380は、ロボット装置400に最初に計画した通りの発話を続けさせるが、1つ目の質問に対する応答が否定的なものである場合は、例えば、
「じゃあ、何をしていたの?」
といった質問に切り替えて、ロボット装置400に発話させる。
In the above example, for example, when the response to the first question is affirmative, the response
"So what were you doing?"
Is switched to such a question, and the
また、応答結果解析部380は、例えば、2つ目や3つ目の質問については、ユーザの応答に含まれる名詞を形態素解析により見つけ出し、答えとして適切そうな言葉であるか否かを判断することにより、望んでいる応答であるか否かを判断することができる。
In addition, for example, for the second and third questions, the response
応答結果解析部380は、ユーザの応答から、昼食を食べたこと、滞留していた場所の店の名前、何を食べたのか、(その人なりの)その料理の評価などを取得できた場合、これらは、該当するセンサデータの変化に対応したラベル情報であるとして、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。サーバ200は、データ受信部210が受信したラベル情報をデータ蓄積部220に格納する。
When the response
これらのデータ蓄積部220に蓄積された情報(ライフログ)は、後日、「前に行った餃子がおいしいお店ってどこだっけ?」といった問いかけへの応答を行う際などに使うことができる。
The information (life log) stored in these
本実施形態に係るライフログ記録システムは、ユーザが使い始めた当初は、ユーザに合わせた学習が十分にされていないために、質問する頻度や項目が多くなるが、学習が進むにつれて、似たような行動に対しては、ユーザに聞かなくても自動的にラベル付けを行えるようになってくる。その結果、ロボット装置400がユーザに確認の質問をする回数が減ってくる。
The life log recording system according to the present embodiment is frequently used at the beginning of the user because learning according to the user is not sufficiently performed, so the frequency and items to ask questions increase. Such behavior can be automatically labeled without asking the user. As a result, the number of times that the
なお、本実施例においては、あるセンサデータの変化をトリガーにして、タスクの決まった質問応答型の会話によってその理由などを聞く場合を説明したが、タスク指向型でストレートに質問するのではなく、雑談を行わせるような会話システムに、雑談のキーワードとして「昼食」といった言葉を設定し、雑談の中でのユーザからの返答からラベル情報となる応答を抽出するようにしてもよい。あるいは、雑談とタスク指向型の会話を織り交ぜて、より自然な会話の中で聞きだすようにしてもよい。 In this embodiment, a case has been described in which a change in certain sensor data is used as a trigger and the reason is heard by a question-answering conversation with a fixed task. Alternatively, a word such as “lunch” may be set as a chat keyword in a conversation system for performing chat, and a response serving as label information may be extracted from a response from the user in the chat. Alternatively, chatting and task-oriented conversation may be interlaced to start listening in a more natural conversation.
[実施例2]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、普段ジョギングしている時とは異なる状況(異なる時間帯、場所)で、ジョギングと似たような激しい動きをしたと判断した。
[Example 2]
The
この場合、データ解析部330は、発話内容構成部350に、
「xx時頃にも走っていたみたいだけど、何かあったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、例えば、ユーザが日頃から行っているジョギングから戻ってきて、ロボット装置400のそばで一息ついているときなど、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
“It seems like I was running around xx, but was there anything?”
Make a conversation. The
応答結果解析部380は、ユーザから、「電車に遅れそうになって走った」といった応答が得られた場合、センサデータのその区間に対し、「走った」こと、「電車に遅れそうだった」ことをラベルとして付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。
When the response
上記内容は、後日、ライフログを利用したサービスとして、ある場所から駅までの時間を答える際、走ったら何分、といった答えを出すために、ラベル付けされたライフログを活用することができる。 The above contents can be used as a service that uses a life log at a later date to use the labeled life log in order to give an answer such as how many minutes it takes to run when answering the time from a certain place to the station.
[実施例3]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、いつもの平日であれば、ユーザが、この位の時間にどこかに滞在して昼食を食べる記録が残るが、その日には昼食をとった形跡を自動的に発見できなかった。
[Example 3]
From the sensor data of the user acquired from the
この場合、データ解析部330は、発話内容構成部350に、
「今日はお昼ご飯、どうしたの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいる状態であり、例えば、夕食を食べているときなど、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
"What did you do for lunch today?"
Make a conversation. From the data acquired from the
応答結果解析部380は、ユーザから、「食べなかった」といった応答が得られた場合、特定のセンサデータの部分に対するラベル付けは行わないが、その日のラベルとして、「昼食抜き」といったラベルを付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。
The response
また、応答結果解析部380は、ユーザから、
「駅弁買ってxxへ行く電車の中で食べた」
「xxという駅弁がおいしかった」
といった応答が得られた場合、センサデータ中の、電車で移動中のデータに対して、「昼食」「駅弁」「xxという駅弁がおいしかった」といった情報を、ラベル情報として付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。
In addition, the response
"I bought a station lunch and ate it on the train going to xx"
"The eki box called xx was delicious"
If a response such as “Lunch”, “Ekiben”, or “xx Ekiben” was delicious for the data that was moving on the train in the sensor data, the label information should be added. The
[実施例4]
データ解析部330は、サーバ200から取得したユーザのセンサデータと、学習データ記憶部340に記憶されている学習データとから、ユーザがどこかの店に立ち寄ったであろうと判断した。しかしながら、データ解析部330は、似たようなセンサデータの変化に対して、複数の異なる店名のラベル付けがされていることから、自動的な絞り込みができなかった。
[Example 4]
The
この場合、データ解析部330は、発話内容構成部350に、例えば、
「今日寄ったのはどっちの店?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
“Which store did you stop by today?”
Make a conversation. When the
応答結果解析部380は、ユーザからの応答を得て、ラベル付けする際の精度を高めることができる。
The response
[実施例5]
本実施例においては、センサ装置100は、図6に示すように、加速度センサ101、位置センサ102に合わせて、バイタルセンサ103も備えるものとする。バイタルセンサ103は、センサ装置100を持ち歩いているユーザの心拍数、血圧、血中酸素濃度などを検出することができる。検出された心拍数データなどは、加速度データ及び位置データと同様に、データ蓄積部220に蓄積される。
[Example 5]
In this embodiment, the
データ解析部330は、サーバ200から取得したユーザの加速度データ及び位置データには特に変化を見つけなかったが、特別な動きをしているわけではないにも関わらず、心拍数が急に上がっている時があることを見つけた。
The
この場合、データ解析部330は、発話内容構成部350に、例えば、
「xxxにいた時、何かあったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
"What happened when you were in xxx?"
Make a conversation. When the
応答結果解析部380は、ユーザから、
「中学の時にすごく怒られたxx先生にばったり会って」
といった応答が得られた場合、「xx先生に会った」というラベル情報を、ラベル情報として付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。ただし、このような特異な例は、学習データ記憶部340には記憶しなくてもよい。
The response
"Meet xx teacher who was mad at junior high school"
When the response is obtained, the label
記録されたライフログは、後日、「xx先生に会ったのっていつどこでだったっけ?」
といった問いかけへの回答に利用することができる。
The recorded life log is "Where and when did you meet Dr. xx?"
It can be used to answer such questions.
[実施例6]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、いつもは10km程度走っているジョギングを、今日は3kmしか走らなかったことを見つけた。
[Example 6]
From the sensor data of the user acquired from the
この場合、データ解析部330は、発話内容構成部350に、例えば、
「なんで今日はジョギング短かったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
“Why was jogging short today?”
Make a conversation. When the
応答結果解析部380は、ユーザから、「雨だったから」といった応答が得られた場合、該当部分のライフログとして、ジョギングであるというラベルを確定させるとともに、天候が雨であった、という条件に関するラベルも追加するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。
When a response such as “it was raining” is obtained from the user, the response
応答結果解析部380は、さらに、学習データとして、天候の情報も判断材料となることを学習し、「ジョギング」という行動のラベルを付与できそうなセンサデータが見つかった場合には、その地域の天候の情報をWebから取得し、天候が雨であれば、距離が短くても正常値であると判断して、ユーザへの問いかけを減らすようにしてもよい。
The response
[実施例7]
本実施例においては、センサ装置100は、図7に示すように、加速度センサ101、位置センサ102に合わせて、映像を取得するカメラ104と、音声を取得するマイク105とを備えるものとする。カメラ104が常時取得する映像と、マイク105が常時取得する音声は、加速度データ及び位置データと同様に、データ蓄積部220に蓄積される。ただし、映像や音声の処理は重いため、通常時においては、加速度データや位置データのような解析は行われず、映像や音声については、データ蓄積部220への蓄積のみが行われているものとする。なお、カメラ104は、映像ではなく静止画像を取得するものであってもよい。
[Example 7]
In this embodiment, as shown in FIG. 7, the
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、いつもは立ち寄らない場所に立ち寄っていた、という変化を見つけた。しかしながら、データ解析部330は、通常のラベル付けで使用しているデータからだけでは、ラベル付けができないか、あるいは、不足していると推測した。
The
この場合、データ解析部330は、追加の分析として、情報取得源の候補となる別メディア情報として登録されている映像を取得して解析する。データ解析部330は、該当する時間帯の映像の解析を行い、例えば、映像にラーメンが長時間写っていたことを見つける。
In this case, as an additional analysis, the
この場合、データ解析部330は、発話内容構成部350に、例えば、
「今日のお昼はラーメンを食べに行ったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
"Did you go to eat ramen today?"
Make a conversation. When the
このように、ライフログ記録システムがよりユーザ本人を理解しているような、適切な質問をすることで、ユーザに親しみやすさを感じさせ、使用を継続しやすい状況を作り出すことができる。 As described above, by asking an appropriate question that the life log recording system understands the user himself / herself, it is possible to make the user feel familiar and to create a situation where the user can easily use the system.
[実施例8]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、フィットネスクラブに行っていたが、その中のある時間帯だけ、普通よりも長く運動をしている様子がないことを見つけた。
[Example 8]
The
この場合、データ解析部330は、情報取得源の候補となる別メディア情報として登録されているユーザ本人のメールやSNS(Social Network Service)、又は、別の人からのそれらに対する返信を解析する。
In this case, the
データ解析部330は、上記解析の結果、フィットネスに併設されているレストランで食事を取っていたようだ、ということを見つけた。
As a result of the above analysis, the
この場合、データ解析部330は、発話内容構成部350に、例えば、
「フィットネスで夕食を食べてきたの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
“Did you eat dinner at fitness?”
Make a conversation. When the
このように、ライフログ記録システムがよりユーザ本人を理解しているような、適切な質問をすることで、ユーザに親しみやすさを感じさせ、使用を継続しやすい状況を作り出すことができる。 As described above, by asking an appropriate question that the life log recording system understands the user himself / herself, it is possible to make the user feel familiar and to create a situation where the user can easily use the system.
[実施例9]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、フィットネスクラブに行っていたが、その中のある時間帯だけ、普通よりも長く運動をしている様子がないことを見つけた。
[Example 9]
The
この場合、データ解析部330は、情報取得源の候補となる別メディア情報として登録されている同じ時間帯に同じ場所(フィットネス)にいた、SNSなどで友人登録されている人のメールやSNS等を解析する。
In this case, the
データ解析部330は、上記解析の結果、フィットネスに併設されているレストランで一緒に食事を取っていたようだ、ということを見つけた。
As a result of the above analysis, the
この場合、データ解析部330は、発話内容構成部350に、例えば、
「フィットネスでxxさんと夕食を食べてきたの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the
“Did you eat dinner with xx at fitness?”
Make a conversation. When the
このように、ライフログ記録システムがよりユーザ本人を理解しているような、適切な質問をすることで、ユーザに親しみやすさを感じさせ、使用を継続しやすい状況を作り出すことができる。 As described above, by asking an appropriate question that the life log recording system understands the user himself / herself, it is possible to make the user feel familiar and to create a situation where the user can easily use the system.
このように、本発明によれば、過去に学習した学習データでは、ユーザの行動を特定できず自動的にラベル付けができない場合に、ロボット装置がユーザと会話することによってユーザの行動を特定する情報を引き出すため、ユーザにとって意味のあるラベルを自然な対話を通して容易に付与することができる。また、ラベル付けがなされることにより、ライフログのより広い活用が期待できる。 Thus, according to the present invention, when learning data learned in the past cannot identify a user's action and cannot automatically label it, the robot apparatus identifies the user's action by talking with the user. In order to extract information, a label meaningful to the user can be easily given through a natural dialogue. In addition, since the labeling is performed, a wider utilization of the life log can be expected.
また、本発明によれば、センサデータから、ユーザがロボット装置と会話できる状態にあるか否かを判断し、ユーザがロボット装置と会話できる状態にあるときに、ロボット装置にユーザと会話させる。これにより、ユーザは落ち着いた状態でロボット装置と自然な会話をすることができ、ラベル付け作業をしているという直接的な印象を和らげることができる。その結果、ユーザの継続的な使用が期待できる。 Further, according to the present invention, it is determined from the sensor data whether or not the user can talk to the robot apparatus, and when the user can talk to the robot apparatus, the robot apparatus is allowed to talk to the user. Thereby, the user can have a natural conversation with the robot apparatus in a calm state, and the direct impression that the labeling work is being performed can be relieved. As a result, continuous use by the user can be expected.
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。また、本発明について装置を中心に説明してきたが、本発明は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。 Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions included in each component, each step, etc. can be rearranged so that there is no logical contradiction, and multiple components, steps, etc. can be combined or divided into one It is. Further, although the present invention has been described mainly with respect to the apparatus, the present invention can also be realized as a method, a program executed by a processor included in the apparatus, or a storage medium storing the program, and is within the scope of the present invention. It should be understood that these are also included.
なお、上述の実施例では、センサ装置100が、加速度センサ101、位置センサ102、バイタルセンサ103、カメラ104、及び、マイク105などを有する場合を例に挙げて説明したが、センサ装置100は他のセンサを有していてもよい。例えば、センサ装置100は、ユーザがいる場所の環境情報(温度、湿度など)を検出するセンサを有していてもよい。
In the above-described embodiment, the case where the
100 センサ装置
101 加速度センサ
102 位置センサ
103 バイタルセンサ
104 カメラ
105 マイク
110 記憶部
120 データ送信部
200 サーバ
210 データ受信部
220 データ蓄積部
230 データ要求受信部
240 データ送信部
300 センサデータ解析装置
310 データ要求部
320 データ受信部
330 データ解析部
340 学習データ記憶部
350 発話内容構成部
360 ロボットアクション送信部
370 応答結果受信部
380 応答結果解析部
390 ラベル情報送信部
400 ロボット装置
410 ロボットアクション受信部
420 ロボットアクション部
430 応答入力部
440 応答結果送信部
DESCRIPTION OF
Claims (8)
前記センサ装置は、該センサ装置のユーザに関するセンサデータを取得する手段を有し、
前記サーバは、
前記センサ装置から前記センサデータを受信する手段と、
前記センサデータを蓄積する手段とを有し、
前記センサデータ解析装置は、
前記サーバから前記センサデータを受信する手段と、
学習済みのユーザの行動を学習データとして記憶している学習記憶手段と、
前記センサデータに、前記学習データを参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成する解析手段と、
前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断する手段と、
ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信する手段とを有し、
前記ロボット装置は、
前記会話をユーザと行う手段と、
前記会話に対するユーザの応答を前記センサデータ解析装置に送信する手段とを有し、
前記センサデータ解析装置は、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信する手段を有することを特徴とするライフログ記録システム。 A life log recording system comprising a sensor device, a server, a sensor data analysis device and a robot device,
The sensor device has means for obtaining sensor data relating to a user of the sensor device,
The server
Means for receiving the sensor data from the sensor device;
Means for storing the sensor data;
The sensor data analysis device
Means for receiving the sensor data from the server;
Learning storage means for storing learned user behavior as learning data;
When there is data in which the user's behavior cannot be specified even if the sensor data is referred to in the sensor data, an analysis unit that constitutes a conversation for extracting information specifying the user's behavior from the user;
Means for determining from the sensor data whether a user is in a state of being able to talk to the robot apparatus;
Means for transmitting the configured conversation to the robotic device when a user is in a state of being able to converse with the robotic device,
The robot apparatus is:
Means for conducting the conversation with the user;
Means for transmitting a user response to the conversation to the sensor data analysis device;
The sensor data analysis apparatus further includes means for transmitting label information that gives meaning to the sensor data to the server based on a response from the user.
前記センサ装置に、該センサ装置のユーザに関するセンサデータを取得するステップを実行させ、
前記サーバに、
前記センサ装置から前記センサデータを受信するステップと、
前記センサデータを蓄積するステップとを実行させ、
前記センサデータ解析装置に、
前記サーバから前記センサデータを受信するステップと、
受信した前記センサデータに、学習済みのユーザの行動を参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成するステップと、
前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断するステップと、
ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信するステップとを実行させ、
前記ロボット装置に、
前記会話をユーザと行うステップと、
前記会話に対するユーザの応答を前記センサデータ解析装置に送信するステップとを実行させ、
前記センサデータ解析装置に、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信するステップを実行させることを特徴とするプログラム。 A program for operating a life log recording system including a sensor device, a server, a sensor data analysis device, and a robot device,
Causing the sensor device to perform a step of obtaining sensor data relating to a user of the sensor device;
To the server,
Receiving the sensor data from the sensor device;
Storing the sensor data; and
In the sensor data analysis device,
Receiving the sensor data from the server;
If there is data that cannot identify the user's behavior even if the received sensor data refers to the learned user's behavior, configuring a conversation for extracting information identifying the user's behavior from the user;
Determining from the sensor data whether a user is in a state of being able to talk to the robotic device;
Sending the configured conversation to the robotic device when a user is in a state of being able to talk to the robotic device,
In the robot apparatus,
Conducting the conversation with a user;
Sending a user response to the conversation to the sensor data analyzer,
A program that causes the sensor data analysis device to further execute a step of transmitting label information that gives meaning to the sensor data to the server based on a response from the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014023420A JP6125445B2 (en) | 2014-02-10 | 2014-02-10 | Life log recording system and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014023420A JP6125445B2 (en) | 2014-02-10 | 2014-02-10 | Life log recording system and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015152948A true JP2015152948A (en) | 2015-08-24 |
JP6125445B2 JP6125445B2 (en) | 2017-05-10 |
Family
ID=53895180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014023420A Expired - Fee Related JP6125445B2 (en) | 2014-02-10 | 2014-02-10 | Life log recording system and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6125445B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017062602A (en) * | 2015-09-24 | 2017-03-30 | シャープ株式会社 | Dialogue system, dialogue control method, and program for functioning computer as dialogue system |
JP2017119336A (en) * | 2015-12-28 | 2017-07-06 | ヴイストン株式会社 | Robot, robot control method, and robot program |
JP2018128747A (en) * | 2017-02-06 | 2018-08-16 | ソフトバンク株式会社 | Data processing device, data processing method and program |
WO2018163645A1 (en) * | 2017-03-10 | 2018-09-13 | 日本電信電話株式会社 | Dialogue method, dialogue system, dialogue device, and program |
JP2020140302A (en) * | 2019-02-27 | 2020-09-03 | 株式会社トヨタマップマスター | Data generation and storage device, method and computer program thereof |
KR102260466B1 (en) * | 2020-06-19 | 2021-06-03 | 주식회사 코클리어닷에이아이 | Lifelog device and method using audio recognition |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000339571A (en) * | 1999-05-28 | 2000-12-08 | Omron Corp | Living management system and sensor used for the system |
JP2003131691A (en) * | 2001-10-23 | 2003-05-09 | Fujitsu Ten Ltd | Voice interactive system |
WO2005086051A1 (en) * | 2004-03-08 | 2005-09-15 | National Institute Of Information And Communications Technology | Interactive system, interactive robot, program, and recording medium |
JP2008015585A (en) * | 2006-07-03 | 2008-01-24 | National Institute Of Information & Communication Technology | Living task support system |
JP2012008839A (en) * | 2010-06-25 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Apparatus and method for generating introduction, development, turn, and conclusion type story, and program thereof |
JP2012141720A (en) * | 2010-12-28 | 2012-07-26 | Nec Corp | Communication event log generation system, communication event log generation method and program |
JP2012173807A (en) * | 2011-02-17 | 2012-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Apparatus, method and program for electronic file management |
JP2013054417A (en) * | 2011-09-01 | 2013-03-21 | Kddi Corp | Program, server and terminal for tagging content |
JP2013250862A (en) * | 2012-06-01 | 2013-12-12 | Sony Corp | Information processing apparatus, information processing method and program |
-
2014
- 2014-02-10 JP JP2014023420A patent/JP6125445B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000339571A (en) * | 1999-05-28 | 2000-12-08 | Omron Corp | Living management system and sensor used for the system |
JP2003131691A (en) * | 2001-10-23 | 2003-05-09 | Fujitsu Ten Ltd | Voice interactive system |
WO2005086051A1 (en) * | 2004-03-08 | 2005-09-15 | National Institute Of Information And Communications Technology | Interactive system, interactive robot, program, and recording medium |
JP2008015585A (en) * | 2006-07-03 | 2008-01-24 | National Institute Of Information & Communication Technology | Living task support system |
JP2012008839A (en) * | 2010-06-25 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Apparatus and method for generating introduction, development, turn, and conclusion type story, and program thereof |
JP2012141720A (en) * | 2010-12-28 | 2012-07-26 | Nec Corp | Communication event log generation system, communication event log generation method and program |
JP2012173807A (en) * | 2011-02-17 | 2012-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Apparatus, method and program for electronic file management |
JP2013054417A (en) * | 2011-09-01 | 2013-03-21 | Kddi Corp | Program, server and terminal for tagging content |
JP2013250862A (en) * | 2012-06-01 | 2013-12-12 | Sony Corp | Information processing apparatus, information processing method and program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017062602A (en) * | 2015-09-24 | 2017-03-30 | シャープ株式会社 | Dialogue system, dialogue control method, and program for functioning computer as dialogue system |
JP2017119336A (en) * | 2015-12-28 | 2017-07-06 | ヴイストン株式会社 | Robot, robot control method, and robot program |
JP2018128747A (en) * | 2017-02-06 | 2018-08-16 | ソフトバンク株式会社 | Data processing device, data processing method and program |
WO2018163645A1 (en) * | 2017-03-10 | 2018-09-13 | 日本電信電話株式会社 | Dialogue method, dialogue system, dialogue device, and program |
JPWO2018163645A1 (en) * | 2017-03-10 | 2019-12-26 | 日本電信電話株式会社 | Dialogue method, dialogue system, dialogue device, and program |
JP2020140302A (en) * | 2019-02-27 | 2020-09-03 | 株式会社トヨタマップマスター | Data generation and storage device, method and computer program thereof |
JP7165076B2 (en) | 2019-02-27 | 2022-11-02 | 株式会社トヨタマップマスター | DATA GENERATION AND STORAGE DEVICE, METHOD AND COMPUTER PROGRAM |
KR102260466B1 (en) * | 2020-06-19 | 2021-06-03 | 주식회사 코클리어닷에이아이 | Lifelog device and method using audio recognition |
WO2021256889A1 (en) * | 2020-06-19 | 2021-12-23 | 주식회사 코클리어닷에이아이 | Lifelog device utilizing audio recognition, and method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP6125445B2 (en) | 2017-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11205148B2 (en) | Observation platform for using structured communications | |
JP6125445B2 (en) | Life log recording system and program thereof | |
US11093536B2 (en) | Explicit signals personalized search | |
RU2637874C2 (en) | Generation of interactive recommendations for chat information systems | |
JP7044916B2 (en) | Feedback controller for data transmission | |
US9659298B2 (en) | Systems and methods for informing virtual agent recommendation | |
US20140164532A1 (en) | Systems and methods for virtual agent participation in multiparty conversation | |
US20140164508A1 (en) | Systems and methods for sharing information between virtual agents | |
WO2015054352A1 (en) | Using voice commands to execute contingent instructions | |
JP7207425B2 (en) | Dialog device, dialog system and dialog program | |
JP5643663B2 (en) | Action history generation device and action history generation method | |
WO2023287910A1 (en) | Intelligent task completion detection at a computing device | |
JPWO2019097674A1 (en) | Operation support device for vehicles | |
CN105869631B (en) | The method and apparatus of voice prediction | |
WO2022264391A1 (en) | Server device, system, server device control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6125445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |