JP2015152948A - Life log recording system and program thereof - Google Patents

Life log recording system and program thereof Download PDF

Info

Publication number
JP2015152948A
JP2015152948A JP2014023420A JP2014023420A JP2015152948A JP 2015152948 A JP2015152948 A JP 2015152948A JP 2014023420 A JP2014023420 A JP 2014023420A JP 2014023420 A JP2014023420 A JP 2014023420A JP 2015152948 A JP2015152948 A JP 2015152948A
Authority
JP
Japan
Prior art keywords
user
sensor data
data
sensor
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014023420A
Other languages
Japanese (ja)
Other versions
JP6125445B2 (en
Inventor
仁 土川
Hitoshi Tsuchikawa
仁 土川
一穂 有田
Kazuo Arita
一穂 有田
岡本 学
Manabu Okamoto
学 岡本
吾郎 井前
Goro Imae
吾郎 井前
啓之 佐藤
Hiroyuki Sato
啓之 佐藤
茂木 学
Manabu Mogi
学 茂木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014023420A priority Critical patent/JP6125445B2/en
Publication of JP2015152948A publication Critical patent/JP2015152948A/en
Application granted granted Critical
Publication of JP6125445B2 publication Critical patent/JP6125445B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily give a label significant for a user to sensor data.SOLUTION: A life log recording system includes a sensor device 100, a server 200, a sensor data analyzer 300, and a robotic device 400. The sensor device 100 includes means for acquiring sensor data about a user, and the server 200 includes means for storing the sensor data. The sensor data analyzer 300 includes: analysis means which constructs speech for drawing out information specifying user's action if the user's action cannot be specified by referring to learning data; and means which determines whether or not the user is in a state of being capable of having a conversation with the robotic device 400. The robotic device 400 includes means for having a conversation with the user. The sensor data analyzer 300 further includes means which transmits label information giving a meaning to the sensor data, to the server on the basis of user's response.

Description

本発明は、各種センサから得られたライフログに、ロボットとユーザとの音声対話に基づいてラベル付けをするライフログ記録システム及びそのプログラムに関するものである。   The present invention relates to a life log recording system for labeling life logs obtained from various sensors based on a voice dialogue between a robot and a user, and a program therefor.

近年、さまざまなセンサが小型化、省電力化され、ライフログとしてのセンサデータの収集が容易に行えるようになってきている。収集されたライフログは、ユーザの行動を把握し、より良いサービスを提供できるようにするため、例えば、サービスの使い勝手の向上や、行動を予測したさまざまなサービスの提供などに利用されている(例えば、特許文献1並びに非特許文献1及び2参照)。   In recent years, various sensors have been reduced in size and power consumption, and sensor data as life logs can be easily collected. The collected life log is used to improve the usability of services and provide various services that predict behaviors in order to understand user behavior and provide better services ( For example, see Patent Document 1 and Non-Patent Documents 1 and 2).

一方、音声による自動応答システムは古くから検討が重ねられてきており、電話でのサポートデスクの対応や、カーナビゲーションシステム、ロボットとの対話などで広く活用されている(例えば、非特許文献3参照)。   On the other hand, an automatic response system using voice has been studied for a long time, and is widely used for support of a telephone support desk, car navigation system, interaction with a robot, and the like (for example, see Non-Patent Document 3). ).

また、人とコミュニケーションをとることができ、さらにネットワークと接続することも可能な小型のヒューマノイドロボットの普及が始まってきており、家庭に置くことも可能な状況になってきている(例えば、非特許文献4参照)。   In addition, the spread of small humanoid robots that can communicate with people and can be connected to a network has begun to spread, and it is now possible to place them at home (for example, non-patented). Reference 4).

特開2011−108055号公報JP 2011-108055 A

間瀬健二、「インタラクションに基づく体験共有コミュニケーション」、電子情報通信学会技術研究報告、一般社団法人電子情報通信学会、2006年1月、PRMU2005−143/HIP2005−113、p.37−42Kenji Mase, “Experience Sharing Communication Based on Interaction”, IEICE Technical Report, IEICE, January 2006, PRMU 2005-143 / HIP 2005-113, p. 37-42 野間春生 他、「センサ・ネットワークにおける個人の行動計測のための小型装着型機器の開発」、情報処理学会研究報告、一般社団法人情報処理学会、2007年7月、2007−UBI−15、p.29−34Haruma Noma et al., “Development of Small Wearable Devices for Measuring Individual Behavior in Sensor Networks”, Research Report of Information Processing Society of Japan, Information Processing Society of Japan, July 2007, 2007-UBI-15, p. 29-34 駒谷和範 他、「発語行為レベルの情報をユーザ発話の解釈に用いる音声対話システム」、情報処理学会論文誌、一般社団法人情報処理学会、2011年12月、第52巻、第12号、p.3374−3385Komaya Kazunori et al. “Spoken dialogue system using speech act level information to interpret user utterances”, Transactions of Information Processing Society of Japan, Information Processing Society of Japan, December 2011, Vol. 52, No. 12, p. . 3374-3385 杉山治 他、「コミュニケーションロボットのための発話とジェスチャのアサインパターンの抽出とその発展的開発手法の提案」、電子情報通信学会論文誌、一般社団法人電子情報通信学会、2012年1月、J95−A(1)、p.46−59Osamu Sugiyama et al., “Extraction of Speech and Gesture Assignment Patterns for Communication Robots and Proposal of an Advanced Development Method”, IEICE Transactions, IEICE, January 2012, J95- A (1), p. 46-59

上述したように、近年、さまざまなセンサデータの収集が容易に行えるようになってきている。しかしながら、センサデータは、単なる数値の並びのままであっては利用価値が低い。   As described above, in recent years, various sensor data can be easily collected. However, the sensor data has a low utility value if it is merely a sequence of numerical values.

センサデータは、ラベルを付与して何らかの意味付けをすることにより、有用なデータとして活用することが可能となるが、従来、センサデータにラベルを付与することは非常に労力のかかる作業であった。例えば、センサデータが非常に特徴的なデータである場合などに、自動的にラベル付けができる場合はあったが、そのようなケースは少なく、その他の多くの場合は、人手でラベル付けをする必要があり、非常に労力がかかっていた。   Sensor data can be used as useful data by giving a label and giving some meaning, but it has been a very laborious task to give a label to sensor data. . For example, when sensor data is very characteristic data, there was a case where automatic labeling was possible, but such cases are rare, and in many other cases, manual labeling is performed. It was necessary and very labor intensive.

かかる点に鑑みてなされた本発明の目的は、センサデータに対し、ユーザにとって意味のあるラベルを容易に付与することが可能なライフログ記録システム及びそのプログラムを提供することにある。   An object of the present invention made in view of such a point is to provide a life log recording system and a program thereof capable of easily giving a meaningful label to a user to sensor data.

上記課題を解決するため、本発明に係るライフログ記録システムは、センサ装置、サーバ、センサデータ解析装置及びロボット装置を備え、前記センサ装置は、該センサ装置のユーザに関するセンサデータを取得する手段を有し、前記サーバは、前記センサ装置から前記センサデータを受信する手段と、前記センサデータを蓄積する手段とを有し、前記センサデータ解析装置は、前記サーバから前記センサデータを受信する手段と、学習済みのユーザの行動を学習データとして記憶している学習記憶手段と、前記センサデータに、前記学習データを参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成する解析手段と、前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断する手段と、ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信する手段とを有し、前記ロボット装置は、前記会話をユーザと行う手段と、前記会話に対するユーザの応答を前記センサデータ解析装置に送信する手段とを有し、前記センサデータ解析装置は、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信する手段を有するものである。   In order to solve the above problems, a life log recording system according to the present invention includes a sensor device, a server, a sensor data analysis device, and a robot device, and the sensor device includes means for acquiring sensor data relating to a user of the sensor device. The server has means for receiving the sensor data from the sensor device and means for storing the sensor data, and the sensor data analysis device has means for receiving the sensor data from the server; If the learning storage means stores learning user behavior as learning data and the sensor data includes data that cannot identify the user behavior even with reference to the learning data, the user behavior is identified. From the analysis means that constitutes a conversation for extracting information to be performed from the user and the sensor data, the user Means for determining whether or not it is in a state of being able to talk to a device, and means for transmitting the conversation to the robot device when the user is in a state of being able to talk to the robot device, the robot The apparatus includes means for performing the conversation with the user, and means for transmitting a user response to the conversation to the sensor data analysis apparatus. The sensor data analysis apparatus further includes: It has a means to transmit the label information which gives meaning to the sensor data to the server.

また、上記課題を解決するため、本発明に係るプログラムは、センサ装置、サーバ、センサデータ解析装置及びロボット装置を備えるライフログ記録システムを動作させるプログラムであって、前記センサ装置に、該センサ装置のユーザに関するセンサデータを取得するステップを実行させ、前記サーバに、前記センサ装置から前記センサデータを受信するステップと、前記センサデータを蓄積するステップとを実行させ、前記センサデータ解析装置に、前記サーバから前記センサデータを受信するステップと、受信した前記センサデータに、学習済みのユーザの行動を参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成するステップと、前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断するステップと、ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信するステップとを実行させ、前記ロボット装置に、前記会話をユーザと行うステップと、前記会話に対するユーザの応答を前記センサデータ解析装置に送信するステップとを実行させ、前記センサデータ解析装置に、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信するステップを実行させるものである。   In order to solve the above problems, a program according to the present invention is a program for operating a life log recording system including a sensor device, a server, a sensor data analysis device, and a robot device, and the sensor device includes the sensor device. Obtaining sensor data relating to the user of the user, causing the server to receive the sensor data from the sensor device, and storing the sensor data, and causing the sensor data analysis device to When the sensor data received from the server and the received sensor data includes data that cannot identify the user's behavior even if the learned user's behavior is referred to, information for identifying the user's behavior is provided to the user. Constructing a conversation to be drawn from the sensor data Performing a step of determining whether or not a user is in a state of being able to talk to the robot device, and a step of transmitting the configured conversation to the robot device when the user is in a state of being able to talk to the robot device. And causing the robot apparatus to execute the conversation with the user and transmitting the user response to the conversation to the sensor data analysis apparatus, and further causing the sensor data analysis apparatus to further execute the user response. Based on the above, a step of transmitting label information giving meaning to the sensor data to the server is executed.

本発明によれば、センサデータに対し、ユーザにとって意味のあるラベルを自然な対話を通して容易に付与することができ、ラベル付けされたことで、ライフログのより広い活用が期待できる。また、ロボットを介した自然な会話をさせることで、ラベル付け作業をしている、という直接的な印象を和らげることができ、継続性が期待できる。   According to the present invention, a label that is meaningful to the user can be easily given to the sensor data through a natural dialogue, and a wider use of the life log can be expected because the label is attached. In addition, by having a natural conversation through the robot, the direct impression that the labeling work is performed can be eased, and continuity can be expected.

本発明の一実施形態に係るライフログ記録システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the life log recording system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るライフログ記録システムの処理フローを示す図である。It is a figure which shows the processing flow of the life log recording system which concerns on one Embodiment of this invention. データ蓄積部に蓄積されるデータの一例である。It is an example of the data accumulate | stored in a data storage part. 学習データ記憶部に記憶されるデータの一例である。It is an example of the data memorize | stored in a learning data memory | storage part. ロボットアクション送信部が送信するデータの一例である。It is an example of the data which a robot action transmission part transmits. 本発明の実施例5に係るライフログ記録システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the life log recording system which concerns on Example 5 of this invention. 本発明の実施例7に係るライフログ記録システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the life log recording system which concerns on Example 7 of this invention.

以下、本発明に係る実施形態について、図面を参照して説明する。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るライフログ記録システムの構成例を示すブロック図である。図1に示すように、本発明の一実施形態に係るライフログ記録システムは、センサ装置100と、サーバ200と、センサデータ解析装置300と、ロボット装置400とを備える。   FIG. 1 is a block diagram showing a configuration example of a life log recording system according to an embodiment of the present invention. As shown in FIG. 1, the life log recording system according to an embodiment of the present invention includes a sensor device 100, a server 200, a sensor data analysis device 300, and a robot device 400.

センサ装置100は、ユーザが日頃から持ち歩いている装置である。センサ装置100は、加速度センサ101と、位置センサ102と、記憶部110と、データ送信部120とを備える。   The sensor device 100 is a device that a user carries around on a daily basis. The sensor device 100 includes an acceleration sensor 101, a position sensor 102, a storage unit 110, and a data transmission unit 120.

加速度センサ101は、センサ装置100を持ち歩いているユーザの加速度を検出し、検出した加速度データを時刻情報と同期させて記憶部110に記憶する。加速度データは、ユーザの移動情報や歩数情報などを得るために用いられる。   The acceleration sensor 101 detects the acceleration of the user carrying the sensor device 100 and stores the detected acceleration data in the storage unit 110 in synchronization with the time information. The acceleration data is used to obtain user movement information, step count information, and the like.

位置センサ102は、例えばGPS(Global Positioning System)を用いたセンサであり、センサ装置100を持ち歩いているユーザの位置データを検出する。位置センサ102は、検出した位置データを時刻情報と同期させて記憶部110に記憶する。   The position sensor 102 is a sensor using, for example, GPS (Global Positioning System), and detects position data of a user carrying the sensor device 100. The position sensor 102 stores the detected position data in the storage unit 110 in synchronization with the time information.

以下、加速度データや位置データなど、センサ装置100に含まれる各種センサにより取得されたユーザに関するデータを「センサデータ」と総称する。   Hereinafter, data relating to a user acquired by various sensors included in the sensor device 100 such as acceleration data and position data will be collectively referred to as “sensor data”.

記憶部110は、加速度センサ101や位置センサ102が検出したセンサデータを記憶する。   The storage unit 110 stores sensor data detected by the acceleration sensor 101 and the position sensor 102.

データ送信部120は、記憶部110に記憶されているセンサデータをサーバ200に送信する。   The data transmission unit 120 transmits the sensor data stored in the storage unit 110 to the server 200.

サーバ200は、データ受信部210と、データ蓄積部220と、データ要求受信部230と、データ送信部240とを備える。   The server 200 includes a data reception unit 210, a data storage unit 220, a data request reception unit 230, and a data transmission unit 240.

データ受信部210は、センサ装置100からユーザのセンサデータを受信する。また、データ受信部210は、センサデータ解析装置300からセンサデータに意味付けをするためのラベル情報を受信する。   The data receiving unit 210 receives user sensor data from the sensor device 100. Further, the data receiving unit 210 receives label information for giving meaning to the sensor data from the sensor data analyzing apparatus 300.

データ蓄積部220は、センサ装置100から受信したユーザのセンサデータを蓄積する。また、データ蓄積部220は、センサデータ解析装置300から受信したラベル情報に基づいて、蓄積しているセンサデータにラベル付けをする。ラベルには、行動の種類、場所の名称、一緒にいた人の情報、移動手段などがある。センサデータ、ラベル情報、及び、時刻情報を含む情報は、ライフログとして扱われる。   The data storage unit 220 stores user sensor data received from the sensor device 100. In addition, the data storage unit 220 labels the stored sensor data based on the label information received from the sensor data analysis device 300. The label includes the type of action, the name of the place, information on the person who was together, means of transportation, and the like. Information including sensor data, label information, and time information is treated as a life log.

データ要求受信部230は、センサデータ解析装置300から、ユーザのセンサデータの要求を受信する。   The data request reception unit 230 receives a user's request for sensor data from the sensor data analysis device 300.

データ送信部240は、センサデータ解析装置300からの要求に応じて、ユーザのセンサデータをセンサデータ解析装置300に送信する。   The data transmission unit 240 transmits user sensor data to the sensor data analysis device 300 in response to a request from the sensor data analysis device 300.

センサデータ解析装置300は、データ要求部310と、データ受信部320と、データ解析部330と、学習データ記憶部340と、発話内容構成部350と、ロボットアクション送信部360と、応答結果受信部370と、応答結果解析部380と、ラベル情報送信部390とを備える。   The sensor data analysis device 300 includes a data request unit 310, a data reception unit 320, a data analysis unit 330, a learning data storage unit 340, an utterance content configuration unit 350, a robot action transmission unit 360, and a response result reception unit. 370, a response result analysis unit 380, and a label information transmission unit 390.

データ要求部310は、サーバ200に対し、ユーザのセンサデータを要求する。   The data request unit 310 requests user sensor data from the server 200.

データ受信部320は、サーバ200から、ユーザのセンサデータを受信し、データ解析部330に送信する。   The data receiving unit 320 receives user sensor data from the server 200 and transmits it to the data analysis unit 330.

データ解析部330は、学習データ記憶部340に記憶されている学習データを参照して、サーバ200から受信したセンサデータを解析し、ユーザの行動を特定できるか否かを判断する。データ解析部330は、ユーザの行動を特定できると判断した場合は、ラベル情報送信部390に、センサデータに意味付けするためのラベル情報をサーバ200に送信させ、また、学習データ記憶部340にラベル情報を記憶させる。データ解析部330は、ユーザの行動を特定できないと判断した場合は、発話内容構成部350に、ユーザからラベル情報を引き出すための質問を含む会話やロボットアクションを構成させる。   The data analysis unit 330 refers to the learning data stored in the learning data storage unit 340, analyzes the sensor data received from the server 200, and determines whether the user's action can be specified. If the data analysis unit 330 determines that the user's action can be specified, the label information transmission unit 390 causes the server 200 to transmit label information for giving meaning to the sensor data, and the learning data storage unit 340 Store the label information. If the data analysis unit 330 determines that the user's action cannot be specified, the utterance content configuration unit 350 configures a conversation or a robot action including a question for extracting label information from the user.

学習データ記憶部340は、学習済みのユーザの行動を学習データとして記憶している。   The learning data storage unit 340 stores learned user behavior as learning data.

発話内容構成部350は、ユーザから情報を引き出すための会話を構成する。また、該会話に伴ってロボット装置400に行わせるロボットアクションを構成する。   The utterance content configuration unit 350 configures a conversation for extracting information from the user. Further, the robot action 400 is configured to be performed by the robot apparatus 400 in accordance with the conversation.

ロボットアクション送信部360は、発話内容構成部350が構成した会話や、該会話に基づいて構成されたロボットの動作情報を、ロボット装置400に送信する。   The robot action transmission unit 360 transmits the conversation configured by the utterance content configuration unit 350 and the operation information of the robot configured based on the conversation to the robot apparatus 400.

応答結果受信部370は、ロボット装置400からユーザの応答結果を受信し、応答結果解析部380に送信する。   The response result receiving unit 370 receives the user response result from the robot apparatus 400 and transmits it to the response result analyzing unit 380.

応答結果解析部380は、応答結果受信部370から受信したユーザの応答結果を解析し、ユーザの行動を特定できると判断した場合は、ラベル情報送信部390に、センサデータに意味付けするためのラベル情報をサーバ200に送信させ、また、学習データ記憶部340にラベル情報を記憶させる。応答結果解析部380は、ユーザの応答結果を解析しても、ユーザの行動を特定できないと判断した場合は、発話内容構成部350に、ユーザからラベル情報を引き出すための質問を含む会話やロボットアクションを再度構成させる。   When the response result analysis unit 380 analyzes the user response result received from the response result reception unit 370 and determines that the user's behavior can be specified, the response result analysis unit 380 gives the label information transmission unit 390 a meaning for the sensor data. The label information is transmitted to the server 200, and the label information is stored in the learning data storage unit 340. If the response result analysis unit 380 determines that the user's behavior cannot be identified even after analyzing the user's response result, the utterance content configuration unit 350 includes a conversation or a robot including a question for extracting label information from the user. Have the action configured again.

ラベル情報送信部390は、センサデータに意味付けするためのラベル情報をサーバ200に送信する。   The label information transmission unit 390 transmits label information for giving meaning to the sensor data to the server 200.

ロボット装置400は、ロボットアクション受信部410と、ロボットアクション部420と、応答入力部430と、応答結果送信部440とを備える。ロボット装置400は、例えば、小型のヒューマノイドロボットであるが、エージェントなどのバーチャルロボットであってもよい。   The robot apparatus 400 includes a robot action reception unit 410, a robot action unit 420, a response input unit 430, and a response result transmission unit 440. The robot apparatus 400 is, for example, a small humanoid robot, but may be a virtual robot such as an agent.

ロボットアクション受信部410は、センサデータ解析装置300からロボットアクション情報を受信する。   The robot action receiving unit 410 receives robot action information from the sensor data analysis device 300.

ロボットアクション部420は、受信したロボットアクション情報に基づいて発話や動作を行う。   The robot action unit 420 performs utterances and operations based on the received robot action information.

応答入力部430は、ユーザからの音声による発話や、頷きや首振りなどの動作による肯定/否定の応答を取得する。   The response input unit 430 obtains an affirmative / negative response based on speech from the user or an operation such as whispering or swinging.

応答結果送信部440は、取得した応答情報を、センサデータ解析装置300に送信する。   The response result transmission unit 440 transmits the acquired response information to the sensor data analysis device 300.

なお、図1に示したライフログ記録システムのブロック図はあくまで一例であり、複数の構成部を1つに組み合わせたり分割したりすることも可能である。また、各装置の各構成部は他の装置に含まれていてもよい。例えば、データ解析部330と応答結果解析部380を統合して1つの解析部として構成してもよい。また、例えば、センサデータ解析装置300の構成部の一部又は全部がサーバ200に含まれていてもよい。   The block diagram of the life log recording system shown in FIG. 1 is merely an example, and a plurality of components can be combined or divided into one. Each component of each device may be included in another device. For example, the data analysis unit 330 and the response result analysis unit 380 may be integrated and configured as one analysis unit. Further, for example, part or all of the components of the sensor data analysis apparatus 300 may be included in the server 200.

図2は、本発明の一実施形態に係るライフログ記録システムの処理フローを示す図である。以下、図2を参照して、本発明の一実施形態に係るライフログ記録システムの処理フローを説明する。   FIG. 2 is a diagram showing a processing flow of the life log recording system according to the embodiment of the present invention. Hereinafter, the processing flow of the life log recording system according to the embodiment of the present invention will be described with reference to FIG.

センサ装置100において、加速度センサ101は、常時、ユーザの加速度データを取得し(ステップS101)、一時的に記憶部110に記憶する(ステップS102)。また、位置センサ102は、常時、ユーザの位置データを取得し(ステップS103)、一時的に記憶部110に記憶する(ステップS104)。データ送信部120は、例えば毎日決められた所定の時刻に、記憶部110に記憶された加速度データ及び位置データをサーバ200に送信(アップロード)する(ステップS105)。   In the sensor device 100, the acceleration sensor 101 always acquires user acceleration data (step S101) and temporarily stores it in the storage unit 110 (step S102). Further, the position sensor 102 always acquires user position data (step S103) and temporarily stores it in the storage unit 110 (step S104). The data transmission unit 120 transmits (uploads) the acceleration data and the position data stored in the storage unit 110 to the server 200 at a predetermined time determined every day, for example (step S105).

サーバ200において、データ受信部210は、センサ装置100からセンサデータを受信し、また、センサデータ解析装置300からラベル情報を受信する(ステップS201)。データ受信部210は、受信したセンサデータ及びラベル情報をデータ蓄積部220に蓄積する(ステップS202)。データ蓄積部220に蓄積されるデータの一例を図3に示す。図3(a)はラベル情報によりラベル付けされた加速度データの例であり、図3(b)はラベル情報によりラベル付けされた位置データの例である。一方、データ要求受信部230がセンサデータ解析装置300から要求を受信すると(ステップS203)、データ送信部240は、要求のあったデータをデータ蓄積部220から読み出し(ステップS204)、センサデータ解析装置300に送信する(ステップS205)。   In the server 200, the data receiving unit 210 receives sensor data from the sensor device 100 and receives label information from the sensor data analysis device 300 (step S201). The data receiving unit 210 stores the received sensor data and label information in the data storage unit 220 (step S202). An example of data stored in the data storage unit 220 is shown in FIG. FIG. 3A is an example of acceleration data labeled with label information, and FIG. 3B is an example of position data labeled with label information. On the other hand, when the data request receiving unit 230 receives a request from the sensor data analysis device 300 (step S203), the data transmission unit 240 reads the requested data from the data storage unit 220 (step S204), and the sensor data analysis device. It transmits to 300 (step S205).

センサデータ解析装置300において、データ要求部310は、定期的に、例えば1時間毎に、サーバ200に対して、新たに蓄積されたデータを要求する(ステップS301)。データ受信部320は、データ要求部310が要求したデータを、サーバ200から受信する(ステップS302)。データ解析部330は、学習データ記憶部340に記憶されている学習データを参照して(ステップS303)、サーバ200から受信したデータを解析し(ステップS304)、ユーザの行動を特定してデータへのラベル付けが可能であるか否かを判断する(ステップS305)。学習データ記憶部340に記憶されている学習データの一例を図4に示す。   In the sensor data analysis apparatus 300, the data request unit 310 requests the server 200 for newly accumulated data periodically, for example, every hour (step S301). The data receiving unit 320 receives the data requested by the data requesting unit 310 from the server 200 (step S302). The data analysis unit 330 refers to the learning data stored in the learning data storage unit 340 (step S303), analyzes the data received from the server 200 (step S304), identifies the user's action, and converts the data into data. It is determined whether or not labeling is possible (step S305). An example of the learning data stored in the learning data storage unit 340 is shown in FIG.

データ解析部330は、位置データを解析する場合、例えば、移動速度、ある点からある点まで移動した際の所要時間、滞留の有無(位置ずれが閾値以内で、一定時間以上など)、軌跡の外れ方(平均位置よりどの位ずれているか)、及び、軌跡自体などに基づいて解析する。例えば、データ解析部330は、学習済みの場所から半径5m以内に一定時間以上留まっている場合に、その場所にいると判断してラベル付けを行う。また、データ解析部330は、加速度データを解析する場合、例えば、波形の微分値や波形自体の類似性などに基づいて解析する。例えば、データ解析部330は、学習済みの波形と比較して、類似性から、歩いている/走っている/車や電車で移動している、といった行動をユーザがとったと判断しラベル付けを行う。なお、上記説明は、データ解析部330がセンサデータにラベル付けを行う例をいくつか示したものであって、ラベル付けをする項目やラベル付けの方法はこれらに限定されるものではない。データ解析部330は、任意の項目について任意の方法でセンサデータにラベルを付けることができる。   When analyzing the position data, the data analysis unit 330, for example, the moving speed, the required time when moving from a certain point to a certain point, the presence or absence of dwelling (the positional deviation is within a threshold value, a certain time or more, etc.) Analysis is performed based on the deviation (how far from the average position) and the trajectory itself. For example, if the data analysis unit 330 stays within a radius of 5 m from a learned place for a certain time or longer, the data analysis unit 330 determines that the place is present and performs labeling. In addition, when analyzing the acceleration data, the data analysis unit 330 performs analysis based on, for example, the differential value of the waveform or the similarity of the waveform itself. For example, the data analysis unit 330 determines that the user has taken an action such as walking / running / moving by car or train from the similarity compared to the learned waveform, and performs labeling. Do. The above description shows some examples in which the data analysis unit 330 labels sensor data, and the items to be labeled and the labeling method are not limited to these. The data analysis unit 330 can label sensor data for any item by any method.

データ解析部330は、例えば、学習されている定常的な移動ルートからユーザが外れている場合、その理由がわからないので、ラベル付けを自動ですることができない。また、例えば、データ解析部330は、ユーザがある店で食事をしたことが特定できた場合に、店の名前は特定できても、食べた料理までは特定できない。この場合、データ解析部330は、店の名前までは自動でラベル付けをすることができるが、食べた料理は自動でラベル付けをすることができない。   For example, when the user deviates from the learned steady movement route, the data analysis unit 330 cannot automatically perform the labeling because the reason is not known. Further, for example, when the user can specify that the user has eaten at a certain store, the data analysis unit 330 can specify the name of the store but cannot specify the food that was eaten. In this case, the data analysis unit 330 can automatically label up to the store name, but cannot automatically label the eaten food.

データ解析部330は、ステップS305においてYesと判断した場合、データへのラベル付けを行い(ステップS306)、ラベル情報送信部390に、ラベル情報をサーバ200に送信させる(ステップS307)。データ解析部330は、ステップS305においてNoと判断した場合、すなわち、センサデータに何らかの変化を検出したものの、学習データ記憶部340に記憶された学習データを参照してもラベル付けができなかった場合は、発話内容構成部350に、ユーザから、ユーザの行動を特定し、そのデータの変化に対するラベル情報を引き出すための質問を含む会話やロボットアクションを構成させる(ステップS308及びS309)。データ解析部330は、ユーザからラベル情報を引き出すための質問を構成させる際、例えば、欲しい情報に関する言葉を質問に含ませる(例えば、味噌ラーメンを食べたかどうかを確認したい場合に、「味噌ラーメン」という言葉を質問に含ませる)。   If the data analysis unit 330 determines Yes in step S305, the data analysis unit 330 labels the data (step S306), and causes the label information transmission unit 390 to transmit the label information to the server 200 (step S307). When data analysis unit 330 determines No in step S305, that is, when some change is detected in the sensor data, but labeling cannot be performed even with reference to the learning data stored in learning data storage unit 340. Causes the utterance content configuration unit 350 to configure a conversation or a robot action including a question for identifying the user's action from the user and extracting label information for the change in the data (steps S308 and S309). When the data analysis unit 330 constructs a question for extracting label information from the user, for example, the question relating to the desired information is included in the question (for example, when it is desired to confirm whether or not the miso ramen has been eaten, “miso ramen” In the question).

データ解析部330は、サーバ200から取得したセンサデータから、ユーザがロボット装置400のそばにいてロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360に、発話内容構成部350が構成した発話情報や、該発話情報に基づいて構成されたロボットの動作情報を、ロボット装置400に送信させる(ステップS310)。ロボットアクション送信部360が送信するデータの一例を図5に示す。   When the data analysis unit 330 determines from the sensor data acquired from the server 200 that the user is near the robot apparatus 400 and is in a state where the user can interact with the robot apparatus 400, the data analysis unit 330 sends an utterance content configuration unit to the robot action transmission unit 360. The utterance information constituted by 350 and the movement information of the robot constituted based on the utterance information are transmitted to the robot apparatus 400 (step S310). An example of data transmitted by the robot action transmission unit 360 is shown in FIG.

応答結果受信部370は、ロボット装置400からユーザの応答結果を受信し(ステップS302)、今度は、応答結果解析部380が、データ解析部330が実行したステップS303〜S305に対応する処理を実行する。応答結果解析部380は、応答結果受信部370が受信したユーザの応答を解析し、ラベル付けが可能と判断した場合(ステップS305のYes)、データへのラベル付けを行い(ステップS306)、ラベル情報送信部390に、センサデータに意味付けをするラベル情報をサーバ200に送信させる(ステップS307)とともに、ラベル情報を学習データ記憶部340に登録する(ステップS311)。応答結果解析部380は、ラベル付けが十分であるか否かを判断する(ステップS312)。応答結果解析部380は、ステップS312にてYesと判断した場合、処理を終了する。応答結果解析部380は、ステップS312にてNoと判断した場合、例えば、さらに追加となるラベル情報を付けたい場合など、さらなる会話が必要であると判断した場合は、再びステップS308にすすみ、発話内容構成部350に、さらなる会話を構成させる。   The response result receiving unit 370 receives the response result of the user from the robot apparatus 400 (step S302), and this time the response result analyzing unit 380 executes processing corresponding to steps S303 to S305 executed by the data analyzing unit 330. To do. The response result analysis unit 380 analyzes the user response received by the response result reception unit 370, and determines that labeling is possible (Yes in step S305), performs labeling on the data (step S306), The information transmitting unit 390 causes the server 200 to transmit label information that gives meaning to the sensor data (step S307), and the label information is registered in the learning data storage unit 340 (step S311). The response result analysis unit 380 determines whether labeling is sufficient (step S312). If the response result analysis unit 380 determines Yes in step S312, the response result analysis unit 380 ends the process. When the response result analysis unit 380 determines No in step S312, for example, when it is determined that further conversation is necessary, for example, when it is desired to add additional label information, the process proceeds to step S308 again, and the utterance is made. Let the content composition unit 350 compose further conversations.

ロボット装置400において、ロボットアクション受信部410は、センサデータ解析装置300からロボットアクション情報を受信する(ステップS401)。ロボットアクション部420は、受信したロボットアクション情報に基づいて発話や動作を行う(ステップS402)。応答入力部430は、ユーザからの音声による発話や、頷きや首振りなどの動作による肯定/否定の応答を取得する(ステップS403)。応答結果送信部440は、取得した応答情報を、センサデータ解析装置300に送信する(ステップS404)。   In the robot apparatus 400, the robot action reception unit 410 receives robot action information from the sensor data analysis apparatus 300 (step S401). The robot action unit 420 performs utterances and actions based on the received robot action information (step S402). The response input unit 430 acquires an affirmative / negative response due to speech from the user, an operation such as whispering or swinging (step S403). The response result transmission unit 440 transmits the acquired response information to the sensor data analysis device 300 (step S404).

なお、上記構成においては、センサ装置100からのデータを一旦サーバ200に蓄積してから、センサデータ解析装置300が、サーバ200に蓄積されたデータを取得しているが、サーバ200とセンサデータ解析装置300が、センサ装置100からのデータを並列で受信し、センサデータ解析装置300がデータの解析を行うように構成してもよい。   In the above configuration, the data from the sensor device 100 is temporarily stored in the server 200, and then the sensor data analysis device 300 acquires the data stored in the server 200. The apparatus 300 may receive data from the sensor apparatus 100 in parallel, and the sensor data analysis apparatus 300 may analyze the data.

以下、センサデータ解析装置300がサーバ200からセンサデータを取得した後の処理について、具体例(実施例1〜9)を挙げて詳しく説明する。なお、以下の説明においては、ロボット装置400は、自宅にある小型のヒューマノイドロボットであるものとする。また、各実施例で重複する処理については適宜省略して説明する。   Hereinafter, the processing after the sensor data analysis apparatus 300 acquires the sensor data from the server 200 will be described in detail with specific examples (Examples 1 to 9). In the following description, it is assumed that the robot apparatus 400 is a small humanoid robot at home. In addition, processing overlapping in each embodiment will be omitted as appropriate.

[実施例1]
データ解析部330は、サーバ200から取得したユーザの位置データから、ユーザが昼頃にある場所に長く留まっていたと判断した。しかしながら、データ解析部330は、学習データ記憶部340に記憶されている学習データを参照しても、ユーザがその時間に昼食をとることが多いことはわかったが、普段は長時間留まらない場所であるため、場所を特定することはできなかった。
[Example 1]
The data analysis unit 330 determines from the user position data acquired from the server 200 that the user has stayed at a certain place around noon for a long time. However, the data analysis unit 330 has found that even when the learning data stored in the learning data storage unit 340 refers to the learning data, the user often has lunch at that time. Therefore, the location could not be specified.

この場合、データ解析部330は、昼食の可能性が高いこと、及び、場所が不明であることをキー情報として、ラベル付けに必要な情報を聞き出すために、発話内容構成部350に、
「xx時頃、お昼ご飯を食べに行った?」
「何ていうお店?」
「何を食べたの?」
「おいしかった?」
といった会話を構成させる。また、データ解析部330は、発話内容構成部350に、例えば、上記例の最初の3つの質問については、わからないことを聞く際の首をかしげるような動作をロボット装置400がしながら質問の発話をするように構成させ、また、最後の質問については、わくわくして身を乗り出すような動作をロボット装置400がしながら質問の発話をするように構成させる。
In this case, the data analysis unit 330 uses the utterance content composition unit 350 to search for information necessary for labeling using the fact that the possibility of lunch is high and the location is unknown as key information.
"Did you go to eat lunch around xx?"
"What kind of shop?"
"What did you eat?"
"it was delicious?"
Make a conversation. In addition, the data analysis unit 330 causes the utterance content composition unit 350 to utter the question while the robot apparatus 400 behaves like a neck when listening to the first three questions in the above example. In addition, the last question is configured such that the robot apparatus 400 utters the question while performing an action of getting excited.

さらに、データ解析部330は、サーバ200から取得したセンサデータから、ユーザが自宅に帰ってロボット装置400のそばにいる状態で夕食を食べているときなど、ユーザがロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に情報を順に送信させる。データ解析部330は、サーバ200から取得したセンサデータから、例えば、夕方の時間帯に、ユーザが、食卓のある位置にいて、大きな移動をほとんどせずに手を動かしていると判断した場合に、ユーザが自宅で夕食を食べていると特定することができる。   Furthermore, the data analysis unit 330 is configured so that the user can interact with the robot apparatus 400 based on the sensor data acquired from the server 200, such as when the user returns home and eats dinner while being near the robot apparatus 400. When it is determined that there is, the robot action transmission unit 360 causes the robot apparatus 400 to transmit information in order. When the data analysis unit 330 determines from the sensor data acquired from the server 200 that, for example, in the evening time zone, the user is at the table and moves his hand with little significant movement. The user can be identified as having dinner at home.

ロボット装置400は、ロボットアクション受信部410が受信した情報に基づいて、ロボットアクション部420により一つずつユーザに質問をする。応答結果送信部440は、応答入力部430がユーザから得た応答を、センサデータ解析装置300に送信する。   The robot apparatus 400 asks the user one question at a time using the robot action unit 420 based on the information received by the robot action receiving unit 410. The response result transmission unit 440 transmits the response obtained by the response input unit 430 from the user to the sensor data analysis device 300.

応答結果解析部380は、応答結果受信部370がロボット装置400から受信したユーザの応答を解析する。この際、望んだような応答が得られなかった場合は、応答結果解析部380は、変更した発話内容を発話内容構成部350に構成させ、ロボットアクション送信部360は、変更後の発話内容及びロボットアクションをロボット装置400に送信する。   The response result analyzing unit 380 analyzes the user response received from the robot apparatus 400 by the response result receiving unit 370. At this time, if the desired response cannot be obtained, the response result analyzing unit 380 configures the changed utterance content in the utterance content configuring unit 350, and the robot action transmitting unit 360 includes the changed utterance content and The robot action is transmitted to the robot apparatus 400.

上記例においては、例えば、1つ目の質問に対する応答が肯定的なものである場合は、応答結果解析部380は、ロボット装置400に最初に計画した通りの発話を続けさせるが、1つ目の質問に対する応答が否定的なものである場合は、例えば、
「じゃあ、何をしていたの?」
といった質問に切り替えて、ロボット装置400に発話させる。
In the above example, for example, when the response to the first question is affirmative, the response result analysis unit 380 causes the robot apparatus 400 to continue the utterance as originally planned. If the response to the question is negative, for example,
"So what were you doing?"
Is switched to such a question, and the robot apparatus 400 is uttered.

また、応答結果解析部380は、例えば、2つ目や3つ目の質問については、ユーザの応答に含まれる名詞を形態素解析により見つけ出し、答えとして適切そうな言葉であるか否かを判断することにより、望んでいる応答であるか否かを判断することができる。   In addition, for example, for the second and third questions, the response result analysis unit 380 finds nouns included in the user's response by morphological analysis, and determines whether the words are likely to be appropriate as answers. Thus, it can be determined whether or not the response is desired.

応答結果解析部380は、ユーザの応答から、昼食を食べたこと、滞留していた場所の店の名前、何を食べたのか、(その人なりの)その料理の評価などを取得できた場合、これらは、該当するセンサデータの変化に対応したラベル情報であるとして、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。サーバ200は、データ受信部210が受信したラベル情報をデータ蓄積部220に格納する。   When the response result analysis unit 380 can obtain from the user's response information that the user has eaten lunch, the name of the store where the user stayed, what the user has eaten, and the evaluation of the food These are the label information corresponding to the change of the corresponding sensor data, and the label information transmitting unit 390 transmits the label information to the server 200. The server 200 stores the label information received by the data receiving unit 210 in the data storage unit 220.

これらのデータ蓄積部220に蓄積された情報(ライフログ)は、後日、「前に行った餃子がおいしいお店ってどこだっけ?」といった問いかけへの応答を行う際などに使うことができる。   The information (life log) stored in these data storage units 220 can be used at a later date to respond to a question such as “Where is a good place for dumplings before?” .

本実施形態に係るライフログ記録システムは、ユーザが使い始めた当初は、ユーザに合わせた学習が十分にされていないために、質問する頻度や項目が多くなるが、学習が進むにつれて、似たような行動に対しては、ユーザに聞かなくても自動的にラベル付けを行えるようになってくる。その結果、ロボット装置400がユーザに確認の質問をする回数が減ってくる。   The life log recording system according to the present embodiment is frequently used at the beginning of the user because learning according to the user is not sufficiently performed, so the frequency and items to ask questions increase. Such behavior can be automatically labeled without asking the user. As a result, the number of times that the robot apparatus 400 asks the user a confirmation question decreases.

なお、本実施例においては、あるセンサデータの変化をトリガーにして、タスクの決まった質問応答型の会話によってその理由などを聞く場合を説明したが、タスク指向型でストレートに質問するのではなく、雑談を行わせるような会話システムに、雑談のキーワードとして「昼食」といった言葉を設定し、雑談の中でのユーザからの返答からラベル情報となる応答を抽出するようにしてもよい。あるいは、雑談とタスク指向型の会話を織り交ぜて、より自然な会話の中で聞きだすようにしてもよい。   In this embodiment, a case has been described in which a change in certain sensor data is used as a trigger and the reason is heard by a question-answering conversation with a fixed task. Alternatively, a word such as “lunch” may be set as a chat keyword in a conversation system for performing chat, and a response serving as label information may be extracted from a response from the user in the chat. Alternatively, chatting and task-oriented conversation may be interlaced to start listening in a more natural conversation.

[実施例2]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、普段ジョギングしている時とは異なる状況(異なる時間帯、場所)で、ジョギングと似たような激しい動きをしたと判断した。
[Example 2]
The data analysis unit 330 indicates that the user has performed intense movement similar to jogging in a situation (different time zone and location) different from that when the user is jogging from the sensor data of the user acquired from the server 200. It was judged.

この場合、データ解析部330は、発話内容構成部350に、
「xx時頃にも走っていたみたいだけど、何かあったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、例えば、ユーザが日頃から行っているジョギングから戻ってきて、ロボット装置400のそばで一息ついているときなど、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to
“It seems like I was running around xx, but was there anything?”
Make a conversation. The data analysis unit 330 is in a state where it can interact with the robot apparatus 400 from the data acquired from the server 200, for example, when the user comes back from jogging that is regularly performed and is taking a breath by the robot apparatus 400. When it is determined, the robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

応答結果解析部380は、ユーザから、「電車に遅れそうになって走った」といった応答が得られた場合、センサデータのその区間に対し、「走った」こと、「電車に遅れそうだった」ことをラベルとして付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。   When the response result analysis unit 380 obtains a response from the user such as “I was about to run late for the train”, the response result analysis unit 380 indicated that it ran for the section of the sensor data, The label information transmitting unit 390 transmits label information to the server 200 so that “

上記内容は、後日、ライフログを利用したサービスとして、ある場所から駅までの時間を答える際、走ったら何分、といった答えを出すために、ラベル付けされたライフログを活用することができる。   The above contents can be used as a service that uses a life log at a later date to use the labeled life log in order to give an answer such as how many minutes it takes to run when answering the time from a certain place to the station.

[実施例3]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、いつもの平日であれば、ユーザが、この位の時間にどこかに滞在して昼食を食べる記録が残るが、その日には昼食をとった形跡を自動的に発見できなかった。
[Example 3]
From the sensor data of the user acquired from the server 200, the data analysis unit 330 records that the user stays somewhere at this time and eats lunch on a normal weekday. We were unable to automatically find evidence of

この場合、データ解析部330は、発話内容構成部350に、
「今日はお昼ご飯、どうしたの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいる状態であり、例えば、夕食を食べているときなど、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to
"What did you do for lunch today?"
Make a conversation. From the data acquired from the server 200, the data analysis unit 330 is in a state where the user is at home and is near the robot apparatus 400. For example, when the user is having dinner, the data analysis unit 330 can communicate with the robot apparatus 400. When it is determined that there is, the robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

応答結果解析部380は、ユーザから、「食べなかった」といった応答が得られた場合、特定のセンサデータの部分に対するラベル付けは行わないが、その日のラベルとして、「昼食抜き」といったラベルを付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。   The response result analysis unit 380 does not label a specific sensor data portion when a response such as “I did not eat” is obtained from the user, but gives a label such as “without lunch” as the label of the day. As described above, the label information transmission unit 390 transmits the label information to the server 200.

また、応答結果解析部380は、ユーザから、
「駅弁買ってxxへ行く電車の中で食べた」
「xxという駅弁がおいしかった」
といった応答が得られた場合、センサデータ中の、電車で移動中のデータに対して、「昼食」「駅弁」「xxという駅弁がおいしかった」といった情報を、ラベル情報として付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。
In addition, the response result analysis unit 380 receives a message from the user.
"I bought a station lunch and ate it on the train going to xx"
"The eki box called xx was delicious"
If a response such as “Lunch”, “Ekiben”, or “xx Ekiben” was delicious for the data that was moving on the train in the sensor data, the label information should be added. The information transmission unit 390 transmits label information to the server 200.

[実施例4]
データ解析部330は、サーバ200から取得したユーザのセンサデータと、学習データ記憶部340に記憶されている学習データとから、ユーザがどこかの店に立ち寄ったであろうと判断した。しかしながら、データ解析部330は、似たようなセンサデータの変化に対して、複数の異なる店名のラベル付けがされていることから、自動的な絞り込みができなかった。
[Example 4]
The data analysis unit 330 determines that the user has visited some store from the sensor data of the user acquired from the server 200 and the learning data stored in the learning data storage unit 340. However, since the data analysis unit 330 is labeled with a plurality of different store names with respect to similar changes in sensor data, the data analysis unit 330 cannot automatically narrow down.

この場合、データ解析部330は、発話内容構成部350に、例えば、
「今日寄ったのはどっちの店?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to, for example,
“Which store did you stop by today?”
Make a conversation. When the data analysis unit 330 determines from the data acquired from the server 200 that the user is at home, is in a state of being calm by the robot apparatus 400, and is in a state of being able to interact with the robot apparatus 400, The robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

応答結果解析部380は、ユーザからの応答を得て、ラベル付けする際の精度を高めることができる。   The response result analysis unit 380 can increase the accuracy in obtaining a response from the user and labeling it.

[実施例5]
本実施例においては、センサ装置100は、図6に示すように、加速度センサ101、位置センサ102に合わせて、バイタルセンサ103も備えるものとする。バイタルセンサ103は、センサ装置100を持ち歩いているユーザの心拍数、血圧、血中酸素濃度などを検出することができる。検出された心拍数データなどは、加速度データ及び位置データと同様に、データ蓄積部220に蓄積される。
[Example 5]
In this embodiment, the sensor device 100 includes a vital sensor 103 in addition to the acceleration sensor 101 and the position sensor 102 as shown in FIG. The vital sensor 103 can detect the heart rate, blood pressure, blood oxygen concentration, etc. of the user carrying the sensor device 100. The detected heart rate data and the like are stored in the data storage unit 220 in the same manner as the acceleration data and the position data.

データ解析部330は、サーバ200から取得したユーザの加速度データ及び位置データには特に変化を見つけなかったが、特別な動きをしているわけではないにも関わらず、心拍数が急に上がっている時があることを見つけた。   The data analysis unit 330 did not find any change in the user acceleration data and the position data acquired from the server 200, but the heart rate suddenly increased despite the fact that the data analysis unit 330 did not make any special movement. I found that there was a time.

この場合、データ解析部330は、発話内容構成部350に、例えば、
「xxxにいた時、何かあったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to, for example,
"What happened when you were in xxx?"
Make a conversation. When the data analysis unit 330 determines from the data acquired from the server 200 that the user is at home, is in a state of being calm by the robot apparatus 400, and is in a state of being able to interact with the robot apparatus 400, The robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

応答結果解析部380は、ユーザから、
「中学の時にすごく怒られたxx先生にばったり会って」
といった応答が得られた場合、「xx先生に会った」というラベル情報を、ラベル情報として付与するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。ただし、このような特異な例は、学習データ記憶部340には記憶しなくてもよい。
The response result analysis unit 380 receives a response from the user.
"Meet xx teacher who was mad at junior high school"
When the response is obtained, the label information transmitting unit 390 is caused to transmit the label information to the server 200 so that the label information “Meet xx teacher” is given as the label information. However, such a unique example may not be stored in the learning data storage unit 340.

記録されたライフログは、後日、「xx先生に会ったのっていつどこでだったっけ?」
といった問いかけへの回答に利用することができる。
The recorded life log is "Where and when did you meet Dr. xx?"
It can be used to answer such questions.

[実施例6]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、いつもは10km程度走っているジョギングを、今日は3kmしか走らなかったことを見つけた。
[Example 6]
From the sensor data of the user acquired from the server 200, the data analysis unit 330 found that the user normally jogged about 10 km and only ran for 3 km today.

この場合、データ解析部330は、発話内容構成部350に、例えば、
「なんで今日はジョギング短かったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to, for example,
“Why was jogging short today?”
Make a conversation. When the data analysis unit 330 determines from the data acquired from the server 200 that the user is at home, is in a state of being calm by the robot apparatus 400, and is in a state of being able to interact with the robot apparatus 400, The robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

応答結果解析部380は、ユーザから、「雨だったから」といった応答が得られた場合、該当部分のライフログとして、ジョギングであるというラベルを確定させるとともに、天候が雨であった、という条件に関するラベルも追加するように、ラベル情報送信部390に、サーバ200へラベル情報を送信させる。   When a response such as “it was raining” is obtained from the user, the response result analysis unit 380 determines a label that is jogging as a life log of the corresponding part and relates to a condition that the weather is raining. The label information transmitting unit 390 transmits the label information to the server 200 so that the label is also added.

応答結果解析部380は、さらに、学習データとして、天候の情報も判断材料となることを学習し、「ジョギング」という行動のラベルを付与できそうなセンサデータが見つかった場合には、その地域の天候の情報をWebから取得し、天候が雨であれば、距離が短くても正常値であると判断して、ユーザへの問いかけを減らすようにしてもよい。   The response result analysis unit 380 further learns that weather information is also used as judgment data as learning data, and when sensor data that can be given a “jogging” action label is found, If the weather information is acquired from the Web and the weather is raining, it may be determined that the distance is a normal value even if the distance is short, and the number of questions to the user may be reduced.

[実施例7]
本実施例においては、センサ装置100は、図7に示すように、加速度センサ101、位置センサ102に合わせて、映像を取得するカメラ104と、音声を取得するマイク105とを備えるものとする。カメラ104が常時取得する映像と、マイク105が常時取得する音声は、加速度データ及び位置データと同様に、データ蓄積部220に蓄積される。ただし、映像や音声の処理は重いため、通常時においては、加速度データや位置データのような解析は行われず、映像や音声については、データ蓄積部220への蓄積のみが行われているものとする。なお、カメラ104は、映像ではなく静止画像を取得するものであってもよい。
[Example 7]
In this embodiment, as shown in FIG. 7, the sensor device 100 includes a camera 104 that acquires an image and a microphone 105 that acquires sound in accordance with the acceleration sensor 101 and the position sensor 102. The video that is always acquired by the camera 104 and the audio that is always acquired by the microphone 105 are stored in the data storage unit 220 in the same manner as the acceleration data and the position data. However, since the processing of video and audio is heavy, in normal times, analysis such as acceleration data and position data is not performed, and video and audio are only stored in the data storage unit 220. To do. Note that the camera 104 may acquire a still image instead of a video.

データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、いつもは立ち寄らない場所に立ち寄っていた、という変化を見つけた。しかしながら、データ解析部330は、通常のラベル付けで使用しているデータからだけでは、ラベル付けができないか、あるいは、不足していると推測した。   The data analysis unit 330 has found a change that the user has stopped at a place that does not normally stop from the sensor data of the user acquired from the server 200. However, the data analysis unit 330 estimates that labeling cannot be performed or is insufficient only from data used in normal labeling.

この場合、データ解析部330は、追加の分析として、情報取得源の候補となる別メディア情報として登録されている映像を取得して解析する。データ解析部330は、該当する時間帯の映像の解析を行い、例えば、映像にラーメンが長時間写っていたことを見つける。   In this case, as an additional analysis, the data analysis unit 330 acquires and analyzes a video registered as other media information that is a candidate for an information acquisition source. The data analysis unit 330 analyzes the video in the corresponding time zone and finds, for example, that ramen has been captured in the video for a long time.

この場合、データ解析部330は、発話内容構成部350に、例えば、
「今日のお昼はラーメンを食べに行ったの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to, for example,
"Did you go to eat ramen today?"
Make a conversation. When the data analysis unit 330 determines from the data acquired from the server 200 that the user is at home, is in a state of being calm by the robot apparatus 400, and is in a state of being able to interact with the robot apparatus 400, The robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

このように、ライフログ記録システムがよりユーザ本人を理解しているような、適切な質問をすることで、ユーザに親しみやすさを感じさせ、使用を継続しやすい状況を作り出すことができる。   As described above, by asking an appropriate question that the life log recording system understands the user himself / herself, it is possible to make the user feel familiar and to create a situation where the user can easily use the system.

[実施例8]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、フィットネスクラブに行っていたが、その中のある時間帯だけ、普通よりも長く運動をしている様子がないことを見つけた。
[Example 8]
The data analysis unit 330 indicates that, from the sensor data of the user acquired from the server 200, the user has been to the fitness club, but there is no state of exercising longer than usual for a certain time zone. I found it.

この場合、データ解析部330は、情報取得源の候補となる別メディア情報として登録されているユーザ本人のメールやSNS(Social Network Service)、又は、別の人からのそれらに対する返信を解析する。   In this case, the data analysis unit 330 analyzes the user's own mail or SNS (Social Network Service) registered as another media information that is a candidate for an information acquisition source, or a reply to those from another person.

データ解析部330は、上記解析の結果、フィットネスに併設されているレストランで食事を取っていたようだ、ということを見つけた。   As a result of the above analysis, the data analysis unit 330 found that it seems that a meal was taken at a restaurant attached to fitness.

この場合、データ解析部330は、発話内容構成部350に、例えば、
「フィットネスで夕食を食べてきたの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to, for example,
“Did you eat dinner at fitness?”
Make a conversation. When the data analysis unit 330 determines from the data acquired from the server 200 that the user is at home, is in a state of being calm by the robot apparatus 400, and is in a state of being able to interact with the robot apparatus 400, The robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

このように、ライフログ記録システムがよりユーザ本人を理解しているような、適切な質問をすることで、ユーザに親しみやすさを感じさせ、使用を継続しやすい状況を作り出すことができる。   As described above, by asking an appropriate question that the life log recording system understands the user himself / herself, it is possible to make the user feel familiar and to create a situation where the user can easily use the system.

[実施例9]
データ解析部330は、サーバ200から取得したユーザのセンサデータから、ユーザが、フィットネスクラブに行っていたが、その中のある時間帯だけ、普通よりも長く運動をしている様子がないことを見つけた。
[Example 9]
The data analysis unit 330 indicates that, from the sensor data of the user acquired from the server 200, the user has been to the fitness club, but there is no state of exercising longer than usual for a certain time zone. I found it.

この場合、データ解析部330は、情報取得源の候補となる別メディア情報として登録されている同じ時間帯に同じ場所(フィットネス)にいた、SNSなどで友人登録されている人のメールやSNS等を解析する。   In this case, the data analysis unit 330 sends an e-mail or SNS of a person who has been registered as a friend at an SNS or the like who is in the same place (fitness) in the same time zone registered as another media information that is a candidate for an information acquisition source. Is analyzed.

データ解析部330は、上記解析の結果、フィットネスに併設されているレストランで一緒に食事を取っていたようだ、ということを見つけた。   As a result of the above analysis, the data analysis unit 330 found out that it seemed that a meal was taken together at a restaurant attached to fitness.

この場合、データ解析部330は、発話内容構成部350に、例えば、
「フィットネスでxxさんと夕食を食べてきたの?」
といった会話を構成させる。データ解析部330は、サーバ200から取得したデータから、ユーザが自宅に帰っていてロボット装置400のそばにいて落ち着いている状態であり、ロボット装置400と対話できる状態にあると判断したときに、ロボットアクション送信部360から、ロボット装置400に上記発話内容を送信させる。
In this case, the data analysis unit 330 sends the utterance content configuration unit 350 to, for example,
“Did you eat dinner with xx at fitness?”
Make a conversation. When the data analysis unit 330 determines from the data acquired from the server 200 that the user is at home, is in a state of being calm by the robot apparatus 400, and is in a state of being able to interact with the robot apparatus 400, The robot action transmission unit 360 causes the robot apparatus 400 to transmit the utterance content.

このように、ライフログ記録システムがよりユーザ本人を理解しているような、適切な質問をすることで、ユーザに親しみやすさを感じさせ、使用を継続しやすい状況を作り出すことができる。   As described above, by asking an appropriate question that the life log recording system understands the user himself / herself, it is possible to make the user feel familiar and to create a situation where the user can easily use the system.

このように、本発明によれば、過去に学習した学習データでは、ユーザの行動を特定できず自動的にラベル付けができない場合に、ロボット装置がユーザと会話することによってユーザの行動を特定する情報を引き出すため、ユーザにとって意味のあるラベルを自然な対話を通して容易に付与することができる。また、ラベル付けがなされることにより、ライフログのより広い活用が期待できる。   Thus, according to the present invention, when learning data learned in the past cannot identify a user's action and cannot automatically label it, the robot apparatus identifies the user's action by talking with the user. In order to extract information, a label meaningful to the user can be easily given through a natural dialogue. In addition, since the labeling is performed, a wider utilization of the life log can be expected.

また、本発明によれば、センサデータから、ユーザがロボット装置と会話できる状態にあるか否かを判断し、ユーザがロボット装置と会話できる状態にあるときに、ロボット装置にユーザと会話させる。これにより、ユーザは落ち着いた状態でロボット装置と自然な会話をすることができ、ラベル付け作業をしているという直接的な印象を和らげることができる。その結果、ユーザの継続的な使用が期待できる。   Further, according to the present invention, it is determined from the sensor data whether or not the user can talk to the robot apparatus, and when the user can talk to the robot apparatus, the robot apparatus is allowed to talk to the user. Thereby, the user can have a natural conversation with the robot apparatus in a calm state, and the direct impression that the labeling work is being performed can be relieved. As a result, continuous use by the user can be expected.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。また、本発明について装置を中心に説明してきたが、本発明は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。   Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions included in each component, each step, etc. can be rearranged so that there is no logical contradiction, and multiple components, steps, etc. can be combined or divided into one It is. Further, although the present invention has been described mainly with respect to the apparatus, the present invention can also be realized as a method, a program executed by a processor included in the apparatus, or a storage medium storing the program, and is within the scope of the present invention. It should be understood that these are also included.

なお、上述の実施例では、センサ装置100が、加速度センサ101、位置センサ102、バイタルセンサ103、カメラ104、及び、マイク105などを有する場合を例に挙げて説明したが、センサ装置100は他のセンサを有していてもよい。例えば、センサ装置100は、ユーザがいる場所の環境情報(温度、湿度など)を検出するセンサを有していてもよい。   In the above-described embodiment, the case where the sensor device 100 includes the acceleration sensor 101, the position sensor 102, the vital sensor 103, the camera 104, the microphone 105, and the like has been described as an example. You may have the sensor of. For example, the sensor device 100 may include a sensor that detects environmental information (temperature, humidity, etc.) where the user is.

100 センサ装置
101 加速度センサ
102 位置センサ
103 バイタルセンサ
104 カメラ
105 マイク
110 記憶部
120 データ送信部
200 サーバ
210 データ受信部
220 データ蓄積部
230 データ要求受信部
240 データ送信部
300 センサデータ解析装置
310 データ要求部
320 データ受信部
330 データ解析部
340 学習データ記憶部
350 発話内容構成部
360 ロボットアクション送信部
370 応答結果受信部
380 応答結果解析部
390 ラベル情報送信部
400 ロボット装置
410 ロボットアクション受信部
420 ロボットアクション部
430 応答入力部
440 応答結果送信部
DESCRIPTION OF SYMBOLS 100 Sensor apparatus 101 Acceleration sensor 102 Position sensor 103 Vital sensor 104 Camera 105 Microphone 110 Storage part 120 Data transmission part 200 Server 210 Data reception part 220 Data storage part 230 Data request reception part 240 Data transmission part 300 Sensor data analysis apparatus 310 Data request | requirement Unit 320 data reception unit 330 data analysis unit 340 learning data storage unit 350 utterance content configuration unit 360 robot action transmission unit 370 response result reception unit 380 response result analysis unit 390 label information transmission unit 400 robot apparatus 410 robot action reception unit 420 robot action Unit 430 response input unit 440 response result transmission unit

Claims (8)

センサ装置、サーバ、センサデータ解析装置及びロボット装置を備えるライフログ記録システムであって、
前記センサ装置は、該センサ装置のユーザに関するセンサデータを取得する手段を有し、
前記サーバは、
前記センサ装置から前記センサデータを受信する手段と、
前記センサデータを蓄積する手段とを有し、
前記センサデータ解析装置は、
前記サーバから前記センサデータを受信する手段と、
学習済みのユーザの行動を学習データとして記憶している学習記憶手段と、
前記センサデータに、前記学習データを参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成する解析手段と、
前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断する手段と、
ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信する手段とを有し、
前記ロボット装置は、
前記会話をユーザと行う手段と、
前記会話に対するユーザの応答を前記センサデータ解析装置に送信する手段とを有し、
前記センサデータ解析装置は、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信する手段を有することを特徴とするライフログ記録システム。
A life log recording system comprising a sensor device, a server, a sensor data analysis device and a robot device,
The sensor device has means for obtaining sensor data relating to a user of the sensor device,
The server
Means for receiving the sensor data from the sensor device;
Means for storing the sensor data;
The sensor data analysis device
Means for receiving the sensor data from the server;
Learning storage means for storing learned user behavior as learning data;
When there is data in which the user's behavior cannot be specified even if the sensor data is referred to in the sensor data, an analysis unit that constitutes a conversation for extracting information specifying the user's behavior from the user;
Means for determining from the sensor data whether a user is in a state of being able to talk to the robot apparatus;
Means for transmitting the configured conversation to the robotic device when a user is in a state of being able to converse with the robotic device,
The robot apparatus is:
Means for conducting the conversation with the user;
Means for transmitting a user response to the conversation to the sensor data analysis device;
The sensor data analysis apparatus further includes means for transmitting label information that gives meaning to the sensor data to the server based on a response from the user.
請求項1に記載のライフログ記録システムにおいて、前記解析手段は、ユーザから望ましい応答が得られなかった場合、変更した会話を構成することを特徴とするライフログ記録システム。   2. The life log recording system according to claim 1, wherein the analyzing means constitutes a changed conversation when a desired response cannot be obtained from the user. 請求項1又は2に記載のライフログ記録システムにおいて、前記解析手段は、ユーザが普段の行動を普段と異なる状況で行っていた場合に、その理由をユーザから引き出す会話を構成することを特徴とするライフログ記録システム。   The life log recording system according to claim 1 or 2, wherein the analysis means constitutes a conversation that draws out the reason from the user when the user performs a normal action in a different situation. Life log recording system. 請求項1乃至3のいずれか一項に記載のライフログ記録システムにおいて、前記解析手段は、ユーザが日常行う行動を行っていなかった場合に、その理由をユーザから引き出す会話を構成することを特徴とするライフログ記録システム。   The life log recording system according to any one of claims 1 to 3, wherein the analysis unit constitutes a conversation that draws the reason from the user when the user has not performed daily actions. Life log recording system. 請求項1乃至4のいずれか一項に記載のライフログ記録システムにおいて、前記解析手段は、ユーザが、日常行う行動をいつもと異なる量で行っていた場合に、その理由をユーザから引き出す会話を構成することを特徴とするライフログ記録システム。   5. The life log recording system according to claim 1, wherein, when the user performs a daily action in an amount different from the usual amount, a conversation that draws the reason from the user is performed. A life log recording system characterized by comprising. 請求項1乃至5のいずれか一項に記載のライフログ記録システムにおいて、前記解析手段は、前記センサデータに合わせて、通常は解析に用いていない映像及び/又は音声のデータも参照して、ユーザの行動を特定するための情報をユーザから引き出す会話を構成することを特徴とするライフログ記録システム。   The life log recording system according to any one of claims 1 to 5, wherein the analysis unit refers to video and / or audio data that is not normally used for analysis in accordance with the sensor data. A life log recording system comprising a conversation for extracting information for identifying a user's action from the user. 請求項1乃至6のいずれか一項に記載のライフログ記録システムにおいて、前記解析手段は、前記センサデータに合わせて、通常は解析に用いていないSNS及び/又はメールも参照して、ユーザの行動を特定する情報をユーザから引き出す会話を構成することを特徴とするライフログ記録システム。   The life log recording system according to any one of claims 1 to 6, wherein the analysis unit refers to an SNS and / or an email that is not normally used for analysis in accordance with the sensor data. A life log recording system comprising a conversation for extracting information specifying an action from a user. センサ装置、サーバ、センサデータ解析装置及びロボット装置を備えるライフログ記録システムを動作させるプログラムであって、
前記センサ装置に、該センサ装置のユーザに関するセンサデータを取得するステップを実行させ、
前記サーバに、
前記センサ装置から前記センサデータを受信するステップと、
前記センサデータを蓄積するステップとを実行させ、
前記センサデータ解析装置に、
前記サーバから前記センサデータを受信するステップと、
受信した前記センサデータに、学習済みのユーザの行動を参照してもユーザの行動を特定できないデータがあった場合、ユーザの行動を特定する情報をユーザから引き出すための会話を構成するステップと、
前記センサデータから、ユーザが前記ロボット装置と会話できる状態にあるか否かを判断するステップと、
ユーザが前記ロボット装置と会話できる状態にあるときに、構成された前記会話を前記ロボット装置に送信するステップとを実行させ、
前記ロボット装置に、
前記会話をユーザと行うステップと、
前記会話に対するユーザの応答を前記センサデータ解析装置に送信するステップとを実行させ、
前記センサデータ解析装置に、さらに、前記ユーザの応答に基づいて、前記センサデータに意味付けをするラベル情報を前記サーバに送信するステップを実行させることを特徴とするプログラム。
A program for operating a life log recording system including a sensor device, a server, a sensor data analysis device, and a robot device,
Causing the sensor device to perform a step of obtaining sensor data relating to a user of the sensor device;
To the server,
Receiving the sensor data from the sensor device;
Storing the sensor data; and
In the sensor data analysis device,
Receiving the sensor data from the server;
If there is data that cannot identify the user's behavior even if the received sensor data refers to the learned user's behavior, configuring a conversation for extracting information identifying the user's behavior from the user;
Determining from the sensor data whether a user is in a state of being able to talk to the robotic device;
Sending the configured conversation to the robotic device when a user is in a state of being able to talk to the robotic device,
In the robot apparatus,
Conducting the conversation with a user;
Sending a user response to the conversation to the sensor data analyzer,
A program that causes the sensor data analysis device to further execute a step of transmitting label information that gives meaning to the sensor data to the server based on a response from the user.
JP2014023420A 2014-02-10 2014-02-10 Life log recording system and program thereof Expired - Fee Related JP6125445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014023420A JP6125445B2 (en) 2014-02-10 2014-02-10 Life log recording system and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014023420A JP6125445B2 (en) 2014-02-10 2014-02-10 Life log recording system and program thereof

Publications (2)

Publication Number Publication Date
JP2015152948A true JP2015152948A (en) 2015-08-24
JP6125445B2 JP6125445B2 (en) 2017-05-10

Family

ID=53895180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014023420A Expired - Fee Related JP6125445B2 (en) 2014-02-10 2014-02-10 Life log recording system and program thereof

Country Status (1)

Country Link
JP (1) JP6125445B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062602A (en) * 2015-09-24 2017-03-30 シャープ株式会社 Dialogue system, dialogue control method, and program for functioning computer as dialogue system
JP2017119336A (en) * 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method, and robot program
JP2018128747A (en) * 2017-02-06 2018-08-16 ソフトバンク株式会社 Data processing device, data processing method and program
WO2018163645A1 (en) * 2017-03-10 2018-09-13 日本電信電話株式会社 Dialogue method, dialogue system, dialogue device, and program
JP2020140302A (en) * 2019-02-27 2020-09-03 株式会社トヨタマップマスター Data generation and storage device, method and computer program thereof
KR102260466B1 (en) * 2020-06-19 2021-06-03 주식회사 코클리어닷에이아이 Lifelog device and method using audio recognition

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339571A (en) * 1999-05-28 2000-12-08 Omron Corp Living management system and sensor used for the system
JP2003131691A (en) * 2001-10-23 2003-05-09 Fujitsu Ten Ltd Voice interactive system
WO2005086051A1 (en) * 2004-03-08 2005-09-15 National Institute Of Information And Communications Technology Interactive system, interactive robot, program, and recording medium
JP2008015585A (en) * 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology Living task support system
JP2012008839A (en) * 2010-06-25 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> Apparatus and method for generating introduction, development, turn, and conclusion type story, and program thereof
JP2012141720A (en) * 2010-12-28 2012-07-26 Nec Corp Communication event log generation system, communication event log generation method and program
JP2012173807A (en) * 2011-02-17 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for electronic file management
JP2013054417A (en) * 2011-09-01 2013-03-21 Kddi Corp Program, server and terminal for tagging content
JP2013250862A (en) * 2012-06-01 2013-12-12 Sony Corp Information processing apparatus, information processing method and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339571A (en) * 1999-05-28 2000-12-08 Omron Corp Living management system and sensor used for the system
JP2003131691A (en) * 2001-10-23 2003-05-09 Fujitsu Ten Ltd Voice interactive system
WO2005086051A1 (en) * 2004-03-08 2005-09-15 National Institute Of Information And Communications Technology Interactive system, interactive robot, program, and recording medium
JP2008015585A (en) * 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology Living task support system
JP2012008839A (en) * 2010-06-25 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> Apparatus and method for generating introduction, development, turn, and conclusion type story, and program thereof
JP2012141720A (en) * 2010-12-28 2012-07-26 Nec Corp Communication event log generation system, communication event log generation method and program
JP2012173807A (en) * 2011-02-17 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for electronic file management
JP2013054417A (en) * 2011-09-01 2013-03-21 Kddi Corp Program, server and terminal for tagging content
JP2013250862A (en) * 2012-06-01 2013-12-12 Sony Corp Information processing apparatus, information processing method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062602A (en) * 2015-09-24 2017-03-30 シャープ株式会社 Dialogue system, dialogue control method, and program for functioning computer as dialogue system
JP2017119336A (en) * 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method, and robot program
JP2018128747A (en) * 2017-02-06 2018-08-16 ソフトバンク株式会社 Data processing device, data processing method and program
WO2018163645A1 (en) * 2017-03-10 2018-09-13 日本電信電話株式会社 Dialogue method, dialogue system, dialogue device, and program
JPWO2018163645A1 (en) * 2017-03-10 2019-12-26 日本電信電話株式会社 Dialogue method, dialogue system, dialogue device, and program
JP2020140302A (en) * 2019-02-27 2020-09-03 株式会社トヨタマップマスター Data generation and storage device, method and computer program thereof
JP7165076B2 (en) 2019-02-27 2022-11-02 株式会社トヨタマップマスター DATA GENERATION AND STORAGE DEVICE, METHOD AND COMPUTER PROGRAM
KR102260466B1 (en) * 2020-06-19 2021-06-03 주식회사 코클리어닷에이아이 Lifelog device and method using audio recognition
WO2021256889A1 (en) * 2020-06-19 2021-12-23 주식회사 코클리어닷에이아이 Lifelog device utilizing audio recognition, and method therefor

Also Published As

Publication number Publication date
JP6125445B2 (en) 2017-05-10

Similar Documents

Publication Publication Date Title
US11205148B2 (en) Observation platform for using structured communications
JP6125445B2 (en) Life log recording system and program thereof
US11093536B2 (en) Explicit signals personalized search
RU2637874C2 (en) Generation of interactive recommendations for chat information systems
JP7044916B2 (en) Feedback controller for data transmission
US9659298B2 (en) Systems and methods for informing virtual agent recommendation
US20140164532A1 (en) Systems and methods for virtual agent participation in multiparty conversation
US20140164508A1 (en) Systems and methods for sharing information between virtual agents
WO2015054352A1 (en) Using voice commands to execute contingent instructions
JP7207425B2 (en) Dialog device, dialog system and dialog program
JP5643663B2 (en) Action history generation device and action history generation method
WO2023287910A1 (en) Intelligent task completion detection at a computing device
JPWO2019097674A1 (en) Operation support device for vehicles
CN105869631B (en) The method and apparatus of voice prediction
WO2022264391A1 (en) Server device, system, server device control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170405

R150 Certificate of patent or registration of utility model

Ref document number: 6125445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees