JP2017192005A - Observing system by artificial intelligence agent - Google Patents
Observing system by artificial intelligence agent Download PDFInfo
- Publication number
- JP2017192005A JP2017192005A JP2016079926A JP2016079926A JP2017192005A JP 2017192005 A JP2017192005 A JP 2017192005A JP 2016079926 A JP2016079926 A JP 2016079926A JP 2016079926 A JP2016079926 A JP 2016079926A JP 2017192005 A JP2017192005 A JP 2017192005A
- Authority
- JP
- Japan
- Prior art keywords
- data
- conversation
- artificial intelligence
- intelligence agent
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Alarm Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、複数の人工知能による見守り技術に関するものである。 The present invention relates to a watching technique using a plurality of artificial intelligence.
従来、見守り対象者に情報通信端末を持たせ、介護者から見守り対象者に情報通信端末を通じて、呼び出しを行う技術がある。 2. Description of the Related Art Conventionally, there is a technique in which a person to be watched has an information communication terminal, and a caregiver calls the person to be watched through the information communication terminal.
しかしながら、上記見守りシステムにおいては、情報通信端末の既読フラグを確認できるが、見守り対象者の状況について把握することはできないという欠点がある。 However, although the above-mentioned watching system can check the read flag of the information communication terminal, there is a drawback that it is impossible to grasp the situation of the watching target person.
また、見守り対象者に対して、介護者が定期的に通知を行う必要があり、個別に通知するには人的コストがかかりすぎるという欠点がある。 Moreover, it is necessary for the caregiver to periodically notify the person to be watched over, and there is a drawback that it takes too much human cost to notify individually.
本発明は従来の問題を解決するため、通信回線を介して接続された、人工知能エージェント端末と見守りサーバと見守り端末を備え、前記人工知能エージェント端末は、複数の人工知能エージェントを備え、会話データを見守りサーバと見守り端末と相互にやりとりする送受信手段と、会話データをやりとりする会話表示手段と、会話データを受け取ったとき、前記見守りサーバの学習データを参照し、会話データを返す応答手段と、前記見守りサーバの会話データと学習データを参照し、会話を開始する会話開始手段とを備え、前記見守りサーバは、前記人工知能エージェント端末から受け取った会話データを多次元データに変換する会話データ変換手段と、多次元データに変換された会話データから新たな会話データの記録と会話データの数値による重み付けを行った学習データを生成する学習データ生成手段と、会話データと学習データを見守り端末と相互にやりとりする送受信手段と、会話データと学習データを記録する記録手段と、前記学習データの数値から閾値を超えた会話データを抽出し、見守り端末へ送信する通知手段を備え、前記見守り端末は、会話データと学習データを人工知能エージェント端末と見守りサーバと見守り端末と相互にやりとりする送受信手段とを備えることを特徴とする見守りシステムを提供する。 In order to solve the conventional problems, the present invention includes an artificial intelligence agent terminal, a monitoring server, and a monitoring terminal connected via a communication line, the artificial intelligence agent terminal including a plurality of artificial intelligence agents, and conversation data. A transmission / reception unit that exchanges between the watch server and the watch terminal, a conversation display unit that exchanges conversation data, and a response unit that, when receiving the conversation data, refers to the learning data of the watch server and returns the conversation data; Conversation data conversion means for converting conversation data received from the artificial intelligence agent terminal into multidimensional data, comprising conversation start means for referring to conversation data and learning data of the watch server and starting conversation. Record conversation data and conversation data from conversation data converted to multidimensional data Learning data generating means for generating learning data weighted by numerical values; transmission / reception means for watching and interacting with conversation data and learning data; and recording means for recording conversation data and learning data; and It is provided with a notification means for extracting conversation data exceeding a threshold value from a numerical value and transmitting it to the watching terminal, wherein the watching terminal exchanges conversation data and learning data with the artificial intelligence agent terminal, the watching server and the watching terminal. A monitoring system characterized by comprising:
本発明によれば、見守りサーバが、学習データの会話データの数値から閾値を超えた会話データを抽出し、見守り端末へ送信する。このため、人工知能エージェント端末利用者の状況を把握することができる。 According to the present invention, the watching server extracts conversation data that exceeds the threshold from the numerical value of the conversation data of the learning data, and transmits it to the watching terminal. For this reason, the state of the artificial intelligence agent terminal user can be grasped.
また、本発明では人工知能エージェントが見守りサーバの会話データと学習データを参照し、能動的に会話を開始する。このため、見守る側が常に会話をしたり、会話内容を監視する必要がなく、人的コストを減らすことができる。 In the present invention, the artificial intelligence agent refers to the conversation data and learning data of the watching server and actively starts conversation. For this reason, it is not necessary for the watching side to always have a conversation or monitor the contents of the conversation, and the human cost can be reduced.
以下、本発明の一実施形態について、図面を参照しつつ説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、一実施形態に係る見守りシステム1の構成を示す図である。見守りシステム1は、人工知能エージェント端末利用者23と会話することによって人工知能エージェント端末利用者23の状況を把握するための見守りシステムであって、人工知能エージェント端末2と見守りサーバ3と見守り端末4を備える。人工知能エージェント端末2と見守りサーバ3と見守り端末4とは、有線又は無線LANなどの通信回線24を介してインターネットを通じて双方向にデータを送受信できる状態になっている。 FIG. 1 is a diagram illustrating a configuration of a watching system 1 according to an embodiment. The monitoring system 1 is a monitoring system for grasping the state of the artificial intelligence agent terminal user 23 by talking with the artificial intelligence agent terminal user 23, and includes the artificial intelligence agent terminal 2, the monitoring server 3, and the monitoring terminal 4 Is provided. The artificial intelligence agent terminal 2, the watching server 3, and the watching terminal 4 are in a state where data can be transmitted and received bidirectionally over the Internet via a communication line 24 such as a wired or wireless LAN.
人工知能エージェント端末2は、人工知能エージェント端末利用者23が入力した会話データに対しての応答と、人工知能エージェント端末利用者23との会話を終わらせるための終話と、人工知能エージェント端末利用者23への話しかける発話とを行う端末である。人工知能エージェント端末2は、一実施形態としてスマートフォンのアプリケーションを使用するが、他の端末、例えばロボットや専用端末、タブレットでも良い。 The artificial intelligence agent terminal 2 responds to the conversation data input by the artificial intelligence agent terminal user 23, ends the conversation to end the conversation with the artificial intelligence agent terminal user 23, and uses the artificial intelligence agent terminal. It is a terminal which performs the utterance which talks to person 23. The artificial intelligence agent terminal 2 uses a smartphone application as an embodiment, but may be another terminal such as a robot, a dedicated terminal, or a tablet.
見守りサーバ3は、人工知能エージェント端末2から受け取ったデータに基づいて、学習データから応答、発話、終話に対応する会話データを人工知能エージェント端末2へ送信するサーバである。人工知能エージェント端末2から受け取ったデータに基づいて、学習データ17と会話データ18を参照した際、学習データ17によって算出された数値が指定した範囲内であった場合、見守り端末に通知を行う。 The watching server 3 is a server that transmits conversation data corresponding to responses, utterances, and endings from the learning data to the artificial intelligence agent terminal 2 based on the data received from the artificial intelligence agent terminal 2. When the learning data 17 and the conversation data 18 are referred to based on the data received from the artificial intelligence agent terminal 2, if the numerical value calculated by the learning data 17 is within the specified range, the monitoring terminal is notified.
見守り端末4は、見守りサーバ3が検出した会話データを受信する端末である。見守り端末4は、必要に応じて見守りサーバ3の会話データと学習データを閲覧することができる。また見守り端末4は、見守りサーバ3を介さずに人工知能エージェント端末2に会話データを送信することができる。 The watching terminal 4 is a terminal that receives the conversation data detected by the watching server 3. The watching terminal 4 can browse the conversation data and learning data of the watching server 3 as necessary. Further, the watching terminal 4 can transmit conversation data to the artificial intelligence agent terminal 2 without using the watching server 3.
図2は、一実施形態に係る人工知能エージェント端末2の機能的構成を示す図である。人工知能エージェント端末2は、人工知能エージェント端末利用者23と会話を行うため、人工知能エージェント5と会話表示部8と人工知能エージェント端末送信部9と人工知能エージェント端末受信部10を備える。 FIG. 2 is a diagram showing a functional configuration of the artificial intelligence agent terminal 2 according to the embodiment. The artificial intelligence agent terminal 2 includes an artificial intelligence agent 5, a conversation display unit 8, an artificial intelligence agent terminal transmission unit 9, and an artificial intelligence agent terminal reception unit 10 in order to have a conversation with the artificial intelligence agent terminal user 23.
人工知能エージェント5は、人工知能エージェント端末利用者23が閲覧する会話表示部8に会話データを送信するため、応答部6と会話開始部7を備える。 The artificial intelligence agent 5 includes a response unit 6 and a conversation start unit 7 to transmit conversation data to the conversation display unit 8 viewed by the artificial intelligence agent terminal user 23.
人工知能エージェント端末利用者23が入力した会話データに対しての応答を行う際は、会話表示部8に入力された会話データを人工知能エージェント5の応答部6で受信し、人工知能エージェント端末送信部9へ会話データを送信する。見守りサーバ3から返ってきた会話データは人工知能エージェント端末受信部10で受信し、応答部6へ送信され、会話表示部8に表示される。 When responding to the conversation data input by the artificial intelligence agent terminal user 23, the conversation data input to the conversation display section 8 is received by the response section 6 of the artificial intelligence agent 5, and transmitted to the artificial intelligence agent terminal. Send conversation data to part 9. The conversation data returned from the watching server 3 is received by the artificial intelligence agent terminal receiving unit 10, transmitted to the response unit 6, and displayed on the conversation display unit 8.
人工知能エージェント端末利用者23との会話を終わらせるための終話を行う際は、会話表示部8に入力された会話データを人工知能エージェント5の応答部6で受信し、人工知能エージェント端末送信部9へ会話データを送信する。見守りサーバ3から返ってきた会話データは人工知能エージェント端末受信部10で受信し、応答部6へ送信され、会話表示部8に表示される。人工知能エージェント端末利用者23が発した会話に対しての応答と人工知能エージェント端末利用者23との会話を終わらせるための終話は、見守りサーバ3から受信したデータに基づいて行われる。 When ending the conversation with the artificial intelligence agent terminal user 23, the conversation data input to the conversation display section 8 is received by the response section 6 of the artificial intelligence agent 5, and transmitted to the artificial intelligence agent terminal. Send conversation data to part 9. The conversation data returned from the watching server 3 is received by the artificial intelligence agent terminal receiving unit 10, transmitted to the response unit 6, and displayed on the conversation display unit 8. The response to the conversation made by the artificial intelligence agent terminal user 23 and the end talk for ending the conversation with the artificial intelligence agent terminal user 23 are performed based on the data received from the watching server 3.
人工知能エージェント端末利用者23へ話しかける発話を行う際は、会話開始部7が会話表示部8の状態と、過去の会話データに基づいて、人工知能エージェント端末送信部9に会話データの送信を行う。見守りサーバ3から返ってきた会話データは人工知能エージェント端末受信部10で受信し、会話表示部8へ送信され、会話表示部8に表示される。 When speaking to the artificial intelligence agent terminal user 23, the conversation start unit 7 transmits the conversation data to the artificial intelligence agent terminal transmission unit 9 based on the state of the conversation display unit 8 and the past conversation data. . The conversation data returned from the watching server 3 is received by the artificial intelligence agent terminal receiving unit 10, transmitted to the conversation display unit 8, and displayed on the conversation display unit 8.
図3は、一実施形態に係る見守りサーバ3の機能的構成を示す図である。見守りサーバ3は、人工知能エージェント端末2と見守り端末4から受信したデータに基づいて返信を行うサーバであって、見守りサーバ受信部11と会話データ変換部12と学習データ生成部13と通知部14と見守りサーバ送信部15と記録部16とを備える。 FIG. 3 is a diagram illustrating a functional configuration of the watching server 3 according to the embodiment. The watching server 3 is a server that replies based on the data received from the artificial intelligence agent terminal 2 and the watching terminal 4, and includes a watching server receiving unit 11, a conversation data converting unit 12, a learning data generating unit 13, and a notifying unit 14. And a server transmission unit 15 and a recording unit 16.
見守りサーバ3の記録部16は、学習データ17と会話データ18とを備える。学習データ17は学習を行ったニューラルネットワークやディープラーニングのフレームワークと呼ばれる機械学習装置と受信した会話データから数値を算出する処理を含む。また学習データ17と会話データ18は、リレーショナルデータベースと呼ばれるデータベース装置に記録される。 The recording unit 16 of the watching server 3 includes learning data 17 and conversation data 18. The learning data 17 includes a process for calculating a numerical value from the received conversation data and a machine learning device called a learned neural network or a deep learning framework. The learning data 17 and the conversation data 18 are recorded in a database device called a relational database.
見守りサーバ3は、人工知能エージェント端末2から会話データを見守りサーバ受信部11で受信し、記録部16の学習データ17によって算出された数値と会話データ18を参照し、見守りサーバ送信部15へ会話データの送信を行う。送信する会話データは、図12に示すような学習データ17によって算出された数値からもっとも数値の高いものを行う。図12に示す数値は、一例であり学習データ生成部13の構造と生成された学習によってデータの構造が変化する。また、学習データについては、後ほど説明を行う。 The watching server 3 watches the conversation data from the artificial intelligence agent terminal 2 and receives it by the server receiving unit 11, refers to the numerical value calculated by the learning data 17 of the recording unit 16 and the conversation data 18, and talks to the watching server transmission unit 15. Send data. The conversation data to be transmitted is the one having the highest numerical value from the numerical values calculated by the learning data 17 as shown in FIG. The numerical values shown in FIG. 12 are an example, and the data structure changes depending on the structure of the learning data generation unit 13 and the generated learning. The learning data will be described later.
会話データ変換部12は、記録部16の会話データ18から会話データを受け取り、学習データ生成部13へ送信するためのデータ変換を行う。 The conversation data conversion unit 12 receives conversation data from the conversation data 18 of the recording unit 16 and performs data conversion for transmission to the learning data generation unit 13.
学習データ生成部13は、会話データ変換部12が変換した会話データを受け取り、学習データを生成し、記録部16に記録する。学習データ生成部13はニューラルネットワークやディープラーニングのフレームワークと呼ばれる機械学習装置である。また、記録部16に記録される学習データ17は、学習済みのニューラルネットワークやディープラーニングのフレームワークと数値を含む。 The learning data generation unit 13 receives the conversation data converted by the conversation data conversion unit 12, generates learning data, and records it in the recording unit 16. The learning data generation unit 13 is a machine learning device called a neural network or a deep learning framework. The learning data 17 recorded in the recording unit 16 includes a learned neural network and a deep learning framework and numerical values.
通知部14は、見守り端末4へデータを送信するため、学習データ17と会話データ18を参照し、学習データ17によって算出された数値が指定した範囲内であった会話データを検出した際には、見守りサーバ送信部15にデータを送信する。 The notification unit 14 refers to the learning data 17 and the conversation data 18 in order to transmit data to the watching terminal 4, and when detecting the conversation data in which the numerical value calculated by the learning data 17 is within the specified range, The data is transmitted to the watching server transmission unit 15.
図4は、一実施形態に係る見守り端末4の機能的構成を示す図である。見守り端末4は、人工知能エージェント端末利用者23の状況を把握するための端末であって、見守り端末受信部19と見守り端末送信部20と表示部21と会話データ入力部22とを備える。見守り端末4は、見守りサーバ3から送信されたデータを見守り端末受信部19で受信し、表示部21に表示する。 FIG. 4 is a diagram illustrating a functional configuration of the watching terminal 4 according to the embodiment. The watching terminal 4 is a terminal for grasping the situation of the artificial intelligence agent terminal user 23, and includes a watching terminal receiving unit 19, a watching terminal transmitting unit 20, a display unit 21, and a conversation data input unit 22. The watching terminal 4 watches the data transmitted from the watching server 3 and receives it by the terminal receiving unit 19 and displays it on the display unit 21.
見守り端末4は、会話データ入力部22に会話データを入力することによって、見守りサーバ3を介することなく人工知能エージェント端末2に会話データを送信することができる。 The watching terminal 4 can transmit the conversation data to the artificial intelligence agent terminal 2 without going through the watching server 3 by inputting the conversation data to the conversation data input unit 22.
これまで、見守りシステム1の機能的な構成について説明した。ここから、見守りシステム1が備える人工知能エージェント端末2と見守りサーバ3と見守り端末4のそれぞれが実行する処理の流れの一例について図を参照しつつ説明する。 So far, the functional configuration of the watching system 1 has been described. From here, an example of the flow of processing executed by each of the artificial intelligence agent terminal 2, the watching server 3, and the watching terminal 4 included in the watching system 1 will be described with reference to the drawings.
図5は、人工知能エージェントによる応答の流れを示すフローチャートである。同図に示す応答処理は、人工知能エージェント端末2と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されており、人工知能エージェント端末利用者23の会話データの入力によって処理が実行される(ステップS101)。 FIG. 5 is a flowchart showing a response flow by the artificial intelligence agent. The response processing shown in the figure is performed when the artificial intelligence agent terminal 2 and the watching server 3 are activated and connected by a communication line, and input by the conversation data of the artificial intelligence agent terminal user 23. It is executed (step S101).
人工知能エージェント5は、応答部6で会話データの確認を行い、会話データを人工知能エージェント端末送信部9に送信する(ステップS102)。 The artificial intelligence agent 5 confirms the conversation data in the response unit 6, and transmits the conversation data to the artificial intelligence agent terminal transmission unit 9 (step S102).
人工知能エージェント端末送信部9は、見守りサーバ3の見守りサーバ受信部11に会話データを送信する(ステップS103)。 The artificial intelligence agent terminal transmitting unit 9 transmits the conversation data to the watching server receiving unit 11 of the watching server 3 (step S103).
見守りサーバ3は、学習データ17を参照する(ステップS104)。 The watching server 3 refers to the learning data 17 (step S104).
見守りサーバ3は、過去の会話データの履歴や時間のデータと、学習データ17によって算出された数値を確認する(ステップS105)。このとき、数値が指定した範囲内であった場合は、会話内容の特異性が検知されたことになり、見守り端末4に通知を行う。特異性の検知については、後ほど説明を行う。 The watching server 3 checks the history and time data of past conversation data and the numerical value calculated from the learning data 17 (step S105). At this time, if the numerical value is within the specified range, the peculiarity of the conversation content is detected, and the watch terminal 4 is notified. Specificity detection will be described later.
会話内容の特異性検知が検知された場合、見守りサーバ3は、人工知能エージェント端末2から受信した会話データと関連する学習データ17のデータを、通知部14に送信する(スがテップS106)。 When detecting the specificity of the conversation content, the watching server 3 transmits the learning data 17 related to the conversation data received from the artificial intelligence agent terminal 2 to the notification unit 14 (step S106).
通知部14は、受信したデータと予め定められた見守り端末4の送信先情報とを見守りサーバ送信部15へ送信する。見守りサーバ送信部15は、見守り端末4にデータを送信する(ステップS107)。 The notification unit 14 watches the received data and predetermined transmission destination information of the monitoring terminal 4 and transmits the data to the server transmission unit 15. The watching server transmitting unit 15 transmits data to the watching terminal 4 (step S107).
見守り端末4は見守り端末受信部19でデータを受信する。見守り端末4を使用している見守り者は、会話データの内容を確認し、会話データ入力部22に状況確認のデータを入力する。入力されたデータは見守り端末送信部20を介して、人工知能エージェント端末受信部10に送信される(ステップS107)。 The watching terminal 4 receives data at the watching terminal receiving unit 19. The watcher who uses the watch terminal 4 confirms the content of the conversation data and inputs the status confirmation data to the conversation data input unit 22. The input data is transmitted to the artificial intelligence agent terminal receiving unit 10 via the watching terminal transmitting unit 20 (step S107).
人工知能エージェント端末2は、受信したデータを応答部6から会話表示部8へ送信する(ステップS115)。 The artificial intelligence agent terminal 2 transmits the received data from the response unit 6 to the conversation display unit 8 (step S115).
人工知能エージェント端末利用者23が、適切に会話に応答したした場合、状況が確認できたため、終了となる(ステップS116)。また人工知能エージェント端末利用者23が応答のために入力した会話データは、見守りサーバ3に送信される。 When the artificial intelligence agent terminal user 23 appropriately responds to the conversation, the situation has been confirmed, and the process ends (step S116). The conversation data input for response by the artificial intelligence agent terminal user 23 is transmitted to the watching server 3.
人工知能エージェント端末利用者23が、応答しなかった場合、または適切な応答をしなかった場合、見守り端末4の使用者が緊急対応を行う(ステップS117)。 When the artificial intelligence agent terminal user 23 does not respond or does not respond appropriately, the user of the watching terminal 4 performs an emergency response (step S117).
次に、ステップS105で会話内容の特異性が検知されなかった場合について説明する。 Next, a case where the specificity of the conversation content is not detected in step S105 will be described.
見守りサーバ3は、会話内容の特異性検知が検知されなかった場合、会話データ18から必要な会話データを抽出し、見守りサーバ送信部15へ会話データを送信する(ステップS108)。 The monitoring server 3 extracts the necessary conversation data from the conversation data 18 and transmits the conversation data to the monitoring server transmission unit 15 when the specificity of the conversation content is not detected (step S108).
人工知能エージェント端末2は、人工知能エージェント端末受信部10で会話データを受信し、応答部6へ送信する(ステップS109)。 The artificial intelligence agent terminal 2 receives the conversation data at the artificial intelligence agent terminal receiving unit 10 and transmits it to the response unit 6 (step S109).
応答部6は、複数の人工知能エージェント5から応答する会話・人工知能エージェントの選択を行う(ステップS110)。複数の人工知能エージェントが存在するのは、汎用的に使用できる人工知能エージェントと、人工知能エージェント端末利用者23に対応した人工知能エージェントなどがあるためである。例えば、方言に対応した人工知能エージェントがある。 The response unit 6 selects a conversation / artificial intelligence agent that responds from the plurality of artificial intelligence agents 5 (step S110). The reason why there are a plurality of artificial intelligence agents is that there are artificial intelligence agents that can be used for general purposes and artificial intelligence agents that correspond to the artificial intelligence agent terminal user 23. For example, there is an artificial intelligence agent corresponding to a dialect.
応答部6は、選択した会話・人工知能エージェントのデータを会話表示部8に送信する(ステップS111)。 The response unit 6 transmits the selected conversation / artificial intelligence agent data to the conversation display unit 8 (step S111).
人工知能エージェント端末利用者23は、会話表示部8を介して会話を閲覧し、終了となる(ステップS112)。 The artificial intelligence agent terminal user 23 browses the conversation via the conversation display unit 8 and ends the process (step S112).
人工知能エージェントによる応答の流れは、人工知能エージェント端末利用者23が会話データを入力するたびに繰り返し行われる。図7に示した人工知能エージェントによる終話が確認されたとき、会話が終了する。人工知能エージェントによる終話については後ほど説明を行う。 The flow of response by the artificial intelligence agent is repeated each time the artificial intelligence agent terminal user 23 inputs conversation data. When the end story by the artificial intelligence agent shown in FIG. 7 is confirmed, the conversation ends. The end story by the artificial intelligence agent will be explained later.
図6は、人工知能エージェントによる発話の流れを示すフローチャートである。同図に示す発話処理は、人工知能エージェント端末2と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されており、人工知能エージェント5の会話開始部7による会話データの未受信によって処理が実行される(ステップS201)。 FIG. 6 is a flowchart showing the flow of utterance by the artificial intelligence agent. The utterance process shown in the figure is in a state where the artificial intelligence agent terminal 2 and the watching server 3 are activated and connected by a communication line, and the conversation start unit 7 of the artificial intelligence agent 5 has not received conversation data. Thus, the process is executed (step S201).
会話開始部7は、過去の会話データの履歴や時間のデータを元に会話データの未受信を自動的に判断し、人工知能エージェント端末送信部9を介して、見守りサーバ3に会話データの参照を行う。見守りサーバ受信部11は、人工知能エージェント端末2から会話データの未受信の情報を受け取ると記録部16の学習データ17を参照する(ステップS202)。 The conversation start unit 7 automatically determines that conversation data has not been received based on past conversation data history and time data, and refers to the conversation server 3 via the artificial intelligence agent terminal transmission unit 9 I do. When the watching server receiving unit 11 receives the unreceived information of the conversation data from the artificial intelligence agent terminal 2, the watching server receiving unit 11 refers to the learning data 17 of the recording unit 16 (step S202).
過去の会話データの履歴や時間のデータを元に、学習データ17によって算出された数値を確認し、もっとも数値の高いデータと関連付けられた会話データを見守りサーバ送信部15を介して、人工知能エージェント端末受信部10に送信する(ステップS203)。 Based on past conversation data history and time data, the numerical value calculated by the learning data 17 is confirmed, the conversation data associated with the highest numerical data is observed, and the artificial intelligence agent is passed through the server transmission unit 15. It transmits to the terminal receiver 10 (step S203).
人工知能エージェント端末受信部10は、見守りサーバ3から受信した会話データを会話開始部7に送信する(ステップS204)。 The artificial intelligence agent terminal receiving unit 10 transmits the conversation data received from the watching server 3 to the conversation starting unit 7 (step S204).
図9に示すように人工知能エージェント5は複数用意されているため、会話開始部7は会話データから発話する人工知能エージェントを選択し、会話表示部8へデータを送る(ステップS205)。 As shown in FIG. 9, since a plurality of artificial intelligence agents 5 are prepared, the conversation start unit 7 selects an artificial intelligence agent that speaks from the conversation data, and sends the data to the conversation display unit 8 (step S205).
会話表示部8は、受け取ったデータを元に発話を行う(ステップS206)。図9は実際に2つ目の人工知能エージェントが発話したときのアプリケーションの画像である。 The conversation display unit 8 utters based on the received data (step S206). Figure 9 shows the image of the application when the second artificial intelligence agent actually speaks.
人工知能エージェント端末利用者23は、人工知能エージェントの会話を閲覧する(ステップS207)。 The artificial intelligence agent terminal user 23 browses the conversation of the artificial intelligence agent (step S207).
発話の会話データは、人工知能エージェント端末利用者23が応答しやすい内容となっているため、人工知能エージェント端末利用者23の反応を待つ(ステップS208)。 Since the conversation data of the utterance has contents that the artificial intelligence agent terminal user 23 can easily respond to, the response of the artificial intelligence agent terminal user 23 is awaited (step S208).
人工知能エージェント端末利用者23が応答した場合には、会話が終了する(ステップS209)。また人工知能エージェント端末利用者23が応答のために入力した会話データは、見守りサーバ3に送信される。 When the artificial intelligence agent terminal user 23 responds, the conversation ends (step S209). The conversation data input for response by the artificial intelligence agent terminal user 23 is transmitted to the watching server 3.
人工知能エージェント端末利用者23が応答しなかった場合には、緊急対応を行う(ステップS210)。 When the artificial intelligence agent terminal user 23 does not respond, emergency response is performed (step S210).
図7は、人工知能エージェントによる終話の流れを示すフローチャートである。同図に示す終話処理は、人工知能エージェント端末2と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されており、人工知能エージェント端末利用者23の会話データの入力によって処理が実行される(ステップS301)。 FIG. 7 is a flowchart showing the flow of the end story by the artificial intelligence agent. The end-call processing shown in the figure is performed when the artificial intelligence agent terminal 2 and the watching server 3 are activated and connected by a communication line, and input by the conversation data of the artificial intelligence agent terminal user 23. Is executed (step S301).
人工知能エージェント5は、応答部6で会話データの確認を行い、会話データを人工知能エージェント端末送信部9に送信する(ステップS302)。 The artificial intelligence agent 5 confirms the conversation data in the response unit 6, and transmits the conversation data to the artificial intelligence agent terminal transmission unit 9 (step S302).
人工知能エージェント端末送信部9は、見守りサーバ3の見守りサーバ受信部11に会話データを送信する(ステップS303)。 The artificial intelligence agent terminal transmitting unit 9 transmits the conversation data to the watching server receiving unit 11 of the watching server 3 (step S303).
見守りサーバ3は、学習データ17を参照する(ステップS304)。 The watching server 3 refers to the learning data 17 (step S304).
見守りサーバ3は、過去の会話データの履歴や時間のデータを元に、学習データ17によって算出された数値を確認し、もっとも数値の高いデータと関連付けられた会話データを見守りサーバ送信部15を介して、人工知能エージェント端末受信部10に送信する(ステップS305)。 The watching server 3 confirms the numerical value calculated by the learning data 17 based on the history of past conversation data and the time data, and watches the conversation data associated with the highest numerical data via the server transmitting unit 15. Is transmitted to the artificial intelligence agent terminal receiving unit 10 (step S305).
人工知能エージェント端末受信部10は、見守りサーバ3から受信した会話データを応答部6に送信する(ステップS306)。 The artificial intelligence agent terminal receiving unit 10 transmits the conversation data received from the watching server 3 to the response unit 6 (step S306).
図10に示すように人工知能エージェント5は複数用意されているため、応答部6は会話データから発話する人工知能エージェントを選択し、会話表示部8へデータを送る(ステップS307)。 Since a plurality of artificial intelligence agents 5 are prepared as shown in FIG. 10, the response unit 6 selects an artificial intelligence agent that speaks from the conversation data, and sends the data to the conversation display unit 8 (step S307).
会話表示部8は、受け取ったデータを元に終話を行う(ステップS308)。図10は実際に2つ目の人工知能エージェントが終話したときのアプリケーションの画像である。 The conversation display unit 8 ends the conversation based on the received data (step S308). FIG. 10 is an image of the application when the second artificial intelligence agent actually ends the conversation.
人工知能エージェント端末利用者23は、人工知能エージェントの会話を閲覧する(ステップS309)。 The artificial intelligence agent terminal user 23 browses the conversation of the artificial intelligence agent (step S309).
終話の会話データは、人工知能エージェント端末利用者23が終話しやすい内容となっているため、会話が終了する(ステップS310)。また人工知能エージェント端末利用者23が応答した場合の会話データは、見守りサーバ3に送信される。終話の会話データについても会話データ変換部12と学習データ生成部13を介して、学習データ17を生成することで、算出された数値からもっとも高い数値の会話データを用いる。 Since the conversation data of the end talk is such that the artificial intelligence agent terminal user 23 can easily end the talk, the conversation ends (step S310). The conversation data when the artificial intelligence agent terminal user 23 responds is transmitted to the watching server 3. Concerning the conversation data of the end talk, the learning data 17 is generated via the conversation data converting unit 12 and the learning data generating unit 13, so that the conversation data having the highest numerical value from the calculated numerical values is used.
図8は、人工知能エージェントが応答した際の一例を示す図である。人工知能エージェント端末利用者23が会話データを入力したことで、複数の人工知能エージェントの1つが応答を行っている。 FIG. 8 is a diagram illustrating an example when the artificial intelligence agent responds. As the artificial intelligence agent terminal user 23 inputs the conversation data, one of the plurality of artificial intelligence agents responds.
図9は、人工知能エージェントが発話した際の一例を示す図である。複数の人工知能エージェントの1つが、人工知能エージェント5の会話開始部7が起動したことで、発話が行われている。 FIG. 9 is a diagram illustrating an example when an artificial intelligence agent speaks. One of the plurality of artificial intelligence agents is speaking because the conversation start unit 7 of the artificial intelligence agent 5 is activated.
図10は、人工知能エージェントが終話した際の一例を示す図である。人工知能エージェント端末利用者23が会話データを入力したことで、複数の人工知能エージェントの1つが終話を行っている。 FIG. 10 is a diagram illustrating an example when the artificial intelligence agent ends the talk. When the artificial intelligence agent terminal user 23 inputs the conversation data, one of the plurality of artificial intelligence agents ends the conversation.
図11は、学習データ17によって算出された数値と会話データ18から特異性を検知する流れを示すフローチャートである。同図に示す特異性の検知は、見守りサーバ3が起動している状態で、人工知能エージェント端末2から会話データを受信し、学習データ17を参照する際に処理が実行される(ステップS501)。また、見守り端末4と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されている場合、見守り端末4から処理の実行を行うことができる。 FIG. 11 is a flowchart showing a flow of detecting specificity from the numerical value calculated from the learning data 17 and the conversation data 18. The peculiarity detection shown in the figure is executed when conversation data is received from the artificial intelligence agent terminal 2 and the learning data 17 is referred to while the watching server 3 is activated (step S501). . Further, when the watching terminal 4 and the watching server 3 are activated and connected by a communication line, the watching terminal 4 can execute the process.
見守りサーバ3は、過去の会話データの履歴や時間のデータを元に、学習データ17によって算出された数値を確認する(ステップS502)。 The watching server 3 checks the numerical value calculated by the learning data 17 based on the history of past conversation data and the time data (step S502).
数値の高いデータと関連付けられた会話データが確認できた場合、見守りサーバ3は、会話データを人工知能エージェント端末2へ送信する(ステップS503)。本ステップは、図5で示したステップS108と同じ処理である。 When the conversation data associated with the high numerical data can be confirmed, the watching server 3 transmits the conversation data to the artificial intelligence agent terminal 2 (step S503). This step is the same processing as step S108 shown in FIG.
また指定した範囲内の数値だった場合、特異性の検知が行われる(ステップS504)。 If the numerical value is within the specified range, specificity is detected (step S504).
見守りサーバ3は、通知部14へ会話データを送信する(ステップS505)。本ステップは、図5で示したステップS106と同じ処理である。 The watching server 3 transmits conversation data to the notification unit 14 (step S505). This step is the same processing as step S106 shown in FIG.
このような見守り処理を繰り返すことによって、人工知能エージェント端末利用者23の学習データ17と会話データ18が記録部16に記録される。 By repeating such watching process, the learning data 17 and the conversation data 18 of the artificial intelligence agent terminal user 23 are recorded in the recording unit 16.
ここまで説明した見守り処理による発話と終話が、人工知能エージェント端末利用者23の状況を判断する指標となる理由について、ここで詳細に説明する。 The reason why the utterance and the end story by the watching process described so far are used as an index for determining the state of the artificial intelligence agent terminal user 23 will be described in detail here.
例えば、人工知能エージェントによる発話を行う場合、人工知能エージェント端末利用者23の活動時間に寄らず、人工知能エージェント端末利用者23の活動を確認可能である。本発明では、人工知能エージェント端末利用者23を高齢者に想定しているが、高齢者の数が増えていく中で、1人の高齢者に対し、1人の見守り者が対応することは、人的リソースが大きいことがわかっている。しかし、人工知能エージェント5が自動的に行うことで、人的リソースを大きく削減することが可能である。 For example, when an utterance is made by an artificial intelligence agent, the activity of the artificial intelligence agent terminal user 23 can be confirmed regardless of the activity time of the artificial intelligence agent terminal user 23. In the present invention, the artificial intelligence agent terminal user 23 is assumed to be an elderly person, but as the number of elderly people increases, one watcher corresponds to one elderly person. , Human resources are known to be great. However, the artificial intelligence agent 5 can automatically reduce human resources.
また、通信回線が通じていれば、発話処理が行われるため、家に居ない場合、例えば遠方に移動している際にも、人工知能エージェント端末利用者23の状態の確認が可能である。例えば、旅行や移動している時である。そのような場合でも、人工知能エージェント端末利用者23が人工知能エージェント端末2を持ち歩くことで、人工知能エージェント端末利用者23の状況を確認することができる。 Further, since the speech process is performed if the communication line is connected, the state of the artificial intelligence agent terminal user 23 can be confirmed even when the user is not at home, for example, when moving away. For example, when traveling or traveling. Even in such a case, the state of the artificial intelligence agent terminal user 23 can be confirmed by the artificial intelligence agent terminal user 23 carrying the artificial intelligence agent terminal 2.
もっとも、人工知能エージェント端末利用者23が人工知能エージェント端末2を持ち歩かない場合もある。しかし、発話処理に対して応答がなければ、特異性の検知が可能であるため、人工知能エージェント端末利用者23が通常とは異なる状態であることを見守り端末4を所持している者が把握することができる。 However, the artificial intelligence agent terminal user 23 may not carry the artificial intelligence agent terminal 2 around. However, if there is no response to the utterance process, the peculiarity can be detected, so that the person who owns the terminal 4 knows that the artificial intelligence agent terminal user 23 is in an unusual state can do.
また人工知能エージェント端末利用者23以外の第三者が、人工知能エージェント端末2を利用して、応答する可能性がある。その場合、見守りサーバ3の学習データ17によって算出された数値を確認した際に、通常と異なる対応であれば、過去の会話データの履歴と時間、学習データ17によって算出された数値から、特異性の検知が可能である。例えば、おはようという発話処理に、人工知能エージェント端末利用者23が、常におはようと応答していた場合、人工知能エージェント端末利用者23以外の第三者が、おはようございますと応答すれば、通常と異なる反応であるため、学習データ17によって算出された数値が通常とは異なる値を示すことになるため、特異性が検知され、見守り端末4に情報が通知される。 Also, there is a possibility that a third party other than the artificial intelligence agent terminal user 23 uses the artificial intelligence agent terminal 2 to respond. In that case, when the numerical value calculated by the learning data 17 of the watching server 3 is confirmed, if the correspondence is different from normal, the history and time of the past conversation data and the numerical value calculated by the learning data 17 Can be detected. For example, when the artificial intelligence agent terminal user 23 always responds to good morning speech processing, if a third party other than the artificial intelligence agent terminal user 23 responds with good morning, Since the reaction is different, the numerical value calculated by the learning data 17 shows a value different from the normal value, so that the specificity is detected and the monitoring terminal 4 is notified of the information.
また、人工知能エージェントによる発話に対して、同じ応答しか繰り返さない場合、人工知能エージェント端末利用者23になんらかの状態異常がおきていることを把握できる。例えば、おはよう、こんにちは、こんばんはという発話処理に、人工知能エージェント端末利用者23が常におはようと応答した場合、学習データ17によって算出された数値が指定した範囲内になり、特異性が検知される。具体的には、数値の指定範囲を0.5以下とした場合、図12に示すように、夜の段階で0.1となり検知が可能である。例えば、会話データから認知症を判断するなどができる。そのような会話データについては、事前に会話データ変換部12と学習データ生成部13に学習データ17を生成しておくことができる。これは症例に合わせて都度学習を行うことも可能である。 Further, when only the same response is repeated with respect to the utterance by the artificial intelligence agent, it can be understood that some state abnormality has occurred in the artificial intelligence agent terminal user 23. For example, good morning, hello, the speech processing of evening, when the artificial intelligence agent terminal user 23 is always good morning and in response, becomes within a range of numerical values calculated by the learning data 17 is specified, specificity is detected. Specifically, when the designated range of the numerical value is 0.5 or less, as shown in FIG. 12, it becomes 0.1 at night and can be detected. For example, dementia can be determined from conversation data. For such conversation data, learning data 17 can be generated in the conversation data conversion unit 12 and the learning data generation unit 13 in advance. This can also be learned each time according to the case.
また、本発明では人工知能エージェント5に複数の人工知能エージェントを備えることで、人工知能エージェント端末利用者23に合わせた発話が可能である。例えば、方言などのローカライズである。本発明の一実施形態として学習データ生成部13にニューラルネットワークやディープラーニングと呼ばれるフレームワークを利用するが、一般的にこれらの機械学習装置は学習時間がかかるため、汎用的な学習が優先して行われている。しかし、本発明では、会話データ変換部12の処理を行うことで、学習回数を半分以下にでき、学習時間を約2倍早めることができる。そのため、複数の人工知能エージェントを別々に学習させることができ、同じニューラルネットワークやディープラーニングのフレームワークを使用しても、複数の指標で判断することが可能である。会話データ変換部12の処理については、後ほど説明する。 Further, in the present invention, the artificial intelligence agent 5 is provided with a plurality of artificial intelligence agents, so that it is possible to speak in accordance with the artificial intelligence agent terminal user 23. For example, dialect localization. As an embodiment of the present invention, a framework called neural network or deep learning is used for the learning data generation unit 13, but generally, these machine learning devices take learning time, so general-purpose learning has priority. Has been done. However, in the present invention, the processing of the conversation data conversion unit 12 can reduce the number of learnings by half or less, and can shorten the learning time by about twice. Therefore, a plurality of artificial intelligence agents can be learned separately, and even by using the same neural network or deep learning framework, it is possible to make a judgment using a plurality of indices. The processing of the conversation data conversion unit 12 will be described later.
さらに、ローカライズによって、地方の高齢者が日常で利用している言葉を使って、会話することができるため、人工知能エージェント端末利用者23以外の第三者による、成りすましも行いにくい。 Furthermore, since localization allows conversation by using words used by local elderly people on a daily basis, impersonation by a third party other than the artificial intelligence agent terminal user 23 is difficult.
当然であるが、人工知能エージェント端末利用者23が自身の危険について、人工知能エージェント端末2を通じて送信することも可能である。 Needless to say, the artificial intelligence agent terminal user 23 can also transmit his / her danger through the artificial intelligence agent terminal 2.
本発明では、会話データとして、文字と絵と音声を想定している。文字は通常のキーボード入力による文字入力である。絵は、文字と絵が組み合わせられたものである。例えば、おはようという言葉と、挨拶をしているキャラクターの絵柄を組み合わせたものである。音声は、人工知能エージェント端末2へ音声による入力である。 In the present invention, characters, pictures, and sounds are assumed as conversation data. Characters are character input by normal keyboard input. A picture is a combination of letters and pictures. For example, it is a combination of the word good morning and the design of the character greeting. The voice is input to the artificial intelligence agent terminal 2 by voice.
したがって、発話に対して、人工知能エージェント端末利用者23が音声で応答している場合、人工知能エージェント端末利用者23以外の第三者が文字や絵で応答すれば、特異性が検知され、人工知能エージェント端末利用者23に何かが状態異常がおきていることがわかる。 Therefore, if the artificial intelligence agent terminal user 23 responds to the utterance with speech, if a third party other than the artificial intelligence agent terminal user 23 responds with letters or pictures, the specificity is detected, It can be seen that something is abnormal in the artificial intelligence agent terminal user 23.
また、特異性が検知された場合に、見守り端末4から直接人工知能エージェント端末2に連絡することが可能であるが、人工知能エージェント5が代わりに状況について確認することも可能である。例えば、頭が痛いと人工知能エージェント端末利用者23が会話を入力した場合、何が起きたのかについて確認を行うなどがある。これらの会話データについては、都度学習を行い、学習データを生成していくことで、精度が向上する。 In addition, when the peculiarity is detected, it is possible to contact the artificial intelligence agent terminal 2 directly from the watching terminal 4, but it is also possible for the artificial intelligence agent 5 to check the situation instead. For example, when the AI agent terminal user 23 inputs a conversation when the head hurts, the user confirms what has happened. About these conversation data, accuracy is improved by learning each time and generating learning data.
例えば、発話処理については、人工知能エージェント端末利用者23のスケジュールを確認し、その日の予定を伝えることが可能である。単純にスケジュールの管理を行うだけでなく、スケジュールを覚えているかどうかの確認をすることができる。 For example, for speech processing, it is possible to confirm the schedule of the artificial intelligence agent terminal user 23 and convey the schedule for the day. In addition to simply managing the schedule, you can check whether you remember the schedule.
人工知能エージェントによる終話を行う場合も、発話の場合と同様に特異性の検知が可能である。 Even when an artificial intelligence agent is used to terminate the speech, the specificity can be detected as in the case of speech.
また、終話処理では、人工知能エージェント端末利用者23の健康管理に利用することができる。例えば、特定の時間が来た場合に、図10のように終話処理を行うことで、人工知能エージェント端末利用者23の就寝を促すことができる。 Further, the end-call processing can be used for health management of the artificial intelligence agent terminal user 23. For example, when a specific time has come, the artificial intelligence agent terminal user 23 can be urged to go to bed by performing the end-call processing as shown in FIG.
さらに、会話を通して人工知能エージェント端末利用者23の状態を確認することから、人工知能エージェント端末利用者23が監視されていると感じないため、自然な状態で人工知能エージェント端末利用者23の状態を確認することができる。会話表示部8に表示される人工知能エージェント5の画像は、アイコンだけでなく写真などを用いてもかまわないため、例えば家族の写真を用いることで、家族との連絡を取るという自然な行為によって、人工知能エージェント端末利用者23の状態を確認できる。 Furthermore, since the state of the artificial intelligence agent terminal user 23 is confirmed through conversation, the artificial intelligence agent terminal user 23 does not feel that the artificial intelligence agent terminal user 23 is being monitored. Can be confirmed. Since the image of the artificial intelligence agent 5 displayed on the conversation display unit 8 may use not only an icon but also a photograph or the like, for example, by using a family photograph, a natural act of contacting the family The state of the artificial intelligence agent terminal user 23 can be confirmed.
例えば、定期的に食事の写真を撮ってもらい人工知能エージェント端末2を通じて写真をアップロードしてもらうということもできる。 For example, it is possible to periodically take pictures of meals and upload pictures through the artificial intelligence agent terminal 2.
このように見守り処理による発話と終話を介して、人工知能エージェント端末利用者23の状況を把握する指標となり得る。そのため、発話と終話によって人工知能エージェント端末利用者23の安否の確認ができるだけでなく、健康状態の把握や管理も行うことが可能になる。 In this way, it can serve as an index for grasping the state of the artificial intelligence agent terminal user 23 through the utterance and the end of the watching process. For this reason, not only can the safety of the artificial intelligence agent terminal user 23 be confirmed by the utterance and the end of the talk, but also the health status can be grasped and managed.
図12は、学習データの一例を示す図である。本学習データは、図5の人工知能エージェントによる応答の流れを示すフローチャートで、人工知能エージェント端末利用者23が、おはようと会話データを入力した際、学習データ17によって算出された数字、または記録されているデータの一例である。図13の学習データの生成の流れを示すフローチャートで示すように学習データ17の数値は常に更新される。また、学習データは複数のパラメータによる数値が重み付けされている。実施例では、朝と夜のパラメータの数値データを示したが、時間帯や気温、天気などのパラメータを扱うことが可能である。数値データは、0から1の小数点以下を含む値を取り、1がもっとも高い数値となる。 FIG. 12 is a diagram illustrating an example of learning data. This learning data is a flowchart showing the flow of response by the artificial intelligence agent in FIG. 5, and when the artificial intelligence agent terminal user 23 inputs the conversation data for good morning, the number calculated by the learning data 17 or recorded It is an example of the data. As shown in the flowchart showing the flow of learning data generation in FIG. 13, the numerical value of the learning data 17 is constantly updated. The learning data is weighted with numerical values based on a plurality of parameters. In the embodiment, numerical data of morning and night parameters is shown, but parameters such as time zone, temperature, and weather can be handled. Numerical data takes a value including the decimal point from 0 to 1, with 1 being the highest numerical value.
本発明では、ニューラルネットワークやディープラーニングのフレームワークによる実施を想定しており、実際には学習データ17を参照すると都度計数が行われ、数値が算出される。ただし、汎用的な会話データについては、例えば挨拶などは、事前に数値を記録部16、または人工知能エージェント5が保持しておくことで、応答速度を高めることが可能である。これは、人間における脊髄反射と同様である。そのような処理の際にも、会話データは見守りサーバ3に送信される。 In the present invention, implementation by a neural network or a deep learning framework is assumed. Actually, when learning data 17 is referred to, counting is performed and a numerical value is calculated. However, for general-purpose conversation data, for example, greetings and the like can be increased in response speed by holding numerical values in advance in the recording unit 16 or the artificial intelligence agent 5. This is similar to the spinal reflex in humans. Also in such processing, the conversation data is transmitted to the watching server 3.
図12で示すように、朝の時間帯において、おはようという会話データが入力された場合、応答する会話データとしては、おはようの数値が高い。逆に夜の時間帯においては、数値が低い。 As shown in FIG. 12, in the morning time zone, when good morning conversation data is input, the good conversation numerical value is high as the conversation data to be answered. On the other hand, the numerical value is low in the night time zone.
この数値から、図5の人工知能エージェントによる応答の流れを示すフローチャートで示した会話の特異性を検知する。具体的には、人工知能エージェント端末利用者23が朝の時間帯で、おやすみなさいと入力した場合、指定した範囲内に数値があるため、特異性が検知できる。ここで指定する数値は、見守り者が設定を行う。数値は0から1の範囲で、上記の場合には、例えば0.5といった数値を指定することで、特異性が検知できる。 From this value, the peculiarity of the conversation shown in the flowchart showing the flow of response by the artificial intelligence agent in FIG. Specifically, when the artificial intelligence agent terminal user 23 inputs “Good night” in the morning time zone, since the numerical value is within the specified range, the specificity can be detected. The number specified here is set by the watcher. The numerical value ranges from 0 to 1. In the above case, the specificity can be detected by specifying a numerical value such as 0.5.
これにより朝も夜も人工知能エージェント端末利用者23が、こんにちはと入力した場合も特異性が検知できる。 This artificial intelligence agent user of the terminal 23 and night morning, can detect even specificity if you type Hello.
図13は、学習データの生成の流れを示すフローチャートである。過去の会話データから、学習データ17を生成する。同図に示す学習データの生成処理は、見守りサーバ3が起動している状態で、定期的に行われる。また見守り端末4から起動することも可能である。 FIG. 13 is a flowchart showing a flow of learning data generation. Learning data 17 is generated from past conversation data. The learning data generation process shown in the figure is performed periodically while the watching server 3 is activated. It is also possible to start from the watching terminal 4.
見守りサーバ3が会話データを受信し、会話データ変換部12に送信する(ステップS401)。このデータは学習データを生成するためのデータであり、記録部16の会話データ18とは別のデータとなる。処理が行われたあとは、学習データとともに、記録部16に記録される。 The watching server 3 receives the conversation data and transmits it to the conversation data conversion unit 12 (step S401). This data is data for generating learning data, and is different from the conversation data 18 of the recording unit 16. After the processing is performed, it is recorded in the recording unit 16 together with the learning data.
会話データ変換部12は、学習データ生成部13の学習速度を高めるためデータの多次元化を行う(ステップS402)。会話データの多次元化については、後ほど説明を行う。 The conversation data conversion unit 12 multidimensionalizes the data in order to increase the learning speed of the learning data generation unit 13 (step S402). The multidimensionalization of conversation data will be explained later.
学習データ生成部13は、会話データ変換部12から受け取ったデータから学習データを生成する(ステップS403)。学習データ生成部13は、一般的に人工知能エンジンと呼ばれるソフトウェアである。本発明では、ニューラルネットワークやディープラーニングのフレームワークによる実施を想定しているが、その他の機械学習装置を利用することも可能である。 The learning data generation unit 13 generates learning data from the data received from the conversation data conversion unit 12 (step S403). The learning data generation unit 13 is software generally called an artificial intelligence engine. In the present invention, implementation by a neural network or deep learning framework is assumed, but other machine learning devices can also be used.
生成された学習データ17は記録部16に記録される。元になった会話データは記録部16の会話データ18に記録され、終了となる(ステップS404)。 The generated learning data 17 is recorded in the recording unit 16. The original conversation data is recorded in the conversation data 18 of the recording unit 16, and the process ends (step S404).
図14は、会話データ変換部12のプログラム実装比較を示す図である。学習データ生成部13が学習を行う際の学習データを実数から多次元化する際の実装である。ディープラーニングやニューラルネットワークのフレームワークにデータを入力する際の数値は、0から1の小数点以下を含む値を取る。例えば、白黒の画像データにおいては、白い部分が0、黒い部分を1として学習データを入力することが多く、これが実数の学習データである。本発明では、その学習データを多次元化して入力する。当然であるが、入力データの多次元化にともなって、ニューラルネットワークやディープラーニングのフレームワークのデータ入力と出力部分についても変更を行う。 FIG. 14 is a diagram showing a program implementation comparison of the conversation data conversion unit 12. As shown in FIG. This is an implementation when the learning data generating unit 13 performs multi-dimensional learning data when learning is performed. When entering data into the framework of deep learning or neural networks, the numerical value takes a decimal value between 0 and 1. For example, in black-and-white image data, learning data is often input with a white portion being 0 and a black portion being 1, which is real learning data. In the present invention, the learning data is input in a multidimensional manner. Of course, as the input data becomes multidimensional, the data input and output portions of the neural network and deep learning framework are also changed.
図14では、2次元、多次元、多次元(複素数)、双対の場合のプログラム実装について示しているが、さらに次元を拡張することが可能である。また、本発明では、1をこんにちは、0をおやすみなさいに対応させることができる。 FIG. 14 shows program implementation in the case of two dimensions, multidimensions, multidimensions (complex numbers), and dual, but the dimensions can be further expanded. In the present invention, a Hello, can correspond to good night 0.
図15は、会話データの多次元化による学習効率の向上の一例を示す図である。縦軸が誤答率、横軸が学習回数で、会話データ変換部12によって変換されたデータと、変換されなかったデータの学習回数を比較している。図15のグラフの線が下のものが図14に示す多次元(複素数)による会話データ変換を行った場合の例である。 FIG. 15 is a diagram illustrating an example of improving learning efficiency by multidimensionalizing conversation data. The vertical axis represents the error rate, the horizontal axis represents the number of learnings, and the data converted by the conversation data conversion unit 12 is compared with the number of learnings of the data that has not been converted. The graph with the lower line in FIG. 15 is an example when the conversation data conversion by multi-dimension (complex number) shown in FIG. 14 is performed.
図15の会話データ変換部12によって変換されたデータの場合、誤答率10%に到達する際の学習回数が変換されなかったデータの学習回数の半分以下となっている。同じ学習回数の場合、変換されたデータと変換されなかったデータの計算時間は1.1倍である。変換されなかったデータに比べて変換されたデータの方が計算時間はかかっているが、学習回数を半分以下にできることから、誤答率10%に到達するまでの計算時間は、変換されたデータの方が変換されなかったデータに比べて2倍程度短い。 In the case of data converted by the conversation data conversion unit 12 in FIG. 15, the number of learning times when the error rate reaches 10% is less than half of the number of learning times of the data that has not been converted. In the case of the same number of learning times, the calculation time of converted data and non-converted data is 1.1 times. The converted data takes more time to calculate than the unconverted data, but since the number of learnings can be reduced to half or less, the calculation time to reach the 10% error rate is converted data. Is about twice as short as the unconverted data.
本技術により同じコンピュータを使用して、2種類のニューラルネットワークやディープラーニングのフレームワークによる学習を行うことが可能である。 With this technology, it is possible to perform learning using two types of neural networks and deep learning frameworks using the same computer.
また、会話データ変換部12による処理は、ニューラルネットワークやディープラーニングのフレームワークの構造を変更するものではない。そのため、現在のニューラルネットワークやディープラーニングのフレームワークへの適用が可能である。 Further, the processing by the conversation data conversion unit 12 does not change the structure of the neural network or deep learning framework. Therefore, it can be applied to current neural networks and deep learning frameworks.
さらに、既存のニューラルネットワークやディープラーニングのフレームワークの学習則を変更する学習高速化処理と組み合わせることで、さらに学習時間を短縮することが可能である。 Furthermore, the learning time can be further shortened by combining with a learning speed-up process that changes the learning rule of an existing neural network or deep learning framework.
図14で示した2次元、多次元、多次元(複素数)、双対について、同じニューラルネットワークを使った場合、多次元(複素数)がもっとも学習時間を短縮できる。また、同じデータでもニューラルネットワークの他のパラメータの調整によっても、学習時間の短縮率は異なる。 When the same neural network is used for the two-dimensional, multi-dimensional, multi-dimensional (complex number), and dual shown in FIG. 14, the multi-dimensional (complex number) can most shorten the learning time. Further, the learning time reduction rate varies depending on adjustment of other parameters of the neural network even with the same data.
このような学習データの生成の処理を繰り返すことによって、人工知能エージェント端末利用者23の学習データ17と会話データ18が記録部16に記録される。 The learning data 17 and conversation data 18 of the artificial intelligence agent terminal user 23 are recorded in the recording unit 16 by repeating such learning data generation processing.
ここまで説明した学習データの生成が、人工知能エージェント端末利用者23の状況を把握する精度を向上する技術となる理由について、ここで詳細に説明する。 The reason why the generation of the learning data described so far is a technique for improving the accuracy of grasping the situation of the artificial intelligence agent terminal user 23 will be described in detail here.
例えば、学習時間の短縮の短縮によって、従来よりも多層のニューラルネットワークやディープラーニングのフレームワークを使用することができる。ニューラルネットワークやディープラーニングのフレームワークは、層が多くなるほど精度が向上することが知られている。本発明を用いることで、従来よりも層を多くしても、学習時間が変わらないため、結果精度を向上することが可能である。 For example, by shortening the learning time, it is possible to use a multi-layer neural network or a deep learning framework. Neural networks and deep learning frameworks are known to improve accuracy with more layers. By using the present invention, it is possible to improve the accuracy of results because the learning time does not change even if more layers are used than before.
また、学習時間の短縮によって複数のニューラルネットワークやディープラーニングのフレームワークを使用することも可能になる。そのため、従来は難しかった複数の人工知能による数値判断が可能となる。具体的には、会話データを学習させたニューラルネットワークと、音声データを学習させたニューラルネットワークによる学習データの生成がある。会話データの学習データだけでは人工知能エージェント端末利用者23の状況の判断が難しい場合、音声データの学習データを含めて参照することで、特異性の検知の精度を高めることが可能である。 In addition, shortening the learning time also makes it possible to use multiple neural networks and deep learning frameworks. Therefore, it is possible to make numerical judgments using a plurality of artificial intelligence, which has been difficult in the past. Specifically, there is generation of learning data by a neural network that has learned conversation data and a neural network that has learned speech data. When it is difficult to determine the situation of the artificial intelligence agent terminal user 23 only by learning data of conversation data, it is possible to improve the accuracy of detecting specificity by referring to the learning data of speech data.
複数のニューラルネットワークやディープラーニングのフレームワークによって、汎用的な学習データと人工知能エージェント端末利用者23に合わせた学習データを作成しやすくなるため、地方の方言への対応や、人工知能エージェント端末利用者23の年齢、性別などに合わせた学習データの生成が可能である。 Multiple neural networks and deep learning frameworks make it easy to create general-purpose learning data and learning data tailored to the artificial intelligence agent terminal user 23, so it supports local dialects and uses artificial intelligence agent terminals. It is possible to generate learning data according to the age, sex, etc. of the person 23.
さらに、学習時間が短縮されることで、都度学習が可能となる。例えば、1回の学習に24時間かかっていたものが、12時間で完了するため、新しい言葉を都度学習させることで、人工知能エージェント端末利用者23の状況に対応できる。 Furthermore, the learning time can be reduced by shortening the learning time. For example, what took 24 hours to learn once is completed in 12 hours, so it is possible to cope with the situation of the artificial intelligence agent terminal user 23 by learning new words each time.
具体的には、方言などのローカライズや新語などがある。例えば、新しい言葉が使われた場合、特異性の検知がされるが、その会話データを学習することで、再び新しい言葉が使われた場合に、特異性の検知が行われないように処理を行うことが可能である。 Specifically, there are localization of dialects and new words. For example, when a new word is used, the specificity is detected, but by learning the conversation data, processing is performed so that the specificity is not detected when a new word is used again. Is possible.
新たに学習させることの副次的な効果として、その言葉に反応しないようにプログラムを改変するという作業がなくなるため、ソフトウェアの保守性が高まるという効果もある。 As a secondary effect of newly learning, there is no effect of modifying the program so that it does not react to the words, so there is an effect that the maintainability of the software is improved.
学習データ17については、人工知能エージェントごとに生成することができるため、人工知能エージェント端末利用者23がはじめて使用する際に、人工知能エージェント端末利用者23の状況に合った人工知能エージェントを利用することで、使い始めた段階から発話、終話、応答の精度を高めることが可能である。 Since the learning data 17 can be generated for each artificial intelligence agent, when the artificial intelligence agent terminal user 23 uses it for the first time, the artificial intelligence agent that matches the situation of the artificial intelligence agent terminal user 23 is used. Thus, it is possible to improve the accuracy of utterances, end conversations, and responses from the beginning of use.
また、学習する際の数値データを多次元化することで、複数の学習を1つのニューラルネットワークやディープラーニングのフレームワークによって学習することが可能である。例えば、会話データと音声データの両方について、1つのニューラルネットワークやディープラーニングのフレームワークによる学習ができる。具体的には、画像判別と対話が同時に1つのプログラムで実現できる。 In addition, by making the numerical data used for learning multidimensional, it is possible to learn multiple learnings using a single neural network or deep learning framework. For example, both conversational data and voice data can be learned using a single neural network or deep learning framework. Specifically, image discrimination and dialogue can be realized simultaneously with one program.
学習時間を短縮できる副次的な効果としては、コンピュータリソースの使用を減らすことにつながる。したがって、ハイパフォーマンスなコンピュータを使用しなくても良いため、使用するサーバ費用の低減や電力の消費を抑えることになる。 A side effect that can shorten the learning time is that it reduces the use of computer resources. Therefore, since it is not necessary to use a high performance computer, the server cost to be used is reduced and the power consumption is suppressed.
本発明では、実施の一例として見守りサーバ3と人工知能エージェント端末2を分けているが、コンピュータリソースの使用を減らすことができることから、スマーフトフォンやタブレット端末において、学習データを生成し記録することも可能である。具体的には、人工知能エージェント5の応答部6、会話開始部7に組み込める。 In the present invention, the watching server 3 and the artificial intelligence agent terminal 2 are separated as an example of implementation, but since the use of computer resources can be reduced, learning data may be generated and recorded in a smartphone or tablet terminal. Is possible. Specifically, it can be incorporated into the response unit 6 and the conversation start unit 7 of the artificial intelligence agent 5.
これにより人工知能エージェント端末2で複数の人工知能エージェントと、複数の学習データ17を組み合わせることが可能になる。複数の人工知能エージェントがあっても、同じ学習データを使っていれば、同じ会話データとなってしまうため、機械によるものであると気づきやすい。 As a result, the artificial intelligence agent terminal 2 can combine a plurality of artificial intelligence agents and a plurality of learning data 17. Even if there are multiple artificial intelligence agents, if the same learning data is used, it will be the same conversation data, so it is easy to notice that it is due to a machine.
また、学習データ17が更新されない場合、同じ過ちを常に繰り返してしまうが、本発明では、都度学習が行えることから、人工知能エージェント端末利用者23に合った発話、終話、応答ができるため、人工知能エージェント端末利用者23の状況を把握する精度を向上できる。 In addition, if the learning data 17 is not updated, the same mistake will always be repeated, but in the present invention, since learning can be performed each time, it is possible to utter, end, and respond to the artificial intelligence agent terminal user 23, The accuracy of grasping the situation of the artificial intelligence agent terminal user 23 can be improved.
このように学習データの生成の処理は、人工知能エージェント端末利用者23の状況を把握する精度を向上する技術となり得る。 Thus, the process of generating learning data can be a technique for improving the accuracy of grasping the state of the artificial intelligence agent terminal user 23.
以上、本発明の実施形態について説明したが、本発明は実施形態によって限定されるものではない。本発明は、実施形態及び以下の変形例を適宜組み合わせたものも含み、また、それらと均等なものを含む。 As mentioned above, although embodiment of this invention was described, this invention is not limited by embodiment. The present invention includes combinations of the embodiments and the following modifications as appropriate, and includes equivalents thereof.
例えば、人工知能エージェント端末2は、スマートフォンやタブレット、ロボットに限らず、人工知能エージェント端末利用者23と会話できる端末で、見守りサーバ3と通信回線を介してデータの送受信ができるウェアラブルデバイスや携帯電話でもよい。また会話データや音声データの送受信によって、学習データ17によって算出された数値を確認できれば良いため、会話データや音声データをメールなどで送受信してもよい。さらに、既存のチャットアプリケーションに本発明を組み合わせることで、人工知能エージェント5を介さず、会話データの学習と特異性の検知を用いることで、人工知能エージェント端末利用者23の状況を把握することが可能である。 For example, the artificial intelligence agent terminal 2 is not limited to smartphones, tablets, and robots, but is a terminal that can communicate with the artificial intelligence agent terminal user 23, and is a wearable device or mobile phone that can transmit and receive data to and from the watching server 3 via a communication line. But you can. Moreover, since it is sufficient that the numerical value calculated by the learning data 17 can be confirmed by transmission / reception of conversation data or voice data, the conversation data or voice data may be transmitted / received by e-mail or the like. Furthermore, by combining the present invention with an existing chat application, it is possible to grasp the state of the artificial intelligence agent terminal user 23 by using conversation data learning and peculiarity detection without using the artificial intelligence agent 5. Is possible.
また例えば、見守りサーバ3は、クラウドサービスを用いてもよい。また学習データ生成部13のニューラルネットワークやディープラーニングのフレームワークを見守りサーバ3の中ではなく、見守りサーバ3の外部になるリソースを使用してもよい。 For example, the watching server 3 may use a cloud service. In addition, a resource that is external to the watching server 3 may be used instead of the watching server 3 watching the neural network and deep learning framework of the learning data generation unit 13.
さらに例えば、見守り端末4は、スマートフォンやタブレット、PC、ロボットに限らず、人工知能エージェント端末利用者23と会話できる端末で、人工知能エージェント端末2と見守りサーバ3と通信回線を介してデータの送受信ができるウェアラブルデバイスや携帯電話でもよい。また会話データや音声データの送受信によって、学習データ17によって算出された数値を確認できれば良いため、会話データや音声データをメールなどで送受信してもよい。さらに、既存のチャットアプリケーションに本発明を組み合わせることで、人工知能エージェント端末2への緊急連絡として利用してもよい。見守り端末4は、家族や介護者に限らず、自治体やコミュニティの管理者が利用する端末でもよい。また、見守り端末4から見守りサーバ3を介して、人工知能エージェント5に会話をさせてもよい。 Further, for example, the watch terminal 4 is not limited to a smartphone, tablet, PC, or robot, and is a terminal capable of talking with the artificial intelligence agent terminal user 23, and transmits and receives data via the communication line with the artificial intelligence agent terminal 2 and the watch server 3. It may be a wearable device or mobile phone. Moreover, since it is sufficient that the numerical value calculated by the learning data 17 can be confirmed by transmission / reception of conversation data or voice data, the conversation data or voice data may be transmitted / received by e-mail or the like. Further, by combining the present invention with an existing chat application, it may be used as an emergency contact to the artificial intelligence agent terminal 2. The watching terminal 4 is not limited to a family or a caregiver, but may be a terminal used by a local government or community administrator. In addition, the artificial intelligence agent 5 may have a conversation from the watching terminal 4 via the watching server 3.
さらに例えば、人工知能エージェント5の人工知能エージェントは、人工無能を使用してもよい。その場合は、会話データを見守りサーバ3に送信し、学習データ17によって算出された数値と会話データを見守り端末4などに送信する。また、人工知能エージェントとディープラーニングやニューラルネットワークのフレームワーク、学習データ、会話データは1対1対応ではなく、1つの人工知能エージェントの裏側で複数のディープラーニングやニューラルネットワークのフレームワーク、学習データ、会話データを利用してもよい。当然であるが、人工知能エージェントは複数存在するため、N対Nの構造でもよい。 Further, for example, the artificial intelligence agent of the artificial intelligence agent 5 may use artificial inability. In that case, the conversation data is watched and transmitted to the server 3, and the numerical value calculated by the learning data 17 and the conversation data are watched and transmitted to the terminal 4 or the like. Also, artificial intelligence agent and deep learning and neural network framework, learning data, conversation data are not one-to-one correspondence, multiple deep learning and neural network framework, learning data, behind one artificial intelligence agent Conversation data may be used. Of course, since there are a plurality of artificial intelligence agents, an N-to-N structure may be used.
さらに例えば、学習データ17の初期データは汎用的な会話データのコーパスでもよい。本発明では都度学習が行われるが、都度学習を行わずに、特異性の検知だけ行うことが可能である。 Further, for example, the initial data of the learning data 17 may be a general-purpose conversation data corpus. In the present invention, learning is performed each time, but it is possible to perform only detection of specificity without performing learning each time.
さらに例えば、見守り端末4の表示部21は複数の人工知能エージェント端末2の会話表示部8を表示してもよい。表示するデータは学習データ17に重み付けされた数値データと組み合わせ、会話の重要度を色などによって表示してもよい。 Further, for example, the display unit 21 of the watching terminal 4 may display the conversation display units 8 of the plurality of artificial intelligence agent terminals 2. The data to be displayed may be combined with the numerical data weighted on the learning data 17, and the importance of the conversation may be displayed by color or the like.
複数の人工知能エージェント端末2の会話表示部8を表示することによって、複数の人工知能エージェント端末利用者23の状況を容易に確認することが可能になる。 By displaying the conversation display units 8 of the plurality of artificial intelligence agent terminals 2, it is possible to easily check the status of the plurality of artificial intelligence agent terminal users 23.
1 見守りシステム
2 人工知能エージェント端末
3 見守りサーバ
4 見守り端末
5 人工知能エージェント
6 応答部
7 会話開始部
8 会話表示部
9 人工知能エージェント端末送信部
10 人工知能エージェント端末受信部
11 見守りサーバ受信部
12 会話データ変換部
13 学習データ生成部
14 通知部
15 見守りサーバ送信部
16 記録部
17 学習データ
18 会話データ
19 見守り端末受信部
20 見守り端末送信部
21 表示部
22 会話データ入力部
23 人工知能エージェント端末利用者
24 通信回線
1 Watch system
2 Artificial intelligence agent terminal
3 Monitoring server
4 Watch terminal
5 Artificial intelligence agent
6 Response section
7 Conversation start
8 Conversation display
9 Artificial intelligence agent terminal transmitter
10 Artificial intelligence agent terminal receiver
11 Monitoring server receiver
12 Conversation data converter
13 Learning data generator
14 Notification section
15 Monitoring server transmitter
16 Recording section
17 Learning data
18 Conversation data
19 Watching terminal receiver
20 Monitor terminal transmitter
21 Display
22 Conversation data input section
23 Artificial intelligence agent terminal users
24 Communication line
Claims (6)
前記人工知能エージェント端末は、複数の人工知能エージェントを備え、
会話データを見守りサーバと見守り端末と相互にやりとりする送受信手段と、
会話データをやりとりする会話表示手段と、
会話データを受け取ったとき、前記見守りサーバの学習データを参照し、会話データを返す応答手段と、
前記見守りサーバの会話データと学習データを参照し、会話を開始する会話開始手段とを備え、
前記見守りサーバは、前記人工知能エージェント端末から受け取った会話データを多次元データに変換する会話データ変換手段と、
多次元データに変換された会話データから新たな会話データの記録と会話データの数値による重み付けを行った学習データを生成する学習データ生成手段と、
会話データと学習データを見守り端末と相互にやりとりする送受信手段と、
会話データと学習データを記録する記録手段と、
前記学習データの数値から閾値を超えた会話データを抽出し、見守り端末へ送信する通知手段を備え、
前記見守り端末は、会話データと学習データを人工知能エージェント端末と見守りサーバと見守り端末と相互にやりとりする送受信手段と、
前記見守りサーバから受信したデータを表示する表示手段と、
会話データを入力する手段とを備えることを特徴とする見守りシステム。 It is equipped with an artificial intelligence agent terminal, a monitoring server and a monitoring terminal connected via a communication line,
The artificial intelligence agent terminal comprises a plurality of artificial intelligence agents,
Sending and receiving means for watching conversation data and exchanging with the server and watching terminal,
A conversation display means for exchanging conversation data;
When the conversation data is received, a response means for referring to the learning data of the watching server and returning the conversation data;
Referring to conversation data and learning data of the watching server, and having a conversation start means for starting a conversation,
The monitoring server includes conversation data conversion means for converting conversation data received from the artificial intelligence agent terminal into multidimensional data;
Learning data generating means for generating learning data that is recorded with new conversation data from the conversation data converted into multidimensional data and weighted by numerical values of the conversation data;
A transmission / reception means for watching conversation data and learning data and interacting with the terminal;
A recording means for recording conversation data and learning data;
Extracting conversation data exceeding a threshold value from the numerical value of the learning data, comprising a notification means for transmitting to the watch terminal,
The watching terminal is a transmission / reception means for exchanging conversation data and learning data with the artificial intelligence agent terminal and the watching server and the watching terminal.
Display means for displaying data received from the watching server;
A watching system comprising means for inputting conversation data.
前記見守りサーバの学習データを参照し、前記会話表示手段によって前記人工知能エージェント同士で会話を行う手段と、
人工知能エージェント端末の所有者と複数の人工知能エージェントによる会話を行う手段とを備えることを特徴とする請求項1に記載の見守りシステム。 The artificial intelligence agent comprises transmission / reception means for interacting with a plurality of artificial intelligence agents,
Means for referring to the learning data of the watching server, and having a conversation between the artificial intelligence agents by the conversation display means;
2. The watching system according to claim 1, further comprising means for performing conversation between the owner of the artificial intelligence agent terminal and a plurality of artificial intelligence agents.
前記会話開始手段は、生成された学習データを参照し、重み付けされた数値から、会話開始の会話データを取得し、前記人工知能エージェント端末へ会話データを送信することを特徴とする請求項1から2のいずれかに記載の見守りシステム。 The learning means comprises a conversation data conversion means for converting conversation data into multidimensional data, a new conversation data recording means, and means for generating learning data weighted by the numerical value of the conversation data,
The conversation start means refers to the generated learning data, acquires the conversation start conversation data from a weighted numerical value, and transmits the conversation data to the artificial intelligence agent terminal. The monitoring system according to any one of 2 above.
多次元データに変換された会話データから新たな会話データの記録と会話データの数値による重み付けを行った学習データを生成する学習データ生成手段と、
会話データと学習データを見守り端末と相互にやりとりする送受信手段と、
会話データと学習データを記録する記録手段と、
前記学習データの数値から閾値を超えた会話データを抽出し、見守り端末へ送信する手段を備えることを特徴とする見守りサーバ。 Conversation data conversion means for converting the two-dimensional conversation data received from the artificial intelligence agent terminal into multidimensional data;
Learning data generating means for generating learning data that is recorded with new conversation data from the conversation data converted into multidimensional data and weighted by numerical values of the conversation data;
A transmission / reception means for watching conversation data and learning data and interacting with the terminal;
A recording means for recording conversation data and learning data;
A monitoring server comprising means for extracting conversation data exceeding a threshold value from the numerical value of the learning data and transmitting it to the monitoring terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016079926A JP6128472B1 (en) | 2016-04-12 | 2016-04-12 | Watch system by artificial intelligence agent |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016079926A JP6128472B1 (en) | 2016-04-12 | 2016-04-12 | Watch system by artificial intelligence agent |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6128472B1 JP6128472B1 (en) | 2017-05-17 |
JP2017192005A true JP2017192005A (en) | 2017-10-19 |
Family
ID=58714817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016079926A Active JP6128472B1 (en) | 2016-04-12 | 2016-04-12 | Watch system by artificial intelligence agent |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6128472B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108881437A (en) * | 2018-05-22 | 2018-11-23 | 四川斐讯信息技术有限公司 | A kind of intelligent terminal acts on behalf of decision-making technique |
WO2019143141A1 (en) * | 2018-01-17 | 2019-07-25 | 주식회사 머니브레인 | Method for visualizing knowledge base for interactive ai agent system, and computer readable recording medium |
KR20200021366A (en) * | 2018-08-20 | 2020-02-28 | (주)쥬비스다이어트 | Operating method of application for artificial intelligence based health counsel and user equipment thereof |
US11089154B2 (en) | 2018-12-19 | 2021-08-10 | Samsung Electronics Co., Ltd. | Electronic apparatus, controlling method of electronic apparatus and computer readable medium |
JP7414934B1 (en) | 2022-11-14 | 2024-01-16 | 東芝エレベータ株式会社 | Elevator system and elevator monitoring support method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019021980A (en) * | 2017-07-12 | 2019-02-07 | シャープ株式会社 | Network system, information processing method, server, and terminal |
JP2019056970A (en) | 2017-09-19 | 2019-04-11 | カシオ計算機株式会社 | Information processing device, artificial intelligence selection method and artificial intelligence selection program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207077A (en) * | 2014-04-18 | 2015-11-19 | 株式会社インタープロ | Remote watching system and remote watching method |
JP2015216565A (en) * | 2014-05-13 | 2015-12-03 | 東芝情報システム株式会社 | Watching system |
-
2016
- 2016-04-12 JP JP2016079926A patent/JP6128472B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207077A (en) * | 2014-04-18 | 2015-11-19 | 株式会社インタープロ | Remote watching system and remote watching method |
JP2015216565A (en) * | 2014-05-13 | 2015-12-03 | 東芝情報システム株式会社 | Watching system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019143141A1 (en) * | 2018-01-17 | 2019-07-25 | 주식회사 머니브레인 | Method for visualizing knowledge base for interactive ai agent system, and computer readable recording medium |
CN108881437A (en) * | 2018-05-22 | 2018-11-23 | 四川斐讯信息技术有限公司 | A kind of intelligent terminal acts on behalf of decision-making technique |
KR20200021366A (en) * | 2018-08-20 | 2020-02-28 | (주)쥬비스다이어트 | Operating method of application for artificial intelligence based health counsel and user equipment thereof |
KR102187816B1 (en) * | 2018-08-20 | 2020-12-07 | (주)쥬비스다이어트 | Operating method of application for artificial intelligence based health counsel and user equipment thereof |
US11089154B2 (en) | 2018-12-19 | 2021-08-10 | Samsung Electronics Co., Ltd. | Electronic apparatus, controlling method of electronic apparatus and computer readable medium |
JP7414934B1 (en) | 2022-11-14 | 2024-01-16 | 東芝エレベータ株式会社 | Elevator system and elevator monitoring support method |
Also Published As
Publication number | Publication date |
---|---|
JP6128472B1 (en) | 2017-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6128472B1 (en) | Watch system by artificial intelligence agent | |
US11803708B1 (en) | Conversation facilitation system for mitigating loneliness | |
CN104113471B (en) | Information processing method and device when communication connection is abnormal | |
US10079013B2 (en) | Sharing intents to provide virtual assistance in a multi-person dialog | |
US10096316B2 (en) | Sharing intents to provide virtual assistance in a multi-person dialog | |
CN111869185B (en) | Generating IoT-based notifications and providing commands that cause an automated helper client of a client device to automatically render the IoT-based notifications | |
CN106657521A (en) | Smart device voice communication method, apparatus and system | |
US12057112B1 (en) | Conversation system for detecting a dangerous mental or physical condition | |
US9473497B1 (en) | Exclusion engine for electronic communications in controlled-environment facilities | |
WO2017068816A1 (en) | Information processing system and information processing method | |
JP6432177B2 (en) | Interactive communication system, terminal device and program | |
Kobayashi et al. | Social media agency robot for elderly people | |
JP2014232258A (en) | Coordination business supporting device, method and program | |
US10255266B2 (en) | Relay apparatus, display apparatus, and communication system | |
KR20240046433A (en) | Determine and display estimated hold period for calls | |
CN108885594B (en) | Information processing apparatus, information processing method, and program | |
CN113808592A (en) | Method and device for transcribing call recording, electronic equipment and storage medium | |
CN107783650A (en) | A kind of man-machine interaction method and device based on virtual robot | |
JP6598227B1 (en) | Cat-type conversation robot | |
CN110223681A (en) | Real speech information intelligent interactive system and method based on elder user | |
Kobayashi et al. | SNS Agency Robot for Elderly People using External Cloud-based Services | |
US20230254411A1 (en) | Group calling system, group calling method, and program | |
KR102359228B1 (en) | Method for customized conversation connection service | |
JP7521835B1 (en) | TALK ROOM SYSTEM, CONTROL METHOD FOR TALK ROOM SYSTEM, AND PROGRAM | |
KR20200112157A (en) | Sound output device having artificial intelligence and driving method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6128472 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |