JP2017058406A - Computer system and program - Google Patents

Computer system and program Download PDF

Info

Publication number
JP2017058406A
JP2017058406A JP2015180852A JP2015180852A JP2017058406A JP 2017058406 A JP2017058406 A JP 2017058406A JP 2015180852 A JP2015180852 A JP 2015180852A JP 2015180852 A JP2015180852 A JP 2015180852A JP 2017058406 A JP2017058406 A JP 2017058406A
Authority
JP
Japan
Prior art keywords
utterance
user
utterance content
data
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015180852A
Other languages
Japanese (ja)
Inventor
田中 潤
Jun Tanaka
潤 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shannon Lab
Shannon Lab Co Ltd
Original Assignee
Shannon Lab
Shannon Lab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shannon Lab, Shannon Lab Co Ltd filed Critical Shannon Lab
Priority to JP2015180852A priority Critical patent/JP2017058406A/en
Publication of JP2017058406A publication Critical patent/JP2017058406A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize a conversation specific to a specific use required by a user, with the use of a software agent.SOLUTION: Customization information including utterance contents and the like used for a specific use, such as reception in an office, is stored in a database (conversation DB) of a storage device by a user, voice of a visitor is analyzed by voice recognition processing (S3) and utterance contents matching the analysis result are retrieved from the DB of the storage device to utter by utterance processing (S5).SELECTED DRAWING: Figure 3

Description

本発明は、例えば、ソフトウェアエージェントを利用して人に対し音声により対応するコンピュータシステムおよびプログラムに関する。   The present invention relates to a computer system and a program for responding to a person by voice using a software agent, for example.

この種のコンピュータシステムおよびプログラムに関して一般的に知られているものに、例えば、ユーザが、対話システムを搭載したスマートフォンに対して、質問を語りかけることにより、スマートフォンが、ユーザの声を認識し、意味解析によってその質問の意図を理解し、回答すると共に、最適なサービス機能(例えばメール、スケジューラ、アラーム等)を自動的に起動するものがあった(例えば非特許文献1参照)。   What is generally known about this type of computer system and program, for example, when a user speaks a question to a smartphone equipped with an interactive system, the smartphone recognizes the user's voice and means Some analyzes understand and respond to the intention of the question, and automatically start an optimal service function (for example, mail, scheduler, alarm, etc.) (for example, see Non-Patent Document 1).

NTTドコモ、「しゃべってコンシェル」、[online]、[平成27年3月4日検索]、インターネット<URL:http://www.nttdocomo.co.jp/service/information/shabette_concier/>NTT DoCoMo, “Talking Concierge”, [online], [Search March 4, 2015], Internet <URL: http://www.nttdocomo.co.jp/service/information/shabette_concier/>

しかし、このような対話システムは、一般ユーザ向けに開発された汎用性のあるシステムとなっており、例えば、会社での来訪者の受付け、訪問予約の受付け、あるいは要介護者との対話等、或る特定の用途に特化した対話には向いていないという不都合がある。   However, such a dialogue system is a general-purpose system developed for general users, such as accepting visitors at the company, accepting visit reservations, or interacting with care recipients, etc. There is an inconvenience that it is not suitable for a dialog specialized for a specific application.

本発明は上記事情に鑑みてなされたものであり、その目的は、ユーザが要求する特定の用途に特化した対話をソフトウェアエージェントで実現可能にするコンピュータシステムおよびプログラムを提供することである。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a computer system and a program that enable a software agent to realize a dialog specialized for a specific use requested by a user.

以下には、課題を解決するための各手段に対応する実施形態の一例を括弧書き挿入して示す。   In the following, an example of an embodiment corresponding to each means for solving the problem is shown in parentheses.

本発明は、ソフトウェアエージェントを利用して人に対し音声により対応するコンピュータシステムであって、
人の音声を認識するための音声認識手段(例えば、音声入力部31,44、S3、S25〜S30、S51、S111、S214、S290)と、
前記音声認識手段による認識結果に対応した発話を行うための発話手段(例えば、音声出力部31,44、S5、S40〜S44、S53、S90〜S97、S113、S145〜S152、S216、S255〜S291、S298〜S302)と、
発話内容を生成するための情報をデータベースとして記憶する記憶手段(例えば、記憶装置24、EEPROM36、S1、S10〜S12、S50、S70〜74、S110、S210、S212、S225〜S230、S231〜S236、S292、S310〜S311)と、
前記記憶手段に記憶されている情報を用いて発話内容を生成するための発話内容生成手段(例えば、CPU21,33、S4、S35〜S37、S52、S80〜S86、S112、S215、S245〜S249、S280〜S282、S293、S305〜S308)と、を備え、
前記発話手段は、前記発話内容生成手段により生成された発話内容に応じた発話を行い(例えば、S40〜S44、S145〜S152、S255〜S291、S298〜S302)、
前記記憶手段は、ユーザが前記ソフトウェアエージェントを用いる特定の用途にカスタマイズされた情報を入力して記憶可能である(例えば、S10〜S12、S70〜74、S225〜S230、S231〜S236、S310〜S311)。
また、前記音声認識手段は、ユーザの音声をその他の音声から峻別するための峻別手段(例えば、マイクロホンアレイ)を含み、該峻別手段により峻別された音声に基づいて音声認識を行い、前記峻別手段は、複数のマイクロホンが収集した音声信号に基づいて音源分離(例えば、フレーム間連立方程式解による2点受音音源分離)を行って所定距離からの音声信号を除去するためのマイクロホンアレイを有してもよい。この峻別手段は、独立成分分析を用いた音源分離手段をさらに有してもよい。
また、前記音声認識手段は、事前に蓄えられている母音および子音の音響パターンを含む一般的認識基準を変形する手段であって、ユーザからサンプルとして収集した音声に含まれる音響的性質に基づいて前記一般的認識基準を変形して話者適応を行う話者適応手段を含んでもよい。
また、前記話者適応は、ガウス混合分布モデルを用いる音声認識においての話者適応でもよい。
また、前記話者適応は、ディープニューラルネットワークを用いて行ってもよい。
また、前記記憶手段は、ユーザが前記ソフトウェアエージェントを用いる特定の用途にカスタマイズされた情報を管理画面上(例えば、図20に示す管理画面)で入力するための入力操作手段を含んでもよい。
この入力操作手段は、前記管理画面上に発話内容エリア(例えば、図20の吹き出し)を表示して該発話内容エリア内にユーザへの発話内容を入力すると共に、ユーザへの質問の発話内容エリアに対しユーザの返答内容に応じて枝分かれ(例えば、図20のYES矢印とNO矢印とで枝分かれ)して各枝分かれ先に更なる発話内容エリアを表示し、該発話内容エリア内に前記返答内容に応じた発話内容を入力する流れ図型入力手段を有し、前記発話内容生成手段は、前記流れ図型入力手段により入力された流れ図に沿って順次発話内容エリア内の発話内容を生成する手段を含んでもよい。
また、前記音声認識手段は、同義語を同値化して認識する同義語認識手段を含んでもよい。この同義語認識手段は、予め入力操作された同義語のデータベース(例えばバッファーに記憶されている同義語一覧データ)に基づいて同義語を同値化して認識してもよい。
The present invention is a computer system that responds to a person by voice using a software agent,
Voice recognition means for recognizing human voice (for example, voice input units 31, 44, S3, S25 to S30, S51, S111, S214, S290);
Speaking means (for example, voice output units 31, 44, S5, S40 to S44, S53, S90 to S97, S113, S145 to S152, S216, S255 to S291) for performing speech corresponding to the recognition result by the voice recognition means. , S298 to S302),
Storage means for storing information for generating utterance contents as a database (for example, storage device 24, EEPROM 36, S1, S10 to S12, S50, S70 to 74, S110, S210, S212, S225 to S230, S231 to S236, S292, S310 to S311),
Utterance content generation means for generating utterance content using information stored in the storage means (for example, CPU 21, 33, S4, S35 to S37, S52, S80 to S86, S112, S215, S245 to S249, S280 to S282, S293, S305 to S308),
The utterance means performs an utterance according to the utterance content generated by the utterance content generation means (for example, S40 to S44, S145 to S152, S255 to S291, S298 to S302),
The storage means is capable of inputting and storing information customized for a specific application using the software agent (for example, S10 to S12, S70 to 74, S225 to S230, S231 to S236, S310 to S311). ).
Further, the voice recognition means includes a discrimination means (for example, a microphone array) for distinguishing the user's voice from other voices, performs voice recognition based on the voice distinguished by the discrimination means, and the discrimination means Has a microphone array for performing sound source separation based on sound signals collected by a plurality of microphones (for example, two-point sound source separation by simultaneous equation solution between frames) and removing sound signals from a predetermined distance May be. The distinction unit may further include a sound source separation unit using independent component analysis.
The speech recognition means is a means for modifying a general recognition standard including acoustic patterns of vowels and consonants stored in advance, and based on acoustic properties included in speech collected as a sample from a user. The general recognition standard may be modified to include speaker adaptation means for performing speaker adaptation.
The speaker adaptation may be speaker adaptation in speech recognition using a Gaussian mixture distribution model.
The speaker adaptation may be performed using a deep neural network.
The storage means may include an input operation means for the user to input information customized for a specific application using the software agent on a management screen (for example, the management screen shown in FIG. 20).
This input operation means displays an utterance content area (for example, a balloon in FIG. 20) on the management screen and inputs the utterance content to the user in the utterance content area, and also utterance content area of the question to the user Branching according to the response contents of the user (for example, branching between YES arrow and NO arrow in FIG. 20), and further utterance content areas are displayed at each branch destination, and the response contents are included in the utterance content area. A flow diagram type input means for inputting the corresponding utterance content, wherein the utterance content generation means includes means for sequentially generating the utterance content in the utterance content area along the flow diagram input by the flow diagram type input means. Good.
The voice recognition means may include synonym recognition means for recognizing synonyms by equivalence. The synonym recognition means may recognize and synonymize synonyms based on a synonym database (for example, synonym list data stored in a buffer) input in advance.

また、前記記憶手段は、前記ソフトウェアエージェントを来訪者の受付けに利用するために従業員の名前と当該従業員を呼び出すための電話番号とを対応付けて記憶し(例えば、S11、図3(b)の「呼出しDB」)、
来訪者がしゃべった面談相手の名前が前記音声認識手段により認識されたときに、当該名前に対応する前記電話番号を前記記憶手段から割出して当該電話番号の従業員を電話で呼び出すための自動呼出し手段(例えば、S6)をさらに備えてもよい。
Further, the storage means stores the name of the employee and the telephone number for calling the employee in association with each other in order to use the software agent for accepting the visitor (for example, S11, FIG. ) "Call DB")
When the name of the interviewee spoken by the visitor is recognized by the voice recognition means, an automatic for indexing the telephone number corresponding to the name from the storage means and calling the employee of the telephone number by telephone Calling means (for example, S6) may be further provided.

また、前記記憶手段は、来客の予約を受付けるための予約枠を記憶し(例えば、S63〜S65、S72、S73)、
前記発話内容生成手段は、オンラインで送信されてきた来客希望者の予約したい旨の音声を前記音声認識手段が認識したことにより、前記記憶手段の記憶情報から予約枠を割出して該予約枠を発話内容にしてもよい(例えば、S80〜S83)。
Further, the storage means stores a reservation frame for accepting a reservation of a visitor (for example, S63 to S65, S72, S73),
The utterance content generation means calculates the reservation frame from the stored information of the storage unit by recognizing the voice of the visitor applicant that has been transmitted online and that the user wants to make a reservation. The utterance content may be used (for example, S80 to S83).

前記音声認識手段による認識結果と前記発話手段による発話内容とからなる対話履歴データを複数のソフトウェアエージェントからネットワークを介して収集し蓄積するためのデータ蓄積手段(例えば、S120、S183、学習DB14)と、
前記データ蓄積手段による蓄積データを機械学習データとして用いて機械学習するための機械学習手段(例えば、S186、S187、S200)と、
前記機械学習手段による機械学習結果を前記ソフトウェアエージェントに提供するための提供手段(例えば、S201)と、をさらに備え、
前記ソフトウェアエージェントは、前記提供された機械学習結果を前記発話内容生成手段による発話内容の生成に反映させるための制御を行う(例えば、S205〜S07)。
Data storage means (for example, S120, S183, learning DB 14) for collecting and storing dialogue history data consisting of recognition results by the voice recognition means and utterance contents by the utterance means from a plurality of software agents via a network; ,
Machine learning means (for example, S186, S187, S200) for machine learning using the accumulated data by the data accumulation means as machine learning data;
Providing means (for example, S201) for providing a machine learning result by the machine learning means to the software agent;
The software agent performs control for reflecting the provided machine learning result on generation of utterance content by the utterance content generation means (for example, S205 to S07).

また、前記記憶手段は、前記ソフトウェアエージェントを介護に利用するために要介護者との対話に用いる対話情報を記憶し(例えば、S1、図9(a))、
前記発話内容生成手段は、前記音声認識手段による要介護者の音声の認識結果に応じて当該要介護者に対する発話内容を前記記憶手段の記憶情報から割出してもよい(例えば、S112)。
Further, the storage means stores dialogue information used for dialogue with a care recipient in order to use the software agent for nursing care (for example, S1, FIG. 9A),
The utterance content generation unit may calculate the utterance content for the care recipient in accordance with the speech recognition result of the care recipient by the voice recognition unit from the storage information of the storage unit (for example, S112).

また、前記記憶手段は、ウェブサイト内の情報に関する対話用情報を記憶し(例えば、S227、S228、S223、S234)、
前記発話内容生成手段は、前記ウェブサイトの閲覧者からオンラインで送信されてきた質問の音声を前記音声認識手段が認識したことにより、前記質問に対する回答を前記記憶手段の記憶情報から割出して発話内容にしてもよい(例えば、S246、S247、S249)。
In addition, the storage unit stores information for dialogue related to information in the website (for example, S227, S228, S223, S234),
The utterance content generation means determines the answer to the question from the stored information of the storage means by the voice recognition means recognizing the voice of the question transmitted online from the website viewer, and the utterance It may be content (for example, S246, S247, S249).

また、前記ソフトウェアエージェント(例えば、サイトエージェント47)は、前記ウェブサイトの閲覧者のプロファイル情報を知識として記憶しているエージェント(例えば、ユーザ用エージェント48)と協働して当該閲覧者にマッチする回答を前記記憶手段の記憶情報から割出して発話内容にしてもよい(例えば、S281、S282)。   The software agent (for example, site agent 47) matches the viewer in cooperation with an agent (for example, user agent 48) that stores the profile information of the website viewer as knowledge. The answer may be indexed from the stored information of the storage means to make the utterance content (for example, S281, S282).

また、前記記憶手段は、ユーザに対する回答用データ(例えば、図17(b)の回答内容)を複数記憶するとともに、該複数の回答用データの中から適したものを絞り込むための複数種類の属性(例えば、図17(b)のm,n,o,p,q・・・)についての重み付けデータ(例えば、図17(b)の重み付け)を記憶し、前記複数種類の属性について前記各回答用データの内容に応じた重み付けデータを対応する回答用データに対応付けて記憶し(例えば、図17(b)のA:5,5,1,1,1・・・、B:1,1,5,5,1・・・、C:1,1,5,1,5・・・)、
前記発話内容生成手段は、前記複数種類の属性について前記発話手段が順次ユーザに質問した場合に(例えば、S299)、該発話に対するユーザの回答によって得られた各属性についての重み付けに近い回答用データを前記複数の回答用データの中から絞り込んで発話内容とするための絞込み手段(例えば、S305〜S307)を含んでもよい。
The storage means stores a plurality of answer data for the user (for example, the contents of the answer in FIG. 17B), and a plurality of types of attributes for narrowing down a suitable one from the plurality of answer data. (For example, weighting data (for example, weighting in FIG. 17 (b)) in FIG. 17 (b) is stored, and each answer for the plurality of types of attributes is stored. Weighting data corresponding to the contents of the data for use is stored in association with the corresponding answer data (for example, A: 5, 5, 1, 1, 1..., B: 1, 1 in FIG. 17B). , 5,5,1 ..., C: 1,1,5,1,5 ...),
The utterance content generation means, when the utterance means sequentially asks the user about the plurality of types of attributes (for example, S299), reply data close to weighting for each attribute obtained by the user's reply to the utterance May include narrowing means (for example, S305 to S307) for narrowing down from the plurality of answer data to the utterance content.

また、前記記憶手段は、前記回答用データを人為的に入力して前記データベースに記憶させる人為的記憶手段(例えば、S310、S311)を含み、人為的に記憶させようとする者に対し前記複数種類の属性について前記発話手段が順次質問し(例えば、S299)、該発話に対する回答によって各属性についての重み付けが取得された場合に、前記人為的に入力された回答用データに前記取得された重み付けを対応付けて記憶してもよい(例えば、S311)。   In addition, the storage means includes artificial storage means (for example, S310, S311) for artificially inputting the answer data and storing it in the database. When the utterance means sequentially asks about the attribute of the type (for example, S299), and the weight for each attribute is acquired by the answer to the utterance, the artificially input answer data is obtained. May be stored in association with each other (for example, S311).

また、前記複数の回答用データとして、会社内の社員からの相談に対する回答用のデータを記憶してもよい(例えば、図17(b))。   Moreover, you may memorize | store the data for the reply with respect to the consultation from the employee in a company as said some data for a reply (for example, FIG.17 (b)).

また、前記人為的記憶手段により前記記憶手段に記憶された重み付けを修正するための重付け修正手段(例えば、S294)をさらに備え、
該重付け修正手段は、ユーザが希望する回答用データが前記絞込み手段により絞り込まれた場合に(例えば、S315でYESと判断された場合に)、該絞込み手段による絞込みに用いられた前記各属性についての重み付けに基づいて前記ユーザが希望する回答用データについての重み付けを修正するように構成してもよい(例えば、S316、S317)。
Further, it further comprises weight correction means (for example, S294) for correcting the weight stored in the storage means by the artificial storage means,
The weight correction means, when the answer data desired by the user is narrowed down by the narrowing means (for example, when YES is determined in S315), each attribute used for narrowing down by the narrowing means It may be configured to correct the weight for the answer data desired by the user based on the weight for (for example, S316, S317).

また、本発明は、ソフトウェアエージェントを利用して人に対し音声により対応するプログラムであって、
コンピュータに、
人の音声を認識するための音声認識手段(例えば、S3、S25〜S30、S51、S111、S214、S290)と、
人に対し発話を行うための発話手段(例えば、S40〜S44、S53、S90〜S97、S113、S145〜S152、S216、S255〜S291、S298〜S302)と、
前記音声認識手段による認識結果に対応した発話内容を生成するための情報をデータベースとして記憶する記憶手段(例えば、S1、S10〜S12、S50、S70〜74、S110、S210、S212、S225〜S230、S231〜S236、S292、S310〜S311)と、
前記記憶手段に記憶されている情報を用いて前記音声認識手段による認識結果に対応した発話内容を生成するための発話内容生成手段(例えば、S4、S35〜S37、S52、S80〜S86、S112、S215、S245〜S249、S280〜S282、S293、S305〜S308)と、して機能させ、
前記発話手段は、前記発話内容生成手段により生成された発話内容に応じた発話を行い(例えば、S40〜S44、S145〜S152、S255〜S291、S298〜S302)、
前記記憶手段は、ユーザが前記ソフトウェアエージェントを用いる特定の用途にカスタマイズされた情報を入力して記憶可能である(例えば、S10〜S12、S70〜74、S225〜S230、S231〜S236、S310〜S311)。
Further, the present invention is a program for responding by voice to a person using a software agent,
On the computer,
Voice recognition means (eg, S3, S25 to S30, S51, S111, S214, S290) for recognizing human voice;
Speaking means (for example, S40 to S44, S53, S90 to S97, S113, S145 to S152, S216, S255 to S291, S298 to S302) for speaking to a person,
Storage means (for example, S1, S10 to S12, S50, S70 to 74, S110, S210, S212, S225 to S230, storing information for generating utterance contents corresponding to the recognition result by the voice recognition means as a database. S231 to S236, S292, S310 to S311),
Utterance content generation means (for example, S4, S35 to S37, S52, S80 to S86, S112, etc.) for generating the utterance content corresponding to the recognition result by the voice recognition means using the information stored in the storage means. S215, S245 to S249, S280 to S282, S293, S305 to S308),
The utterance means performs an utterance according to the utterance content generated by the utterance content generation means (for example, S40 to S44, S145 to S152, S255 to S291, S298 to S302),
The storage means is capable of inputting and storing information customized for a specific application using the software agent (for example, S10 to S12, S70 to 74, S225 to S230, S231 to S236, S310 to S311). ).

本発明によれば、ユーザが特定の用途にカスタマイズされた情報を入力することにより、ユーザが要求する特定の用途に特化した対話が可能となる。   ADVANTAGE OF THE INVENTION According to this invention, when the user inputs the information customized for a specific use, the dialog specialized for the specific use which a user requests | requires is attained.

人工知能サービスの全体構成を示すシステム図である。It is a system diagram which shows the whole structure of an artificial intelligence service. (a)は各種サーバおよびパーソナルコンピュータ(PC)の制御回路を示すブロック図であり、(b)は介護用端末およびユーザ端末の制御回路を示すブロック図である。(A) is a block diagram which shows the control circuit of various servers and a personal computer (PC), (b) is a block diagram which shows the control circuit of a care terminal and a user terminal. (a)は受付用PCのメインプログラムを示すフローチャートであり、(b)は受付用PCのデータベースの記憶データを示す図であり、(c)はカスタマイズ用情報入力処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart showing a main program of the reception PC, (b) is a diagram showing data stored in the database of the reception PC, and (c) is a flowchart showing a subroutine program for customizing information input processing. is there. (a)は顔認識処理のサブルーチンプログラムを示すフローチャートであり、(b)は音声認識処理のサブルーチンプログラムを示すフローチャートであり、(c)はDB検出処理のサブルーチンプログラムを示すフローチャートであり、(d)は発話処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart showing a subroutine program for face recognition processing, (b) is a flowchart showing a subroutine program for speech recognition processing, (c) is a flowchart showing a subroutine program for DB detection processing, (d ) Is a flowchart showing a subroutine program of speech processing. (a)は来客予約用ウェブサーバのメイン処理を示すフローチャートであり、(b)は予約枠設定用PCとカスタマイズ予約用ウェブサーバにおけるカスタマイズ用情報受付処理のサブルーチンプログラムとの制御動作を示すフローチャートであり、(c)は来客予約用ウェブサーバのDBにおける予約枠の記憶データを示す図である。(A) is a flowchart showing the main process of the visitor reservation web server, and (b) is a flowchart showing the control operation of the reservation frame setting PC and the subroutine program of the customization information receiving process in the customization reservation web server. Yes, (c) is a diagram showing the storage data of the reservation frame in the DB of the customer reservation web server. (a)はDB検出処理のサブルーチンプログラムを示すフローチャートであり、(b)は来客予約用ウェブサーバのDB(発話)の記憶データを示す図である。(A) is a flowchart which shows the subroutine program of DB detection processing, (b) is a figure which shows the memory | storage data of DB (utterance) of the web server for customer reservations. (a)は発話処理のサブルーチンプログラムを示すフローチャートであり、(b)は画面制御処理のサブルーチンプログラムを示すフローチャートであり、(c)はカレンダー同期処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart showing a subroutine program for speech processing, (b) is a flowchart showing a subroutine program for screen control processing, and (c) is a flowchart showing a subroutine program for calendar synchronization processing. 要介護者用端末と集中管理サーバとワイヤレスネットワークとユーザ端末との制御動作を示すフローチャートである。It is a flowchart which shows control operation | movement with the terminal for care recipients, a centralized management server, a wireless network, and a user terminal. (a)は集中管理サーバのDB(発話)の記憶内容を示す図であり、(b)は発話処理のサブルーチンプログラムを示すフローチャートである。(A) is a figure which shows the memory content of DB (utterance) of a centralized management server, (b) is a flowchart which shows the subroutine program of speech processing. (a)はビデオチャット処理のサブルーチンプログラムを示すフローチャートであり、(b)はウェブサイト閲覧処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart which shows the subroutine program of a video chat process, (b) is a flowchart which shows the subroutine program of a website browsing process. 専門業者(介護事業者)のPCおよび人工知能サーバ(介護学習処理)の制御動作を示すフローチャートである。It is a flowchart which shows the control operation | movement of PC and an artificial intelligence server (care learning process) of a special trader (care provider). 人工知能サーバ(その他の処理)および要介護者用端末(その他の処理)の制御動作を示すフローチャートである。It is a flowchart which shows the control operation | movement of an artificial intelligence server (other process) and a terminal for a care recipient (other process). (a)は会社PCとサイトエージェントウェブサーバとユーザ端末との制御動作を示すフローチャートであり、(b)はカスタマイズ用情報入力処理のサブルーチンプログラムとカスタマイズ用情報記憶処理のサブルーチンプログラムとを示すフローチャートである。(A) is a flowchart showing control operations of the company PC, site agent web server, and user terminal, and (b) is a flowchart showing a subroutine program for customization information input processing and a subroutine program for customization information storage processing. is there. サイトエージェントサーバにおけるカスタマイズDBの記憶データを示す図である。It is a figure which shows the memory | storage data of customization DB in a site agent server. (a)ウェブページ表示処理のサブルーチンプログラムを示すフローチャートであり、(b)はDB検索処理のサブルーチンプログラムを示すフローチャートであり、(c)は発話処理のサブルーチンプログラムを示すフローチャートである。(A) It is a flowchart which shows the subroutine program of web page display processing, (b) is a flowchart which shows the subroutine program of DB search processing, (c) is a flowchart which shows the subroutine program of speech processing. (a)は会社PC(その他の処理)およびサイトエージェントウェブサーバ(その他の処理)の制御動作を示すフローチャートであり、(b)はDB検索処理(発展型)の制御動作を示すフローチャートであり、(c)はサイトエージェントとユーザ用エージェントとからなるマルチエージェントシステムを示す図である。(A) is a flowchart showing the control operation of the company PC (other processing) and the site agent web server (other processing), (b) is a flowchart showing the control operation of the DB search processing (developed type), (C) is a diagram showing a multi-agent system including a site agent and a user agent. (a)は社員相談用PCのメインプログラムを示すフローチャートであり、(b)は社員相談用PCの相談用DBの記憶データを示す図である。(A) is a flowchart which shows the main program of employee consultation PC, (b) is a figure which shows the memory | storage data of consultation DB of employee consultation PC. (a)は発話処理のサブルーチンプログラムを示すフローチャートであり、(b)はDB検出処理のサブルーチンプログラムを示すフローチャートであり、(c)はカスタマイズ用情報入力処理のサブルーチンプログラムを示すフローチャートであり、(d)はフィードバック学習処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart showing a subroutine program for speech processing, (b) is a flowchart showing a subroutine program for DB detection processing, (c) is a flowchart showing a subroutine program for customization information input processing, ( d) is a flowchart showing a subroutine program of feedback learning processing. アップストアサーバおよびユーザ端末の制御動作を示すフローチャートである。It is a flowchart which shows control operation of an up store server and a user terminal. カスタマイズ用情報入力処理の変形例を示す管理画面図である。It is a management screen figure which shows the modification of the information input process for customization.

以下、本発明の実施形態を図面に基づいて詳述する。まず、図1に基づいて人工知能サービスの全体構成を説明する。インターネット1に対し、会社の受付用パーソナルコンピュータ(以下「PC」)2と、予約枠設定用PC3と、要介護者用端末4と、会社PC7と、社員相談用PC8と、ユーザ端末17と、要介護者宅5に設置されているワイヤレスネットワーク6と、人工知能サービス会社9の各種サーバ10〜13と、各種専門業者のPC16と、アップストアサーバ19とが、接続されて、互いに通信可能に構成されている。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, the overall configuration of the artificial intelligence service will be described with reference to FIG. With respect to the Internet 1, a personal computer for company reception (hereinafter “PC”) 2, a reservation frame setting PC 3, a care recipient terminal 4, a company PC 7, an employee consultation PC 8, a user terminal 17, The wireless network 6 installed in the home requiring care 5, the various servers 10 to 13 of the artificial intelligence service company 9, the PC 16 of various specialists, and the upstore server 19 are connected so that they can communicate with each other. It is configured.

会社の受付用PCには、ソフトウェアエージェントとしての受付エージェントが搭載されており、会社の受付に設置されて受付嬢の代わりを行う機能を有するものである。予約枠設定用PC3は、歯科医院等における患者の予約の受付や、飲食店における来客予約の受付等を行うPCである。   The company reception PC is equipped with a reception agent as a software agent, and is installed at the company reception and has a function of acting as a receptionist. The reservation frame setting PC 3 is a PC that accepts patient reservations at a dental clinic or the like, or accepts visitor reservations at a restaurant.

要介護者用端末4は、ソフトウェアエージェントとしての介護エージェントが搭載されており、タブレット端末等で構成され、要介護者宅5に設置され、要介護者と会話して要介護者を介護するためのものである。要介護者用端末4は、要介護者に限らず、老人と会話するものであってもよい。また、要介護者宅5に設置されているワイヤレスネットワークは、複数のセンサ付き無線端末を空間に散在させ、それらが協調して環境や物理的状況を採取することを可能とする無線ネットワークのことである。例えばエネルギーハーベスティングかM2Mあるいは電池などでセンサ装置を作っている。ワイヤレスセンサネットワークは、通常、アドホック(ad hoc)機能と、各ノードから中枢ノードへデータを送るためのルーティング機能(routing algorithm)を持つ。つまり、ノード間の通信に障害が出ると別の通信経路を自律的に再構築する機能がある。ノードがグループとして連携するため分散処理の要素もある。加えて、外部から電力供給を受けずに長期間動作する機能もあり、そのために省電力機能または自己発電機能を持つ。センサとしては、例えば、ドアの開閉を検知するドア開閉センサ、室内の温度を検知する温度センサ、室内の湿度を検知する湿度センサ、人を感知する人感センサ、人の睡眠状態を検知する睡眠センサ等が考えられる。これらのセンサからの検出信号に基づいて要介護者の挙動等の生活状況を確認(モニタリング)することができる。   The care recipient terminal 4 is equipped with a care agent as a software agent, is composed of a tablet terminal, etc., is installed in the care recipient's home 5, and talks with the care recipient to care for the care recipient. belongs to. The terminal 4 for a care recipient is not limited to a care recipient, and may be a device for talking with an elderly person. In addition, the wireless network installed in the home requiring care 5 is a wireless network in which a plurality of wireless terminals with sensors are scattered in the space and the environment and physical conditions can be collected in cooperation with each other. It is. For example, the sensor device is made of energy harvesting, M2M or a battery. A wireless sensor network typically has an ad hoc function and a routing algorithm for sending data from each node to a central node. That is, there is a function of autonomously reconstructing another communication path when a failure occurs in communication between nodes. There are also elements of distributed processing because the nodes cooperate as a group. In addition, there is also a function that operates for a long time without receiving power supply from the outside. Examples of the sensor include a door opening / closing sensor that detects opening / closing of a door, a temperature sensor that detects indoor temperature, a humidity sensor that detects indoor humidity, a human sensor that detects humans, and a sleep that detects human sleep state. A sensor or the like is conceivable. Based on detection signals from these sensors, it is possible to confirm (monitor) the living situation such as the behavior of the care recipient.

会社PC7は、当該会社のホームページを作成する際に利用されるものである。社員相談用PC8は、人工知能が搭載されており、社員が会社のことについて質問した際に答えを探し出して回答するために用いられるものである。ユーザ端末17は、ユーザに所持されるスマートフォンやタブレットあるいはパーソナルコンピュータのことである。   The company PC 7 is used when creating the website of the company. The employee consultation PC 8 is equipped with artificial intelligence, and is used to find and answer an answer when an employee asks a question about the company. The user terminal 17 is a smartphone, a tablet, or a personal computer possessed by the user.

人工知能サービス会社9には、来客予約用ウェブサーバ10とサイトエージェントウェブサーバ11と集中管理サーバ12と人工知能サーバ13とが設置されている。来客予約用ウェブサーバ10は、ソフトウェアエージェントとしての予約エージェントが搭載されており、予約枠設定用PC3により設定された予約枠に基づいて予約枠を設定した業者のホームページをウェブ上に表示するためのものである。そのホームページを閲覧した客は、後述するように音声により訪問日時の予約を行うことができる。   The artificial intelligence service company 9 is provided with a visitor reservation web server 10, a site agent web server 11, a centralized management server 12, and an artificial intelligence server 13. The visitor reservation web server 10 is equipped with a reservation agent as a software agent for displaying on the web a homepage of a vendor that has set a reservation frame based on the reservation frame set by the reservation frame setting PC 3. Is. Customers who browse the homepage can make reservations for the visit date and time by voice as will be described later.

サイトエージェントウェブサーバ11は、ソフトウェアエージェントとしてのサイトエージェントが搭載されており、会社PC7が入力設定した会社情報に基づいて当該会社のホームページをウェブ上に表示する。そのウェブ上には後述するようにサイトエージェントを表すキャラクターが表示され、そのキャラクターに訪問者が話し掛けることによりキャラクターが音声で答える。   The site agent web server 11 is equipped with a site agent as a software agent, and displays the website of the company on the web based on company information input and set by the company PC 7. A character representing the site agent is displayed on the web, as will be described later, and the character answers the voice by a visitor talking to the character.

集中管理サーバ12は、要介護者用端末4と要介護者との間で行われた会話をそれぞれの要介護者用端末4から収集してデータベースに記憶するとともに、それぞれの要介護者宅5に設置されているワイヤレスネットワーク6からのセンサ検出データを収集してデータベースに記憶する。ケアマネージャ、ヘルパー、介護士あるいは要介護者の家族等は、ユーザ端末17を操作して集中管理サーバ12にアクセスすることにより、集中管理サーバ12のデータベースに記憶されている要介護者の会話内容やワイヤレスセンサネットワークからのセンサ検出データを閲覧することができる。ワイヤレスセンサネットワークからのセンサ検出データにより要介護者の挙動の軌跡(履歴)が分かる   The central management server 12 collects the conversations performed between the terminal 4 for the care recipient and the care recipient from each terminal 4 for the care recipient and stores them in the database, and also stores each care recipient home 5. The sensor detection data from the wireless network 6 installed in is collected and stored in a database. A care manager, a helper, a caregiver, or a family member of a care recipient operates the user terminal 17 to access the central management server 12, so that the conversation contents of the care recipient stored in the database of the central management server 12 are stored. Or sensor detection data from a wireless sensor network. The trajectory (history) of the behavior of the care recipient can be found from the sensor detection data from the wireless sensor network

人工知能サーバ13は、集中管理サーバ12のデータベースに記録されているデータを定期的に送信してもらって学習データベース(以下「DB」という)14に記憶するとともに、介護事業者のPC16から送信されてきた要介護者の容態を特定するデータを学習DB14に記憶する。そして、人工知能サーバ13は、それら両記憶データを機械学習用データとして用いて機械学習し、その学習結果を人工知能DB15に記憶する。例えば、介護事業者のPC16から送られてきた要介護者の容態が悪化したことを特定するデータに基づいて当該要介護者の最近の会話データやワイヤレスセンサネットワーク6からのセンサ検出データを抽出し、データマイニングを行って要介護者の容態が悪化す前兆となるパターン(NGPi)を見つけ出し、そのNGパターンを人工知能DB15に記憶する。またそのNGパターンに要介護者が当てはまっているか否かを探り出すための発話内容を生成してそれぞれの要介護者用端末4へ送信する。要介護者用端末4では、その受信した発話内容を反映した会話を要介護者との間で行う。   The artificial intelligence server 13 periodically sends the data recorded in the database of the central management server 12 and stores it in the learning database (hereinafter referred to as “DB”) 14 and has been transmitted from the PC 16 of the care provider. Data specifying the condition of the care recipient is stored in the learning DB 14. Then, the artificial intelligence server 13 performs machine learning using the both stored data as machine learning data, and stores the learning result in the artificial intelligence DB 15. For example, recent conversation data of the care recipient and sensor detection data from the wireless sensor network 6 are extracted based on data specifying that the condition of the care recipient deteriorated sent from the PC 16 of the care provider. Then, data mining is performed to find a pattern (NGPi) that is a precursor to the condition of the care recipient being deteriorated, and the NG pattern is stored in the artificial intelligence DB 15. Further, the utterance content for finding out whether or not the care recipient is applied to the NG pattern is generated and transmitted to each terminal 4 for the care recipient. The terminal 4 for the care recipient performs a conversation reflecting the received utterance content with the care recipient.

さらに、人工知能サーバ13は、前述のNGパターンやそのNGパターンから生成された発話内容との学習結果データを学習結果アップストア18のアップストアサーバ19へ送信し、DB20に登録する処理を行う。   Furthermore, the artificial intelligence server 13 transmits the learning result data with the above-mentioned NG pattern and the utterance content generated from the NG pattern to the up-store server 19 of the learning result up-store 18 and performs the process of registering in the DB 20.

アップストアサーバ19は、送信されてきた学習結果をジャンル別に分類してDB20に登録する。例えば、介護の分類では、NGパターンとしてNGPi(i=1,2,3・・・)、NGパターンから導き出された発話内容等のカスタマイズデータとして、「興味関心事の質問をする」等である。また他のジャンル(分類)としては、うつ病や躁うつ病や精神病のケア、幼児教育等が考えられる。このように、学習結果アップストア18のデータベース22は、人工知能による学習結果がジャンル別に分類されて登録されており、その学習結果を購入したいユーザはユーザ端末17あるいは各種専門業者のPC16からアップストアサーバ19へアクセスし、DB20に登録されているジャンル別の学習結果を閲覧し、購入希望の学習結果が見つかればその学習結果データをダウンロードして自己の人工知能に用いる。その結果、ユーザは、一から人工知能を学習させる手間を省くことができ、レディーメイドの機械学習結果データをダウンロードして自己の人工知能に活用できるという利点がある。   The up-store server 19 classifies the transmitted learning results by genre and registers them in the DB 20. For example, in the care classification, NGPi (i = 1, 2, 3...) Is used as the NG pattern, and “question of interest / interest” is used as customized data such as utterance contents derived from the NG pattern. . Other genres (classifications) include depression, manic depression, psychosis care, early childhood education, and the like. As described above, the learning result upstore 18 stores the learning results obtained by artificial intelligence classified by genre, and the user who wants to purchase the learning results upstores from the user terminal 17 or the PC 16 of various specialists. The server 19 is accessed, the learning result for each genre registered in the DB 20 is browsed, and if the learning result desired to be purchased is found, the learning result data is downloaded and used for its own artificial intelligence. As a result, the user can save the trouble of learning the artificial intelligence from the beginning, and there is an advantage that the ready-made machine learning result data can be downloaded and used for his / her artificial intelligence.

会社の受付用PC2、予約枠設定用PC3、会社PC7、社員相談用PC8、来客予約用ウェブサーバ10、サイトエージェントウェブサーバ11、集中管理サーバ12、人工知能サーバ13、各種専門業者のPC16、およびアップストアサーバ19のハードウェア構成を図2(a)に基づいて説明する。これらサーバやPCは同様のハードウェア構成を有しているために、その代表例として図2(a)に基づいて説明する。   Company reception PC2, reservation frame setting PC3, company PC7, employee consultation PC8, visitor reservation web server 10, site agent web server 11, centralized management server 12, artificial intelligence server 13, various professional PC16, and A hardware configuration of the upstore server 19 will be described with reference to FIG. Since these servers and PCs have the same hardware configuration, a representative example will be described with reference to FIG.

これらサーバやPCは、制御中枢としてのCPU(Central Processing Unit)21、そのCPU21のワークエリアとして機能するRAM(Random Access Memory)22、制御用のプログラムおよび制御用のデータを記憶しているROM(Read Only Memory)23、ハードディスク等からなる記憶装置24が設けられている。これらCPU21、RAM22、ROM23、記憶装置24は、バス25およびインタフェース部26を介して種々の外部機器に接続されている。   These servers and PCs have a CPU (Central Processing Unit) 21 as a control center, a RAM (Random Access Memory) 22 that functions as a work area of the CPU 21, a ROM that stores a control program and control data. Read Only Memory) 23 and a storage device 24 comprising a hard disk or the like are provided. The CPU 21, RAM 22, ROM 23, and storage device 24 are connected to various external devices via a bus 25 and an interface unit 26.

具体的には、来訪者等の映像を撮影するデジタルビデオカメラ入力部27、インターネット1を介して各種サーバ等と通信するための通信部28、各種情報を表示する表示部29、ユーザが手動により情報を入力するためのキーボード等の入力操作部30、ユーザの音声を入力する音声入力部31、ユーザに対し音声で発話するための音声出力部32が設けられている。   Specifically, a digital video camera input unit 27 that captures images of visitors and the like, a communication unit 28 for communicating with various servers via the Internet 1, a display unit 29 for displaying various information, and a user manually An input operation unit 30 such as a keyboard for inputting information, a voice input unit 31 for inputting user's voice, and a voice output unit 32 for speaking to the user by voice are provided.

次に、介護者用端末4およびユーザ端末17のハードウェア構成を図2(b)に基づいて説明する。これら端末は同様のハードウェア構成を有しているために、その代表例として図2(b)に基づいて説明する。   Next, the hardware configuration of the care giver terminal 4 and the user terminal 17 will be described with reference to FIG. Since these terminals have the same hardware configuration, a representative example will be described with reference to FIG.

これら端末は、制御中枢としてのCPU(Central Processing Unit)33、そのCPU33のワークエリアとして機能するRAM(Random Access Memory)35、制御用のプログラムおよび制御用のデータを記憶しているROM(Read Only Memory)34、読出しおよび書込みが可能なEEPROM(Electrically Erasable Programmable Read-Only Memory)36が設けられている。これらCPU33、RAM35、ROM34、EEPROM36は、バス37およびインタフェース部38を介して種々の外部機器に接続されている。   These terminals include a CPU (Central Processing Unit) 33 as a control center, a RAM (Random Access Memory) 35 functioning as a work area for the CPU 33, a ROM (Read Only) storing a control program and control data. An EEPROM (Electrically Erasable Programmable Read-Only Memory) 36 capable of reading and writing is provided. The CPU 33, RAM 35, ROM 34, and EEPROM 36 are connected to various external devices via a bus 37 and an interface unit 38.

具体的には、要介護者等の映像を撮影するデジタルビデオカメラ入力部39、インターネット1を介して各種サーバと通信するための無線通信処理部41、各種情報を表示する表示部44、ユーザが手動により情報を入力するためのタッチパネル等の入力操作部42、ユーザの音声を入力する音声入力部43、ユーザに対し音声で発話するための音声出力部43、衛星からのGPS情報と基地局からの電波と無線LANアクセスポイントからの無線電波とに基づいて、現在位置を取得するための位置情報取得部45が設けられている。   Specifically, a digital video camera input unit 39 that captures images of care recipients, a wireless communication processing unit 41 for communicating with various servers via the Internet 1, a display unit 44 for displaying various information, and a user Input operation unit 42 such as a touch panel for manually inputting information, voice input unit 43 for inputting user's voice, voice output unit 43 for speaking to the user by voice, GPS information from satellite and base station A position information acquisition unit 45 is provided for acquiring the current position based on the radio wave from the wireless LAN access point and the radio wave from the wireless LAN access point.

以上説明したサーバやPCや端末は、ノイマン型の一般的なコンピュータを用いているが、ニューラル・ネット・プロセッサー(NNP)を用いてもよい。NNPのチップ上には本物のニューロンをモデルにした「人工ニューロン」が多数搭載されており、各ニューロンはネットワークでそれぞれ連携し合う。   Although the server, PC, and terminal described above use a Neumann type general computer, a neural network processor (NNP) may be used. A large number of “artificial neurons” modeled on real neurons are mounted on the NNP chip, and each neuron cooperates in a network.

また、「量子アニーリング方式」を採用した量子コンピュータを用いてもよい。これにより、機械学習における最適化計算の所要時間を大幅に短縮できる。なお、「人工知能」とは、ソフトウェアエージェントを含む広い概念である。   Further, a quantum computer employing a “quantum annealing method” may be used. Thereby, the time required for the optimization calculation in machine learning can be greatly shortened. “Artificial intelligence” is a broad concept that includes software agents.

次に、会社の受付用PC2のメインプログラムを図3(a)に基づいて説明する。受付用PCのCPU21は、ステップS(以下単に「S」という)1によりカスタマイズ用情報入力処理を行う。このカスタマイズ用情報入力処理は、受付を行う会社に適するようにカスタマイズされた発話内容等の情報を入力するための処理である。この処理により、会社を訪れた来訪者に対し会社にカスタマイズされた対話が可能になる。またこのカスタマイズ用情報入力処理S1により、社員の携帯番号が入力設定され、来訪者が面談を希望する社員の携帯番号に電話して自動的に社員を呼び出す。このカスタマイズ用情報入力処理(S1)により入力されたカスタマイズ用情報の一例が図3(b)に示されている。   Next, the main program of the company reception PC 2 will be described with reference to FIG. The CPU 21 of the receiving PC performs customization information input processing in step S (hereinafter simply referred to as “S”) 1. This customization information input process is a process for inputting information such as utterance contents customized so as to be suitable for the company that accepts the information. This process enables a dialog customized for the company to visitors who have visited the company. Also, by this customization information input process S1, the employee's mobile number is input and set, and the visitor automatically calls the employee by calling the mobile number of the employee who wants to have an interview. An example of the customization information input by the customization information input process (S1) is shown in FIG.

次に受付用PC2は、顔認証処理S2を行う。この顔認証処理S2は、来訪者の顔を認識して受付用PC2をスリープ状態から起動させるためのものである。次に音声認識処理S3が行われる。この音声認識処理は、来訪者の音声を認識して面談希望者の担当者名を聞き出すための処理である。次にDB検索処理S4が行われる。このDB検索処理S4は、記憶装置24のDBに記憶されている発話内容や社員の携帯番号を割り出すための処理である。次に発話処理S5が行われる。この発話処理は、記憶装置24のDB記憶されている発話内容を検索してその検索結果に基づいて来訪者に音声で応答するためのものである。次に従業員呼出し処理S6が行われる。この従業員呼出し処理S6は、来訪者の面談希望者名に対応する携帯番号に基づいて自動的に従業員を呼出す処理である。   Next, the reception PC 2 performs a face authentication process S2. This face authentication process S2 is for recognizing the face of the visitor and activating the reception PC 2 from the sleep state. Next, voice recognition processing S3 is performed. This voice recognition process is a process for recognizing the voice of the visitor and finding out the name of the person in charge of the interviewer. Next, DB search processing S4 is performed. This DB search process S4 is a process for determining the utterance content and the employee's mobile number stored in the DB of the storage device 24. Next, an utterance process S5 is performed. This utterance process is for retrieving the utterance content stored in the DB of the storage device 24 and responding to the visitor by voice based on the retrieval result. Next, employee call processing S6 is performed. This employee calling process S6 is a process for automatically calling an employee based on the mobile phone number corresponding to the visitor's request name.

次に、S1のカスタマイズ用情報入力処理のサブルーチンプログラムの制御動作を図3(c)に基づいて説明する。まずS10により、カスタマイズ用情報の入力操作があったか否かの判断がなされる。ない場合にはこのカスタマイズ用情報入力処理が終了する。会社のオペレータが事前に入力操作部30を操作してカスタマイズ用情報の入力操作を行えば制御がS11へ進み、入力された発話番号と発話内容とを対応付けて記憶装置24のDB(図3(b)参照)に記憶する処理が行われる。次にS12により、終了操作があったか否か判定され、終了操作が行われるまでS11の記憶処理を繰り返し実行する。そしてオペレータが終了操作した段階でS12よりYESの判断がなされてこのカスタマイズ用情報入力処理が終了する。   Next, the control operation of the subroutine information input processing for customization in S1 will be described with reference to FIG. First, in S10, it is determined whether or not an input operation for customization information has been performed. If not, the customization information input process ends. If the operator of the company operates the input operation unit 30 in advance and inputs the customization information, the control advances to S11, and the input utterance number and the utterance content are associated with each other in the DB of the storage device 24 (FIG. 3). The process of storing in (b) is performed. Next, in S12, it is determined whether or not an end operation has been performed, and the storage process in S11 is repeatedly executed until the end operation is performed. Then, when the operator finishes the operation, a determination of YES is made from S12, and the customization information input process is completed.

このカスタマイズ用情報入力処理の結果が図3(b)に示されている。オペレータが入力した発話番号と発話内容が対応付けられて、発話DBに記憶されている。例えば、発話番号1では「こんにちは。本日はご来社ありがとうございます。」発話番号2では「担当者の名前をお聞かせください。」発話番号3では「承知いたしました。お電話をお繋ぎしますので少々お待ちください。」等である。   The result of the customization information input process is shown in FIG. The utterance number input by the operator and the utterance contents are associated with each other and stored in the utterance DB. For example, in the utterance number 1 "Hello. Today Thank you for coming to our office." In the speech number 2 "Please tell us the name of the person in charge." In the speech number 3 was "I know. I connect your phone Please wait for a while. "

またオペレータが入力した携帯番号として、呼出しDBに、例えば、田中:090‐○△×‐×○○、和田:090‐△×○‐△△×、仲嶋:090‐○×△‐○×△等のように記憶されている。   Also, as the mobile number input by the operator, in the calling DB, for example, Tanaka: 090- ○ △ ×-× ○○, Wada: 090- △ × ○-△△ ×, Nakajima: 090- ○ × △-○ × △ And so on.

次に顔認証処理S2のサブルーチンプログラムの動作を図4(a)に基づいて説明する。S15により、発話番号が「1」以上であるか否かの判定が行われ、「1」以上である場合にはこの顔認証処理が終了する。この発話番号は、S19により「1」と指定される。未だに発話番号が「1」として指定されていない段階では、制御がS16へ進み、カメラ入力部27からの入力画像を解析する処理が行われ、S17により、その解析結果人の顔か否かの判断が行われ、人の顔でないと判断された場合には制御がS18へ進み、「カメラへ顔を近づけてください」のメッセージ表示を表示部29により行う。一方、S17により人の顔であると判断された場合には、制御がS19へ進み、発話番号を「1」と指定する処理が行われる。その結果、次回のこの顔認証処理の実行段階ではS15によりYESの判断がなされてS18による「カメラへ顔を近づけてください」のメッセージ表示は行われない。   Next, the operation of the subroutine program of the face authentication process S2 will be described with reference to FIG. In S15, it is determined whether or not the utterance number is “1” or more. If the utterance number is “1” or more, the face authentication process is ended. This utterance number is designated as “1” by S19. At a stage where the utterance number is not yet designated as “1”, the control proceeds to S16, and a process of analyzing the input image from the camera input unit 27 is performed. If it is determined that the face is not a human face, the control advances to S18, and a message “Please bring your face closer to the camera” is displayed on the display unit 29. On the other hand, if it is determined in S17 that the face is a human face, the control advances to S19, and processing for designating the utterance number as “1” is performed. As a result, at the next stage of executing this face authentication process, a determination of YES is made in S15, and the message “Please bring your face closer to the camera” in S18 is not displayed.

次に、音声認識処理S3のサブルーチンプログラムの動作を図4(b)に基づいて説明する。まずS25により、来訪者からの音声入力があったか否かの判断が行われ、未だ音声入力がない場合にはこの音声認識処理が終了する。一方、来訪者が受付用PC2に対してしゃべれば、S25によりYESの判断がなされて制御がS26へ進み、形態素解析処理を行い、S27により構文解析処理を行い、S28により意味解析処理行い、S29により文脈解析処理を行い、S30により意図解析処理(意図解釈処理)を行う。これらの解析処理は自然言語処理エンジンで実行される。   Next, the operation of the subroutine program of the speech recognition process S3 will be described with reference to FIG. First, in S25, it is determined whether or not there is a voice input from a visitor. If there is no voice input yet, this voice recognition process is terminated. On the other hand, if the visitor speaks to the reception PC 2, YES is determined in S25, and the control advances to S26, morphological analysis processing is performed, syntactic analysis processing is performed in S27, semantic analysis processing is performed in S28, and S29. Then, context analysis processing is performed, and intention analysis processing (intention interpretation processing) is performed in S30. These analysis processes are executed by a natural language processing engine.

形態素解析とは、文章を意味のある単語に区切り、辞書を利用して品詞や内容を判別することである。構文解析とは、文節と文節の係り受け関係を判定する処理である。意味解析とは、ベクトル空間モデルを利用した自然言語処理の技法の1つで、文書群とそこに含まれる用語群について、それらに関連した概念の集合を生成することで、その関係を分析することである。文脈解析とは、複数の文のつながりをチェックするものである。意図解析(意図解釈)とは、文章の意味を理解する処理である。   Morphological analysis is to divide a sentence into meaningful words and discriminate parts of speech and contents using a dictionary. Parsing is a process for determining the dependency relationship between clauses. Semantic analysis is a natural language processing technique that uses a vector space model, and analyzes the relationship between a group of documents and a group of terms contained therein by generating a set of related concepts. That is. Context analysis is to check the connection of multiple sentences. Intention analysis (intention interpretation) is a process of understanding the meaning of a sentence.

次に、DB検索処理S4のサブルーチンプログラムの動作を図4(c)に基づいて説明する。まずS35により音声認識結果があるか否かの判断が行われ、ない場合にはこのDB検索処理が終了する。音声認識処理S3による音声認識の結果がある場合には制御S36へ進み、前述の音声認識処理による解析結果に対応する発話番号を決定する処理が行われる。この処理は、ユーザの対話に対する応答をテンプレートマッチングで見つけ出すために大量に集められた対話テンプレートの中から、適合する応答を見つけ出し、その応答に対応する発話番号を割り出す処理である。次にS37により、決定した発話番号に対応する発話内容を対話DB(図3(b)参照)から検索して割り出す処理が行われる。   Next, the operation of the subroutine program in the DB search process S4 will be described with reference to FIG. First, in S35, it is determined whether or not there is a voice recognition result. If there is no voice recognition result, the DB search process is terminated. If there is a result of speech recognition by the speech recognition process S3, the process proceeds to control S36, and a process of determining an utterance number corresponding to the analysis result by the speech recognition process described above is performed. This process is a process of finding a matching response from among a large number of dialogue templates collected in order to find a response to the user's dialogue by template matching, and determining an utterance number corresponding to the response. Next, in S37, a process of searching and determining the utterance content corresponding to the determined utterance number from the dialogue DB (see FIG. 3B) is performed.

次に、発話処理S5のサブルーチンプログラムの制御動作を図4(d)に基づいて説明する。S40により、検索された発話内容があるか否かの判断がなされ、ない場合にはこの発話処理が終了する。一方、S37により検索された発話内容がある場合には制御がS41へ進み、その発話内容に従って発話する処理が行われる。その結果、例えば、検索された発話内容が発話番号1の場合には「こんにちは。本日はご来社ありがとうございます。」の発話が音声出力部32から発せられる(図3(b)参照)。   Next, the control operation of the subroutine program in the speech process S5 will be described with reference to FIG. In S40, it is determined whether or not there is a searched utterance content. If there is no utterance content, this utterance process is terminated. On the other hand, if there is an utterance content retrieved in S37, the control advances to S41, and a process of uttering according to the utterance content is performed. As a result, for example, "Hello. Today Thank you for coming to our office." If the retrieved speech content of the utterance number 1 speech is emitted from the audio output unit 32 (see Figure 3 (b)).

次に、S41より発話された発話内容をクリアする処理がS42により行われ、S43により対話が終了したか否かの判断がなされ、未だ対話が終了していないと判断された場合にはこの発話処理が終了する。   Next, the process of clearing the utterance content uttered from S41 is performed in S42, and it is determined whether or not the dialog is ended in S43, and this utterance is determined if the dialog is not yet ended. Processing ends.

一方、対話が終了している場合には、制御がS44へ進み、発話番号をゼロクリアする処理を行う。その結果、前述のS15によりNOの判断がなされてS16以降の顔認識処理が実行されることとなる。   On the other hand, if the dialogue has ended, the control advances to S44 to perform a process of clearing the utterance number to zero. As a result, NO is determined in S15 described above, and the face recognition processing from S16 onward is executed.

以上説明した受付エージェントの発展型として次のものが考えられる。図4(a)の顔認識処理により認識された来訪者の顔画像データとそのときの来訪者が面談した担当者さらには当該担当者が当該来訪者について入力した情報を対応付けてDBに記憶しておき、再来訪時にカメラ入力部から入力された顔データからDBを検索して当該再来訪者に関する記憶情報に基づいて受付エージェントが対話するように制御してもよい。   The following can be considered as the advanced types of the reception agent described above. The face image data of the visitor recognized by the face recognition process of FIG. 4A and the person in charge interviewed by the visitor at that time and the information input by the person in charge about the visitor are associated and stored in the DB. In addition, the DB may be searched from the face data input from the camera input unit at the time of revisiting, and the reception agent may be controlled to interact based on the stored information regarding the revisiting person.

次に、来客予約ウェブサーバ10のメインプログラムの制御動作を図5(a)に基づいて説明する。まずS50により、カスタマイズ用情報受付処理が実行される。このカスタマイズ用情報受付処理は、予約枠設定用PC3から入力された各担当者の予約枠データを受け付けて記憶装置24のDB(予約枠)に登録する処理である。次にS51により音声認識処理が行われる。この音声認識処理は図4(b)に示したものと同じであり、詳細な説明の繰り返しを省略する。次にS52により、DB検索処理が行われる。このDB検索処理は、S50によりDB(予約枠)に登録された各担当者の予約枠を検索する処理である。次のS53により発話処理が行われる。この発話処理は、ホームページを訪れた客に対して音声で応対するための処理である。詳細は図7(a)に基づいて後述する。   Next, the control operation of the main program of the visitor reservation web server 10 will be described with reference to FIG. First, in S50, customization information reception processing is executed. This customization information receiving process is a process of receiving the reservation frame data of each person in charge input from the reservation frame setting PC 3 and registering it in the DB (reservation frame) of the storage device 24. Next, voice recognition processing is performed in S51. This voice recognition process is the same as that shown in FIG. 4B, and detailed description will not be repeated. Next, DB search processing is performed in S52. This DB search process is a process of searching for a reservation frame of each person in charge registered in the DB (reservation frame) in S50. The speech process is performed in the next S53. This utterance process is a process for responding to a customer who visits a home page by voice. Details will be described later with reference to FIG.

次にS54により画面制御処理が行われる。この画面制御処理は、ホームページの訪問者に対してカレンダー表示をしたり担当者一覧表示をしたりするものである。詳細は後述する。次にS55によりカレンダー同期処理が行われる。このカレンダー同期処理は、ホームページの訪問者との対話を通して予約の日時が決まった場合にその予約日時をカレンダーに記録するための処理である。   Next, a screen control process is performed by S54. This screen control process displays a calendar or a list of persons in charge for visitors to the home page. Details will be described later. Next, calendar synchronization processing is performed in S55. This calendar synchronization process is a process for recording a reservation date and time in a calendar when the date and time of the reservation is determined through a dialogue with a visitor on the home page.

次に、S50のカスタマイズ用情報受付処理のサブルーチンプログラムの制御動作を図5(b)に基づいて説明する。このカスタマイズ用情報受付処理では、予約枠設定用PC3と来客予約用ウェブサーバ10との間で通信を行って受付処理を遂行する。まず予約枠設定用PC3において、S60によりログイン操作があったか否かの判定がなされ、ない場合にはこの予約枠設定用PC3の制御処理が終了する。一方、ユーザが来客予約用ウェブサーバ10にアクセスしてログイン操作を行えば制御がS61へ進み、ログインIDとパスワードとが予約枠設定用PC3から来客予約用ウェブサーバ10へ送信される。来客予約用ウェブサーバ10は、S70によりその送信情報を受信し、S71により、ログインIDとパスワードとを確認した上で入力ページを予約枠設定用PC3へ返信する。   Next, the control operation of the subroutine information receiving process for customization information in S50 will be described with reference to FIG. In this customization information reception process, the reception process is performed by communicating between the reservation frame setting PC 3 and the visitor reservation web server 10. First, in the reserved frame setting PC 3, it is determined whether or not a login operation has been performed in S60. If there is no login operation, the control process of the reserved frame setting PC 3 ends. On the other hand, if the user accesses the visitor reservation web server 10 and performs a login operation, the control proceeds to S61, and the login ID and password are transmitted from the reservation frame setting PC 3 to the visitor reservation web server 10. The visitor reservation web server 10 receives the transmission information in S70, confirms the login ID and password in S71, and returns the input page to the reservation frame setting PC 3.

予約枠設定用PC3では、S62によりその入力ページを受信し、S63によりその受信した入力ページに従って予約枠を入力するオペレータの入力操作を受け付ける。そして、S64によりそのオペレータの入力操作が終了したか否か判定し、終了していない場合にはS63の予約枠の入力操作の受付を続行する。オペレータの入力操作が終了した段階で制御がS65へ進み、その入力し終わった予約枠データを来客予約用ウェブサーバ10へ送信する。来客予約用ウェブサーバ10では、S72によりその予約枠データを受信し、S73により、受信した予約枠をDB(予約枠)に記憶する処理を行う。その予約枠(カレンダー)の記憶状態が図5(c)に示されている。記憶装置DB(予約枠)には、例えば、3月18日、3月17日、3月16日、・・・等のように日毎に予約枠データが記憶されている。各日毎に予約枠データは、各担当者別に9時から18時までの予約状況(空き状況)を特定するデータである。そしてこの予約枠(カレンダー)が日毎にウェブサイトに公開される(S74)。   The reservation frame setting PC 3 receives the input page in S62, and receives an input operation of an operator who inputs a reservation frame in accordance with the received input page in S63. Then, in S64, it is determined whether or not the operator's input operation has been completed. If the operator has not completed the input operation, the reservation frame input operation in S63 is continued. When the operator's input operation is completed, the control proceeds to S65, and the input reservation frame data is transmitted to the visitor reservation web server 10. The visitor reservation web server 10 receives the reservation frame data in S72, and stores the received reservation frame in a DB (reservation frame) in S73. The storage state of the reservation frame (calendar) is shown in FIG. In the storage device DB (reservation frame), for example, reservation frame data is stored for each day such as March 18, March 17, March 16, and so on. The reservation frame data for each day is data for specifying the reservation status (vacancy status) from 9:00 to 18:00 for each person in charge. This reservation frame (calendar) is published on the website every day (S74).

前述のS52のDB検索処理のサブルーチンプログラムの動作を図6(a)に基づいて説明する。まず、S80により、音声認識結果があるか否かの判断がなされ、ない場合にはこのDB検索処理が終了する。予約をしたユーザがユーザ端末17を操作して来客予約用ウェブサーバ10にアクセスしてS74により公開されているウェブサイトを訪問し、音声により予約の手続きを行った場合に、音声認識処理S51により音声認識がなされる。その結果、S80によりYESの判断がなされて、S81に進み、担当者と予約希望者とが認識されたか否かの判断がなされる。未だに担当者と予約希望者との両方をユーザがしゃべっていない場合にはS81によりNOの判断がなされて制御がS85へ進む。S85では、予約時間が認識されたか否かの判断がなされ、未だ予約時間をユーザがしゃべっていない場合には制御がS84へ進む。   The operation of the above-described DB search subroutine program in S52 will be described with reference to FIG. First, in S80, it is determined whether or not there is a voice recognition result. If there is no voice recognition result, the DB search process is terminated. When a user who has made a reservation operates the user terminal 17 to access the visitor reservation web server 10 and visits a website published in S74, and makes a reservation procedure by voice, the voice recognition process S51 Voice recognition is performed. As a result, a determination of YES is made in S80, and the process proceeds to S81, in which it is determined whether the person in charge and the applicant for reservation are recognized. If the user has not yet spoke with both the person in charge and the person who wants to make a reservation, a NO determination is made at S81 and control proceeds to S85. In S85, it is determined whether or not the reservation time has been recognized. If the user has not yet spoken of the reservation time, the control proceeds to S84.

S84では、音声認識処理S51による解析結果に対応する発話番号を決定する処理がなされる。例えばユーザが予約したい旨をしゃべれば発話番号「1」が決定され、「承知しました。お日にちはいつでしょう。」の発話内容が選択されて発話処理S53により発話される。また、ユーザが予約日時をしゃべればそれが音声認識処理S51により認識されて次に発話番号「2」が選択決定され、「担当者のご希望はございますか。」の発話内容が選択されて発話処理S53により発話される。   In S84, a process for determining an utterance number corresponding to the analysis result in the voice recognition process S51 is performed. For example, when the user speaks that he / she wants to make a reservation, the utterance number “1” is determined, and the utterance content “I understand. When is the day?” Is selected and uttered by the utterance processing S53. If the user speaks the reservation date and time, it is recognized by the voice recognition processing S51, and then the utterance number “2” is selected and decided, and the utterance content “Is there a request from the person in charge?” Is selected. Spoken by the utterance process S53.

それを聞いたユーザが担当者として例えば仲嶋先生を音声で指定すれば、それが音声認識処理S51により認識され、S81によりYESの判断がなされる。その結果、制御がS82へ進み、担当者(例えば仲嶋先生)と予約希望日(例えば3月15日)とに基づいてDB(予約枠)を検索して空き枠を割り出す処理がなされる。図5(c)のDB(予約枠)を参照し、仲嶋先生の3月15日の空き枠は13時から18時までである。その結果、S83により、発話番号「3」を決定するとともにその発話番号3に対応する発話内容における空欄a〜dを埋める語句を決定する。具体的には、空欄aには「仲嶋」、空欄bには「3月15日」、空欄cには「13時」、空欄dには「18時」が決定されることとなる。この決定された語句が空欄a〜dに埋められた発話番号3の発話内容が発話処理S53により発話される。その結果、発話内容は「招致しました。仲嶋先生は3月15日であれば13時から18時まで空いております。」となる。 それを聞いたユーザが13時から予約を入れたい旨をしゃべれば、それが音声認識処理S51により認識されてS85によりYESの判断がなされて制御がS86に進み、発話番号「4」が選択決定され、その発話番号「4」の発話内容の空欄eに埋める語句「13」が決定され、その空欄eに「13」が埋められた発話内容である「承知しました。明日の13時から予約を入れます。」が発話処理S53によりユーザに対して発話される。   If the user who has heard it specifies, for example, Nakajima-sensei as a person in charge by voice, it is recognized by the voice recognition processing S51, and YES is determined by S81. As a result, the control advances to S82, and a process of searching the DB (reservation frame) based on the person in charge (for example, Dr. Nakajima) and the desired reservation date (for example, March 15) to determine the empty frame is performed. Referring to the DB (reservation frame) in FIG. 5 (c), Nakashima-sensei's free space on March 15 is from 13:00 to 18:00. As a result, in S83, the utterance number “3” is determined, and the word / phrase for filling the blanks a to d in the utterance content corresponding to the utterance number 3 is determined. Specifically, “Nakajima” is determined in the blank a, “March 15” in the blank b, “13:00” in the blank c, and “18:00” in the blank d. The utterance content of the utterance number 3 in which the determined phrase is filled in the blanks a to d is uttered by the utterance process S53. As a result, the content of the utterance is “Invited. Prof. Nakajima is available from 13:00 to 18:00 on March 15.” If the user who hears it says that he / she wants to make a reservation from 13:00, it is recognized by the voice recognition processing S51, a YES determination is made in S85, the control advances to S86, and the utterance number “4” is selected and determined. The phrase “13” to be filled in the blank e of the utterance content of the utterance number “4” is determined, and the utterance content in which “13” is buried in the blank e is “Acknowledged. Is uttered to the user by the utterance process S53.

次に、S53の発話処理のサブルーチンプログラムの制御動作を図7(a)に基づいて説明する。まずS90により、音声認識結果があるか否かの判断がなされ、ない場合にはこの発話処理が終了する。音声認識結果がある場合には制御がS91へ進み、発話番号が「3」であるか否かの判断がなされる。発話番号が「3」でない場合には制御がS92へ進み、発話番号が「4」であるか否かの判断なされる。「4」でない場合には制御がS93へ進み、発話番号の発話内容を発話する処理がなされる。このS93による発話番号は「3」以外でかつ「4」以外の番号、例えば「1」または「2」等である。   Next, the control operation of the subroutine program for the speech process in S53 will be described with reference to FIG. First, in S90, it is determined whether or not there is a voice recognition result, and if not, this utterance process is terminated. If there is a voice recognition result, the control advances to S91 to determine whether or not the utterance number is “3”. If the utterance number is not “3”, the control advances to S92 to determine whether or not the utterance number is “4”. If it is not “4”, the control advances to S93, and a process of uttering the utterance content of the utterance number is performed. The utterance number by S93 is a number other than “3” and a number other than “4”, such as “1” or “2”.

発話番号が3である場合には制御がS94へ進み、発話番号3の発話内容の空欄a〜dを決定済み語句で埋めて発話する処理がなされる。また発話番号が「4」の場合には制御がS96へ進み、空欄eを決定して発話番号4の発話内容を発話する制御がなされる。   If the utterance number is 3, the control advances to S94, where the speech contents of the utterance number 3 are filled with blanks a to d with the determined words and uttered. If the utterance number is “4”, the control advances to S96, where the blank e is determined and the utterance content of the utterance number 4 is uttered.

S94、S93、S96の処理が終了した後には、制御がS95へ移行し、対話が終了したか否かの判断がなされる。対話が終了していない場合にはこの発話処理が終了するが、対話が終了した段階で制御がS97へ進み、S83やS86等により決定された発話番号をクリアする処理がなされた後、この発話処理が終了する。   After the processes of S94, S93, and S96 are completed, the control shifts to S95, and it is determined whether or not the dialogue is completed. If the dialogue has not ended, the utterance processing ends. However, when the dialogue ends, the control advances to S97, and after the processing for clearing the utterance number determined by S83, S86, etc. is performed, the utterance processing is performed. Processing ends.

次に、前述したS54の画面制御処理のサブルーチンプログラムの制御動作を図7(b)に基づいて説明する。まず、S100により発話番号が「1」であるか否かの判断がなされる。「1」でない場合には発話番号が「2」であるか否かの判断がなされる(S101)。「2」でない場合にはこの画面制御処理が終了する。   Next, the control operation of the subroutine program of the screen control process of S54 described above will be described with reference to FIG. First, in S100, it is determined whether or not the utterance number is “1”. If it is not “1”, it is determined whether or not the utterance number is “2” (S101). If it is not “2”, the screen control process ends.

発話番号が「1」であった場合には制御がS102へ進み、カレンダーをユーザ端末17に表示するための制御がなされる。その結果、発話番号「1」の「承知しました。お日にちはいつでしょう。」の発話がユーザ端末17から流れると同時にカレンダーがユーザ端末17の表示部40に表示されることとなる。ユーザはその表示されたカレンダーを見ながら予約したい日にちをユーザ端末17に向かってしゃべる。   If the utterance number is “1”, control proceeds to S102, and control for displaying the calendar on the user terminal 17 is performed. As a result, the utterance of the utterance number “1” “acknowledged, when is the date” flows from the user terminal 17 and at the same time, the calendar is displayed on the display unit 40 of the user terminal 17. The user speaks toward the user terminal 17 while looking at the displayed calendar.

一方、発話番号が「2」である場合には制御がS103へ進み、担当者一覧をユーザ端末17の表示部40に表示させる制御が行われる。その結果、ユーザは、その担当者一覧を閲覧しながら希望する担当者を音声により指名することができる。   On the other hand, when the utterance number is “2”, the control proceeds to S103, and a control for displaying the person-in-charge list on the display unit 40 of the user terminal 17 is performed. As a result, the user can designate the desired person in charge while browsing the person-in-charge list.

次に、前述したS55のカレンダー同期処理のサブルーチンプログラムの制御動作を図7(c)に基づいて説明する。まずS105により、発話番号が「4」であるか否かの判断がなされ、「4」でない場合にはこのカレンダー同期処理が終了する。発話番号が「4」である場合には、前述したようにユーザ端末17から「承知しました。明日の13時から予約を入れておきます。」の音声が流れるとともに、制御がS106へ進み、DB(予約枠)(図5(c)参照)を新たに入った予約で埋めるための更新処理を行うとともに、予約者の端末(ユーザ端末17)のカレンダーに予約日時を記録する旨のコマンドをユーザ端末17に送信する処理がなされる。   Next, the control operation of the subroutine program of the calendar synchronization process of S55 described above will be described with reference to FIG. First, in S105, it is determined whether or not the utterance number is “4”. If it is not “4”, the calendar synchronization processing is terminated. When the utterance number is “4”, as described above, the voice of “I understand. I will make a reservation from 13:00 tomorrow” is heard from the user terminal 17, and the control advances to S106. An update process is performed to fill the DB (reservation frame) (see FIG. 5C) with a newly entered reservation, and a command for recording the reservation date and time on the calendar of the reservation person's terminal (user terminal 17). Processing to transmit to the user terminal 17 is performed.

次に、要介護者用端末4のメインプログラムの制御動作を図8に基づいて説明する。この要介護者用端末4は、集中管理サーバ10と連携しながら要介護者用動作制御を実行する。また集中管理サーバ10は、要介護者宅5のワイヤレスセンサネットワーク6と情報のやりとりを行いながら要介護者のための制御動作を実行する。   Next, the control operation of the main program of the terminal 4 for care recipient will be described based on FIG. The terminal 4 for the care recipient performs operation control for the care recipient in cooperation with the central management server 10. The central management server 10 executes control operations for the care recipient while exchanging information with the wireless sensor network 6 of the care recipient home 5.

まず、要介護者用端末4は、S110によりカスタマイズ用情報入力処理を実行し、S111により音声認識処理を実行し、S112によりDB検索処理を実行し、S113により発話処理を実行し、S114によりビデオチャット処理を実行し、S115によりウェブサイト閲覧処理を実行し、S116によりその他の処理を実行する。S110のカスタマイズ用情報入力処理では、当該要介護者用端末4の持ち主である要介護者を介護するために必要となる発話内容等を入力する処理である。実際の入力操作はケアマネージャやヘルパーや介護事業者によって行われる。介護事業者により行うときには、介護事業者のPC16で入力操作して集中管理サーバ12へ送信するようにしてもよい。S111の音声認識処理およびS112のDB検索処理は、既に説明したものとほぼ同じであるためにここでは詳細な説明の繰返しを省略する。S115のウェブサイト閲覧処理は、家族との写真共有サイトや思い出に残る写真または動画をアップロードしているサイト等を閲覧するための処理である。S116のその他の処理は、要介護者が緊急時等にケアマネージャやヘルパーあるいは家族を呼出して音声と映像とによりやりとりを行うためのものである。   First, the care recipient terminal 4 executes customization information input processing in S110, performs voice recognition processing in S111, executes DB search processing in S112, executes speech processing in S113, and performs video in S114. Chat processing is executed, website browsing processing is executed in S115, and other processing is executed in S116. The customization information input process of S110 is a process of inputting the utterance content and the like necessary to care for the care recipient who is the owner of the terminal 4 for the care recipient. The actual input operation is performed by a care manager, a helper, or a care provider. When it is performed by a care provider, it may be input to the care provider's PC 16 and transmitted to the central management server 12. Since the voice recognition process in S111 and the DB search process in S112 are almost the same as those already described, detailed description is not repeated here. The website browsing process of S115 is a process for browsing a photo sharing site with a family, a site uploading memorable photos or videos, and the like. The other processing of S116 is for the care recipient to call the care manager, helper, or family member in an emergency or the like and exchange voice and video.

要介護者用端末4にインストールされている介護エージェントと要介護者とが対話した場合に、その要介護者のしゃべった内容がS111により音声認識処理されるとともに、その要介護者に対し、S113の発話処理により音声で応答する。これらS111の音声認識処理およびS113の発話処理によって処理される要介護者との対話データが要介護者用端末4から集中管理サーバ12へ送信される。集中管理サーバ12では、その送信されてきた対話データをS120により受信してデータベースに記録する処理を行う。   When a care agent installed in the terminal 4 for a care recipient and a care recipient interact, the content spoken by the care recipient is voice-recognized in S111, and for the care recipient, S113. Reply with voice by utterance processing. Dialogue data with the care recipient that is processed by the voice recognition processing at S111 and the speech processing at S113 is transmitted from the care recipient terminal 4 to the central management server 12. In the central management server 12, the transmitted dialogue data is received in S120 and recorded in the database.

一方、要介護者宅5に設置されているワイヤレスネットワーク6では、センサIDが割り振られている各センサからの検出データを収集して、その検出データをセンサIDごとに対応付けて記憶する処理を行い、S136により、その検出データ中に緊急送信すべきものがあるか否かの判断を行い、ない場合にはS139に進み、検出データの定期送信時期がきたか否かの判断を行い、未だ定期送信時期でない場合には制御がS135に戻り、検出データの記憶処理を継続する。S135→S136→S139→S135のループの巡回途中で、検出データ中に緊急送信すべきものが出てきた場合あるいは定期送信時期がきた場合に、制御S137へ進み、収集した検出データをセンサIDごとに集中管理サーバ12へ送信する処理を行う。そして、S138により、検出データの記憶をクリアした後、S135へ復帰する。   On the other hand, in the wireless network 6 installed in the care recipient's home 5, a process of collecting detection data from each sensor assigned with a sensor ID and storing the detection data in association with each sensor ID is performed. In S136, it is determined whether or not there is an emergency transmission in the detected data. If not, the process proceeds to S139 to determine whether or not the periodic transmission timing of the detection data has come. If it is not the transmission time, the control returns to S135 and the detection data storing process is continued. In the course of the loop of S135 → S136 → S139 → S135, when there is an emergency transmission in the detection data, or when the regular transmission time comes, the process proceeds to control S137, and the collected detection data is set for each sensor ID. Processing to transmit to the central management server 12 is performed. In S138, the memory of the detected data is cleared, and then the process returns to S135.

集中管理サーバ12では、ワイヤレスセンサネットワークから送信されてきたセンサの検出データをS121により受信して、そのワイヤレスセンサデータをデータベースに記録する処理を行い、次にS122において、緊急対処すべきデータがあるか否か判断し、ない場合にはS120へ戻る。一方、緊急対処すべきデータが発見された場合には、制御がS123へ進み、各種連絡先に通報する処理を行う。具体的には、温度センサが異常に高い温度を検出した場合や所定の時刻を過ぎても人感センサが一向に要介護者を検知しない場合等の異常データがある場合に、ケアマネージャやヘルパーあるいは介護士さらには病院や家族に異常の虞がある旨の通報を行う。   In the central management server 12, the sensor detection data transmitted from the wireless sensor network is received in S121, and the wireless sensor data is recorded in the database. Next, in S122, there is data to be dealt with urgently. If not, the process returns to S120. On the other hand, when data that should be dealt with urgently is found, the control proceeds to S123, and processing for notifying various contacts is performed. Specifically, when there is abnormal data such as when the temperature sensor detects an abnormally high temperature or when the human sensor does not detect a care recipient at all after a predetermined time, a care manager or helper or Notify the caregiver and the hospital or family that there is a risk of abnormality.

一方、要介護者の家族やケアマネージャあるいはヘルパーがユーザ端末17を操作して集中管理サーバ12にアクセスし要介護者の記録情報の閲覧を要求する操作を行えば、S130によりYESの判断がなされて制御がS131へ進み、閲覧要求を集中管理サーバ12へ送信する。集中管理サーバ12では、その閲覧要求をS124により受信し、データベースに記録している要介護者との対話情報およびワイヤレスセンサネットワークからのセンサ検出情報をユーザ端末17に送信する処理がS125により実行される。その送信データをS132により受信したユーザ端末17では、受信した記録データを表示部40に表示する制御を行う。その結果、遠隔地に住んでいる要介護者の家族等においても、要介護者の状態を把握することができるという利点がある。   On the other hand, if the family member of the care recipient, the care manager, or the helper operates the user terminal 17 to access the central management server 12 and requests to view the recorded information of the care recipient, YES is determined in S130. Then, the control proceeds to S131, and a browsing request is transmitted to the central management server 12. In the centralized management server 12, the browsing request is received in S124, and the process of transmitting the interaction information with the care recipient recorded in the database and the sensor detection information from the wireless sensor network to the user terminal 17 is executed in S125. The The user terminal 17 that has received the transmission data in S132 performs control to display the received recording data on the display unit 40. As a result, there is an advantage that even the family of a care recipient who lives in a remote place can grasp the state of the care recipient.

前述のS110によるカスタマイズ用情報入力処理の結果、要介護者用端末4のEEPROM36のDB(発話)に図9(a)のような発話内容のデータが発話番号に対応付けて記憶される。   As a result of the customization information input process in S110 described above, the data of the utterance content as shown in FIG. 9A is stored in the DB (utterance) of the EEPROM 36 of the care recipient terminal 4 in association with the utterance number.

次に、前述のS113の発話処理のサブル−チンプログラムの制御動作を図9(b)に基づいて説明する。まずS145により音声認識結果があるか否かの判断がなされ、ない場合にはS146により発話時刻がきたか否かの判断がなされ、きていない場合にはS147により、発話が終了したか否かの判断がなされ、終了していない場合には、この発話処理が終了する。   Next, the control operation of the subroutine program in the above-described utterance process of S113 will be described with reference to FIG. First, it is determined whether or not there is a voice recognition result in S145, and if not, it is determined whether or not the utterance time has come in S146, and if not, whether or not the utterance is ended in S147. If this determination is made and the processing has not ended, the utterance processing ends.

カスタマイズ用情報入力処理(S110)によりあらかじめ入力設定された発話時刻がきた場合には、S146によりYESの判断がなされてS148へ進み、現在時刻に応じた発話番号を選択して発話する処理がなされる。例えば、要介護者の朝起きる時刻(例えば7時)になった場合に発話番号「1」が選択され、図9(a)に示す「起きてください。朝ですよ。」の音声が要介護者端末4の音声出力部43から発せられることとなる。   If the utterance time set in advance by the customization information input process (S110) is reached, a determination of YES is made in S146, and the process proceeds to S148, where the utterance is selected and the utterance is selected according to the current time. The For example, the utterance number “1” is selected when it is time for the care recipient to wake up in the morning (for example, 7:00), and the voice “Wake up. It's morning.” Shown in FIG. It is emitted from the voice output unit 43 of the person terminal 4.

要介護者が要介護者用端末4に向かってしゃべればその音声が音声認識処理(S111)により処理され、S145によりYESの判断がなされて制御がS149へ進み、前述のS112によりDB(発話)から検索された発話内容を発話する制御がなされる。例えば、図9(a)のDB(発話)に記憶されている発話内容に従って、以下のような対話が可能となる。   If the care recipient speaks to the care recipient terminal 4, the voice is processed by the voice recognition process (S 111), a determination of YES is made in S 145, the control advances to S 149, and DB (utterance) is made in S 112 described above. Control is performed to utter the utterance content retrieved from. For example, the following dialogue is possible according to the utterance content stored in the DB (utterance) in FIG.

介護エージェント:起きてください。朝ですよ。
要介護者:おはよう。今日もいい天気だね。
介護エージェント:今朝は、よく眠れましたか?
要介護者:はい ぐっすり眠れました。
介護エージェント:朝ご飯食べましたか?
要介護者:うん 食べたよ。
介護エージェント:お薬 飲みましたか?
要介護者:はい 飲みました。お薬がもう残り少なくなりました。
介護エージェント:分かりました。ケアマネージャさんに報告します。室内温度が上がりすぎています。エアコンをおつけください。
はい、エアコンをつけました。久しぶりに息子とビデオチャットがしたいんだけど。
介護エージェント:分かりました。ビデオチャット画面を表示します。
要介護者:今度は写真共有サイトを閲覧したいんだけど。
介護エージェント:分かりました。写真共有サイトを閲覧します。
Care Agent: Get up. It's morning.
Care recipient: Good morning. It ’s good weather today.
Care Agent: Did you sleep well this morning?
Caregiver: Yes, I was able to sleep well.
Nursing agent: Did you eat breakfast?
Care recipient: Yeah.
Care Agent: Did you take medicine?
Care recipient: Yes. Your medicine is almost gone.
Care Agent: I understand. Report to care manager. The room temperature is too high. Please turn on the air conditioner.
Yes, I turned on the air conditioner. I'd like to video chat with my son after a long time.
Care Agent: I understand. Displays the video chat screen.
Caregiver: I want to browse a photo sharing site this time.
Care Agent: I understand. Browse photo sharing sites.

また、事業所においてヘルパーのスケジュールを入力設定することにより、介護エージェントが、要介護者にヘルパーの名前と到着時刻とを知らせるように制御してもよく、また、要介護者宅5に出向いたヘルパーが要介護者端末4に話しかけて業務報告することにより、事業所や被介護者の家族にその業務報告を送信するように制御してもよい。さらに、介護エージェントがヘルパーの勤務報告や業務報告を被介護者の家族へ送信するようにしてもよい。さらに「薬を飲んだかどうか」や「食事をとったかどうか」等の確認を逐一介護エージェントが家族に報告するようにし、要介護者の健康に対する不安を和らげるようにしてもよい。また、ヘルパーの勤怠報告のデータベース化を行って事業所や被介護者の家族が閲覧できるようにしてもよい。   In addition, the care agent may be controlled so that the care recipient is informed of the name and arrival time of the helper by inputting and setting the helper schedule at the office. The helper may control to send the business report to the office or the family of the care recipient by speaking to the care recipient terminal 4 and reporting the business. Furthermore, the care agent may transmit a helper's work report or business report to the family of the care recipient. Furthermore, the care agent may report to the family confirmations such as “whether or not you have taken a drug” or “whether or not you have eaten” to relieve anxiety about the health of the care recipient. In addition, a database of helper attendance reports may be created so that the business establishment and the family of the cared person can view it.

次に発話処理では、S150により、発話番号が「5」であるか否か判定し、「5」である場合には、前述したように「分かりました。ケアマネージャさんに報告します。」の発話を行うとともに、制御がS151に進み、ケアマネージャに報告する処理が行われる。報告内容は、前述の会話中の「お薬が残り少なくなったこと」である。次に制御がS147へ進み、発話が終了したか否か判断し、終了した段階でS152によりその発話番号をクリアする処理がなされる。   Next, in the utterance process, it is determined in S150 whether or not the utterance number is “5”. If it is “5”, as described above, “I understand. I will report it to the care manager.” , And the control advances to S151 to perform processing for reporting to the care manager. The content of the report is “Lack of medicine remaining” during the conversation. Next, the control advances to S147 to determine whether or not the utterance has been completed, and at the stage of completion, processing for clearing the utterance number is performed in S152.

次に、前述のS114のビデオチャット処理のサブルーチンプログラムの制御動作を図10(a)に基づいて説明する。まずS155により発話番号が「7」であるか否かの判断がなされ、「7」でない場合には、S156によりチャットフラグがONになっているか否かの判断がなされ、ONになっていない場合にはこのビデオチャット処理が終了する。   Next, the control operation of the subroutine program for the video chat process in S114 will be described with reference to FIG. First, it is determined whether or not the utterance number is “7” in S155, and if it is not “7”, it is determined whether or not the chat flag is turned on in S156. This video chat process ends.

一方、発話番号が「7」になっている場合には、前述したように「分かりました。ビデオチャット画面を表示します。」の音声が発せられると共に制御がS157へ進み、その「7」の発話番号をクリアしてチャットフラグをONにする処理がなされる。このチャットフラグは後述するS163によりクリアされるまでONとなっており、その間S156によりYESの判断がなされて制御がS158へ進むこととなる。   On the other hand, when the utterance number is “7”, as described above, the voice “I understand. Display the video chat screen.” Is uttered and the control proceeds to S157, and the “7” Is cleared and the chat flag is turned on. This chat flag is ON until it is cleared in S163, which will be described later. During that time, a determination of YES is made in S156, and the control advances to S158.

S158では、ビデオチャットのメニュー画面を表示する処理が行われる。その結果、要介護者4の表示部42よりビデオチャットのメニュー画面が表示される。このビデオチャットのメニュー画面では、事前に登録されているビデオチャット可能な相手をあらわすアイコンが表示されており、このアイコンの中からチャットしたい相手のアイコンをクリックして選択できるようになっている。そのチャット相手の選択があったか否かがS159により判断され、ない場合にはS158のメニュー画面の表示制御を継続して行う。要介護者がチャット相手の選択操作を行った段階で制御がS160へ進み、その選択された相手を呼び出す処理が行われる。次にS161において、選択された相手とチャットのやりとりを行う処理が行われ、S162によりチャットが終了したか否かの判断がなされ、チャットが終了するまでS161のチャットやりとり処理が継続して行われる。そして、チャットが終了した段階で制御がS163へ進み、チャットフラグをクリアする処理がなされてこのビデオチャット処理が終了する。   In S158, processing for displaying a video chat menu screen is performed. As a result, a video chat menu screen is displayed on the display section 42 of the care recipient 4. In this video chat menu screen, an icon representing a pre-registered partner capable of video chat is displayed, and the icon of the partner to chat with can be selected by clicking the icon. Whether or not the chat partner has been selected is determined in S159, and if not, the menu screen display control in S158 is continued. When the care recipient performs a chat partner selection operation, the control advances to S160, and a process for calling the selected partner is performed. Next, in S161, a process for performing a chat exchange with the selected partner is performed, and it is determined whether or not the chat is terminated in S162, and the chat exchange process in S161 is continuously performed until the chat is terminated. . Then, when the chat is finished, the control proceeds to S163, a process for clearing the chat flag is performed, and this video chat process is finished.

次に、前述のS115のウェブサイト閲覧処理のサブルーチンプログラムの制御動作を図10(b)に基づいて説明する。まずS170により、発話番号が「8」でない場合にはS175により閲覧フラグがONになっているか否かの判断がなされ、ONになっていない場合にはこのウェブサイト閲覧処理が終了する。   Next, the control operation of the subroutine program for browsing the website in S115 will be described with reference to FIG. First, in S170, if the utterance number is not “8”, it is determined whether or not the browsing flag is turned on in S175. If not, the website browsing process is ended.

発話番号が「8」になっている場合には、前述したように「分かりました。ビデオチャット画面を表示します。」の発話が発せられるとともに、制御がS171へ進み、その発話番号をクリアして閲覧フラグをONにする処理がなされる。その結果、後述するS174により閲覧フラグがクリアするまでの間S175によりYESの判断がなされて制御がS172へ進むこととなる。   When the utterance number is “8”, as described above, the utterance “I understand. Display the video chat screen” is uttered, and the control advances to S171 to clear the utterance number. Then, processing for turning on the viewing flag is performed. As a result, a determination of YES is made in S175 until the viewing flag is cleared in S174 described later, and the control proceeds to S172.

S172では、写真共有サイトにアクセスしてその写真共有サイトを閲覧する処理がなされる。そして、S173により閲覧が終了したか否かの判断がなされ、終了するまでS172の閲覧処理が継続して行われる。そして、終了した段階で制御がS174へ進み、閲覧フラグがクリアされる。   In S172, a process of accessing the photo sharing site and browsing the photo sharing site is performed. Then, in S173, it is determined whether or not browsing is completed, and the browsing process in S172 is continuously performed until the browsing is completed. Then, at the stage of completion, the control proceeds to S174, and the browsing flag is cleared.

次に、人工知能サーバ13による介護学習処理の制御動作を図11に基づいて説明する。S183により、集中管理サーバ12から要介護者との会話記録とワイヤレスセンサデータ記録等を定期的に受信する処理が行われる。一方、専門業者(介護業者)のPC16では、要介護者宅5に訪問したケアマネージャやヘルパーあるいは介護士が、PC16にその要介護者の容態を入力する。容態が入力されたPC16では、その入力された容態を要介護者IDごとに人工知能サーバ13へ送信する。(S181)。そしてS182によりその他の処理を行った後、制御がS180へ戻る。   Next, the control operation of the care learning process by the artificial intelligence server 13 will be described with reference to FIG. By S183, a process of periodically receiving a conversation record with a care recipient, a wireless sensor data record, and the like from the central management server 12 is performed. On the other hand, in the PC 16 of a specialist (care provider), a care manager, a helper or a caregiver who visits the care recipient home 5 inputs the condition of the care recipient in the PC 16. In the PC 16 to which the condition is input, the input condition is transmitted to the artificial intelligence server 13 for each care recipient ID. (S181). And after performing other processing by S182, control returns to S180.

人工知能サーバ13では、介護事業者のPC16から要介護者の容態が送信されてきたか否かをS184により判断し、未だ送信されてきていない場合には制御がS191へ進む。一方、送信されてきた段階で制御がS185へ進み、受信したデータを要介護者IDごとに分類して学習DB14に追加記憶する処理が行われる。この学習DB14には、S183により受信したデータも記憶されている。そして、S186により、容態が悪化した(NG)の要介護者IDのデータのみを抽出する処理が行われ、S187により、データマイニングを用いてそのNGのパターンNGPiを見つけ出す処理が行われる。このS187の処理は、例えば、S184により受信した要介護者の容態のデータが「痴呆症が進行している」であった場合に、当該要介護者IDに対応している最近の対話記録データとワイヤレスセンサデータ記録データを抽出し、データマイニングを行って特徴となるパターンNGPiを見つけ出す。   The artificial intelligence server 13 determines whether or not the condition of the care recipient has been transmitted from the care provider's PC 16 in S184, and if it has not been transmitted yet, control proceeds to S191. On the other hand, control proceeds to S185 at the stage of transmission, and the received data is classified for each care recipient ID and additionally stored in the learning DB 14. The learning DB 14 also stores data received in S183. Then, the process of extracting only the data of the care recipient ID of which the condition has deteriorated (NG) is performed in S186, and the process of finding the NG pattern NGPi using data mining is performed in S187. For example, when the data of the condition of the care recipient received in S184 is “dementia is progressing”, the process of S187 is the latest dialog record data corresponding to the care recipient ID. The wireless sensor data recording data is extracted, and data mining is performed to find a characteristic pattern NGPi.

このパターンNGPiは、多数の要介護者データがあればあるほど正確なパターンを見つけ出しやすくなる。そのため、学習DB14には、全国の要介護者用端末4および介護事業者のPC16から送られてきたデータを集計して記憶している。   In this pattern NGPi, the more a lot of care recipient data is, the easier it is to find an accurate pattern. Therefore, the learning DB 14 collects and stores data sent from the terminal 4 for the care recipient nationwide and the PC 16 of the care provider.

次に制御がS188へ進み、見つけ出されたNGPiは今まで見つけ出したものと異なるか否かの判断がなされる。同じものである場合には制御がS191へ進むが、今回新たに見つけ出されたものである場合には制御がS189へ進み、NGパターンとしてNGPiを人工知能DB15に追加記憶する処理がなされる。次に制御がS190へ進み、その新たに見つけ出されたNGPiのパターンを有する要介護者IDを学習DB14から検索して抽出し、NG報知する。このNG報知は、例えば、NGである要介護者の家族やケアマネージャあるいはヘルパーさらには介護士等に報知する。   Next, the control advances to S188, where it is determined whether the found NGPi is different from the one found so far. If they are the same, the control proceeds to S191, but if they are newly found this time, the control proceeds to S189, and a process of additionally storing NGPi as an NG pattern in the artificial intelligence DB 15 is performed. Next, the control advances to S190, and the care recipient ID having the newly found NGPi pattern is searched and extracted from the learning DB 14, and NG notification is made. This NG notification is, for example, notified to a family member, a care manager, a helper, or a caregiver of an NG who needs care.

次に制御がS191へ進み、定期チェック時期になったか否かの判断がなされ、定期チェック時期になった場合には制御がS192へ進む。S192では、前回の定期チェック後に追加された要介護者データ(S183により受信したデータ)の中からNGパターンを有する要介護者IDを抽出してNG報知する処理がなされる。このNG報知は前述のS190の報知と同じである。このS192の「NGパターン」は、人工知能DB15に記憶されている今までに見つかっているすべてのNGPi(i=1,2,3,・・・)である。この異常パターンNGPiを見つけ出す手段としてファジー推論を用いてもよい。ファジー推論とは、人間の感覚的な推論を模倣した推論法であり、定められたルールと異なる入力に対しても、ルールから類推した推論結果を出力することのできる近似推論である。推論ルールやメンバーシップ関数の設定や調整を行うことにより、その推論結果を最適な値とする作業(チューニング作業)を行う。このファジー推論を用いて、例えば、食事・水・薬・運動等の時系列情報から体の具合の悪くなるタイミングを予想して、事前の予防とアドバイスを行う。次にS193によりその他の処理がなされ、この介護学習処理が終了する。   Next, control proceeds to S191, where it is determined whether or not a regular check time has come. If the regular check time has come, control proceeds to S192. In S192, a care recipient ID having an NG pattern is extracted from the care recipient data added after the previous regular check (data received in S183) and an NG notification process is performed. This NG notification is the same as the notification in S190 described above. The “NG pattern” in S192 is all NGPi (i = 1, 2, 3,...) That have been found so far stored in the artificial intelligence DB 15. Fuzzy inference may be used as means for finding out this abnormal pattern NGPi. Fuzzy reasoning is an inference method that imitates human sensory reasoning, and is an approximate reasoning that can output an inference result inferred from a rule even for an input different from a predetermined rule. By setting and adjusting the inference rules and membership functions, work (tuning work) is carried out so that the inference result is the optimum value. Using this fuzzy inference, for example, predicting the timing of getting sick from time-series information such as meals, water, medicines, and exercises, and performing prior prevention and advice. Next, other processing is performed by S193, and this care learning processing is completed.

以上説明したように、人工知能サーバ13による介護学習処理により、新たな異常パターンNGPiが見つけ出されれば、即座にその新たな異常パターンNGPiを用いて学習DB14が検索されて、その新たな異常パターンNGPiに合致する異常な要介護者が割り出されて緊急報知がなされる(S190)。さらに、集中管理サーバ12から人工知能サーバ13へ送信されてきた新たなデータ(未チェックデータ)に対して人工知能DB15に記憶されている今まで発見されたすべての異常パターンNGPi(i=1,2,3,・・・)を適用して異常であるか否かを判定し、異常な要介護者が見つかれば即座にNG報知する(S192)。これにより、要介護者の異常を早期発見できる利点がある。   As described above, if a new abnormal pattern NGPi is found by the care learning process by the artificial intelligence server 13, the learning DB 14 is immediately searched using the new abnormal pattern NGPi, and the new abnormal pattern NGPi is searched. An abnormal care recipient that matches the above is determined and an emergency notification is made (S190). Furthermore, all the abnormal patterns NGPi (i = 1, 1) discovered so far stored in the artificial intelligence DB 15 for new data (unchecked data) transmitted from the central management server 12 to the artificial intelligence server 13. 2, 3,...) Is applied to determine whether it is abnormal or not, and if an abnormal care recipient is found, an NG notification is immediately made (S 192). Thereby, there exists an advantage which can discover abnormality of a care recipient early.

次に、人工知能サーバ13によるその他の処理(S193)のサブルーチンプログラムの制御動作および要介護者用端末4のその他の処理(S116)のサブルーチンプログラムの制御動作を図12に基づいて説明する。   Next, the control operation of the subroutine program of the other process (S193) by the artificial intelligence server 13 and the control operation of the subroutine program of the other process (S116) of the care recipient terminal 4 will be described with reference to FIG.

人工知能サーバ13は、S200によりNGPiに適したカスタマイズデータを作成する処理を行う。例えば、痴呆症が悪化した要介護者に対するデータマイニングの結果発見されたNGPiが「今まで興味関心を持っていた事柄に対して興味がなくなる」であった場合に、カスタマイズデータとして、「興味関心事の質問をする」の発話データを作成する。   The artificial intelligence server 13 performs processing for creating customized data suitable for NGPi in S200. For example, if NGPi discovered as a result of data mining for a care recipient who has suffered from dementia is “I am not interested in what I have been interested in until now” Create utterance data for "Ask a question".

次にS201により、その作成されたカスタマイズデータを要介護者用端末4へ送信する処理が行われる。要介護者用端末4では、その送信されてきたデータをS204により受信し、S205により、更なるカスタマイズを行うか否かの判定を行う。例えば、S204により受信したデータが「興味関心事の質問をする」の発話データであった場合に、要介護者用端末4に要介護者の興味関心事項(例えば趣味など)が記憶されている場合に、その当該要介護者の趣味等の質問を行うようにカスタマイズ処理を行う(S206)。S205によりNOの判断がなされた場合またはS206の処理が行われた後に、制御がS207へ進み、DB(発話)(図9(a)参照)に、カスタマイズされたデータを記憶する処理が行われる。このような機械学習結果を反映した対話を行うことにより、前述の痴呆症が悪化する前兆のNGiパターンを探り出すことができ、痴呆症が悪化する前になんらかの対処を行うことが可能となる。   Next, the process which transmits the created customization data to the terminal 4 for a care recipient is performed by S201. The care recipient terminal 4 receives the transmitted data in S204, and determines whether or not further customization is performed in S205. For example, when the data received in S204 is the utterance data of “Ask the question of interest”, the care recipient's interest items (for example, hobbies) are stored in the care recipient terminal 4. In such a case, the customization process is performed so as to ask questions such as hobbies of the care recipient (S206). When NO is determined in S205 or after the process of S206 is performed, the control proceeds to S207, and the process of storing the customized data in DB (utterance) (see FIG. 9A) is performed. . By performing such a dialogue reflecting the machine learning result, it is possible to find an NGi pattern of a sign that the aforementioned dementia worsens, and to take some measures before the dementia worsens.

次に、サイトエージェントウェブサーバ11のメインプログラムの制御動作を図13(a)に基づいて説明する。このサイトエージェントウェブサーバ11は、会社PC7とユーザ端末17とに対して通信を行いながら制御動作を実行する。まず、会社PC7がサイトエージェントウェブサーバ11にアクセスして、当該会社の各種情報をカスタマイズ用情報として入力して送信すれば(S210)、サイトエージェントウェブサーバ11は、S212によりそのカスタマイズ用情報を受信し、その情報をデータベースに記憶する処理を行う(S212)。次にサイトエージェントウェブサーバ11は、S213によりウェブページを表示する処理を行い、S214により音声認識処理を行い、S215によりDB検索処理を行い、S216により発話処理を行い、S217によりその他の処理を行って制御がS212に戻る。   Next, the control operation of the main program of the site agent web server 11 will be described with reference to FIG. The site agent web server 11 executes a control operation while communicating with the company PC 7 and the user terminal 17. First, if the company PC 7 accesses the site agent web server 11 and inputs and transmits various information of the company as customization information (S210), the site agent web server 11 receives the customization information through S212. The information is stored in the database (S212). Next, the site agent web server 11 performs processing for displaying a web page in S213, performs voice recognition processing in S214, performs DB search processing in S215, performs speech processing in S216, and performs other processing in S217. Then, the control returns to S212.

S213のウェブページ表示処理では、ユーザ端末17がサイトエージェントウェブサーバ11にアクセスしてウェブページの閲覧を行う処理を行えば(S218)、そのユーザ端末17と通信して会社のウェブページ(ホームページ)をユーザ端末17に送信して閲覧させる処理が実行される。一方、会社PCはS211によりその他の処理が行われ、ユーザ端末17はS219によりその他の処理が行われる。   In the web page display process of S213, if the user terminal 17 accesses the site agent web server 11 and browses the web page (S218), it communicates with the user terminal 17 to communicate with the company web page (homepage). Is transmitted to the user terminal 17 for browsing. On the other hand, the company PC performs other processing in S211 and the user terminal 17 performs other processing in S219.

次に、前述のS210のカスタマイズ用情報入力処理とS212のカスタマイズ用情報記憶処理とのサブルーチンプログラムの制御動作を図13(b)に基づいて説明する。これらの処理は、会社のホームページを作成するための会社情報等をサイトエージェントウェブサーバ11に記憶させるためのものである。まずS225により、会社情報の入力操作が会社PC7により行われたか否かの判断がなされる。入力操作が行われた場合にはS226により、その入力された会社情報をサイトエージェントウェブサーバ11へ送信する処理が行われる。サイトエージェントウェブサーバ11では、S231によりその送信されてきた会社情報を受信し、S232により、その受信した会社情報をカスタマイズDBに記憶する処理が行われる。カスタマイズDBに記憶させる会社情報としては、例えば、図14に示すように、会社概要、業務内容、製品説明等の各種情報である。   Next, the subroutine program control operations of the customization information input process of S210 and the customization information storage process of S212 will be described with reference to FIG. These processes are for causing the site agent web server 11 to store company information for creating a company homepage. First, in S225, it is determined whether or not the company information input operation has been performed by the company PC 7. When an input operation is performed, a process of transmitting the input company information to the site agent web server 11 is performed through S226. The site agent web server 11 receives the transmitted company information in S231, and stores the received company information in the customization DB in S232. As company information stored in the customization DB, for example, as shown in FIG. 14, there are various types of information such as company outline, business content, product description, and the like.

次に、会社PC7により発話内容の入力(または変更)操作があったか否かの判断がなされる(S227)。この発話内容は、会社のホームページに訪れたユーザに対して表示されるサイトエージェントのキャラクターが発話して訪問者と対話するために用意される発話データである。発話内容の入力(または変更)操作があった場合には、制御がS228へ進み、その入力された発話内容をサイトエージェントウェブサーバ11へ送信する処理が行われる。サイトエージェントウェブサーバ11では、その送信されてきた発話内容を受信し(S233)、S234により、その受信した発話内容をカスタマイズDBに記憶する処理(または受信した発話内容に変更する処理)を行う。サイトエージェントウェブサーバ11では、TTS(Text To Speech)システムを採用しており、図14のカスタマイズDB上のテキストデータをリアルタイムで読み上げるため、キャラクターが喋る内容の修正を簡単に行うことができる。なお、このTTS(Text To Speech)システムは、サイトエージェントウェブサーバ11ばかりでなく、要介護者用端末4、社員相談用PC8、来客予約用ウェブサーバ10等にも採用してもよい。   Next, it is determined whether or not the utterance content is input (or changed) by the company PC 7 (S227). This utterance content is utterance data prepared for a site agent character uttered and interacted with a visitor to be displayed to a user visiting a company homepage. If there is an operation for inputting (or changing) the utterance content, the control proceeds to S228, and processing for transmitting the input utterance content to the site agent web server 11 is performed. The site agent web server 11 receives the transmitted utterance content (S233), and performs a process of storing the received utterance content in the customization DB (or a process of changing to the received utterance content) through S234. The site agent web server 11 employs a TTS (Text To Speech) system and reads out the text data on the customization DB in FIG. 14 in real time, so that the contents of the character can be easily corrected. This TTS (Text To Speech) system may be employed not only in the site agent web server 11 but also in the terminal 4 for care recipient, the PC 8 for employee consultation, the web server 10 for customer reservation, and the like.

次に、会社PC7では、サイトエージェントを表すキャラクターをカスタマイズする操作があったか否かの判断がなされる(S229)。そのカスタマイズ操作があった場合にはS230により、そのカスタマイズキャラクターをサイトエージェントウェブサーバ11へ送信する処理が行われる。サイトエージェントウェブサーバ11では、その送信されてきたカスタマイズキャラクターを受信し(S235)、S236によりそのカスタマイズキャラクターをカスタマイズDBに記憶する処理を行う。   Next, the company PC 7 determines whether or not there is an operation for customizing the character representing the site agent (S229). If the customization operation has been performed, a process of transmitting the customized character to the site agent web server 11 is performed in S230. The site agent web server 11 receives the transmitted customized character (S235), and stores the customized character in the customization DB in S236.

図14を参照し、S234によりカスタマイズDBに記憶された発話内容の具体例は、例えば、発話番号「1」の場合には「ようやく春らしくなりましたね、私はシャノンです。」発話番号「2」の場合には「今週はミュージアムでイベントが行われますよ!」等である。またS236により記憶されたカスタマイズキャラクターの具体例としては、図14のカスタマイズキャラクターの欄に記憶されている犬のマークのキャラクター画像等、そのキャラクターの動きを指定する回転やジャンプ等のデータである。   Referring to FIG. 14, a specific example of the utterance contents stored in the customization DB in S234 is, for example, in the case of utterance number “1”, “I finally feel like spring, I am Shannon.” Utterance number “2 "This is an event at the museum this week!" A specific example of the customized character stored in S236 is data such as rotation and jump designating the movement of the character, such as a character image of a dog mark stored in the customized character column of FIG.

次に、前述のS213に示されたウェブページ表示処理のサブルーチンプログラムの制御動作を図15(a)に基づいて説明する。S240によりホームページへのアクセスがあったか否かの判断がなされ、ない場合にはこのウェブページ表示処理が終了する。ユーザがユーザ端末17を操作してサイトエージェントウェブサーバ11にアクセスしてホームページを閲覧する操作を行えば、S240によりYESの判断がなされて制御がS241へ進み、ホームページにキャラクターをオーバーレイしてユーザ端末17に表示させるための制御を行う。その結果、図14のカスタマイズDBにおけるカスタマイズキャラクターの記憶エリアに記憶されている犬のキャラクター画像がホームページにオーバーレイされてユーザ端末17に表示されることとなる。   Next, the control operation of the subroutine program for the web page display process shown in S213 will be described with reference to FIG. In S240, it is determined whether or not there is an access to the home page. If the user operates the user terminal 17 to access the site agent web server 11 and browses the home page, a determination of YES is made in S240 and the control advances to S241, where the character is overlaid on the home page and the user terminal is overlaid. Control for displaying on the screen 17 is performed. As a result, the dog character image stored in the storage area of the customized character in the customization DB in FIG. 14 is overlaid on the home page and displayed on the user terminal 17.

次に、図13(a)のS215に示されたDB検索処理のサブルーチンプログラムの制御動作を図15(b)に基づいて説明する。S245によりページ移動があったか否かの判断がなされる。通常ホームページは、トップページとそのトップページにリンクされた種々のジャンルからなる複数のページとが階層的に用意されており、S245の判断は、それら複数のページのうちの或るページから他のページへ移動する操作をユーザが行ったか否かを判定するものである。ページ移動操作がない場合には制御がS246へ進み、音声認識結果があるか否かの判断がなされ、ない場合にはこのDB検索処理が終了する。   Next, the control operation of the subroutine program for the DB search process shown in S215 of FIG. 13A will be described with reference to FIG. It is determined whether or not the page has been moved in S245. Usually, a home page is hierarchically prepared with a top page and a plurality of pages of various genres linked to the top page. In S245, the determination is made from one of the plurality of pages to another. It is determined whether or not the user has performed an operation of moving to a page. If there is no page movement operation, the control proceeds to S246, where it is determined whether there is a voice recognition result. If there is no page movement operation, this DB search process ends.

前述のS214によるユーザの音声認識処理が行われた結果音声認識結果があると判断された場合には制御がS247へ進み、その音声認識処理の結果解析された意図に対応する発話番号を決定する処理がなされる。この発話番号は、図14のカスタマイズDBにおける発話内容の記憶エリアにその具体例が示されており、種々の発話内容に対応して発話番号1、2、3、4・・・が記憶されている。   If it is determined that there is a voice recognition result as a result of the user's voice recognition process in S214 described above, control proceeds to S247, and an utterance number corresponding to the intention analyzed as a result of the voice recognition process is determined. Processing is done. Specific examples of the utterance numbers are shown in the utterance content storage area in the customization DB of FIG. 14, and utterance numbers 1, 2, 3, 4,... Are stored corresponding to various utterance contents. Yes.

一方、ユーザがユーザ端末17を操作してページ移動操作を行った場合には制御がS248へ進み、移動先のウェブページに応じた発話番号を決定する処理がなされる。例えばイベント情報を掲載したウェブページへの移動操作が行われた場合には発話番号「2」が決定されて「今週はミュージアムでイベントが行われるよ!」のような発話がキャラクターによって発せられる。   On the other hand, when the user operates the user terminal 17 to perform a page moving operation, the control proceeds to S248, and a process for determining an utterance number corresponding to the web page of the moving destination is performed. For example, when a movement operation to a web page on which event information is posted is performed, an utterance number “2” is determined, and an utterance such as “An event will be held at the museum this week!” Is uttered by the character.

S248またはS247の制御の後、S249に進み、決定した発話番号に対応する発話内容とキャラクターの動きとをカスタマイズDBから検索する処理がなされる。例えば、発話番号「1」が選択された場合にはキャラクターの動きも「1」の回転が選択され、犬のマークのキャラクターが回転しながら「ようやく春らしくなりましたね、私はシャノンです。」の発話が発せられる。また発話番号「2」が選択された場合にはキャラクターの動きも「2」のジャンプが選択され、犬のマークのキャラクターがジャンプしながら「今週はミュージアムでイベントが行われるよ!」の発話が発せられる。   After the control of S248 or S247, the process proceeds to S249, and processing for searching the customized DB for the utterance content and the character movement corresponding to the determined utterance number is performed. For example, if the utterance number “1” is selected, the rotation of the character is also selected as “1”, and while the dog mark character rotates, “I finally feel like spring, I am Shannon.” Is uttered. Also, when utterance number “2” is selected, the character movement “2” jump is selected, and the dog mark character jumps while the utterance “There will be an event at the museum this week!” Be emitted.

次に、図13(a)のS216に示した発話処理のサブルーチンプログラムの制御動作を図15(c)に基づいて説明する。S255により、検索された発話内容とキャラクターの動きがあるか否かの判断がなされ、ない場合にはこの発話処理が終了する。前述のS249により発話内容とキャラクターの動きとが既に検索されている場合にはS255によりYESの判断がなされて制御がS256へ進み、発話内容に従って発話しつつキャラクターを動かす制御が行われる。その結果、前述したように、ユーザ端末17に、ホームページ上にオーバーレイされた犬のマークのキャラクターが回転しながら「ようやく春らしくなりましたね、私はシャノンです。」の発話が発せられるように制御される。このS256による制御済みの発話内容とキャラクターの動きとがS257によりクリアされ、次のS258において対話が終了したか否かの判断がなされる。対話が終了していない場合にはこの発話処理が終了するが、対話が終了した段階で制御がS259へ進み、S248またはS247により決定された発話番号をクリアした後この発話処理が終了する。   Next, the control operation of the subroutine program for the speech process shown in S216 of FIG. 13A will be described with reference to FIG. In S255, it is determined whether or not there is a searched utterance content and a character movement. If there is no utterance, the utterance processing is terminated. If the utterance content and the character movement have already been searched for in S249 described above, a determination of YES is made in S255, and the control advances to S256, where control is performed to move the character while speaking according to the utterance content. As a result, as described above, the character of the dog mark overlaid on the home page rotates on the user terminal 17 so that the utterance “I finally feel like spring, I am Shannon” is uttered. Is done. The controlled utterance contents and character movements in S256 are cleared in S257, and it is determined in the next S258 whether or not the dialogue has ended. If the dialog has not ended, the utterance process ends. However, when the dialog ends, control proceeds to S259, and after the utterance number determined in S248 or S247 is cleared, the utterance process ends.

次に、図13のS211に示した会社PCのその他の処理のサブルーチンプログラムの動作制御およびサイトエージェントウェブサーバ11のS217に示したその他の処理のサブルーチンプログラムの制御動作を、図16(a)に基づいて説明する。このその他の処理は、図14のカスタマイズDBにおける発話内容の記憶エリアに記憶されている発話内容のデータを充実させてホームページを訪れたユーザに対し満足のいく対話ができるように改良するためのものである。   Next, FIG. 16 (a) shows the operation control of the subroutine program for other processing of the company PC shown in S211 of FIG. 13 and the control operation of the subroutine program of other processing shown in S217 of the site agent web server 11. This will be explained based on. This other process is to improve the content of the utterance content stored in the utterance content storage area in the customization DB of FIG. 14 so that a satisfactory dialogue can be made for the user who visited the homepage. It is.

まずS269により、音声認識処理(S214)による音声認識の結果解析された意図に対応する発話番号が存在しないか否かの判断がなされる。例えば、全く予期していなかった質問等をユーザが行った場合にその質問に対する発話番号および発話内容が事前にカスタマイズDBに登録されておらず、ユーザの質問意図に対応する発話番号が存在しないこととなる。そのような場合には、サイトエージェントのキャラクター(犬のマーク)はとりあえず「分かりません」等の音声で対応する。そのような場合において、S269によりYESの判断がなされて制御S270へ進み、当該意図と音声とをサイトエージェントウェブサーバ11の記憶装置24に登録する処理が行われる。   First, in S269, it is determined whether or not there is an utterance number corresponding to the intention analyzed as a result of the speech recognition by the speech recognition process (S214). For example, when a user asks a question that was not expected at all, the utterance number and utterance content for the question are not registered in the customization DB in advance, and there is no utterance number corresponding to the user's question intention It becomes. In such a case, the site agent character (the dog's mark) will respond with a voice such as “I don't know” for the time being. In such a case, a determination of YES is made in S269, the process proceeds to control S270, and processing for registering the intention and voice in the storage device 24 of the site agent web server 11 is performed.

一方、会社PC7のその他の処理においては、まずS265により、サイトエージェントウェブサーバの登録情報の閲覧操作があったか否かの判断がなされ、ない場合にはこの処理が終了する。会社PC7を操作してサイトエージェントウェブサーバ11にアクセスして登録情報の閲覧操作を行えば、制御がS266へ進み、閲覧要求をサイトエージェントウェブサーバ11へ送信する処理がなされる。サイトエージェントウェブサーバ11では、その閲覧要求が送信されてくればS271によりYESの判断がなされて制御がS272へ進み、S270により記憶装置24に登録された解析不能意図と音声との登録情報を会社PC7へ送信する処理が行われる。   On the other hand, in the other processing of the company PC 7, first, in S265, it is determined whether or not there has been an operation for browsing the registration information of the site agent web server. If the company PC 7 is operated to access the site agent web server 11 and browse the registered information, the control advances to S266, and a process of transmitting a browse request to the site agent web server 11 is performed. In the site agent web server 11, if the browsing request is transmitted, a determination of YES is made in S 271 and the control advances to S 272, and the registration information of the unanalyzable intention and voice registered in the storage device 24 in S 270 is stored in the company. Processing to transmit to the PC 7 is performed.

会社PC7では、その送信情報をS267により受信し、S268によりその受信した登録情報を会社PC7に表示する制御が行われる。その登録情報すなわちサイトエージェントが対応できなかったユーザの質問等を見た会社のホームページ担当者は、その対応不能なユーザの会話内容にも対応できるように発話内容および発話番号を補充すべくカスタマイズ用情報入力処理(S210)を行う。このようなカスタマイズ用情報の補充入力処理を繰り返し行うことにより、徐々にカスタマイズDBの発話内容が充実し、訪問ユーザに満足を与えることのできる対話が可能となる。   The company PC 7 receives the transmission information in S267, and controls to display the received registration information on the company PC 7 in S268. The person in charge of the company's homepage who sees the registration information, that is, the question of the user that the site agent could not handle, can customize it to supplement the utterance content and utterance number so that it can also handle the conversation content of the user who cannot respond An information input process (S210) is performed. By repeatedly performing such customization information replenishment input processing, the content of utterances in the customization DB is gradually enhanced, and a dialog that can give satisfaction to the visiting user becomes possible.

次に、図16(b)に基づいて、DB検索処理の発展型の制御動作を説明する。このDB検索処理の発展型は、前述した図15(b)に示したDB検索処理を発展させたものである。   Next, an advanced control operation of the DB search process will be described with reference to FIG. This advanced type of DB search process is an extension of the DB search process shown in FIG.

まずS280により、ユーザ用エージェントの来訪があったか否かの判断がなされる。このユーザ用エージェントとは、ある特定のユーザのために動作するソフトウェアエージェントのことであり、当該ユーザと或る一定期間以上対話したり当該ユーザが身に付けているウェアラブルコンピューターからの種々の検出信号を一定期間以上収集することにより、当該ユーザに関する情報(ユーザのプロファイル等)を知識データとして記憶しているソフトウェアエージェントのことである。言うなれば、ユーザの相棒人工知能である。例えば、図16(c)に示すように、ユーザ用エージェント48は、知識データとして、ユーザのプロファイルに関する情報、例えば、生年月日、性別、職業、趣味、好きな音楽、好きな映画・・・等を記憶している。このユーザ用エージェント48は、モバイルエージェントで構成されており、サイトエージェントウェブサーバ11のプレイス46上に移動してそのプレイス46上においてサイトエージェント47と交信(ミーティング)して互いに協調して仕事を行う。つまり、サイトエージェント47とユーザ用エージェント48とによりマルチエージェントシステムが構成されている。   First, in S280, it is determined whether or not a user agent has visited. The user agent is a software agent that operates for a specific user. Various detection signals from a wearable computer worn by the user or interacted with the user for a certain period of time. Is a software agent that stores information related to the user (such as a user's profile) as knowledge data. In other words, it is the user's buddy artificial intelligence. For example, as shown in FIG. 16 (c), the user agent 48 uses information related to the user's profile as knowledge data, such as date of birth, gender, occupation, hobby, favorite music, favorite movie, etc. Etc. are remembered. The user agent 48 is composed of a mobile agent, moves to the place 46 of the site agent web server 11, communicates (meetings) with the site agent 47 on the place 46, and works in cooperation with each other. . That is, the site agent 47 and the user agent 48 constitute a multi-agent system.

モバイルエージェントであるユーザ用エージェント48がサイトエージェントウェブサーバ11のプレイス46上に移動してきたときにS280によりYESの判断がなされて制御がS281へ進む。S281では、サイトエージェント47がユーザ用エージェント48とミーティングしユーザのプロファイルを入手する処理が行われる。次にS282により、その入手したプロファイルに基づいてユーザにマッチする情報を検索して発話番号を決定する処理が行われる。一方、ユーザ用エージェントの来訪がない場合にはS280によりNOの判断がなされて制御がS245(図15(b)参照)に移行する。このような制御を行うことにより、ユーザ用エージェントの来訪がある場合には、そのユーザ用エージェントの知識データを有効利用してホームページ訪問者(ユーザ)にマッチする情報を提供しやすくなるという利点がある。例えば、飲食店のホームページの場合には、ユーザの嗜好を反映した料理のレコメンド等を行うことができる。   When the user agent 48, which is a mobile agent, moves on the place 46 of the site agent web server 11, a determination of YES is made in S280, and the control advances to S281. In S281, the site agent 47 meets with the user agent 48 to obtain a user profile. Next, in S282, a process for searching for information matching the user based on the obtained profile and determining an utterance number is performed. On the other hand, when there is no visit by the user agent, NO is determined in S280 and the control shifts to S245 (see FIG. 15B). By performing such control, when there is a visit by a user agent, there is an advantage that it is easy to provide information matching the homepage visitor (user) by effectively using the knowledge data of the user agent. is there. For example, in the case of a restaurant homepage, it is possible to recommend dishes that reflect the user's preferences.

次に、人工知能が搭載されている社員相談用PC8のメインプログラムの制御動作を図17(a)に基づいて説明する。S290により音声認識処理が行われ、S291により発話処理が行われ、S292によりカスタマイズ用情報入力処理が行われ、S293によりDB検索処理が行われ、S294によりフィードバック学習処理が行われる。   Next, the control operation of the main program of the employee consultation PC 8 equipped with artificial intelligence will be described with reference to FIG. A speech recognition process is performed in S290, an utterance process is performed in S291, a customization information input process is performed in S292, a DB search process is performed in S293, and a feedback learning process is performed in S294.

S290の音声認識処理は図4(b)の音声認識処理とほぼ同様のものであるためにここでは詳細な説明の繰り返しを省略する。この社員相談用PC7は、図17(b)の相談用DBで示すように、回答内容の記憶エリアA、B、C・・・に対応付けてそれぞれの回答内容が記憶されている。
例えば、Aに対応付けて「忌引きは3日休みを貰えるよ。有給休暇は入社2年目から。」
Bに対応付けて「現在開発中の技術はディープラーニングです。」
Cに対応付けて「人事評価基準は・・・」
等である。
Since the speech recognition process in S290 is substantially the same as the speech recognition process in FIG. 4B, detailed description is not repeated here. As shown in the consultation DB in FIG. 17B, the employee consultation PC 7 stores the response contents in association with the response content storage areas A, B, C.
For example, in association with A, “I can get a 3-day off for remorse. Paid leave starts from the second year of joining the company.”
Corresponding to B, “The technology currently under development is deep learning.”
Corresponding to C, "Personnel evaluation criteria is ..."
Etc.

これらA、B、C・・・の各回答内容には、質問に対する社員からの答えに基づいてその回答内容に絞り込むための重み付けm、n、o、p、q・・・が割り振られている。これら重み付けの内容としては、
m:上司に聞きづらい内容
n:勤務規則に関すること
o:特定の部署に関すること
p:研究開発関係
q:人事関係
等である。
Weights m, n, o, p, q,... Are assigned to the contents of the answers A, B, C,. . These weights include:
m: Contents that are difficult to hear from supervisors n: Work rules o: Special departments p: Research and development q: Personnel relations, etc.

これら重み付けは1〜5の5段階で各回答内容に対して重み付け係数として割り振られる。例えば、回答内容Aの「忌引きは3日休みをもらえるよ。有給休暇は入社2年目から。」の場合には、m:上司に聞きづらい内容に対しては最も高い重み付け「5」、n:勤務規則に関することに対しては最も重い重み付け「5」、a:特定の部署に関することに対しては最も軽い重み付け「1」、p:研究開発関係に対しては最も軽い重み付け「1」、q:人事関係に対しては最も軽い重み付け「1」となっている。これらの相談用DBの各記憶データは、後述するカスタマイズ用情報入力処理によって分類されて記憶される。   These weights are assigned as weighting coefficients to the contents of each answer in five stages of 1 to 5. For example, in the case of answer A, “You can get 3 days off for abduction. Paid leave starts from the second year of joining the company.” M: The highest weighting “5” for content that is difficult to ask the boss, n: Heaviest weight “5” for work rules, a: lightest weight “1” for specific departments, p: lightest weight “1” for research and development, q : For personnel relations, the lightest weight is “1”. Each stored data of these consultation DBs is classified and stored by a customization information input process described later.

図17(a)のS291の発話処理のサブルーチンプログラムの制御動作を図18(a)に基づいて説明する。S298により絞り込み段階であるか否かの判断がなされる。この絞り込み段階と、社員相談用PC8にインストールされている人工知能が回答内容を絞り込むために重み付けに関する質問をしている最中であるか否かによって判断され、絞り込み中の質問の最中である場合にはS298によりYESの判断がなされて制御がS299へ進む。   The control operation of the subroutine program for the speech processing in S291 in FIG. 17A will be described with reference to FIG. In S298, it is determined whether or not it is a narrowing-down stage. Judgment is made based on this narrowing-down stage and whether the artificial intelligence installed on the PC 8 for employee consultation is in the middle of asking a question about weighting in order to narrow down the answer contents. In this case, YES is determined in S298, and the control advances to S299.

S299では、重み付けの内容に従って順次発話する処理がなされる。具体的には、図17(b)の相談用DBを参照し、まずmの「上司に聞きづらい内容であるか否か」の質問を社員に対して発話し、次にnの「勤務規則に関することであるか否か」の質問を社員に発話し、次にoの「特定の部署に関することであるか否か」の質問を社員に発話し、次にpの「研究開発関係であるか否か」の質問を社員に対して発話し、次にqの「人事関係であるか否か」の質問を社員に対して発話する。これら質問に対して、社員は1〜5の5段階で回答する。例えばmの「上司に聞きづらい内容であるか否か」の発話に対しては、その通りであれば「5」、多少聞きづらい内容であれば「4」、どちらでもない場合は「3」、割と聞きやすい内容であれば「2」、全く聞きやすい内容であれば「1」と回答する。このように、重み付けの質問を順次発話することによりそれに対する社員からの回答を音声認識処理(S290)により解析する。   In S299, a process of sequentially speaking according to the weighting content is performed. Specifically, referring to the consultation DB shown in FIG. 17B, first, the m question “whether it is difficult for the boss to ask” is given to the employee, and then “n” Talk to employees about whether or not it is, then talk to employees about whether or not it is related to a specific department, and then check whether it is related to research and development. The question “whether” or not is spoken to the employee, and then the question “whether or not it is a personnel relation” q is spoken to the employee. Employees answer these questions in five levels, 1-5. For example, for an utterance of “whether or not it is difficult for the boss to hear”, “5” if it is exactly the same, “4” if it is somewhat difficult to hear, “3” if it is neither, “2” if the content is easy to hear and “1” if the content is easy to hear. In this way, the weighted questions are sequentially spoken, and the answers from the employees are analyzed by the voice recognition process (S290).

ここで、説明の便宜上図18(b)のDB検索処理についても並行して説明する。このDB検索処理は、前述の図17(a)のS293のDB検索処理で示されたサブルーチンプログラムであり、まずS305により、重み付けについての音声認識結果の取得が完了したか否かの判断がなされる。相談用DBの重み付けm、n、o、p、q・・・の全ての重み付けについての質問に対する回答が社員からなされてそれら音声認識結果の取得が完了した段階でS305によりYESの判断がなされてS306へ進み、その取得した重み付けに近い回答内容を相談用DBから検索して取得する処理がなされる。例えば社員からの回答内容が、重み付けmとnとが重い重み付けの回答内容であり、o、p、qが軽い重み付けの回答内容であった場合には、「A」の回答内容が上位にランク付けされることとなる。   Here, for convenience of explanation, the DB search processing of FIG. This DB search process is a subroutine program shown in the DB search process of S293 in FIG. 17A described above. First, in S305, it is determined whether or not the acquisition of the speech recognition result for weighting has been completed. The The answer to the question about all the weights m, n, o, p, q... In the consultation DB is made by the employee, and when the acquisition of the voice recognition results is completed, YES is determined in S305. Proceeding to S306, processing is performed for searching and obtaining the answer contents close to the obtained weighting from the consultation DB. For example, if the answer contents from the employee are weighted answer contents with weights m and n, and o, p, and q are light weighted answer contents, the answer contents of “A” rank higher Will be attached.

次にS308によりDB検索終了フラグONにする処理がなされる。その結果、図18(a)の発話処理では、S300によるDB検索終了フラグがONであるか否かの判断が行われた結果、YESの答えとなり制御がS301へ進むこととなる。S301では、前述のS307によりランク付けされた回答内容を順次発話するとともに表示する制御がなされる。これにより社員の相談に応えることが可能となる。次にS302により、DB検索終了フラグをクリアする処理がなされる。   Next, the DB search end flag is turned on in S308. As a result, in the utterance process of FIG. 18A, as a result of determining whether or not the DB search end flag is ON in S300, the answer is YES and the control proceeds to S301. In S301, control is performed to sequentially speak and display the response contents ranked in S307 described above. This makes it possible to respond to employee consultations. Next, in S302, processing for clearing the DB search end flag is performed.

次に、図17(a)のS293のDB検索処理のサブルーチンプログラムの制御動作を図18(c)に基づいて説明する。このカスタマイズ用情報入力処理は、図17(b)の相談用DBにデータを記憶させるための処理である。まずS310により、回答内容の追加指示があったか否かの判断がなされ、ない場合にはこの処理が終了するが、あった場合にはS311により、追加された回答内容を重み付けとともにDBに記憶する処理がなされる。この追加入力の具体的方法としては、カスタマイズ用情報の入力処理を行おうとするオペレータが通常の社員と同様に社員相談用PC8に対して相談を持ちかけ、それに対して社員相談用PC8にインストールされている人工知能が前述と同様に重み付けに関する質問を順次発話する。オペレータはそれに順次答え、最終的に回答内容がランク付けされてオペレータに提示されることとなる。オペレータはそれを見て、追加したい回答内容があれば追加指示を人工知能に出し、オペレータが回答した重み付けに対応付けて新たに追加した回答内容を相談用DBに追加記録する。   Next, the control operation of the subroutine program for the DB search process of S293 in FIG. 17A will be described with reference to FIG. This customization information input process is a process for storing data in the consultation DB in FIG. First, in S310, it is determined whether or not there is an instruction to add answer contents. If there is not, the process ends. If there is, the process of storing the added answer contents in the DB together with the weighting in S311. Is made. As a specific method of this additional input, an operator who wants to perform customization information input processing consults with the employee consultation PC 8 in the same manner as a normal employee, and is installed on the employee consultation PC 8 in response to the consultation. Artificial intelligence utters questions about weighting sequentially as described above. The operator answers the answer sequentially, and the answer contents are finally ranked and presented to the operator. The operator sees it, and if there is an answer content to be added, issues an addition instruction to the artificial intelligence, and additionally records the newly added answer content in association with the weighted answer by the operator in the consultation DB.

これにより、人工知能との対話を通じて自動的に相談用DBが構築されることになり、オペレータが複雑な階層構造のDBを自ら構築する手間を省く利点がある。   As a result, a consultation DB is automatically constructed through a dialogue with artificial intelligence, and there is an advantage in that it saves the operator from having to construct a complicated hierarchical DB.

次に、図17(a)のS294により示されたフィードバック学習処理のサブルーチンプログラムの制御動作を図18(d)に基づいて説明する。このフィードバック学習処理は、複数の社員からの相談に応じて回答内容をランク付け提示した結果、それを見た社員からの応答に応じて回答内容の重み付けを修正するための制御である。例えば複数(例えば10人以上)の社員の相談に対応して回答内容を提示してその社員が満足した場合に、その複数(10人以上)の社員が重み付けについて回答した回答内容と最初にオペレータがカスタマイズ用情報入力処理の段階で回答した重み付けとがずれている場合に、複数の社員の重み付け回答内容の平均に合わせて重み付けを修正する処理である。   Next, the control operation of the subroutine program for the feedback learning process indicated by S294 in FIG. 17A will be described with reference to FIG. This feedback learning process is a control for correcting the weighting of the answer contents according to the responses from the employees who have seen the answer contents ranked and presented according to the consultations from a plurality of employees. For example, when an employee is satisfied with the response content in response to a consultation with multiple (for example, 10 or more) employees, the response content that the multiple (10 or more) employees answered about weighting and the operator first Is a process of correcting the weighting according to the average of the weighted answer contents of a plurality of employees when the weighting that is answered at the stage of the customization information input process is deviated.

まずS315により、相談者が希望する回答を得たか否か判断し、希望する回答を得ていなかった場合にはこの処理が終了する。一方、相談者が希望する回答を得た場合には制御がS316へ進み、希望する回答の重み付けを修正する必要があるか否か判断する。これを、複数の社員の重み付けに対する回答内容と現時点における相談用DBに記憶されている回答内容に対する重み付けとが許容範囲以上に乖離しているか否かで判断する。許容範囲以上乖離している場合には制御がS317へ進み、重み付けを修正する処理が行われる。   First, in S315, it is determined whether or not the consultant has obtained the desired answer. If the desired answer has not been obtained, this process ends. On the other hand, if the counselor obtains the desired answer, the control advances to S316 to determine whether the weighting of the desired answer needs to be corrected. This is determined based on whether or not the answer contents for the weights of a plurality of employees and the weights for the answer contents stored in the consultation DB at the present time are more than the allowable range. If the deviation is more than the allowable range, the control advances to S317 and a process of correcting the weight is performed.

このフィードバック学習処理により、多数の社員の相談に応じれば応じるほど正確な重み付けに修正することができ、当該会社の社員に適した回答を行うことが可能となる。なお、前述した各回答内容に重み付け係数を付したDBを利用して重み付けに関する質問を順次相談者に発してそれに対する回答から適切な回答内容を絞り込む手法は、社員の相談用に用途が限定されるものではなく、例えば、法律相談、病状からの病名の診断、就職活動の相談等、種々の用途が考えられる。また、最少の質問で適切な回答内容に絞り込むことができるように強化学習を行う機能を設けてもよい。適切な回答内容への絞込みを質問回数が少ないほど高い報酬を与えるようにして強化学習を行う。   With this feedback learning process, the more weighted consultations can be made, the more accurate the weights can be corrected, and answers suitable for the employees of the company can be made. Note that the above-mentioned method of using a DB with weighting coefficients attached to each answer content to sequentially issue questions about weighting to the consultant and narrow down the appropriate answer content from the answers is limited to the use for employee consultation. For example, various uses such as legal consultation, diagnosis of a disease name from a medical condition, and consultation of job hunting can be considered. In addition, a function of performing reinforcement learning may be provided so that the minimum number of questions can be narrowed down to appropriate answer contents. Reinforcement learning is performed by giving a higher reward as the number of questions is reduced to narrow down the appropriate answer contents.

次に、図12のS203等によりアップストアサーバ19へ送信された機械学習の結果情報をユーザが閲覧して購入する制御動作を図19に基づいて説明する。図12のS203により機械学習結果の情報がアップストアサーバ19へ送信されてくれば、S320により学習結果を受信したと判断して制御がS321へ進む。S321ではその受信した学習結果をジャンル別に分類してDBに登録する処理が行われる。   Next, a control operation in which the user browses and purchases the machine learning result information transmitted to the upload server 19 in S203 of FIG. 12 will be described with reference to FIG. If the machine learning result information is transmitted to the up-store server 19 in S203 of FIG. 12, it is determined that the learning result is received in S320, and the control advances to S321. In S321, the received learning result is classified by genre and registered in the DB.

この学習結果をジャンル別に分類して、DBに登録した状態が図1に示されている。学習結果アップストア18のDB20には、例えば介護、幼児教育、・・・等の各種ジャンル別(分類別)に対応して、学習結果が記憶されている。この学習結果は、例えばデータマイニングによって見つけ出されたNGパターンやそれに対応する発話内容等のカスタマイズデータ等からなる。またこの学習結果アップストアにアップロードされる学習結果のジャンルとしては、介護、幼児教育に限定されるものではなく、例えば、うつ病や躁うつ病あるいは精神病の患者に対する学習結果、あるいは、前述した重み付けにより回答を絞り込んで相談に答える方式により学習した学習結果内容(例えば法律相談や病気相談等)をアップロードしてもよい。   FIG. 1 shows a state where the learning results are classified into genres and registered in the DB. The learning results are stored in the DB 20 of the learning result upstore 18 in correspondence with various genres (classifications) such as nursing care, infant education, and so on. The learning result includes, for example, customized data such as an NG pattern found by data mining and utterance content corresponding to the NG pattern. The genre of learning results uploaded to this learning result up-store is not limited to nursing care and early childhood education. For example, learning results for patients with depression, manic depression or psychosis, or the weighting described above. The result of learning (for example, legal consultation or illness consultation) learned by a method of narrowing down answers and answering consultations may be uploaded.

一方、ユーザ端末17では、S330により、ジャンル別学習結果表示サイトへアクセスするか否かの判断がなされ、ユーザがユーザ端末17を操作してアップストアサーバ19にアクセスしジャンル別学習結果表示サイトを閲覧する操作を行えば制御がS331へ進み、閲覧要求をアップストアサーバ19へ送信する処理がなされる。   On the other hand, in step S330, the user terminal 17 determines whether or not to access the genre-specific learning result display site, and the user operates the user terminal 17 to access the up-store server 19 to display the genre-specific learning result display site. If a browsing operation is performed, the control advances to S331, and processing for transmitting a browsing request to the upload server 19 is performed.

アップストアサーバ19では、S322によりジャンル別学習結果の閲覧要求があったか否かの判断がなされ、ユーザ端末17から閲覧要求が送信されてくれば制御がS323へ進み、ジャンル別学習結果表示サイトをユーザ端末17に送信する処理が行われる。   In the upstore server 19, it is determined whether or not there is a request for browsing the learning result by genre in S <b> 322, and if a browsing request is transmitted from the user terminal 17, the control proceeds to S <b> 323 and Processing to transmit to the terminal 17 is performed.

それをS332により受信したユーザ端末17では、制御が333へ進み、その受信したジャンル別学習結果をユーザ端末17に表示する処理がなされる。次にS334により、ユーザが購入操作を行ったか否かの判断がなされる。人工知能による機械学習結果の表示を見たユーザが購入したいものがあればその購入希望の機械学習結果を指定して購入操作を行う。すると、S334によりYESの判断がなされて制御がS335へ進み、その購入要求がアップストアサーバ19へ送信される。アップストアサーバ19では、S324により購入要求を受信したか否かの判断がなされ、ユーザ端末17から購入要求が送信されてくれば制御がS325へ進み、ユーザ端末側のS336による決裁処理とアップストアサーバ19側のS325による決裁処理とで両者間にわたって決裁処理が行われる。   In the user terminal 17 that has received it in S332, the control proceeds to 333, and the received genre-specific learning result is displayed on the user terminal 17. Next, in S334, it is determined whether or not the user has performed a purchase operation. If there is something that the user wants to purchase after seeing the display of the machine learning result by the artificial intelligence, the purchase operation is performed by specifying the machine learning result desired to be purchased. Then, a determination of YES is made in S334, the control proceeds to S335, and the purchase request is transmitted to the upstore server 19. In the upstore server 19, it is determined whether or not a purchase request is received in S324. If a purchase request is transmitted from the user terminal 17, the control proceeds to S325, and the approval process and upstore in S336 on the user terminal side are performed. In the approval process in S325 on the server 19 side, the approval process is performed between the two.

次にS326により要求された学習結果をユーザ端末17へ送信する処理が行われる。ユーザ端末17では、S337によりその学習結果をダウンロードする。   Next, a process of transmitting the learning result requested in S326 to the user terminal 17 is performed. In the user terminal 17, the learning result is downloaded in S337.

アップストアサーバ19を設置している学習結果アップストア18を運営する業者は、人工知能による機械学習の結果データを生成する各種分野の機械学習業者からの機械学習結果データを受付けてユーザに販売するビジネスを展開する者であり、言うなれば、機械学習のプラットフォーム事業を行う業者である。多数の機械学習業者がこのプラットフォーム上でプレイして各種機械学習の結果データを生成してアップロードし、ユーザに気に入られた機械学習結果データのみがユーザにダウンロードされて購入される。つまり、このプラットフォーム上において、自由競争による自然淘汰の市場原理が支配する生態系(エコシステム)が育成される。これにより、機械学習結果データの流通市場が新たに誕生し、より市場が望む優れた機械学習結果データがアップロードされて流通し、人工知能の機械学習分野の飛躍的な発展を促すことができる。   A company operating the learning result up-store 18 in which the up-store server 19 is installed accepts machine learning result data from machine learning companies in various fields that generate machine learning result data by artificial intelligence and sells it to the user. It is a person who develops a business, in other words, a contractor who conducts a machine learning platform business. Many machine learning companies play on this platform to generate and upload various machine learning result data, and only the machine learning result data that the user likes is downloaded and purchased by the user. In other words, on this platform, an ecosystem (ecosystem) that is governed by the natural principle of natural selection by free competition is nurtured. As a result, a new distribution market of machine learning result data is created, and excellent machine learning result data desired by the market is uploaded and distributed, which can promote dramatic development of the machine learning field of artificial intelligence.

この機械学習プラットフォームが対象とする機械学習結果データのジャンルは、例えば、法律相談用、病状から病名を絞り込むもの、食事の献立用、観光スポットの選択用、デートコースの選択用、人工知能による家庭教師、囲碁や将棋やチェス等の上達訓練用等、どのようなものであってもよい。
なお、機械学習結果データを、OS部分(基本データ部分)とアプリケーションデータ部分とに分類し、OS部分(基本データ部分)はユーザ端末やサーバに組み込むかあるいはクラウド上からOS部分(基本データ部分)の機能やサービスを提供し、アプリケーションデータ部分のみ学習結果アップストア18(アップストアサーバ19)にアップロードさせて、流通させるように構成してもよい。また、OS部分(基本データ部分)とアプリケーションデータ部分とに分類する代わりに、各ユーザのためにカスタマイズ(パーソナライズ)が必要な部分とカスタマイズ(パーソナライズ)が不要な部分とに分類してもよい。
The genre of machine learning result data targeted by this machine learning platform is, for example, for legal consultation, to narrow down disease names from medical conditions, for meal menus, for sightseeing spot selection, for date course selection, for homes using artificial intelligence Anything may be used, such as for teachers, go, shogi, chess, etc.
The machine learning result data is classified into an OS part (basic data part) and an application data part, and the OS part (basic data part) is incorporated into a user terminal or server, or the OS part (basic data part) from the cloud. These functions and services may be provided, and only the application data portion may be uploaded to the learning result upstore 18 (upstore server 19) for distribution. Further, instead of classifying into an OS part (basic data part) and an application data part, it may be classified into a part that requires customization (personalization) and a part that does not require customization (personalization) for each user.

上記の機械学習プラットフォームの発明は、以下の構成を有している。
人工知能による機械学習の結果データのアップロードを受付けるためのアップロード受付け手段(例えば、S320)と、
該アップロード受付け手段により受付けた機械学習の結果データを蓄積するための蓄積手段(例えば、S321)と、
前記蓄積手段が蓄積している機械学習の結果データをウェブページに表示するための表示手段(例えば、S323)と、
前記ウェブページを閲覧したユーザが前記機械学習の結果データを使用したい場合にその要求(例えば、購入要求等)を受付ける要求受付け手段(例えば、S324)と、
該要求受付け手段により要求が受付けられた場合に該要求を出したユーザに対して決済を行うための決済手段(例えば、S325)と、
前記要求受付け手段により受付けられた要求の対象である前記機械学習の結果データの所有権を購入ユーザに移転するための移転手段(例えば、S326)と、を備える、機械学習用マーケットプレイスシステム。
The invention of the machine learning platform has the following configuration.
Upload accepting means (eg, S320) for accepting upload of result data of machine learning by artificial intelligence;
Storage means (for example, S321) for storing machine learning result data received by the upload reception means;
Display means (for example, S323) for displaying the machine learning result data stored in the storage means on a web page;
Request accepting means (for example, S324) for accepting the request (for example, purchase request) when the user who browsed the web page wants to use the result data of the machine learning;
A payment means (for example, S325) for making a payment to the user who issued the request when the request is accepted by the request acceptance means;
A machine learning marketplace system comprising: transfer means (for example, S326) for transferring ownership of the machine learning result data, which is a target of the request received by the request receiving means, to a purchase user.

また、機械学習用マーケットプレイスシステムは、前記移転手段の代わりにまたは前記移転手段に加えて、前記要求受付け手段により受付けられた要求の対象である前記機械学習の結果データを当該ユーザに貸渡すための貸渡し手段を備えてもよい。また、機械学習用マーケットプレイスシステムは、前記移転手段の代わりにまたは前記移転手段に加えて、前記要求受付け手段により受付けられた要求の対象である前記機械学習の結果データを当該ユーザに使用許諾するめの許諾手段を備えてもよい。このような場合に、前記機械学習の結果データは当該ユーザが人工知能に活用することによって該ユーザにマッチしたよりパーソナライズされたものになる。よって、ユーザに貸渡す(または使用許諾する)場合は、貸渡す(または使用許諾する)前のオリジナルの機械学習結果データを保存した上で、当該ユーザ専用の機械学習結果データを別途保存し、当該ユーザ専用の機械学習結果データを当該ユーザの使用のみに供するように制御する。その結果、使用すればするほど当該ユーザにパーソナライズされた機械学習結果データとなり、当該ユーザにマッチする仕事を行ってくれる人工知能に育成することができる。   In addition, the machine learning marketplace system provides the user with the result data of the machine learning that is the target of the request received by the request receiving unit instead of or in addition to the transfer unit. The lending means may be provided. In addition, the machine learning marketplace system permits the user to use the machine learning result data, which is the target of the request received by the request receiving means, instead of or in addition to the transferring means. May be provided. In such a case, the result data of the machine learning becomes more personalized by matching the user by utilizing the user for artificial intelligence. Therefore, when lending (or licensing) to a user, after storing the original machine learning result data before lending (or licensing), separately storing the machine learning result data dedicated to the user, Control is performed so that machine learning result data dedicated to the user is used only by the user. As a result, the more it is used, the more it becomes machine learning result data personalized to the user, and it can be nurtured into artificial intelligence that performs work that matches the user.

また、購入ユーザに所有権が移転された前記機械学習の結果データを活用するための人工知能エンジンの所有権を前記購入ユーザに移転するための人工知能エンジン移転手段をさらに備えてもよい。   Moreover, you may further provide the artificial intelligence engine transfer means for transferring the ownership of the artificial intelligence engine for utilizing the machine learning result data to which the ownership is transferred to the purchase user to the purchase user.

また、前記人工知能エンジン移転手段の代わりにまたは前記人工知能エンジン移転手段に加えて、前記人工知能エンジンを前記購入ユーザに貸渡すための人工知能エンジン貸渡し手段を備えてもよい。また、前記人工知能エンジン移転手段の代わりにまたは前記人工知能エンジン移転手段に加えて、前記人工知能エンジンを前記購入ユーザに使用許諾すための使用許諾手段を備えてもよい。   Further, instead of the artificial intelligence engine transfer means or in addition to the artificial intelligence engine transfer means, an artificial intelligence engine lending means for lending the artificial intelligence engine to the purchase user may be provided. Further, instead of the artificial intelligence engine transfer means or in addition to the artificial intelligence engine transfer means, a use permission means for permitting the purchase user to use the artificial intelligence engine may be provided.

また、前記機械学習の結果データおよび前記人工知能エンジンの少なくとも一方を、クラウド上において前記ユーザのために使用するためのクラウド上使用手段をさらに備えてもよい。   Moreover, you may further provide the use means on the cloud for using at least one of the result data of the machine learning and the artificial intelligence engine for the user on the cloud.

次に、以上説明した実施形態の変形例を記載する。
(1)要介護者宅5の壁や天井にマイクロホンアレイを設置し、要介護者(ユーザ)の音声をそのマイクロホンアレイで収集して要介護者用端末4による音声認識処理(図8のS110等)を行うようにしてもよい。マイクロホンアレイは、複数のマイクロホンが収集した音声信号に基づいて音源分離を行って所定距離からの音声信号を除去する機能を有している。この機能により、音声認識処理(図8のS110等)において要介護者の音声をその他の音声(雑音)から峻別し、峻別された音声に基づいて音声認識を行う。これにより、雑音に惑わされることなく要介護者(ユーザ)の音声認識の精度を向上させることができる利点がある。マイクロホンアレイによる雑音抑圧機能は、フレーム間連立方程式解による2点受音音源分離手法を応用することで、2つのマイクロホンから直線上に存在する雑音の除去を行うものである。フレーム間連立方程式解による2点受音音源分離手法は、マイクロホン間の遅延を補正すると、2つのマイクロホンで録音される信号がそれぞれ音源の距離減衰の和となることで、2つの信号の重み係数と引き算によって一定距離からの信号を除去できる手法である。時間領域での処理が可能であり、単純な引き算で信号の除去が行えることから、計算コストを抑えた小型デバイスでの実現が期待できる利点がある。
Next, a modification of the embodiment described above will be described.
(1) A microphone array is installed on the wall or ceiling of the home 5 requiring care, voices of care recipients (users) are collected by the microphone array, and voice recognition processing by the care recipient terminal 4 (S110 in FIG. 8). Etc.) may be performed. The microphone array has a function of performing sound source separation based on audio signals collected by a plurality of microphones and removing audio signals from a predetermined distance. With this function, the voice of the care recipient is discriminated from other voices (noise) in the voice recognition process (S110 in FIG. 8, etc.), and voice recognition is performed based on the classified voice. Thereby, there exists an advantage which can improve the precision of voice recognition of a care recipient (user), without being confused by noise. The noise suppression function by the microphone array is to remove noise existing on a straight line from two microphones by applying a two-point received sound source separation method based on a simultaneous equation solution between frames. The two-point sound source separation method based on the simultaneous inter-frame equation solution corrects the delay between the microphones, and the signals recorded by the two microphones become the sum of the distance attenuations of the sound sources. And subtracting the signal from a certain distance. Since processing in the time domain is possible and signal can be removed by simple subtraction, there is an advantage that it can be expected to be realized with a small device with reduced calculation cost.

汎用マイクロホンの環境は、周囲のシステムも含めて性能差が大きく、また、コンピュータの機種によってデバイス・ドライバを個別に構築する手間がかかる。このような不都合を解消するべく、上記マイクロホンアレイシステムでは、マイクロホン本体に実時間信号処理装置を組み込む。これにより、USBオーディオによる汎用ドライバを使い、MacやWindowsをはじめ、Linuxマシンのいずれでも利用できるようになる効果が奏される。   The general-purpose microphone environment has a large performance difference including surrounding systems, and it takes time and effort to individually construct device drivers depending on the type of computer. In order to eliminate such inconvenience, the microphone array system incorporates a real-time signal processing device in the microphone body. As a result, a general-purpose driver using USB audio can be used on any Mac machine, Windows machine, or Linux machine.

(2)さらに、要介護者宅5の壁や天井などの複数箇所に設置したマイクロホンを用いた室内の音源位置推定を行い、音源位置情報を音声認識システムに予め読み込ませることで、同一音源からの音声を検出できるようにし、音声認識処理(図8のS110等)による音声認識率の向上と会話内容の高精度な認識とを実現するようにしてもよい。例えば、要介護者宅5の或る特定位置から発せられるテレビの音源位置情報を音声認識システムに予め読み込ませ、テレビの音源位置からの音声(雑音)を除去するように制御する。 (2) Further, the sound source position in the room is estimated using microphones installed at a plurality of locations such as the walls and ceiling of the home requiring care 5 and the sound source position information is read in advance by the voice recognition system so that the same sound source can be used. May be detected, and an improvement in the speech recognition rate and a highly accurate recognition of the conversation content may be realized by a speech recognition process (S110 in FIG. 8, etc.). For example, the sound source position information of the television emitted from a certain position of the care recipient's home 5 is read in advance by the voice recognition system, and control is performed so as to remove the sound (noise) from the sound source position of the television.

(3)上記フレーム間連立方程式解による2点受音音源分離手法に代えてまたはそれに加えて、マイクロホンの数を増やし、独立成分分析を用いた一般的な音源分離手法を導入してもよい。独立成分分析とは、多変量の信号を複数の加法的な成分に分離するための計算手法であり、各成分は、ガウス的でない信号で相互に統計的独立なものを想定する。これはブラインド信号分離の特殊な場合である。 (3) Instead of or in addition to the two-point received sound source separation method based on the inter-frame simultaneous equation solution, a general sound source separation method using independent component analysis may be introduced by increasing the number of microphones. Independent component analysis is a calculation method for separating a multivariate signal into a plurality of additive components, and each component is assumed to be a non-Gaussian signal and statistically independent from each other. This is a special case of blind signal separation.

(4)また、不特定話者音声認識システムにより多数話者の発生データを用いて学習された母音および子音の音響パターンを含む一般的認識基準をデータベースに記憶しておき、要介護者(ユーザ)からサンプルとして収集した音声に含まれる音響的性質に基づいて上記一般的認識基準を変形して話者適応を行ってもよい。この話者適応を行って変形された認識基準をデータベースに記憶しておき、この変形された認識基準を用いて音声認識処理(図8のS110等)による音声認識を行い、音声認識率の向上と会話内容の高精度な認識とを実現するようにしてもよい。この話者適応は、ガウス混合分布モデルを用いる音声認識においての話者適応でもよく、また、ディープニューラルネットワーク(ディープラーニング)を用いて行ってもよい。 (4) Further, general recognition criteria including vowels and consonant acoustic patterns learned using the data generated by a large number of speakers by an unspecified speaker speech recognition system are stored in a database, and care recipients (users) The general recognition criteria may be modified based on the acoustic properties included in the speech collected as a sample from (1) to perform speaker adaptation. The recognition criterion modified by the speaker adaptation is stored in the database, and speech recognition is performed by the speech recognition process (S110 in FIG. 8) using the modified recognition criterion, thereby improving the speech recognition rate. And highly accurate recognition of conversation contents may be realized. This speaker adaptation may be speaker adaptation in speech recognition using a Gaussian mixture distribution model, or may be performed using a deep neural network (deep learning).

(5)本実施形態で示した音声認識処理(例えば、図4(b)、図5(a)のS51、図8のS111、図17のS290等)において、同義語を同値化して認識する同義語認識機能を設けてもよい。動詞の変形に対応するバッファーを実装し、例えば、ユーザが「飲んでないですよ」と言っても「飲んでいない」と同義語と認識するように制御する。動詞の変形に対応するバッファーとしては、例えば以下のような同義語一覧データを記憶し、「飲んでない」および「飲んでいない」は共に「飲む」に対する否定的な語意であると認識する。
[動詞基本形] [動詞変形] [肯定(1)/否定(2)]
飲む 飲んだり 1
飲む 飲んでる 1
飲む 飲んでいる 1
飲む 飲んだ 1
飲む 飲みたい 1
飲む 飲むな 2
飲む 飲んでない 2
飲む 飲んでいない 2
: : :
(5) In the speech recognition processing shown in this embodiment (for example, S51 in FIG. 4B, S51 in FIG. 5A, S111 in FIG. 8, S290 in FIG. 17, etc.), synonyms are made equivalent and recognized. A synonym recognition function may be provided. A buffer corresponding to the deformation of the verb is implemented, and for example, even if the user says "I don't drink", it is controlled so that it is synonymous with "I don't drink". As a buffer corresponding to the deformation of the verb, for example, the following synonym list data is stored, and “do not drink” and “do not drink” are both recognized as negative words for “drink”.
[Verb basic form] [Verb variant] [Affirmation (1) / Negation (2)]
Drinking drinking 1
Drinking drinking 1
Drinking drinking 1
Drunk drunk 1
I want to drink 1
Do not drink 2
Drink not drink 2
Drink not drink 2
:::

(6)本実施形態で示したカスタマイズ用情報入力処理(図3(c)、図8のS110、図13のS210等)の変形例として、例えば図20に示す直感的な管理画面による入力にしてもよい。図20は、図8のS110の場合のカスタマイズ用情報入力処理の変形例を示しており、要介護者用端末4または介護事業者のPC16のディスプレーに表示される入力用管理画面の図である。図20に示すように、管理画面上に吹き出しを表示してその吹き出し内にユーザへの発話内容を入力すると共に、ユーザへの質問の吹き出しに対しユーザの返答内容に応じて枝分かれして各枝分かれ先に更なる発話内容エリアを表示する。具体的には、吹き出し内に「お元気ですか?」の発話内容を入力し、YESの矢印とNOの矢印とに分岐し、YES矢印の先の吹き出し内に「よかったです。」の発話内容を入力し、NO矢印の先の吹き出し内に「家族に連絡しますか?」の発話内容を入力する。このように、管理画面上に、吹き出し等の発話内容エリアと、ユーザへの質問の発話内容エリア(吹き出し)に対しユーザのYES,NOの返答内容に応じて矢印で枝分かれして各枝分かれ先に更なる発話内容エリア(吹き出し)を表示して入力するために、直感的な管理画面による入力が可能となり、会話内容を自由に入力編集できる利点がある。この直感的な管理画面による入力は、図8のS110に示した介護エージェント用の会話内容入力に限らず、受付エージェント用、来客予約用、サイトエージェント用等、種々の用途の会話内容入力に適用できる。 (6) As a modification of the customization information input process (FIG. 3C, S110 in FIG. 8, S210 in FIG. 13, etc.) shown in the present embodiment, for example, the input is made on the intuitive management screen shown in FIG. May be. FIG. 20 shows a modification of the customization information input process in the case of S110 in FIG. 8, and is a diagram of an input management screen displayed on the display of the terminal 4 for the care recipient or the PC 16 of the care provider. . As shown in FIG. 20, a speech balloon is displayed on the management screen, and the utterance content to the user is input into the speech balloon, and the branch of the speech balloon of the question to the user is branched according to the content of the user's reply. First, a further utterance content area is displayed. Specifically, the utterance content of “How are you?” Is input in the speech balloon, the branch is divided into a YES arrow and a NO arrow, and the utterance content of “Good” is in the speech balloon ahead of the YES arrow. And the content of the utterance "Do you want to contact your family?" In this way, on the management screen, the utterance content area such as a speech balloon and the utterance content area of the question to the user (speech balloon) are branched by arrows according to the response contents of the user's YES, NO, and each branch destination. In order to display and input a further utterance content area (speech balloon), it is possible to input by an intuitive management screen, and there is an advantage that the conversation content can be freely input and edited. This intuitive management screen input is not limited to the conversation content input for the care agent shown in S110 of FIG. 8, but is applied to the conversation content input for various purposes such as reception agent, visitor reservation, and site agent. it can.

上記のようにして入力された会話内容(発話内容)はデータベース(例えば、要介護者用端末4のEEPROM36のDB(発話)等)に記憶され、前述したTTS(Text To Speech)システムによりリアルタイムで読み上げられる。具体的には、例えば図8のS112のDB検索処理により先ず「お元気ですか?」の発話内容(テキストデータ)を検索してS113の発話処理により「お元気ですか?」のテキストデータを読み上げる。それに対する要介護者(ユーザ)の返答をS111の音声認識処理で認識し、肯定的な返答(YES)か否定的な返答(NO)かを判定する。肯定的な返答(YES)の場合にはYES矢印の先の「良かったです。」の発話内容(テキストデータ)を検索してそれを読み上げる一方、否定的な返答(NO)の場合にはNO矢印の先の「家族に連絡しますか?」の発話内容(テキストデータ)を検索してそれを読み上げる。   The conversation content (speech content) input as described above is stored in a database (for example, the DB (speech) of the EEPROM 36 of the terminal 4 for care recipient) and is real-time by the TTS (Text To Speech) system described above. Read aloud. Specifically, for example, the utterance content (text data) of “How are you?” Is first searched by the DB search process of S112 of FIG. 8, and the text data of “How are you?” Is acquired by the utterance process of S113. Read aloud. The response of the care recipient (user) to that is recognized by the voice recognition process of S111, and it is determined whether the response is a positive response (YES) or a negative response (NO). In the case of an affirmative response (YES), the utterance content (text data) of “It was good” ahead of the YES arrow is searched and read out, while in the case of a negative response (NO), NO Search for the utterance content (text data) of "Do you want to contact your family" at the end of the arrow and read it out.

(7)本実施形態で示した各種エージェント等の人工知能は、API(Application Programming Interface)化して、人工知能製作会社以外の他社のロボットやタブレット等に搭載して使える汎用性のあるものにしてもよい。また、人工知能をクラウド化してクラウドコンピューティングサービスとしてユーザに提供するようにしてもよい。その際、クラウド側の人工知能はカスタマイズされていない汎用的なものにしておき、前述した各種用途に応じたカスタマイズ用情報をユーザ自身または専門業者が入力してクラウド側のデータベースあるいはユーザ端末側のデータベースに記憶しておく。ユーザがユーザ端末あるいはロボットを介してクラウド側の人工知能を利用する際に、当該ユーザのカスタマイズ用情報をデータベースから読み出してそのカスタマイズ用情報を用いて上記汎用型の人工知能を動作させる。その結果、クラウド側の汎用人工知能でありながらも利用するユーザにカスタマイズされた人工知能サービスを提供できる利点がある。 (7) Artificial intelligence such as various agents shown in this embodiment is made into an API (Application Programming Interface), which is versatile and can be used on robots or tablets of other companies other than artificial intelligence production companies. Also good. Further, artificial intelligence may be converted into a cloud and provided to the user as a cloud computing service. At that time, the artificial intelligence on the cloud side should be generalized that has not been customized, and the user himself or a specialist will input the information for customization according to the various applications described above, and the database on the cloud side or the user terminal side Store it in the database. When a user uses artificial intelligence on the cloud side via a user terminal or a robot, the user's customization information is read from the database and the general-purpose artificial intelligence is operated using the customization information. As a result, although it is general-purpose artificial intelligence on the cloud side, there is an advantage that a customized artificial intelligence service can be provided to the user who uses it.

以上、本発明の実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。   As mentioned above, although embodiment of this invention was explained in full detail, this invention is not limited to these embodiment, A various change is possible in the range which does not deviate from the meaning of this invention.

1 インターネット
2 会社の受付用PC
3 予約設定枠用PC
4 要介護者用端末
5 要等介護者宅
6 ワイヤレスセンサネットワーク
7 会社PC
8 社員相談用PC
9 人工知能サービス会社
10 来客予約用ウェブサーバ
11 サイトエージェントウェブサーバ
12 集中管理サーバ
13 人工知能サーバ
14 学習DB
15 人工知能DB
16 各種専門業者のPC
17 ユーザ端末
18 学習結果アップストア
19 アップストアサーバ
20 データベース
1 Internet 2 Company reception PC
3 PC for reservation setting frame
4 Caregiver terminal 5 Caregiver home 6 Wireless sensor network 7 Company PC
8 PC for employee consultation
9 Artificial Intelligence Service Company 10 Customer Reservation Web Server 11 Site Agent Web Server 12 Central Management Server 13 Artificial Intelligence Server 14 Learning DB
15 Artificial Intelligence DB
16 PCs of various specialists
17 User terminal 18 Learning result upstore 19 Upstore server 20 Database

Claims (6)

ソフトウェアエージェントを利用して人に対し音声により対応するコンピュータシステムであって、
人の音声を認識するための音声認識手段と、
前記音声認識手段による認識結果に対応した発話を行うための発話手段と、
発話内容を生成するための情報をデータベースとして記憶する記憶手段と、
前記記憶手段に記憶されている情報を用いて発話内容を生成するための発話内容生成手段と、を備え、
前記発話手段は、前記発話内容生成手段により生成された発話内容に応じた発話を行い、
前記記憶手段は、ユーザが前記ソフトウェアエージェントを用いる特定の用途にカスタマイズされた情報を入力して記憶可能である、コンピュータシステム。
A computer system that uses a software agent to respond to a person by voice,
Speech recognition means for recognizing human speech;
Utterance means for performing utterance corresponding to the recognition result by the voice recognition means;
Storage means for storing information for generating utterance contents as a database;
Utterance content generation means for generating utterance content using information stored in the storage means,
The utterance means performs an utterance according to the utterance content generated by the utterance content generation means,
The storage means is a computer system in which a user can input and store information customized for a specific application using the software agent.
前記音声認識手段は、ユーザの音声をその他の音声から峻別するための峻別手段を含み、該峻別手段により峻別された音声に基づいて音声認識を行い、
前記峻別手段は、複数のマイクロホンが収集した音声信号に基づいて音源分離を行って所定距離からの音声信号を除去するためのマイクロホンアレイを有する、請求項1に記載のコンピュータシステム。
The voice recognition means includes a discrimination means for discriminating the user's voice from other voices, performs voice recognition based on the voice distinguished by the discrimination means,
The computer system according to claim 1, wherein the distinction unit includes a microphone array for performing sound source separation based on audio signals collected by a plurality of microphones and removing an audio signal from a predetermined distance.
前記記憶手段は、ユーザが前記ソフトウェアエージェントを用いる特定の用途にカスタマイズされた情報を管理画面上で入力するための入力操作手段を含み、
前記入力操作手段は、前記管理画面上に発話内容エリアを表示して該発話内容エリア内にユーザへの発話内容を入力すると共に、ユーザへの質問の発話内容エリアに対しユーザの返答内容に応じて枝分かれして各枝分かれ先に更なる発話内容エリアを表示し、該発話内容エリア内に前記返答内容に応じた発話内容を入力する流れ図型入力手段を有し、
前記発話内容生成手段は、前記流れ図型入力手段により入力された流れ図に沿って順次発話内容エリア内の発話内容を生成する手段を含む、請求項1または2に記載のコンピュータシステム。
The storage means includes an input operation means for a user to input information customized for a specific application using the software agent on a management screen,
The input operation means displays an utterance content area on the management screen and inputs the utterance content to the user in the utterance content area, and responds to the utterance content area of the question to the user according to the response content of the user Branching and displaying a further utterance content area at each branch destination, and having a flowchart type input means for inputting the utterance content according to the response content in the utterance content area,
The computer system according to claim 1 or 2, wherein the utterance content generation means includes means for generating utterance contents in an utterance content area sequentially along the flowchart input by the flowchart type input means.
前記記憶手段は、前記ソフトウェアエージェントを来訪者の受付けに利用するために従業員の名前と当該従業員を呼び出すための電話番号とを対応付けて記憶し、
来訪者がしゃべった面談相手の名前が前記音声認識手段により認識されたときに、当該名前に対応する前記電話番号を前記記憶手段から割出して当該電話番号の従業員を電話で呼び出すための自動呼出し手段をさらに備える、請求項1〜3の何れかに記載のコンピュータシステム。
The storage means stores the name of an employee and a telephone number for calling the employee in association with each other in order to use the software agent for accepting a visitor,
When the name of the interviewee spoken by the visitor is recognized by the voice recognition means, an automatic for indexing the telephone number corresponding to the name from the storage means and calling the employee of the telephone number by telephone The computer system according to claim 1, further comprising a calling unit.
前記音声認識手段による認識結果と前記発話手段による発話内容とからなる対話履歴データを複数のソフトウェアエージェントからネットワークを介して収集し蓄積するためのデータ蓄積手段と、
前記データ蓄積手段による蓄積データを機械学習データとして用いて機械学習するための機械学習手段と、
前記機械学習手段による機械学習結果を前記ソフトウェアエージェントに提供するための提供手段と、をさらに備え、
前記ソフトウェアエージェントは、前記提供された機械学習結果を前記発話内容生成手段による発話内容の生成に反映させるための制御を行う、請求項1〜3の何れかに記載のコンピュータシステム。
Data accumulation means for collecting and accumulating dialogue history data consisting of recognition results by the voice recognition means and utterance contents by the utterance means from a plurality of software agents via a network;
Machine learning means for machine learning using the accumulated data by the data accumulation means as machine learning data;
Providing means for providing a machine learning result by the machine learning means to the software agent;
The computer system according to claim 1, wherein the software agent performs control for reflecting the provided machine learning result in generation of utterance content by the utterance content generation unit.
ソフトウェアエージェントを利用して人に対し音声により対応するプログラムであって、
コンピュータに、
人の音声を認識するための音声認識手段と、
人に対し発話を行うための発話手段と、
前記音声認識手段による認識結果に対応した発話内容を生成するための情報をデータベースとして記憶する記憶手段と、
前記記憶手段に記憶されている情報を用いて前記音声認識手段による認識結果に対応した発話内容を生成するための発話内容生成手段と、して機能させ、
前記発話手段は、前記発話内容生成手段により生成された発話内容に応じた発話を行い、
前記記憶手段は、ユーザが前記ソフトウェアエージェントを用いる特定の用途にカスタマイズされた情報を入力して記憶可能である、プログラム。
A program that uses software agents to respond to people by voice,
On the computer,
Speech recognition means for recognizing human speech;
Utterance means for speaking to people,
Storage means for storing, as a database, information for generating utterance content corresponding to the recognition result by the voice recognition means;
Using the information stored in the storage means to function as utterance content generation means for generating utterance contents corresponding to the recognition result by the voice recognition means,
The utterance means performs an utterance according to the utterance content generated by the utterance content generation means,
The storage means is a program in which a user can input and store information customized for a specific application using the software agent.
JP2015180852A 2015-09-14 2015-09-14 Computer system and program Pending JP2017058406A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015180852A JP2017058406A (en) 2015-09-14 2015-09-14 Computer system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015180852A JP2017058406A (en) 2015-09-14 2015-09-14 Computer system and program

Publications (1)

Publication Number Publication Date
JP2017058406A true JP2017058406A (en) 2017-03-23

Family

ID=58390262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015180852A Pending JP2017058406A (en) 2015-09-14 2015-09-14 Computer system and program

Country Status (1)

Country Link
JP (1) JP2017058406A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016061A (en) * 2017-07-04 2019-01-31 株式会社Nttドコモ Information processing unit and program
JP2019192123A (en) * 2018-04-27 2019-10-31 エヌ・ティ・ティ・コミュニケーションズ株式会社 Admission management system, data center, and admission management method
JP2020024385A (en) * 2018-07-10 2020-02-13 タタ・コンサルタンシー・サーヴィシズ・リミテッド Analysis of conceptual anaphoric instructions in conversational system using hierarchical laminated neural networks
WO2020075270A1 (en) * 2018-10-11 2020-04-16 株式会社ウフル Machine learning model switching system, machine learning model switching method, and program
WO2020075271A1 (en) * 2018-10-11 2020-04-16 株式会社ウフル Machine learning model switching system, machine learning model switching method, and program
JP2021039677A (en) * 2019-09-05 2021-03-11 株式会社日本総合研究所 Information processing method, program, and information processing device
JP2021086549A (en) * 2019-11-29 2021-06-03 Necソリューションイノベータ株式会社 Interactive type information acquisition apparatus, interactive type information acquisition method, program and recording medium
JP2021092727A (en) * 2019-12-12 2021-06-17 一般社団法人It&診断支援センター・北九州 Support robot for person living alone
JP2021108142A (en) * 2016-05-06 2021-07-29 ソニーグループ株式会社 Information processing system, information processing method, and information processing program
JP7505730B2 (en) 2019-11-14 2024-06-25 株式会社アクセル Inference system, information processing device, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053251A (en) * 2001-11-13 2004-02-19 Equos Research Co Ltd In-vehicle device, data creating device and data creation program
JP2006039120A (en) * 2004-07-26 2006-02-09 Sony Corp Interactive device and interactive method, program and recording medium
JP2010079103A (en) * 2008-09-26 2010-04-08 Brother Ind Ltd Voice interactive apparatus, program for the same, and voice interactive processing method
JP2011516934A (en) * 2008-01-16 2011-05-26 クゥアルコム・インコーポレイテッド Method and apparatus for interactive ticker
JP2012234150A (en) * 2011-04-18 2012-11-29 Sony Corp Sound signal processing device, sound signal processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053251A (en) * 2001-11-13 2004-02-19 Equos Research Co Ltd In-vehicle device, data creating device and data creation program
JP2006039120A (en) * 2004-07-26 2006-02-09 Sony Corp Interactive device and interactive method, program and recording medium
JP2011516934A (en) * 2008-01-16 2011-05-26 クゥアルコム・インコーポレイテッド Method and apparatus for interactive ticker
JP2010079103A (en) * 2008-09-26 2010-04-08 Brother Ind Ltd Voice interactive apparatus, program for the same, and voice interactive processing method
JP2012234150A (en) * 2011-04-18 2012-11-29 Sony Corp Sound signal processing device, sound signal processing method and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021108142A (en) * 2016-05-06 2021-07-29 ソニーグループ株式会社 Information processing system, information processing method, and information processing program
US11646026B2 (en) 2016-05-06 2023-05-09 Sony Group Corporation Information processing system, and information processing method
JP2019016061A (en) * 2017-07-04 2019-01-31 株式会社Nttドコモ Information processing unit and program
JP2019192123A (en) * 2018-04-27 2019-10-31 エヌ・ティ・ティ・コミュニケーションズ株式会社 Admission management system, data center, and admission management method
JP7169087B2 (en) 2018-04-27 2022-11-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 Admission control system, data center and admission control method
JP2020024385A (en) * 2018-07-10 2020-02-13 タタ・コンサルタンシー・サーヴィシズ・リミテッド Analysis of conceptual anaphoric instructions in conversational system using hierarchical laminated neural networks
WO2020075270A1 (en) * 2018-10-11 2020-04-16 株式会社ウフル Machine learning model switching system, machine learning model switching method, and program
WO2020075271A1 (en) * 2018-10-11 2020-04-16 株式会社ウフル Machine learning model switching system, machine learning model switching method, and program
JP2021039677A (en) * 2019-09-05 2021-03-11 株式会社日本総合研究所 Information processing method, program, and information processing device
JP7360855B2 (en) 2019-09-05 2023-10-13 株式会社日本総合研究所 Information processing method, program and information processing device
JP7505730B2 (en) 2019-11-14 2024-06-25 株式会社アクセル Inference system, information processing device, and information processing program
JP2021086549A (en) * 2019-11-29 2021-06-03 Necソリューションイノベータ株式会社 Interactive type information acquisition apparatus, interactive type information acquisition method, program and recording medium
JP2021092727A (en) * 2019-12-12 2021-06-17 一般社団法人It&診断支援センター・北九州 Support robot for person living alone
JP7210024B2 (en) 2019-12-12 2023-01-23 一般社団法人It&診断支援センター・北九州 Living alone support robot

Similar Documents

Publication Publication Date Title
JP2017058406A (en) Computer system and program
US11607182B2 (en) Voice controlled assistance for monitoring adverse events of a user and/or coordinating emergency actions such as caregiver communication
Lopatovska et al. Talk to me: Exploring user interactions with the Amazon Alexa
Mathew et al. Chatbot for disease prediction and treatment recommendation using machine learning
JP6947852B2 (en) Intercom communication using multiple computing devices
Bradley et al. Toward a multidisciplinary model of context to support context-aware computing
US20200125967A1 (en) Electronic device and method for controlling the electronic device
JP2021514514A (en) Affective computing Sensitive interaction systems, devices and methods based on user interfaces
JP6719072B2 (en) Customer service device, service method and service system
JP7285589B2 (en) INTERACTIVE HEALTH CONDITION EVALUATION METHOD AND SYSTEM THEREOF
Griol et al. Mobile conversational agents for context-aware care applications
KR20190089451A (en) Electronic device for providing image related with text and operation method thereof
Manzi et al. Design of a cloud robotic system to support senior citizens: The KuBo experience
US11836592B2 (en) Communication model for cognitive systems
Costa et al. A mobile virtual butler to bridge the gap between users and ambient assisted living: A smart home case study
Mavropoulos et al. A context-aware conversational agent in the rehabilitation domain
Aztiria et al. Learning about preferences and common behaviours of the user in an intelligent environment
KR20200115695A (en) Electronic device and method for controlling the electronic devic thereof
Teixeira et al. Effective natural interaction with our sensorized smart homes
JP7307576B2 (en) Program and information processing device
Zeng An Investigation of Mature Travelers’ Usage Intention of Intelligent Voice Assistants in Hotels
Santos et al. Development strategy of an architecture for e-health personalised service robots
Creer et al. Describing the interactive domestic robot setup for the SERA project
Beltrán et al. Smart technologies for monitoring older adults with dementia
US20240212826A1 (en) Artificial conversation experience

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170606