WO2022085474A1 - Information processing method - Google Patents

Information processing method Download PDF

Info

Publication number
WO2022085474A1
WO2022085474A1 PCT/JP2021/037243 JP2021037243W WO2022085474A1 WO 2022085474 A1 WO2022085474 A1 WO 2022085474A1 JP 2021037243 W JP2021037243 W JP 2021037243W WO 2022085474 A1 WO2022085474 A1 WO 2022085474A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
level
information
answer
question
Prior art date
Application number
PCT/JP2021/037243
Other languages
French (fr)
Japanese (ja)
Inventor
洋 矢羽田
孝啓 西
正真 遠間
敏康 杉尾
ジャン ジャスパー ヴァン デン バーグ
デイビッド マイケル デュフィー
バーナデット エリオット ボウマン
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020175954A external-priority patent/JP2023169448A/en
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2022085474A1 publication Critical patent/WO2022085474A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Marketing (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Epidemiology (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

This information processing method is for an information provision system for communicating with a user, and includes: acquiring first speech information including a first question from a user together with a device ID; acquiring communication policy information including a hearing level or a sight level corresponding to the user; and specifying an output format corresponding to the hearing level or the sight level and outputting, to a speaker or a display, first answer information indicating a first answer to the first question.

Description

情報処理方法Information processing method
 本開示は、ユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法に関するものである。 This disclosure relates to an information processing method in an information providing system including a device for communicating with a user.
 特許文献1には、コミュニケーションをとる際に、情報の伝え手ユーザの知識度と受け手ユーザの知識度とを比較し、受け手ユーザの知識度が伝え手ユーザの知識度よりも低い場合には、受け手ユーザの知識度が最も高い事象を選出し、入力された事象の程度の定量値を、選出された最も知識度が高い事象の程度の定量値に変換することにより、受け手ユーザに伝達する方法が開示されている。 In Patent Document 1, when communicating, the knowledge level of the information transmitter user is compared with the knowledge level of the receiver user, and when the knowledge level of the receiver user is lower than the knowledge level of the transmitter user, A method of transmitting to the recipient user by selecting the event with the highest knowledge level of the recipient user and converting the quantitative value of the degree of the input event into the quantitative value of the degree of the selected event with the highest knowledge level. Is disclosed.
特開2014-71711号公報Japanese Unexamined Patent Publication No. 2014-71711
 ユーザとコミュニケーションする装置を含む情報提供システムにおいて、ユーザの特性に応じたコミュニケーションを実現することが望まれている。 In an information providing system including a device that communicates with a user, it is desired to realize communication according to the characteristics of the user.
 本開示の一態様に係る情報処理方法は、ユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法であって、前記装置は、マイク及びスピーカーを備え、前記装置の前記マイクにより取得された前記ユーザからの第1質問を含む第1音声情報を、前記装置を識別する装置IDと共に取得し、前記装置IDに基づき、前記ユーザに対応する聴覚レベルを含むコミュニケーションポリシー情報を取得し、前記聴覚レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された前記スピーカーから出力する出力形式であり、前記ユーザを識別するユーザIDに対応させて設定されており、前記ユーザIDは前記情報提供システムにおいて前記装置IDと対応づけられており、前記第1質問に対する第1回答を示す第1回答情報を生成し、前記聴覚レベルに対応した出力形式を指定して前記第1回答情報を前記装置の前記スピーカーに出力すること、を含む。前記出力形式は、音量を含み、前記聴覚レベルが第1レベルである場合における前記音量は、前記聴覚レベルが前記第1レベルよりも高い第2レベルである場合における前記音量よりも、大きい。 The information processing method according to one aspect of the present disclosure is an information processing method in an information providing system including a device for communicating with a user, wherein the device includes a microphone and a speaker, and is acquired by the microphone of the device. The first voice information including the first question from the user is acquired together with the device ID that identifies the device, and the communication policy information including the hearing level corresponding to the user is acquired based on the device ID, and the hearing level is obtained. Is an output format to be output from the speaker set for the user via the user's information communication terminal or the device, and is set corresponding to the user ID that identifies the user, and is set to correspond to the user ID. Is associated with the device ID in the information providing system, generates first answer information indicating the first answer to the first question, specifies an output format corresponding to the hearing level, and specifies the first answer. Includes outputting information to the speaker of the device. The output format includes a volume, and the volume when the hearing level is the first level is higher than the volume when the hearing level is the second level higher than the first level.
 本開示の一態様によれば、ユーザとコミュニケーションする装置を含む情報提供システムにおいて、ユーザの特性に応じたコミュニケーションを実現することができる。 According to one aspect of the present disclosure, in an information providing system including a device for communicating with a user, communication according to the characteristics of the user can be realized.
本開示の実施の形態に係る情報システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the information system which concerns on embodiment of this disclosure. 本開示の実施の形態に係る情報システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the information system which concerns on embodiment of this disclosure. コミュニケーションの手段に対して関連するコミュニケーション能力との相関の一例を示す表である。It is a table showing an example of the correlation with the communication ability related to the means of communication. コミュニケーションのポリシーと、ユーザの言語レベルとの相関の一例を示す表である。It is a table showing an example of the correlation between the communication policy and the language level of the user. コミュニケーションのポリシーと、ユーザの知識レベルとの相関の一例を示す表である。It is a table showing an example of the correlation between the communication policy and the knowledge level of the user. コミュニケーションのポリシーと、ユーザの視覚レベルとの相関の一例を示す表である。It is a table showing an example of the correlation between the communication policy and the visual level of the user. コミュニケーションのポリシーと、ユーザの聴覚レベルとの相関の一例を示す表である。It is a table which shows an example of the correlation between a communication policy and a user's hearing level. コミュニケーションの能力に応じた応答方法の一例を示す表である。It is a table which shows an example of the response method according to the communication ability. コミュニケーションの初期設定を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example which performs the initial setting of communication. コミュニケーションの初期設定を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example which performs the initial setting of communication. 初期設定において設定される各種パラメータを示す表である。It is a table which shows various parameters set in the initial setting. ユーザからの質問に回答する応答方法の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the response method which answers a question from a user. ユーザからの質問に回答する応答方法の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the response method which answers a question from a user. コミュニケーションのポリシーに応じた応答をする一例を示すフローチャートである。It is a flowchart which shows an example which makes a response according to a communication policy. ユーザに質問を行い、その回答によりコミュニケーション能力を測定する一例を示すシーケンス図である。It is a sequence diagram which shows an example which asks a question to a user and measures the communication ability by the answer. ユーザに質問を行い、その回答によりコミュニケーション能力を更新する一例を示すフローチャートである。It is a flowchart which shows an example which asks a question to a user and updates the communication ability by the answer. ユーザに質問を行い、その回答によりコミュニケーション能力を更新する際に用いる表の一例である。This is an example of a table used when asking a question to a user and updating communication ability by answering the question. ユーザの言語レベルを複数言語に細分化して管理する際に用いる表の一例である。This is an example of a table used when the user's language level is subdivided into multiple languages and managed. ユーザの知識レベルを複数分野に細分化して管理する際に用いる表の一例である。This is an example of a table used when the knowledge level of a user is subdivided into multiple fields and managed. コミュニケーションの初期設定を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example which performs the initial setting of communication. ユーザからの質問に回答する応答方法の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the response method which answers a question from a user. ユーザに質問を行い、その回答によりコミュニケーション能力を測定する一例を示すシーケンス図である。It is a sequence diagram which shows an example which asks a question to a user and measures the communication ability by the answer. コミュニケーションからユーザの理解度を推定して、適宜、支援介入する一例を示すシーケンス図である。It is a sequence diagram which shows an example which estimates the degree of understanding of a user from communication and intervenes with support as appropriate. コミュニケーションからユーザの理解度を推定して、適宜、支援介入する一例を示すフローチャートである。It is a flowchart which shows an example which estimates the understanding degree of a user from a communication and intervenes with support as appropriate. コミュニケーションの終了前に、要約を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example of summarizing before the end of communication. コミュニケーションの終了後に、要約を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example of summarizing after the end of communication. コミュニケーションの終了後に、ユーザにのみ、要約を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example which summarizes only to a user after the end of communication. コミュニケーションの終了後に、ユーザにのみ、要約を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example which summarizes only to a user after the end of communication. ユーザのタスク実行の支援を行う際に用いる表の一例である。This is an example of a table used to support the user's task execution. ユーザのタスク実行の支援を行う一例を示すシーケンス図である。It is a sequence diagram which shows an example which supports the task execution of a user.
 (本開示に至る経緯)
 我々は日々の生活の中で数多くの情報を受けて、多くの情報を発している。その生活の中で、ユーザがテレビ、雑誌、または人との会話などから受け取った情報を正しく理解できるかは、その情報の内容、表現方法、伝達方法、及びユーザーの知覚能力に大きく依存している。しかしながら、情報の受け手であるユーザが、受けている情報が理解できたか否かを明確に意思表示することは、現実的には難しい場面がある。例えば、時間制約からユーザが質問をするための十分な時間がない場合、ユーザがコミュニケーションに用いられている言語に不慣れであり話についていけない場合、ユーザが話されている事項に関する必要な前提知識を持っていない場合、ユーザの視覚能力、聴覚能力が衰えて十分に認知できない場合、などさまざまである。
(Background to this disclosure)
We receive a lot of information in our daily lives and emit a lot of information. Whether a user can correctly understand information received from television, magazines, or conversations with people in his or her life depends largely on the content of the information, how it is expressed, how it is communicated, and the user's perceptual ability. There is. However, in reality, it is difficult for the user who receives the information to clearly indicate whether or not the received information can be understood. For example, if there is not enough time for the user to ask a question due to time constraints, if the user is unfamiliar with the language used for communication and cannot keep up with the story, then the user has the necessary prerequisite knowledge about what is being said. If you do not have it, if the user's visual and auditory abilities are weakened and you cannot fully recognize it, there are various cases.
 これらのコミュニケーションにおける受け手であるユーザの理解欠如は、必要な情報が必要な人に届かなかったために生命に関わる大きな問題を引き起こす可能性さえもある。 The lack of understanding of the recipient of these communications can even lead to major life-threatening problems because the necessary information did not reach the people who needed it.
 また、日常生活には情報のやり取りに関する課題だけでなく、日々実施していかなければならないタスクもある。しかしながら、日常生活にあるタスクも数多く、全てを確実に実施するのは難しいのが実状である。 In addition, there are not only issues related to information exchange in daily life, but also tasks that must be carried out on a daily basis. However, there are many tasks in daily life, and it is difficult to carry out all of them reliably.
 このような日常生活を遂行するために起こりうる問題は、高齢化による認知能力の衰えや、国際化による必要となる言語能力の不足などにより、今後さらに大きな問題となる可能性がある。 The problems that can occur in carrying out such daily life may become even greater in the future due to the decline in cognitive ability due to aging and the lack of language ability required by internationalization.
 本開示の一態様に係るコミュニケーションの支援装置は、ユーザとコミュニケーションを行う情報通信端末であって、前記ユーザの言語レベル、知識レベル、視覚レベル、および/または聴覚レベルを継続的に測定することで決定される前記ユーザとの円滑なコミュニケーションを行うための推奨方法(ポリシー)を記録してあって、前記情報通信端末は、前記ユーザが新たに受け取る第1のコミュニケーションを前記情報通信端末に具備されたセンサーを用いて検出し、前記ユーザが受け取る前記第1のコミュニケーションを前記推奨方法(ポリシー)と比較し、前記第1のコミュニケーションが前記推奨方法(ポリシー)に合致しないと判断する場合には、前記ユーザが受け取る前記第1のコミュニケーションの言語表現方法、必要となる知識体系、文字情報の表示方法、および音声情報の出力方法の少なくとも何れか1つを変更して前記ユーザへの個別コミュニケーションを生成し、前記個別コミュニケーションを前記ユーザに伝達する。 The communication support device according to one aspect of the present disclosure is an information communication terminal that communicates with a user by continuously measuring the language level, knowledge level, visual level, and / or auditory level of the user. The recommended method (policy) for smooth communication with the user to be determined is recorded, and the information communication terminal is provided with the first communication newly received by the user. When the first communication received by the user is compared with the recommended method (policy) and it is determined that the first communication does not match the recommended method (policy), the first communication is detected by the sensor. Generate individual communication to the user by changing at least one of the language expression method of the first communication received by the user, the required knowledge system, the display method of character information, and the output method of voice information. Then, the individual communication is transmitted to the user.
 これにより、ユーザが受け取ったコミュニケーションを構成する情報の言語表現がユーザにとって難しい場合、その情報を理解するのに必要となる前提知識が不足している場合、そのコミュニケーションに含まれる文字情報を認知するための視覚、および/または、そのコミュニケーションに含まれる音声情報を認知するための聴覚が不足している場合には、ユーザと情報通信端末との間で普段より行われている円滑なコミュニケーションを行うための推奨方法(ポリシー)に則り、言語表現の簡易化、前提知識の簡素化、より視覚的に認識しやすい文字情報の表示、より聴覚的に聞き取りやすい音声情報の出力により、ユーザが受け取ったコミュニケーションの理解を、ユーザの能力に応じて支援することが実現できる。 As a result, if the linguistic expression of the information that constitutes the communication received by the user is difficult for the user, or if the prerequisite knowledge necessary for understanding the information is insufficient, the textual information contained in the communication is recognized. If there is a lack of visual and / or hearing to recognize the voice information contained in the communication, the smooth communication that is normally performed between the user and the information communication terminal is performed. According to the recommended method (policy) for, the user received by simplifying the language expression, simplifying the prerequisite knowledge, displaying the text information that is easier to recognize visually, and outputting the voice information that is easier to hear more audibly. It is possible to support the understanding of communication according to the ability of the user.
 本開示の第1の態様に係る情報処理方法は、ユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法であって、前記装置は、マイク及びスピーカーを備え、前記装置の前記マイクにより取得された前記ユーザからの第1質問を含む第1音声情報を、前記装置を識別する装置IDと共に取得し、前記装置IDに基づき、前記ユーザに対応する聴覚レベルを含むコミュニケーションポリシー情報を取得し、前記聴覚レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された前記スピーカーから出力する出力形式であり、前記ユーザを識別するユーザIDに対応させて設定されており、前記ユーザIDは前記情報提供システムにおいて前記装置IDと対応づけられており、前記第1質問に対する第1回答を示す第1回答情報を生成し、前記聴覚レベルに対応した出力形式を指定して前記第1回答情報を前記装置の前記スピーカーに出力する、ことを含む。前記出力形式は、音量を含み、前記聴覚レベルが第1レベルである場合における前記音量は、前記聴覚レベルが前記第1レベルよりも高い第2レベルである場合における前記音量よりも、大きい。ここで、聴覚レベルにおける第1レベルおよび第2レベルは、それぞれ、第1聴覚レベルおよび第2聴覚レベルと呼んでもよい。 The information processing method according to the first aspect of the present disclosure is an information processing method in an information providing system including a device for communicating with a user, wherein the device includes a microphone and a speaker, and is acquired by the microphone of the device. The first voice information including the first question from the user is acquired together with the device ID for identifying the device, and the communication policy information including the hearing level corresponding to the user is acquired based on the device ID. The hearing level is an output format output from the speaker set for the user via the information communication terminal of the user or the device, and is set corresponding to the user ID that identifies the user. The user ID is associated with the device ID in the information providing system, generates first answer information indicating the first answer to the first question, specifies an output format corresponding to the hearing level, and specifies the first answer. 1 Includes outputting response information to the speaker of the device. The output format includes a volume, and the volume when the hearing level is the first level is higher than the volume when the hearing level is the second level higher than the first level. Here, the first level and the second level in the auditory level may be referred to as a first auditory level and a second auditory level, respectively.
 上記構成によれば、ユーザが装置に対して質問をした場合に、前記質問に対する回答をユーザの聴覚レベルに応じた出力形式にて装置のスピーカーから出力することができる。これにより、一律の出力形式にて回答が提供される場合に比して、ユーザがより容易に聴くことができる出力形式にてユーザに回答を提供することができる。 According to the above configuration, when a user asks a question to the device, the answer to the question can be output from the speaker of the device in an output format according to the user's hearing level. As a result, it is possible to provide the answer to the user in an output format that the user can listen to more easily than in the case where the answer is provided in a uniform output format.
 上記第1の態様に係る第2の態様の情報処理方法において、前記出力形式は、さらに、スピード、又は明瞭さの少なくともいずれか一つを含んでもよい。 In the information processing method of the second aspect according to the first aspect, the output format may further include at least one of speed and clarity.
 本開示の第3の態様に係る情報処理方法は、ユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法であって、前記装置は、マイク及びディスプレイを備え、前記装置の前記マイクにより取得された前記ユーザからの第1質問を含む第1音声情報を、前記装置を識別する装置IDと共に取得し、前記装置IDに基づき、前記ユーザに対応する視覚レベルを含むコミュニケーションポリシー情報を取得し、前記視覚レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された前記ディスプレイから出力する出力形式であり、前記ユーザを識別するユーザIDと対応させて設定されており、前記ユーザIDは前記情報提供システムにおいて前記装置IDと対応づけられており、前記第1質問に対する第1回答を示す第1回答情報を生成し、前記視覚レベルに対応した出力形式を指定して前記第1回答情報を前記装置の前記ディスプレイに出力する、ことを含む。前記出力形式は、文字の表示サイズを含み、前記視覚レベルが第1レベルである場合における前記文字の前記表示サイズは、前記視覚レベルが前記第1レベルよりも高い第2レベルである場合における前記文字の表示サイズよりも、大きい。ここで、視覚レベルにおける第1レベルおよび第2レベルは、それぞれ、第1視覚レベルおよび第2視覚レベルと呼んでもよい。 The information processing method according to the third aspect of the present disclosure is an information processing method in an information providing system including a device for communicating with a user, wherein the device includes a microphone and a display, and is acquired by the microphone of the device. The first voice information including the first question from the user is acquired together with the device ID for identifying the device, and the communication policy information including the visual level corresponding to the user is acquired based on the device ID. The visual level is an output format output from the display set for the user via the user's information communication terminal or the device, and is set in correspondence with the user ID that identifies the user. The user ID is associated with the device ID in the information providing system, generates first answer information indicating the first answer to the first question, specifies an output format corresponding to the visual level, and specifies the first answer. 1 Includes outputting response information to the display of the device. The output format includes a display size of characters, and the display size of the characters when the visual level is the first level is the second level when the visual level is higher than the first level. It is larger than the display size of characters. Here, the first level and the second level in the visual level may be referred to as a first visual level and a second visual level, respectively.
 上記構成によれば、ユーザが装置に対して質問をした場合に、前記質問に対する回答をユーザの視覚レベルに応じた出力形式にて装置のディスプレイから出力することができる。これにより、一律の出力形式にて回答が提供される場合に比して、ユーザがより容易に見ることができる出力形式にてユーザに回答を提供することができる。 According to the above configuration, when a user asks a question to the device, the answer to the question can be output from the display of the device in an output format according to the user's visual level. As a result, the answer can be provided to the user in an output format that can be more easily viewed by the user, as compared with the case where the answer is provided in a uniform output format.
 上記第3の態様に係る第4の態様の情報処理方法において、前記出力形式は、さらに、文字縁取りの修飾、文字の配色、又は文字の配置の少なくともいずれか一つを含んでもよい。 In the information processing method of the fourth aspect according to the third aspect, the output format may further include at least one of modification of character edging, color arrangement of characters, and arrangement of characters.
 上記第1から第4の態様のそれぞれに係る第5の態様の情報処理方法において、前記コミュニケーションポリシー情報は、さらに、前記ユーザに対応する知識レベルを含み、前記知識レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された回答レベルであり、前記ユーザIDと対応させて設定されており、前記第1回答情報は、前記第1音声情報及び前記コミュニケーションポリシー情報に基づき、前記知識レベルに応じて生成されていてもよい。 In the information processing method of the fifth aspect according to each of the first to fourth aspects, the communication policy information further includes a knowledge level corresponding to the user, and the knowledge level is the information communication terminal of the user. Alternatively, it is a response level set for the user via the device, and is set in correspondence with the user ID, and the first response information is based on the first voice information and the communication policy information. , May be generated according to the knowledge level.
 上記構成によれば、ユーザが装置に対して質問をした場合に、ユーザの知識レベルに応じた回答を装置のスピーカーから出力することができる。これにより、ユーザのために作成された個人向けの回答をユーザに提供することができる。その結果、一律に作成された一般的な回答が提供される場合に比して、ユーザがより容易に理解できる回答をユーザに提供することができる。 According to the above configuration, when a user asks a question to the device, an answer according to the user's knowledge level can be output from the speaker of the device. This allows the user to be provided with a personalized answer created for the user. As a result, it is possible to provide the user with an answer that is easier for the user to understand than when a uniformly created general answer is provided.
 上記第5の態様に係る第6の態様の情報処理方法において、前記知識レベルは分野毎に設定されてもよい。さらに、前記分野は、社会常識、形式科学、自然科学、社会科学、人文学、及び応用科学の少なくともいずれか1つを含んでもよい。 In the information processing method of the sixth aspect according to the fifth aspect, the knowledge level may be set for each field. Further, the field may include at least one of social common sense, formal science, natural science, social science, humanities, and applied science.
 上記第5の態様に係る第7の態様の情報処理方法において、前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答に含まれる専門用語の第1数は、前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答に含まれる専門用語の第2数よりも、少なくてもよい。ここで、知識レベルにおける第1レベルおよび第2レベルは、それぞれ、第1知識レベルおよび第2知識レベルと呼んでもよい。 In the information processing method of the seventh aspect according to the fifth aspect, the first number of technical terms included in the 1-1 answer to the first question when the knowledge level is the first level is the above. It may be less than the second number of technical terms included in the 1-2 answers to the first question when the knowledge level is a second level higher than the first level. Here, the first level and the second level in the knowledge level may be referred to as a first knowledge level and a second knowledge level, respectively.
 上記第5の態様に係る第8の態様の情報処理方法において、前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答に含まれる文章の平均的な第1長さは、前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答に含まれる文章の平均的な第2長さよりも短くてもよい。 In the information processing method of the eighth aspect according to the fifth aspect, the average first length of the sentence included in the 1-1 answer to the first question when the knowledge level is the first level. May be shorter than the average second length of the text contained in the 1-2 answers to the first question when the knowledge level is a second level higher than the first level.
 上記第5の態様に係る第9の態様の情報処理方法において、前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答の全体の第1文字数は、前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答の全体の第2文字数よりも、少なくてもよい。 In the information processing method of the ninth aspect according to the fifth aspect, the knowledge level is the total number of first characters of the first answer to the first question when the knowledge level is the first level. It may be less than the total number of second characters of the first and second answers to the first question in the case of the second level higher than the first level.
 上記第5の態様に係る第10の態様の情報処理方法において、前記コミュニケーションポリシー情報は、さらに、前記ユーザに対応する言語レベルを含み、前記言語レベルは、前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された言語レベルであり、前記ユーザIDと対応させて設定されており、前記第1回答情報は、前記知識レベル及び前記言語レベルに応じて生成されてもよい。 In the information processing method of the tenth aspect according to the fifth aspect, the communication policy information further includes a language level corresponding to the user, and the language level refers to the information communication terminal or the device of the user. It is a language level set for the user via the user, and is set in association with the user ID, and the first response information may be generated according to the knowledge level and the language level.
 上記第5の態様に係る第11の態様の情報処理方法において、前記装置の前記スピーカーから前記ユーザに出力させるために前記装置に第2質問を含む第2音声情報を出力し、前記第2質問は前記第1質問と異なり、前記知識レベルの更新のために用いられ、前記装置から、前記第2質問に対する前記ユーザの第2回答を示す第2回答情報を取得し、前記第2回答情報に基づき、前記知識レベルを更新してもよい。 In the information processing method of the eleventh aspect according to the fifth aspect, the second voice information including the second question is output to the apparatus in order to output to the user from the speaker of the apparatus, and the second question is asked. Is used for updating the knowledge level, unlike the first question, and obtains the second answer information indicating the user's second answer to the second question from the device, and uses the second answer information as the second answer information. Based on this, the knowledge level may be updated.
 上記第5の態様に係る第12の態様の情報処理方法において、前記知識レベルは、前記第2回答の正誤に基づき、更新されてもよい。 In the information processing method of the twelfth aspect according to the fifth aspect, the knowledge level may be updated based on the correctness of the second answer.
 上記第5の態様に係る第13の態様の情報処理方法において、前記知識レベルは、前記第2音声情報の出力から前記第2回答情報の取得までに要した時間に基づき、更新されてもよい。 In the information processing method of the thirteenth aspect according to the fifth aspect, the knowledge level may be updated based on the time required from the output of the second voice information to the acquisition of the second answer information. ..
 本開示の別の一態様に係る情報処理方法は、第1ユーザ及び第2ユーザを含む複数のユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法であって、前記装置はマイク及びスピーカーを備え、前記装置の前記マイクにより取得された質問を含む音声情報を、前記装置を識別する装置IDと共に取得し、前記音声情報及び話者識別データベースを用いて前記質問が前記第1ユーザ及び前記第2ユーザのいずれによるものかを判定し、前記話者識別データベースは前記第1ユーザを識別する第1ユーザIDと対応づけて第1ユーザの声の特徴量を及び前記第2ユーザを識別する前記第2ユーザIDと対応づけて第2ユーザの声の特徴量を管理し、前記第1ユーザID及び前記第2ユーザIDは前記情報提供システムにおいて前記装置IDと対応づけられており、(i)前記質問が前記第1ユーザによると判定されたときに、前記第1ユーザに対応する第1知識レベルを含む第1コミュニケーションポリシー情報を取得し、前記第1知識レベルは前記第1ユーザの情報通信端末又は前記装置を介して前記第1ユーザのために設定された回答レベルであり、前記第1ユーザID対応づけられており、前記音声情報及び前記第1コミュニケーションポリシー情報に基づき、前記第1知識レベルに応じて前記質問に対する回答を示す第1回答情報を生成し、前記第1回答情報を前記装置の前記スピーカーに出力し、(ii)前記質問が前記第2ユーザによると判定されたときに、前記第2ユーザに対応する第2知識レベルを含む第2コミュニケーションポリシー情報を取得し、前記第2知識レベルは前記第1ユーザの情報通信端末、前記第2ユーザの情報通信端末、又は前記装置を介して前記第2ユーザのために設定された回答レベルであり、前記第2ユーザIDと対応づけられており、前記音声情報及び前記第2コミュニケーションポリシー情報に基づき、前記第2知識レベルに応じて前記質問に対する回答を示す第2回答情報を生成し、前記第2回答情報を前記装置の前記スピーカーに出力する、ことを含むものである。 An information processing method according to another aspect of the present disclosure is an information processing method in an information providing system including a device for communicating with a plurality of users including a first user and a second user, wherein the device includes a microphone and a speaker. Provided, voice information including a question acquired by the microphone of the device is acquired together with a device ID for identifying the device, and the question is asked by the first user and the first user using the voice information and the speaker identification database. The speaker identification database determines which of the two users is used, and associates the speaker identification database with the first user ID that identifies the first user to determine the feature amount of the voice of the first user and identifies the second user. The feature amount of the voice of the second user is managed in association with the second user ID, and the first user ID and the second user ID are associated with the device ID in the information providing system, (i). When it is determined that the question is from the first user, the first communication policy information including the first knowledge level corresponding to the first user is acquired, and the first knowledge level is the information communication of the first user. The first knowledge, which is the response level set for the first user via the terminal or the device, is associated with the first user ID, and is based on the voice information and the first communication policy information. The first answer information indicating the answer to the question is generated according to the level, the first answer information is output to the speaker of the apparatus, and (ii) when the question is determined to be by the second user. , The second communication policy information including the second knowledge level corresponding to the second user is acquired, and the second knowledge level is the information communication terminal of the first user, the information communication terminal of the second user, or the device. It is a response level set for the second user via the above, is associated with the second user ID, and is based on the voice information and the second communication policy information according to the second knowledge level. The second answer information indicating the answer to the question is generated, and the second answer information is output to the speaker of the apparatus.
 上記構成によれば、第1ユーザ又は第2ユーザが装置に対して質問した場合に、前記質問が第1ユーザ及び第2ユーザのいずれによるものかが判定され、ユーザ毎の知識レベルに応じてユーザ毎に異なる回答を提供することができる。換言すると、第1ユーザ又は第2ユーザが、たとえ同じ内容の質問をしたとしても、ユーザ毎の知識レベルに応じて、ユーザ毎に内容を変えて回答を提供することができる。その結果、一律に作成された一般的な回答が各ユーザに提供される場合に比して、各ユーザがより容易に理解できる回答を各ユーザに提供することができる。 According to the above configuration, when a first user or a second user asks a question to the device, it is determined whether the question is made by the first user or the second user, and it is determined according to the knowledge level of each user. Different answers can be provided for each user. In other words, even if the first user or the second user asks the same question, the answer can be changed for each user according to the knowledge level of each user. As a result, it is possible to provide each user with an answer that can be more easily understood by each user as compared with the case where a uniformly created general answer is provided to each user.
 さらに、上記構成によれば、音声情報が装置IDともに取得され、第1ユーザID及び第2ユーザIDは情報提供システムにおいて装置IDと対応付けられている。これにより、音声情報及び話者識別データベースを用いて発話者が誰であるかを判定する際に、装置IDを用いることで、発話者の候補として装置IDに紐づいたユーザを抽出することができる。その結果、照合を必要とするデータを絞り込めるため、識別データベースにおいて管理されている全てユーザの声の特徴量と照合することなく発話者の特定を効率的に行うことができる。 Further, according to the above configuration, voice information is acquired together with the device ID, and the first user ID and the second user ID are associated with the device ID in the information providing system. As a result, when determining who the speaker is using the voice information and the speaker identification database, the device ID can be used to extract the user associated with the device ID as a candidate for the speaker. can. As a result, since the data requiring collation can be narrowed down, the speaker can be efficiently identified without collating with all the features of the user's voice managed in the identification database.
 本開示の別の一態様に係る情報処理方法は、ユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法であって、前記装置は、マイク及びスピーカーを備え、前記装置の前記マイクにより取得された前記ユーザからの第1質問を含む第1音声情報を、前記装置を識別する装置IDと共に取得し、前記装置IDに基づき、前記ユーザに対応する知識レベルを含むコミュニケーションポリシー情報を取得し、前記知識レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された回答レベルであり、前記ユーザを識別するユーザIDと対応させて設定されており、前記ユーザIDは前記情報提供システムにおいて前記装置IDと対応づけられており、前記第1音声情報及び前記コミュニケーションポリシー情報に基づき、前記知識レベルに応じて前記第1質問に対する第1回答を示す第1回答情報を生成し、前記第1回答情報を前記装置の前記スピーカーに出力する、ことを含む、ものである。 An information processing method according to another aspect of the present disclosure is an information processing method in an information providing system including a device for communicating with a user, wherein the device includes a microphone and a speaker, and is acquired by the microphone of the device. The first voice information including the first question from the user is acquired together with the device ID that identifies the device, and the communication policy information including the knowledge level corresponding to the user is acquired based on the device ID. The knowledge level is a response level set for the user via the user's information communication terminal or the device, and is set in association with a user ID that identifies the user, and the user ID is the information. It is associated with the device ID in the providing system, and based on the first voice information and the communication policy information, the first answer information indicating the first answer to the first question is generated according to the knowledge level. It includes outputting the first answer information to the speaker of the apparatus.
 上記構成によれば、ユーザが装置に対して質問をした場合に、ユーザの知識レベルに応じた回答を装置のスピーカーから出力することができる。これにより、ユーザのために作成された個人向けの回答をユーザに提供することができる。その結果、一律に作成された一般的な回答が提供される場合に比して、ユーザがより容易に理解できる回答をユーザに提供することができる。 According to the above configuration, when a user asks a question to the device, an answer according to the user's knowledge level can be output from the speaker of the device. This allows the user to be provided with a personalized answer created for the user. As a result, it is possible to provide the user with an answer that is easier for the user to understand than when a uniformly created general answer is provided.
 本開示の別の一態様に係る装置は、ユーザと視覚または聴覚を用いてコミュニケーションをとる装置であって、前記ユーザの言語レベル、知識レベル、視覚レベル、聴覚レベルの少なくとも1つを測定または設定することで決定される前記ユーザとの円滑なコミュニケーションを行うための推奨方法(ポリシー)を記録してあって、ユーザに対するコミュニケーションを上記推奨方法(ポリシー)に従って行うことで、ユーザにとってパーソナライズされた理解容易で円滑なコミュニケーションを実現する。 A device according to another aspect of the present disclosure is a device that communicates with a user visually or auditorily, and measures or sets at least one of the user's language level, knowledge level, visual level, and auditory level. The recommended method (policy) for smooth communication with the user, which is determined by the above, is recorded, and by communicating with the user according to the above recommended method (policy), the personalized understanding for the user is recorded. Achieve easy and smooth communication.
 本開示は、このような情報処理方法に含まれる特徴的な各構成をコンピュータに実行させるプログラム、或いはこのプログラムによって動作するコミュニケーションの支援システムとして実現することもできる。また、このようなコンピュータプログラムを、CD-ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。 The present disclosure can also be realized as a program for causing a computer to execute each characteristic configuration included in such an information processing method, or as a communication support system operated by this program. Needless to say, such a computer program can be distributed via a computer-readable non-temporary recording medium such as a CD-ROM or a communication network such as the Internet.
 なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。 Note that all of the embodiments described below show a specific example of the present disclosure. The numerical values, shapes, components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claim indicating the highest level concept are described as arbitrary components. Moreover, in all the embodiments, each content can be combined.
 (実施の形態)
 我々の社会は、今後もさらにインターネットが普及し、各種センサーが身近になることが予想される。これにより、我々の社会は、個人の状態及び活動等に関する情報から建造物及び交通網等を含む街全体の情報までもが、デジタル化されてコンピューターシステムで利用できる状態になっていくと予想される。デジタル化された個人に関するデータ(個人情報)は、通信ネットワークを介してクラウドに蓄積され、ビッグデータとして情報銀行に管理され、個人のために様々な用途に利用されていく。
(Embodiment)
It is expected that the Internet will continue to spread in our society and that various sensors will become familiar to us. As a result, it is expected that our society will be able to digitize information on individual conditions and activities, as well as information on the entire city, including buildings and transportation networks, and use it on computer systems. To. Digitized personal data (personal information) is stored in the cloud via a communication network, managed by an information bank as big data, and used for various purposes for individuals.
 このような高度情報化社会は、日本ではSociety5.0と呼ばれる。高度情報化社会は、個人を取り囲む物質世界である現実空間(フィジカル空間)とコンピュータ同士が連携してフィジカル空間に関する各種処理がなされる仮想空間(サイバー空間)とを高度に融合させた情報基盤(サイバーフィジカルシステム)により、経済発展と社会的課題の解決とが期待される社会である。 Such an advanced information society is called Society 5.0 in Japan. The highly information-oriented society is an information infrastructure that highly integrates the real space (physical space), which is the material world surrounding individuals, and the virtual space (cyberspace), in which computers cooperate with each other to perform various processes related to the physical space. It is a society where economic development and solution of social issues are expected by cyber physical system).
 そうした高度情報化社会では、個人が行う日常の様々なシーンでのコミュニケーション(情報の取得、提供、およびその表現方法を含む)や行動を分析し、蓄積した個人情報を含むビッグデータを分析することで、そのシーンに応じた、その個人にとって最適と思われるコミュニケーションの方法にて、その個人に必要な情報を提供することが可能になる。 In such a highly information-oriented society, it is necessary to analyze communication (including acquisition, provision, and expression method of information) and behavior of individuals in various daily situations, and to analyze big data including accumulated personal information. Then, it becomes possible to provide the necessary information to the individual by the communication method that seems to be the most suitable for the individual according to the scene.
 以降では、そのようなサイバーフィジカルシステムが稼働する高度情報化社会を前提として、個人に寄り添った日常生活の支援をテーマとして、コミュニケーションを包括的に個別最適化(パーソナライゼーション)する様態、および日常生活のタスクを支援する様態、について説明していく。 From now on, on the premise of an advanced information society in which such a cyber-physical system operates, the theme is to support daily life that is close to the individual, and the mode of comprehensively individualizing communication and daily life. I will explain how to support the task of.
 図1は、本開示の実施の形態に係る情報システムの全体構成の一例を示す図である。図1は、上半分はクラウドが含まれるサイバー空間、下半分は人や物が含まれるフィジカル空間を示している。本開示において日常生活上でのコミュニケーションやタスクの遂行を主として支援されるユーザと関連する装置などが左右中央に記載されている。また、そのユーザと日常的な接点の多い別のユーザ(以下、ユーザと区別するために同居人と呼ぶ)と関連する物が左端に配置されている。また、ユーザが社会生活上で特定の目的においてコミュニケーションをとるコミュニケーションの相手(図では医師)と関連する物が右側に配置されている。 FIG. 1 is a diagram showing an example of the overall configuration of the information system according to the embodiment of the present disclosure. In FIG. 1, the upper half shows a cyber space containing a cloud, and the lower half shows a physical space containing people and things. In this disclosure, devices related to users who are mainly assisted in communication and task execution in daily life are described in the center of the left and right. In addition, an object related to another user who has many daily contacts with the user (hereinafter referred to as a cohabitant to distinguish the user) is arranged at the left end. In addition, objects related to the communication partner (doctor in the figure) with whom the user communicates for a specific purpose in social life are arranged on the right side.
 ユーザは、個人用の情報通信端末99と、例えば同居人のようにユーザ以外の人でも利用することができる情報通信端末100と情報ソース102とを利用する。情報通信端末99は例えば、ユーザが所有するスマートフォンでも良いし、パーソナルコンピュータであっても良い。情報通信端末100は例えば、ユーザの生活空間にあってユーザとコミュニケーションをとるロボットでも良いし、スマートスピーカでも良いし、スマートウォッチやスマート眼鏡やヒアラブルやスマート衣服のように身につけて利用するウェアラブルデバイスであっても良いし、ユーザが利用するスマートフォンやパーソナルコンピュータでも良い。情報通信端末100は、音声によってユーザとコミュニケーションを行う機能を有していても良いし、映像や文字を表示することでユーザとコミュニケーションを行う機能を有していても良いし、タッチやジェスチャーや顔表情を用いることでユーザとコミュニケーションを行う機能を有していてもよい。 The user uses a personal information communication terminal 99, an information communication terminal 100 that can be used by a person other than the user, such as a cohabitant, and an information source 102. The information communication terminal 99 may be, for example, a smartphone owned by the user or a personal computer. The information communication terminal 100 may be, for example, a robot that communicates with the user in the user's living space, a smart speaker, or a wearable device that is worn and used like a smart watch, smart glasses, hearables, or smart clothes. It may be a smartphone or a personal computer used by the user. The information communication terminal 100 may have a function of communicating with the user by voice, may have a function of communicating with the user by displaying a video or a character, and may have a touch, a gesture, or the like. It may have a function of communicating with the user by using facial expressions.
 情報ソース102は例えば、ユーザが日々情報を取得するためのツールであるテレビや雑誌などである。ユーザは情報通信端末(99、100)や情報ソース102を利用しながら日々生活している。これらの情報通信端末は夫々ユーザの情報やその機器に関する情報を保管、管理するクラウド101と広域通信網で接続される。 The information source 102 is, for example, a television or a magazine, which is a tool for a user to acquire information on a daily basis. Users live every day while using information communication terminals (99, 100) and information sources 102. Each of these information communication terminals is connected to a cloud 101 that stores and manages user information and information about the device via a wide area communication network.
 一方、同居人は個人用の情報通信端末99を持ち、情報通信端末100や情報ソース102を、ユーザと一緒に利用する。この図で共有資産として記載した情報通信端末100と情報ソース102は、ユーザと同居人との両方が利用する可能性のある物である。例えば、情報通信端末100はユーザが利用する場合もあれば、同居人が利用する場合もある。 On the other hand, the cohabitant has a personal information communication terminal 99 and uses the information communication terminal 100 and the information source 102 together with the user. The information communication terminal 100 and the information source 102 described as shared assets in this figure are things that may be used by both the user and the cohabitant. For example, the information communication terminal 100 may be used by a user or by a cohabitant.
 医師はユーザの病気の診断をした場合、情報通信端末110を用いてその診断結果をカルテとして入力する。入力されたカルテ情報は情報通信端末110と広域通信網で接続されたカルテ情報を保管するクラウド111にて保管、管理する。ここではコミュニケーションの相手として医師を例に説明するが、本開示はこれに限られず、例えば、弁護士、警察官、友人、近所の人など、ユーザと直接的にコミュニケーションを取る相手であれば誰でも良い。 When the doctor diagnoses the user's illness, the doctor inputs the diagnosis result as a medical record using the information communication terminal 110. The input medical record information is stored and managed in the cloud 111 that stores the medical record information connected to the information communication terminal 110 by the wide area communication network. Here, a doctor is used as an example of communication, but this disclosure is not limited to this, and any person who directly communicates with the user, such as a lawyer, a police officer, a friend, or a neighbor, can be used. good.
 図2に、本開示の実施の形態に係る情報システムの構成の一例を示すブロック図を示した。情報通信端末(99、100)は夫々、ユーザと映像情報や音声情報により意思疎通するためのセンサー203、213と映像音声出力部206、217、ユーザからのボタン押下やタッチ操作などを受け付ける操作部205、216、情報通信端末(99、100)の中で行われる音声認識や音声合成、情報検索や情報描画などの情報処理を行う演算部202、212、演算部202、212が利用するデータを保持するメモリ204、215、およびネットワーク上のコンピュータと情報通信を行うための通信部201、211を備える。さらに情報通信端末100は、ロボットの形態である場合などに、ユーザとのコミュニケーションを円滑に行うために身振りを行うための可動部214や、映像音声出力部217に顔表情を表示するようにしてもよい。 FIG. 2 shows a block diagram showing an example of the configuration of the information system according to the embodiment of the present disclosure. The information communication terminals (99, 100) are sensors 203, 213 and video / audio output units 206, 217 for communicating with the user by video information and voice information, respectively, and an operation unit that accepts button presses and touch operations from the user. 205, 216, Data used by arithmetic units 202, 212 and arithmetic units 202, 212 that perform information processing such as voice recognition, voice synthesis, information retrieval, and information drawing performed in information communication terminals (99, 100). It includes memory 204 and 215 to be held, and communication units 201 and 211 for performing information communication with a computer on the network. Further, when the information communication terminal 100 is in the form of a robot, the facial expression is displayed on the movable unit 214 for gesturing to smoothly communicate with the user and the video / audio output unit 217. May be good.
 ユーザ情報を管理するクラウド101は、ネットワーク上のコンピュータと情報通信を行うための通信部221、ユーザ情報を記録しているメモリ223、外部からの要求に応じてユーザ情報を成形して出力するといった情報処理を行う演算部222を備える。 The cloud 101 that manages user information has a communication unit 221 for performing information communication with a computer on the network, a memory 223 that records user information, and forms and outputs user information in response to an external request. A calculation unit 222 that performs information processing is provided.
 話し相手が扱う情報を管理するクラウド111も同様に、ネットワーク上のコンピュータと情報通信を行うための通信部241、話し相手が扱う情報を記録しているメモリ243、外部からの要求に応じて話し相手が扱う情報を入出力するといった情報処理を行う演算部242を備える。 Similarly, the cloud 111 that manages the information handled by the other party also has a communication unit 241 for performing information communication with a computer on the network, a memory 243 that records the information handled by the other party, and the other party handles the information in response to an external request. It is provided with a calculation unit 242 that performs information processing such as inputting / outputting information.
 話し相手が扱う情報通信端末110は、話し相手からのボタン押下やタッチ操作などを受け付ける操作部234、情報通信端末110の中で行われる情報検索や情報描画などの情報処理を行う演算部232、演算部232が利用するデータを保持するメモリ233、およびネットワーク上のコンピュータと情報通信を行うための通信部231を備える。 The information communication terminal 110 handled by the other party has an operation unit 234 that accepts button presses and touch operations from the other party, an arithmetic unit 232 that performs information processing such as information retrieval and information drawing performed in the information communication terminal 110, and an arithmetic unit. It includes a memory 233 for holding data used by 232, and a communication unit 231 for performing information communication with a computer on the network.
 図1の説明に戻る。情報通信端末100としてスマートフォンを用いる場合は、その端末の上で動作するアプリケーションを介して、ユーザはコミュニケーションを行う。例えば、そのアプリケーションでは、ユーザとのコミュニケーション履歴をチャットのような短い会話のやり取りを文字で表示し、話し相手としてアバターを表示してもよい。上記のロボットの形態であればフィジカル空間に実際に存在する物質的な装置であるが、上記のアプリケーションが描画するアバターはスマートフォンの画面(映像音声出力部217)に表示されるグラフィックデータである。形態は異なるが、ユーザとコミュニケーションを取る点において本質的な差はなく、以降は情報通信端末100をロボットの形態として説明を行う。 Return to the explanation in Fig. 1. When a smartphone is used as the information communication terminal 100, the user communicates via an application running on the terminal. For example, in the application, the communication history with the user may be displayed in characters for a short conversation such as a chat, and the avatar may be displayed as the conversation partner. In the form of the robot described above, it is a physical device that actually exists in the physical space, but the avatar drawn by the above application is graphic data displayed on the screen of the smartphone (video / audio output unit 217). Although the form is different, there is no essential difference in communicating with the user, and the information communication terminal 100 will be described below as the form of the robot.
 また、この情報通信端末100は、広域通信網であるネットワークを介して、ユーザ情報を管理するクラウド101と通信する。ユーザ情報を管理するクラウド101には後述するユーザのコミュニケーション能力を特定するための指標や会話履歴、ユーザの日常的なタスクが管理される。 Further, the information communication terminal 100 communicates with the cloud 101 that manages user information via a network that is a wide area communication network. The cloud 101 that manages user information manages an index for specifying a user's communication ability, a conversation history, and a user's daily task, which will be described later.
 ユーザは日頃触れる情報ソース102であるテレビや雑誌から、理解できなかった事や、より深く知りたい事について、日常的に利用している情報通信端末(99、100)に対して質問したり、情報通信端末(99、100)を用いて検索する。 Users can ask questions to the information and communication terminals (99, 100) that they use on a daily basis about things they could not understand or want to know more deeply from the information sources 102 that they usually touch, such as televisions and magazines. Search using an information communication terminal (99, 100).
 尚、本開示の実施の形態では、情報通信端末100とユーザ情報を管理するクラウド101とを分けて記載したが、これに限らず、ユーザ情報を情報通信端末100内部に格納して、ユーザ情報を管理するクラウド101を用いない構成としても良い。この場合は、ユーザ情報をネットワークを介してクラウド101から取得しないため、通信が利用できない場合や、ユーザ情報の漏洩リスクを低下させる可能性がある。 In the embodiment of the present disclosure, the information communication terminal 100 and the cloud 101 that manages the user information are described separately, but the present invention is not limited to this, and the user information is stored inside the information communication terminal 100 and the user information is described. The configuration may be such that the cloud 101 that manages the above is not used. In this case, since the user information is not acquired from the cloud 101 via the network, there is a possibility that communication cannot be used or the risk of leakage of the user information is reduced.
 一方で、ユーザとのコミュニケーションを行う相手側(医師)について、図1の例を用いて説明する。ユーザとコミュニケーションを行う話し相手である医師はユーザを診断する。さらにその診察結果について、カルテ入力端末である情報通信端末110を介して入力する。そのカルテはカルテ保管クラウドである話し相手が扱う情報としてクラウド111にて管理される。 On the other hand, the other party (doctor) who communicates with the user will be described using the example of FIG. The doctor with whom you communicate with the user diagnoses the user. Further, the examination result is input via the information communication terminal 110 which is a medical record input terminal. The medical record is managed in the cloud 111 as information handled by the other party, which is a medical record storage cloud.
 ユーザ情報を管理するクラウド101は、カルテ保管クラウド111に対して通信を行い、ユーザ自身の診察結果や処方箋、さらには過去の病歴について情報を取得またはアクセスすることができる。これは、ユーザ情報を管理するクラウド101を情報銀行と考えると、個人が自分の個人情報について、主体性と主導権を持って、自分または社会への価値還元のために自らの個人情報(パーソナルデータ)を活用できるSociety5.0型の世界である。ここでは個人情報を安全性を担保しつつも、幅広いニーズで利用できるように、生体情報を用いた本人認証技術や、分散暗号化管理による個人情報の漏洩防止技術や、データを暗号化したまま演算処理することを可能にする秘密計算技術などが用いられるが、本開示ではそれら技術の詳細については割愛する。 The cloud 101 that manages user information communicates with the medical record storage cloud 111, and can acquire or access information on the user's own medical examination results, prescriptions, and past medical history. Considering the cloud 101 that manages user information as an information bank, an individual has the independence and initiative for his / her personal information, and his / her own personal information (personal) for the purpose of returning value to himself / herself or society. It is a world of Society 5.0 type that can utilize data). Here, personal authentication technology using biometric information, personal information leakage prevention technology by distributed encryption management, and data encrypted so that it can be used for a wide range of needs while ensuring the security of personal information are maintained. Secret calculation technology that enables arithmetic processing is used, but the details of those technologies are omitted in this disclosure.
 以下、ユーザのコミュニケーション能力を良く知る情報通信端末100を介して、ユーザが話し相手(例えば医師)とのコミュニケーションを円滑に進める形態について説明していく。また、他人とのコミュニケーションの支援だけでなく、ユーザが日常的に利用する情報通信端末100という立場を活かして、ユーザの日常的なタスク実行をユーザに寄り添いながら支援する形態についても説明していく。 Hereinafter, a mode in which the user smoothly communicates with the other party (for example, a doctor) via the information communication terminal 100, which is familiar with the communication ability of the user, will be described. In addition to supporting communication with others, we will also explain a form that supports the user's daily task execution while being close to the user, making use of the position of the information communication terminal 100 that the user uses on a daily basis. ..
 図3は、ユーザと情報通信端末100との間のコミュニケーションの手段に対して、関連してくるユーザのコミュニケーション能力との相関の一例を示す表である。 FIG. 3 is a table showing an example of the correlation between the means of communication between the user and the information communication terminal 100 and the communication ability of the related user.
 表の最上段に示したように、利用する情報通信端末100がロボットや、音声によるコミュニケーションを主体としたAIスピーカー、聴覚支援のためのイヤホンなどの場合、ユーザとのコミュニケーションの手段には音声がある。音声のみをコミュニケーションの手段とする場合、情報通信端末100がユーザとコミュニケーションを行う際に推奨される具体的なコミュニケーション手法(以下、これをコミュニケーションのポリシー、または単にポリシーと表記する)に関連するのは、ユーザの言語レベル、知識レベル、および、聴覚レベル(表においてYesと記載されたコミュニケーション能力要素)である。ユーザの視覚レベルは実際のコミュニケーション能力要素に含まれない、そのため表においてはNoと記載されている。 As shown at the top of the table, when the information communication terminal 100 to be used is a robot, an AI speaker mainly for voice communication, an earphone for hearing support, etc., voice is used as a means of communication with the user. be. When only voice is used as a means of communication, it is related to a specific communication method recommended when the information communication terminal 100 communicates with a user (hereinafter, this is referred to as a communication policy or simply a policy). Is the user's language level, knowledge level, and auditory level (communication ability element described as Yes in the table). The user's visual level is not included in the actual communication ability element, so it is listed as No in the table.
 ポリシーとは、その対象ユーザに対してある情報を円滑に伝達するために守るべき、伝える情報の表現方法に関するガイドラインであるとも言える。 It can be said that the policy is a guideline on how to express the information to be conveyed, which should be observed in order to smoothly convey certain information to the target user.
 同様に、表の2段目に示したように、利用する情報通信端末100がスマートフォンや、モニター付属のAIスピーカー、AIスピーカーとテレビとが連動したシステムなどの場合、ユーザとのコミュニケーションの手段には音声と文字を用いる場合がある。この場合、情報通信端末100のコミュニケーションのポリシーに関連するのは、ユーザの言語レベル、知識レベル、視覚レベル、および聴覚レベルである。 Similarly, as shown in the second row of the table, when the information communication terminal 100 to be used is a smartphone, an AI speaker attached to a monitor, a system in which an AI speaker and a television are linked, etc., it can be used as a means of communication with the user. May use voice and text. In this case, it is the user's language level, knowledge level, visual level, and auditory level that are relevant to the communication policy of the information communication terminal 100.
 同様に、表の最下段に示したように、利用する情報通信端末100がスマートフォン、スマートウォッチ、テレビなどの場合、ユーザとのコミュニケーションの手段として文字のみが用いられる場合がある。この場合、情報通信端末100のコミュニケーションのポリシーに関連するのは、ユーザの言語レベル、知識レベル、および、視覚レベルである。 Similarly, as shown at the bottom of the table, when the information communication terminal 100 to be used is a smartphone, smart watch, television, or the like, only characters may be used as a means of communication with the user. In this case, it is the user's language level, knowledge level, and visual level that are related to the communication policy of the information communication terminal 100.
 このように、利用する情報通信端末100の形態と利用する機能に応じて、利用可能なコミュニケーションの手段は異なってくる。それによりユーザと情報通信端末100との間のコミュニケーションのポリシーは、ユーザの言語レベルと知識レベルに加えて、そのコミュニケーションの手段に応じて用いられる視覚レベル、および/または聴覚レベルにより決定される。 As described above, the means of communication that can be used differ depending on the form of the information communication terminal 100 to be used and the function to be used. Thereby, the policy of communication between the user and the information communication terminal 100 is determined by the language level and knowledge level of the user, as well as the visual level and / or the auditory level used according to the means of communication.
 図4は、コミュニケーションのポリシーと、ユーザの言語レベルとの相関の一例を示す表である。ここに示したように言語レベルは1~5といった複数の段階に分けられる。言語レベルは、1が最も言語知識が乏しく、5が最も言語知識が豊富であることを意味している。そのため、言語レベルが1の場合には、よく使われる基本的な言葉のみを使うようにポリシーを設定する。逆に言語レベルが5の場合には、幅広い場面で使われる様々な言葉を使うようにポリシーを設定する。 FIG. 4 is a table showing an example of the correlation between the communication policy and the language level of the user. As shown here, the language level is divided into multiple stages such as 1-5. The language level means that 1 is the least linguistic knowledge and 5 is the most linguistic knowledge. Therefore, when the language level is 1, set the policy to use only the basic words that are often used. On the contrary, when the language level is 5, set the policy to use various words used in a wide range of situations.
 例えば、言語レベルごとに用いる言葉は、言語レベル1であれば小学生1年生が履修する言葉、言語レベル2であれば小学生3年生が履修する言葉、言語レベル3であれば小学生6年生が履修する言葉、言語レベル4であれば中学生3年生が履修する言葉、言語レベル5であれば高校生3年生が履修する言葉、という風に言語レベルが高くなるほど段階的に必要となる言語知識量が増えるように設定しても良い。 For example, the words used for each language level are words taken by first grade elementary school students at language level 1, words taken by third grade elementary school students at language level 2, and taken by sixth grade elementary school students at language level 3. The higher the language level, the more language knowledge is required, such as words, words taken by third-year junior high school students at language level 4, and words taken by third-year high school students at language level 5. May be set to.
 図5は、コミュニケーションのポリシーと、ユーザの知識レベルとの相関の一例を示す表である。ここに示したように知識レベルは1~5といった複数の段階に分けられる。知識レベルは、1が最も知識が乏しく、5が最も知識が豊富であることを意味している。そのため、知識レベルが1の場合には、よく使われる基本的な知識のみを使うようにポリシーを設定する。逆に知識レベルが5の場合には、幅広い場面で使われる様々な知識を使うようにポリシーを設定する。 FIG. 5 is a table showing an example of the correlation between the communication policy and the knowledge level of the user. As shown here, the knowledge level is divided into a plurality of stages such as 1 to 5. The knowledge level means that 1 is the least knowledgeable and 5 is the most knowledgeable. Therefore, when the knowledge level is 1, set the policy to use only the basic knowledge that is often used. On the contrary, when the knowledge level is 5, the policy is set to use various knowledge used in a wide range of situations.
 例えば、知識レベルごとに用いる知識は、知識レベル1であれば小学生1年生が履修する知識、知識レベル2であれば小学生3年生が履修する知識、知識レベル3であれば小学生6年生が履修する知識、言語レベル4であれば中学生3年生が履修する知識、言語レベル5であれば高校生3年生が履修する知識、という風に知識レベルが高くなるほど段階的に必要となる知識量が増えるように設定しても良い。さらに、ポリシーが適用された回答において、知識レベルが高くなるほど、当該回答に含まれる専門用語の数を増やしてもよいし、当該回答に含まれる文章の平均的な長さを長くしてもよいし、当該回答の全体の文字数を多くしてもよい。 For example, the knowledge used for each knowledge level is the knowledge that the first grader of elementary school takes if it is knowledge level 1, the knowledge that the third grader of elementary school takes if it is knowledge level 2, and the sixth grader of elementary school if it is knowledge level 3. Knowledge, knowledge taken by third-year junior high school students at language level 4, knowledge taken by third-year high school students at language level 5, and so on. The higher the knowledge level, the greater the amount of knowledge required. You may set it. In addition, the higher the level of knowledge in the answer to which the policy is applied, the greater the number of technical terms contained in the answer, or the longer the average length of the text contained in the answer. However, the total number of characters in the answer may be increased.
 図6は、コミュニケーションのポリシーと、ユーザの視覚レベルとの相関の一例を示す表である。ここに示したように視覚レベルは1~5といった複数の段階に分けられる。知覚レベルは、1が最も視覚を介した認知力が低く、5が最も視覚を介した認知力が高いことを意味している。そのため、視覚レベルが1の場合には、最も視認性の高いデザインで文字や文章を表示するようにポリシーを設定する。ここで言うデザインとは文字の表示サイズ、文字縁取りの修飾、文字の配色、文字の配置などのことである。逆に視覚レベルが5の場合には、一般的なデザインを使って文字を表示するようにポリシーを設定する。 FIG. 6 is a table showing an example of the correlation between the communication policy and the visual level of the user. As shown here, the visual level is divided into a plurality of stages such as 1 to 5. Perceptual level means that 1 has the lowest visual cognitive ability and 5 has the highest visual cognitive ability. Therefore, when the visual level is 1, the policy is set so that characters and sentences are displayed in the design with the highest visibility. The design referred to here is the display size of characters, the modification of character borders, the color scheme of characters, the arrangement of characters, and the like. On the contrary, when the visual level is 5, the policy is set to display characters using a general design.
 例えば、視覚レベルごとに用いる文字のデザインは、視覚レベル5であれば一般的なデザイン(文字サイズ=16)、視覚レベル4であればやや視認性の高いデザイン(文字サイズ=22)、視覚レベル3であれば視認性の高いデザイン(文字サイズ=26)、視覚レベル2であればより視認性の高いデザイン(文字サイズ=32)、視覚レベル1であれば最も視認性の高いデザイン(文字サイズ=36)、という風に視覚レベルが低くなるほど段階的に表示される文字が大きく表示されるように設定しても良い。 For example, the character design used for each visual level is a general design (character size = 16) for visual level 5, a slightly higher visibility design (character size = 22) for visual level 4, and a visual level. 3 is a highly visible design (character size = 26), visual level 2 is a more visible design (character size = 32), and visual level 1 is the most visible design (character size). The lower the visual level, the larger the characters displayed in stages may be set, such as = 36).
 図7は、コミュニケーションのポリシーと、ユーザの聴覚レベルとの相関の一例を示す表である。ここに示したように聴覚レベルは1~5といった複数の段階に分けられる。聴覚レベルは、1が最も聴覚を介した認知力が低く、5が最も聴覚を介した認知力が高いことを意味している。そのため、聴覚レベルが1の場合には、最もゆっくり、最も明瞭に、および/または最も大きな音量で音声を出力するようにポリシーを設定する。ここで言う明瞭とは文字の発音がはっきりしていて、曖昧な発音が少なく、聞き取りやすいことである。逆に聴覚レベルが5の場合には、一般的なスピード、明瞭さ、音量で音声を出力するようにポリシーを設定する。 FIG. 7 is a table showing an example of the correlation between the communication policy and the user's hearing level. As shown here, the hearing level is divided into a plurality of stages such as 1 to 5. Hearing level means that 1 has the lowest auditory cognitive ability and 5 has the highest auditory cognitive ability. Therefore, when the hearing level is 1, the policy is set to output the sound at the slowest, clearest, and / or loudest volume. Clarity here means that the pronunciation of letters is clear, there are few ambiguous pronunciations, and it is easy to hear. On the contrary, when the hearing level is 5, the policy is set to output the sound at the general speed, clarity, and volume.
 例えば、聴覚レベルごとに用いる文章の発音は、聴覚レベル5であれば一般的な聞き取り易さで音声を出力する(発話スピード=100単語/分、音量=50dB)、聴覚レベル4であればやや聞き取り易く音声を出力する(発話スピード=90単語/分、音量=60dB)、聴覚レベル3であれば聞き取り易く音声を出力する(発話スピード=80単語/分、音量=65dB)、聴覚レベル2であればより聞き取り易く音声を出力する(発話スピード=70単語/分、音量=70dB)、聴覚レベル1であれば最も聞き取り易く音声を出力する(発話スピード=60単語/分、音量=75dB)、という風に聴覚レベルが低くなるほど段階的に出力される音声がゆっくりとなり、かつ/または、大きな音量で出力されて聞き取りやすくなるように設定しても良い。 For example, as for the pronunciation of sentences used for each hearing level, if the hearing level is 5, the voice is output with general audibility (speech speed = 100 words / minute, volume = 50 dB), and if the hearing level is 4, the voice is slightly output. Easy-to-hear voice output (speech speed = 90 words / minute, volume = 60 dB), easy-to-hear voice output at hearing level 3 (speech speed = 80 words / minute, volume = 65 dB), hearing level 2 If there is, the voice is output more easily (speech speed = 70 words / minute, volume = 70 dB), and if the hearing level is 1, the voice is output most easily (speech speed = 60 words / minute, volume = 75 dB). The lower the hearing level, the slower the sound that is output in stages, and / or the sound that is output at a louder volume may be set so that it is easier to hear.
 図8は、ユーザと情報通信端末100とのコミュニケーションのポリシーの具体例を、ユーザのコミュニケーション能力に応じて、示した表である。この表では、「PCR検査とは何か?」という質問をユーザから受けた情報通信端末100が、応答で用いるコミュニケーション手段(音声、文字、映像)と、ユーザのコミュニケーション能力(言語レベル、知識レベル、知覚レベル、聴覚レベル)から決定されるポリシーによって、どのように変化するかを示している。 FIG. 8 is a table showing specific examples of communication policies between the user and the information communication terminal 100 according to the communication ability of the user. In this table, the communication means (voice, text, video) used by the information communication terminal 100, which receives the question "What is a PCR test?" From the user, and the user's communication ability (language level, knowledge level). , Perceptual level, Hearing level), and how it changes depending on the policy.
 以降、ポリシーを、それを決定する要素である5つの要素を用いて、下記のような関数の表記にて表すこととする。つまり、ポリシーとは、利用するコミュニケーションの手段、ユーザの言語レベル、知識レベル、視覚レベル、聴覚レベルの入力値に応じて変化する出力値だとする。ポリシーに関与しないコミュニケーション能力は、0と表記する。 From now on, the policy will be expressed in the following function notation using the five elements that determine it. In other words, the policy is an output value that changes according to the input value of the communication method used, the language level, the knowledge level, the visual level, and the auditory level of the user. Communication ability that is not involved in the policy is expressed as 0.
 ポリシー = f(利用するコミュニケーションの手段、言語レベル、知識レベル、視覚レベル、聴覚レベル)
 表の最上段では、ユーザが質問した「PCR検査とは何か?」に対して、ポリシー=f(音声、1、1、0、2)で応答する例である。上記の例を用いると、言語レベル=1なので小学生1年生が履修した言葉を用いて、知識レベル=1なので小学生1年生が履修した知識の範疇で「病気か調べる方法です」という回答文章を、聴覚レベル=2なのでより聞き取り易く発話スピード=70単語/分、音量=70dBで音声出力することがポリシーとなる。
Policy = f (means of communication used, language level, knowledge level, visual level, auditory level)
At the top of the table is an example of responding to the user's question "What is a PCR test?" With policy = f ( voice 1, 1, 0, 2). Using the above example, since the language level is 1, the words taken by the first graders of elementary school are used, and since the knowledge level is 1, the answer sentence "It is a method to check if you are sick" is given in the category of the knowledge taken by the first graders of elementary school. Since the hearing level is 2, it is easier to hear, and the policy is to output voice at a speech speed of 70 words / minute and a volume of 70 dB.
 同様に、表の2段目では、同じ質問に対して、ポリシー=f(音声、4、4、0、4)で応答する例である。この場合はより高度な言葉を用いて、より広範な知識を用いて、ややゆっくりと応答する。例えば、「いまウィルスに感染しているかを、ウィルスが持つ遺伝子情報を増幅させて調べる検査方法です」をややゆっくり(発話スピード=90単語/分)と音声出力することで応答している。 Similarly, the second row of the table is an example of responding to the same question with policy = f (voice, 4, 4, 0, 4). In this case, use more advanced language, use broader knowledge, and respond rather slowly. For example, it responds by voice-outputting "This is a test method that amplifies the genetic information of the virus to check whether it is infected with the virus" rather slowly (speech speed = 90 words / minute).
 同様に、表の3段目では、同じ質問に対して、ポリシー=f(文字、4、4、4、0)で応答する例である。この場合は言語レベルと知識レベルが同じため2段目と同じ回答文章を、やや視認性の高いデザインにて応答する。例えば、「いまウィルスに感染しているかを、ウィルスが持つ遺伝子情報を増幅させて調べる検査方法です」をやや視認性の高いデザイン(文字サイズ=22)にて表示することで応答している。 Similarly, the third row of the table is an example of responding to the same question with policy = f ( characters 4, 4, 4, 0). In this case, since the language level and the knowledge level are the same, the same answer sentence as in the second stage is responded with a slightly highly visible design. For example, it responds by displaying "This is a test method that amplifies the genetic information of a virus to check whether it is infected with a virus" in a slightly highly visible design (character size = 22).
 以下、同様であるが、表の5段目では、同じ質問に対して、ポリシー=f(文字+映像+音声、2、2、2、2)で応答する例である。この場合は「遺伝子により病気を調べる方法です」という回答文章を、より視認性の高いデザイン(文字サイズ=32、文字修飾=太字)で表示すると同時に、読み取り易いように漢字にフリガナを振っている。さらに、補足のイラスト映像(800)で遺伝子により病気を調べる方法を、簡略化した2ステップのイメージ映像にて説明している。 The same applies to the following, but in the fifth row of the table, the same question is answered with policy = f (character + video + audio 2, 2, 2, 2). In this case, the answer sentence "This is a method to check for diseases by genes" is displayed in a more visible design (character size = 32, character modification = bold), and at the same time, furigana is added to the Chinese characters for easy reading. .. Further, a supplementary illustration video (800) is used to explain a method of investigating a disease by a gene with a simplified two-step image video.
 また、あまり日本語に慣れていない外国人などに対しては、日本語の言語レベルは1とするが、知識レベルや視覚レベルでは一般の人と同じポリシーでコミュニケーションをとる方が伝わり易い場合もある。表の最下段はこのような場合であり、「ウィルス」というカタカナ表示や、「いでんし」という日本語の文字を知らない場合に、英語表記(Virus)や、一般的に広く知られている略称(RNA、DNA)を併用して説明することで、ユーザのコミュニケーション能力に応じて理解を支援した応答を行うことができる。 Also, for foreigners who are not very familiar with Japanese, the language level of Japanese is set to 1, but in some cases it is easier to communicate with the same policy as ordinary people at the knowledge level and visual level. be. The bottom of the table is such a case, and if you do not know the katakana display of "virus" or the Japanese character of "idenshi", it is widely known as English notation (Virus). By explaining in combination with the abbreviations (RNA, DNA), it is possible to make a response that supports understanding according to the communication ability of the user.
 図9は、コミュニケーションの初期設定を行う一例を示すシーケンス図である。特にここではユーザの情報通信端末99を用いて情報通信端末100の初期設定を行うフローチャートを示している。以下、情報通信端末99をスマートフォン99とも記して、情報通信端末99がスマートフォンである場合の例を用いて説明する。さらに、情報通信端末100をロボット100とも記して、情報通信端末100がロボットである場合の例を用いて説明する。 FIG. 9 is a sequence diagram showing an example of initializing communication. In particular, here shows a flowchart for initializing the information communication terminal 100 using the user's information communication terminal 99. Hereinafter, the information communication terminal 99 is also referred to as a smartphone 99, and an example of the case where the information communication terminal 99 is a smartphone will be described. Further, the information communication terminal 100 is also referred to as a robot 100, and an example of the case where the information communication terminal 100 is a robot will be described.
 ステップS901において、ユーザはスマートフォン99にインストールされているロボット100の設定を行うアプリケーションを操作して、その初期設定を行うように操作する。スマートフォン99はロボット100とアドホックな通信セッションを開き、ステップS902において、ロボットは識別情報(ロボットID)をスマートフォンに送信する。これは無線通信のWi-Fi(登録商標)においてアドホックモードなどと呼ばれる接続形態で行われても良いし、Bluetooth(登録商標)においてビーコン信号を使って行われても良いし、他の通信方法、通信モードによって行われても良い。または、ユーザがロボットIDをスマートフォン99に入力しても良いし、ロボットIDを示すコード(例えばQRコード(登録商標))をスマートフォン99のカメラで読み取り設定するようにしても良い。 In step S901, the user operates an application for setting the robot 100 installed on the smartphone 99, and operates so as to perform the initial setting. The smartphone 99 opens an ad hoc communication session with the robot 100, and in step S902, the robot transmits identification information (robot ID) to the smartphone. This may be performed in a connection form called ad hoc mode or the like in Wi-Fi (registered trademark) of wireless communication, may be performed by using a beacon signal in Bluetooth (registered trademark), or another communication method. , May be done by communication mode. Alternatively, the user may input the robot ID into the smartphone 99, or a code indicating the robot ID (for example, a QR code (registered trademark)) may be read and set by the camera of the smartphone 99.
 ステップS903において、ユーザはユーザのアカウントを新規に生成し、その際にユーザの識別情報となるユーザIDをアプリケーションに登録する。さらに、ステップS904において、ユーザがロボット100に話しかけるなどのコミュニケーションをとった際に、コミュニケーションの相手がユーザであることをロボット100またはクラウド101が認識するための情報(ユーザ識別情報)を登録する。このユーザ識別情報は、例えば、そのユーザだけがロボット100に対して使うウェイクアップワードであったり、ユーザの身体的特徴(顔、指紋など)であったり、ユーザの音声特徴であっても良い。 In step S903, the user newly creates a user account, and at that time, registers a user ID that serves as user identification information in the application. Further, in step S904, when the user talks to the robot 100 or the like, information (user identification information) for the robot 100 or the cloud 101 to recognize that the communication partner is the user is registered. The user identification information may be, for example, a wakeup word used only by the user for the robot 100, a physical feature of the user (face, fingerprint, etc.), or a voice feature of the user.
 最後に、ステップS905において、ユーザはロボット100がユーザに対してコミュニケーションを取る際のポリシーを登録する。これは上記の言語レベル、知識レベル、視覚レベル、聴覚レベルの少なくとも1つを含む設定情報(すなわち、コミュニケーションポリシー情報)である。初期設定を行うアプリケーションによって、具体的なコミュニケーション事例を参考にしながら、どのレベルをユーザが好むのかを確認しながらレベルを設定するようにしても良いし、ユーザに対して簡易なテストを行い推奨レベルをユーザに提案してレベルを設定するようにしても良い。 Finally, in step S905, the user registers a policy for the robot 100 to communicate with the user. This is setting information (that is, communication policy information) including at least one of the above-mentioned language level, knowledge level, visual level, and auditory level. Depending on the application that performs the initial setting, you may set the level while checking which level the user prefers while referring to specific communication cases, or perform a simple test on the user and recommend the level. May be suggested to the user to set the level.
 ユーザの初期設定に必要な情報が集まると、ステップS906において、スマートフォン99の設定を行うアプリケーションは上記のユーザに関するユーザID、ユーザ識別情報、ポリシーとそのユーザが利用するロボット100のロボットIDとをユーザ情報を管理するクラウド101へ送信する。ステップS906において、これを受け取ったユーザ情報を管理するクラウド101はユーザの初期設定に関する上記情報をそのメモリ223に記録して、ユーザを登録する。そして、ステップS908において、登録完了の通知をスマートフォン99に通知する。 When the information necessary for the initial setting of the user is collected, in step S906, the application for setting the smartphone 99 uses the user ID, the user identification information, the policy and the robot ID of the robot 100 used by the user. It is transmitted to the cloud 101 that manages the information. In step S906, the cloud 101 that manages the received user information records the above information regarding the initial setting of the user in the memory 223 and registers the user. Then, in step S908, the smartphone 99 is notified of the completion of registration.
 ステップS909において、ユーザはスマートフォン99の映像音声出力部206を介してユーザの登録が成功したことを確認した後、追加の登録があればさらに追加を行う。ここでは同居人の登録も続けて行う。同居人の初期設定は先程のユーザの登録と同じように行われる。同居人のアカウント設定において同居人の識別情報となるユーザID、同居人がコミュニケーションの相手であることをロボット100またはクラウド101が認識するためのユーザ識別情報、ロボット100が同居人に対してコミュニケーションを取る際のポリシーをスマートフォン99のアプリケーションに登録する(ステップS910~S915)。 In step S909, the user confirms that the user's registration was successful via the video / audio output unit 206 of the smartphone 99, and then further adds if there is an additional registration. Here, we will continue to register the cohabitants. The initial setting of the housemate is done in the same way as the user registration earlier. User ID that is the identification information of the co-resident in the account setting of the co-resident, user identification information for the robot 100 or the cloud 101 to recognize that the co-resident is the communication partner, and the robot 100 communicates with the co-resident. Register the policy for taking in the application of the smartphone 99 (steps S910 to S915).
 これらの同居人の初期設定に必要な情報が集まると、スマートフォン99の設定を行うアプリケーションは同居人のユーザID、ユーザ識別情報、ポリシーとその同居人が利用するロボットのロボットIDとをユーザ情報を管理するクラウド101へ送信する。これを受け取ったクラウド101は同居人の初期設定に関する上記情報をそのメモリ223に記録して、同居人を登録する。そして登録完了の通知をスマートフォン99に通知する。そしてユーザはユーと同居人に対する初期設定を完了する(ステップS916)。 When the information required for the initial settings of the cohabitant is collected, the application that sets the smartphone 99 uses the user information of the cohabitant, the user identification information, the policy, and the robot ID of the robot used by the cohabitant. Send to the managed cloud 101. Upon receiving this, the cloud 101 records the above information regarding the initial setting of the cohabitant in the memory 223 and registers the cohabitant. Then, the notification of the completion of registration is notified to the smartphone 99. Then, the user completes the initial setting for Yu and the housemate (step S916).
 これらのユーザの登録は連続ではなく、個々に実施されても良い。また、同居人の登録はユーザのスマートフォンからではなく、同居人のスマートフォンを用いて同居人自らが実施するようにしても良い。ここでは、ユーザ及び同居人が1台のロボット100を利用するため、複数のユーザがそのロボット100と関連付けされた形で登録されればよい。また、登録においてはロボット100とコミュニケーションを取る相手が、ユーザか同居人かに応じて適した応対ができるように、コミュニケーションの相手を識別するためのユーザ識別情報とその時に用いられるポリシーとが登録されることが重要である。 Registration of these users may be performed individually rather than continuously. Further, the registration of the cohabitant may be performed by the cohabitant himself / herself using the smartphone of the cohabitant instead of the smartphone of the user. Here, since the user and the cohabitant use one robot 100, a plurality of users may be registered in a form associated with the robot 100. Further, in the registration, the user identification information for identifying the communication partner and the policy used at that time are registered so that the person who communicates with the robot 100 can respond appropriately depending on whether the user or the cohabitant can respond appropriately. It is important to be done.
 図10は、コミュニケーションの初期設定を行う一例を示すシーケンス図である。図9とは異なるのは、スマートフォン99を介さずに直接ロボット100を用いて初期設定を行っている点である。初期設定にて登録される情報は、図9と全く同じである。ユーザはロボット100に対して初期設定を開始すると、自らのユーザID、ユーザ識別情報、ポリシーをロボット100を介して登録する(ステップS1001~S1004)。ステップS1005において、ロボット100はこれらのユーザの初期設定情報をユーザ情報を管理するクラウド101にロボットIDと共に通知し、ステップS1007において、ユーザの登録を完了させる。ユーザは同様に同居人の初期設定もロボット100を介して引き続き行う。 FIG. 10 is a sequence diagram showing an example of initializing communication. The difference from FIG. 9 is that the initial setting is performed directly by using the robot 100 without going through the smartphone 99. The information registered in the initial settings is exactly the same as in FIG. When the user starts the initial setting for the robot 100, the user registers his / her user ID, user identification information, and policy via the robot 100 (steps S1001 to S1004). In step S1005, the robot 100 notifies the cloud 101 that manages the user information of the initial setting information of these users together with the robot ID, and in step S1007, the user registration is completed. Similarly, the user continues to perform the initial setting of the cohabitant via the robot 100.
 この場合でも、ロボット100を識別するロボットIDと、ユーザごとの初期設定値(ユーザID、ユーザ識別情報、ポリシー)とがペアでクラウド101に登録される(ステップS1008~S1015)。 Even in this case, the robot ID that identifies the robot 100 and the initial setting values (user ID, user identification information, policy) for each user are registered in the cloud 101 as a pair (steps S1008 to S1015).
 図11は図9、図10のフローチャートにより示した初期設定において設定される各種パラメータを示す表である。この表はユーザまたは同居人とのコミュニケーションを生成する時に利用されるため、ユーザ情報を管理するクラウド101に記録、管理されている。 FIG. 11 is a table showing various parameters set in the initial settings shown by the flowcharts of FIGS. 9 and 10. Since this table is used when generating communication with a user or a cohabitant, it is recorded and managed in the cloud 101 that manages user information.
 表は1レコードが1行に相当する。例えば、1行目のレコードを見ると、ロボットID(00001000)のロボット100を利用するユーザの情報として、ユーザID(0001)、このユーザをロボット100が識別するためのユーザ識別情報として3つの情報と、このユーザに対して適用するポリシー(f(文字+音声、3、3、3、3))とが記録されている。 In the table, one record corresponds to one row. For example, looking at the record on the first line, the user ID (0001) is the information of the user who uses the robot 100 of the robot ID (00001000), and three pieces of information are used as the user identification information for the robot 100 to identify this user. And the policy (f (character + voice, 3, 3, 3, 3)) applied to this user is recorded.
 ユーザ識別情報に含まれる3つの情報には、このユーザがロボット100に話しかける際に使うこのユーザ固有のウェイクアップワード(アインシュタイン)、このユーザがコミュニケーションを取っていることをロボット100またはクラウド101が識別するためのユーザの身体的特徴量(例えば、顔特徴量ベクトル)、ユーザの音声特徴量(音声特徴量ベクトル)が含まれる。 The three pieces of information contained in the user identification information include this user-specific wakeup word (Einstein) used when this user talks to the robot 100, and the robot 100 or the cloud 101 identifies that this user is communicating. A user's physical feature amount (for example, a face feature amount vector) and a user's voice feature amount (voice feature amount vector) are included.
 同じロボットID(00001000)であるロボット100には、もう1人のユーザである同居人が登録されている。同居人はユーザID(0002)であり、そのレコードには、同居人だけが使う固有ウェイクアップワード(ラザフォード)、同居人の身体的特徴量、同居人の音声特徴量、同居人に対するポリシー(f(文字+音声、4、4、5、5))が登録されている。他のロボット、ユーザについても同様に記録される。 Another user, a cohabitant, is registered in the robot 100, which has the same robot ID (00001000). The roommate is a user ID (0002), and the record contains a unique wakeup word (Razaford) used only by the housemate, physical features of the housemate, voice features of the housemate, and a policy for the housemate (f). (Character + voice, 4, 4, 5, 5)) is registered. The same is recorded for other robots and users.
 1人のユーザが1台のロボット100を占有して利用する場合は、ロボット100が誰とコミュニケーションを取っているのかを識別する必要は少ない。しかし、同じロボット100を複数人で利用する場合には、登録されたユーザ識別情報との差異を特定することにより、ロボット100またはクラウド101はユーザIDが0001のユーザか、0002の同居人か、またはこの2人ではない誰か、と話しているのかを判定することができる。これによって、ロボット100は話している相手に応じて設定されたポリシーでコミュニケーションを取ることが可能となる。 When one user occupies and uses one robot 100, it is not necessary to identify with whom the robot 100 is communicating. However, when the same robot 100 is used by a plurality of people, the robot 100 or the cloud 101 may be a user with a user ID of 0001 or a cohabitant of 0002 by identifying the difference from the registered user identification information. Or you can determine if you are talking to someone other than these two. As a result, the robot 100 can communicate with the policy set according to the person with whom the robot is talking.
 図12は、ユーザからの質問に回答する応答方法の一例を示すシーケンス図である。この図は情報ソース102からの情報を発端として、ユーザがロボット100に音声で質問を行い、そのロボット100が設定されたユーザのポリシーに従ってユーザに音声で回答を行うまでの流れである。ここでは、ユーザの初期設定は予め完了しているとする。 FIG. 12 is a sequence diagram showing an example of a response method for answering a question from a user. This figure is a flow from the information from the information source 102 to the user asking a question to the robot 100 by voice and the robot 100 answering the user by voice according to the set user policy. Here, it is assumed that the initial setting of the user has been completed in advance.
 例えば、ステップS1201において、ユーザは情報ソース102からのニュース情報の中で出てきた「PCR検査による新規感染者数は」という説明の所で使われた「PCR検査」という言葉の意味が分からないとする。ステップS1202において、ユーザは「PCR検査とは何か?」とロボット100に対して口頭(音声)で質問を行う。ロボット100はセンサー213でそのユーザが行った質問の音声情報を取得し、ステップS1203において、通信部211を介してユーザ情報を管理するクラウド101にその音声情報と自らのロボットIDとを送信する。 For example, in step S1201, the user does not understand the meaning of the word "PCR test" used in the explanation "How many new infections are by PCR test" that appears in the news information from the information source 102. And. In step S1202, the user asks the robot 100, "What is a PCR test?" Orally (voice). The robot 100 acquires the voice information of the question asked by the user by the sensor 213, and in step S1203, transmits the voice information and its own robot ID to the cloud 101 that manages the user information via the communication unit 211.
 ステップS1204において、クラウド101は図11のデータベース、すなわち、話者識別データベースを参照して、受信したロボットIDを利用しているユーザを抽出する。さらに、抽出されたユーザの中の誰の発話だったかをユーザ識別情報と照合することで判別する。ここでは受信した音声情報の音声特徴量と登録されている音声特徴量とを比較して発話者を特定するようにしても良い。またその音声情報を認識して発話文字列に変換して、発話文字列を意図解析して質問であることを推定しても良い。ここでは、音声特徴量から発話者がユーザであったことと、その発話が質問であったことがクラウド101にて推定される。 In step S1204, the cloud 101 refers to the database of FIG. 11, that is, the speaker identification database, and extracts the user who is using the received robot ID. Further, it is determined by collating with the user identification information which of the extracted users the utterance was made. Here, the speaker may be specified by comparing the voice feature amount of the received voice information with the registered voice feature amount. Further, the voice information may be recognized and converted into an utterance character string, and the utterance character string may be intentionally analyzed to estimate that the question is a question. Here, it is estimated by the cloud 101 that the speaker was the user and that the utterance was a question from the voice features.
 尚、音声特徴量で比較して発話者を特定する際に、所定の合致度を満たすユーザがいない場合には、登録されていないユーザの発話としてデフォルトのポリシーで応答するようにしても良い。 When identifying the speaker by comparing with the voice features, if there is no user who satisfies the predetermined matching degree, the default policy may be used as the speech of the unregistered user.
 次に、ステップS1205において、ユーザのポリシーをデータベースから参照して、ユーザ用に設定された言語レベル、知識レベルに沿った回答内容(回答文字列)と、ユーザ用に設定された聴覚レベルに沿った提示方法(発話スピードや音量など)とを決定する。ここでは、ユーザのポリシーがf(音声、4、4、0、4)であったとして、「いまウィルスに感染しているかを、ウィルスが持つ遺伝子情報を増幅させて調べる検査方法です」という回答文字列を、やや聞き取り易い音声で出力する(例えば、発話スピード=90単語/分、音量=60dB)ことに決定する。そして、ステップS1206において、クラウド101はロボット100に対して、ユーザのポリシーに従った回答として、指定した回答内容(回答文字列)と指定した提示方法又は出力形式(発話スピード、音量)でもってユーザに回答するように要求する。 Next, in step S1205, the user's policy is referred to from the database, and the answer content (answer character string) according to the language level and knowledge level set for the user and the auditory level set for the user are met. Determine the presentation method (speech speed, volume, etc.). Here, assuming that the user's policy is f (voice, 4, 4, 0, 4), the answer is "This is a test method that amplifies the genetic information of the virus to check whether it is infected with the virus now." It is determined that the character string is output as a voice that is slightly easy to hear (for example, utterance speed = 90 words / minute, volume = 60 dB). Then, in step S1206, the cloud 101 responds to the robot 100 with the specified answer content (answer character string) and the specified presentation method or output format (speech speed, volume) as the answer according to the user's policy. Request to answer.
 ステップS1207において、ロボット100は、受信した回答内容(回答文字列)と提示方法とから、回答文字列を音声信号に変換して映像音声出力部217を介して音声でユーザに回答する。この際、上記の回答音声がやや聞き取り易いように音声出力を制御する。これによってユーザはPCR検査がどういう検査なのか、ユーザの言語レベル、知識レベル、聴覚レベルに応じた回答を聞くことができ、その内容をよく理解することができる(ステップS1208)。これによりユーザはニュース情報を即座に、的確に、理解することができる。 In step S1207, the robot 100 converts the response character string into an audio signal from the received response content (answer character string) and the presentation method, and responds to the user by voice via the video / audio output unit 217. At this time, the voice output is controlled so that the above answer voice is slightly easier to hear. As a result, the user can hear the answer according to the user's language level, knowledge level, and auditory level, and can understand the contents well (step S1208). As a result, the user can immediately and accurately understand the news information.
 この後、ステップS1209において、クラウド101は今回の回答に適用したポリシーの評価をユーザに問い合わせるようロボット100にその問い合わせ内容(問い合わせ文字列)と提示方法(発話スピード、音量)でもって依頼する。ステップS1210において、ロボット100はこの依頼に基づき、問い合わせ文字列を音声信号に変換した音声を映像音声出力部217を介して指定された提示方法に基づきユーザに質問する。この評価依頼は、ロボット100が直前の回答が終わってから、3秒以上かつ10秒以下の時間内であって、ユーザからの更なる問い合わせが無かった場合に行うようにしても良い。このように回答に対する評価依頼を行う場合は、ユーザに継続した質問がなく会話が終了していて(3秒以上)、さらに、ユーザが与えられた回答を理解できたか、理解し易かったかを明確に覚えている時間(10秒以下)に行う。これにより正しいフィードバックをユーザに負担なく、煩わしくなく得ることができる。勿論、この3秒以上かつ10秒以下という設定は一例であり、1秒以上かつ30秒以下や、2秒以上かつ7秒以下、などの時間間隔で運用されても良い。 After that, in step S1209, the cloud 101 requests the robot 100 to inquire the user about the evaluation of the policy applied to this answer by the inquiry content (inquiry character string) and the presentation method (utterance speed, volume). In step S1210, based on this request, the robot 100 asks the user a question based on the presentation method designated via the video / audio output unit 217 for the audio obtained by converting the inquiry character string into an audio signal. This evaluation request may be made when the robot 100 finishes the last reply within a time of 3 seconds or more and 10 seconds or less and there is no further inquiry from the user. When making an evaluation request for an answer in this way, it is clear that the conversation has ended (3 seconds or more) without the user having a continuous question, and whether the user understood or was easy to understand the given answer. Do it at the time you remember (10 seconds or less). As a result, correct feedback can be obtained without burdening the user and without bothering. Of course, this setting of 3 seconds or more and 10 seconds or less is an example, and may be operated at time intervals such as 1 second or more and 30 seconds or less, 2 seconds or more and 7 seconds or less.
 ロボット100はユーザの回答ポリシーへの評価フィードバック(音声)から、ユーザの発話を文章情報(文字列)に変換し、または、ユーザが発話する音声情報をそのまま(音声)、自らのロボットIDと共にクラウド101に転送する(ステップS1211、S1212)。ユーザの評価情報を受信したクラウド101は、ステップS1213において、ユーザが行った質問の日時、その内容、ロボット100が回答する際に使用したポリシー、とその回答の内容、さらにその回答に対するユーザの評価情報(ユーザの評価を数値化した値)を紐づけて記録する。 The robot 100 converts the user's utterance into text information (character string) from the evaluation feedback (voice) to the user's response policy, or the voice information spoken by the user is used as it is (voice) and is clouded with its own robot ID. Transfer to 101 (steps S1211, S1212). Upon receiving the user's evaluation information, the cloud 101 receives the date and time of the question asked by the user, the content thereof, the policy used when the robot 100 answers, the content of the answer, and the user's evaluation of the answer in step S1213. Information (value that quantifies user's evaluation) is linked and recorded.
 このようにして、ユーザのコミュニケーション能力(言語レベル、知識レベル、視覚レベル、聴覚レベル)を継続して測定することで、ユーザのコミュニケーション能力の変化を早急に検知して、それに応じて、新たなポリシーに更新したり、ポリシーの更新をユーザに勧めることができる。この図では、ステップS1214において、ユーザのコミュニケーション能力の変化に応じて、新たなポリシーに更新され、ステップS1215、S1216において、その通知をロボット100を介してユーザに行っている。 In this way, by continuously measuring the user's communication ability (language level, knowledge level, visual level, auditory level), changes in the user's communication ability can be detected immediately, and new ones can be obtained accordingly. You can update to the policy or encourage users to update the policy. In this figure, in step S1214, a new policy is updated according to a change in the communication ability of the user, and in steps S1215 and S1216, the notification is given to the user via the robot 100.
 上記説明の通り、ポリシーはユーザとロボット100との間で交わされるコミュニケーションを継続して測定することにより、ユーザのコミュニケーション能力の変化が判断され、必要に応じて更新されるものである。ポリシーは、ユーザの言語レベル、知識レベル、視覚レベル、聴覚レベルにより決定されるため、ロボット100はユーザとの日常的なコミュニケーションの中で、ユーザの言語レベル、知識レベル、視覚レベル、聴覚レベルを常に確認、評価している。 As explained above, the policy is to determine the change in the communication ability of the user by continuously measuring the communication exchanged between the user and the robot 100, and update it as necessary. Since the policy is determined by the user's language level, knowledge level, visual level, and auditory level, the robot 100 determines the user's language level, knowledge level, visual level, and auditory level in daily communication with the user. Always check and evaluate.
 例えば、ロボット100は、現在適用しているポリシーの知識レベルを超えるような知識を質問してユーザの知識レベルを確認したり、少しだけ文字を小さく表示してユーザの視覚レベルを確認してみたり、少しだけ小さな音声で回答を伝えてユーザの聴覚レベルを確認してみたりすることで、常にユーザのコミュニケーション能力を把握して、ポリシーに反映させるようにしても良い。 For example, the robot 100 asks a question about knowledge that exceeds the knowledge level of the policy currently applied to check the user's knowledge level, or displays the characters a little smaller to check the user's visual level. Alternatively, the user's communication ability may be constantly grasped and reflected in the policy by giving an answer with a slightly smaller voice and checking the user's hearing level.
 一方で、情報ソース102が伝える情報やその表現方法をロボット100が特定できる場合には、その情報からユーザのコミュニケーション能力を設定しても良い。例えば、ユーザが視聴しているテレビ番組がアメリカ大統領候補者同士の選挙前ディベートを英語のまま視聴している場合には、ユーザの英語に関する言語レベルは5、知識レベルは5、聴覚レベルはユーザとテレビとの距離、および/またはテレビの出力音量情報から推定しても良い。 On the other hand, if the robot 100 can specify the information transmitted by the information source 102 and the expression method thereof, the communication ability of the user may be set from the information. For example, if the TV program the user is watching is watching the pre-election debate between US presidential candidates in English, the user's English language level is 5, the knowledge level is 5, and the hearing level is the user. It may be estimated from the distance between and the TV and / or the output volume information of the TV.
 同様に、ユーザが視聴しているテレビ番組が小学生低学年層をメイン対象とする子供向けアニメであった場合には、ユーザの言語レベルは1、知識レベルは1、聴覚レベルはユーザとテレビとの距離、および/またはテレビの出力音量情報から推定しても良い。また、ユーザがロボット100やタブレット端末で読んでいる書籍が専門書や論文であったり、インターネットを介してアクセスしている先が内閣府や特許庁の高度な情報理解を必要とする書類やURLアドレスであったりする場合には、十分に高度な知識体系があるとして、言語レベルを5、知識レベルを5、視覚レベルをロボット100やタブレット端末での文字表示サイズから推定しても良い。 Similarly, if the TV program that the user is watching is an animation for children mainly for the lower grades of elementary school, the user's language level is 1, the knowledge level is 1, and the hearing level is the user and TV. And / or may be estimated from the output volume information of the television. In addition, the books that the user is reading on the robot 100 or tablet terminal are specialized books and papers, and the destinations that are accessed via the Internet are documents and URLs that require advanced knowledge understanding of the Cabinet Office and the Japan Patent Office. In the case of an address, assuming that there is a sufficiently advanced body of knowledge, the language level may be estimated to be 5, the knowledge level to be 5, and the visual level may be estimated from the character display size on the robot 100 or the tablet terminal.
 尚、ロボット100はユーザに日常的に寄り添いユーザのコミュニケーション能力を計測していることから、普段は起こらないような言語レベルや知識レベルの急激な低下が検出された際には、ユーザ本人に体調が悪くないか問いかけたり、ユーザの家族や、ユーザが加入している保険会社、警備保障会社、かかりつけの医者などにその旨を連絡するようにして、ユーザの身体に危険が及んでいないか確認するように働きかけても良い。これらの判断は、ユーザが装着しているスマートウォッチのような活動量や生体情報を検知できるセンサー情報と一緒に判断することにより、より的確な推測をすることが可能となる。 Since the robot 100 is close to the user on a daily basis and measures the communication ability of the user, when a sudden decrease in language level or knowledge level that does not normally occur is detected, the user himself / herself is in good physical condition. Ask the user if it is not bad, or contact the user's family, the insurance company to which the user is subscribed, the security company, the family doctor, etc. to check if there is any danger to the user's body. You may work to do so. These judgments can be made more accurately by making judgments together with sensor information that can detect the amount of activity and biometric information such as a smart watch worn by the user.
 尚、上記説明においては、ユーザに回答ポリシーを評価するよう特定のロボットIDを持つロボット100に依頼するクラウド101は、ユーザの回答ポリシーの評価結果をロボット100からクラウド101に回答するメッセージの中に含まれるロボットIDにより、質問と回答を紐づけている。しかし、本開示はこれに限らず、クラウド101からロボット100への評価依頼のメッセージと、ロボット100からクラウド101への評価結果のメッセージに、メッセージを識別するための固有のメッセージIDを付与することでこの質問と回答とを紐づけて管理するようにしても良い。 In the above description, the cloud 101 requesting the robot 100 having a specific robot ID to evaluate the response policy of the user is included in the message in which the evaluation result of the user's response policy is returned from the robot 100 to the cloud 101. Questions and answers are linked by the included robot ID. However, the present disclosure is not limited to this, and a unique message ID for identifying the message is given to the message of the evaluation request from the cloud 101 to the robot 100 and the message of the evaluation result from the robot 100 to the cloud 101. You may manage this question and answer in association with each other.
 上記に説明したように、ロボット100とクラウド101の間では、ユーザが発話した音声情報やその文字列、またユーザのポリシーを反映している回答内容や提示方法がやり取りされている。一方で、ユーザ個人を特定するための情報である、ユーザIDやユーザ識別情報は、やり取りされていない。その代わりにクラウド101と通信をしているロボット100のロボットIDが用いられている。初期設定においてクラウド101のメモリ223にロボットIDとユーザの初期設定情報(ユーザID、ユーザ識別情報、ポリシー)とが紐づけて管理されているため、ロボット100とクラウド101の通信においてはロボットIDを流すだけで、そのロボット100とコミュニケーションを取っている人物を数名規模に絞り込み、さらにユーザ識別情報を使ってその中から高精度に特定することができる。 As explained above, the voice information spoken by the user, the character string thereof, the answer content reflecting the user's policy, and the presentation method are exchanged between the robot 100 and the cloud 101. On the other hand, the user ID and the user identification information, which are the information for identifying the individual user, are not exchanged. Instead, the robot ID of the robot 100 communicating with the cloud 101 is used. Since the robot ID and the user's initial setting information (user ID, user identification information, policy) are managed in association with the memory 223 of the cloud 101 in the initial setting, the robot ID is used in the communication between the robot 100 and the cloud 101. It is possible to narrow down the number of people who are communicating with the robot 100 to a scale of several people, and to identify them with high accuracy by using the user identification information.
 図13は、ユーザからの質問に回答する応答方法の一例を示すシーケンス図である。図12と図13との違いは、ロボット100からユーザに対して文字、映像、音声を用いた回答が行われる点である。その他は図12と同じであるため同じ部分については同じ符号を付して、その説明を割愛する。 FIG. 13 is a sequence diagram showing an example of a response method for answering a question from a user. The difference between FIGS. 12 and 13 is that the robot 100 responds to the user using characters, video, and voice. Others are the same as in FIG. 12, so the same parts are designated by the same reference numerals and the description thereof will be omitted.
 クラウド101に設定されたユーザのポリシーはf(文字+映像+音声、2、2、2、2)であり、ここでは音声だけでなく文字や映像も含めて回答する設定がなされている。ユーザからロボット100が質問を受け、それをクラウド101に転送して、クラウド101で回答内容と提示方法が決定されるまでは図12と同じである。 The user policy set in the cloud 101 is f (character + video + voice 2, 2, 2, 2), and here, not only voice but also text and video are set to be answered. It is the same as FIG. 12 until the robot 100 receives a question from the user, transfers it to the cloud 101, and the answer content and the presentation method are determined by the cloud 101.
 次に、ステップS1306において、クラウド101に設定されたユーザのポリシーに基づき、文字、映像、音声を用いた回答を行う。ユーザの言語レベル、知識レベル、視覚レベル、聴覚レベルはいずれも2が設定されており、比較的容易な回答内容と提示方法が求められる。そこでクラウド101はユーザのポリシーに従った回答として、設定された言語レベル、知識レベルに基づいて「遺伝子により病気を調べる方法です」という基本的な言葉と知識だけを使った回答文字列を生成する。さらに、設定された視覚レベル、聴覚レベルに基づいて、この文字列をより視認性の高いデザイン(文字のサイズや配色の調整と、漢字にはルビを振るなど)で説明を行うイラスト800と共に表示すると同時に、よりゆっくりとより大きな音量で音声出力するようロボット100に指示する。 Next, in step S1306, an answer using characters, video, and voice is given based on the user's policy set in the cloud 101. The user's language level, knowledge level, visual level, and auditory level are all set to 2, and a relatively easy answer content and presentation method are required. Therefore, Cloud 101 generates an answer string using only the basic words and knowledge, "This is a method of investigating a disease by a gene", based on the set language level and knowledge level as an answer according to the user's policy. .. Furthermore, based on the set visual level and auditory level, this character string is displayed together with the illustration 800 that explains with a more visible design (adjustment of character size and color scheme, ruby for Chinese characters, etc.). At the same time, the robot 100 is instructed to output voice more slowly and at a louder volume.
 これを受信したロボット100は、ステップS1307において、ユーザのポリシーに従った回答として、イラスト800を映像音声出力部217を介して表示しながら、「遺伝子により病気を調べる方法です」という回答文字列をよりゆっくりとより大きな音量にて映像音声出力部217を介して音声出力する。イラスト800に含まれる文字列はユーザの視覚レベルが2で設定されているため、より視認性の高いデザイン(文字サイズ=32)でロボット100の映像音声出力部217に表示される。 Upon receiving this, in step S1307, the robot 100 displays the illustration 800 via the video / audio output unit 217 as an answer according to the user's policy, and displays the answer character string "This is a method of investigating a disease by a gene". Audio is output via the video / audio output unit 217 more slowly and at a louder volume. Since the user's visual level is set to 2 for the character string included in the illustration 800, the character string is displayed on the video / audio output unit 217 of the robot 100 with a more visible design (character size = 32).
 尚、映像音声出力部217はプロジェクションマッピング技術を用いて、ユーザの近くにイラスト800をより視認性の高いデザインで表示するようにしても良い。このように映像をユーザ近くの空間に投影する場合は、ユーザが視覚し易いように、ロボット100の映像音声出力部217のサイズよりも大きなサイズで投影するようにしても良い。それによって映像音声出力部217に表示する場合よりも大きい文字や映像を表示することが可能となり、ユーザが視覚しやすくなる。 The video / audio output unit 217 may use the projection mapping technique to display the illustration 800 near the user in a more visible design. When the image is projected to the space near the user in this way, the size may be larger than the size of the image / audio output unit 217 of the robot 100 so that the user can easily see the image. As a result, it becomes possible to display characters and images larger than those displayed on the video / audio output unit 217, which makes it easier for the user to see.
 図14は、現在適用しているポリシーに応じた応答をする一例を示すフローチャートである。上記に説明したように、ステップS1401において、ロボット100がユーザから質問を受けると、ステップS1402において、ロボット100および/またはクラウド101は、その質問に対する回答内容(例えば回答の文章)およびその表現方法(例えばその回答の文章を読み上げるスピードと音量、回答の文章を表示するサイズや配色)を現在のポリシーに従って生成して、ユーザに応答する。このように、ユーザとの日常的なコミュニケーションを通じて、ユーザに適したポリシーで回答することによって、ユーザのコミュニケーション能力に応じた個別最適なコミュニケーションを行うロボット100が実現できる。 FIG. 14 is a flowchart showing an example of responding according to the currently applied policy. As described above, when the robot 100 receives a question from the user in step S1401, in step S1402, the robot 100 and / or the cloud 101 responds to the question (for example, the text of the answer) and its expression method (for example, the text of the answer). For example, the speed and volume at which the text of the answer is read aloud, the size and color scheme for displaying the text of the answer) are generated according to the current policy, and the user responds. In this way, by responding with a policy suitable for the user through daily communication with the user, it is possible to realize a robot 100 that performs individual optimum communication according to the communication ability of the user.
 図15は、ロボット100がユーザに質問を行い、その回答によりユーザのコミュニケーション能力を測定する一例を示すシーケンス図である。例えば、ロボット100が「PCR検査で陰性なら、感染していないのか?」という質問を音声でユーザに行い、ユーザが「感染していないだろう。」などと音声で答えることを検知する。この一連のやり取りを現在のポリシー(現在のユーザのコミュニケーション能力)に基づいて、ロボット100が自発的、能動的に開始することで、ユーザのコミュニケーション能力を様々な角度から継続して測定することができる。なお、上記の回答例は概ね正解であるが完璧な正解でもない。ユーザにより正確な理解を持たせる場合には、感染直後では病原体が少なくPCR検査で検出困難であること、またPCR検査では偽陰性となる可能性もあること、などの補足情報を回答に対するフィードバックとして返してもよい。 FIG. 15 is a sequence diagram showing an example in which the robot 100 asks a question to the user and measures the communication ability of the user based on the answer. For example, the robot 100 asks the user a question "If the PCR test is negative, isn't it infected?" By voice, and detects that the user answers "I'm not infected." By voice. By spontaneously and actively starting this series of exchanges based on the current policy (current user's communication ability), the user's communication ability can be continuously measured from various angles. can. The above answer example is generally correct, but it is not a perfect answer. If the user has a more accurate understanding, supplementary information such as the fact that there are few pathogens immediately after infection and it is difficult to detect by PCR test, and that there is a possibility of false negative in PCR test, etc. as feedback to the answer. You may return it.
 この図の例では、ステップS1501において、ロボット100はユーザ状態を常時センシングしており、ユーザがリラックスした状態であって、ロボット100からの質問に答える余裕がありそうかを判断している。ステップS1502において、ユーザ情報を管理するクラウド101は例えば3カ月に1度など所定のタイミングで、現在のユーザ状態の確認をロボット100に対して指示し、ステップS1503において、ロボット100から現在のユーザ状態に関する情報を取得する。 In the example of this figure, in step S1501, the robot 100 constantly senses the user state, and it is determined whether the user is in a relaxed state and can afford to answer the question from the robot 100. In step S1502, the cloud 101 that manages user information instructs the robot 100 to confirm the current user state at a predetermined timing, for example, once every three months, and in step S1503, the robot 100 tells the robot 100 the current user state. Get information about.
 ステップS1504において、クラウド101は、取得したユーザ状態とこれまでの出題頻度とに基づき、クイズの出題が不適切なタイミングであると判断した場合は処理を終える。ステップS1504において、クラウド101は、クイズの出題において適切なタイミングだと判断した場合には、ロボット100に対してクイズの出題を指示する。この際、クラウド101はロボット100に対して、質問内容(音声信号、または質問の文章情報)とその提示方法(発話スピードや音量など)を指定する。ステップS1505において、ロボット100は受信した指示に従い映像音声出力部217を介して指定された質問内容を指定された提示方法にてユーザに対して出題する。ロボット100はユーザの回答を、音声信号のまま(もしくは文字情報に変換して)クラウド101に転送する(ステップS1506、S1507)。 In step S1504, the cloud 101 ends the process when it is determined that the quiz question is at an inappropriate timing based on the acquired user status and the question frequency so far. In step S1504, when the cloud 101 determines that the timing is appropriate for the quiz question, the cloud 101 instructs the robot 100 to set the quiz question. At this time, the cloud 101 specifies the question content (voice signal or text information of the question) and the presentation method (speech speed, volume, etc.) to the robot 100. In step S1505, the robot 100 asks the user a question content designated via the video / audio output unit 217 according to the received instruction by the designated presentation method. The robot 100 transfers the user's answer as an audio signal (or converted into character information) to the cloud 101 (steps S1506 and S1507).
 ステップS1508において、クラウド101は、受信した回答に対するフィードバックの音声情報(例えば、正解、不正解の何れかと、不正解の場合には模範的な回答情報などを含んでも良い)と提示情報をロボット100に返信し、ステップS1509において、ロボット100はそれに従ってユーザに対して音声でフィードバックを行う。 In step S1508, the cloud 101 provides feedback voice information (for example, either a correct answer or an incorrect answer, and in the case of an incorrect answer, exemplary answer information, etc.) and presentation information for the received answer to the robot 100. In step S1509, the robot 100 gives voice feedback to the user accordingly.
 ステップS1510において、クラウド101は、ユーザに対して行った質問の日時、その内容、ロボット100が出題する際に使用したポリシー、それに対するユーザの回答の内容、さらにこの出題を行った時のユーザまたはロボット100の周辺環境(周辺の雑音の強度、ユーザとロボット100との距離、ユーザが回答するのにかかった時間)の少なくとも2つを関連付けて記録する。 In step S1510, the cloud 101 includes the date and time of the question asked to the user, the content thereof, the policy used when the robot 100 asks the question, the content of the user's answer to the question, and the user or the user when the question is asked. At least two of the surrounding environment of the robot 100 (intensity of ambient noise, distance between the user and the robot 100, time required for the user to answer) are recorded in association with each other.
 クラウド101は出題に対するユーザの回答から、ユーザの言語レベル、知識レベル、視覚レベル、聴覚レベルを再判定して、更新の要否を判断し、必要であれば新たなポリシーに更新する(ステップS1511、S1512)。 The cloud 101 re-determines the user's language level, knowledge level, visual level, and auditory level from the user's answer to the question, determines whether or not the update is necessary, and updates to a new policy if necessary (step S1511). , S1512).
 このようにして、ユーザのコミュニケーション能力(言語レベル、知識レベル、視覚レベル、聴覚レベル)を評価するために出題を行い、ユーザの回答を継続的に測定し続けることで、ユーザのコミュニケーション能力の変化を早急に検知して、それに応じて、新たなポリシーに更新したり、ポリシーの更新をユーザに勧めることができる。 In this way, questions are given to evaluate the user's communication ability (language level, knowledge level, visual level, auditory level), and the user's response is continuously measured to change the user's communication ability. Can be detected immediately and updated to a new policy or recommended to the user to update the policy accordingly.
 この例では、PCR検査の精度について質問しているため、ユーザの知識レベルを確認している。しかし、出題時に用いられるポリシーによって、例えば小さな文字を使って視覚レベルを確認したり、小さな音量で出題することで聴覚レベルを確認することも可能である。1つの質問によりコミュニケーション能力を構成する複数の要素(言語レベル、知識レベル、視覚レベル、聴覚レベル)を同時に判断することが可能である。 In this example, we are asking about the accuracy of the PCR test, so we are confirming the knowledge level of the user. However, depending on the policy used when asking questions, it is possible to check the visual level by using small letters, for example, or by asking questions at a low volume. It is possible to judge multiple elements (language level, knowledge level, visual level, auditory level) that compose communication ability at the same time by one question.
 尚、上記の例では音声によるコミュニケーションを用いて説明を行ったが、本開示はこれに限ることはなく、視覚情報を用いて(または音声情報と併用して)出題するようにしても良い。その場合は、クラウド101が生成する質問内容は文字や映像情報によって表現され、その提示方法はユーザのポリシーに従って、文字の大きさや配色などの視認性が調整される。視覚情報を用いて出題することで、出題に用いた文字や映像をユーザが視認することがスムーズにできているかを確認することができる。また、回答に対するフィードバック時に出題の文字や映像が見にくくはなかったかを確認させることで、ユーザの視覚レベルを適切に更新することが可能である。例えば、少し見にくかった、読み取り辛かったとユーザが感じている場合は、設定しているユーザのポリシーを調節して(視覚レベルを下げて)、次回以降の視覚情報を用いたコミュニケーションではより視認性の高い文字、映像情報を使うように変更しても良い。 In the above example, the explanation was given using voice communication, but the present disclosure is not limited to this, and questions may be given using visual information (or in combination with voice information). In that case, the question content generated by the cloud 101 is expressed by characters and video information, and the presentation method adjusts the visibility such as the size and color scheme of the characters according to the user's policy. By asking questions using visual information, it is possible to confirm whether the characters and images used in the questions can be smoothly visually recognized by the user. In addition, it is possible to appropriately update the user's visual level by confirming that the characters and images in the question were not difficult to see when giving feedback to the answer. For example, if the user finds it a little hard to see or read, adjust the user's policy (lower the visual level) to make it more visible in future communication using visual information. You may change to use high text and video information.
 図16は、ロボット100がユーザに質問を行い、その回答によりユーザのコミュニケーション能力、および/または、ポリシーを更新する一例を示すフローチャートである。 FIG. 16 is a flowchart showing an example in which the robot 100 asks a question to the user and updates the communication ability and / or the policy of the user according to the answer.
 まず、ステップS1601において、ロボット100はユーザに対して現在適用しているポリシーを参考にして、所定の出題に用いるポリシーを設定し、その出題に用いるポリシーに従って出題を行う。出題に用いるポリシーとは現在ユーザが設定しているポリシーと同程度の難易度の出題内容とその提示方法で出題を行うことを意味している。ステップS1602において、ロボット100は続けてユーザの回答をセンシングする。回答が終わるとステップS1603において、これで出題を終えるのか、まだ出題を継続するのかを判定する。出題を継続する場合はNoに進み、所定の出題ポリシーを設定して、また出題を行う。 First, in step S1601, the robot 100 sets a policy to be used for a predetermined question with reference to the policy currently applied to the user, and gives a question according to the policy used for the question. The policy used for the question means that the question is given with the same level of difficulty as the policy currently set by the user and the presentation method. In step S1602, the robot 100 subsequently senses the user's answer. When the answer is completed, in step S1603, it is determined whether the question is finished or the question is still continued. If you want to continue the question, proceed to No, set a predetermined question policy, and ask the question again.
 出題を終える場合はYesに進み、ステップS1604において、出題に用いたポリシーとその回答の正誤を基に、ユーザに適したポリシーを判定する。例えば、ユーザの正答率が95%以上となる出題ポリシーの中で最も高度なコミュニケーション能力を要求するポリシーを判定するようにしても良い。仮に、下記のテスト結果が得られたとすると、ユーザに適したポリシー=f(音声、4、3、0、3)であると判定する。 When the question is finished, the process proceeds to Yes, and in step S1604, a policy suitable for the user is determined based on the policy used for the question and the correctness of the answer. For example, among the questioning policies in which the correct answer rate of the user is 95% or more, the policy that requires the highest communication ability may be determined. If the following test results are obtained, it is determined that the policy = f (voice, 4, 3, 0, 3) suitable for the user.
 出題ポリシー=f(音声、3、3、0、3)の出題に対する正答率 98%
 出題ポリシー=f(音声、4、3、0、3)の出題に対する正答率 96%
 出題ポリシー=f(音声、3、4、0、3)の出題に対する正答率 84%
 出題ポリシー=f(音声、3、3、0、4)の出題に対する正答率 78%
 ユーザに適したポリシーが判定されると、ステップS1605において、それが現在ユーザとの日常的なコミュニケーションで用いているポリシーと同じか否かを判定する。同じ場合には、Yesに進みポリシーの更新はなく、処理は終了となる。一方で同じでない場合には、Noに進み、ステップS1606において、ユーザに新たなポリシーに変更する旨を通知して、ステップS1607において、ポリシーを更新して、処理を終了する。もしくは、新たなポリシーに変更することをユーザに提案して、ユーザの了承を得てからポリシーを更新するようにしても良い。
Question policy = 98% correct answer rate for questions of f (voice, 3, 3, 0, 3)
Question policy = 96% correct answer rate for questions of f (voice, 4, 3, 0, 3)
Question policy = 84% correct answer rate for questions of f (voice, 3, 4, 0, 3)
Question policy = 78% correct answer rate for questions of f (voice, 3, 3, 0, 4)
When a policy suitable for the user is determined, in step S1605, it is determined whether or not it is the same as the policy currently used in daily communication with the user. In the same case, the process proceeds to Yes and the policy is not updated, and the process ends. On the other hand, if they are not the same, the process proceeds to No, the user is notified in step S1606 that the policy is to be changed, the policy is updated in step S1607, and the process ends. Alternatively, you may propose to the user to change to a new policy and update the policy after obtaining the user's consent.
 このようにロボット100が自発的に複数のポリシーに従った出題を行い、複数のポリシーごとに正答率を確認することで、ユーザに適したポリシーが何かを推定することができる。これを新たなポリシーとして適用することで、以降のユーザとロボット100との日常的なコミュニケーションを円滑に、ユーザにもストレスなく進めることができる。 In this way, the robot 100 voluntarily asks questions according to a plurality of policies, and by confirming the correct answer rate for each of the plurality of policies, it is possible to estimate what policy is suitable for the user. By applying this as a new policy, it is possible to smoothly proceed with daily communication between the user and the robot 100 and without stress to the user.
 図17は、ロボット100がユーザに質問を行い、その回答によりユーザのコミュニケーション能力(ポリシー)を更新する際に用いる表の一例を示している。ここでは、現在適用されているポリシーがf(文字+音声、3、3、3、3)であったとする。 FIG. 17 shows an example of a table used when the robot 100 asks a question to the user and updates the communication ability (policy) of the user based on the answer. Here, it is assumed that the currently applied policy is f (character + voice, 3, 3, 3, 3).
 コミュニケーション手段が文字と音声の両方を用いることができるため、それぞれのコミュニケーション手段の場合に、現在適用されているポリシーのコミュニケーション能力の各要素を-1、±0、+1した出題を行い、その回答によって適切なポリシーを判定する。例えば、言語レベル=2、3、4と変えて出題を行う際には、その他の知識レベル、視覚レベル、聴覚レベルはどれも現在適用されている3で固定されている。他のテストでも同様である。また、回答内容の正解、不正解(正誤)だけでなく、その回答にかかった時間(回答時間)、所定の時間内に質問文章を読み取れなかったり、質問音声を聞き取れずに出題を再度依頼した回数(出題回数)もあわせて記録をする。これらのテスト結果からコミュニケーション能力の各要素を次のように設定しても良い。 Since the communication means can use both text and voice, in the case of each communication means, each element of the communication ability of the currently applied policy is given a question of -1, ± 0, +1 and the answer is given. Determine the appropriate policy. For example, when the question is given by changing the language level = 2, 3, 4, the other knowledge level, visual level, and auditory level are all fixed at 3 which is currently applied. The same is true for other tests. In addition to the correct and incorrect answers (correct / incorrect), the time taken for the answer (answer time), the question text could not be read within the specified time, or the question voice could not be heard and the question was requested again. Record the number of times (number of questions) as well. From these test results, each element of communication ability may be set as follows.
 まず、言語レベルだけを2、3、4と変化させた質問に対して、ユーザは一定の回答時間で出題を繰り返すこともなく正解している。そのため、言語レベルについては2、3、4のいずれもユーザには不具合は検知されず、最も適切に情報を伝えるために、最上位の言語レベル=4を新たに推奨する言語レベルとして設定する。 First, the user answers the question with only the language level changed to 2, 3 and 4 without repeating the question in a certain answer time. Therefore, regarding the language level, no problem is detected by the user in any of 2, 3 and 4, and in order to convey information most appropriately, the highest language level = 4 is set as a newly recommended language level.
 知識レベルだけを2、3、4と変化させた質問に対して、2または3の質問には正解しているが、知識レベル=4となった質問には比較的回答に時間がかかり不正解であったことが分かる。そのため、新たに推奨する知識レベル=3として設定する。 For questions that change only the knowledge level to 2, 3, 4, the question 2 or 3 is correct, but the question with knowledge level = 4 takes a relatively long time to answer and is incorrect. It turns out that it was. Therefore, the newly recommended knowledge level = 3 is set.
 視覚レベルだけを2、3、4と変化させた質問に対して、視覚レベルが上がるにつれて他の条件は変わらないにも関わらず回答時間が長くなっている。これはユーザが視覚的に質問文章を認識するのに時間がかかったためと思われる。そのため、読み易さを確保するように、平均的な回答時間に近い視覚レベル=2として設定する。 For questions that changed only the visual level to 2, 3 and 4, the answer time became longer as the visual level increased, even though other conditions did not change. This is probably because it took time for the user to visually recognize the question text. Therefore, in order to ensure readability, the visual level is set to 2 which is close to the average response time.
 聴覚レベル=2、3、4と変化させた質問に対して、聴覚レベル=4の質問の際にだけ質問を1回繰り返していることが分かる。これはユーザが聴覚的に質問文章を聞き取ることができなかったためと思われる。そのため、聞き易さを確保するように、聴覚レベル=3として設定する。 It can be seen that the question is repeated once only when the question has a hearing level of 4 for the question with the hearing level changed to 2, 3 and 4. This is probably because the user could not hear the question text aurally. Therefore, the hearing level is set to 3 so as to ensure the ease of hearing.
 これらのテストの結果から、適用されていたポリシー=f(文字+音声、3、3、3、3)は、新たに推奨されるポリシー=f(文字+音声、4、3、2、3)として更新されてもよい。 From the results of these tests, the applied policy = f (character + voice 3, 3, 3, 3) is replaced by the newly recommended policy = f (character + voice 4, 3, 2, 3). May be updated as.
 尚、ここで説明したポリシーの決定方法は、あくまでも説明の都合上、分かり易くした一例である。例えば、同一ポリシーにおいても複数回の質問を繰り返すことで、複数回の回答を計測することで、より正確に測定されたユーザのコミュニケーション能力に従ったポリシーを決定するようにしてもよい。 The policy determination method explained here is just an example that is easy to understand for convenience of explanation. For example, even in the same policy, by repeating a plurality of questions and measuring a plurality of answers, a policy may be determined according to the more accurately measured communication ability of the user.
 図18は、ユーザの言語レベルを複数言語に細分化して管理する際に用いる表の一例である。ここでは、英語、中国語、ヒンディー語、日本語、スペイン語、アラビア語のそれぞれについてユーザの言語レベルを記録、管理している。これらの言語レベルはユーザが自己申告で設定するか、言語能力試験などの点数に応じて評価、設定されるようにしても良い。 FIG. 18 is an example of a table used when the language level of a user is subdivided into a plurality of languages and managed. Here, the language level of the user is recorded and managed for each of English, Chinese, Hindi, Japanese, Spanish, and Arabic. These language levels may be set by the user by self-report, or may be evaluated and set according to a score such as a language proficiency test.
 表に示したように、この例では、ユーザは日常的な場面で用いられる英語(英語の言語レベル=3)と、やや幅広い場面で用いられる日本語(日本語の言語レベル=4)の言語知識があることが分かる。表内の「言語ごとの言語レベル」において「ー」がつけられた言語についてはコミュニケーションが成立するレベルになく、事実上使えないことを示している。このように、コミュニケーションに用いる言語の種類によって異なるコミュニケーション能力(言語レベル)を、ユーザに設定もしくはロボット100に計測させることによって、ユーザの言語ごとの言語レベルに応じてコミュニケーションを図ることができる。 As shown in the table, in this example, the user has English (English language level = 3) used in everyday situations and Japanese (Japanese language level = 4) used in a slightly wider range of situations. It turns out that there is knowledge. The languages marked with "-" in the "Language level for each language" in the table are not at the level where communication is established, indicating that they cannot be used in practice. In this way, by having the user set or have the robot 100 measure the communication ability (language level) that differs depending on the type of language used for communication, communication can be achieved according to the language level of each user's language.
 尚、ここではユーザの円滑なコミュニケーションを支援するために、ロボット100が用いる言語ごとの言語レベルを設定したが、これは他の用途にも利用が可能である。例えば、ユーザは現在、英語の言語レベル=3であるが、ロボット100とのコミュニケーションを敢えて英語に設定することで、より上位の英語の言語レベルを目指した英会話の練習を行うことも可能である。ロボット100がユーザに対して英語能力のテストを行うことで、ユーザは自分の英語能力を知ることができる。また、ロボット100はユーザの英語能力の上達に応じて英語の言語レベルをより上位のレベルに上げてコミュニケーションを図ることも考えられる。 Here, in order to support the smooth communication of the user, the language level for each language used by the robot 100 is set, but this can also be used for other purposes. For example, the user currently has an English language level of 3, but by intentionally setting the communication with the robot 100 to English, it is possible to practice English conversation aiming at a higher English language level. .. When the robot 100 tests the user's English proficiency, the user can know his / her English proficiency. Further, it is conceivable that the robot 100 raises the language level of English to a higher level in accordance with the improvement of the English ability of the user to communicate.
 図19は、ユーザの知識レベルを複数分野に細分化して管理する際に用いる表の一例である。上記の説明では、ユーザのコミュニケーション能力の1要素として知識レベルを1つの集約された値にて表現していた。しかし、同じ知識レベルと判断されたユーザ同士であっても、分野ごとに知識は異なっていると考えられる。つまり、図15で例示した「PCR検査で陰性なら、感染していないのか?」というロボット100の質問は、明らかに医療に関する知識を問うものであった。この質問に正解するか否かで、そのユーザの知識レベルを包括的に1つの値で表すことは特に医療以外のテーマに対して不適切になる場合もあると思われる。 FIG. 19 is an example of a table used when the knowledge level of a user is subdivided into a plurality of fields and managed. In the above explanation, the knowledge level is expressed by one aggregated value as one element of the communication ability of the user. However, even among users who are judged to have the same knowledge level, it is considered that the knowledge is different for each field. That is, the question of the robot 100, "If the PCR test is negative, is it not infected?" Illustrated in FIG. 15 clearly asks the knowledge about medical treatment. Depending on whether or not this question is answered correctly, it may be inappropriate to comprehensively express the user's knowledge level as a single value, especially for non-medical themes.
 そこで図に示すように知識レベルについては、分野ごとに知識レベルを設定、管理することが考えられる。例えば、社会常識は誰しもが知っておくべき社会一般の知識を表している。以下は学術的に分類されており、形式科学は数学や統計学などに関する知識、自然科学は物理学や化学などに関する知識、社会科学は政治学や経済学などに関する知識、人文学は哲学や歴史学などに関する知識、応用科学は工学や医学に関する知識、を夫々表すようにしてもよい。 Therefore, as shown in the figure, it is conceivable to set and manage the knowledge level for each field. For example, common sense represents the general knowledge of society that everyone should know. The following are categorized academically: formal science is knowledge about mathematics and statistics, natural science is knowledge about physics and chemistry, social science is knowledge about politics and economics, and human literature is philosophy and history. Knowledge about science and applied science may represent knowledge about engineering and medicine, respectively.
 このように分野ごとに知識レベルをロボット100を介して設定もしくは計測させることによって、ユーザごとの知識の偏りに対応することができる。つまりこの例ではユーザの知識レベルは総括的には4であるが、応用科学は5であって、人文学は3である。このように話題となっている分野ごとの知識レベルに従ってポリシーを設定、変更することで、きめ細かくユーザのコミュニケーションを支援することができるようになる。 By setting or measuring the knowledge level for each field via the robot 100 in this way, it is possible to deal with the bias of knowledge for each user. In other words, in this example, the knowledge level of the user is 4 overall, but the applied science is 5 and the humanities is 3. By setting and changing policies according to the knowledge level of each field that has become a hot topic in this way, it becomes possible to support user communication in detail.
 尚、ここではユーザの円滑なコミュニケーションを支援するために、分野ごとの知識レベルを設定したが、これは他の用途にも利用が可能である。例えば、ユーザは現在、社会科学の知識レベル=3であるが、ロボット100がユーザとの日常的なコミュニケーションにおいて、政治や経済のトピックスを盛り込んでみたり、政治や経済のニュース情報を日々ユーザに紹介するなどして、より上位の社会科学の知識レベルを取得させることも可能である。ロボット100がユーザに対して社会科学に関するテストを行うことで、ユーザは自分の社会科学分野の知識レベルを知ることができる。また、ロボット100はユーザの社会科学分野の知識に応じて、社会科学分野の知識レベルをより上位のレベルに上げてコミュニケーションを図ることが考えられる。 In addition, in order to support the smooth communication of users, the knowledge level for each field was set here, but this can also be used for other purposes. For example, the user currently has a social science knowledge level of 3, but the robot 100 tries to incorporate political and economic topics in daily communication with the user, and provides political and economic news information to the user every day. It is also possible to acquire a higher level of social science knowledge by introducing them. When the robot 100 tests the user on the social sciences, the user can know the knowledge level of his / her social science field. Further, it is conceivable that the robot 100 raises the knowledge level in the social science field to a higher level for communication according to the knowledge of the user in the social science field.
 尚、知識レベルの細分化は、上記のような学術的分野ごとに限らず、音楽、映画、アニメ、絵画などといった特定分野ごとの知識に応じて設定するようにしても良い。また、さらに詳細に日本のロック、日本のポップス、アメリカのロック、アメリカのポップスなどと分けて設定されても良い。 Note that the subdivision of the knowledge level is not limited to each academic field as described above, but may be set according to the knowledge of each specific field such as music, movies, animation, and painting. Further, it may be set separately from Japanese rock, Japanese pop, American rock, American pop, etc. in more detail.
 図20は、コミュニケーションの初期設定を行う一例を示すフシーケンス図である。上記の説明においてはユーザのコミュニケーション能力に応じた回答内容とその提示方法をクラウド101にて生成していたが、ここではロボット100が生成するシステム構成とする。これにより、クラウド101にはユーザの個人情報が一切管理されず、インターネット上で個人情報がやり取りされることもなくなるため、より安全にこのサービスを利用することができる。図に示したように個人情報、または個人情報に密接に関わる情報が取り扱われる範囲は、ユーザとスマートフォン99とロボット100のみが含まれ、クラウド101は含まれない。 FIG. 20 is a sequence diagram showing an example of initializing communication. In the above explanation, the answer contents and the presentation method according to the communication ability of the user are generated by the cloud 101, but here, the system configuration is generated by the robot 100. As a result, the personal information of the user is not managed at all in the cloud 101, and the personal information is not exchanged on the Internet, so that this service can be used more safely. As shown in the figure, the range in which personal information or information closely related to personal information is handled includes only the user, the smartphone 99, and the robot 100, and does not include the cloud 101.
 図9との相違点は、ユーザがスマートフォン99のアプリケーションを用いて初期設定をする際に、その初期設定情報を登録するのがクラウド101ではなくロボット100という点である。ユーザの初期設定情報(ユーザID、ユーザ識別情報、ポリシー)が確定した後(ステップS2001~S2005)、ステップS2006において、スマートフォンはその初期設定情報をロボット100へ通知し、ロボット100に登録させる。 The difference from FIG. 9 is that when the user makes initial settings using the application of the smartphone 99, it is the robot 100 that registers the initial setting information instead of the cloud 101. After the initial setting information (user ID, user identification information, policy) of the user is confirmed (steps S2001 to S2005), in step S2006, the smartphone notifies the robot 100 of the initial setting information and causes the robot 100 to register the initial setting information.
 ステップS2008において、ロボット100はユーザの初期設定情報をメモリ215に記録し、ステップS2009において、スマートフォン99に対して登録完了の通知を返信する。 In step S2008, the robot 100 records the user's initial setting information in the memory 215, and in step S2009, returns a notification of registration completion to the smartphone 99.
 同時にスマートフォン99でもこのユーザの初期設定情報を暗号化した上でスマートフォン99のメモリ204に記録する(ステップS2007)。これは、ロボット100が故障した場合や、ロボット100を買い替えた場合にユーザの初期設定情報を新たなロボット100に設定する場合などに利用することができる。 At the same time, the smartphone 99 also encrypts the initial setting information of this user and records it in the memory 204 of the smartphone 99 (step S2007). This can be used when the robot 100 breaks down, or when the user's initial setting information is set in the new robot 100 when the robot 100 is replaced.
 スマートフォン99の映像音声出力部206を介して、ユーザの登録完了の通知を受けたユーザは、初期設定を終了させる(ステップS2010)。その後、スマートフォン99はクラウド101に対して、ユーザの初期設定の一部分(個人情報と密接に関わらないメンテナンス用途などで最低限必要となる情報)であるロボットIDとユーザIDとを通知し、そのペアを登録させる(ステップS2011、S2012)。逆に言えば、ユーザの個人情報に密接に関わる情報や、ユーザ識別情報やポリシーを除いた初期設定情報のみをクラウド101に登録するようにする。 The user who has received the notification of the completion of user registration via the video / audio output unit 206 of the smartphone 99 ends the initial setting (step S2010). After that, the smartphone 99 notifies the cloud 101 of the robot ID and the user ID, which are a part of the initial settings of the user (the minimum information required for maintenance purposes that are not closely related to personal information), and the pair thereof. Is registered (steps S2011, S2012). Conversely, only the information closely related to the personal information of the user and the initial setting information excluding the user identification information and the policy are registered in the cloud 101.
 尚、クラウド101にはユーザがロボット100に対して行った質問や、会話の内容など個人情報に関わる情報は共有されないが、サービス品質向上のためにメンテナンス情報などがスマートフォン及び/またはロボット100から適宜通知されるようにしても良い。 The cloud 101 does not share information related to personal information such as questions asked by the user to the robot 100 and the contents of conversations, but maintenance information and the like are appropriately provided from the smartphone and / or the robot 100 in order to improve service quality. You may be notified.
 尚、2人目のユーザとして同居人を初期設定するプロセスは1人目のユーザを初期設定するプロセスと同じなため、ここでは割愛した。 The process of initializing the roommate as the second user is the same as the process of initializing the first user, so it is omitted here.
 尚、上記の説明においては明示的にスマートフォン99とロボット100とを分けて利用する形態について記載したが、本開示はこれに限らず、図10に示すように、ロボット100だけを用いて初期設定を行い、図20に示すように、ロボット100に初期設定情報を登録するようにしても良い。ここで言うロボット100は、ユーザが保有するスマートフォン99で代替されても良い。例えば、ユーザはスマートフォン99を携帯電話として日々利用するが、自宅の中では、そのスマートフォンをロボット型のケースに収納しておくことで、上記のロボット100であるかのようにスマートフォン99を利用することも可能である。このケースにスマートフォンの充電機能のみならず、マイクやスピーカやプロジェクションマッピングの機能を具備することで、スマートフォンをこのケースに収納するだけでロボットやスマートスピーカのような利用形態を可能にすることも可能である。 In the above description, the form in which the smartphone 99 and the robot 100 are explicitly used separately is described, but the present disclosure is not limited to this, and as shown in FIG. 10, the initial setting is performed using only the robot 100. And, as shown in FIG. 20, the initial setting information may be registered in the robot 100. The robot 100 referred to here may be replaced by a smartphone 99 owned by the user. For example, a user uses a smartphone 99 as a mobile phone every day, but at home, by storing the smartphone in a robot-type case, the user uses the smartphone 99 as if it were the robot 100 described above. It is also possible. By equipping this case with not only a smartphone charging function but also a microphone, speaker, and projection mapping function, it is possible to enable usage like a robot or smart speaker simply by storing the smartphone in this case. Is.
 図21は、ユーザからの質問に回答する応答方法の一例を示すシーケンス図である。この図はクラウド101がユーザのポリシーに従った回答を生成する図12とは異なる実施形態であり、ロボット100がユーザのポリシーに従った回答を生成する場合である。そのためユーザとの会話処理においてクラウド101との情報のやり取りはない。ロボット100がユーザの個人情報に密接に関わる初期設定情報(ユーザ識別情報やポリシー)を管理し、ユーザとの会話を内部処理で実現するため、ユーザの個人情報の漏洩のリスクが低くできる利点がある。以下、図12と同じ部分については同じ符号を付して、その説明を割愛しながら、この図を説明する。 FIG. 21 is a sequence diagram showing an example of a response method for answering a question from a user. This figure is an embodiment different from FIG. 12 in which the cloud 101 generates an answer according to the user's policy, and is a case where the robot 100 generates an answer according to the user's policy. Therefore, there is no exchange of information with the cloud 101 in the conversation processing with the user. Since the robot 100 manages initial setting information (user identification information and policies) closely related to the user's personal information and realizes a conversation with the user by internal processing, there is an advantage that the risk of leakage of the user's personal information can be reduced. be. Hereinafter, the same parts as those in FIG. 12 will be designated by the same reference numerals, and the description thereof will be omitted.
 ステップS2102において、ユーザは「PCR検査とは何か?」とロボット100に対して口頭(音声)で質問を行う。ステップS2103において、ロボット100はセンサー213でそのユーザが行った質問の音声情報を取得し、初期設定されているユーザの中の誰の発話だったかをロボット100のメモリ215に記録されているユーザ識別情報(固有ウェイクアップワード、身体的特徴量、音声特徴量の少なくとも1つ)と照合することで判別し、(同居人や初期設定されてない第三者ではなく)ユーザが質問をしていることを推定する。尚、この話者識別を行うステップはユーザが1名で固定的である場合にはデフォルトのユーザの発話と仮定して省くようにしても良い。 In step S2102, the user asks the robot 100 "What is a PCR test?" Orally (voice). In step S2103, the robot 100 acquires the voice information of the question asked by the user by the sensor 213, and the user identification recorded in the memory 215 of the robot 100 which of the preset users was the utterance. Determined by matching with information (at least one of the unique wakeup words, physical features, and voice features), and the user is asking a question (rather than a co-resident or a non-default third party). Estimate that. If the user is fixed at one person, this step of identifying the speaker may be omitted assuming that the utterance of the default user is used.
 ステップS2104において、次に、ロボット100はユーザのポリシーをメモリ215から読み込み、ユーザ用に設定された言語レベル、知識レベルに沿った回答内容(回答文字列)と、ユーザ用に設定された聴覚レベルに沿った提示方法(発話スピードや音量など)とを決定する。さらに、ステップS2105において、ロボット100はこのユーザのポリシーに従った回答を映像音声出力部217を介して音声にて行い、ユーザはその回答によりPCR検査を理解する。 In step S2104, the robot 100 next reads the user's policy from the memory 215, and the answer content (answer character string) according to the language level and knowledge level set for the user and the auditory level set for the user. Determine the presentation method (speech speed, volume, etc.) according to. Further, in step S2105, the robot 100 gives an answer according to the user's policy by voice via the video / audio output unit 217, and the user understands the PCR test by the answer.
 この後、ステップS2107において、ロボット100は今回の回答に適用したポリシーの評価をユーザに音声で問い合わせる。ユーザからの評価音声を基に、ロボット100はユーザが行った質問の日時、その内容、ロボット100が回答する際に適用したポリシー、とその回答の内容、さらにその回答に対するユーザの評価情報(ユーザの評価を数値化した値)の少なくとも2つを紐づけて記録する(ステップS2108、S2109)。 After that, in step S2107, the robot 100 inquires the user by voice about the evaluation of the policy applied to this answer. Based on the evaluation voice from the user, the robot 100 has the date and time of the question asked by the user, the content thereof, the policy applied when the robot 100 answers, the content of the answer, and the user's evaluation information (user) for the answer. At least two of (values obtained by quantifying the evaluation of) are linked and recorded (steps S2108 and S2109).
 さらに、ステップS2110において、ユーザの評価がポリシーを更新することにより改善できると判定した場合には、ロボット100は新たなポリシーに更新し、それをメモリ215に記録すると同時に、ステップS2111において、新たなポリシーに更新する旨をユーザに通知する。 Further, if it is determined in step S2110 that the user's evaluation can be improved by updating the policy, the robot 100 updates the policy and records it in the memory 215, and at the same time, in step S2111, a new policy is created. Notify the user that the policy will be updated.
 尚、ロボット100が回答を生成する際にインターネット上の情報にアクセスすることがあるが、そのアクセスにおいてもユーザの個人情報(ユーザ識別情報、ポリシーなど)が利用されることはなく、ユーザの個人情報は漏洩されない。ただし、ユーザが明示的に個人情報の利用を許諾する場合には、ユーザの初期設定情報や特定団体の会員情報を含む個人情報を初期設定の中で登録して、ロボット100が利用するようにしても良い。例えば、学会が管理している論文やイベント情報、ニュース配信会社が配信しているニュース情報、金融機関が管理するユーザの現金や有価証券情報、ポイントサービスの獲得・利用状況など、にアクセスする場合などがこの場合に該当する。 Although the robot 100 may access information on the Internet when generating an answer, the user's personal information (user identification information, policy, etc.) is not used even in the access, and the user's personal information is not used. No information is leaked. However, when the user explicitly permits the use of personal information, the personal information including the user's initial setting information and the member information of a specific group is registered in the initial setting so that the robot 100 can use it. May be. For example, when accessing articles and event information managed by academic societies, news information distributed by news distribution companies, cash and securities information of users managed by financial institutions, acquisition / usage status of point services, etc. Etc. correspond to this case.
 尚、クラウド101がポリシーを管理し回答を生成する実施形態、ロボット100がポリシーを管理し回答を生成する実施形態について説明したが、クラウド101とロボット100とが協調動作して回答を生成するようにしても良い。 Although the embodiment in which the cloud 101 manages the policy and generates the answer and the robot 100 manages the policy and generates the answer have been described, the cloud 101 and the robot 100 cooperate to generate the answer. You can do it.
 例えば、ユーザの初期設定情報はロボット100のメモリ215に記録、管理されている。ロボット100はユーザから受けた質問または会話の内容から個人情報に該当する部分があればそこを隠蔽化または匿名化などした上で、ユーザの個人情報を特定できない一般的な質問内容に変換してクラウド101に送信する。クラウド101はそれに対して一般的な回答内容をロボット100に返信する。ロボット100は、受け取った一般的な回答内容に対してユーザのポリシーを適用して、ユーザが理解しやすい回答に変換した上で、ユーザに提示することが考えられる。 For example, the user's initial setting information is recorded and managed in the memory 215 of the robot 100. If there is a part corresponding to personal information from the content of the question or conversation received from the user, the robot 100 hides or anonymizes the part, and then converts it into a general question content that cannot identify the user's personal information. Send to cloud 101. The cloud 101 returns a general answer to the robot 100. It is conceivable that the robot 100 applies the user's policy to the received general answer content, converts it into an answer that is easy for the user to understand, and then presents it to the user.
 この場合、現在設定されているポリシー(特にユーザの言語レベル、知識レベル、視覚レベル、聴覚レベル)に応じて、回答内容の言語的表現、前提知識、文字や映像の表示サイズや配色、発話スピードや音量などが調整される。例えば、図8の2行目の言語レベル=4、知識レベル=4向けの回答内容である「いまウィルスに感染しているかを、ウィルスが持つ遺伝子情報を増幅させて調べる検査方法です」が一般的な回答内容であった場合、ユーザの現在設定レベルが言語レベル=2、知識レベル=2であった場合には4行目のように「遺伝子により病気を調べる方法です」、ユーザの現在設定レベルが言語レベル=1、知識レベル=1であった場合には1行目のように「病気か調べる方法です」のように一般的な回答内容を設定されたポリシーに基づいて要約して、または表現を平易な表現に変換して、ユーザに提示するようにしても良い。 In this case, depending on the currently set policy (especially the user's language level, knowledge level, visual level, auditory level), the linguistic expression of the answer content, prerequisite knowledge, display size and color scheme of characters and images, and speech speed And volume are adjusted. For example, the answer content for language level = 4 and knowledge level = 4 in the second line of Fig. 8 is "a test method that amplifies the genetic information possessed by the virus to check whether it is currently infected with the virus". If the answer is specific, the user's current setting level is language level = 2, and if the knowledge level is 2, then the user's current setting is "a method of investigating a disease by gene" as shown in the 4th line. If the level is language level = 1 and knowledge level = 1, summarize the general answer contents such as "How to check if you are sick" as in the first line based on the set policy. Alternatively, the expression may be converted into a plain expression and presented to the user.
 図22は、ユーザに質問を行い、その回答によりコミュニケーション能力を測定する一例を示すシーケンス図である。この図はクラウド101がユーザのポリシーに従った出題を生成する図15とは異なる実施形態であり、ロボット100がユーザのポリシーに従った出題を生成する場合である。そのためユーザとの一連の会話処理においてクラウド101との情報のやり取りはない。ロボット100がユーザの個人情報に密接に関わる初期設定情報(ユーザ識別情報やポリシー)を管理し、ユーザとの会話を内部処理で実現するため、ユーザの個人情報の漏洩のリスクが低くできる利点がある。以下、図15と同じ部分については説明を割愛しながら、この図を説明する。 FIG. 22 is a sequence diagram showing an example in which a user is asked a question and the communication ability is measured by the answer. This figure is an embodiment different from FIG. 15 in which the cloud 101 generates questions according to the user's policy, and is a case where the robot 100 generates questions according to the user's policy. Therefore, there is no exchange of information with the cloud 101 in a series of conversation processing with the user. Since the robot 100 manages initial setting information (user identification information and policies) closely related to the user's personal information and realizes a conversation with the user by internal processing, there is an advantage that the risk of leakage of the user's personal information can be reduced. be. Hereinafter, this figure will be described while omitting the description of the same part as in FIG.
 この図の例では、ステップS2201において、ロボット100はユーザ状態を常時センシングしており、ユーザがリラックスした状態であって、ロボット100からの質問に答える余裕がありそうかを判断している。ロボット100は例えば3カ月に1度など所定のタイミングでユーザのポリシーを更新するためにユーザのコミュニケーション能力をテストする。 In the example of this figure, in step S2201, the robot 100 constantly senses the user state, and it is determined whether the user is in a relaxed state and can afford to answer the question from the robot 100. The robot 100 tests the user's communication ability in order to update the user's policy at a predetermined timing, for example, once every three months.
 ステップS2202おいて、ロボット100は、ユーザ状態とこれまでの出題頻度とに基づき、クイズの出題が不適切なタイミングであると判断した場合は処理を終える。クイズの出題において適切なタイミングだと判断した場合には、ロボット100は、質問内容(質問を表す文字、映像、音声情報の内少なくとも1つ)とその提示方法(文字の表示サイズ、配色、音声発話スピード、音量など)を決定する。ステップS2203において、ロボット100は映像音声出力部217を介して決定された質問内容を決定された提示方法にてユーザに対して出題する。ステップS2204において、ロボット100はユーザの回答を、音声信号としてセンサー213を介して取得する。 In step S2202, the robot 100 ends the process when it is determined that the quiz question is at an inappropriate timing based on the user status and the question frequency so far. When it is determined that the timing is appropriate for the quiz question, the robot 100 determines the question content (at least one of the characters representing the question, the video, and the audio information) and the presentation method (character display size, color scheme, audio). Determine the speaking speed, volume, etc.). In step S2203, the robot 100 asks the user a question content determined via the video / audio output unit 217 by the determined presentation method. In step S2204, the robot 100 acquires the user's answer as an audio signal via the sensor 213.
 ロボット100は、受信した回答に対するフィードバックを文字、映像、音声情報の何れかを使ってユーザに対してフィードバックする(ステップS2205、ステップS2206)。フィードバックには正解や不正解といった情報が含まれる。 The robot 100 feeds back the received response to the user using any of text, video, and audio information (step S2205, step S2206). Feedback includes information such as correct and incorrect answers.
 ステップS2207において、ロボット100は、ユーザに対して行った質問の日時、その内容、ロボット100が出題する際に使用したポリシー、それに対するユーザの回答の内容、さらにこの出題を行った時のユーザまたはロボット100の周辺環境(周辺の雑音の強度、ユーザとロボット100との距離、ユーザが回答するのにかかった時間)の少なくとも2つを関連付けて記録する。 In step S2207, the robot 100 asks the user the date and time of the question, the content thereof, the policy used when the robot 100 asks the question, the content of the user's answer to the question, and the user or the user when the question is asked. At least two of the surrounding environment of the robot 100 (intensity of ambient noise, distance between the user and the robot 100, time required for the user to answer) are recorded in association with each other.
 ロボット100は出題に対するユーザの回答から、ユーザの言語レベル、知識レベル、視覚レベル、聴覚レベルを再判定して、更新の要否を判断し、必要であれば新たなポリシーに更新する(ステップS2208、S2209)。 The robot 100 re-determines the user's language level, knowledge level, visual level, and auditory level from the user's answer to the question, determines whether or not the update is necessary, and updates to a new policy if necessary (step S2208). , S2209).
 このようにして、ユーザのコミュニケーション能力(言語レベル、知識レベル、視覚レベル、聴覚レベル)を評価するために出題を行い、ユーザの回答を継続的に測定し続けることで、ユーザのコミュニケーション能力の変化を早急に検知して、それに応じて、新たなポリシーに更新したり、ポリシーの更新をユーザに勧めることが、インターネット上でユーザのユーザ識別情報やポリシーを流すことなくセキュアに、実施することができる。 In this way, questions are given to evaluate the user's communication ability (language level, knowledge level, visual level, auditory level), and the user's response is continuously measured to change the user's communication ability. Immediately detect and update to a new policy or recommend the user to update the policy accordingly, but it can be implemented securely without disseminating the user's user identification information or policy on the Internet. can.
 図23は、ユーザが話し相手である医師とコミュニケーションを取っている際に、そのコミュニケーションからユーザの理解度を推定して、適宜、支援介入する一例を示すシーケンス図である。ここでは、ロボット100はユーザと同じ体験を共有しているとする。つまり、ユーザが見聞きすることがロボット100にも知覚されているとする。例えば、ロボット100がユーザのそばにいる場合や、ユーザが話し相手の医師とロボット100やスマートフォン99を介して遠隔診断のようなコミュニケーションを取っている場合などである。 FIG. 23 is a sequence diagram showing an example in which when a user is communicating with a doctor with whom he / she is talking, the degree of understanding of the user is estimated from the communication and support intervention is appropriately performed. Here, it is assumed that the robot 100 shares the same experience as the user. That is, it is assumed that the robot 100 also perceives what the user sees and hears. For example, there is a case where the robot 100 is near the user, or a case where the user communicates with the doctor with whom the user is talking, such as a remote diagnosis, via the robot 100 or the smartphone 99.
 ステップS2301において、話し相手である医師がユーザに対して話した会話1は、ユーザに伝わると共にロボット100にも伝わる。ステップS2302において、ロボット100は会話1を音声データのままか、音声を文字データに変換してユーザ情報を管理するクラウド101に送信する。ステップS2303において、会話1に対して、ユーザは医師に対して会話2で回答している。この会話2はロボット100にも伝わる。ステップS2304において、ロボット100は会話2を音声データのままか、音声を文字データに変換してユーザ情報を管理するクラウド101に送信する。 In step S2301, the conversation 1 spoken to the user by the doctor with whom the conversation partner is talking is transmitted to the user as well as to the robot 100. In step S2302, the robot 100 either keeps the conversation 1 as voice data or converts the voice into character data and transmits it to the cloud 101 that manages the user information. In step S2303, the user responds to the conversation 1 to the doctor in the conversation 2. This conversation 2 is also transmitted to the robot 100. In step S2304, the robot 100 either keeps the conversation 2 as voice data or converts the voice into character data and transmits it to the cloud 101 that manages the user information.
 クラウド101は、会話1が該当するポリシーを判定し、それを現在適用しているポリシーと比較し、および/または、会話2の内容に基づき、ユーザが会話1を理解できていそうかを推定する。これは、具体的には、会話1が該当するポリシーが現在適用しているポリシーよりも難易度が高い場合や、会話2が曖昧な応答であったり、または応答までに時間がかかっている場合には、コミュニケーションの支援が必要だと判断するようにしてもよい。 The cloud 101 determines the policy to which conversation 1 applies, compares it to the policy currently applied, and / or estimates, based on the content of conversation 2, whether the user is likely to understand conversation 1. .. Specifically, this is when conversation 1 is more difficult than the policy currently applied, conversation 2 is an ambiguous response, or it takes a long time to respond. May decide that communication support is needed.
 会話1が該当するポリシーと現在適用しているポリシーとを比較するのは、ユーザとロボット100との日常的で円滑なコミュニケーションを行うためのガイドラインであるポリシーに照らし合わせて話し相手の会話を判定することで、その話し相手の会話がユーザのコミュニケーション能力においても十分理解しやすい方法でなされたのかを判定するためである。この図の例では会話1、会話2にこのようなコミュニケーション支援の必要性はないと判断されたため、クラウド101はこれらの会話に介入することなく、聞き流す(ステップS2305)。 Comparing the policy to which Conversation 1 applies with the policy currently applied is to judge the conversation of the other party in light of the policy which is a guideline for daily and smooth communication between the user and the robot 100. This is to determine whether the conversation of the other party was made in a way that is sufficiently easy to understand even in the communication ability of the user. In the example of this figure, since it was determined that conversation 1 and conversation 2 do not need such communication support, the cloud 101 listens to these conversations without intervening (step S2305).
 続けて、ステップS2306において、医師がユーザに対して話した会話3(例えば「アナフィラキシーになったことはありますか?」)は、ユーザに伝わると共にロボット100にも伝わる。ステップS2307において、ロボット100は会話3を同様にクラウド101に送信する。ステップS2308において、会話3に対して、ユーザは医師に対して会話4(例えば「。。。ないと思います」)で回答している。この会話4はロボット100にも伝わる。ステップS2309において、ロボット100は会話4を同様にクラウド101に送信する。 Subsequently, in step S2306, the conversation 3 that the doctor spoke to the user (for example, "Have you ever had anaphylaxis?") Is transmitted to the user as well as to the robot 100. In step S2307, the robot 100 similarly transmits the conversation 3 to the cloud 101. In step S2308, the user responds to the conversation 3 with the conversation 4 (for example, "I don't think ...") to the doctor. This conversation 4 is also transmitted to the robot 100. In step S2309, the robot 100 similarly transmits the conversation 4 to the cloud 101.
 同様にクラウド101は、会話3が該当するポリシーを判定し、それを現在適用しているポリシーと比較し、および/または、会話4の内容に基づき、ユーザが会話3を理解できていそうかを推定する。ここでは、会話3が該当するポリシーが現在適用しているポリシーよりも難易度が高い、および/または、会話4が曖昧な応答であったと判断されたとする。クラウド101はコミュニケーションの支援が必要だと判断を行い、ユーザが会話3を理解するための会話5(例えば「花粉以外には、特に強いアレルギーはありません」)を、クラウド101に管理されているユーザ情報のアレルギー検査結果情報にアクセスすることにより作成して、ユーザと医師の会話に介入する(ステップS2310)。ここで会話5は、ユーザが会話3を正しく理解しコミュニケーションを円滑に進めるために、現在適用されているポリシーに従って作成された会話である。 Similarly, the cloud 101 determines the policy to which conversation 3 applies, compares it to the policy currently applied, and / or, based on the content of conversation 4, whether the user is likely to understand conversation 3. presume. Here, it is assumed that the policy to which the conversation 3 corresponds is more difficult than the policy currently applied, and / or the conversation 4 is an ambiguous response. The cloud 101 determines that communication support is necessary, and the user who manages the conversation 5 (for example, "there is no particularly strong allergy other than pollen") for the user to understand the conversation 3 is managed by the cloud 101. Created by accessing the information allergy test result information to intervene in the conversation between the user and the doctor (step S2310). Here, the conversation 5 is a conversation created according to the currently applied policy in order for the user to correctly understand the conversation 3 and facilitate communication.
 ステップS2311において、クラウド101はロボット100に会話5を指示し、ステップS2312において、ロボット100は会話5を医師およびユーザに対して発話する。これに対して、ステップS2313において、医師が会話6(例えば「分かりました」)でユーザおよびロボット100に対して回答している。ステップS2314において、ロボット100が同様に会話6をクラウド101に送信し、ステップS2315において、クラウド101は追加のコミュニケーション介入が不要と判断する。このコミュニケーション介入の要否判断は、会話1に対する評価と同様にして実施することができる。 In step S2311, the cloud 101 instructs the robot 100 to have a conversation 5, and in step S2312, the robot 100 utters the conversation 5 to the doctor and the user. In response, in step S2313, the doctor responds to the user and the robot 100 in conversation 6 (eg, "OK"). In step S2314, the robot 100 similarly transmits the conversation 6 to the cloud 101, and in step S2315 the cloud 101 determines that no additional communication intervention is required. The necessity of this communication intervention can be determined in the same manner as the evaluation for conversation 1.
 以下、会話7および会話8については、会話1および会話2と同じであるため、説明を省略する(ステップS2316~S2320)。 Hereinafter, conversation 7 and conversation 8 are the same as conversation 1 and conversation 2, and therefore description thereof will be omitted (steps S2316 to S2320).
 尚、上記の説明において、会話1および会話2へのコミュニケーション支援の必要性を会話1が該当するポリシーや会話2の応答により判断する例を示したが、これに限らずユーザの外見上の反応(例えば首をかしげる、手をふる)、ユーザの生体情報(例えば脳波、眼球運動、呼吸、心拍(変動)など)を検出することで、コミュニケーションへの介入判断を行っても良い。この場合、介入判断する材料は、話し相手が発した会話が該当するポリシー、それに応答するユーザが発した会話の内容、話し相手が発した会話に対してユーザが応答するまでにかかった時間、ユーザの外見上の反応、およびユーザの生体情報、から少なくとも1つ以上を用いて判断するようにしてもよい。 In the above description, an example of determining the necessity of communication support for conversation 1 and conversation 2 based on the policy to which conversation 1 corresponds and the response of conversation 2 is shown, but the present invention is not limited to this, and the external reaction of the user is not limited to this. Intervention judgment for communication may be made by detecting (for example, bending the neck, waving a hand) and biometric information of the user (for example, brain wave, eye movement, respiration, heart rate (variation), etc.). In this case, the material for determining intervention is the policy corresponding to the conversation made by the other party, the content of the conversation made by the user who responds to it, the time taken for the user to respond to the conversation made by the other party, and the user's. At least one or more of the apparent reaction and the biometric information of the user may be used for judgment.
 尚、上記説明においては、ユーザが応答する度にクラウド101がコミュニケーション支援の必要性を判断しているが、これに限らない。例えば、この判断はコミュニケーションの間、常に行われ必要なタイミングで随時コミュニケーションの支援が行われても良い。例えば、ユーザが応答する前のタイミングであっても良い。または、誰もコミュニケーションしていない時間(この場合はユーザも医師も無言だった時間)が所定時間以上(例えば3秒以上経過)になったタイミングでなされても構わない。 In the above explanation, the cloud 101 determines the necessity of communication support every time the user responds, but the present invention is not limited to this. For example, this judgment may be made at all times during communication, and communication support may be provided at any time when necessary. For example, it may be the timing before the user responds. Alternatively, the time may be set when the time when no one is communicating (in this case, the time when neither the user nor the doctor is silent) becomes a predetermined time or more (for example, 3 seconds or more has elapsed).
 図24は、ユーザが参加しているコミュニケーションからユーザの理解度を推定して、適宜、支援介入する一例を示すフローチャートである。 FIG. 24 is a flowchart showing an example of estimating the degree of understanding of the user from the communication in which the user participates and appropriately intervening in support.
 ステップS2401において、ロボット100はユーザが誰かとコミュニケーションを取っているかを、その会話やチャットなどからセンシングする。ステップS2402において、さらにコミュニケーションの間、そのコミュニケーションである会話やチャットで使われる言葉の言語レベルを判定する。 In step S2401, the robot 100 senses whether the user is communicating with someone from the conversation or chat. In step S2402, the language level of the words used in the conversation or chat, which is the communication, is further determined during the communication.
 ステップS2403において、会話やチャットで使われる言語のレベルが現在適用しているポリシーの言語レベル以下である場合は、Yesに進み、会話が終了する(ステップS2406でYes)までセンシングを継続する。そうでない場合は、Noに進み、ステップS2404において、使われている言語レベルが高い該当部分を現在適用しているポリシーに従って言葉を置き換える。さらに、ステップS2405において、ロボット100はユーザに対して、会話やチャットの内容をポリシーに従って分かり易く言い換えて伝え、会話が終了するまでセンシングを継続する。 In step S2403, if the level of the language used in the conversation or chat is equal to or lower than the language level of the policy currently applied, the process proceeds to Yes, and sensing is continued until the conversation ends (Yes in step S2406). If not, the process proceeds to No, and in step S2404, the relevant part having a high language level used is replaced according to the policy currently applied. Further, in step S2405, the robot 100 conveys the contents of the conversation or chat to the user in an easy-to-understand manner according to the policy, and continues sensing until the conversation ends.
 このようにユーザが参加するコミュニケーション(会話やチャット)の内容を分析して、それを現在適用しているポリシーと比較して、ユーザに分かり難い可能性が高い部分を自動的に理解しやすい表現方法に置き換えるのである。 In this way, the content of the communication (conversation or chat) in which the user participates is analyzed, and compared with the policy currently applied, the part that is likely to be difficult for the user to understand is automatically easy to understand. Replace it with the method.
 例えば、図23のシーンで一例を説明すると、ユーザと医師が会話をしている際に、スマートフォンのコミュニケーション支援を行うアプリケーションはその会話内容がユーザにとって十分に分かり易いか、現在適用しているポリシーと比較して判定する。アプリケーションはユーザにとって理解や正確な応答が難しいと判定した場合は、スマートフォンの画面上に理解を支援するための情報を表示する。具体的には、アプリケーションが表示するアバターが「アナフィラキシーとは、強いアレルギー反応のことです」「3年前に行ったアレルギー検査によると、スギ、ヒノキの花粉以外には強いアレルギーはありません」といった情報を現在適用しているポリシー(例えば、基本的な言葉だけで視認性高く大きな文字サイズ)に従って表示する。ユーザは医師との会話中にスマートフォン上に表示されたこれらの補足情報を確認しながら、医師の問診に自信をもって、正しい情報を、コミュニケーションを遮ることなく円滑に、答えることができる。 For example, to explain an example in the scene of FIG. 23, when the user and the doctor are having a conversation, the application that supports the communication of the smartphone is whether the conversation content is sufficiently easy for the user to understand, or the policy currently applied. Judgment by comparison with. If the application determines that it is difficult for the user to understand or respond accurately, it displays information to support understanding on the screen of the smartphone. Specifically, the avatar displayed by the application says, "Anaphylaxis is a strong allergic reaction." "According to an allergy test conducted three years ago, there is no strong allergy other than pollen of sugi and cypress." Is displayed according to the currently applied policy (for example, high visibility and large font size with only basic words). While checking these supplementary information displayed on the smartphone during the conversation with the doctor, the user can confidently answer the doctor's interview and answer the correct information smoothly without interrupting the communication.
 尚、上記フローチャートでは言語レベルについてのみ説明しているが、知識レベル、視覚レベル、聴覚レベルに対しても同様である。会話やチャットに該当するポリシー(理解に必要になる知識レベル、視覚レベル、聴覚レベル)を判定し、それを現在適用している知識レベル、視覚レベル、聴覚レベルと比較して、ユーザにとって理解や自信を持った応答が難しいと判定した場合は、上記と同様に、現在適用しているポリシーにその会話やチャットを変換して伝えることで理解支援を行う。 Although the above flowchart explains only the language level, the same applies to the knowledge level, the visual level, and the auditory level. Determine the policy (knowledge level, visual level, hearing level required for understanding) applicable to conversation or chat, and compare it with the currently applied knowledge level, visual level, hearing level to understand and understand for the user. If it is determined that it is difficult to respond with confidence, understanding support will be provided by converting the conversation or chat to the currently applied policy and communicating it in the same way as above.
 図25は、図23とは異なり、コミュニケーションが終了直前にロボット100がこれまでのコミュニケーションの要約を行う一例を示すシーケンス図である。図に示すように、ユーザと話し相手である医師は会話1~会話6を行っている。ここまでの処理は図23で説明した処理と重なるため説明は割愛するが、会話の途中でクラウド101はコミュニケーションを分析し、その経緯を記録していく。 FIG. 25 is a sequence diagram showing an example in which the robot 100 summarizes the communication so far immediately before the end of communication, unlike FIG. 23. As shown in the figure, the user and the doctor with whom he / she talks have conversations 1 to 6. Since the processing up to this point overlaps with the processing described in FIG. 23, the explanation is omitted, but the cloud 101 analyzes the communication in the middle of the conversation and records the process.
 ステップS2515において、クラウド101はコミュニケーションの分析の結果、ユーザと話し相手である医師との会話が終了しそうであると判断した場合、ステップS2516において、これまでの会話から要約を行い、結論を整理する。ステップS2517において、さらにポリシーに従ってその要約、および/または結論を会話7(例えば「高血圧の薬を食後に2錠飲む、ということですね?」)として表現し、ロボット100にユーザと医師への確認依頼を行う。ステップS2518において、ロボット100は受信した会話7を発話し、ユーザと医師に理解が共通であるか確認する。 In step S2515, when the cloud 101 determines that the conversation between the user and the doctor with whom the user is talking is about to end as a result of communication analysis, in step S2516, the conversation is summarized from the conversation so far and the conclusion is organized. In step S2517, the summary and / or conclusion is further expressed as conversation 7 (for example, "Take two antihypertensive drugs after a meal?") According to the policy, and the robot 100 confirms with the user and the doctor. Make a request. In step S2518, the robot 100 utters the received conversation 7 and confirms whether the user and the doctor have a common understanding.
 尚、会話の終了は、会話の文脈や流れ、ユーザまたは話し相手がこれまでの会話の要約をする、ユーザまたは話し相手が別れの挨拶をする、ユーザが話し相手のいる部屋から出ようとする、ロボット100がユーザまたは話し相手に終了するのかを確認する、などの方法で検知してもよい。 The end of the conversation is the context and flow of the conversation, the user or the other party summarizing the conversation so far, the user or the other party saying goodbye, the user trying to get out of the room where the other party is talking, the robot 100. May be detected by a method such as confirming to the user or the other party that the message is terminated.
 ステップS2519において、医師またはユーザは会話7で示された要約や結論に対して、会話8(例えば「はい、そうです」)で応答する。ステップS2520において、この会話8もこれまでと同様に、ロボット100からクラウド101へ通知される。ステップS2521において、クラウド101はこの会話8が明確に会話7に同意する内容である場合は、処理を終了する。もしそうでない場合には、会話9として説明を求める会話を生成し、ステップS2522において、ロボット100に指示する。 In step S2519, the doctor or user responds to the summary or conclusion shown in conversation 7 in conversation 8 (eg, "yes, yes"). In step S2520, the conversation 8 is also notified from the robot 100 to the cloud 101 as before. In step S2521, if the conversation 8 clearly agrees with the conversation 7, the cloud 101 ends the process. If this is not the case, a conversation for explanation is generated as conversation 9, and the robot 100 is instructed in step S2522.
 ステップS2523において、ロボット100は受信した会話9を発話し、ユーザと医師に要約、結論の修正、説明を依頼する。ステップS2524において、ユーザまたは医師は会話10にてそれに応答する。ステップS2526において、クラウド101は会話10により要約、結論が明確になった場合は処理を終了する。そうでない場合は、会話9のように要約や結論の説明を継続して依頼する。 In step S2523, the robot 100 utters the received conversation 9 and requests the user and the doctor to summarize, correct the conclusion, and explain. In step S2524, the user or doctor responds to it in conversation 10. In step S2526, the cloud 101 is summarized by the conversation 10, and when the conclusion is clarified, the process ends. If this is not the case, continue to ask for a summary or explanation of the conclusion, as in Conversation 9.
 図26は、図25とは異なり、コミュニケーションが終了した後にロボット100がこれまでのコミュニケーションの要約を行う一例を示すシーケンス図である。図に示すように、ユーザと話し相手である医師は会話1~会話6を行っている。ここまでの処理は図25で説明した処理と重なるため説明は割愛する。 FIG. 26 is a sequence diagram showing an example in which the robot 100 summarizes the communication so far after the communication is completed, unlike FIG. 25. As shown in the figure, the user and the doctor with whom he / she talks have conversations 1 to 6. Since the processing up to this point overlaps with the processing described with reference to FIG. 25, the description thereof is omitted.
 ステップS2616において、ロボット100は、会話6にて会話が終了したことを、会話の文脈や流れ、ユーザまたは話し相手がこれまでの会話の要約をする、ユーザまたは話し相手が別れの挨拶をする、ユーザが話し相手のいる部屋から出る、ユーザが話し相手と会話しなくなって一定時間が経過する、ロボット100がユーザまたは話し相手に終了したのかを確認する、などの方法で検知してもよい。 In step S2616, the robot 100 indicates that the conversation has ended in conversation 6, the context and flow of the conversation, the user or the other party summarizing the conversation so far, the user or the other party giving a farewell greeting, and the user. It may be detected by a method such as leaving the room where the other party is present, a certain period of time elapses after the user stops talking with the other party, or the robot 100 confirms with the user or the other party that the conversation has ended.
 会話の終了が確認できたら、クラウド101はユーザに対して現在適用しているポリシーに従って、これまでの会話の要約、および/または結論をロボット100を介してユーザに伝達する(ステップS2617~S2619)。そうすることで、ユーザは話し相手とのコミュニケーションの内容や結果について再認識したり、正しく理解することが容易になる(ステップS2620)。 After confirming the end of the conversation, the cloud 101 conveys a summary of the conversation so far and / or a conclusion to the user via the robot 100 according to the policy currently applied to the user (steps S2617 to S2619). .. By doing so, it becomes easy for the user to re-recognize and correctly understand the content and result of the communication with the other party (step S2620).
 図27は、コミュニケーションの終了後に、ユーザにのみ、要約を行う一例を示すシーケンス図である。図に示すように、ユーザと話し相手である医師は会話1~会話6を行っている。ここまでの処理は図25で説明した処理と重なるため説明は割愛する。 FIG. 27 is a sequence diagram showing an example of summarizing only to the user after the communication is completed. As shown in the figure, the user and the doctor with whom he / she talks have conversations 1 to 6. Since the processing up to this point overlaps with the processing described with reference to FIG. 25, the description thereof is omitted.
 ステップS2716において、話し相手である医師はユーザの診断が終わると、カルテや処方箋をカルテ入力用の情報通信端末110に対して入力する。カルテや処方箋はカルテ入力用の情報通信端末110から話し相手が使う情報を管理するカルテ保管クラウド111へ伝送され、ステップS2717において、クラウド111はこれらを記録する。さらに、ステップS2718において、クラウド111は、ユーザ情報を管理するクラウド101に対して、カルテや処方箋の情報を共有する。ユーザ情報を管理するクラウド101はこれを安全に保管する。 In step S2716, when the user's diagnosis is completed, the doctor to talk to inputs a medical record or a prescription to the information communication terminal 110 for inputting the medical record. The medical record and the prescription are transmitted from the information communication terminal 110 for inputting the medical record to the medical record storage cloud 111 that manages the information used by the other party, and in step S2717, the cloud 111 records these. Further, in step S2718, the cloud 111 shares the medical record and prescription information with the cloud 101 that manages the user information. The cloud 101 that manages user information securely stores this.
 ユーザ情報を管理するクラウド101は、新たなカルテや処方箋の情報が入力されたことで、ユーザと話し相手であった医師との会話(診断)が終了していることを判定する。そこで、ユーザがリラックスして、プライバシーが確保できる状態であるとロボット100を介して判断される時に、クラウド101は、話し相手であった医師の診断結果や薬の処方について、現在適用しているポリシーに従ってロボット100を介してユーザに確認(例えば「血圧が高めなので、お薬を食後に2錠、飲むことになったね」)を促す(ステップS2719~S2721)。そうすることで、ユーザは話し相手(この例では医師)とのコミュニケーションの内容や結果について再認識したり、正しく理解することが容易になる(ステップS2722)。 The cloud 101 that manages the user information determines that the conversation (diagnosis) between the user and the doctor who was the other party has ended due to the input of new medical record or prescription information. Therefore, when it is determined through the robot 100 that the user is in a state where the user can relax and secure privacy, the cloud 101 currently applies the policy regarding the diagnosis result of the doctor with whom the user was talking and the prescription of the medicine. According to the robot 100, the user is urged to confirm (for example, "Because the blood pressure is high, I have to take two medicines after eating") (steps S2719 to S2721). By doing so, it becomes easy for the user to re-recognize and correctly understand the content and result of communication with the other party (doctor in this example) (step S2722).
 上記においては、ユーザ情報の管理クラウド101はユーザに関する個人的な情報が様々記録、管理されている、言わば情報銀行のような存在である。例えば、予め事前確認をユーザとしておくことで、カルテ保管クラウド111に記録された当該ユーザの個人情報の追加、修正があった時は、ユーザ情報の管理クラウド101に対して、それを即座に共有する設定がなされている。このように設定(本人の事前許諾)をしておくことで、各種のユーザに関する個人情報を含む情報が、ユーザ情報を管理するクラウド101に集約され、各種用途に利用することができる。利用例については、薬の服用をロボット100が支援するとして図29以降で説明する。 In the above, the user information management cloud 101 is like an information bank in which various personal information about users is recorded and managed. For example, by setting prior confirmation as a user in advance, when the personal information of the user recorded in the medical record storage cloud 111 is added or corrected, it is immediately shared with the user information management cloud 101. It is set to be used. By setting in this way (prior permission of the person), information including personal information about various users is collected in the cloud 101 that manages the user information and can be used for various purposes. An example of use will be described later with reference to FIG. 29, assuming that the robot 100 supports the taking of medicines.
 図28は、コミュニケーションの終了後に、ユーザにのみ、要約を行う一例を示すシーケンス図である。図に示すように、ユーザと話し相手である医師は会話1~会話6を行っているが、この会話の内容はロボット100が感知できないものとする。例えば、ユーザは病院へ診断に行き、ロボット100はユーザの自宅に置かれたままである場合に、このような状態となる。 FIG. 28 is a sequence diagram showing an example of summarizing only to the user after the communication is completed. As shown in the figure, the user and the doctor with whom he / she is talking are having conversations 1 to 6, but the content of this conversation cannot be detected by the robot 100. For example, this happens when the user goes to the hospital for diagnosis and the robot 100 remains at the user's home.
 ここまでの処理は図27で説明した処理と概ね同じであるため説明は割愛する。異なる点は、ユーザと話し相手である医師とのコミュニケーションについて、ロボット100が全く感知できないことである。そのため、ロボット100とユーザ情報を管理するクラウド101には、まったく会話に関する情報は入ってこない。 The processing up to this point is almost the same as the processing described in FIG. 27, so the explanation is omitted. The difference is that the robot 100 cannot detect the communication between the user and the doctor with whom the user is talking. Therefore, the robot 100 and the cloud 101 that manages the user information do not contain any information about conversation.
 ステップS2807おいて、話し相手である医師がカルテや処方箋をカルテ入力用の情報通信端末110に入力して(図示せず)、ステップS2808おいて、それが話し相手が使う情報を管理するカルテ保管クラウド111に記録され、さらに、ステップS2809おいて、それがユーザ情報を管理するクラウド101に共有されるまで、ロボット100とユーザ情報を管理するクラウド101には、情報が入ってこない。 In step S2807, the doctor with whom the conversation partner inputs a chart or prescription into the information communication terminal 110 for inputting the chart (not shown), and in step S2808, the chart storage cloud 111 that manages the information used by the conversation partner. Further, in step S2809, no information is input to the robot 100 and the cloud 101 that manages the user information until it is shared with the cloud 101 that manages the user information.
 しかしながら、一旦、ユーザ情報を管理するクラウド101に診察結果、薬の処方についての情報が入力されると、そこから以降の処理は、図27と同様に進めることができる。 However, once the medical examination result and the information about the prescription of the drug are input to the cloud 101 that manages the user information, the subsequent processing can proceed in the same manner as in FIG. 27.
 図29は、そのユーザのタスク実行の支援を行う際に用いる表の一例である。表にあるように、ユーザには日常的なタスクが複数ある。これらのタスクはタスクごとの番号によって識別される。 FIG. 29 is an example of a table used when supporting the task execution of the user. As shown in the table, users have multiple routine tasks. These tasks are identified by a number for each task.
 タスク1のタスクの名前は「ゴミ出し」で、このタスクが発生する日時は「毎週水曜日の朝9時」で、このタスクが発生する場所は「自宅」で、このタスクの内容は「自宅のゴミを捨てる」である。このタスク1のタスクをユーザが実施したか否かは、チェック欄にあるように、例えば、ユーザがゴミを持ち外出し、ゴミを持たずに帰宅したかを、ロボット100の映像音声センシング部や他の撮像機器を通じて撮影した映像を画像認識し、その撮影日時を用いて判断することができる。 The task name of task 1 is "garbage removal", the date and time when this task occurs is "every Wednesday at 9 am", the place where this task occurs is "home", and the content of this task is "home". Throw away the trash. " Whether or not the user has performed the task of this task 1 is determined by the video / audio sensing unit of the robot 100, for example, whether or not the user has taken out the dust and returned home without the dust, as shown in the check column. It is possible to recognize an image taken through another imaging device and make a judgment using the shooting date and time.
 同様にタスク2のタスクの名前は「餌やり」で、このタスクが発生する日時は「毎日の朝10時」で、このタスクが発生する場所は不定で、このタスクの内容は「ペットに餌をあげる」である。このタスク2のタスクをユーザが実施したか否かは、チェック欄にあるように、例えば、ユーザがペットフードを皿に盛り、ペットがその皿のペットフードを食べたかを、ロボット100のカメラを通じて撮影した映像を画像認識し、その撮影日時を用いて判断することができる。 Similarly, the task name of task 2 is "feeding", the date and time when this task occurs is "every day at 10 am", the place where this task occurs is indefinite, and the content of this task is "feeding pets". I'll give you. " Whether or not the user has performed the task of this task 2 is determined by checking, for example, whether the user puts pet food on a plate and the pet eats the pet food on the plate through the camera of the robot 100, as shown in the check box. It is possible to recognize a shot image and make a judgment using the shooting date and time.
 同様にタスク3の値を持つタスクの名前は「薬の服用」で、このタスクが発生する日時は「毎日13時」で、このタスクが発生する場所は不定で、このタスクの内容は「薬を飲む」である。このタスク3のタスクをユーザが実施したか否かは、チェック欄にあるように、例えば、ユーザが薬をすべて飲んだかを、ロボット100のカメラを通じて撮影した映像を画像認識し、その撮影日時を用いて判断することができる。 Similarly, the name of the task with the value of task 3 is "taking medicine", the date and time when this task occurs is "13:00 every day", the place where this task occurs is indefinite, and the content of this task is "medicine". To drink. " Whether or not the user has performed the task of this task 3 is determined by recognizing an image taken by the camera of the robot 100, for example, whether or not the user has taken all the medicines, and determining the shooting date and time. It can be judged by using.
 タスクの実行確認に画像認識を用いるとして説明したが、これ以外の方法で実現しても構わない。また、確認する内容によってはユーザに協力を依頼するようにしても良い。例えば、薬をすべて飲んだか、は飲む薬に抜けや重複が無いかを確認するため、薬を飲む前に手のひらにすべての薬を乗せた状態でロボット100(の映像音声センシング部)に見せてから飲むようにしても良い。または、ロボット100が薬を飲む前に、すべての薬を見せるようにユーザに依頼するように会話させても良い。 Although it was explained that image recognition is used to confirm the execution of the task, it may be realized by other methods. In addition, depending on the content to be confirmed, the user may be requested to cooperate. For example, in order to check if all the medicines have been taken or if there are any omissions or duplications in the medicines to be taken, show the robot 100 (video / audio sensing unit) with all the medicines on the palm before taking the medicines. You may drink from. Alternatively, the robot 100 may have a conversation asking the user to show all the medicines before taking the medicines.
 図30は、ユーザの日常的なタスク実行の支援を行う一例を示すシーケンス図である。ここでは、図29にて例示した3つのタスクの実行支援について、図30のフローチャートの開始が水曜日の朝という設定で説明を行う。 FIG. 30 is a sequence diagram showing an example of supporting the user's daily task execution. Here, the execution support of the three tasks illustrated in FIG. 29 will be described with the setting that the start of the flowchart of FIG. 30 is Wednesday morning.
 ここでは、ロボット100はユーザ状態(例えば、ユーザの生体情報、活動量、場所、姿勢など)を常時センシングしているとする(ステップS3001)。また、ユーザ情報を管理するクラウド101は規則的にユーザが行っているタスクや、図29のように登録されたタスクの開始時刻になっていないかを監視しているとする(ステップS3002)。 Here, it is assumed that the robot 100 constantly senses the user state (for example, the user's biological information, activity amount, place, posture, etc.) (step S3001). Further, it is assumed that the cloud 101 that manages the user information regularly monitors whether the task performed by the user or the start time of the registered task as shown in FIG. 29 has come (step S3002).
 ステップS3003において、タスク1(ゴミ出し)の予定時間(水曜日の朝9時)になる前にユーザがタスク1を実行したとする。ステップS3004において、ロボット100はタスク1が実施されたかをチェック欄の確認項目に従って検知、確認する。ロボット100はタスク1の実行が完了したことを検知したら、ステップS3005において、その実行が完了したことをクラウド101に通知する。ステップS3006において、クラウド101はタスク1の実施を記録する。 In step S3003, it is assumed that the user executes task 1 before the scheduled time for task 1 (garbage removal) (9:00 am on Wednesday). In step S3004, the robot 100 detects and confirms whether the task 1 has been performed according to the confirmation items in the check column. When the robot 100 detects that the execution of the task 1 is completed, in step S3005, the robot 100 notifies the cloud 101 that the execution is completed. In step S3006, the cloud 101 records the execution of task 1.
 次に、ステップS3007において、時間が経過しタスク2(餌やり)の予定時刻(毎日の朝10時)になったことをクラウド101が検知する。ステップS3008において、クラウド101は、タスク2の実行をロボット100に確認するよう指示を出す。ステップS3009において、ロボット100はタスク2を実行したかをユーザに質問する。それによってユーザはタスク2を実施することを意識し、それを実行する(ステップS3010)。 Next, in step S3007, the cloud 101 detects that the time has passed and the scheduled time for task 2 (feeding) has come (10 am every day). In step S3008, the cloud 101 instructs the robot 100 to confirm the execution of the task 2. In step S3009, the robot 100 asks the user whether the task 2 has been executed. As a result, the user is aware of performing the task 2 and executes it (step S3010).
 ステップS3011において、ロボット100はユーザがタスク2を実行したことをチェック欄の確認項目に従って検知、確認すると、ステップS3012において、その実行が完了したことをクラウド101に通知する。ステップS3013において、そしてクラウド101はタスク2の実施を記録する。 In step S3011, when the robot 100 detects and confirms that the user has executed task 2 according to the confirmation items in the check column, in step S3012, the robot 100 notifies the cloud 101 that the execution is completed. In step S3013, and cloud 101 records the performance of task 2.
 次に、ステップS3014において、時間が経過しタスク3(薬の服用)の予定時刻(毎日13時)になったことをクラウド101が検知する。ステップS3015において、クラウド101は、タスク3の実行をロボット100に確認するよう指示を出す。ステップS3016において、ロボット100はタスク3を実行したかをユーザに質問する。それによってユーザはタスク3を実施することを意識し、それを実行する(ステップS3017)。 Next, in step S3014, the cloud 101 detects that the time has passed and the scheduled time (13:00 every day) for task 3 (taking medicine) has come. In step S3015, the cloud 101 instructs the robot 100 to confirm the execution of the task 3. In step S3016, the robot 100 asks the user whether the task 3 has been executed. As a result, the user is aware of performing the task 3 and executes it (step S3017).
 この例ではタスク1やタスク2と異なり、タスク3の実行をロボット100がチェック欄の確認項目に従って検出、確認できなかったとする(ステップS3018)。例えば、ロボット100から見えない所で薬を飲んでしまった場合など、がそれに該当する。 In this example, unlike task 1 and task 2, it is assumed that the robot 100 cannot detect and confirm the execution of task 3 according to the confirmation items in the check column (step S3018). For example, the case where the medicine is taken in a place invisible to the robot 100 corresponds to this.
 ステップS3019において、クラウド101はタスク3の実行確認をロボット100に指示してから所定時間が経過しても完了の通知を受けていない場合、ステップS3020において、再びタスク3の実行を確認するようロボット100に指示する。ステップS3021において、ロボット100はユーザにタスク3の実行が完了しているかを確認し、ステップS3022において、ユーザは実行済みである旨を回答する。ステップS3023において、ロボット100はこの回答を受けて、それをクラウド101に通知する。ステップS3024において、クラウド101はタスク3の実施を記録する。 In step S3019, if the cloud 101 has not received the completion notification even after a predetermined time has elapsed after instructing the robot 100 to confirm the execution of the task 3, the robot asks the robot to confirm the execution of the task 3 again in step S3020. Instruct 100. In step S3021, the robot 100 confirms to the user whether the execution of the task 3 is completed, and in step S3022, the user replies that the execution has been completed. In step S3023, the robot 100 receives this answer and notifies the cloud 101 of it. In step S3024, cloud 101 records the execution of task 3.
 このように、ユーザの日常的なタスクを、図29の形式で登録しておき、図30のように予定時刻に実行したかを確認していく処理をロボット100とクラウド101を用いて進める。これによって、ユーザは雑多で忘れがちなタスクを漏れなく実施していくことができる。 In this way, the user's daily tasks are registered in the format shown in FIG. 29, and the process of confirming whether the tasks are executed at the scheduled time as shown in FIG. 30 is carried out using the robot 100 and the cloud 101. This allows the user to perform miscellaneous and often forgotten tasks without omission.
 加齢や認知症によりユーザ本人があるタスクを実施したか記憶が明確でない場合もありうる。この場合は、ユーザがロボット100にそのタスクを実施したかを質問して、確認するようにしても良い。または、実施したことを忘れ、再びそのタスクをしようとした時に、ロボット100がそのユーザの行動を検知し、既に実施済みである旨をユーザに伝えるようにしても良い。これらのタスクの実施記録はクラウド101にすべて記録されているので、そのデータを基にユーザに回答したり、タスクの実施状況を伝えたりすることが可能である。 It may be unclear whether the user himself / herself performed a certain task due to aging or dementia. In this case, the user may ask the robot 100 whether the task has been performed and confirm it. Alternatively, when the robot 100 forgets to perform the task and tries to perform the task again, the robot 100 may detect the user's action and inform the user that the task has already been performed. Since all the execution records of these tasks are recorded in the cloud 101, it is possible to reply to the user or convey the execution status of the task based on the data.
 尚、上記においては情報通信端末100とユーザ情報を管理するクラウド101とをネットワークを介して通信するとして分離して説明したが、保管されているユーザ情報を情報通信端末100内部に記録、管理するようにしても良い。この場合は、会話の内容やコミュニケーション能力などユーザの個人情報に相当するデータをネットワークを介してやり取りする必要がなくなり、情報通信および情報管理のコストや漏洩リスクを下げられる利点がある。 In the above description, the information communication terminal 100 and the cloud 101 that manages user information are separately described as being communicated via a network, but the stored user information is recorded and managed inside the information communication terminal 100. You may do so. In this case, it is not necessary to exchange data corresponding to the user's personal information such as conversation contents and communication ability via the network, and there is an advantage that the cost of information communication and information management and the risk of leakage can be reduced.
 本開示は、ユーザと円滑なコミュニケーションを行うことができる技術として有用である。 This disclosure is useful as a technique that enables smooth communication with users.
99   :情報通信端末(スマートフォン、パーソナルコンピュータ他)
100  :情報通信端末(ロボット、スマートスピーカ、ウェアラブルデバイス他)
101  :ユーザ情報を管理するクラウド
102  :情報ソース
110  :情報通信端末(カルテ入力端末)
111  :話し相手が扱う情報を管理するクラウド(カルテ保管クラウド)
99: Information and communication terminals (smartphones, personal computers, etc.)
100: Information and communication terminals (robots, smart speakers, wearable devices, etc.)
101: Cloud that manages user information 102: Information source 110: Information communication terminal (medical record input terminal)
111: Cloud that manages information handled by the other party (medical record storage cloud)

Claims (20)

  1.  ユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法であって、前記装置は、マイク及びスピーカーを備え、
     前記装置の前記マイクにより取得された前記ユーザからの第1質問を含む第1音声情報を、前記装置を識別する装置IDと共に取得し、
     前記装置IDに基づき、前記ユーザに対応する聴覚レベルを含むコミュニケーションポリシー情報を取得し、前記聴覚レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された前記スピーカーから出力する出力形式であり、前記ユーザを識別するユーザIDに対応させて設定されており、前記ユーザIDは前記情報提供システムにおいて前記装置IDと対応づけられており、
     前記第1質問に対する第1回答を示す第1回答情報を生成し、
     前記聴覚レベルに対応した出力形式を指定して前記第1回答情報を前記装置の前記スピーカーに出力すること、を含み、
     前記出力形式は、音量を含み、
     前記聴覚レベルが第1レベルである場合における前記音量は、前記聴覚レベルが前記第1レベルよりも高い第2レベルである場合における前記音量よりも、大きい、
     情報処理方法。
    An information processing method in an information providing system including a device for communicating with a user, wherein the device includes a microphone and a speaker.
    The first voice information including the first question from the user acquired by the microphone of the apparatus is acquired together with the apparatus ID for identifying the apparatus.
    Based on the device ID, communication policy information including the hearing level corresponding to the user is acquired, and the hearing level is output from the user's information communication terminal or the speaker set for the user via the device. The output format is set to correspond to the user ID that identifies the user, and the user ID is associated with the device ID in the information providing system.
    Generate the first answer information indicating the first answer to the first question,
    Including that the first answer information is output to the speaker of the apparatus by designating an output format corresponding to the hearing level.
    The output format includes volume and
    The volume when the hearing level is the first level is louder than the volume when the hearing level is the second level higher than the first level.
    Information processing method.
  2.  前記出力形式は、さらに、スピード、又は明瞭さの少なくともいずれか一つを含む、
     請求項1に記載の情報処理方法。
    The output format further comprises at least one of speed or clarity.
    The information processing method according to claim 1.
  3.  前記コミュニケーションポリシー情報は、さらに、前記ユーザに対応する知識レベルを含み、
     前記知識レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された回答レベルであり、前記ユーザIDと対応させて設定されており、
     前記第1回答情報は、前記第1音声情報及び前記コミュニケーションポリシー情報に基づき、前記知識レベルに応じて生成される、
     請求項1に記載の情報処理方法。
    The communication policy information further includes a knowledge level corresponding to the user.
    The knowledge level is a response level set for the user via the information communication terminal of the user or the device, and is set in association with the user ID.
    The first answer information is generated according to the knowledge level based on the first voice information and the communication policy information.
    The information processing method according to claim 1.
  4.  前記知識レベルは分野毎に設定され、
     前記分野は、社会常識、形式科学、自然科学、社会科学、人文学、及び応用科学の少なくともいずれか1つを含む、
     請求項3に記載の情報処理方法。
    The knowledge level is set for each field and
    The field includes at least one of social common sense, formal science, natural science, social science, humanities, and applied science.
    The information processing method according to claim 3.
  5.  前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答に含まれる専門用語の第1数は、
     前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答に含まれる専門用語の第2数よりも、少ない、
     請求項3記載の情報処理方法。
    When the knowledge level is the first level, the first number of technical terms included in the 1-1 answer to the first question is
    It is less than the second number of technical terms contained in the 1-2 answers to the first question when the knowledge level is a second level higher than the first level.
    The information processing method according to claim 3.
  6.  前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答に含まれる文章の平均的な第1長さは、
     前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答に含まれる文章の平均的な第2長さよりも短い、
     請求項3に記載の情報処理方法。
    When the knowledge level is the first level, the average first length of the sentences included in the 1-1 answer to the first question is
    It is shorter than the average second length of the sentences contained in the 1-2 answers to the first question when the knowledge level is the second level higher than the first level.
    The information processing method according to claim 3.
  7.  前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答の全体の第1文字数は、
     前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答の全体の第2文字数よりも、少ない、
     請求項3に記載の情報処理方法。
    When the knowledge level is the first level, the total number of first characters of the 1-1 answer to the first question is
    It is less than the total number of second characters in the 1-2 answers to the first question when the knowledge level is a second level higher than the first level.
    The information processing method according to claim 3.
  8.  前記コミュニケーションポリシー情報は、さらに、前記ユーザに対応する言語レベルを含み、
     前記言語レベルは、前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された言語レベルであり、前記ユーザIDと対応させて設定されており、
     前記第1回答情報は、前記知識レベル及び前記言語レベルに応じて生成される、
     請求項3に記載の情報処理方法。
    The communication policy information further includes a language level corresponding to the user.
    The language level is a language level set for the user via the information communication terminal of the user or the device, and is set in association with the user ID.
    The first answer information is generated according to the knowledge level and the language level.
    The information processing method according to claim 3.
  9.  前記装置の前記スピーカーから前記ユーザに出力させるために前記装置に第2質問を含む第2音声情報を出力し、前記第2質問は前記第1質問と異なり、前記知識レベルの更新のために用いられ、
    前記装置から、前記第2質問に対する前記ユーザの第2回答を示す第2回答情報を取得し、
    前記第2回答情報に基づき、前記知識レベルを更新する、
     請求項3に記載の情報処理方法。
    The second voice information including the second question is output to the device from the speaker of the device to be output to the user, and the second question is different from the first question and is used for updating the knowledge level. Be,
    The second answer information indicating the user's second answer to the second question is acquired from the apparatus.
    Update the knowledge level based on the second answer information,
    The information processing method according to claim 3.
  10.  前記知識レベルは、前記第2回答の正誤に基づいて、または、前記第2音声情報の出力から前記第2回答情報の取得までに要した時間に基づいて、更新される、
     請求項9に記載の情報処理方法。
    The knowledge level is updated based on the correctness of the second answer or based on the time required from the output of the second voice information to the acquisition of the second answer information.
    The information processing method according to claim 9.
  11.  ユーザとコミュニケーションする装置を含む情報提供システムにおける情報処理方法であって、前記装置は、マイク及びディスプレイを備え、
     前記装置の前記マイクにより取得された前記ユーザからの第1質問を含む第1音声情報を、前記装置を識別する装置IDと共に取得し、
     前記装置IDに基づき、前記ユーザに対応する視覚レベルを含むコミュニケーションポリシー情報を取得し、前記視覚レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された前記ディスプレイから出力する出力形式であり、前記ユーザを識別するユーザIDと対応させて設定されており、前記ユーザIDは前記情報提供システムにおいて前記装置IDと対応づけられており、
     前記第1質問に対する第1回答を示す第1回答情報を生成し、
     前記視覚レベルに対応した出力形式を指定して前記第1回答情報を前記装置の前記ディスプレイに出力すること、を含み、
     前記出力形式は、文字の表示サイズを含み、
     前記視覚レベルが第1レベルである場合における前記文字の前記表示サイズは、前記視覚レベルが前記第1レベルよりも高い第2レベルである場合における前記文字の表示サイズよりも、大きい、
     情報処理方法。
    An information processing method in an information providing system including a device for communicating with a user, wherein the device includes a microphone and a display.
    The first voice information including the first question from the user acquired by the microphone of the apparatus is acquired together with the apparatus ID for identifying the apparatus.
    Based on the device ID, communication policy information including the visual level corresponding to the user is acquired, and the visual level is output from the user's information communication terminal or the display set for the user via the device. The output format is set to correspond to the user ID that identifies the user, and the user ID is associated with the device ID in the information providing system.
    Generate the first answer information indicating the first answer to the first question,
    Including outputting the first response information to the display of the apparatus by designating an output format corresponding to the visual level.
    The output format includes the display size of characters.
    The display size of the character when the visual level is the first level is larger than the display size of the character when the visual level is the second level higher than the first level.
    Information processing method.
  12.  前記出力形式は、さらに、文字縁取りの修飾、文字の配色、又は文字の配置の少なくともいずれか一つを含む、
     請求項11に記載の情報処理方法。
    The output format further comprises at least one of character border modification, character color scheme, or character arrangement.
    The information processing method according to claim 11.
  13.  前記コミュニケーションポリシー情報は、さらに、前記ユーザに対応する知識レベルを含み、
     前記知識レベルは前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された回答レベルであり、前記ユーザIDと対応させて設定されており、
     前記第1回答情報は、前記第1音声情報及び前記コミュニケーションポリシー情報に基づき、前記知識レベルに応じて生成される、
     請求項11に記載の情報処理方法。
    The communication policy information further includes a knowledge level corresponding to the user.
    The knowledge level is a response level set for the user via the information communication terminal of the user or the device, and is set in association with the user ID.
    The first answer information is generated according to the knowledge level based on the first voice information and the communication policy information.
    The information processing method according to claim 11.
  14.  前記知識レベルは分野毎に設定され、
     前記分野は、社会常識、形式科学、自然科学、社会科学、人文学、及び応用科学の少なくともいずれか1つを含む、
     請求項13に記載の情報処理方法。
    The knowledge level is set for each field and
    The field includes at least one of social common sense, formal science, natural science, social science, humanities, and applied science.
    The information processing method according to claim 13.
  15.  前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答に含まれる専門用語の第1数は、
     前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答に含まれる専門用語の第2数よりも、少ない、
     請求項13記載の情報処理方法。
    When the knowledge level is the first level, the first number of technical terms included in the 1-1 answer to the first question is
    It is less than the second number of technical terms contained in the 1-2 answers to the first question when the knowledge level is a second level higher than the first level.
    The information processing method according to claim 13.
  16.  前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答に含まれる文章の平均的な第1長さは、
     前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答に含まれる文章の平均的な第2長さよりも短い、
     請求項13に記載の情報処理方法。
    When the knowledge level is the first level, the average first length of the sentences included in the 1-1 answer to the first question is
    It is shorter than the average second length of the sentences contained in the 1-2 answers to the first question when the knowledge level is the second level higher than the first level.
    The information processing method according to claim 13.
  17.  前記知識レベルが第1レベルである場合における前記第1質問に対する第1-1回答の全体の第1文字数は、
     前記知識レベルが前記第1レベルよりも高い第2レベルである場合における前記第1質問に対する第1-2回答の全体の第2文字数よりも、少ない、
     請求項13に記載の情報処理方法。
    When the knowledge level is the first level, the total number of first characters of the 1-1 answer to the first question is
    It is less than the total number of second characters in the 1-2 answers to the first question when the knowledge level is a second level higher than the first level.
    The information processing method according to claim 13.
  18.  前記コミュニケーションポリシー情報は、さらに、前記ユーザに対応する言語レベルを含み、
     前記言語レベルは、前記ユーザの情報通信端末又は前記装置を介して前記ユーザのために設定された言語レベルであり、前記ユーザIDと対応させて設定されており、
     前記第1回答情報は、前記知識レベル及び前記言語レベルに応じて生成される、
     請求項13に記載の情報処理方法。
    The communication policy information further includes a language level corresponding to the user.
    The language level is a language level set for the user via the information communication terminal of the user or the device, and is set in association with the user ID.
    The first answer information is generated according to the knowledge level and the language level.
    The information processing method according to claim 13.
  19.  前記装置は、さらに、スピーカーを備え、
     前記装置の前記スピーカーから前記ユーザに出力させるために前記装置に第2質問を含む第2音声情報を出力し、前記第2質問は前記第1質問と異なり、前記知識レベルの更新のために用いられ、
    前記装置から、前記第2質問に対する前記ユーザの第2回答を示す第2回答情報を取得し、
    前記第2回答情報に基づき、前記知識レベルを更新する、
     請求項13に記載の情報処理方法。
    The device further comprises a speaker.
    The second voice information including the second question is output to the device from the speaker of the device to be output to the user, and the second question is different from the first question and is used for updating the knowledge level. Be,
    The second answer information indicating the user's second answer to the second question is acquired from the apparatus.
    Update the knowledge level based on the second answer information,
    The information processing method according to claim 13.
  20.  前記知識レベルは、前記第2回答の正誤に基づいて、または、前記第2音声情報の出力から前記第2回答情報の取得までに要した時間に基づいて、更新される、
     請求項19に記載の情報処理方法。
    The knowledge level is updated based on the correctness of the second answer or based on the time required from the output of the second voice information to the acquisition of the second answer information.
    The information processing method according to claim 19.
PCT/JP2021/037243 2020-10-20 2021-10-07 Information processing method WO2022085474A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020-175954 2020-10-20
JP2020175954A JP2023169448A (en) 2020-10-20 2020-10-20 Life support method, device, system, and program
JPPCT/JP2021/017031 2021-04-28
PCT/JP2021/017031 WO2022085223A1 (en) 2020-10-20 2021-04-28 Method, device, system, and program for life assistance

Publications (1)

Publication Number Publication Date
WO2022085474A1 true WO2022085474A1 (en) 2022-04-28

Family

ID=81290368

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037243 WO2022085474A1 (en) 2020-10-20 2021-10-07 Information processing method

Country Status (1)

Country Link
WO (1) WO2022085474A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250840A (en) * 1999-03-01 2000-09-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for controlling interface and recording medium recorded with the interface control program
JP2003032356A (en) * 2001-07-16 2003-01-31 Kyocera Corp Mobile terminal and user interface selecting method therefor
JP2014002470A (en) * 2012-06-15 2014-01-09 Ricoh Co Ltd Processing device, processing system, output method and program
JP2018136740A (en) * 2017-02-22 2018-08-30 シャープ株式会社 Network system, information processing method, server and terminal
JP2019164709A (en) * 2018-03-20 2019-09-26 ヤフー株式会社 Device, method, and program for controlling output

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250840A (en) * 1999-03-01 2000-09-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for controlling interface and recording medium recorded with the interface control program
JP2003032356A (en) * 2001-07-16 2003-01-31 Kyocera Corp Mobile terminal and user interface selecting method therefor
JP2014002470A (en) * 2012-06-15 2014-01-09 Ricoh Co Ltd Processing device, processing system, output method and program
JP2018136740A (en) * 2017-02-22 2018-08-30 シャープ株式会社 Network system, information processing method, server and terminal
JP2019164709A (en) * 2018-03-20 2019-09-26 ヤフー株式会社 Device, method, and program for controlling output

Similar Documents

Publication Publication Date Title
Potter Discourse analysis and discursive psychology.
Goldsmith Soliciting advice: The role of sequential placement in mitigating face threat
Sullivan et al. Keeping disability in mind: a case study in implantable brain–computer Interface research
Darroch et al. Interpreters’ experiences of transferential dynamics, vicarious traumatisation, and their need for support and supervision: A systematic literature review
Neville Eavesmining: A critical audit of the Amazon Echo and Alexa conditions of use
Cornes et al. Challenges of mental health interpreting when working with deaf patients
Abbott et al. Reflections on researcher departure: Closure of prison relationships in ethnographic research
Havelka Video-mediated remote interpreting<? br?> in healthcare: Analysis of an Austrian pilot project
O'Reilly et al. The Palgrave Handbook of Adult Mental Health
Robertson et al. The role of audiovisual asynchrony in person recognition
Nakao et al. Use of machine learning by non-expert dhh people: Technological understanding and sound perception
Burch ‘We shouldn’t be told to shut up, we should be told we can speak out’: Reflections on using arts-based methods to research disability hate crime
Chuckun et al. Enabling the Disabled using mHealth
WO2022085474A1 (en) Information processing method
WO2022085223A1 (en) Method, device, system, and program for life assistance
Bitman Rethinking the concept of ‘subaltern-researcher’: different D/deaf identities and communicative modalities as conflict factors in in-depth interviews
Okonji et al. Financial inclusion: perceptions of visually impaired older Nigerians
Dreschler et al. A profiling system for the assessment of individual needs for rehabilitation with hearing aids
Perham et al. Distraction of mental arithmetic by background speech
Lander et al. Does face familiarity influence speechreadability?
Kelly-Corless Delving into the unknown: An experience of doing research with d/Deaf prisoners
Plejert et al. Enhanced patient involvement in Swedish aphasia intervention
Carlile et al. Listening into 2030 workshop: An experiment in envisioning the future of hearing and communication science
Clay et al. Masking care: A qualitative investigation of the impact of face masks on the experience of stroke rehabilitation from the perspective of staff and service users with communication difficulties
Madill et al. The Stakeholder Model of voice research: Acknowledging barriers to human rights of all stakeholders in a communicative exchange

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21882615

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21882615

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP