JP2008234443A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2008234443A
JP2008234443A JP2007075025A JP2007075025A JP2008234443A JP 2008234443 A JP2008234443 A JP 2008234443A JP 2007075025 A JP2007075025 A JP 2007075025A JP 2007075025 A JP2007075025 A JP 2007075025A JP 2008234443 A JP2008234443 A JP 2008234443A
Authority
JP
Japan
Prior art keywords
information
dialogue
unit
processing apparatus
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007075025A
Other languages
Japanese (ja)
Inventor
Maki Yamada
麻紀 山田
Mitsuru Endo
充 遠藤
Tomohiro Konuma
知浩 小沼
Makoto Nishizaki
誠 西崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2007075025A priority Critical patent/JP2008234443A/en
Publication of JP2008234443A publication Critical patent/JP2008234443A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processor capable of acquiring desired care receiver information timely from remote locations. <P>SOLUTION: When an interaction scheduling part 12 always carries out collation with an inquiry trigger rule based on detection information of a status/motion of a care receiver, timing for starting voice conversation with the care receiver via radio communication can be set to timing desired by the care receiver. Once the voice interaction is started, the interaction progresses based on interaction scenario information, and in the course of this process, desired information (care receiver information) is obtained from the care receiver. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、遠隔の被介護者等の人物情報を取得するための情報処理技術に関する。   The present invention relates to an information processing technique for acquiring personal information such as a remote care recipient.

特定の人物として、たとえば高齢者等の被介護者の生活状態を遠隔から監視したいというニーズは、その被介護者と離れた場所で生活する家族から増加している。従来、このような監視装置として、たとえば下記特許文献1に開示された情報処理装置が知られている。
下記特許文献1に開示された情報処理装置は、人物(被介護者)に近接した位置に接地され、タイマによって一定期間ごとにシステム音声(たとえば「気分はどうですか」等の音声)を出力し、この音声出力に対する被介護者の応答に対して音声認識を行う。そして、この情報処理装置は、被介護者からの応答がない場合、または、応答の中に「悪い」等の特定のキーワードが含まれる場合に通報が必要であると判断し、介護医療機関等にあるセンター端末や介護者が携帯している通信端末等へ緊急通報を行なう。
特開2001−357476号公報
As a specific person, for example, the need to remotely monitor the living state of a cared person such as an elderly person is increasing from families living in a place away from the cared person. Conventionally, as such a monitoring apparatus, for example, an information processing apparatus disclosed in Patent Document 1 below is known.
The information processing apparatus disclosed in the following Patent Document 1 is grounded at a position close to a person (caregiver), and outputs a system sound (for example, a sound such as “How is the mood”) at regular intervals by a timer, Voice recognition is performed on the response of the cared person to the voice output. And this information processing apparatus judges that notification is necessary when there is no response from the cared person or when a specific keyword such as “bad” is included in the response. Emergency calls are made to the center terminal or communication terminal carried by the caregiver.
JP 2001-357476 A

ところで、人物(被介護者)の監視装置としての従来の情報処理装置は、被介護者の生活状態を示す情報であって監視者(被介護者の家族等)が望む情報をタイムリーに取得することが困難であった。たとえば上記特許文献1に開示された情報処理装置では、予め設定された時刻に特定のキーワードを含む応答があるか否かの判断のみを行うため、被介護者と離れて住む家族が望む詳細な情報まで得ることが困難である。また、上記特許文献1に開示された情報処理装置では、一定期間に被介護者に向けて音声出力を行うが、実際上頻繁に音声出力を行うのは被介護者にとって煩雑である。そのため、音声出力を行う間隔は、被介護者にとって煩雑に感じられない程度の期間(たとえば1時間)とならざるを得ず、そうすると、被介護者が応答すべき内容を忘失し、または、質問を理解できない場合がある。すなわち、一定期間に被介護者に向けて音声出力を行うことは、タイムリーに情報を取得できない可能性が高いのである。   By the way, a conventional information processing apparatus as a monitoring apparatus for a person (caregiver) acquires information that indicates the life status of the care receiver and information desired by the monitor (caregiver's family, etc.) in a timely manner. It was difficult to do. For example, in the information processing apparatus disclosed in Patent Document 1 described above, since it is only determined whether or not there is a response including a specific keyword at a preset time, detailed information desired by a family living away from the care recipient is desired. It is difficult to obtain information. Moreover, in the information processing apparatus disclosed in Patent Document 1, voice output is performed toward the care recipient for a certain period of time. However, it is complicated for the care receiver to actually perform voice output frequently. For this reason, the interval for performing the voice output must be a period (for example, 1 hour) that does not feel complicated for the cared person, and if this is done, the cared person forgets the contents to be answered or asked May not understand. In other words, it is highly possible that information cannot be acquired in a timely manner when voice output is performed toward a care recipient during a certain period.

上述した観点から、本発明は、所望の人物情報を遠隔からタイムリーに取得可能な情報処理装置に関するものである。   In view of the above, the present invention relates to an information processing apparatus capable of acquiring desired person information from a remote location in a timely manner.

本発明は、音声認識部と、音声出力部と、第1記憶部と、選択部と、対話管理部と、第2記憶部と、送信部とを有する。
音声認識部は、第1音声を認識してテキスト情報に変換する。音声出力部は、テキスト情報を、第2音声に変換して出力する。第1記憶部は、所定の人物情報を取得するための質問用テキスト情報を含む対話シナリオ情報を1または複数記憶する。選択部は、時刻情報、および/または、人物の状態もしくは動作の検出情報に基づいて、第1記憶部から1つの対話シナリオ情報を選択可能に構成される。対話管理部は、選択部によって1つの対話シナリオ情報が選択されたことを条件として、当該対話シナリオ情報に基づき人物との対話を開始するように、音声認識部と音声出力部とを制御するとともに、当該対話における第1音声の認識結果に基づいて人物情報を取得する。第2記憶部は、人物情報を記憶する。送信部は、人物情報を外部に送信する。
The present invention includes a voice recognition unit, a voice output unit, a first storage unit, a selection unit, a dialogue management unit, a second storage unit, and a transmission unit.
The voice recognition unit recognizes the first voice and converts it into text information. The voice output unit converts the text information into the second voice and outputs it. The first storage unit stores one or a plurality of dialogue scenario information including question text information for obtaining predetermined person information. The selection unit is configured to be able to select one dialogue scenario information from the first storage unit based on time information and / or detection information of a person state or action. The dialogue management unit controls the voice recognition unit and the voice output unit to start a dialogue with a person based on the dialogue scenario information on condition that one dialogue scenario information is selected by the selection unit. The person information is acquired based on the recognition result of the first voice in the dialogue. The second storage unit stores person information. The transmission unit transmits the person information to the outside.

本発明の情報処理装置によれば、所望の人物情報を遠隔からタイムリーに取得することができる。   According to the information processing apparatus of the present invention, desired person information can be acquired remotely and timely.

<第1の実施形態>
以下、本発明の情報処理装置の第1の実施形態について説明する。この第1の実施形態の情報処理装置は、所望の被介護者情報を遠隔からタイムリーに取得することができるように構成されている。以下の実施形態において、被介護者が本発明の人物に相当し、被介護者情報が本発明の人物情報に相当する。
<First Embodiment>
Hereinafter, a first embodiment of an information processing apparatus according to the present invention will be described. The information processing apparatus according to the first embodiment is configured to be able to acquire desired care receiver information from a remote location in a timely manner. In the following embodiments, a cared person corresponds to the person of the present invention, and cared person information corresponds to the person information of the present invention.

[情報処理装置1が適用されるシステム構成]
先ず、第1の実施形態の情報処理装置1が適用される全体構成について、図1を参照して説明する。図1は、第1の実施形態の情報処理装置1が適用される全体のシステム構成図である。
[System configuration to which the information processing apparatus 1 is applied]
First, an overall configuration to which the information processing apparatus 1 of the first embodiment is applied will be described with reference to FIG. FIG. 1 is an overall system configuration diagram to which the information processing apparatus 1 of the first embodiment is applied.

被介護者端末7は、被介護者が生活する場所に設置され、被介護者が情報処理装置1との対話を行う際に使用される。被介護者端末7は、マイクロフォン71とスピーカ72と無線通信モジュール73とを備える。好ましくは、被介護者端末7は表示装置74も備える。被介護者端末7の無線通信モジュール73は、情報処理装置1の無線通信モジュール10と所定の通信プロトコルに従って無線通信を行う。マイクロフォン71は被介護者が発する音声を集音し、この集音された音声が無線通信モジュール73を介して、情報処理装置1へ送信される。一方、無線通信モジュール73が情報処理装置1から受信した音声信号は、被介護者端末7内部で増幅されてスピーカ72から出力される。   The care receiver terminal 7 is installed at a place where the care receiver lives, and is used when the care receiver interacts with the information processing apparatus 1. The care receiver terminal 7 includes a microphone 71, a speaker 72, and a wireless communication module 73. Preferably, the care receiver terminal 7 also includes a display device 74. The wireless communication module 73 of the care receiver terminal 7 performs wireless communication with the wireless communication module 10 of the information processing apparatus 1 according to a predetermined communication protocol. The microphone 71 collects sound emitted by the care recipient, and the collected sound is transmitted to the information processing apparatus 1 via the wireless communication module 73. On the other hand, the audio signal received by the wireless communication module 73 from the information processing apparatus 1 is amplified inside the care receiver terminal 7 and output from the speaker 72.

本実施形態において、位置センサ91、圧力センサ92、TV(テレビジョン)セット93および電子レンジ94は、被介護者の状態または動作の検出情報を得るための装置の例である。各装置は、情報処理装置1の無線通信モジュール10と通信を行うための通信機能を備えている。図1に示した例において、位置センサ91は、たとえば被介護者の体に常時取り付けられており、被介護者の位置情報を所定の間隔で無線通信モジュール10へ送信する。圧力センサ92は、たとえば被介護者のベッドに取り付けられ、ベッドのクッションに加わる圧力値によって、被介護者がベッドで寝ているか否かを判定し、その判定結果を所定の間隔で無線通信モジュール10へ送信する。TVセット93および電子レンジ94は、被介護者が操作を行ったときに、その操作内容の情報を所定の間隔で無線通信モジュール10へ送信する。無論、被介護者の状態または動作の検出情報を得るための装置は、図1に記載した例に限られず、被介護者の生活状態に応じて適宜追加可能であることは言うまでもない。   In the present embodiment, the position sensor 91, the pressure sensor 92, the TV (television) set 93, and the microwave oven 94 are examples of devices for obtaining detection information of the state or motion of the care recipient. Each device has a communication function for communicating with the wireless communication module 10 of the information processing device 1. In the example shown in FIG. 1, the position sensor 91 is always attached to the cared person's body, for example, and transmits the cared person's position information to the wireless communication module 10 at a predetermined interval. The pressure sensor 92 is attached to the care receiver's bed, for example, determines whether or not the care receiver is sleeping on the bed based on the pressure value applied to the bed cushion, and the wireless communication module determines the determination result at a predetermined interval. 10 to send. When the care receiver performs an operation, the TV set 93 and the microwave oven 94 transmit information on the operation content to the wireless communication module 10 at a predetermined interval. Needless to say, the device for obtaining the detection information of the status or motion of the cared person is not limited to the example described in FIG. 1 and can be added as appropriate according to the life status of the cared person.

介護者端末8は、被介護者の生活を監視する遠隔の介護者が所持する。介護者端末8は、ネットワーク800を介して、情報処理装置1と無線通信可能に構成される。介護者端末8は、所望のタイミングで情報処理装置1に蓄積される被介護者情報を、ネットワーク800を介して受信する。   The caregiver terminal 8 is owned by a remote caregiver who monitors the life of the care recipient. The care giver terminal 8 is configured to be able to wirelessly communicate with the information processing apparatus 1 via the network 800. The care giver terminal 8 receives the care receiver information accumulated in the information processing apparatus 1 at a desired timing via the network 800.

情報処理装置1は、被介護者の状態または動作の検出情報(位置センサ91、圧力センサ92、TVセット93および電子レンジ94の検出結果)に基づく条件判断(後述する)をトリガとして、被介護者端末7を介して被介護者と対話を実行することで、所望の被介護者情報を取得・蓄積する。   The information processing apparatus 1 is triggered by a condition determination (described later) based on detection information (position sensor 91, pressure sensor 92, TV set 93, and detection result of the microwave oven 94) of the state or motion of the care recipient. The desired care receiver information is acquired and stored by executing a dialog with the care receiver via the person terminal 7.

[情報処理装置1の構成]
次に、本実施形態の情報処理装置1の構成について図2〜5を参照して説明する。図2は、第1の実施形態の情報処理装置1の内部の構成を示すブロック図である。なお、図2には、データ送受信が明確となるように、無線通信モジュール10(図示せず)を介して通信を行う対象である、被介護者端末7、ネットワーク800、位置センサ91、圧力センサ92、TVセット93、電子レンジ94も記載してある。図3は、質問トリガルールの一例を示す図である。図4は、対話シナリオ情報の一例を示す図である。図5は、被介護者情報の一形式を例示する図である。
[Configuration of Information Processing Apparatus 1]
Next, the configuration of the information processing apparatus 1 according to the present embodiment will be described with reference to FIGS. FIG. 2 is a block diagram illustrating an internal configuration of the information processing apparatus 1 according to the first embodiment. In FIG. 2, the care receiver terminal 7, the network 800, the position sensor 91, and the pressure sensor, which are objects to be communicated via the wireless communication module 10 (not shown) so that data transmission / reception becomes clear. 92, TV set 93, and microwave oven 94 are also described. FIG. 3 is a diagram illustrating an example of the question trigger rule. FIG. 4 is a diagram illustrating an example of dialogue scenario information. FIG. 5 is a diagram illustrating an example of a format of cared person information.

図2に示すように、情報処理装置1は、対話スケジューリング部12(本発明の選択部)と、質問トリガルール記憶部14と、対話シナリオ情報記憶部16(本発明の第1記憶部)と、対話管理部18と、音声・画像出力部20と、音声認識部22と、被介護者情報記憶部24(本発明の第2記憶部)と、送信部26とを備える。図2には図示していないが、情報処理装置1は、マイクロコンピュータおよびメモリを主体として構成され、時刻情報を管理するタイマ(マイクロコンピュータに内蔵されていてもよい)を含む。   As shown in FIG. 2, the information processing apparatus 1 includes a dialogue scheduling unit 12 (selection unit of the present invention), a question trigger rule storage unit 14, a dialogue scenario information storage unit 16 (first storage unit of the present invention), , A dialogue management unit 18, a voice / image output unit 20, a voice recognition unit 22, a care receiver information storage unit 24 (second storage unit of the present invention), and a transmission unit 26. Although not shown in FIG. 2, the information processing apparatus 1 is configured mainly with a microcomputer and a memory, and includes a timer (may be built in the microcomputer) that manages time information.

質問トリガルール記憶部14は、音声対話開始の条件と、その条件に合致した場合の対話シナリオのIDとが記述された質問トリガルールを格納する。図3に例示するように、音声対話開始の条件は、位置センサ91、圧力センサ92、TVセット93および電子レンジ94の検出情報、および/または、時刻情報に関連して予め設定されている。   The question trigger rule storage unit 14 stores a question trigger rule in which a voice dialogue start condition and an ID of a dialogue scenario when the condition is met are described. As illustrated in FIG. 3, the voice conversation start condition is set in advance in relation to the position sensor 91, the pressure sensor 92, the detection information of the TV set 93 and the microwave oven 94, and / or time information.

対話スケジューリング部12は、位置センサ91、圧力センサ92、TVセット93および電子レンジ94の検出情報を入力し、その検出情報に基づいて、質問トリガルールに記述された音声対話開始の条件に合致するか否かを常時監視している。そして、対話スケジューリング部12は、質問トリガルールの中の音声対話開始のいずれかの条件に合致したと判断すると、その音声対話開始の条件に対応する対話シナリオIDを対話管理部18へ通知する。   The dialogue scheduling unit 12 inputs detection information of the position sensor 91, the pressure sensor 92, the TV set 93, and the microwave oven 94, and matches the voice dialogue start condition described in the question trigger rule based on the detection information. Whether or not is constantly monitored. When the dialog scheduling unit 12 determines that any one of the conditions for starting the voice conversation in the question trigger rule is met, the dialog scheduling unit 12 notifies the dialog management unit 18 of the dialog scenario ID corresponding to the condition for starting the voice dialog.

音声・画像出力部20には、対話シナリオ情報に含まれるテキスト情報と画像番号とが対話管理部18から供給される。音声・画像出力部20は、供給されたテキスト情報に対応した音声情報と、供給された画像番号に対応する画像情報とを被介護者端末7へ送信する。音声認識部22は、被介護者端末7から送信された音声情報(被介護者からの応答)を認識してテキスト情報に変換し、そのテキスト情報を対話管理部18へ送信する。   The voice / image output unit 20 is supplied from the dialogue management unit 18 with text information and image numbers included in the dialogue scenario information. The audio / image output unit 20 transmits audio information corresponding to the supplied text information and image information corresponding to the supplied image number to the care receiver terminal 7. The voice recognition unit 22 recognizes the voice information (response from the care receiver) transmitted from the care receiver terminal 7 and converts it into text information, and transmits the text information to the dialogue management unit 18.

対話管理部18は、情報処理装置1と被介護者端末7との間で行われる音声対話を管理する。対話管理部18は、対話スケジューリング部12から供給される対話シナリオのIDに基づいて、対話シナリオ情報記憶部16に含まれる複数の対話シナリオ情報から1つを選択し、その選択した対話シナリオ情報に従って音声・画像出力部20および音声認識部22を制御することで、被介護者との音声対話を実行する。また、対話管理部18は、音声認識部22から供給されるテキスト情報(被介護者からの応答)を構文解析して、そのテキスト情報に含まれる被介護者情報を抽出し、逐次、被介護者情報記憶部24に格納する。   The dialogue management unit 18 manages a voice dialogue performed between the information processing apparatus 1 and the care receiver terminal 7. The dialogue management unit 18 selects one of a plurality of dialogue scenario information included in the dialogue scenario information storage unit 16 based on the dialogue scenario ID supplied from the dialogue scheduling unit 12, and according to the selected dialogue scenario information. By controlling the voice / image output unit 20 and the voice recognition unit 22, a voice dialogue with the care recipient is executed. In addition, the dialogue management unit 18 parses the text information (response from the care recipient) supplied from the voice recognition unit 22 and extracts care receiver information included in the text information, and sequentially receives the care recipient. Stored in the person information storage unit 24.

対話シナリオ情報記憶部16に含まれる各対話シナリオ情報には、図4に示すように、対話状態遷移表とフレームとが記述されている。各対話シナリオ情報は、質問トリガルールに記述される対話シナリオIDと対応付けられている。フレームには、対話状態遷移表に記述した対話によって取得される被介護者情報の項目(スロット)が定義される。   Each dialog scenario information included in the dialog scenario information storage unit 16 describes a dialog state transition table and a frame as shown in FIG. Each dialogue scenario information is associated with a dialogue scenario ID described in the question trigger rule. In the frame, items (slots) of cared person information acquired by dialogue described in the dialogue state transition table are defined.

対話状態遷移表は、対話における複数の状態(対話状態)が定義され、各対話状態には、画像番号およびテキスト情報、並びに、次に遷移すべき対話状態(次対話状態)が予め設定されている。対話管理部18は、被介護者からの応答(音声認識部22から供給されるテキスト情報)を構文解析することで、フレーム内の各スロットの情報(被介護者情報)を抽出する。なお、図4に示すテキスト情報の中で、文末が「?」で終了するテキスト情報が質問用テキスト情報である。   In the dialog state transition table, a plurality of states (dialogue states) in a dialog are defined, and in each dialog state, an image number and text information, and a dialog state (next dialog state) to be transitioned next are set in advance. Yes. The dialogue management unit 18 parses a response from the cared person (text information supplied from the voice recognition unit 22) to extract information on each slot (cared person information) in the frame. In the text information shown in FIG. 4, text information ending with “?” At the end of the sentence is question text information.

図4に例示した対話状態遷移表には、各対話状態において、複数の理解結果の条件が定義され、各理解結果の条件に対して、画像番号、テキスト情報および次対話状態が設定されている。対話管理部18は、ある対話状態において、構文解析の結果、適合する理解結果の条件に応じた画像番号、テキスト情報および次対話状態を選択する。図4に示すように、理解結果の条件を定義することによって、対話における音声認識部22による認識が失敗した場合、予定されたスロットの情報がすべて得られない場合等の対話動作について詳細に定義することが可能である。   In the dialog state transition table illustrated in FIG. 4, a plurality of understanding result conditions are defined in each dialog state, and an image number, text information, and the next dialog state are set for each understanding result condition. . The dialogue management unit 18 selects an image number, text information, and a next dialogue state according to a result of syntax analysis and a matching understanding result in a certain dialogue state. As shown in FIG. 4, by defining the condition of the understanding result, the dialogue operation is defined in detail when the recognition by the voice recognition unit 22 in the dialogue fails or when all the information of the scheduled slot cannot be obtained. Is possible.

対話管理部18は、選択した対話状態遷移表に沿って対話を実行する。図5に示す例では、図4に例示した対話シナリオ情報に沿って対話を実行した結果、被介護者情報として、被介護者が食事をしたこと(status[肯定]およびaction[食べる])、および、被介護者が食事をした時刻(time[さっき])に関する情報が得られた場合のフレームの状態を示している。対話状態遷移表に従って対話が終了すると、一部またはすべてのスロットに被介護者情報が書き込まれたフレームの情報は、被介護者情報として被介護者情報記憶部24に格納される。   The dialogue manager 18 executes the dialogue along the selected dialogue state transition table. In the example shown in FIG. 5, as a result of executing the dialogue along the dialogue scenario information illustrated in FIG. 4, the cared person has eaten as the cared person information (status [affirmation] and action [eat]), In addition, the state of the frame in the case where information on the time (time [previous]) when the cared person eats is obtained is shown. When the dialogue is completed according to the dialogue state transition table, the information of the frame in which the care receiver information is written in some or all of the slots is stored in the care receiver information storage unit 24 as the care receiver information.

[情報処理装置1の動作]
次に、本実施形態の情報処理装置1の動作について、図3〜7を参照して説明する。なお、図6〜7は、情報処理装置1の動作を説明するためのフローチャートである。
[Operation of Information Processing Apparatus 1]
Next, operation | movement of the information processing apparatus 1 of this embodiment is demonstrated with reference to FIGS. 6 to 7 are flowcharts for explaining the operation of the information processing apparatus 1.

図6は、情報処理装置1の全体処理を示すフローチャートである。図6において先ず、対話スケジューリング部12は、対話の位置センサ91、圧力センサ92、TVセット93、電子レンジ94から受信した検出情報を常時監視し、質問トリガルールに記述された音声対話開始の条件に合致するか否かを判断する(ステップS1)。たとえば、「朝ベッドから起きて1時間したら」という音声対話開始の条件が合致するか否かは、被介護者のベッドに取り付けられた圧力センサ92の検出情報によって判断される。すなわち、圧力センサ92の検出値が所定の閾値よりも低下した場合には、被介護者がベッドから起きたと判断し、その後1時間経過した時点で音声対話開始の条件の条件に合致したと判断する。   FIG. 6 is a flowchart showing the overall processing of the information processing apparatus 1. In FIG. 6, first, the dialog scheduling unit 12 constantly monitors the detection information received from the dialog position sensor 91, pressure sensor 92, TV set 93, and microwave oven 94, and the voice dialog start condition described in the question trigger rule. It is determined whether or not (step S1). For example, whether or not the voice conversation start condition “after one hour after getting up from bed in the morning” is met is determined based on detection information of the pressure sensor 92 attached to the care receiver's bed. That is, if the detected value of the pressure sensor 92 falls below a predetermined threshold value, it is determined that the care recipient has woken up from the bed, and it is determined that the condition of the voice conversation start condition has been met when one hour has passed thereafter. To do.

対話スケジューリング部12は、質問トリガルールに記述された複数の音声対話開始の条件の内、合致した条件に対応する対話シナリオIDを選択し(ステップS2)、対話管理部18に対して、その選択した対話シナリオIDを通知する(ステップS3)。この対話スケジューリング部12による対話シナリオIDの通知は、対話管理部18に対して音声対話の開始を指示したことを意味する。そして、対話管理部18は、対話シナリオIDに対応する対話シナリオ情報を対話シナリオ情報記憶部16から参照して、その対話シナリオ情報に沿って音声対話処理の実行を開始する(ステップS4)。この動作の説明では、一例として、図3における対話シナリオID:「1」に対応する対話シナリオ情報が、図4に示す対話シナリオ情報であることを想定する。   The dialog scheduling unit 12 selects a dialog scenario ID corresponding to the matched condition from among a plurality of voice dialog start conditions described in the question trigger rule (step S2), and the dialog management unit 18 selects the dialog scenario ID. The dialogue scenario ID is notified (step S3). The notification of the dialogue scenario ID by the dialogue scheduling unit 12 means that the dialogue management unit 18 has been instructed to start a voice dialogue. Then, the dialogue management unit 18 refers to the dialogue scenario information corresponding to the dialogue scenario ID from the dialogue scenario information storage unit 16, and starts executing the voice dialogue process along the dialogue scenario information (step S4). In the description of this operation, as an example, it is assumed that the dialogue scenario information corresponding to the dialogue scenario ID: “1” in FIG. 3 is the dialogue scenario information shown in FIG.

図6において、質問トリガルールに記述された、いずれの音声対話開始の条件にも合致しない場合には、情報処理装置1は何も実行しないが、予め定められた時刻に達したことを条件として(ステップS5のYes)、情報処理装置1は、送信部26に通知処理を指示する(ステップS6)。この通知処理において、送信部26は、被介護者情報記憶部24に格納されている被介護者情報を時刻情報とともに、ネットワーク800を介して介護者端末8へ電子メールにより送信する(ステップS7)。   In FIG. 6, if none of the voice conversation start conditions described in the question trigger rule is met, the information processing apparatus 1 does not execute anything but on condition that a predetermined time has been reached. (Yes in step S5), the information processing apparatus 1 instructs the transmission unit 26 to perform notification processing (step S6). In this notification process, the transmission unit 26 transmits the care receiver information stored in the care receiver information storage unit 24 together with time information to the caregiver terminal 8 via the network 800 by e-mail (step S7). .

次に、図6のステップS4の音声対話処理の詳細について、図7のフローチャートを参照して説明する。
対話管理部18は、対話スケジューリング部12から対話シナリオIDが通知されることで音声対話の開始を指示されると、対応する対話シナリオ情報に記述されたテキスト情報および画像番号を音声・画像出力部20へ送信する(ステップS10)。たとえば、この対話シナリオ情報には、「朝ベッドから起きて1時間したら」という音声対話開始の条件に適した対話として、図4に示すように、被介護者の食事(朝食)に関する被介護者情報が得られるような対話が記述されている。
Next, the details of the voice interaction process in step S4 of FIG. 6 will be described with reference to the flowchart of FIG.
When the dialogue management unit 18 is instructed to start a voice dialogue by notifying the dialogue scenario ID from the dialogue scheduling unit 12, the dialogue management unit 18 displays the text information and the image number described in the corresponding dialogue scenario information as a voice / image output unit. 20 (step S10). For example, in this dialogue scenario information, as shown in FIG. 4, a cared person regarding a cared person's meal (breakfast) as a dialog suitable for a voice conversation start condition of “getting up in the morning for 1 hour”. It describes a dialogue that provides information.

そこで、対話管理部18は、先ず、図4に示す対話シナリオ情報の対話状態遷移表における対話状態status0に対応するテキスト情報(図4では、「おはよう。朝ごはん食べた?」のテキスト情報)と、画像番号(図4では「1」)に予め対応付けられている画像情報とを、音声・画像出力部20および無線通信モジュール10を制御して被介護者端末7へ送信する(ステップS11)。   Therefore, the dialogue management unit 18 firstly has text information corresponding to the dialogue state status0 in the dialogue state transition table of the dialogue scenario information shown in FIG. 4 (in FIG. 4, text information “Good morning, have you eaten breakfast?”) And The image information previously associated with the image number (“1” in FIG. 4) is transmitted to the care receiver terminal 7 by controlling the audio / image output unit 20 and the wireless communication module 10 (step S11). .

被介護者端末7では、ステップS11で送信されたテキスト情報および画像情報を受信し、テキスト情報はスピーカ72から出力し、画像情報は表示装置74に表示する(ステップS12)。スピーカ72からの出力音声(たとえば、「おはよう。朝ごはん食べた?」の音声)に被介護者が応答した音声(たとえば、「うん、さっき食べたわよ。」の音声)は、被介護者端末7のマイクロフォン71に集音され、その被介護者の音声情報が情報処理装置1に向けて送信される(ステップS13)。   The care receiver terminal 7 receives the text information and the image information transmitted in step S11, outputs the text information from the speaker 72, and displays the image information on the display device 74 (step S12). The voice (for example, the voice of "Yeah, I've eaten it before") that the caregiver responded to the output sound from the speaker 72 (for example, "Good morning, did you eat breakfast?") The sound is collected by the microphone 71 of the terminal 7, and the voice information of the care receiver is transmitted to the information processing apparatus 1 (step S13).

情報処理装置1は被介護者からの応答の音声情報を受信し、その受信した音声情報は、音声認識部22によって音声認識が行われてテキスト情報に変換される(ステップS14)。そして、対話管理部18は、音声認識部22で得られたテキスト情報(たとえば、「うん、さっき食べたわよ。」というテキスト情報)を構文解析し、選択された対話シナリオ情報のフレームに従って解釈する(ステップS15)。図4に示すフレームの例では、「うん、さっき食べたわよ。」というテキスト情報を構文解釈した結果、肯定的な応答であると判断して、フレーム中のstatusというスロットに「肯定」というテキスト情報を書き込む。さらに、actionというスロットに「食べる」というテキスト情報、timeというスロットに「さっき」というテキスト情報を書き込む。図4に示すフレームには、taste(おいしかったか)というスロット、food(何を食べたか)というスロット、appetite(食欲はどうか)というスロットが定義されているが、これらのスロットの内容はこの時点では未確定である。   The information processing apparatus 1 receives voice information of a response from the care recipient, and the received voice information is voice-recognized by the voice recognition unit 22 and converted into text information (step S14). Then, the dialogue management unit 18 parses the text information obtained by the voice recognition unit 22 (for example, text information “Yeah, I ate it immediately”) and interprets it according to the frame of the selected dialogue scenario information. (Step S15). In the example of the frame shown in FIG. 4, as a result of syntactically interpreting the text information “Yeah, I ate it immediately”, it is determined that the response is a positive response, and “Yes” is displayed in the status slot in the frame. Write text information. Further, the text information “eat” is written in the slot called “action”, and the text information “before” is written in the slot called “time”. The frame shown in FIG. 4 defines a slot called “taste”, a slot called “food”, and a slot called “appetite”. Indeterminate.

次に、対話管理部18は、ステップS15における解釈結果に基づき、対応する対話シナリオ情報の対話状態遷移表に従って、テキスト情報、画像情報および次対話状態を決定する(ステップS16)。上記ステップS10において対話状態status0に対応するテキスト情報および画像情報を送信した後の次対話状態はstate1であるので、対話管理部18は、ステップS16では、対話状態state1における理解結果の条件に基づいて、テキスト情報、画像番号および次対話状態を決定する。図4を参照すると、先ず、画像番号「4」に対応する画像情報と、「そっかー」というテキスト情報とが、音声・画像出力部20および無線通信モジュール10を制御して被介護者端末7へ送信される(ステップS16)。さらに、上記ステップS15でフレーム中のstatusというスロットに「肯定」というテキスト情報が書き込まれており、かつ、foodというスロットが未確定である(何も書き込まれていない)ため、「何を食べたの?」というテキスト情報を、同様に被介護者端末7へ送信する(ステップS16)。そして、対話管理部18は対話状態をstate2へ遷移させる(ステップS16)。   Next, the dialogue management unit 18 determines the text information, the image information, and the next dialogue state according to the dialogue state transition table of the corresponding dialogue scenario information based on the interpretation result in step S15 (step S16). Since the next dialogue state after transmitting the text information and the image information corresponding to the dialogue state status0 in step S10 is state 1, the dialogue management unit 18 in step S16, based on the understanding result condition in the dialogue state state1. Determine text information, image number and next dialog state. Referring to FIG. 4, first, the image information corresponding to the image number “4” and the text information “SOKA” control the voice / image output unit 20 and the wireless communication module 10 to provide the care receiver terminal 7. (Step S16). Furthermore, since the text information “affirmation” is written in the slot “status” in the frame in the above step S15 and the slot “food” is unconfirmed (nothing is written), “what was eaten” Similarly, the text information "?" Is transmitted to the care receiver terminal 7 (step S16). Then, the dialogue management unit 18 changes the dialogue state to state 2 (step S16).

以上のステップS10〜S16のフローは、図4に示す対話状態遷移表の次対話状態が「終了」となる、すなわち、終了状態となるまで繰り返し行われる(ステップS17)。この対話状態遷移表は、終了状態となるまでにフレームのすべてのスロットが書き込まれることを目的として設計されるが、認識理解に問題がある場合(たとえば被介護者の音声が意味不明または理解不能であるような場合)には、図4に示すように、すべてのスロットを書き込まずに終了するようにしてもよい。終了状態になると(ステップS17のYes)、対話管理部18の指令の下、被介護者情報記憶部24が、ステップS10〜16のフローを実行した結果得られた、スロットに所望の情報が書き込まれたフレームの情報を被介護者情報として、時刻情報と共に記憶、蓄積した後(ステップS18)、音声対話処理を終了する。   The above flow of steps S10 to S16 is repeated until the next dialog state of the dialog state transition table shown in FIG. This dialog state transition table is designed for the purpose of writing all slots of a frame by the end state, but if there is a problem with cognitive understanding (for example, the caregiver's voice is meaningless or unintelligible) In such a case, the process may be terminated without writing all slots as shown in FIG. When the end state is reached (Yes in step S17), desired information is written in the slot obtained as a result of the care receiver information storage unit 24 executing the flow of steps S10 to 16 under the instruction of the dialogue management unit 18. After storing and accumulating the information of the frame as the care receiver information together with the time information (step S18), the voice dialogue processing is terminated.

なお、音声認識部22における音声認識誤りの発生を考慮して、図4に示す対話状態遷移表では、理解結果の条件において、認識理解が失敗した場合に、再度被介護者に聞き直すようなテキスト情報(たとえば、「え?食べた?食べてない?」のテキスト情報)や、曖昧な応答を示すテキスト情報(たとえば、「ふーん、そうなんだ」のテキスト情報)が選択できるように設計されている。   In consideration of the occurrence of a voice recognition error in the voice recognition unit 22, the dialog state transition table shown in FIG. 4 asks the care recipient again when recognition comprehension fails under the understanding result conditions. It is designed so that you can select text information (for example, text information of “Eh? I ate? I do n’t eat?”) Or text information that shows an ambiguous response (eg, text information of “Foot, yes”). Yes.

以上説明したように、本実施形態の情報処理装置によれば、対話スケジューリング部12が、被介護者の状態または動作の検出情報に基づいて、質問トリガールールとの照合を常時行うことで、被介護者との無線通信を介した音声対話を開始させるためのタイミングを介護者所望のタイミングに設定できる。音声対話が開始されると、対話シナリオ情報に基づいて対話が進行し、その過程で被介護者から所望の情報(被介護者情報)が抽出される。したがって、本実施形態の情報処理装置により、所望の被介護者情報を遠隔からタイムリーに取得することができる。   As described above, according to the information processing apparatus of the present embodiment, the conversation scheduling unit 12 constantly performs matching with the question trigger rule based on the information on the status or action of the care recipient, thereby The timing for starting the voice conversation via wireless communication with the caregiver can be set to a timing desired by the caregiver. When the voice dialogue is started, the dialogue proceeds based on the dialogue scenario information, and in the process, desired information (care recipient information) is extracted from the care recipient. Therefore, the information processing apparatus of the present embodiment can acquire desired care receiver information from a remote location in a timely manner.

<第2の実施形態>
以下、本発明の情報処理装置の第2の実施形態について説明する。
この実施形態の情報処理装置2は、個々の被介護者の生活習慣または好みに適合した形で対話を開始するものである。
<Second Embodiment>
Hereinafter, a second embodiment of the information processing apparatus of the present invention will be described.
The information processing apparatus 2 according to this embodiment starts a conversation in a form suitable for the lifestyle or preference of each care recipient.

情報処理装置2の構成について図8を参照して説明する。なお、図8では、図2に示した情報処理装置1と同一の部位については同一の符号を付し、以下では重複説明を行わない。
図8に示す情報処理装置2は、図2に示した情報処理装置1と比較すると、プロファイル生成部28を備える点で相違する。
プロファイル生成部28は、検出情報(図8では、位置センサ91、圧力センサ92、TVセット93および電子レンジ94からの情報)を統計処理することによって、個々の被介護者に対応するプロファイル情報を生成し、記憶する。プロファイル情報は、被介護者の行動パターンや好みなどを表す情報である。プロファイル生成部28は、検出情報だけでなく、被介護者情報記憶部24に記憶される被介護者情報も統計処理することによって、個々の被介護者に対応するプロファイル情報を生成してもよい。
The configuration of the information processing apparatus 2 will be described with reference to FIG. In FIG. 8, the same parts as those of the information processing apparatus 1 shown in FIG. 2 are denoted by the same reference numerals, and redundant description will not be given below.
The information processing apparatus 2 illustrated in FIG. 8 is different from the information processing apparatus 1 illustrated in FIG. 2 in that a profile generation unit 28 is provided.
The profile generation unit 28 statistically processes the detection information (in FIG. 8, information from the position sensor 91, the pressure sensor 92, the TV set 93, and the microwave oven 94), thereby obtaining profile information corresponding to each cared person. Generate and store. The profile information is information representing the behavior pattern and preferences of the care recipient. The profile generation unit 28 may generate profile information corresponding to individual care recipients by statistically processing the care receiver information stored in the care receiver information storage unit 24 as well as the detection information. .

対話スケジューリング部12は、検出情報と、プロファイル生成部28に記憶されたプロファイル情報とを参照して、質問トリガルールに記述された複数の音声対話開始の条件の内、合致した条件に対応する対話シナリオIDを選択し、対話管理部18に対して、その選択した対話シナリオIDを通知する。すなわち、プロファイル情報に応じて、対話管理部18に対する音声対話の開始指示タイミングが制御されることになる。   The dialogue scheduling unit 12 refers to the detection information and the profile information stored in the profile generation unit 28, and among the plurality of voice dialogue start conditions described in the question trigger rule, the dialogue corresponding to the matched condition. A scenario ID is selected, and the selected dialogue scenario ID is notified to the dialogue management unit 18. That is, the start instruction timing of the voice dialogue to the dialogue manager 18 is controlled according to the profile information.

質問トリガルール記憶部14に記述する音声対話開始の条件として、たとえば「被介護者の平均起床時刻よりも30分遅くまで寝ていたら」、「おやつを食べる平均的な時刻になったら」等、図3に例示したものよりも詳細な条件を設定しておく。ここで、プロファイル生成部28は、プロファイル情報として、たとえば「被介護者情報の平均起床時刻」を、圧力センサ92がレベル変化する時刻について、たとえば1ヶ月の平均値をとる(統計処理する)ことで算出し、予め記憶している。また、プロファイル生成部28は、プロファイル情報として、たとえば「おやつを食べる平均的な時刻」を、電子レンジ94がレベル変化する時刻について、たとえば1ヶ月の平均値をとる(統計処理する)ことで算出し、予め記憶している。なお、統計処理は平均値を算出する処理に限らず、プロファイル情報に応じて様々な処理をとることができる。   As a condition for starting the voice dialogue described in the question trigger rule storage unit 14, for example, “if you are sleeping until 30 minutes later than the average wake-up time of the care recipient”, “when it is the average time to eat a snack”, etc. More detailed conditions than those illustrated in FIG. 3 are set. Here, the profile generation unit 28 takes, for example, “average wake-up time of care receiver information” as profile information, and takes, for example, an average value for one month (statistical processing) for the time when the level of the pressure sensor 92 changes. Calculated in advance and stored in advance. Further, the profile generation unit 28 calculates, for example, “average time to eat snacks” as profile information by taking, for example, an average value for one month (statistical processing) for the time when the level of the microwave oven 94 changes. And stored in advance. The statistical process is not limited to the process of calculating the average value, and various processes can be taken according to the profile information.

このように、本実施形態の情報処理装置2では、個々の被介護者のプロファイル情報を参照して音声対話の開始指示タイミングが決定されるため、個々の被介護者の生活習慣または好みに適合した形で対話を開始することができるようになる。
なお、より詳細なプロファイル情報を生成するために、図8に記載されていない検出情報、たとえば、ドアの開閉を検知するドアセンサ、脈拍や血圧等のバイオセンサ等の検出情報を参照してもよい。
As described above, in the information processing apparatus 2 according to the present embodiment, the start instruction timing of the voice conversation is determined with reference to the profile information of the individual cared person, so that it matches the lifestyle or preference of the individual cared person You will be able to start the conversation in this way.
In order to generate more detailed profile information, detection information that is not described in FIG. 8, for example, detection information such as a door sensor that detects opening / closing of a door, a biosensor such as a pulse or blood pressure, may be referred to. .

本実施形態の情報処理装置2において、対話管理部18は、特定の被介護者に対してプロファイル生成部28に記憶されたプロファイル情報と、検出情報との差に応じて、異なる対話シナリオ情報を選択するようにしてもよい。音声対話開始の条件として、たとえば「被介護者の平均起床時刻に起床したら」である場合と、「被介護者の平均起床時刻よりも30分遅くまで寝ていたら」である場合とで、異なる対話シナリオ情報を対話シナリオ情報記憶部16に記憶させておくのである。このようにすることで、被介護者の日々の状況に応じた対話を行うことが可能になる。   In the information processing apparatus 2 of the present embodiment, the dialogue management unit 18 displays different dialogue scenario information according to the difference between the profile information stored in the profile generation unit 28 and the detection information for a specific care recipient. You may make it select. As a condition for starting a voice conversation, for example, “if you get up at the average wake-up time of the cared person” and “if you have slept until 30 minutes later than the average of the cared person” are different The dialogue scenario information is stored in the dialogue scenario information storage unit 16. By doing in this way, it becomes possible to perform the dialogue according to the daily situation of the care recipient.

<第3の実施形態>
以下、本発明の情報処理装置の第3の実施形態について説明する。
第1および第2の実施形態の情報処理装置では、被介護者端末7との通信(被介護者との対話)によって大量の被介護者情報を取得することができるが、重要な情報および重要でない情報が混在した大量の情報をそのまま介護者端末8へ送信することは、情報を受け取る介護者にとって煩雑である可能性がある。そこで、本実施形態の情報処理装置3は、送信対象の情報を限定(抽出)するようにした機能を追加するようにしたものである。
<Third Embodiment>
Hereinafter, a third embodiment of the information processing apparatus of the present invention will be described.
In the information processing apparatuses of the first and second embodiments, a large amount of care receiver information can be acquired by communication with the care receiver terminal 7 (dialogue with the care receiver). It may be troublesome for the caregiver who receives the information to transmit a large amount of information in which non-information is mixed to the caregiver terminal 8 as it is. Therefore, the information processing apparatus 3 according to the present embodiment adds a function that limits (extracts) information to be transmitted.

情報処理装置3の構成について図9を参照して説明する。なお、図9では、図2および図8に示した情報処理装置1,2と同一の部位については同一の符号を付し、以下では重複説明を行わない。
図9に示す情報処理装置3は、図8に示した情報処理装置2と比較すると、情報抽出部30を備える点で相違する。なお、本実施形態の情報処理装置3は、図9ではプロファイル生成部28を備えたものとなっているが、プロファイル生成部28は必須の構成要素ではない。
The configuration of the information processing apparatus 3 will be described with reference to FIG. In FIG. 9, the same parts as those of the information processing apparatuses 1 and 2 shown in FIGS. 2 and 8 are denoted by the same reference numerals, and redundant description will not be given below.
The information processing apparatus 3 illustrated in FIG. 9 is different from the information processing apparatus 2 illustrated in FIG. 8 in that an information extraction unit 30 is provided. In addition, although the information processing apparatus 3 of this embodiment is provided with the profile production | generation part 28 in FIG. 9, the profile production | generation part 28 is not an essential component.

情報抽出部30は、被介護者情報記憶部24に記憶される被介護者情報から一部の情報のみを抽出し、その一部の情報のみを送信対象として送信部26に供給する。
情報抽出方法の一例として、被介護者情報記憶部24に記憶される被介護者情報が予め期待されたものと異なる場合のみその被介護者情報を送信対象とするという方法をとることができる。たとえば図4のstatus0における質問(「おはよう。朝ごはん食べた?」のテキスト情報)に対する被介護者の応答によって生成された被介護者情報において、status[]のフレームに相当する情報が「否定」(=食べていない)である場合、その情報が予め期待された情報と異なるとすれば、その被介護者情報を送信対象とする。これにより、介護者は、通常(期待値)と異なる場合の情報、すなわち重要な情報のみを受信することになる。
The information extraction unit 30 extracts only part of information from the care receiver information stored in the care receiver information storage unit 24 and supplies only part of the information to the transmission unit 26 as a transmission target.
As an example of the information extraction method, a method can be used in which the care receiver information is transmitted only when the care receiver information stored in the care receiver information storage unit 24 is different from that expected in advance. For example, in the care receiver information generated by the care receiver's response to the question in status 0 in FIG. 4 (text information of “Good morning, did you eat breakfast?”), The information corresponding to the status [] frame is “No”. If (= not eaten), if the information is different from the information expected in advance, the care receiver information is set as the transmission target. Thereby, the caregiver receives only information that is different from normal (expected value), that is, important information.

また、情報抽出部30における情報抽出方法は、検出情報またはプロファイル情報を参照するようにしてもよい。たとえばプロファイル生成部28に記憶されたプロファイル情報が特定の被介護者の平均起床時刻であるとすれば、被介護者の起床時刻がその平均起床時刻よりも所定時間遅れたときのみ、被介護者情報記憶部24における被介護者情報を送信対象とする。これにより、介護者は、被介護者が平時と様子が異なることを適時に把握することができるようになり、電話をかける、被介護者を訪問する等の手段をとるトリガにもなる。   The information extraction method in the information extraction unit 30 may refer to detection information or profile information. For example, if the profile information stored in the profile generation unit 28 is the average wake-up time of a specific cared person, the cared person only when the wake-up time of the cared person is delayed by a predetermined time from the average wake-up time. The care receiver information in the information storage unit 24 is a transmission target. This makes it possible for the caregiver to grasp that the cared person is different from the normal time in a timely manner, and also serves as a trigger for taking a means such as making a call or visiting the cared person.

なお、情報処理装置3では、送信対象として、抽出された被介護者情報のみではなく、その被介護者情報に関連した検出情報も含めて送信するようにしてもよい。これにより、介護者は、被介護者が平時と様子が異なる状況において、極力多くの情報を得ることができる。   The information processing apparatus 3 may transmit not only the extracted care receiver information but also detection information related to the care receiver information as a transmission target. Thereby, the caregiver can obtain as much information as possible in the situation where the care recipient is different from the normal time.

情報抽出部30における情報抽出方法は、被介護者端末7から送信される被介護者の音声入力レベルが所定値以上であることを条件として、その音声に基づく被介護者情報のみを送信対象とする方法をとることもできる。被介護者の音声入力レベルが所定値以上である場合には、被介護者の感情状態が平常時と異なると考えられるためである。かかる方法をとる場合には、情報処理装置3内部に音声レベル(音圧レベル)を測定するための測定部を備えていることが必要である。   The information extraction method in the information extraction unit 30 is based on the fact that the care receiver's voice input level transmitted from the care receiver terminal 7 is equal to or higher than a predetermined value, and only the care receiver information based on the sound is transmitted. You can also take a method. This is because it is considered that the emotional state of the cared person is different from the normal state when the voice input level of the cared person is equal to or higher than the predetermined value. In the case of adopting such a method, it is necessary to provide a measurement unit for measuring the sound level (sound pressure level) inside the information processing apparatus 3.

情報抽出部30における情報抽出方法は、上述した方法のほか、様々な観点から決定することができる。介護者からみて必須の情報、たとえば、食事に関する情報、薬を飲んだか否かという情報のみを予め設定しておき、その情報に予め関連付けられた被介護者情報のみを抽出するようにしてもよい。これにより、情報を受け取る介護者は所望の情報のみを確認することができる。   In addition to the method described above, the information extraction method in the information extraction unit 30 can be determined from various viewpoints. It is also possible to set in advance only information essential to the caregiver, for example, information on meals, information on whether or not the medicine has been taken, and extract only cared person information associated in advance with the information. . Thereby, the caregiver who receives information can confirm only desired information.

以上説明したように、本実施形態の情報処理装置によれば、被介護者情報記憶部24に記憶される被介護者情報から一部の情報のみを送信対象として抽出する情報抽出部30を備えており、介護者所望の情報または平時と異なる場合の情報のみを介護者に送信するため、介護者にとって利便性が向上する。   As described above, according to the information processing apparatus of this embodiment, the information extraction unit 30 that extracts only part of information from the care receiver information stored in the care receiver information storage unit 24 as a transmission target is provided. Since only the information desired by the caregiver or information different from the normal time is transmitted to the caregiver, convenience for the caregiver is improved.

<第4の実施形態>
以下、本発明の情報処理装置の第4の実施形態について説明する。
介護者が入手したい被介護者情報は随時変わる可能性があるため、本実施形態の情報処理装置4では、介護者が外部から対話シナリオ情報を変更できるようにしている。
<Fourth Embodiment>
Hereinafter, a fourth embodiment of the information processing apparatus of the present invention will be described.
Since the care receiver information that the caregiver wants to obtain may change at any time, the information processing apparatus 4 of the present embodiment allows the caregiver to change the dialogue scenario information from the outside.

情報処理装置4の構成について図10および図11を参照して説明する。なお、図10では、図2,8および9に示した情報処理装置と同一の部位については同一の符号を付し、以下では重複説明を行わない。図11は、介護者質問表の一例を説明するための図である。
図10に示す情報処理装置4は、図9に示した情報処理装置3と比較すると、介護者質問表記憶部32と、対話シナリオテンプレート記憶部34と、質問トリガ生成部36と、シナリオ生成部38とを備える点で相違する。
The configuration of the information processing apparatus 4 will be described with reference to FIGS. 10 and 11. In FIG. 10, the same parts as those of the information processing apparatus shown in FIGS. 2, 8 and 9 are denoted by the same reference numerals, and redundant description will not be given below. FIG. 11 is a diagram for explaining an example of a caregiver questionnaire.
Compared with the information processing device 3 shown in FIG. 9, the information processing device 4 shown in FIG. 10 is a caregiver question list storage unit 32, a dialogue scenario template storage unit 34, a question trigger generation unit 36, and a scenario generation unit. It differs in that it has 38.

介護者質問表記憶部32は、介護者から被介護者に対する質問用テキスト情報と対話条件とが記述された介護者質問表(対話用情報)を記憶する。介護者質問表記憶部32は、ネットワーク800を介して介護者端末8と無線通信によりアクセス可能に構成される。これにより、介護者は、介護者端末8を操作することで、介護者質問表記憶部32に記憶される介護者質問表を編集することができるようになっている。   The caregiver question list storage unit 32 stores a caregiver question list (interaction information) in which text information for questions and dialogue conditions from the caregiver to the care recipient are described. The caregiver question list storage unit 32 is configured to be accessible by wireless communication with the caregiver terminal 8 via the network 800. Thereby, the caregiver can edit the caregiver questionnaire stored in the caregiver questionnaire storage unit 32 by operating the caregiver terminal 8.

たとえば図11に例示した介護者質問表では、「介護者が聞きたいこと」、「回答型」、「音声対話開始の条件」および「繰り返し条件」という項目が設定されており、各項目の内容が編集可能に構成される。「介護者が聞きたいこと」の項目には、情報処理装置4が最初に出力する質問用テキスト情報が記述される。「回答型」、「音声対話開始の条件」および「繰り返し条件」の項目は、対話条件が記述される。「回答型」の項目には対話の型に関する情報が記述される。たとえば「Yes/No」という回答型は、対応する「介護者が聞きたいこと」の質問に対して肯定であるか否定であるかを聞くような回答型である。たとえば「感想」という回答型は、対応する「介護者が聞きたいこと」の質問に対して、被介護者の感想を聞き出すような回答型である。   For example, in the caregiver questionnaire illustrated in FIG. 11, the items “what the caregiver wants to hear”, “answer type”, “condition for starting voice conversation”, and “repetition condition” are set. Is configured to be editable. In the item “What the caregiver wants to hear”, the text information for question that is output first by the information processing device 4 is described. In the items of “answer type”, “speech dialogue start condition”, and “repetition condition”, dialogue conditions are described. In the “answer type” item, information on the type of dialogue is described. For example, the answer type “Yes / No” is a type of answer that asks whether the question “what the caregiver wants to hear” is affirmative or negative. For example, the answer type “impression” is an answer type in which an impression of the care recipient is obtained in response to a corresponding question “what a caregiver wants to hear”.

図11に例示する介護者質問表において、「音声対話開始の条件」の項目には、介護者が選択的に指定し、日時や検出情報に応じて質問を開始する条件が記述される。また「音声対話開始の条件」の項目として「いつでも可」を指定されたときには、予め設定された時刻に達したこと、または、所定の条件を満足したことが条件となる。
図11に例示する介護者質問表において、「繰り返し条件」の項目には、対応する「介護者が聞きたいこと」の質問の繰り返し条件が記述される。「繰り返し条件」の項目が「Yesが得られるまでは繰り返す」である場合には、対応する質問に対する回答が得られるまで定期的に質問を繰り返すように設定される。
In the caregiver questionnaire illustrated in FIG. 11, a condition for starting a question according to the date and time or detection information is described in the item “Condition for starting voice conversation”. When “Anytime Allowed” is designated as the “Condition for Starting Voice Dialogue”, the condition is that a preset time has been reached or a predetermined condition has been satisfied.
In the caregiver questionnaire illustrated in FIG. 11, the item “repetition condition” describes the repetition condition of the corresponding “what the caregiver wants to hear” question. When the item of “Repetition condition” is “Repeat until Yes”, the question is set to be repeated periodically until an answer to the corresponding question is obtained.

図10において、シナリオ生成部38は、介護者質問表記憶部32に記憶される介護者質問表と、対話シナリオテンプレート記憶部34に記憶される対話シナリオテンプレートとに基づいて対話シナリオ情報を生成し、その生成した対話シナリオ情報を特定の対話シナリオIDと対応付けて対話シナリオ情報記憶部16に記憶させる。   In FIG. 10, the scenario generation unit 38 generates dialog scenario information based on the caregiver questionnaire stored in the caregiver questionnaire storage unit 32 and the dialog scenario template stored in the dialog scenario template storage unit 34. The generated dialogue scenario information is stored in the dialogue scenario information storage unit 16 in association with a specific dialogue scenario ID.

対話シナリオテンプレートは、介護者質問表に基づいて対話シナリオ情報が生成可能に構成された情報である。対話シナリオテンプレート記憶部34では、単一の対話主題に対して、介護者質問表の回答型に応じて複数のパターンの対話シナリオテンプレートが用意される。たとえば、図4に例示した「被介護者の朝ごはんの状況を聞きだす」という目的の対話主題に対して、単に朝ごはんを食べたか否かを聞き出すための「Yes/No」という回答型と、朝ごはんの感想を聞き出すための「感想」という回答型とで対話シナリオが異なるため、それぞれの回答型に応じて別個の対話シナリオテンプレートが設けられている。そして、シナリオ生成部38が対話シナリオ情報を生成する際には、介護者質問表の「介護者が聞きたいこと」の項目の内容(質問用テキスト情報)が、対応する対話シナリオテンプレートに埋め込まれる。   The dialogue scenario template is information configured to generate dialogue scenario information based on a caregiver questionnaire. In the dialogue scenario template storage unit 34, a plurality of patterns of dialogue scenario templates are prepared for a single dialogue subject according to the answer type of the caregiver questionnaire. For example, the answer type “Yes / No” for simply asking whether or not you have eaten breakfast for the dialogue theme of “listening the situation of breakfast of the care recipient” illustrated in FIG. Since the dialogue scenario is different from the response type “impression” for finding out the impression of breakfast, a separate dialogue scenario template is provided for each answer type. When the scenario generation unit 38 generates the dialog scenario information, the content of the item “what the caregiver wants to hear” (question text information) in the caregiver questionnaire is embedded in the corresponding dialog scenario template. .

質問トリガ生成部36は、介護者質問表記憶部32内の介護者質問表から質問トリガルールを生成し、その生成した質問トリガルールを質問トリガルール記憶部14に記憶させる。質問トリガ生成部36は、介護者質問表記憶部32の介護者質問表における「音声対話開始の条件」の項目の内容と、対応して生成された対話シナリオ情報の対話シナリオIDとを関連付けて質問トリガルールを生成する。   The question trigger generation unit 36 generates a question trigger rule from the caregiver question list in the caregiver question list storage unit 32 and stores the generated question trigger rule in the question trigger rule storage unit 14. The question trigger generation unit 36 associates the content of the item “Condition for starting voice conversation” in the caregiver question list of the caregiver question list storage unit 32 with the dialog scenario ID of the corresponding dialog scenario information generated. Generate question trigger rules.

次に、本実施形態の情報処理装置4の動作を説明する。
被介護者端末7がネットワーク800を介して介護者質問表記憶部32にアクセスし、介護者質問表が編集されると、シナリオ生成部38は、対話シナリオテンプレート記憶部34から、編集された介護者質問表に応じた対話シナリオテンプレートを選択する。さらに、シナリオ生成部38は、選択した対話シナリオテンプレートに対して、介護者質問表の「介護者が聞きたいこと」の項目の内容を埋め込むことによって対話シナリオ情報を生成し、対話シナリオ情報記憶部16に記憶させる。同時に、質問トリガ生成部36は、編集された介護者質問表に基づいて質問トリガルールを生成し、その生成した質問トリガルールを質問トリガルール記憶部14に記憶させる。このようにして、質問トリガルールと対話シナリオ情報とが情報処理装置4の外部から追加される。質問トリガルールと対話シナリオ情報とを参照する対話動作は、第1の実施形態において説明したものと同一である。
Next, the operation of the information processing apparatus 4 of this embodiment will be described.
When the care receiver terminal 7 accesses the caregiver questionnaire storage unit 32 via the network 800 and the caregiver questionnaire is edited, the scenario generation unit 38 reads the edited care from the dialogue scenario template storage unit 34. Select a dialogue scenario template according to the questionnaire. Further, the scenario generation unit 38 generates dialogue scenario information by embedding the content of the item “what the caregiver wants to hear” of the caregiver questionnaire into the selected dialogue scenario template, and the dialogue scenario information storage unit 16 to memorize. At the same time, the question trigger generation unit 36 generates a question trigger rule based on the edited caregiver questionnaire, and stores the generated question trigger rule in the question trigger rule storage unit 14. In this way, the question trigger rule and the dialogue scenario information are added from outside the information processing apparatus 4. The dialogue operation that refers to the question trigger rule and the dialogue scenario information is the same as that described in the first embodiment.

また、被介護者端末7がネットワーク800を介して介護者質問表記憶部32にアクセスし、すでに介護者質問表記憶部32に記憶された介護者質問表を削除した場合には、質問トリガ生成部36およびシナリオ生成部38は、それぞれ、その削除された介護者質問表に対応する質問トリガルールおよび対話シナリオ情報を削除する。   Further, when the care receiver terminal 7 accesses the caregiver question list storage unit 32 via the network 800 and deletes the caregiver question list already stored in the caregiver question list storage unit 32, a question trigger is generated. The unit 36 and the scenario generation unit 38 delete the question trigger rule and the dialogue scenario information corresponding to the deleted caregiver questionnaire, respectively.

以上説明したように、本実施形態の情報処理装置4では、介護者が外部から介護者質問表を編集することで対話シナリオ情報を更新・追加・削除することができるように構成されているため、介護者が被介護者から聞き出したい内容が随時変化したとしても、その変化を反映した音声対話をタイムリーに行なうことができるようになる。   As described above, the information processing apparatus 4 according to the present embodiment is configured such that the caregiver can update / add / delete the conversation scenario information by editing the caregiver questionnaire from the outside. Even if the content that the caregiver wants to hear from the cared person changes from time to time, a voice dialogue reflecting the change can be performed in a timely manner.

なお、この実施形態では、介護者質問表記憶部32に対しネットワーク800を介して無線通信によりアクセスし、介護者質問表を編集する構成としたが、これに限られない。情報処理装置4に内蔵の、または、有線により情報処理装置4に接続された入力手段を介して介護者質問表を編集する構成としてもよい。また、介護者質問表は、ネットワーク800に接続されたサーバ上に格納されるように構成してもよく、その場合は、介護者がそのサーバにアクセスして介護者質問表を編集した後に、情報処理装置4内の介護者質問表記憶部32にダウンロードするように構成する。   In this embodiment, the caregiver questionnaire storage unit 32 is accessed by wireless communication via the network 800 to edit the caregiver questionnaire. However, the present invention is not limited to this. It is good also as a structure which edits a caregiver questionnaire via the input means incorporated in the information processing apparatus 4 or connected to the information processing apparatus 4 by wire. The caregiver questionnaire may be configured to be stored on a server connected to the network 800. In that case, after the caregiver accesses the server and edits the caregiver questionnaire, The caregiver question list storage unit 32 in the information processing apparatus 4 is downloaded.

以上、本発明の実施の形態を詳述してきたが、具体的な構成及びシステムは本実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更や、他のシステムへの適応なども含まれる。   The embodiment of the present invention has been described in detail above, but the specific configuration and system are not limited to the present embodiment, and design modifications and other systems can be made without departing from the scope of the present invention. This includes adaptations.

第1の実施形態の情報処理装置が適用される全体のシステム構成図。1 is an overall system configuration diagram to which an information processing apparatus according to a first embodiment is applied. 第1の実施形態の情報処理装置の内部の構成を示すブロック図。1 is a block diagram showing an internal configuration of an information processing apparatus according to a first embodiment. 第1の実施形態の情報処理装置における質問トリガルールの一例を示す図。The figure which shows an example of the question trigger rule in the information processing apparatus of 1st Embodiment. 第1の実施形態の情報処理装置における対話シナリオ情報の一例を示す図。The figure which shows an example of the dialogue scenario information in the information processing apparatus of 1st Embodiment. 第1の実施形態の情報処理装置における被介護者情報の一形式を例示する図。The figure which illustrates one form of care receiver information in the information processing apparatus of the first embodiment. 第1の実施形態の情報処理装置の動作を説明するためのフローチャート。6 is a flowchart for explaining the operation of the information processing apparatus according to the first embodiment; 第1の実施形態の情報処理装置の動作を説明するためのフローチャート。6 is a flowchart for explaining the operation of the information processing apparatus according to the first embodiment; 第2の実施形態の情報処理装置の内部の構成を示すブロック図。The block diagram which shows the internal structure of the information processing apparatus of 2nd Embodiment. 第3の実施形態の情報処理装置の内部の構成を示すブロック図。The block diagram which shows the internal structure of the information processing apparatus of 3rd Embodiment. 第4の実施形態の情報処理装置の内部の構成を示すブロック図。The block diagram which shows the internal structure of the information processing apparatus of 4th Embodiment. 第4の実施形態の情報処理装置における介護者質問表の一例を説明するための図。The figure for demonstrating an example of the caregiver questionnaire in the information processing apparatus of 4th Embodiment.

符号の説明Explanation of symbols

1〜4…情報処理装置
10…無線通信モジュール
12…対話スケジューリング部
14…質問トリガルール記憶部
16…対話シナリオ情報記憶部
18…対話管理部
20…音声・画像出力部
22…音声認識部
24…被介護者情報記憶部
26…送信部
28…プロファイル生成部
30…情報抽出部
32…介護者質問表記憶部
34…対話シナリオテンプレート記憶部
36…質問トリガ生成部
38…シナリオ生成部
7…被介護者端末
8…介護者端末
91…位置センサ
92…圧力センサ
93…TVセット
94…電子レンジ
800…ネットワーク
DESCRIPTION OF SYMBOLS 1-4 ... Information processing apparatus 10 ... Wireless communication module 12 ... Dialog scheduling part 14 ... Question trigger rule memory | storage part 16 ... Dialog scenario information storage part 18 ... Dialog management part 20 ... Voice | video / image output part 22 ... Voice recognition part 24 ... Caregiver information storage unit 26 ... Transmission unit 28 ... Profile generation unit 30 ... Information extraction unit 32 ... Caregiver question list storage unit 34 ... Dialog scenario template storage unit 36 ... Question trigger generation unit 38 ... Scenario generation unit 7 ... Care recipient Caregiver terminal 8 ... caregiver terminal 91 ... position sensor 92 ... pressure sensor 93 ... TV set 94 ... microwave oven 800 ... network

Claims (5)

第1音声を認識してテキスト情報に変換する音声認識部と、
テキスト情報を、第2音声に変換して出力する音声出力部と、
所望の人物情報を取得するための質問用テキスト情報を含む対話シナリオ情報を1または複数記憶する第1記憶部と、
時刻情報、および/または、前記人物の状態もしくは動作の検出情報に基づいて、前記第1記憶部から1つの対話シナリオ情報を選択可能に構成される選択部と、
前記選択部によって1つの対話シナリオ情報が選択されたことを条件として、当該対話シナリオ情報に基づき前記人物との対話を開始するように、前記音声認識部と前記音声出力部とを制御するとともに、当該対話における前記第1音声の認識結果に基づいて前記人物情報を取得する対話管理部と、
前記人物情報を記憶する第2記憶部と、
前記人物情報を外部に送信する送信部と、
を備えた情報処理装置。
A voice recognition unit that recognizes the first voice and converts it into text information;
An audio output unit for converting the text information into a second audio and outputting the second audio;
A first storage unit that stores one or a plurality of dialogue scenario information including text information for questions for obtaining desired person information;
A selection unit configured to be able to select one dialogue scenario information from the first storage unit based on time information and / or detection information of the person's state or action;
On the condition that one dialogue scenario information is selected by the selection unit, the voice recognition unit and the voice output unit are controlled to start a dialogue with the person based on the dialogue scenario information. A dialogue management unit for acquiring the person information based on a recognition result of the first voice in the dialogue;
A second storage unit for storing the person information;
A transmission unit for transmitting the person information to the outside;
An information processing apparatus comprising:
前記検出情報を統計処理することによって、個々の人物に対応するプロファイル情報を生成して記憶するプロファイル生成部をさらに備え、
前記選択部は、前記検出情報と前記プロファイル情報とに基づいて、前記第1記憶部から1つの対話シナリオ情報を選択する、
請求項1に記載の情報処理装置。
A profile generation unit that generates and stores profile information corresponding to each person by statistically processing the detection information;
The selection unit selects one dialogue scenario information from the first storage unit based on the detection information and the profile information.
The information processing apparatus according to claim 1.
前記選択部は、前記検出情報と前記プロファイル情報との差に応じて、異なる対話シナリオ情報を選択する、
請求項2に記載の情報処理装置。
The selection unit selects different dialogue scenario information according to a difference between the detection information and the profile information.
The information processing apparatus according to claim 2.
前記第2記憶部に記憶された人物情報の中から所定の条件に合致する人物情報を前記送信部の送信対象として抽出する情報抽出部をさらに備えた、
請求項1〜3のいずれかに記載の情報処理装置。
An information extraction unit that extracts person information that matches a predetermined condition from person information stored in the second storage unit as a transmission target of the transmission unit;
The information processing apparatus according to claim 1.
所望の人物情報を取得するための質問用テキスト情報と、対話条件とが編集可能に記述されている対話用情報を記憶する第3記憶部と、
前記対話用情報に基づいて前記質問用テキスト情報を生成し、前記第1記憶部に記憶させる対話シナリオ生成部と、をさらに備えた、
請求項1〜4のいずれかに記載の情報処理装置。
A third storage unit for storing text information for questions for obtaining desired person information and dialog information in which dialog conditions are described in an editable manner;
A dialogue scenario generation unit that generates the question text information based on the interaction information and stores the text information in the first storage unit;
The information processing apparatus according to claim 1.
JP2007075025A 2007-03-22 2007-03-22 Information processor Withdrawn JP2008234443A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007075025A JP2008234443A (en) 2007-03-22 2007-03-22 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007075025A JP2008234443A (en) 2007-03-22 2007-03-22 Information processor

Publications (1)

Publication Number Publication Date
JP2008234443A true JP2008234443A (en) 2008-10-02

Family

ID=39907125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007075025A Withdrawn JP2008234443A (en) 2007-03-22 2007-03-22 Information processor

Country Status (1)

Country Link
JP (1) JP2008234443A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013529317A (en) * 2010-05-19 2013-07-18 サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Dialog and / or change of operation data of instruction determination process
WO2014057835A1 (en) * 2012-10-09 2014-04-17 日本電気株式会社 Disaster information management device, disaster information system, management method for disaster information, and program for managing disaster information
JP2015152947A (en) * 2014-02-10 2015-08-24 日本電信電話株式会社 Life log-linked dialogue system, life log-linked dialogue method, and program
JP2016071192A (en) * 2014-09-30 2016-05-09 株式会社Nttドコモ Interaction device and interaction method
JP2016206249A (en) * 2015-04-15 2016-12-08 シャープ株式会社 Interactive device, interactive system, and control method for interactive device
JP2017176250A (en) * 2016-03-28 2017-10-05 Necソリューションイノベータ株式会社 Sleep log support apparatus, sleep log support method, and program
JP2018060226A (en) * 2017-12-27 2018-04-12 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
WO2019187256A1 (en) * 2018-03-26 2019-10-03 Necソリューションイノベータ株式会社 Conversation initiation timing determination device, conversation initiation timing determination method, and program
JP2020071503A (en) * 2018-10-29 2020-05-07 コニカミノルタ株式会社 Care system, method for managing the same, and program
JP2021018797A (en) * 2019-07-23 2021-02-15 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Conversation interaction method, apparatus, computer readable storage medium, and program
JP2021086549A (en) * 2019-11-29 2021-06-03 Necソリューションイノベータ株式会社 Interactive type information acquisition apparatus, interactive type information acquisition method, program and recording medium
WO2021144930A1 (en) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 Data-input assisting device
JP2022510350A (en) * 2018-11-30 2022-01-26 國立成功大學 Interactive health assessment method and its system
JP2023509868A (en) * 2019-12-26 2023-03-10 エーアイ スピーチ カンパニー リミテッド SERVER-SIDE PROCESSING METHOD AND SERVER FOR ACTIVELY PROPOSING START OF DIALOGUE, AND VOICE INTERACTION SYSTEM FOR POSITIVELY PROPOSING START OF DIALOGUE
WO2023047487A1 (en) * 2021-09-22 2023-03-30 株式会社Fuji Situation awareness system, voice response device, and situation awareness method
JP7453638B2 (en) 2020-03-30 2024-03-21 東京瓦斯株式会社 Nursing care record creation system, nursing care record creation method, medical record creation system, medical record creation method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013529317A (en) * 2010-05-19 2013-07-18 サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Dialog and / or change of operation data of instruction determination process
WO2014057835A1 (en) * 2012-10-09 2014-04-17 日本電気株式会社 Disaster information management device, disaster information system, management method for disaster information, and program for managing disaster information
JP2014078070A (en) * 2012-10-09 2014-05-01 Nec Corp Disaster information management device, disaster information system, management method for disaster information, program for managing disaster information, portable terminal, control method for portable terminal and control program for controlling operation of portable terminal
US10154390B2 (en) 2012-10-09 2018-12-11 Nec Corporation Disaster information management apparatus, disaster information system, disaster information management method, disaster information management program, portable terminal, control method of portable terminal, and control program of controlling operation of portable terminal
JP2015152947A (en) * 2014-02-10 2015-08-24 日本電信電話株式会社 Life log-linked dialogue system, life log-linked dialogue method, and program
JP2016071192A (en) * 2014-09-30 2016-05-09 株式会社Nttドコモ Interaction device and interaction method
JP2016206249A (en) * 2015-04-15 2016-12-08 シャープ株式会社 Interactive device, interactive system, and control method for interactive device
JP2017176250A (en) * 2016-03-28 2017-10-05 Necソリューションイノベータ株式会社 Sleep log support apparatus, sleep log support method, and program
JP2018060226A (en) * 2017-12-27 2018-04-12 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JPWO2019187256A1 (en) * 2018-03-26 2020-10-22 Necソリューションイノベータ株式会社 Talking timing determination device, speaking timing determination method, and program
WO2019187256A1 (en) * 2018-03-26 2019-10-03 Necソリューションイノベータ株式会社 Conversation initiation timing determination device, conversation initiation timing determination method, and program
JP7234572B2 (en) 2018-10-29 2023-03-08 コニカミノルタ株式会社 Care systems, their management methods, and programs
JP2020071503A (en) * 2018-10-29 2020-05-07 コニカミノルタ株式会社 Care system, method for managing the same, and program
JP2022510350A (en) * 2018-11-30 2022-01-26 國立成功大學 Interactive health assessment method and its system
JP7285589B2 (en) 2018-11-30 2023-06-02 國立成功大學 INTERACTIVE HEALTH CONDITION EVALUATION METHOD AND SYSTEM THEREOF
JP2021018797A (en) * 2019-07-23 2021-02-15 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Conversation interaction method, apparatus, computer readable storage medium, and program
US11322153B2 (en) 2019-07-23 2022-05-03 Baidu Online Network Technology (Beijing) Co., Ltd. Conversation interaction method, apparatus and computer readable storage medium
JP7150770B2 (en) 2019-07-23 2022-10-11 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Interactive method, device, computer-readable storage medium, and program
JP2021086549A (en) * 2019-11-29 2021-06-03 Necソリューションイノベータ株式会社 Interactive type information acquisition apparatus, interactive type information acquisition method, program and recording medium
JP7347794B2 (en) 2019-11-29 2023-09-20 Necソリューションイノベータ株式会社 Interactive information acquisition device, interactive information acquisition method, and program
JP2023509868A (en) * 2019-12-26 2023-03-10 エーアイ スピーチ カンパニー リミテッド SERVER-SIDE PROCESSING METHOD AND SERVER FOR ACTIVELY PROPOSING START OF DIALOGUE, AND VOICE INTERACTION SYSTEM FOR POSITIVELY PROPOSING START OF DIALOGUE
JP7353497B2 (en) 2019-12-26 2023-09-29 エーアイ スピーチ カンパニー リミテッド Server-side processing method and server for actively proposing the start of a dialogue, and voice interaction system capable of actively proposing the start of a dialogue
WO2021144930A1 (en) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 Data-input assisting device
JP7453638B2 (en) 2020-03-30 2024-03-21 東京瓦斯株式会社 Nursing care record creation system, nursing care record creation method, medical record creation system, medical record creation method, and program
WO2023047487A1 (en) * 2021-09-22 2023-03-30 株式会社Fuji Situation awareness system, voice response device, and situation awareness method

Similar Documents

Publication Publication Date Title
JP2008234443A (en) Information processor
US20190318283A1 (en) System and method for adaptively executing user routines based on user interactions
JP6101684B2 (en) Method and system for assisting patients
CN109952543A (en) Intelligence wakes up system
US8635282B2 (en) Computer—automated system and method of assessing the orientation, awareness and responses of a person with reduced capacity
US9202360B1 (en) Methods for remote assistance of disabled persons having at least two remote individuals which receive different indications
US10726846B2 (en) Virtual health assistant for promotion of well-being and independent living
Mokhtari et al. New trends to support independence in persons with mild dementia–a mini-review
CN107085511B (en) Control method, control device and equipment
WO2006050295A1 (en) System and method for automatically including supplemental information in reminder messages
US11116403B2 (en) Method, apparatus and system for tailoring at least one subsequent communication to a user
CN107003715A (en) Smart phone is configured based on user&#39;s sleep state
CN110709930A (en) Method, system, and medium for providing information about detected events
US20230237059A1 (en) Managing engagement methods of a digital assistant while communicating with a user of the digital assistant
KR102423257B1 (en) Supporting system for service about processing record data of dementia patient
WO2016052520A1 (en) Conversation device
JP2018181276A (en) Health management support device, health management support system and health management support method
JPWO2020136589A1 (en) Information processing equipment, information processing methods, information processing programs and information processing systems
KR102315020B1 (en) Apparatus and method for providing customized voice interaction based on user life pattern
Sharma et al. Communicating Care: Identifying Information and design requirements of Informal Caregivers of Older Adults with Cognitive Impairment in changing scenarios.
JP2022180232A (en) Robot and robot system
US20230256192A1 (en) Systems and methods for inducing sleep of a subject
WO2023182022A1 (en) Information processing device, information processing method, terminal device, and output method
JP2023059601A (en) Program, information processing method, and information processing apparatus
US20240087737A1 (en) Wearable device healthcare system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601