JP2021076674A - Information processor, method for controlling voice chat, and voice chat control program - Google Patents

Information processor, method for controlling voice chat, and voice chat control program Download PDF

Info

Publication number
JP2021076674A
JP2021076674A JP2019202516A JP2019202516A JP2021076674A JP 2021076674 A JP2021076674 A JP 2021076674A JP 2019202516 A JP2019202516 A JP 2019202516A JP 2019202516 A JP2019202516 A JP 2019202516A JP 2021076674 A JP2021076674 A JP 2021076674A
Authority
JP
Japan
Prior art keywords
user
voice
unit
chatbot
drowsy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019202516A
Other languages
Japanese (ja)
Other versions
JP7446085B2 (en
Inventor
順 塩川
Jun Shiokawa
順 塩川
山野 大偉治
Taiji Yamano
大偉治 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu FSAS Inc
Original Assignee
Fujitsu FSAS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu FSAS Inc filed Critical Fujitsu FSAS Inc
Priority to JP2019202516A priority Critical patent/JP7446085B2/en
Publication of JP2021076674A publication Critical patent/JP2021076674A/en
Priority to JP2024027657A priority patent/JP2024073475A/en
Application granted granted Critical
Publication of JP7446085B2 publication Critical patent/JP7446085B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processor, a method for controlling a voice chat, and a voice chat control program that can suppress careless mistakes caused by drowsiness.SOLUTION: An information processor 100 includes a determination unit 133 and a changing unit 134. The determination unit 133 determines whether a user is feeling drowsiness on the basis of a chat bot 131 for issuing a question to a user by a voice chat and receiving an answer and information on conversations with the user. The changing unit 134 changes characteristics of the voice of the chat bot 131 if the determination unit has determined that the user is feeling drowsiness.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、音声チャット制御方法および音声チャット制御プログラムに関する。 The present invention relates to an information processing device, a voice chat control method, and a voice chat control program.

サポートセンタ等におけるサポート業務では、顧客に対してメール等による返信を行うことが行われている。メール等の返信では、メールの内容的な問題、誤配信や添付資料の誤添付といったミスを防止するために、担当者がペアになってチェックを行っている。この様なチェック処理では、二交代制による深夜の作業や徹夜での作業において、集中力の低下や疲労などによって、チェックミスが発生する可能性がある。また、眠気が検出された場合に、誤操作を防止することができる電子機器が提案されている。 In support operations at support centers and the like, replies to customers by e-mail or the like are performed. In replying to e-mails, etc., the person in charge checks in pairs in order to prevent mistakes such as problems with the contents of the e-mail, misdelivery, and misattachment of attached materials. In such a check process, a check error may occur due to a decrease in concentration or fatigue in midnight work or all-night work by a two-shift system. Further, an electronic device capable of preventing erroneous operation when drowsiness is detected has been proposed.

特開2016−6957号公報Japanese Unexamined Patent Publication No. 2016-6957

メール等の返信の際に、担当者がペアになってチェックを行うことに対して、ペアの一人をチャットボットに代替し、音声チャットによるチェックを行うことが考えられる。しかしながら、チャットボットは、例えば担当者が眠い場合に、質問に対して適当に対応したとしても、回答があればチェックが完了したものと扱ってしまう。このため、担当者が眠いままチェックを行ってしまい、ケアレスミスが発生する場合がある。 When replying to an e-mail or the like, it is conceivable that one of the pairs is replaced with a chatbot and the check is performed by voice chat, while the person in charge checks in pairs. However, the chatbot treats, for example, when the person in charge is sleepy, that the check is completed if there is an answer even if the person responds appropriately to the question. For this reason, the person in charge may perform the check while sleeping, and careless mistakes may occur.

一つの側面では、眠気によるケアレスミスを抑制することができる情報処理装置、音声チャット制御方法および音声チャット制御プログラムを提供することにある。 One aspect is to provide an information processing device, a voice chat control method, and a voice chat control program capable of suppressing careless mistakes due to drowsiness.

一つの態様では、情報処理装置は、判定部と、変更部とを有する。判定部は、ユーザとの間で音声チャットにより質問を行って回答を受け付けるチャットボットと、前記ユーザとの対話に関する情報に基づいて、前記ユーザについて眠気があるか否かを判定する。変更部は、前記ユーザについて眠気があると判定された場合、前記チャットボットの音声の特性を変更する。 In one aspect, the information processing apparatus has a determination unit and a change unit. The determination unit determines whether or not the user is drowsy based on the chatbot that asks a question by voice chat with the user and accepts the answer and the information regarding the dialogue with the user. When it is determined that the user is drowsy, the changing unit changes the voice characteristics of the chatbot.

眠気によるケアレスミスを抑制することができる。 Careless mistakes due to drowsiness can be suppressed.

図1は、実施例の情報処理装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus of the embodiment. 図2は、チェック項目記憶部の一例を示す図である。FIG. 2 is a diagram showing an example of a check item storage unit. 図3は、回答時間テーブル記憶部の一例を示す図である。FIG. 3 is a diagram showing an example of a response time table storage unit. 図4は、実施例の音声チャット制御処理の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the voice chat control process of the embodiment. 図5は、音声チャット制御プログラムを実行するコンピュータの一例を示す図である。FIG. 5 is a diagram showing an example of a computer that executes a voice chat control program.

以下、図面に基づいて、本願の開示する情報処理装置、音声チャット制御方法および音声チャット制御プログラムの実施例を詳細に説明する。なお、以下の実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。 Hereinafter, examples of the information processing device, the voice chat control method, and the voice chat control program disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the following examples. In addition, the following examples may be appropriately combined as long as they do not contradict each other.

図1は、実施例の情報処理装置の構成の一例を示すブロック図である。情報処理装置100では、例えばサポートセンタの担当者であるユーザとの間で音声チャットを行うチャットボットが動作しており、チャットボットがユーザとの間で音声チャットにより質問を行って回答を受け付ける。情報処理装置100は、チャットボットと、ユーザとの対話に関する情報に基づいて、ユーザについて眠気があるか否かを判定する。情報処理装置100は、ユーザについて眠気があると判定した場合、チャットボットの音声の特性を変更する。これにより、情報処理装置100は、眠気によるケアレスミスを抑制することができる。 FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus of the embodiment. In the information processing device 100, for example, a chatbot that performs a voice chat with a user who is in charge of the support center is operating, and the chatbot asks a question with the user by voice chat and receives an answer. The information processing device 100 determines whether or not the user is drowsy based on the information regarding the chatbot and the dialogue with the user. When the information processing device 100 determines that the user is drowsy, the information processing device 100 changes the voice characteristics of the chatbot. As a result, the information processing device 100 can suppress careless mistakes due to drowsiness.

図1に示すように、情報処理装置100は、通信部110と、表示部111と、操作部112と、入出力部113と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。 As shown in FIG. 1, the information processing device 100 includes a communication unit 110, a display unit 111, an operation unit 112, an input / output unit 113, a storage unit 120, and a control unit 130. In addition to the functional units shown in FIG. 1, the information processing device 100 may have various functional units of a known computer, for example, various functional units such as various input devices and audio output devices.

通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、図示しないネットワークを介して、他の情報処理装置と有線または無線で接続され、他の情報処理装置との間で情報の通信を司る通信インタフェースである。通信部110は、例えば、他の情報処理装置からチェック項目データを受信する。通信部110は、受信したチェック項目データを制御部130に出力する。 The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is a communication interface that is connected to another information processing device by wire or wirelessly via a network (not shown) and controls information communication with the other information processing device. The communication unit 110 receives check item data from, for example, another information processing device. The communication unit 110 outputs the received check item data to the control unit 130.

表示部111は、各種情報を表示するための表示デバイスである。表示部111は、例えば、表示デバイスとして液晶ディスプレイ等によって実現される。表示部111は、制御部130から入力された表示画面等の各種画面を表示する。 The display unit 111 is a display device for displaying various types of information. The display unit 111 is realized by, for example, a liquid crystal display or the like as a display device. The display unit 111 displays various screens such as a display screen input from the control unit 130.

操作部112は、情報処理装置100のユーザから各種操作を受け付ける入力デバイスである。操作部112は、例えば、入力デバイスとして、キーボードやマウス等によって実現される。操作部112は、ユーザによって入力された操作を操作情報として制御部130に出力する。なお、操作部112は、入力デバイスとして、タッチパネル等によって実現されるようにしてもよく、表示部111の表示デバイスと、操作部112の入力デバイスとは、一体化されるようにしてもよい。 The operation unit 112 is an input device that receives various operations from the user of the information processing device 100. The operation unit 112 is realized by, for example, a keyboard, a mouse, or the like as an input device. The operation unit 112 outputs the operation input by the user to the control unit 130 as operation information. The operation unit 112 may be realized by a touch panel or the like as an input device, or the display device of the display unit 111 and the input device of the operation unit 112 may be integrated.

入出力部113は、マイク端子およびヘッドホン端子を有し、情報処理装置100のユーザが装着するヘッドセットが接続される。入出力部113は、ユーザのヘッドセットから入力される音声信号を音声データに変換して制御部130に出力する。また、入出力部113は、制御部130から入力される音声データを音声信号に変換してユーザのヘッドセットに出力する。 The input / output unit 113 has a microphone terminal and a headphone terminal, and a headset worn by the user of the information processing device 100 is connected to the input / output unit 113. The input / output unit 113 converts the voice signal input from the user's headset into voice data and outputs it to the control unit 130. Further, the input / output unit 113 converts the voice data input from the control unit 130 into a voice signal and outputs the voice data to the user's headset.

記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、チェック項目記憶部121と、回答時間テーブル記憶部122とを有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。 The storage unit 120 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 has a check item storage unit 121 and a response time table storage unit 122. Further, the storage unit 120 stores information used for processing in the control unit 130.

チェック項目記憶部121は、例えば、メール送信時のチェックリストにおけるチェック項目を記憶する。図2は、チェック項目記憶部の一例を示す図である。図2に示すように、チェック項目記憶部121は、「質問No.」、「チェック項目」、「回答」といった項目を有する。また、「回答」は、さらに「Yes」、「No」といった項目を有する。 The check item storage unit 121 stores, for example, check items in the checklist at the time of sending an e-mail. FIG. 2 is a diagram showing an example of a check item storage unit. As shown in FIG. 2, the check item storage unit 121 has items such as "question No.", "check item", and "answer". Further, the "answer" further includes items such as "Yes" and "No".

「質問No.」は、チェックリストの質問、つまりチェック項目を識別する識別子である。「チェック項目」は、チェックリストの質問の内容を示す情報である。「回答」欄の「Yes」は、当該チェック項目に対するユーザの回答がYesである場合における、次の質問No.を示す情報である。「回答」欄の「No」は、当該チェック項目に対するユーザの回答がNoである場合における、次の質問No.を示す情報である。例えば、質問No.「2」のチェック項目「ドメインとお客様名が一致するか?」というチャットボットの質問に対し、ユーザが「Yes」と回答した場合、質問No.「3」に移行する。一方、当該質問に対し、ユーザが「No」と回答した場合、質問No.「2−1」に移行する。つまり、「回答」欄の「Yes」、「No」は、ユーザに回答に応じた次の質問を示す情報である。また、「回答」欄は、質問に対して該当なしの場合の項目を有してもよい。 "Question No." is an identifier that identifies a question in the checklist, that is, a check item. The "check item" is information indicating the content of the question in the checklist. "Yes" in the "Answer" column indicates the next question No. when the user's answer to the check item is Yes. This is information indicating. "No" in the "Answer" column indicates the next question No. when the user's answer to the check item is No. This is information indicating. For example, question No. When the user answers "Yes" to the chatbot question "Does the domain match the customer name?" Of the check item "2", the question No. Move to "3". On the other hand, when the user answers "No" to the question, the question No. Move to "2-1". That is, "Yes" and "No" in the "answer" column are information indicating to the user the next question according to the answer. In addition, the "answer" column may have an item when the question is not applicable.

図1の説明に戻って、回答時間テーブル記憶部122は、質問ごとの回答時間の平均値と、閾値とを対応付けて記憶する。図3は、回答時間テーブル記憶部の一例を示す図である。図3に示すように、回答時間テーブル記憶部122は、「質問No.」、「回答時間の平均値」、「閾値」といった項目を有する。 Returning to the description of FIG. 1, the answer time table storage unit 122 stores the average value of the answer time for each question and the threshold value in association with each other. FIG. 3 is a diagram showing an example of a response time table storage unit. As shown in FIG. 3, the answer time table storage unit 122 has items such as "question No.", "average value of answer time", and "threshold value".

「質問No.」は、チェックリストの質問、つまりチェック項目を識別する識別子である。「回答時間の平均値」は、質問ごとの過去の回答時間の平均値を秒単位で表す情報である。「閾値」は、チャットボットの質問に対して、ユーザの回答時間が長い場合を検出するための閾値であり、回答時間の平均値に対するオフセット値を秒単位で表す情報である。例えば、質問No.「1」では、ユーザの回答時間が長い場合の検出基準である第1の時間を、回答時間の平均値+閾値=5秒+1秒=6秒とする。なお、「閾値」は、第1の時間を閾値として記憶するようにしてもよい。また、第1の時間は、ユーザの個人ごとの差を表す補正値αを用いて補正するようにしてもよい。 "Question No." is an identifier that identifies a question in the checklist, that is, a check item. The "average answer time" is information representing the average value of the past answer time for each question in seconds. The "threshold value" is a threshold value for detecting a case where the user's response time is long for a chatbot question, and is information representing an offset value with respect to an average value of the response time in seconds. For example, question No. In "1", the first time, which is the detection criterion when the user's response time is long, is set to the average value of the response time + threshold value = 5 seconds + 1 second = 6 seconds. The "threshold value" may be stored with the first time as the threshold value. Further, the first time may be corrected by using the correction value α representing the difference for each individual user.

図1の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。 Returning to the description of FIG. 1, in the control unit 130, for example, a program stored in an internal storage device is executed by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like using the RAM as a work area. It is realized by. Further, the control unit 130 may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部130は、チャットボット131と、算出部132と、判定部133と、変更部134と、生成部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 The control unit 130 includes a chatbot 131, a calculation unit 132, a determination unit 133, a change unit 134, and a generation unit 135, and realizes or executes an information processing function or operation described below. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 1, and may be another configuration as long as it is a configuration for performing information processing described later.

チャットボット131は、ユーザとの間で音声チャットを行い、チャットボットの質問に対して、ユーザが回答を行う形式でチェックリストをチェックするものである。チャットボット131は、チェック項目記憶部121を参照し、質問のシナリオに従って、質問No.「1」から順番に質問を行い、ユーザの回答に応じて次の質問に移行する。チャットボット131は、音声チャットの音声データを算出部132および生成部135に出力する。また、チャットボット131は、変更部134から音声の特性を変更する指示が入力されると、当該指示に従って音声の特性を変更する。 The chatbot 131 performs voice chat with the user and checks the checklist in a format in which the user answers the question of the chatbot. The chatbot 131 refers to the check item storage unit 121, and according to the scenario of the question, the question No. Questions are asked in order from "1", and the next question is moved according to the user's answer. The chatbot 131 outputs the voice data of the voice chat to the calculation unit 132 and the generation unit 135. Further, when an instruction to change the voice characteristics is input from the changing unit 134, the chatbot 131 changes the voice characteristics according to the instruction.

算出部132は、チャットボット131から入力された音声データに基づいて、チャットボット131の質問終了時刻と、ユーザの回答終了時刻とを検出する。算出部132は、チャットボット131の質問終了時刻と、ユーザの回答終了時刻との差分を算出することで、回答時間を算出する。算出部132は、算出した回答時間を判定部133に出力する。また、算出部132は、算出した回答時間を履歴として記憶部120に記憶する。 The calculation unit 132 detects the question end time of the chatbot 131 and the answer end time of the user based on the voice data input from the chatbot 131. The calculation unit 132 calculates the answer time by calculating the difference between the question end time of the chatbot 131 and the answer end time of the user. The calculation unit 132 outputs the calculated response time to the determination unit 133. Further, the calculation unit 132 stores the calculated response time as a history in the storage unit 120.

判定部133は、例えば、情報処理装置100のRTC(Real Time Clock)またはHPET(High Precision Event Timer)を参照し、現在時刻を取得する。判定部133は、取得した現在時刻が予め設定された深夜時間帯であるか否かを判定する。深夜時間帯は、例えば22時から翌日の5時までとすることができる。判定部133は、深夜時間帯であると判定した場合、ユーザについて眠気があると判定する。判定部133は、ユーザについて眠気があると判定すると、変更部134に対して第1の変更指示を出力し、回答時間の判定に進む。一方、判定部133は、深夜時間帯でないと判定した場合(ただし、昼間でも昼食後に眠気が出る場合があるので、眠気発生の時間帯はユーザにより設定・変更・追加ができる。)、ユーザについて眠気がないと判定する。判定部133は、ユーザについて眠気がないと判定すると、変更部134に対して第1の変更指示を出力せずに、回答時間の判定に進む。 The determination unit 133 refers to, for example, the RTC (Real Time Clock) or HPET (High Precision Event Timer) of the information processing apparatus 100 and acquires the current time. The determination unit 133 determines whether or not the acquired current time is in a preset midnight time zone. The midnight time zone can be, for example, from 22:00 to 5:00 the next day. When the determination unit 133 determines that it is in the midnight time zone, it determines that the user is drowsy. When the determination unit 133 determines that the user is drowsy, the determination unit 133 outputs the first change instruction to the change unit 134 and proceeds to determine the response time. On the other hand, when the determination unit 133 determines that it is not in the midnight time zone (however, since drowsiness may occur after lunch even in the daytime, the time zone in which drowsiness occurs can be set / changed / added by the user), the user. Judge that you are not drowsy. When the determination unit 133 determines that the user is not drowsy, the determination unit 133 proceeds to the determination of the response time without outputting the first change instruction to the change unit 134.

判定部133は、質問ごとに回答時間テーブル記憶部122を参照し、回答時間の平均値および閾値に基づいて、回答時間が長い場合の検出基準である第1の時間を算出する。判定部133は、算出部132から回答時間が入力されると、入力された回答時間、つまり今回の回答時間が第1の時間よりも長いか否かを判定する。判定部133は、今回の回答時間が第1の時間以下であると判定した場合、記憶部120に記憶された図示しない過去の回答時間を参照し、質問ごとの回答時間の平均値を算出する。判定部133は、回答時間テーブル記憶部122の対応する質問No.における回答時間の平均値を、算出した平均値で更新し、変更部134に対して音声の特性を変更しない旨の不変更指示を出力する。一方、判定部133は、今回の回答時間が第1の時間よりも長いと判定した場合、変更部134に対して音声の特性を変更する旨の第2の変更指示を出力する。 The determination unit 133 refers to the answer time table storage unit 122 for each question, and calculates the first time, which is a detection criterion when the answer time is long, based on the average value and the threshold value of the answer time. When the response time is input from the calculation unit 132, the determination unit 133 determines whether or not the input response time, that is, the current response time is longer than the first time. When the determination unit 133 determines that the current answer time is equal to or less than the first time, the determination unit 133 refers to the past answer time (not shown) stored in the storage unit 120 and calculates the average value of the answer times for each question. .. The determination unit 133 asks the corresponding question No. of the answer time table storage unit 122. The average value of the response time in the above is updated with the calculated average value, and a non-change instruction indicating that the voice characteristics are not changed is output to the change unit 134. On the other hand, when the determination unit 133 determines that the response time this time is longer than the first time, the determination unit 133 outputs a second change instruction to change the characteristics of the voice to the change unit 134.

変更部134は、判定部133から第1の変更指示が入力されると、チャットボット131に対して、通常時間帯、つまり深夜時間帯と異なる時間帯よりも、音声の音の高さを高く変更するように指示する。変更部134は、例えば、深夜時間帯は通常時間帯よりも音階を全音上げるようにチャットボット131に指示する。 When the first change instruction is input from the determination unit 133, the change unit 134 raises the pitch of the voice to the chatbot 131 higher than the normal time zone, that is, the time zone different from the midnight time zone. Instruct to change. For example, the changing unit 134 instructs the chatbot 131 to raise the scale by all notes in the midnight time zone as compared with the normal time zone.

変更部134は、判定部133から第2の変更指示が入力されると、チャットボット131に対して、音声の特性を変更するように指示する。変更部134は、例えば、音声の特性として、音の高さ、速度および音量のうち、1つまたは複数の特性を変更するように指示する。変更部134は、例えば、チャットボット131に対して、男性の声から女性の声に変更するように指示したり、音声の再生速度を速くするように指示したり、音量を大きくするように指示したりする。 When the second change instruction is input from the determination unit 133, the change unit 134 instructs the chatbot 131 to change the characteristics of the voice. The change unit 134 instructs, for example, to change one or more characteristics of pitch, speed, and volume as voice characteristics. For example, the changing unit 134 instructs the chatbot 131 to change from a male voice to a female voice, instruct the voice reproduction speed to be increased, or instruct the chatbot 131 to increase the volume. To do.

また、変更部134は、例えば、チャットボット131に対して、音声の特性を変更するタイミングとして、次の質問から音声の特性を変更する。なお、変更部134は、質問の途中で音声の特性を変更するようにしてもよい。さらに、変更部134は、複数の質問の間、つまり質問と質問の間に、他の音声や音楽を挿入するようにしてもよい。他の音声や音楽としては、例えば、ユーザに目を覚ますように促す言葉や、テンポの速い音楽を1フレーズ流すといったことが挙げられる。 Further, the changing unit 134 changes the voice characteristics from the next question, for example, as a timing for changing the voice characteristics for the chatbot 131. The changing unit 134 may change the characteristics of the voice in the middle of the question. Further, the change unit 134 may insert another voice or music between the plurality of questions, that is, between the questions. Other voices and music include, for example, words that urge the user to wake up and one phrase of fast-paced music.

変更部134は、判定部133から不変更指示が入力されると、チャットボット131に対して、音声の特性を変更する指示を行わない。変更部134は、判定部133から第2の変更指示または不変更指示が入力され、これらの指示に対する動作の後に、全問のチェックが完了したか否かを判定する。変更部134は、全問のチェックが完了していないと判定した場合、判定部133に対して、引き続き深夜時間帯および回答時間の判定を行うように指示する。変更部134は、全問のチェックが完了したと判定した場合、音声チャット制御処理を終了する。 When a non-change instruction is input from the determination unit 133, the change unit 134 does not give an instruction to change the voice characteristics to the chatbot 131. The change unit 134 determines whether or not the check of all the questions has been completed after the second change instruction or the non-change instruction is input from the determination unit 133 and the operation for these instructions is performed. When it is determined that the check of all the questions has not been completed, the change unit 134 instructs the determination unit 133 to continue to determine the midnight time zone and the answer time. When it is determined that the check of all the questions is completed, the change unit 134 ends the voice chat control process.

生成部135は、チャットボット131から音声データが入力されると、音声データから文字起こしを行って、チェック内容が反映されたチェック済チェックシートを生成する。生成部135は、生成したチェック済チェックシートを記憶部120に記憶する。なお、生成部135は、チェック項目の内容について、チェック項目記憶部121を参照して取得するようにしてもよい。また、生成部135は、チェック済チェックシートを図示しない印刷装置を用いて印刷するようにしてもよい。 When the voice data is input from the chatbot 131, the generation unit 135 transcribes the voice data and generates a checked check sheet in which the check contents are reflected. The generation unit 135 stores the generated checked check sheet in the storage unit 120. The generation unit 135 may obtain the contents of the check items by referring to the check item storage unit 121. Further, the generation unit 135 may print the checked check sheet using a printing device (not shown).

次に、実施例の情報処理装置の動作について説明する。図4は、実施例の音声チャット制御処理の一例を示すフローチャートである。 Next, the operation of the information processing apparatus of the embodiment will be described. FIG. 4 is a flowchart showing an example of the voice chat control process of the embodiment.

チャットボット131が、ユーザとの間で音声チャットによるチェックを開始すると、判定部133は、RTCまたはHPETを参照し、現在時刻を取得する(ステップS1)。 When the chatbot 131 starts the check by voice chat with the user, the determination unit 133 refers to the RTC or HPET and acquires the current time (step S1).

判定部133は、取得した現在時刻が深夜時間帯であるか否かを判定する(ステップS2)。判定部133は、深夜時間帯であると判定した場合(ステップS2:Yes)、ユーザについて眠気があると判定し、変更部134に対して第1の変更指示を出力する。変更部134は、判定部133から第1の変更指示が入力されると、チャットボット131に対して、通常時間帯よりも、音声の音の高さを高く変更するように指示し(ステップS3)、ステップS4に進む。このとき、チャットボット131は、変更部134から入力された音声の特性を変更する指示に従って音声の特性を変更する。一方、判定部133は、深夜時間帯でないと判定した場合(ステップS2:No)、第1の変更指示を出力せずにステップS4に進む。 The determination unit 133 determines whether or not the acquired current time is in the midnight time zone (step S2). When the determination unit 133 determines that the time zone is midnight (step S2: Yes), the determination unit 133 determines that the user is drowsy and outputs the first change instruction to the change unit 134. When the first change instruction is input from the determination unit 133, the change unit 134 instructs the chatbot 131 to change the pitch of the voice higher than the normal time zone (step S3). ), Proceed to step S4. At this time, the chatbot 131 changes the voice characteristics according to the instruction for changing the voice characteristics input from the changing unit 134. On the other hand, when the determination unit 133 determines that it is not in the midnight time zone (step S2: No), the determination unit 133 proceeds to step S4 without outputting the first change instruction.

チャットボット131は、チェック項目記憶部121を参照し、音声チャットにより質問を行い、ユーザから質問に対する回答を受け付ける。チャットボット131は、音声チャットの音声データを算出部132に出力する。算出部132は、チャットボット131から入力された音声データに基づいて、チャットボット131の質問終了時刻と、ユーザの回答終了時刻とを検出する(ステップS4)。 The chatbot 131 refers to the check item storage unit 121, asks a question by voice chat, and receives an answer to the question from the user. The chatbot 131 outputs the voice data of the voice chat to the calculation unit 132. The calculation unit 132 detects the question end time of the chatbot 131 and the answer end time of the user based on the voice data input from the chatbot 131 (step S4).

算出部132は、チャットボット131の質問終了時刻と、ユーザの回答終了時刻とに基づいて、回答時間を算出する(ステップS5)。算出部132は、算出した回答時間を判定部133に出力する。 The calculation unit 132 calculates the answer time based on the question end time of the chatbot 131 and the answer end time of the user (step S5). The calculation unit 132 outputs the calculated response time to the determination unit 133.

判定部133は、算出部132から回答時間が入力されると、入力された今回の回答時間が第1の時間よりも長いか否かを判定する(ステップS6)。判定部133は、今回の回答時間が第1の時間以下であると判定した場合(ステップS6:No)、質問ごとの回答時間の平均値を算出して回答時間テーブル記憶部122の対応する回答時間の平均値を更新する。また、判定部133は、変更部134に対して音声の特性を変更しない旨の不変更指示を出力する。変更部134は、判定部133から不変更指示が入力されると、チャットボット131に対して、音声の特性を変更する指示を行わず、ステップS8に進む。 When the response time is input from the calculation unit 132, the determination unit 133 determines whether or not the input current response time is longer than the first time (step S6). When the determination unit 133 determines that the current answer time is equal to or less than the first time (step S6: No), the determination unit 133 calculates the average value of the answer times for each question and the corresponding answer of the answer time table storage unit 122. Update the time average. Further, the determination unit 133 outputs a non-change instruction to the change unit 134 to the effect that the characteristics of the voice are not changed. When the non-change instruction is input from the determination unit 133, the change unit 134 does not give an instruction to change the voice characteristics to the chatbot 131, and proceeds to step S8.

一方、判定部133は、今回の回答時間が第1の時間よりも長いと判定した場合(ステップS6:Yes)、変更部134に対して音声の特性を変更する旨の第2の変更指示を出力する。変更部134は、判定部133から第2の変更指示が入力されると、チャットボット131に対して、音声の特性を変更するように指示し(ステップS7)、ステップS8に進む。このとき、チャットボット131は、変更部134から入力された音声の特性を変更する指示に従って音声の特性を変更する。 On the other hand, when the determination unit 133 determines that the response time this time is longer than the first time (step S6: Yes), the determination unit 133 gives the change unit 134 a second change instruction to change the voice characteristics. Output. When the second change instruction is input from the determination unit 133, the change unit 134 instructs the chatbot 131 to change the characteristics of the voice (step S7), and proceeds to step S8. At this time, the chatbot 131 changes the voice characteristics according to the instruction for changing the voice characteristics input from the changing unit 134.

変更部134は、全問のチェックが完了したか否かを判定する(ステップS8)。変更部134は、全問のチェックが完了していないと判定した場合(ステップS8:No)、ステップS1に戻る。変更部134は、全問のチェックが完了したと判定した場合(ステップS8:Yes)、チェック処理を終了する。これにより、情報処理装置100は、眠気によるケアレスミスを抑制することができる。 The change unit 134 determines whether or not the check of all the questions has been completed (step S8). When the change unit 134 determines that the check of all the questions has not been completed (step S8: No), the change unit 134 returns to step S1. When it is determined that the check of all the questions is completed (step S8: Yes), the change unit 134 ends the check process. As a result, the information processing device 100 can suppress careless mistakes due to drowsiness.

このように、情報処理装置100は、ユーザとの間で音声チャットにより質問を行って回答を受け付けるチャットボット131と、ユーザとの対話に関する情報に基づいて、ユーザについて眠気があるか否かを判定する。また、情報処理装置100は、ユーザについて眠気があると判定した場合、チャットボット131の音声の特性を変更する。その結果、眠気によるケアレスミスを抑制することができる。すなわち、ユーザが眠い状態で回答している場合に目が覚めるように促すことができる。 In this way, the information processing device 100 determines whether or not the user is drowsy based on the chatbot 131 that asks a question and receives an answer by voice chat with the user and the information regarding the dialogue with the user. To do. Further, when the information processing device 100 determines that the user is drowsy, the information processing device 100 changes the voice characteristics of the chatbot 131. As a result, careless mistakes due to drowsiness can be suppressed. That is, it is possible to urge the user to wake up when answering in a sleepy state.

また、情報処理装置100は、チャットボット131の質問終了時刻と、ユーザの回答終了時刻とに基づいて算出される回答時間の平均値と、閾値とを質問ごとに対応付けて記憶する回答時間テーブル記憶部122を参照し、算出された回答時間が、平均値と閾値とに基づく第1の時間よりも長い場合、ユーザについて眠気があると判定する、その結果、質問に対するユーザの反応時間が長い場合に、眠気があると判定することができる。 Further, the information processing apparatus 100 stores an answer time table in which the average value of the answer time calculated based on the question end time of the chatbot 131 and the answer end time of the user and the threshold value are stored in association with each question. When the calculated response time is longer than the first time based on the average value and the threshold value with reference to the storage unit 122, it is determined that the user is drowsy, and as a result, the user's reaction time to the question is long. In some cases, it can be determined that the person is drowsy.

また、音声の特性は、音の高さ、速度および音量のうち、1つまたは複数の特性である。その結果、ユーザに対して目が覚めるように促すことができる。 In addition, the characteristics of voice are one or more characteristics of pitch, speed, and volume. As a result, the user can be encouraged to wake up.

また、情報処理装置100は、ユーザについて眠気があると判定した場合、音声の特性を、次の質問から、または、質問の途中で変更する。その結果、ユーザに対して目が覚めるように促すことができる。 Further, when the information processing apparatus 100 determines that the user is drowsy, the information processing device 100 changes the characteristics of the voice from the next question or in the middle of the question. As a result, the user can be encouraged to wake up.

また、情報処理装置100は、ユーザについて眠気があると判定した場合、複数の質問の間に、他の音声または音楽を挿入する。その結果、ユーザに対して目が覚めるように促すことができる。 Further, when the information processing apparatus 100 determines that the user is drowsy, another voice or music is inserted between the plurality of questions. As a result, the user can be encouraged to wake up.

また、情報処理装置100は、対話に関する情報として現在時刻を取得し、現在時刻が予め設定された深夜時間帯、もしくは、眠気発生時間帯である場合、ユーザについて眠気があると判定する。また、情報処理装置100は、ユーザについて眠気があると判定した場合、チャットボット131の音声について、深夜時間帯と異なる時間帯よりも音の高さを高く変更する。 Further, the information processing device 100 acquires the current time as information related to the dialogue, and determines that the user is drowsy when the current time is a preset midnight time zone or a drowsiness occurrence time zone. Further, when the information processing apparatus 100 determines that the user is drowsy, the information processing device 100 changes the pitch of the voice of the chatbot 131 to be higher than that of a time zone different from the midnight time zone.

なお、上記実施例では、音声チャットを用いてチェック処理を行ったが、これに限定されない。例えば、表示画面に質問を表示し、キーボードからの「Y」、「N」といった入力や、マウスやタッチパネルによる選択を受け付けるチェック処理においても適用することができる。この場合、回答時間が第1の時間よりも長いときに表示画面に解除ボタンを表示させることでチェック処理を妨害し、解除ボタンへの操作を受け付けることでチェック処理を再開するといった方法で、ユーザの五感が働いていることをチェックするようにしてもよい。 In the above embodiment, the check process is performed using voice chat, but the present invention is not limited to this. For example, it can be applied to a check process in which a question is displayed on a display screen and input such as "Y" or "N" from a keyboard or selection by a mouse or a touch panel is accepted. In this case, the user interferes with the check process by displaying the release button on the display screen when the response time is longer than the first time, and restarts the check process by accepting the operation of the release button. You may want to check that your five senses are working.

また、上記実施例では、情報処理装置100がチャットボットの動作および音声チャット制御処理を行ったが、これに限定されない。例えば、サーバでチャットボットの動作および音声チャット制御処理を行い、ユーザがサーバに対して電話を掛けて音声チャットを行うようにしてもよい。さらに、チャットボットを他のサーバで動作させてもよい。 Further, in the above embodiment, the information processing apparatus 100 performs the operation of the chatbot and the voice chat control process, but the present invention is not limited to this. For example, the server may operate the chatbot and perform voice chat control processing so that the user calls the server to perform voice chat. In addition, the chatbot may run on another server.

また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報処理装置100の判定部133と変更部134とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。 Further, each component of each of the illustrated parts does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or part of them are functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured. For example, the determination unit 133 of the information processing device 100 and the change unit 134 may be integrated. Further, the illustrated processes are not limited to the above order, and may be performed simultaneously or in a different order as long as the processing contents do not contradict each other.

さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。 Further, the various processing functions performed by each device may execute all or any part thereof on the CPU (or a microcomputer such as an MPU or a MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or in any part on a program analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware by wired logic. Needless to say, it's good.

ところで、上記の各実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図5は、音声チャット制御プログラムを実行するコンピュータの一例を示す図である。 By the way, various processes described in each of the above embodiments can be realized by executing a program prepared in advance on a computer. Therefore, in the following, an example of a computer that executes a program having the same functions as those in each of the above embodiments will be described. FIG. 5 is a diagram showing an example of a computer that executes a voice chat control program.

図5に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201〜208は、バス209に接続される。 As shown in FIG. 5, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that accepts data input, and a monitor 203. Further, the computer 200 includes a medium reading device 204 for reading a program or the like from a storage medium, an interface device 205 for connecting to various devices, and a communication device 206 for connecting to another information processing device or the like by wire or wirelessly. Has. Further, the computer 200 has a RAM 207 that temporarily stores various information and a hard disk device 208. Further, each of the devices 201 to 208 is connected to the bus 209.

ハードディスク装置208には、図1に示したチャットボット131、算出部132、判定部133、変更部134および生成部135の各処理部と同様の機能を有する音声チャット制御プログラムが記憶される。また、ハードディスク装置208には、チェック項目記憶部121および回答時間テーブル記憶部122が記憶される。入力装置202は、例えば、コンピュータ200のユーザから操作情報等の各種情報の入力を受け付ける。モニタ203は、例えば、コンピュータ200のユーザに対して表示画面等の各種画面を表示する。インタフェース装置205は、例えばヘッドセットや印刷装置等が接続される。通信装置206は、例えば、図1に示した通信部110と同様の機能を有し図示しないネットワークと接続され、他の情報処理装置と各種情報をやりとりする。 The hard disk device 208 stores a voice chat control program having the same functions as the chatbot 131, the calculation unit 132, the determination unit 133, the change unit 134, and the generation unit 135 shown in FIG. Further, the hard disk device 208 stores the check item storage unit 121 and the response time table storage unit 122. The input device 202 receives, for example, input of various information such as operation information from a user of the computer 200. The monitor 203 displays various screens such as a display screen for the user of the computer 200, for example. For example, a headset, a printing device, or the like is connected to the interface device 205. The communication device 206 has, for example, the same function as the communication unit 110 shown in FIG. 1 and is connected to a network (not shown) to exchange various information with other information processing devices.

CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図1に示したチャットボット131、算出部132、判定部133、変更部134および生成部135として機能させることができる。 The CPU 201 performs various processes by reading out each program stored in the hard disk device 208, expanding the program in the RAM 207, and executing the program. Further, these programs can make the computer 200 function as the chatbot 131, the calculation unit 132, the determination unit 133, the change unit 134, and the generation unit 135 shown in FIG.

なお、上記の音声チャット制御プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの音声チャット制御プログラムを記憶させておき、コンピュータ200がこれらから音声チャット制御プログラムを読み出して実行するようにしてもよい。 The voice chat control program does not necessarily have to be stored in the hard disk device 208. For example, the computer 200 may read and execute a program stored in a storage medium that can be read by the computer 200. The storage medium that can be read by the computer 200 is, for example, a portable recording medium such as a CD-ROM, a DVD (Digital Versatile Disc), or a USB (Universal Serial Bus) memory, a semiconductor memory such as a flash memory, a hard disk drive, or the like. .. Further, the voice chat control program may be stored in a device connected to a public line, the Internet, a LAN, or the like, and the computer 200 may read the voice chat control program from these and execute the program.

100 情報処理装置
110 通信部
111 表示部
112 操作部
113 入出力部
120 記憶部
121 チェック項目記憶部
122 回答時間テーブル記憶部
130 制御部
131 チャットボット
132 算出部
133 判定部
134 変更部
135 生成部
100 Information processing device 110 Communication unit 111 Display unit 112 Operation unit 113 Input / output unit 120 Storage unit 121 Check item storage unit 122 Answer time table storage unit 130 Control unit 131 Chatbot 132 Calculation unit 133 Judgment unit 134 Change unit 135 Generation unit

Claims (8)

ユーザとの間で音声チャットにより質問を行って回答を受け付けるチャットボットと、前記ユーザとの対話に関する情報に基づいて、前記ユーザについて眠気があるか否かを判定する判定部と、
前記ユーザについて眠気があると判定された場合、前記チャットボットの音声の特性を変更する変更部と、
を有することを特徴とする情報処理装置。
A chatbot that asks questions by voice chat with the user and accepts answers, a determination unit that determines whether or not the user is drowsy based on information about the dialogue with the user, and a determination unit.
When it is determined that the user is drowsy, a change unit that changes the voice characteristics of the chatbot, and a change unit.
An information processing device characterized by having.
前記判定部は、前記チャットボットの質問終了時刻と、前記ユーザの回答終了時刻とに基づいて算出される回答時間の平均値と、閾値とを質問ごとに対応付けて記憶する記憶部を参照し、算出された前記回答時間が、前記平均値と前記閾値とに基づく第1の時間よりも長い場合、前記ユーザについて眠気があると判定する、
ことを特徴とする請求項1に記載の情報処理装置。
The determination unit refers to a storage unit that stores the average value of the answer time calculated based on the question end time of the chatbot, the answer end time of the user, and the threshold value for each question. If the calculated response time is longer than the first time based on the average value and the threshold value, it is determined that the user is drowsy.
The information processing apparatus according to claim 1.
前記音声の特性は、音の高さ、速度および音量のうち、1つまたは複数の特性である、
ことを特徴とする請求項1または2に記載の情報処理装置。
The audio characteristic is one or more of pitch, speed, and volume.
The information processing apparatus according to claim 1 or 2.
前記変更部は、前記ユーザについて眠気があると判定された場合、前記音声の特性を、次の前記質問から、または、前記質問の途中で変更する、
ことを特徴とする請求項1〜3のいずれか1つに記載の情報処理装置。
When it is determined that the user is drowsy, the change unit changes the characteristics of the voice from the next question or in the middle of the question.
The information processing apparatus according to any one of claims 1 to 3.
前記変更部は、前記ユーザについて眠気があると判定された場合、複数の前記質問の間に、他の音声または音楽を挿入する、
ことを特徴とする請求項1〜4のいずれか1つに記載の情報処理装置。
The change unit inserts other voice or music between the plurality of questions when it is determined that the user is drowsy.
The information processing apparatus according to any one of claims 1 to 4.
前記判定部は、前記対話に関する情報として現在時刻を取得し、前記現在時刻が予め設定された深夜時間帯、もしくは、眠気発生時間帯である場合、前記ユーザについて眠気があると判定し、
前記変更部は、前記ユーザについて眠気があると判定された場合、前記チャットボットの音声について、前記深夜時間帯と異なる時間帯よりも音の高さを高く変更する、
ことを特徴とする請求項1に記載の情報処理装置。
The determination unit acquires the current time as information regarding the dialogue, and if the current time is a preset midnight time zone or a drowsiness occurrence time zone, determines that the user is drowsy.
When it is determined that the user is drowsy, the changing unit changes the pitch of the chatbot voice higher than the time zone different from the midnight time zone.
The information processing apparatus according to claim 1.
ユーザとの間で音声チャットにより質問を行って回答を受け付けるチャットボットと、前記ユーザとの対話に関する情報に基づいて、前記ユーザについて眠気があるか否かを判定し、
前記ユーザについて眠気があると判定された場合、前記チャットボットの音声の特性を変更する、
処理をコンピュータが実行することを特徴とする音声チャット制御方法。
Based on the chatbot that asks questions and accepts answers by voice chat with the user and the information about the dialogue with the user, it is determined whether or not the user is drowsy.
If it is determined that the user is drowsy, the voice characteristics of the chatbot are changed.
A voice chat control method characterized by a computer performing processing.
ユーザとの間で音声チャットにより質問を行って回答を受け付けるチャットボットと、前記ユーザとの対話に関する情報に基づいて、前記ユーザについて眠気があるか否かを判定し、
前記ユーザについて眠気があると判定された場合、前記チャットボットの音声の特性を変更する、
処理をコンピュータに実行させることを特徴とする音声チャット制御プログラム。
Based on the chatbot that asks questions and accepts answers by voice chat with the user and the information about the dialogue with the user, it is determined whether or not the user is drowsy.
If it is determined that the user is drowsy, the voice characteristics of the chatbot are changed.
A voice chat control program characterized by having a computer perform processing.
JP2019202516A 2019-11-07 2019-11-07 Information processing device, voice chat control method, and voice chat control program Active JP7446085B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019202516A JP7446085B2 (en) 2019-11-07 2019-11-07 Information processing device, voice chat control method, and voice chat control program
JP2024027657A JP2024073475A (en) 2019-11-07 2024-02-27 Information processing device, method for controlling chat, and chat control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019202516A JP7446085B2 (en) 2019-11-07 2019-11-07 Information processing device, voice chat control method, and voice chat control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024027657A Division JP2024073475A (en) 2019-11-07 2024-02-27 Information processing device, method for controlling chat, and chat control program

Publications (2)

Publication Number Publication Date
JP2021076674A true JP2021076674A (en) 2021-05-20
JP7446085B2 JP7446085B2 (en) 2024-03-08

Family

ID=75898931

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019202516A Active JP7446085B2 (en) 2019-11-07 2019-11-07 Information processing device, voice chat control method, and voice chat control program
JP2024027657A Pending JP2024073475A (en) 2019-11-07 2024-02-27 Information processing device, method for controlling chat, and chat control program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024027657A Pending JP2024073475A (en) 2019-11-07 2024-02-27 Information processing device, method for controlling chat, and chat control program

Country Status (1)

Country Link
JP (2) JP7446085B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004361766A (en) * 2003-06-06 2004-12-24 Kenwood Corp Speaking speed conversion apparatus, speaking speed conversion method, and program
JP2005173636A (en) * 2003-12-05 2005-06-30 Fujitsu Ten Ltd Method and device for dozing detection
JP2013037097A (en) * 2011-08-05 2013-02-21 Seiko Epson Corp Voice processor
JP2016081079A (en) * 2014-10-09 2016-05-16 株式会社トランストロン Information processing device, warning method, and program
WO2018030149A1 (en) * 2016-08-09 2018-02-15 ソニー株式会社 Information processing device and information processing method
JP2018206197A (en) * 2017-06-07 2018-12-27 トヨタ自動車株式会社 Awakening support apparatus and awakening support method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004361766A (en) * 2003-06-06 2004-12-24 Kenwood Corp Speaking speed conversion apparatus, speaking speed conversion method, and program
JP2005173636A (en) * 2003-12-05 2005-06-30 Fujitsu Ten Ltd Method and device for dozing detection
JP2013037097A (en) * 2011-08-05 2013-02-21 Seiko Epson Corp Voice processor
JP2016081079A (en) * 2014-10-09 2016-05-16 株式会社トランストロン Information processing device, warning method, and program
WO2018030149A1 (en) * 2016-08-09 2018-02-15 ソニー株式会社 Information processing device and information processing method
JP2018206197A (en) * 2017-06-07 2018-12-27 トヨタ自動車株式会社 Awakening support apparatus and awakening support method

Also Published As

Publication number Publication date
JP2024073475A (en) 2024-05-29
JP7446085B2 (en) 2024-03-08

Similar Documents

Publication Publication Date Title
TWI582753B (en) Method, system, and computer-readable storage medium for operating a virtual assistant
JP7508670B2 (en) Information processing device, check processing method, and check processing program
Pullin et al. Focussing on extra-ordinary users
WO2020103562A1 (en) Voice processing method and apparatus
US20140188876A1 (en) Information processing device, information processing method and computer program
CA3166342A1 (en) Automatic question setting method, apparatus and system
JP2018060241A (en) Interest level evaluation program, dialogue program, display program, apparatus, and method
JP2010061053A (en) Learning support system
JP2021076674A (en) Information processor, method for controlling voice chat, and voice chat control program
JP2023162332A (en) Information providing method
JP5907231B1 (en) INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM
JP7408605B2 (en) Information processing device, information processing method, and information processing program
JP2019159880A (en) Answering device, answering method, answering program and answering system
CN111540358B (en) Man-machine interaction method, device, equipment and storage medium
JP6296193B2 (en) INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM
JP5520259B2 (en) Question example presentation apparatus, method and program
JP6112239B2 (en) INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM
JP6172303B2 (en) INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM
US20240177704A1 (en) Interaction service providing system, information processing apparatus, interaction service providing method, and recording medium
JP6490785B1 (en) Game program and game apparatus
JP2020190842A (en) Display system and presentation method and program
WO2024095550A1 (en) Status display device, method, and program
WO2024069762A1 (en) Information processing system, information processing method, and recording medium
JP2016139400A (en) Conversation processing method, conversation processing system, electronic equipment, and conversation processing device
WO2020240641A1 (en) Instruction output device, instruction output method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240227

R150 Certificate of patent or registration of utility model

Ref document number: 7446085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350