JPWO2017179262A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2017179262A1 JPWO2017179262A1 JP2018511890A JP2018511890A JPWO2017179262A1 JP WO2017179262 A1 JPWO2017179262 A1 JP WO2017179262A1 JP 2018511890 A JP2018511890 A JP 2018511890A JP 2018511890 A JP2018511890 A JP 2018511890A JP WO2017179262 A1 JPWO2017179262 A1 JP WO2017179262A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- output
- information processing
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 55
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000004364 calculation method Methods 0.000 claims description 43
- 230000008451 emotion Effects 0.000 claims description 33
- 238000004458 analytical method Methods 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 43
- 238000000034 method Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 26
- 230000007423 decrease Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000009467 reduction Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000035900 sweating Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/083—Recognition networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
- H04L51/234—Monitoring or handling of messages for tracking messages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】音声入力を使用する第1のユーザによる発話の検出に基づいて、テキスト入力を使用する第2のユーザからの返信に関する前記第1のユーザの待ち状況を示す情報の出力を制御する出力制御部、を備え、前記第1のユーザと前記第2のユーザとの間で、入力されたメッセージが交換される、情報処理装置。
【選択図】図13
Description
1.情報処理システムの構成
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.第4の実施形態
6.ハードウェア構成
7.変形例
まず、本開示の各実施形態に共通する情報処理システムの構成例について、図1を参照して説明する。図1に示すように、各実施形態に共通する情報処理システムは、サーバ10、端末20、および、通信網30を含む。
端末20は、ユーザ2がチャットを行うために使用する装置である。なお、図1では、端末20がゲーム機である例を示しているが、かかる例に限定されない。例えば、端末20は、汎用PC(Personal Computer)、タブレット端末、スマートフォンなどの携帯電話、または、例えばHMD(Head Mounted Display)やヘッドセットなどのウェアラブルデバイスであってもよい。なお、以下では、端末20がゲーム機である例を中心として説明を行う。
サーバ10は、本開示における情報処理装置の一例である。サーバ10は、端末20間で、入力されたメッセージの交換を制御する。例えば、サーバ10は、音声チャットユーザ2aにより入力された音声をそのまま、テキストチャットユーザ2bが使用する端末20bへ伝達することも可能であるし、または、入力された音声を音声認識した結果を端末20bへ伝達することも可能である。また、サーバ10は、テキストチャットユーザ2bにより入力されたテキストをTTS(TextToSpeech)を用いて音声に変換し、そして、変換後の音声を、音声チャットユーザ2aが使用する端末20aへ伝達する。これにより、音声チャットユーザ2aおよびテキストチャットユーザ2bは、同一のチャット方法を用いる場合と同じような感覚でチャットを行うことができる。
ここで、図3を参照して、音声チャットユーザ2aとテキストチャットユーザ2bとの間でのメッセージの交換処理の流れについて具体的に説明する。図3に示したように、まず、音声チャットユーザ2aは、発話を行う(S11)。そして、音声チャットユーザ2aが使用する端末20aは、発話の音声を集音し、そして、集音した音声をサーバ10へ送信する(S13)。
通信網30は、通信網30に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網30は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網30は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、各実施形態に共通する情報処理システムの構成について説明した。ところで、一般的に、テキストチャットでは、音声チャットと比較して、メッセージの入力に長時間を要する。このため、音声チャットユーザとテキストチャットユーザとの間でのチャットでは、音声チャットユーザが、テキストチャットユーザからの返信を待つ時間が長くなり、不満に感じ得る。そこで、例えば、テキストチャットユーザからの返信を待つことを音声チャットユーザが許容可能な時間の長さなどの情報をテキストチャットユーザが知ることが可能であることが望まれる。
<2−1.構成>
次に、第1の実施形態について説明する。まず、第1の実施形態によるサーバ10の構成について詳細に説明する。図4は、第1の実施形態によるサーバ10の構成例を示した機能ブロック図である。図4に示すように、サーバ10は、制御部100、通信部120、および、記憶部122を有する。
制御部100は、サーバ10に内蔵される、後述するCPU150や、RAM154などのハードウェアを用いて、サーバ10の動作を全般的に制御する。また、図4に示すように、制御部100は、音声解析部102、感情推定部104、返信制限時間算出部106、および、出力制御部108を有する。
(2−1−2−1.発話特性の解析)
音声解析部102は、端末20から受信された音声を解析する。例えば、音声解析部102は、受信された音声の発話特性を解析する。ここで、発話特性は、例えば、声の音量、話速、または、ピッチなどである。
また、音声解析部102は、受信された音声の音声認識、および、構文解析を行う。例えば、音声解析部102は、受信された音声の音声認識を行い、そして、認識結果に基づいて、発話文章のモダリティ解析を行う。ここで、モダリティ解析は、文章の言語的な種類(例えば、「否定」、「感嘆」、「勧誘」、および「疑問」など)を解析することである。
感情推定部104は、端末20から受信される各種のセンシング結果に基づいて、当該端末20を使用しているユーザの感情を推定する。例えば、感情推定部104は、撮影されたユーザの顔画像に基づいて表情を解析することにより、ユーザの感情(例えば、怒っている、悲しんでいる、または、楽しんでいるなど)を推定する。また、感情推定部104は、受信された音声を解析することにより、ユーザの感情を推定することも可能である。
返信制限時間算出部106は、所定の基準に基づいて、テキストチャットユーザに関するメッセージの返信制限時間を算出する。ここで、当該返信制限時間は、例えば、テキストチャットユーザからの返信を待つことを音声チャットユーザが許容する(または、待っていても不快に感じない)と推定される最大の時間に対応する。また、所定の基準は、検出された音声チャットユーザの発話の特性を含み得る。また、所定の基準は、受信された(音声チャットユーザの)音声に基づいて感情推定部104により推定された感情の結果を含み得る。また、所定の基準は、音声チャットユーザの状態に関するセンシング結果を含み得る。また、所定の基準は、受信された(音声チャットユーザの)音声が音声解析部102により音声認識された結果を含み得る。
制限時間算出用DB124は、返信制限時間を算出するために用いられる減少係数が格納されるデータベースである。この制限時間算出用DB124は、例えば記憶部122に記憶され得る。図5は、制限時間算出用DB124の構成例を示した説明図である。図5に示すように、制限時間算出用DB124は、発話特性係数テーブル126、センシング情報係数テーブル128、指示代名詞有無係数テーブル130、および、時間情報係数テーブル132を含む。
ここで、返信制限時間算出部106が、図6〜図9に示した各種のテーブルに基づいてメッセージの返信制限時間を算出する例について説明する。例えば、基準時間が「30秒」であり、発話特性係数テーブル126から決定される減少係数が「0.8」であり、センシング情報係数テーブル128から決定される減少係数が「1.0」であり、指示代名詞有無係数テーブル130から決定される減少係数が「0.8」であり、かつ、時間情報係数テーブル132から決定される減少係数が「1.0」であるとする。この場合、返信制限時間算出部106は、基準時間に対して上記の全ての減少係数を乗じることにより、当該返信制限時間を「19秒」と算出する(30(秒)×0.8×1.0×0.8×1.0≒19(秒))。
(2−1−5−1.待ち状況を示す情報の出力開始・終了)
出力制御部108は、音声チャットユーザによる発話の検出に基づいて、音声チャットユーザの待ち状況を示す情報の出力を制御する。例えば、出力制御部108は、検出された発話に対する音声解析部102による解析結果に基づいて、音声チャットユーザの待ち状況を示す情報の出力を制御する。一例として、出力制御部108は、検出された発話の文章が、応答を必要とするモダリティであるか否かの判定結果に基づいて、音声チャットユーザの待ち状況を示す情報の出力を開始させる。例えば、検出された発話文章が、応答を必要とするモダリティであると音声解析部102により判定された場合には、出力制御部108は、当該音声チャットユーザの待ち状況を示す情報の出力を開始させる。また、検出された発話文章が、応答を必要としないモダリティであると音声解析部102により判定された場合には、出力制御部108は、当該音声チャットユーザの待ち状況を示す情報の出力を開始させない。
ここで、音声チャットユーザの待ち状況を示す情報の出力例についてさらに詳細に説明する。例えば、出力制御部108は、返信制限時間算出部106により算出された返信制限時間を含むインジケータを、当該音声チャットユーザの待ち状況を示す情報として、テキストチャットユーザ側の表示部226に表示させる。
また、出力制御部108は、インジケータの表示開始時からの時間の経過に応じて、インジケータの表示態様を変化させることが可能である。図11は、時間の経過に応じて、インジケータ50の表示が変化される例を示した説明図である。なお、図11では、(a)、(b)、(c)、(d)の順に、より長い時間が経過した際のインジケータ50の表示例を示している。図11に示したように、出力制御部108は、インジケータ50の表示開始時からの経過時間が長い(つまり、残り時間が短い)ほど、メータ52の長さを短くする。さらに、図11に示したように、出力制御部108は、例えば、返信制限時間に対する残り時間の長さの割合に応じて、メータ52の表示色を変化させてもよい。例えば、図11の(b)に示したように、返信制限時間に対する残り時間の割合が「50%」未満になった場合には、出力制御部108は、メータ52の表示色を「Caution」を示す表示色に変化させる。また、図11の(c)に示したように、返信制限時間に対する残り時間の割合が「30%」未満になった場合には、出力制御部108は、メータ52の表示色を「Warning」を示す表示色に変化させる。これらの表示例によれば、返信制限時間までの残り時間が短いことをテキストチャットユーザに強調して示すことができる。
さらに、出力制御部108は、図11に示したように、インジケータ50の近辺(例えば右隣)に補助表示54を表示させてもよい。ここで、補助表示54は、音声チャットユーザの待ち状況を示す情報の一例である。
また、図12は、インジケータの表示開始時からの経過時間が返信制限時間を超過した場合におけるインジケータの表示例を示した説明図である。図12の(a)に示したように、経過時間が返信制限時間を超過した際には、出力制御部108は、テキスト入力欄42を点滅させてもよい。または、図12の(b)に示したように、出力制御部108は、テキスト入力欄42を点滅させつつ、OSK(On−Screen Keyboard)60を表示画面に表示させてもよい。これにより、テキストチャットユーザにテキストの入力を強制することができる。
または、出力制御部108は、音声チャットユーザの待ち状況を示す音声を、テキストチャットユーザが使用する端末20の音声出力部228に出力させることも可能である。例えば、音声チャットユーザによる発話が検出された際に、出力制御部108は、返信制限時間算出部106により算出された返信制限時間を読み上げる音声を音声出力部228に出力させてもよい。
または、出力制御部108は、音声チャットユーザの待ち状況を示す振動を、例えばテキストチャットユーザが使用する端末20の操作部222に出力させることも可能である。
なお、出力制御部108は、所定の条件に基づいて、(テキストチャットユーザの返信に関する)残り時間を増減させることも可能である。さらに、残り時間を増減した際には、出力制御部108は、増減後の残り時間に応じた態様で、インジケータを表示させたり、音を出力させたり、または、振動を出力させる。
なお、変形例として、3人以上のユーザ間でメッセージが交換される場面では、出力制御部108は、いずれかのテキストチャットユーザに関する残り時間を増減させることも可能である。例えば、音声チャットユーザが一人存在し、かつ、テキストチャットユーザが複数人存在する場面では、出力制御部108は、所定の条件に基づいて、テキストチャットユーザごとに、メッセージの返信に関する残り時間の増減量を変化させてもよい。
通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、出力制御部108の制御に従って、音声チャットユーザの待ち状況を示す情報を、テキストチャットユーザが使用する端末20へ送信する。また、通信部120は、ユーザによる発話の音声や、入力されたテキストなどを端末20から受信する。
記憶部122は、各種のデータや各種のソフトウェアを記憶する。例えば、記憶部122は、制限時間算出用DB124などを記憶する。
以上、第1の実施形態による構成について説明した。次に、第1の実施形態による動作の一例について、図13〜図16を参照して説明する。
まず、第1の実施形態による動作の全体的な流れについて、図13を参照して説明する。なお、ここでは、音声チャットユーザとテキストチャットユーザとの間でチャットを開始した後の動作例について説明する。また、サーバ10は、音声チャットユーザの待ち状況を示す情報としてインジケータを表示させる例について説明する。
ここで、S103における「インジケータ表示要否判定処理」の詳細な動作について、図14を参照して説明する。図14に示したように、まず、音声解析部102は、S101で受信された音声の音声認識を行う(S201)。そして、音声解析部102は、音声認識の結果に基づいて、発話文章のモダリティ解析を行う(S203)。そして、応答を必要とするモダリティであると判定された場合には(S205:Yes)、出力制御部108は、インジケータの表示が必要であると判定する(S207)。そして、当該「インジケータ表示要否判定処理」は終了する。
次に、S107における「返信制限時間算出処理」の詳細な動作について、図15を参照して説明する。図15に示したように、まず、返信制限時間算出部106は、S201で解析された該当の音声の発話特性を取得する(S301)。続いて、返信制限時間算出部106は、音声テキストチャットユーザに関する例えば顔画像、視線の検出結果、または、行動認識結果などの、音声以外のセンシング情報を取得する(S303)。なお、これらのセンシング情報は、S101において端末20が発話の音声と一緒にサーバ10へ送信してもよいし、または、S303において端末20がサーバ10へ送信してもよい。
次に、S111における「インジケータ表示終了判定処理」の詳細な動作について、図16を参照して説明する。図16に示したように、まず、出力制御部108は、S101で検出された発話に関して、テキストチャットユーザが返信済みであるか否かを判定する(S401)。テキストチャットユーザが返信済みである場合には(S401:Yes)、出力制御部108は、インジケータの表示を終了させることを判定する(S403)。そして、当該「インジケータ表示終了判定処理」は終了する。
なお、第1の実施形態による動作は、上述した例に限定されない。例えば、図13に示したS107の処理は、S103よりも前に実行されてもよい。
以上説明したように、第1の実施形態によれば、音声チャットユーザとテキストチャットユーザとの間でメッセージが交換される場面において、サーバ10は、音声チャットユーザによる発話の検出に基づいて、音声チャットユーザの待ち状況を示す情報の出力を制御する。これにより、テキストチャットユーザは、メッセージの入力時において、音声チャットユーザの待ち状況を把握することができる。
なお、第1の実施形態は、上記の説明に限定されない。例えば、サーバ10がインジケータをテキストチャットユーザ側の表示部226bにのみ表示させる例について説明したが、かかる例に限定されず、サーバ10は、同じインジケータを音声チャットユーザ側の表示部226aにも表示させてもよい。これにより、音声チャットユーザは、テキストチャットユーザが閲覧しているインジケータの内容を把握することができる。
以上、第1の実施形態について説明した。上述したように、一般的に、テキストチャットでは、音声チャットと比較して、メッセージの入力に長時間を要する。そこで、音声チャットユーザとテキストチャットユーザとの間でチャットを行う場面におけるユーザビリティの低下を抑制するために、さらに、テキストチャットユーザの入力状況を音声チャットユーザが確認可能であることが望ましい。
次に、第2の実施形態によるサーバ10の構成について詳細に説明する。なお、第2の実施形態によるサーバ10に含まれる構成要素は第1の実施形態と同様である。以下では、第1の実施形態と異なる内容についてのみ説明を行う。
第2の実施形態による出力制御部108は、テキストチャットユーザによるテキストの入力状況に基づいて、音声チャットユーザが使用する端末20の音声出力部228にFB音声を出力させる。例えば、予め定められている音声FBタイミングになった場合には、出力制御部108は、FB音声を音声出力部228に出力させる。ここで、音声FBタイミングは、例えば、「メッセージの入力開始時」、「メッセージの入力中」、「メッセージの入力終了時」、および、「メッセージの送信時」などである。なお、「メッセージの入力中」は、例えば、VAD(Voice Activity Detection)により検出される(音声テキスト入力の)発話区間のうち、発話の音量が所定の閾値を超えたタイミングである。
以上、第2の実施形態による構成について説明した。次に、第2の実施形態による動作について、図17および図18を参照して説明する。図17に示したように、まず、テキストチャットユーザが使用する端末20bは、テキストチャットユーザにより音声テキスト入力が開始されるまで待機する(S501)。そして、テキストチャットユーザにより音声テキスト入力が開始された場合には(S501:Yes)、端末20bは、テキスト入力が開始されたことの通知をサーバ10へ送信する(S503)。
以上説明したように、第2の実施形態によるサーバ10は、テキストチャットユーザによるテキストの入力状況に基づいて、音声チャットユーザに対するFB音声の出力を制御する。このため、テキストチャットユーザからのメッセージを待っている際に、音声チャットユーザは、テキストチャットユーザの入力状況を確認することができる。従って、音声チャットユーザのユーザビリティの低下を抑制することができる。
以上、第2の実施形態について説明した。上述したように、第1の実施形態および第2の実施形態では、テキストチャットユーザが入力したメッセージは、TTS読み上げにより音声チャットユーザに伝達される。ところで、一般的に、TTS読み上げでは、テキストが平坦に読み上げられるので、読み上げの音声を聴くユーザは、情報を聞き逃しやすい。その結果、音声チャットユーザとテキストチャットユーザとの間においてコミュニケーションの円滑さが低下する場合がある。
次に、第3の実施形態によるサーバ10の構成について詳細に説明する。なお、第3の実施形態によるサーバ10に含まれる構成要素は第1の実施形態と同様である。
第3の実施形態による出力制御部108は、テキストチャットユーザにより入力されたメッセージからのキーワードの抽出に基づいて、音声チャットユーザに対して出力される当該メッセージの音声の出力態様を変化させる。
以上、第3の実施形態による構成について説明した。次に、第3の実施形態による動作について、図19を参照して説明する。図19に示したように、まず、テキストチャットユーザは、端末20bに対してメッセージを入力する(S601)。そして、端末20bは、入力されたメッセージをサーバ10へ送信する(S603)。
以上説明したように、第3の実施形態によるサーバ10は、テキストチャットユーザにより入力されたメッセージからのキーワードの抽出に基づいて、音声チャットユーザに対して出力される当該メッセージの音声の出力態様を変化させる。このため、音声チャットユーザは、該当のメッセージに含まれるキーワードをより確実に聞くことができる。その結果、例えば音声チャットユーザがテキストチャットユーザに対して聞き直す回数が減少するなど、円滑なコミュニケーションを実現することができる。
以上、第3の実施形態について説明した。ところで、音声チャットユーザとテキストチャットユーザとの間でチャットを行う場面では、通常、音声チャットユーザの発話時にテキストチャットユーザが音声を発したとしても、当該音声は音声チャットユーザに伝達されない。このため、音声チャットユーザは、例えば相槌などの、テキストチャットユーザが聞いていることを示す音声情報を得られないので、自然なコミュニケーションをし難く感じ得る。
次に、第4の実施形態によるサーバ10の構成について詳細に説明する。なお、第4の実施形態によるサーバ10に含まれる構成要素は第1の実施形態と同様である。
第4の実施形態による出力制御部108は、音声チャットユーザによる発話が検出された場合に、テキストチャットユーザが聞いているか否かの推定結果に基づいて、音声チャットユーザに対する、TTSによる相槌の音声の出力を制御する。例えば、音声チャットユーザによる発話が検出され、かつ、テキストチャットユーザが音声チャットユーザの発話を聞いていることが推定される場合には、出力制御部108は、TTSによる相槌の音声を音声チャットユーザ側の音声出力部228に出力させる。一例として、音声チャットユーザによる発話が検出された後において、音声チャットユーザの発話の音量が相対的に低下した際、または、音声チャットユーザの発話が途切れてから所定の時間が経過した際に、出力制御部108は、TTSによる相槌の音声を音声チャットユーザ側の音声出力部228に出力させる。
以上、第4の実施形態による構成について説明した。次に、第4の実施形態による動作について、図20を参照して説明する。図20に示したように、まず、音声チャットユーザが使用する端末20aは、音声チャットユーザによる発話が検出されるまで待機する(S701)。そして、音声チャットユーザによる発話が検出された場合には(S701:Yes)、端末20aは、検出した発話の音声をサーバ10へ逐次送信する(S703)。
なお、第4の実施形態による動作は、上述した例に限定されない。例えば、S707の処理が行われずに、端末20bはセンシング情報をサーバ10へ自動的に送信してもよい。例えば、端末20bは、センシング情報を常時取得し、そして、所定の時間間隔で、取得したセンシング情報をサーバ10へ送信してもよい。
以上説明したように、第4の実施形態によるサーバ10は、音声チャットユーザによる発話が検出された場合に、テキストチャットユーザが聞いているか否かの推定結果に基づいて、音声チャットユーザに対する、TTSによる相槌の音声の出力を制御する。このため、音声チャットユーザの発話をテキストチャットユーザが聞いていることを、音声チャットユーザに直感的に知らせることができる。従って、音声チャットユーザはより自然にコミュニケーションを行うことができる。
次に、各実施形態に共通するサーバ10のハードウェア構成について、図21を参照して説明する。図21に示すように、サーバ10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、ストレージ装置160、および、通信装置162を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
(1)
音声入力を使用する第1のユーザによる発話の検出に基づいて、テキスト入力を使用する第2のユーザからの返信に関する前記第1のユーザの待ち状況を示す情報の出力を制御する出力制御部、
を備え、
前記第1のユーザと前記第2のユーザとの間で、入力されたメッセージが交換される、情報処理装置。
(2)
前記第1のユーザの待ち状況を示す情報は、メッセージの返信制限時間を含む、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、所定の基準に基づいて前記メッセージの返信制限時間を算出する返信制限時間算出部をさらに備える、前記(2)に記載の情報処理装置。
(4)
前記所定の基準は、検出された前記第1のユーザの発話の特性を含む、前記(3)に記載の情報処理装置。
(5)
前記発話の特性は、発話の音量または話速を含む、前記(4)に記載の情報処理装置。
(6)
前記所定の基準は、検出された前記第1のユーザの発話に基づいた感情推定の結果を含む、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記所定の基準は、前記第1のユーザの状態に関するセンシング結果を含む、前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記所定の基準は、検出された前記第1のユーザの発話の音声認識の結果を含む、前記(3)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記第1のユーザの待ち状況を示す情報は、インジケータを含み、
前記インジケータは、前記メッセージの返信制限時間と、前記インジケータの表示開始時からの経過時間との差を示す、前記(2)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記出力制御部は、前記インジケータの表示開始時からの時間の経過に応じて、前記インジケータの表示態様を変化させる、前記(9)に記載の情報処理装置。
(11)
前記第1のユーザの待ち状況を示す情報は、検出された前記第1のユーザの発話に基づいた感情推定の結果を含む、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記出力制御部は、さらに、検出された前記第1のユーザの発話の音声認識の結果に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に開始させる、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記出力制御部は、さらに、前記音声認識の結果に対するモダリティ解析の結果に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に開始させる、前記(12)に記載の情報処理装置。
(14)
前記第1のユーザの待ち状況を示す情報の出力が開始された後に、前記出力制御部は、前記第2のユーザによるメッセージの入力に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に終了させる、前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記第1のユーザの待ち状況を示す情報の出力が開始された後に、前記出力制御部は、前記第1のユーザの待ち状況を示す情報の出力開始時からの経過時間に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に終了させる、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記出力制御部は、さらに、前記第1のユーザによる発話の検出後における、前記第2のユーザによるテキストの入力状況に基づいて、前記第1のユーザに対するフィードバック音声の出力を制御する、前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記出力制御部は、さらに、前記第2のユーザにより入力されたメッセージからのキーワードの抽出に基づいて、前記第1のユーザに対して出力される前記メッセージの音声の出力態様を変化させる、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記出力制御部は、前記第1のユーザによる発話の検出に基づいて、さらに、前記第1のユーザに対する相槌の音声の出力を制御する、前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
音声入力を使用する第1のユーザによる発話の検出に基づいて、テキスト入力を使用する第2のユーザからの返信に関する前記第1のユーザの待ち状況を示す情報の出力をプロセッサが制御すること、
を含み、
前記第1のユーザと前記第2のユーザとの間で、入力されたメッセージが交換される、情報処理方法。
(20)
コンピュータを、
音声入力を使用する第1のユーザによる発話の検出に基づいて、テキスト入力を使用する第2のユーザからの返信に関する前記第1のユーザの待ち状況を示す情報の出力を制御する出力制御部、
として機能させるための、プログラムであって、
前記第1のユーザと前記第2のユーザとの間で、入力されたメッセージが交換される、プログラム。
20 端末
30 通信網
100、200 制御部
102 音声解析部
104 感情推定部
106 返信制限時間算出部
108 出力制御部
120、230 通信部
122 記憶部
124 制限時間算出用DB
126 発話特性係数テーブル
128 センシング情報係数テーブル
130 指示代名詞有無係数テーブル
132 時間情報係数テーブル
220 集音部
222 操作部
224 測定部
226 表示部
228 音声出力部
Claims (20)
- 音声入力を使用する第1のユーザによる発話の検出に基づいて、テキスト入力を使用する第2のユーザからの返信に関する前記第1のユーザの待ち状況を示す情報の出力を制御する出力制御部、
を備え、
前記第1のユーザと前記第2のユーザとの間で、入力されたメッセージが交換される、情報処理装置。 - 前記第1のユーザの待ち状況を示す情報は、メッセージの返信制限時間を含む、請求項1に記載の情報処理装置。
- 前記情報処理装置は、所定の基準に基づいて前記メッセージの返信制限時間を算出する返信制限時間算出部をさらに備える、請求項2に記載の情報処理装置。
- 前記所定の基準は、検出された前記第1のユーザの発話の特性を含む、請求項3に記載の情報処理装置。
- 前記発話の特性は、発話の音量または話速を含む、請求項4に記載の情報処理装置。
- 前記所定の基準は、検出された前記第1のユーザの発話に基づいた感情推定の結果を含む、請求項3に記載の情報処理装置。
- 前記所定の基準は、前記第1のユーザの状態に関するセンシング結果を含む、請求項3に記載の情報処理装置。
- 前記所定の基準は、検出された前記第1のユーザの発話の音声認識の結果を含む、請求項3に記載の情報処理装置。
- 前記第1のユーザの待ち状況を示す情報は、インジケータを含み、
前記インジケータは、前記メッセージの返信制限時間と、前記インジケータの表示開始時からの経過時間との差を示す、請求項2に記載の情報処理装置。 - 前記出力制御部は、前記インジケータの表示開始時からの時間の経過に応じて、前記インジケータの表示態様を変化させる、請求項9に記載の情報処理装置。
- 前記第1のユーザの待ち状況を示す情報は、検出された前記第1のユーザの発話に基づいた感情推定の結果を含む、請求項1に記載の情報処理装置。
- 前記出力制御部は、さらに、検出された前記第1のユーザの発話の音声認識の結果に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に開始させる、請求項1に記載の情報処理装置。
- 前記出力制御部は、さらに、前記音声認識の結果に対するモダリティ解析の結果に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に開始させる、請求項12に記載の情報処理装置。
- 前記第1のユーザの待ち状況を示す情報の出力が開始された後に、前記出力制御部は、前記第2のユーザによるメッセージの入力に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に終了させる、請求項1に記載の情報処理装置。
- 前記第1のユーザの待ち状況を示す情報の出力が開始された後に、前記出力制御部は、前記第1のユーザの待ち状況を示す情報の出力開始時からの経過時間に基づいて、前記第1のユーザの待ち状況を示す情報の出力を出力部に終了させる、請求項1に記載の情報処理装置。
- 前記出力制御部は、さらに、前記第1のユーザによる発話の検出後における、前記第2のユーザによるテキストの入力状況に基づいて、前記第1のユーザに対するフィードバック音声の出力を制御する、請求項1に記載の情報処理装置。
- 前記出力制御部は、さらに、前記第2のユーザにより入力されたメッセージからのキーワードの抽出に基づいて、前記第1のユーザに対して出力される前記メッセージの音声の出力態様を変化させる、請求項1に記載の情報処理装置。
- 前記出力制御部は、前記第1のユーザによる発話の検出に基づいて、さらに、前記第1のユーザに対する相槌の音声の出力を制御する、請求項1に記載の情報処理装置。
- 音声入力を使用する第1のユーザによる発話の検出に基づいて、テキスト入力を使用する第2のユーザからの返信に関する前記第1のユーザの待ち状況を示す情報の出力をプロセッサが制御すること、
を含み、
前記第1のユーザと前記第2のユーザとの間で、入力されたメッセージが交換される、情報処理方法。 - コンピュータを、
音声入力を使用する第1のユーザによる発話の検出に基づいて、テキスト入力を使用する第2のユーザからの返信に関する前記第1のユーザの待ち状況を示す情報の出力を制御する出力制御部、
として機能させるための、プログラムであって、
前記第1のユーザと前記第2のユーザとの間で、入力されたメッセージが交換される、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016079571 | 2016-04-12 | ||
JP2016079571 | 2016-04-12 | ||
PCT/JP2017/002213 WO2017179262A1 (ja) | 2016-04-12 | 2017-01-24 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017179262A1 true JPWO2017179262A1 (ja) | 2019-02-14 |
JP6943237B2 JP6943237B2 (ja) | 2021-09-29 |
Family
ID=60042514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018511890A Active JP6943237B2 (ja) | 2016-04-12 | 2017-01-24 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11100944B2 (ja) |
JP (1) | JP6943237B2 (ja) |
KR (1) | KR20180134339A (ja) |
CN (1) | CN108885594B (ja) |
DE (1) | DE112017001987T5 (ja) |
WO (1) | WO2017179262A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7392259B2 (ja) * | 2018-12-04 | 2023-12-06 | 日本電気株式会社 | 学習支援装置、学習支援方法およびプログラム |
CN112786031B (zh) * | 2019-11-01 | 2022-05-13 | 思必驰科技股份有限公司 | 人机对话方法及系统 |
US11184362B1 (en) * | 2021-05-06 | 2021-11-23 | Katmai Tech Holdings LLC | Securing private audio in a virtual conference, and applications thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
JP2004170983A (ja) * | 2002-11-15 | 2004-06-17 | Samsung Electronics Co Ltd | 付加情報提供機能付きのテキスト/音声変換装置及びその方法 |
JP2008070994A (ja) * | 2006-09-12 | 2008-03-27 | Sharp Corp | メッセージ交換端末 |
JP2009003040A (ja) * | 2007-06-20 | 2009-01-08 | Univ Waseda | 音声対話装置、音声対話方法及びロボット装置 |
JP2014029670A (ja) * | 2012-06-25 | 2014-02-13 | Konami Digital Entertainment Co Ltd | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2661701B2 (ja) * | 1988-05-12 | 1997-10-08 | キヤノン株式会社 | 情報処理方法 |
JP2002123289A (ja) * | 2000-10-13 | 2002-04-26 | Matsushita Electric Ind Co Ltd | 音声対話装置 |
JP2004129174A (ja) | 2002-08-06 | 2004-04-22 | Ricoh Co Ltd | 情報通信装置、情報通信プログラム、及び記録媒体 |
US20080096533A1 (en) * | 2006-10-24 | 2008-04-24 | Kallideas Spa | Virtual Assistant With Real-Time Emotions |
US7895277B2 (en) * | 2007-10-17 | 2011-02-22 | International Business Machines Corporation | Conditional reminders for conveyed electronic messages |
US8442490B2 (en) * | 2009-11-04 | 2013-05-14 | Jeffrey T. Haley | Modify function of driver's phone during acceleration or braking |
JP2011253375A (ja) * | 2010-06-02 | 2011-12-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
RU2530267C2 (ru) * | 2012-11-28 | 2014-10-10 | Общество с ограниченной ответственностью "Спиктуит" | Способ коммуникации пользователя с информационной диалоговой системой |
US9306899B1 (en) * | 2015-02-27 | 2016-04-05 | Ringcentral, Inc. | System and method for determining presence based on an attribute of an electronic message |
WO2016189350A1 (en) * | 2015-05-23 | 2016-12-01 | Yogesh Chunilal Rathod | Calling to user(s) for real-time sharing, participation, e-commerce, workflow, communication & collaboration in the event of acceptance of call by caller user(s) |
US10262555B2 (en) * | 2015-10-09 | 2019-04-16 | Microsoft Technology Licensing, Llc | Facilitating awareness and conversation throughput in an augmentative and alternative communication system |
US10453449B2 (en) * | 2016-09-01 | 2019-10-22 | Amazon Technologies, Inc. | Indicator for voice-based communications |
US10580404B2 (en) * | 2016-09-01 | 2020-03-03 | Amazon Technologies, Inc. | Indicator for voice-based communications |
DK180130B1 (da) * | 2018-05-07 | 2020-06-02 | Apple Inc. | Multi-participant live communication user interface |
-
2017
- 2017-01-24 CN CN201780022151.9A patent/CN108885594B/zh not_active Expired - Fee Related
- 2017-01-24 KR KR1020187028289A patent/KR20180134339A/ko unknown
- 2017-01-24 US US16/077,607 patent/US11100944B2/en active Active
- 2017-01-24 DE DE112017001987.7T patent/DE112017001987T5/de active Pending
- 2017-01-24 WO PCT/JP2017/002213 patent/WO2017179262A1/ja active Application Filing
- 2017-01-24 JP JP2018511890A patent/JP6943237B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
JP2004170983A (ja) * | 2002-11-15 | 2004-06-17 | Samsung Electronics Co Ltd | 付加情報提供機能付きのテキスト/音声変換装置及びその方法 |
JP2008070994A (ja) * | 2006-09-12 | 2008-03-27 | Sharp Corp | メッセージ交換端末 |
JP2009003040A (ja) * | 2007-06-20 | 2009-01-08 | Univ Waseda | 音声対話装置、音声対話方法及びロボット装置 |
JP2014029670A (ja) * | 2012-06-25 | 2014-02-13 | Konami Digital Entertainment Co Ltd | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11100944B2 (en) | 2021-08-24 |
DE112017001987T5 (de) | 2018-12-20 |
JP6943237B2 (ja) | 2021-09-29 |
CN108885594B (zh) | 2022-03-11 |
US20210193168A1 (en) | 2021-06-24 |
WO2017179262A1 (ja) | 2017-10-19 |
CN108885594A (zh) | 2018-11-23 |
KR20180134339A (ko) | 2018-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101726945B1 (ko) | 수동 시작/종료 포인팅 및 트리거 구문들에 대한 필요성의 저감 | |
JP6058053B2 (ja) | 記録制御システム、システム及びプログラム | |
CN107825429B (zh) | 对话装置和方法 | |
CN107704169B (zh) | 虚拟人的状态管理方法和系统 | |
US20200236070A1 (en) | Information processing system and information processing method | |
WO2016089594A2 (en) | Conversation agent | |
JP6585733B2 (ja) | 情報処理装置 | |
CN113287175B (zh) | 互动式健康状态评估方法及其系统 | |
WO2017179262A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN109147780A (zh) | 自由聊天场景下的语音识别方法及系统 | |
WO2013071738A1 (zh) | 一种个人专用生活协助装置和方法 | |
WO2016206642A1 (zh) | 机器人的控制数据的生成方法及装置 | |
JP6598227B1 (ja) | 猫型会話ロボット | |
JP2014149571A (ja) | コンテンツ検索装置 | |
CN110196900A (zh) | 用于终端的交互方法和装置 | |
JP7474211B2 (ja) | ユーザから発話された名詞を忘却する対話プログラム、装置及び方法 | |
JP7123028B2 (ja) | 情報処理システム、情報処理方法、及びプログラム | |
EP4006900A1 (en) | System with speaker representation, electronic device and related methods | |
KR20190023610A (ko) | 회의 중 휴식 시간 제안 방법, 전자장치 및 시스템 | |
JP2023091218A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2020024556A (ja) | 情報処理システム、端末装置、情報処理装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6943237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |