JP7252690B2 - 会話処理装置、会話処理システム、会話処理方法及びプログラム - Google Patents
会話処理装置、会話処理システム、会話処理方法及びプログラム Download PDFInfo
- Publication number
- JP7252690B2 JP7252690B2 JP2018072745A JP2018072745A JP7252690B2 JP 7252690 B2 JP7252690 B2 JP 7252690B2 JP 2018072745 A JP2018072745 A JP 2018072745A JP 2018072745 A JP2018072745 A JP 2018072745A JP 7252690 B2 JP7252690 B2 JP 7252690B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- conversation
- input
- response sentence
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
また、会話を継続させるために新たな話題への転換を含めて誘導する応答も行う。
しかし、ELIZAはユーザの入力内容と同じ内容を応答することや、会話の継続のために話題を広げたりするので、ユーザの抱える悩みや課題に焦点を絞って具体化し、精神的な深い悩みや課題を解決することは困難であると考えられる。
(会話処理装置、会話処理システム)
図1は、第1の実施形態による会話処理システムの一例を示す機能ブロック図である。図1に示すように、会話処理システム100は少なくとも会話処理装置1を備える。会話処理装置1は、少なくとも出力応答文作成部60を備え、音声認識部12、判断部(自然言語要素抽出不良判断部)80、応答文選択部94、学習部92、及び音声生成部13をさらに備える。会話処理システム100は、会話処理装置1に加えて、入力装置2と、記憶装置3と、出力装置4と、を備える。記憶装置3は、入力文記憶部30、応答文記憶部40、及びログ記憶部91を備える。
入力装置2によって取得された視線、表情、身体動作、発声変化等の身体情報や発熱、脈拍、脳波等の生体信号に基づき、出力応答文作成部60はユーザの感情やその変化を推定する。感情を推定する方法としては特に限定されず、既知の方法を用いることができる。
また、入力文記憶部30は後述するログ記憶部91の機能を兼ねていてもよく、以後特に言及しない限り、入力文記憶部30は、ログ記憶部91の機能を兼ねているものとして説明する。
<例1>
ユーザ音声(発言):「就職活動で悩んでいます。」
→ (就職活動,名詞,シュウショクカツドウ)(で,助詞,デ)(悩ん,動詞,ナヤン)(で,助詞,デ)(い,動詞,イ)(ます,助動詞,マス)
<例2>
ユーザ音声(発言):「自分はSEの仕事をしたい。」
→ (自分,名詞,ジブン)(は,助詞,ハ)(SE,名詞,エスイー)(の,助詞,ノ)(仕事,名詞,シゴト)(し,動詞,シ)(たい,助動詞,タイ)
また、ユーザの音声から抽出された自然言語テキストには、目的、願望、手段、理由、帰結感情等を示すタグが付加され、入力文記憶部30に記憶される。
また、ユーザの音声と同期して取得された環境情報がある場合には、喜怒哀楽の感情等のタグをさらに付加して入力文記憶部30に記憶される。
再入力送信出力とは、例えば、「フムフム」等の音声や動作での相槌や、確認窓等のディスプレイの一部にテキストを表示したり、頷き等の動作を表示させたりする出力のことである。
また、会話内容具体化用応答文は、ユーザが抱える悩みや課題の焦点を絞り、ユーザに問題を気付かせ易くする効果を有する問題焦点化用応答文としての機能も有する。
また、共感用応答文、確認促進用応答文、会話内容具体化用応答文は、ユーザを退屈させないために、類似の意味のものであっても複数用意することが好ましい。
また、共感用応答文、確認促進用応答文、会話内容具体化用応答文は文章であってもよく、一語以上の語句であってもよい。
また、共感用応答文、確認促進用応答文、会話内容具体化用応答文、は複数の種類から所定のルールに基づいて選択されるものであってもよい。
例えば、二人称表現語句を省略して出力応答文を作成する場合、前述の形態素解析の例<例2>では、二人称表現語句に言い換えられる一人称表現語句は、(自分)、(は)の2つである。
<例3>
ユーザ音声(発言):「自分はSEの仕事をしたいがプログラムが苦手なので就職できるか不安です。」
出力応答文:「SEの仕事をしたいがプログラムが苦手なので就職できるか不安なんですね。もう少し詳しくお話しください。」
条件発火ルール:
・条件文…
[ur‘自分は( (?:SE)|(?:PM)|(?:プログラマ)|(?:システム開発者)@1)(.*@2 )たいが(.*@3)ので( (?:就職)|(?:入社)|(?:卒業)|(?:合格)@4 )(.*@5)((?:不安)|(?:心配)|(?:気がり)@6 )(.*@7)’
(なお、上述の@nは説明用の記述でコーディング文には存在しない記述、uはユニコード、rはレギュラーエクスプレッションを示す。)
・ログ文…
[u"うんうん%1%2たい[目的]が%3[障害]ので%4[結果]%5%6なんですね。もう少し詳しくお話しください。",
u"ふむふむ%1%2たい[目的]が%3[障害]ので%4[結果]%5%6%7ね。%4%5%6についてもっとお話しください。,
u"%1%2たい[目的]が%3[障害]ので%4[結果]%5%6%7ね。%3ので%4%5%6について具体的にお話しください。"]
さらに、前述の<例3>のように、ユーザ自身の気付きを容易にするための「ですね」等の確認促進用応答文を用いて、話し相手であるユーザを尊重して、ユーザの言動を強調する。
このような省略処理、及び、応答文付加処理によって入力文から主旨を示す語句を抽出し、主旨を示す出力応答文を構成することで、ユーザはストレスなく、自然に会話でき、また入力文を印象付ける、あるいは確認を強化して共感・継続や気付きの効果を高めることができる。
<例4>
ユーザ音声(発言):「私はSEになりたいがプログラムができないので不安です。」
出力応答文:「SEになりたいがプログラムができないので不安なんだ。」/「SEになりたいがプログラムができないので不安なのですね。」
<例5>
ユーザ音声(発言):「私は彼を嗜めた。」
出力応答文:「彼を嗜めたんですね。」
<例6>
ユーザ音声(発言):「私はSEになりたいが、先輩に“君はプログラムができないから厳しい”と言われたので、悩んでいます。」
出力応答文:「SEになりたいが、先輩に“プログラムができないから厳しい”と言われたので、悩んでいるんだ。」/「SEになりたいが、先輩に“プログラムができないから厳しい”と言われたので、悩んでいるのですね。」
<例7>
ユーザ音声(発言):「私はSEになりたいがプログラムができないので不安です。」
出力応答文:「ふむふむ、SEになりたいがプログラムができないので不安なのですね。もう少し詳しくお話しください。」
<例8>
ユーザ音声(発言):「A社に入りたいがプログラムをあまり上手く書けないので不安です。」
出力応答文:「A社に入りたいがプログラムを書けないので不安なのですね。」
なお、<例8>では、入力文記憶部30では、ユーザの音声(発言)が「A社に入りたい[目的]がプログラムを上手く(書け)ないので[理由]不安です[帰結感情]。」という形で解析及びタグ付けされ、「A社に入りたいがプログラムを書けないので不安です」という主旨の入力文として記憶される。
ログ記憶部91は、入力文記憶部30の機能を兼ねてもよい。
<例9>
ユーザ音声(発言):「私はSEになりたいがプログラムができないので不安です。」
出力応答文:「前に“SEになりたいが先輩にプログラムができないから厳しいと言われたので悩んでいる”と言っていましたね。」
N3回の会話以内に過去の発言の主旨が述べられた場合は、現在(すなわち直前の)発言の主旨と会話継続用(トピック具体化用)応答を提示する出力応答文を作成し、かつ出力応答文をログ記憶部91へのロギングに追加する。
また、出力応答文作成部60は、ログ記憶部91を参照し、入力文が例えば目的を表す既入力文と一致すると判断したときに、その目的を表す既入力文のさらに前にユーザが発した関連する既入力文を含めた出力応答文を作成することもできる。
以下に、このような出力応答文の一例を示す。
<例10>
ユーザ音声(発言):「A社に入りたいがシステム開発ができないので不安です。」
出力応答文:「ふむふむ、A社に入りたいがシステム開発ができないので不安なのですね。もう少し詳しくお話しください。」
ユーザ音声(発言):「プログラムを作るのが遅いのです」
出力応答文:「うんうん、プログラムを作るのが遅いのですね。もっと具体的に。」
ユーザ音声(発言):「プログラム演習で提出が大抵ビリなんです」
出力応答文:「プログラム演習で提出がビリとシステム開発ができないが関係するのですね。それで。」
音声生成部13は、内容か応答回数に応じて、出力応答文を音質差や抑揚差を変化させた音声情報に変換してもよい。これにより、ユーザの感情への働きかけが強化できる。
出力装置4は、音声情報又は視覚情報をユーザが知覚できるよう出力するための装置である。
出力装置4は、音声生成部13から出力された音声情報を音声として出力する。この場合、出力装置4は、例えばスピーカーで構成される。また、出力応答文作成部60から出力された出力応答文を文字等の視覚情報として出力する場合には、出力装置4は、例えば液晶モニタで構成される。
第1の実施形態の会話処理方法は、上述の会話処理装置1及び会話処理システム100によって実行される。上述の会話処理装置1及び会話処理システム100は、第1の実施形態の会話処理プログラムがインストールされたコンピュータで構成され、ユーザの支援者(エージェント)として機能している。
次に、本発明の第2の実施形態について説明する。
図4は、第2の実施形態による会話処理システム110の一例を示すブロック図である。図4に示すように、会話処理システム110は、少なくとも会話処理装置1を備える。また、第2の実施形態による会話処理装置1及び会話処理システム110は、第1の実施形態による会話処理装置1及び会話処理システム100と部分的に同様の構成を備えている。そのため、以下の説明では第2の実施形態による会話処理装置1及び会話処理システム110において第1の実施形態とは異なる構成を主体に説明し、第1の実施形態と共通する構成については同一の符号を付し、その説明を省略する。
出力部4Xは、第1の実施形態で説明した出力装置4と同様の機能を有するが、第2の実施形態では出力応答文に合わせて動く頭(頭部)121、首125、胴体(胴体部)131、手(手部)132、脚(脚部)133を備える。図5に示すように、頭121は、可動性を備えた目(目部)122、耳(耳部)123、鼻(鼻部)124、口(口部)126を有し、さらに装飾的な構成として髭、髪等を有する。また、会話処理システム110は、目122、耳123、鼻124、髭等を動かすサーボメータ(図示略)を備え、環境情報を取得する環境入力部2Zとして、カメラ、入力ボタン、脈派計、体温計、視線検出装置などの入力装置(図示略)、入力された音声データ、脈派・脈拍データ、体温、視線データを出力するための表示装置(図示略)を備える。すなわち、会話処理システム110は、所謂ロボット型のシステムである。これらは全て含まれていてもよいが、一部のみで構成されていてもよい。
第2の実施形態の会話処理方法は、基本的に第1の実施形態の会話処理方法と同様であり、図2のフローチャートに示す手順に従う。そのため、以下の説明では第2の実施形態による会話処理方法において第1の実施形態とは異なる手順・内容を主体に説明し、第1の実施形態と共通する内容についてはその説明を省略する。
また、口126がスピーカーを備えず、単に開閉を行うのみの機能を有している場合には、ロボット装置6の近傍に設けられたスピーカー等から音声を発してもよい。
この場合、入力部2Xや出力部4Xはそれぞれロボット装置6近傍に設けられたマイク、スピーカー等で構成されるが、出力部4Xから出力される音声に合わせて、音声に伴う各種の動きを仮想的に表現された頭121、胴体131、手132、脚133、目122、耳123、鼻124、首125、口126で表現する。
このように、頭121、胴体131、手132、脚133等を含む身体のうち少なくとも一部を仮想的に表現することで、実体としてのロボットが身近にない環境であっても、ネットワークを介して会話することができる。
また、ユーザが親近感を持つように、ユーザの好みに合わせてロボット装置6の外見を容易に変更することができる。
また、第2の実施形態による会話処理装置1及び会話処理システム110は、出力応答文に合わせて動く頭121、胴体131、手132、脚133を備える。頭121は、目122、耳123、鼻124、首125、口126を有し、会話処理システム110は環境入力部4Zをさらに備える。このような構成によれば、ユーザにより一層寄り添い、様々な入力形態及び出力形態を備え、かつ幅広い応答内容を表現可能な会話処理システムを実現できる。
2…入力装置
4…出力装置
30…入力語記憶部
40…応答文記憶部
60…出力応答文作成部
80…判断部(自然言語要素抽出不良判断部)
100,110…会話処理システム
Claims (11)
- ユーザの発言に含まれる自然言語要素の少なくとも一部を入力文とし、
前記入力文の語尾に前記発言内容の確認を促進する確認促進用応答文が接続された確認促進用応答文付き入力文、前記発言に対する共感を示す共感用応答文、及び、前記ユーザとの会話内容を具体化する会話内容具体化用応答文のいずれか1つ以上を含む、かつ、過去の会話のやり取りの所定の回数以内に初めての或いは異なる感情語の出現を含む変化があれば変化を提示する応答文に基づいて出力応答文を作成する出力応答文作成部を備えることを特徴とする会話処理装置。 - 前記出力応答文作成部は、前記ユーザ自身を示す二人称表現語句、修飾語、及び、述語、のいずれか1つ以上を省略したりして前記出力応答文を作成し、終了定型文(例えば「すっきりした」「できそうな気がする」)を含め、問題が解決した徴候(例えば一定量以上の感情好転変化)が、会話中にあれば、「良かったですね」を含む終了応答文を出力して会話を終了し、
会話中になければ、前記出力応答文作成部は、前記出力応答文を出力する、
請求項1に記載の会話処理装置。 - 前記発言からの前記自然言語要素の抽出の不良を抽出結果である前記入力文からNグラムやニューラルネットワークの言語モデルによる日本語文予測器を用いて自動検出・自動修正し、自動修正しきれず前記不良が検出された際に前記ユーザに再度の発言を求める自然言語要素抽出不良判断部をさらに備える、
請求項1又は請求項2に記載の会話処理装置。 - 請求項1から請求項3のいずれか一項に記載の会話処理装置と
前記発言に含まれる前記自然言語要素を抽出し、その少なくとも一部を前記入力文として記憶する入力文記憶部と、
前記入力文を含むユーザの過去の会話内容を記録するログ記憶部と、
前記出力応答文が各々複数種類記憶されている応答文記憶部と、
そこから読み出された応答文を選択する応答文選択部
を備え、
前記出力応答文作成部は、前記入力文記憶部及び前記ログ記憶部から前記入力文を読み出すと共に、前記応答文記憶部から前記共感用応答文、前記入力文と前記入力文に接続した前記確認促進用応答文、前記会話内容具体化用応答文を各々複数種類読み出し応答文選択部で選択して前記出力応答文を編成・作成し出力し、
応答文選択部は応答文の出力の順番を確率、ファジールールによって、さらにはニューラルネット、深層学習、遺伝的アルゴリズムを含む学習機や学習辞書によって出力する前記応答文やその種類を制御可能、また、自然言語テキストに付加されたタグ情報を用いて出力応答文を選択する選択することも含め、出力する前記応答文やその種類を柔軟に選択し、ユーザを退屈させず会話を促進し、
悩み解決や願望の達成に必要な会話継続を容易にすることを特徴とする会話処理システム。 - 前記ユーザの発言が入力される入力装置と、
前記出力応答文を音声情報または視覚情報として出力する出力装置と、
をさらに備える、
請求項4に記載の会話処理システム。 - 前記入力装置は、ユーザの入力側の環境情報を取得し、
前記出力応答文作成部は、前記環境情報に基づいて感情やその変化を推定することにより前記出力応答文を作成することを特徴とする、
請求項5に記載の会話処理システム。 - 前記入力文記憶部及び前記ログ記憶部は、前記ユーザの現発言、正確には本処理に入る直前の発言を入力文、(一定回数以上)過去の会話時の前記ユーザの発言を既入力文として記憶し、
前記出力応答文作成部は、前記入力文が、前記既入力文の語句のタグにおいて前記願望や前記願望の達成障害・達成手段として一致する、すなわち関係すると判断したときに、前記既入力文に関係し対応する応答文である過去応答文と、前記既入力文と、(前記ユーザに気付きを与えやすくする)前記願望や前記願望の達成障害・達成手段において両者が関係することの提示と、前記確認促進用応答文の提示を含む前記出力応答文を作成する、
さらに、出力応答文作成で、主旨を簡潔にして強調するために、前記願望やその達成障害・達成手段に関する一部の語句を指示詞(例えば「それ」、「あれ」、「これ」)に置換する処理を行える、
請求項4から請求項6のいずれか一項に記載の会話処理システム - 前記出力応答文に合わせて動く頭部、胴体部、手部、及び、脚部のいずれか一以
上をさらに備える、
請求項4から請求項7のいずれか一項に記載の会話処理システム。 - 前記頭部、前記胴体部、前記手部、及び、前記脚部、のいずれか一以上が仮想的に表現されたものであることを特徴とし、かつ、非言語情報からもユーザの感情が識別され出力応答文作成部に送信される、
請求項8に記載の会話処理システム。 - ユーザの発言に含まれる自然言語要素を抽出して入力文を取得する入力文取得ステップと、
前記入力文の語尾に前記発言の内容の確認を促進する確認促進用応答文が接続された確認促進用応答文付き入力文、前記発言に対する共感を示す共感用応答文、及び、前記ユーザとの会話の内容を具体化する会話内容具体化用応答文のいずれか一以上を含む、かつ、過去の会話のやり取りの所定の回数以内に初めての或いは異なる感情語の出現を含む変化があれば変化を提示する応答文を用いて出力応答文を作成する出力応答文作成ステップと、
を含むことを特徴とする会話処理方法。 - ユーザの発言に含まれる自然言語要素を抽出して入力文を取得する入力文取得ステップと、
前記入力文の語尾に前記発言の内容の確認を促進する確認促進用応答文が接続された確認促進用応答文付き入力文、前記発言に対する共感を示す共感用応答文、及び、前記ユーザとの会話の内容を具体化する会話内容具体化用応答文のいずれか1つ以上を含む、かつ、過去の会話のやり取りの所定の回数以内に初めての或いは異なる感情語の出現を含む変化があれば変化を提示する応答文を用いて出力応答文を作成する出力応答文作成ステップと、
を実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072745A JP7252690B2 (ja) | 2018-04-04 | 2018-04-04 | 会話処理装置、会話処理システム、会話処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072745A JP7252690B2 (ja) | 2018-04-04 | 2018-04-04 | 会話処理装置、会話処理システム、会話処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185230A JP2019185230A (ja) | 2019-10-24 |
JP7252690B2 true JP7252690B2 (ja) | 2023-04-05 |
Family
ID=68341200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018072745A Active JP7252690B2 (ja) | 2018-04-04 | 2018-04-04 | 会話処理装置、会話処理システム、会話処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7252690B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021071883A (ja) * | 2019-10-30 | 2021-05-06 | 株式会社感性リサーチ | 情報処理システム、情報処理方法及びプログラム |
KR102390068B1 (ko) * | 2020-04-02 | 2022-04-26 | 한국과학기술연구원 | 감정표현을 시각적으로 나타낼 수 있는 챗봇 시스템 |
CN111768773B (zh) * | 2020-05-26 | 2023-08-29 | 同济大学 | 一种智能决策会议机器人 |
CN112001248B (zh) * | 2020-07-20 | 2024-03-01 | 北京百度网讯科技有限公司 | 主动交互的方法、装置、电子设备和可读存储介质 |
JPWO2022176808A1 (ja) * | 2021-02-17 | 2022-08-25 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200125A (ja) | 1998-12-30 | 2000-07-18 | Fuji Xerox Co Ltd | インタフェ―ス |
JP2008039928A (ja) | 2006-08-02 | 2008-02-21 | Xanavi Informatics Corp | 音声対話装置および音声対話プログラム |
JP2009193448A (ja) | 2008-02-15 | 2009-08-27 | Oki Electric Ind Co Ltd | 対話システム、方法及びプログラム |
US20140136187A1 (en) | 2012-11-15 | 2014-05-15 | Sri International | Vehicle personal assistant |
JP2014229180A (ja) | 2013-05-24 | 2014-12-08 | 学校法人東京電機大学 | 内省支援装置、内省支援方法、内省支援プログラム、対話装置、対話方法および対話プログラム |
JP2017204023A (ja) | 2016-05-09 | 2017-11-16 | トヨタ自動車株式会社 | 会話処理装置 |
JP2017213612A (ja) | 2016-05-30 | 2017-12-07 | トヨタ自動車株式会社 | ロボットおよびロボットの制御方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3454897B2 (ja) * | 1994-01-31 | 2003-10-06 | 株式会社日立製作所 | 音声対話システム |
-
2018
- 2018-04-04 JP JP2018072745A patent/JP7252690B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200125A (ja) | 1998-12-30 | 2000-07-18 | Fuji Xerox Co Ltd | インタフェ―ス |
JP2008039928A (ja) | 2006-08-02 | 2008-02-21 | Xanavi Informatics Corp | 音声対話装置および音声対話プログラム |
JP2009193448A (ja) | 2008-02-15 | 2009-08-27 | Oki Electric Ind Co Ltd | 対話システム、方法及びプログラム |
US20140136187A1 (en) | 2012-11-15 | 2014-05-15 | Sri International | Vehicle personal assistant |
JP2014229180A (ja) | 2013-05-24 | 2014-12-08 | 学校法人東京電機大学 | 内省支援装置、内省支援方法、内省支援プログラム、対話装置、対話方法および対話プログラム |
JP2017204023A (ja) | 2016-05-09 | 2017-11-16 | トヨタ自動車株式会社 | 会話処理装置 |
JP2017213612A (ja) | 2016-05-30 | 2017-12-07 | トヨタ自動車株式会社 | ロボットおよびロボットの制御方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019185230A (ja) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7252690B2 (ja) | 会話処理装置、会話処理システム、会話処理方法及びプログラム | |
US10977452B2 (en) | Multi-lingual virtual personal assistant | |
JP7064018B2 (ja) | 複数の年齢グループおよび/または語彙レベルに対処する自動化されたアシスタント | |
JP7022062B2 (ja) | 統合化された物体認識および顔表情認識を伴うvpa | |
Adiani et al. | Career interview readiness in virtual reality (CIRVR): a platform for simulated interview training for autistic individuals and their employers | |
Delgado et al. | Spoken, multilingual and multimodal dialogue systems: development and assessment | |
Brinkschulte et al. | The EMPATHIC project: building an expressive, advanced virtual coach to improve independent healthy-life-years of the elderly | |
Dhanjal et al. | An automatic conversion of Punjabi text to Indian sign language | |
Koutamanis et al. | Shared representations in cognate comprehension and production: An online picture naming and lexical decision study with bilingual children | |
Garay-Vitoria et al. | Application of an ontology-based platform for developing affective interaction systems | |
Terkourafi | On de-limiting context | |
Sakurai et al. | VICA, a visual counseling agent for emotional distress | |
Dybala et al. | Evaluating subjective aspects of HCI on an example of a non-task oriented conversational system | |
O'Dwyer et al. | Affective computing using speech and eye gaze: a review and bimodal system proposal for continuous affect prediction | |
Gómez-Zaragozá et al. | Linguistic Indicators of Depressive Symptoms in Conversations with Virtual Humans | |
Ots | Cognitive constraints on advance planning of sentence intonation | |
Bianquin et al. | Enhancing communication and participation using AAC technologies for children with motor impairments: a systematic review | |
Amini et al. | Modeling Rapport for Conversations About Health with Autonomous Avatars from Video Corpus of Clinician-Client Therapy Sessions | |
Schnadt | Lexical influences on disfluency production | |
Rudge | Situating simultaneity: an initial schematization of the lexicogrammatical rank scale of British Sign Language | |
Desai et al. | Understanding and Enhancing The Role of Speechreading in Online d/DHH Communication Accessibility | |
Ohno et al. | Collection of responsive utterances to show attentive hearing attitude to speakers | |
US12093655B1 (en) | Systems and methods for communication prosthetic | |
Abbas | Improving Arabic Sign Language to support communication between vehicle drivers and passengers from deaf people | |
Mlakar et al. | Chapter Can Turn-Taking Highlight the Nature of Non-Verbal Behavior: A Case Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180427 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220510 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20220608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221231 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7252690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |