JP7248615B2 - 出力装置、出力方法及び出力プログラム - Google Patents

出力装置、出力方法及び出力プログラム Download PDF

Info

Publication number
JP7248615B2
JP7248615B2 JP2020050046A JP2020050046A JP7248615B2 JP 7248615 B2 JP7248615 B2 JP 7248615B2 JP 2020050046 A JP2020050046 A JP 2020050046A JP 2020050046 A JP2020050046 A JP 2020050046A JP 7248615 B2 JP7248615 B2 JP 7248615B2
Authority
JP
Japan
Prior art keywords
user
information
utterance
emotion
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020050046A
Other languages
English (en)
Other versions
JP2021149664A (ja
Inventor
孝太 坪内
照彦 寺岡
秀仁 五味
潤一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2020050046A priority Critical patent/JP7248615B2/ja
Priority to US17/198,139 priority patent/US11749270B2/en
Publication of JP2021149664A publication Critical patent/JP2021149664A/ja
Application granted granted Critical
Publication of JP7248615B2 publication Critical patent/JP7248615B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、出力装置、出力方法及び出力プログラムに関する。
従来、音声対話によりインターネット上から所望の情報を検索したり、宅内の家電機器を制御したりする音声対話装置が知られている。例えば、音声対話装置は、対話型の音声操作に対応するAI(Artificial Intelligence)アシスタント機能を利用可能な装置であり、スマートスピーカと呼ばれる。利用者は、スマートスピーカと対話することで様々な情報を取得する。
特開2017-107078号公報
しかしながら、上記の従来技術では、所定の条件を満たす情報を適切に除去することができるとは限らない。例えば、上記の従来技術では、スマートスピーカが出力した音声のうち、利用者のプライバシを考慮して除去する必要がある音声を適切に除去することができるとは限らなかった。
本願は、上記に鑑みてなされたものであって、所定の条件を満たす情報を適切に除去することができる出力装置、出力方法及び出力プログラムを提供することを目的とする。
本願に係る出力装置は、所定の検知装置により検知された検知情報から、利用者の感情を推定する推定部と、推定された前記利用者の感情に基づいて、変更対象とする情報を決定する決定部と、前記変更対象とされた情報を変更するための情報を出力する出力部とを有することを特徴とする。
実施形態の一態様によれば、所定の条件を満たす情報を適切に除去することができるという効果を奏する。
図1は、実施形態に係る出力装置が実行する出力処理の一例を示す図である。 図2は、実施形態に係る出力システムの構成例を示す図である。 図3は、実施形態に係る発言履歴データベースの一例を示す図である。 図4は、実施形態に係る情報処理装置が実行する情報処理の流れの一例を示すフローチャートである。 図5は、実施形態に係る出力装置が実行する出力処理の流れの一例を示すフローチャートである。 図6は、出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る出力装置、出力方法及び出力プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力装置、出力方法及び出力プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.出力装置が示す出力処理の一例〕
まず、図1を用いて、出力装置200が実行する出力処理の一例について説明する。図1は、実施形態に係る出力装置200が実行する出力処理の一例を示す図である。図1の例では、利用者U1~U3が会議中である例を示す。この場合、利用者U1が他の利用者U2及びU3に対して侮辱する発言を発話するものとする。ここで、出力装置200が侮辱する発言を除く処理を実行する。また、図1の例では、利用者U1が利用者U2に対して発話した時間から、所定の時間経過した後に、利用者U1が利用者U3に対して発話するものとする。
なお、出力装置200は、周囲の音を取得するマイクと、任意の音を出力可能なスピーカとを有する入出力装置であり、例えば、スマートスピーカと呼ばれるデバイスであるものとして説明する。
ここで、出力装置200は、利用者U1の感情を取得し、取得した感情に基づいて、利用者U1の発言のうち変更すべき範囲を特定する。例えば、出力装置200は、利用者U1の感情と対応するコンテキストを有する発言部分を変更すべき範囲として特定する。そして、出力装置200は、特定した範囲の発言部分を遮蔽するための情報を出力する。
図1に示すように、出力装置200は、利用者U1の発言や、生体情報を取得する(ステップS1)。例えば、出力装置200は、利用者U1の発言として、「利用者U2、お前は、ABCD!!!」といった発言が示す音声を取得する。この場合、出力装置200は、「利用者U2、お前は、ABCDだ!!!」を示す音声の波形情報を取得する。
例えば、利用者U1によってウェアラブルデバイス等の端末装置が利用されているものとする。この場合、出力装置200は、利用者U1の生体情報として、ウェアラブルデバイスから取得される生体情報を取得する。ここで、生体情報とは、利用者に関する如何なる情報であってもよく、例えば、体温、匂い、汗、心拍数又は脳波等に関する情報である。
例えば、ウェアラブルデバイスは、常時、又は、断続的(例えば、1分間毎)に、利用者U1の心拍数に関する情報を取得する。なお、ウェアラブルデバイスは、出力装置200と通信可能であるものならば、如何なる形状であってもよい。例えば、ウェアラブルデバイスは、耳に装着可能なウェアラブルデバイス、指に装着可能なウェアラブルデバイス又はリストバンド型のウェアラブルデバイス等である。
続いて、利用者U1は、利用者U2に対して対象発言を行う(ステップS2)。例えば、利用者U1は、利用者U2に対して、「利用者U2、お前は、ABCDだ!!!」といった発言を発話する。ここで、対象発言が「ABCD」であるものとする。
そして、情報処理装置100は、利用者の発言や、生体情報を出力装置200から取得する(ステップS3)。例えば、情報処理装置100は、利用者U1の発言として、「利用者U2、お前は、ABCDだ!!!」が示す音声を出力装置200から取得する。また、情報処理装置100は、利用者U1の生体情報として、利用者U1の心拍数に関する情報を取得する。
続いて、情報処理装置100は、生体情報を用いて、対象発言を発話するまでの所定の期間内における感情を推定する(ステップS4)。例えば、情報処理装置100は、機械学習等の従来技術を用いて、各利用者の心拍数に関する情報と、心拍数に関する情報に対応付けられる喜怒哀楽に関する情報とを学習することで、心拍数に関する情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデルを生成する。そして、情報処理装置100は、利用者U1によって対象発言が発話されるまでの所定の期間内の利用者U1の心拍数に関する情報を感情推定モデルに入力することで、利用者U1の感情を推定する。例えば、情報処理装置100は、所定の期間内に利用者U1の平常時の心拍数より高い心拍数であった場合に、感情推定モデルを用いて、利用者U1が怒っていると推定する。なお、上記例では、情報処理装置100が感情推定モデルを用いて、利用者の感情を推定する推定処理を例に挙げて説明したが、これに限定されなくともよい。例えば、情報処理装置100は、対象発言と、利用者の感情とが予め設定されたポリシに従って、利用者の感情を推定してもよい。例えば、対象発言と、利用者の感情に関する情報とが対応付けられてデータベースに予め記憶されているものとする。この場合、情報処理装置100は、利用者によって発話された発言が、データベースに記憶された対象発言と一致するか否かを判定する。そして、情報処理装置100は、利用者によって発話された発言がデータベースに記憶された対象発言と一致する場合に、対象発言と対応付けられて記憶された感情を、利用者の感情と推定してもよい。
また、情報処理装置100は、推定した感情が有する特徴を学習した予測モデルを生成する(ステップS5)。例えば、情報処理装置100は、機械学習等の従来技術を用いて、推定した利用者の感情に関する情報と、対象発言が示す音声の波形情報とを学習することで、推定した利用者の感情に関する情報が入力された場合に、対象発言が発話される確率を出力する予測モデルを生成する。
また、情報処理装置100は、機械学習等の従来技術を用いて、推定した利用者の感情に関する情報と、対象発言の前に位置する発言である事前発言が示す音声の波形情報と、対象発言が示す音声の波形情報とを学習することで、推定した利用者の感情に関する情報と、事前発言が示す音声の波形情報とが入力された場合に、対象発言が発話される確率を出力する予測モデルを生成してもよい。
また、情報処理装置100は、対象発言の逆位相の音声を生成する(ステップS6)。具体的には、情報処理装置100は、対象発言を除去するために、対象発言が示す音声の波形情報を打ち消す逆位相の波形情報を生成する。例えば、情報処理装置100は、ノイズキャンセル等で用いられる従来技術によって、対象発言「ABCD」が示す音声の波形情報から逆位相の波形情報を生成する。
そして、情報処理装置100は、各種モデルと逆位相の音声とを出力装置200に提供する(ステップS7)。例えば、情報処理装置100は、心拍数に関する情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデルと、推定した利用者の感情に関する情報が入力された場合に、対象発言が発話される確率を出力する予測モデルと、対象発言「ABCD」が示す音声の逆位相の波形情報とを出力装置200に提供する。また、情報処理装置100は、推定した利用者の感情に関する情報と、事前発言が示す音声の波形情報とが入力された場合に、対象発言が発話される確率を出力する予測モデルを提供してもよい。
また、利用者U1が利用者U2に対して発話を行った時間から、所定の時間が経過した場合について説明する。このとき、出力装置200は、利用者U1の生体情報を取得する(ステップS8)。例えば、出力装置200は、利用者U1の生体情報として、利用者U1によって利用されるウェアラブルデバイスから取得される生体情報を取得する。例えば、出力装置200は、ウェアラブルデバイスによって常時、又は、断続的に取得される利用者U1の心拍数に関する情報を取得する。
続いて、出力装置200は、生体情報から利用者U1の感情を推定する(ステップS9)。例えば、出力装置200は、所定の期間内に利用者U1の平常時の心拍数より高い心拍数であった場合に、感情推定モデルを用いて、利用者U1が怒っていると推定する。
また、出力装置200は、感情から対象発言の発生を予測する(ステップS10)。例えば、出力装置200は、利用者U1の感情が怒っているといった利用者の感情に関する情報を予測モデルに入力することで、対象発言「ABCD」が発話される確率を出力する。そして、出力装置200は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
例えば、事前発言が「お前は」であるものとする。この場合、出力装置200は、利用者U1の感情が怒っているといった利用者の感情に関する情報と、事前発言として、「お前は」が示す音声の波形情報とを予測モデルに入力することで、対象発言「ABCD」が発話される確率を出力する。そして、出力装置200は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
そして、出力装置200は、対象発言の発生が予測された場合に、逆位相の音声を出力する(ステップS11)。例えば、情報処理装置100は、利用者U1によって対象発言「ABCD」が発話されると判定された場合に、対象発言「ABCD」が示す音声の逆位相の波形情報を利用者U1に対して出力する。これにより、出力装置200は、利用者U1によって発話された音声のうち、対象発言に相当する音声を選択的に除去することが可能となる。
このように、出力装置200は、各種のセンサが検知した現実世界(リアリティ)の情報を検知情報として取得し、取得した検知情報から検知世界(センスドリアリティ)を構築する。そして、出力装置200は、検知世界に含まれる各種の対象(現実世界における対象と対応)のうち、所定のコンテキストを有する波形情報等、所定の条件を満たす対象を消去、変更、或いは認識の容易性を低下させた減少世界(ディミニッシュドリアリティ)を各種の提供手段により利用者に提供する。この結果、出力装置200は、利用者が認知したくない、或いは、利用者に認知させたくない情報を利用者の認知対象から除外することができる。
従来、スマートスピーカが出力した音声のうち、利用者のプライバシを考慮して除去する必要がある音声を適切に除去することが困難である場合があった。そこで、実施形態に係る出力装置200は、所定の検知装置により検知された検知情報から推定された利用者の感情に基づいて、変更対象とする情報を決定し、変更対象とされた情報を変更するための情報を出力することで従来の課題を解決する。これにより、出力装置200は、利用者の失言を防止することができるため、利用者間に無意味な軋轢が生じることを防ぐことができる。
〔2.出力システムの構成〕
図2に示すように、出力システム1は、情報処理装置100と、出力装置200とを含む。情報処理装置100及び出力装置200は、ネットワークNを介して、有線又は無線により通信可能に接続される。なお、図2に示す出力システム1には、複数台の情報処理装置100や、複数台の出力装置200が含まれてもよい。
実施形態に係る情報処理装置100は、インターネット等の所定のネットワークNを介して、各種の装置と通信可能な情報処理装置であり、例えば、サーバ装置又はクラウドシステム等により実現される。例えば、情報処理装置100は、ネットワークNを介して、他の各種装置と通信可能に接続される。
実施形態に係る出力装置200は、音声認識機能や、音声再生機能や、音声合成機能や、音声応答機能等を有する情報処理装置であり、例えば、スマートスピーカ等である。また、出力装置200は、ネットワークNを介して、他の各種装置と通信可能に接続される。
また、出力装置200は、音楽の出力や音声による情報提供を実現可能な装置である。また、出力装置200は、音を取得する取得機能を有し、利用者が発した音声を取得すると、取得した音声の内容に応じた音を出力する出力機能を有する。
〔3.情報処理装置の構成〕
以下、上記した情報処理装置100が有する機能構成の一例について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、出力装置200との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部120は、検知情報データベース121を有する。
(検知情報データベース121について)
検知情報データベース121は、利用者から検知された検知情報を記憶する。ここで、図3に、実施形態に係る検知情報データベース121の一例を示す。図3に示した例では、検知情報データベース121は、「検知情報ID(Identifier)」、「検知情報」、「感情情報」、「対象発言」といった項目を有する。
「検知情報ID」は、利用者から検知された検知情報を識別する識別子である。「検知情報」は、「検知情報ID」に対応付けられた利用者から検知された検知情報である。例えば、検知情報は、利用者から検知された発言が示す音声に関する音声情報、生体情報、位置情報等である。また、検知情報は、音声情報、生体情報、位置情報が検知された時間に関する時間情報を含んでもよい。
「感情情報」は、「検知情報ID」に対応付けられた利用者から検知された検知情報に基づいて推定された利用者の感情に関する情報である。例えば、感情情報は、利用者の喜怒哀楽に関する情報等である。「対象発言」は、「検知情報ID」に対応付けられた利用者によって発話された対象となる発言を示す音声情報である。例えば、対象発言は、利用者とは異なる他の利用者の個人情報又は侮辱したり、差別したりする内容に相当する発言等である。
例えば、図3では、検知情報IDによって識別された「SE1」は、検知情報が「検知情報#1」であり、感情情報が「感情情報#1」であり、対象発言が「対象発言#1」である。なお、図3に示した例では、検知情報、感情情報及び対象発言を抽象的な符号で表現したが、検知情報、感情情報及び対象発言は、具体的な数値や、具体的なファイル形式等であってもよい。また、検知情報データベース121は、上記項目だけでなく、利用者によって発話された発言の特徴を示す特徴情報又は検知情報に基づいて推定された利用者の属性に関する属性情報等を記憶してもよい。
(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図2に示すように、制御部130は、収集部131と、学習部132と、生成部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(収集部131について)
収集部131は、各種情報を収集する。具体的には、収集部131は、利用者の音声情報や、生体情報を収集する。例えば、収集部131は、利用者U1の発言として、「利用者U2、お前は、ABCDだ!!!」が示す音声を出力装置200から取得する。また、収集部131は、利用者U1の生体情報として、利用者U1の心拍数に関する情報を取得する。
(学習部132について)
学習部132は、各種情報を用いて、学習モデルを生成する。具体的には、例えば、学習部132は、検知情報データベース121を参照し、機械学習等の従来技術を用いて、各利用者の心拍数に関する情報と、心拍数に関する情報に対応付けられる喜怒哀楽に関する情報とを学習することで、心拍数に関する情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデル221を生成する。そして、学習部132は、利用者U1によって対象発言が発話されるまでの所定の期間内の利用者U1の心拍数に関する情報を感情推定モデル221に入力することで、利用者U1の感情を推定する。例えば、学習部132は、所定の期間内に利用者U1の平常時の心拍数より高い心拍数であった場合に、感情推定モデル221を用いて、利用者U1が怒っていると推定する。そして、学習部132は、推定された感情情報を検知情報データベース121に記憶する。
また、学習部132は、検知情報データベース121を参照し、機械学習等の従来技術を用いて、推定した利用者の感情情報と、対象発言が示す音声の波形情報とを学習することで、推定した利用者の感情情報が入力された場合に、対象発言が発話される確率を出力する予測モデル222を生成する。
また、学習部132は、機械学習等の従来技術を用いて、推定した利用者の感情情報と、事前発言が示す音声の波形情報と、対象発言が示す音声の波形情報とを学習することで、推定した利用者の感情情報と、事前発言が示す音声の波形情報とが入力された場合に、対象発言が発話される確率を出力する予測モデル222を生成する。
また、学習部132は、各種情報を所定の学習モデルに学習させてもよい。具体的には、学習部132は、検知情報データベース121を参照し、推定した利用者の感情情報が入力された場合に、対象発言が発話される確率を出力する予測モデル222に対して、新規に推定した利用者の感情情報と、新規に取得された対象発言が示す音声の波形情報とを学習させてもよい。
なお、実施形態における予測モデル222は、上記例に限定されない。例えば、学習部132は、音声の波形情報の代わりに、音声が示す発言内容を学習することで、予測モデル222を生成してもよい。
例えば、学習部132は、形態素解析や、構文解析や、意味解析等の従来技術を用いて、対象発言が示す発言内容を解析することで、対象発言が示す発言内容を推定する。そして、学習部132は、推定した利用者の感情情報と、対象発言が示す発言内容とを学習することで、推定した利用者の感情情報が入力された場合に、対象発言が発話される確率を出力する予測モデル222を生成してもよい。なお、学習部132は、対象発言が発話される確率を出力する予測モデル222を生成する処理に限定されなくともよく、例えば、対象発言が示す発言内容を出力する予測モデル222を生成してもよい。
(生成部133について)
生成部133は、各種情報を生成する。具体的には、生成部133は、対象発言を除去するために、対象発言が示す音声の波形情報を打ち消す逆位相の波形情報を生成する。例えば、生成部133は、ノイズキャンセル等で用いられる従来技術によって、対象発言「ABCD」が示す音声の波形情報から逆位相の波形情報を生成する。
(提供部134について)
提供部134は、各種情報を提供する。具体的には、提供部134は、各種モデルと逆位相の音声とを出力装置200に提供する。例えば、提供部134は、心拍数に関する情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデル221と、推定した利用者の感情に関する情報とが入力された場合に、対象発言が発話される確率を出力する予測モデル222と、対象発言「ABCD」が示す音声の逆位相の波形情報とを出力装置200に提供する。また、提供部134は、推定した利用者の感情に関する情報と、事前発言が示す音声の波形情報とが入力された場合に、対象発言が発話される確率を出力する予測モデル222を提供してもよい。
〔4.出力装置の構成〕
以下、上記した出力装置200が有する機能構成の一例について説明する。図2は、実施形態に係る出力装置200の構成例を示す図である。図2に示すように、出力装置200は、通信部210と、記憶部220と、マイク230と、スピーカ231と、制御部240とを有する。
(通信部210について)
通信部210は、例えば、NIC等によって実現される。そして、通信部210は、ネットワークNと有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
(記憶部220について)
記憶部220は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部220は、感情推定モデル221と、予測モデル222とを有する。例えば、感情推定モデル221は、利用者の生体情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデル等である。予測モデル222は、推定した利用者の感情情報が入力された場合に、対象発言が発話される確率を出力する予測モデル等である。
(マイク230について)
マイク230は、各種音及び音声を取得する。例えば、マイク230は、周囲の音を取得する。また、マイク230は、周囲に位置する利用者によって発話された音声を取得する。
(スピーカ231について)
スピーカ231は、各種音及び音声を出力する。例えば、スピーカ231は、任意の音及び音声を出力する。また、スピーカ231は、逆位相の音声を出力する。
(制御部240について)
制御部240は、コントローラであり、例えば、CPUやMPU等によって、出力装置200内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部240は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
図2に示すように、制御部240は、取得部241と、推定部242と、決定部243と、出力部244とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部240の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部240が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(取得部241について)
取得部241は、各種情報を取得する。具体的には、取得部241は、利用者の音声情報や、生体情報を取得する。例えば、取得部241は、利用者U1の発言として、「利用者U2、お前は、ABCDだ!!!」といった発言が示す音声を取得する。この場合、出力装置200は、「利用者U2、お前は、ABCDだ!!!」を示す音声の波形情報を取得する。
例えば、利用者U1によってウェアラブルデバイス等の端末装置が利用されているものとする。この場合、取得部241は、利用者U1の生体情報として、ウェアラブルデバイスから取得される生体情報を取得する。例えば、ウェアラブルデバイスは、常時、又は、断続的に、利用者U1の心拍数に関する情報を取得する。
(推定部242について)
推定部242は、各種情報を推定する。具体的には、推定部242は、所定の検知装置により検知された検知情報から、利用者の感情を推定する。例えば、推定部242は、所定の期間内に利用者U1の平常時の心拍数より高い心拍数であった場合に、感情推定モデル221を用いて、利用者U1が怒っていると推定する。
また、推定部242は、所定の条件を満たす音声情報を検知した場合に、音声を発した利用者の生体情報から感情を推定してもよい。例えば、推定部242は、利用者によって発話された発言が示す音声の振幅が、所定の閾値以上である場合に、音声を発した利用者の生体情報から感情を推定してもよい。ここで、推定部242は、音声を発した利用者が平常時の心拍数より高い心拍数であった場合に、感情推定モデル221を用いて、利用者が怒っていると推定してもよい。
なお、実施形態は、上記例に限定されなくともよく、推定部242は、感情推定モデル221を用いずに、利用者の感情を推定してもよい。例えば、推定部242は、音声を発した利用者から取得した生体情報に基づいて、利用者の感情を推定してもよい。より具体的な例を挙げると、推定部242は、利用者が平常時の心拍数より高い心拍数であった場合に、利用者が怒っていると推定してもよい。また、推定部242は、所定の期間、利用者の感情が時間に応じて変動した場合、変動した複数の感情を推定してもよい。
また、推定部242は、利用者と会話している他の利用者である受け手側利用者の生体情報から、受け手側利用者の感情を推定してもよい。例えば、受け手側利用者によってウェアラブルデバイス等の端末装置が利用されているものとする。この場合、推定部242は、受け手側利用者の生体情報として、ウェアラブルデバイスから取得される生体情報から、受け手側利用者の感情を推定する。ここで、受け手側利用者の発汗を検知するものとする。この場合、推定部242は、受け手側利用者が平常時より高い発汗量であった場合に、感情推定モデル221を用いて、受け手側利用者が緊張している、又は、悲しんでいると推定してもよい。
(決定部243について)
決定部243は、各種情報を決定する。具体的には、決定部243は、推定部242によって推定された利用者の感情に基づいて、変更対象とする情報を決定する。例えば、決定部243は、利用者U1の感情が怒っているといった利用者の感情情報を予測モデル222に入力することで、対象発言「ABCD」が発話される確率を出力する。そして、決定部243は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
例えば、事前発言が「お前は」であるものとする。この場合、決定部243は、利用者U1の感情が怒っているといった利用者の感情に関する情報と、事前発言として、「お前は」が示す音声の波形情報とを予測モデル222に入力することで、対象発言「ABCD」が発話される確率を出力する。そして、決定部243は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
また、決定部243は、推定された利用者の感情に基づいて、利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定してもよい。例えば、利用者U1と利用者U2が会話をしているものする。この場合、決定部243は、利用者U1が怒っている場合に、利用者U1によって発言「お前は、ABCDのようなとこが悪い」が利用者U2に対して発話されると予測する。そして、決定部243は、発言「お前は、ABCDのようなとこが悪い」のうち、発言「ABCD」を対象発言と決定する。
また、決定部243は、利用者の感情が所定の条件を満たす場合に、変更対象とする情報を決定してもよい。例えば、決定部243は、所定の条件として、利用者の感情が否定的な感情である場合に、変更対象とする情報を決定してもよい。より具体的な例を挙げると、決定部243は、利用者U1の感情が怒っている場合に、利用者の感情が否定的であると判定する。そして、決定部243は、利用者U1の感情が怒っているといった利用者の感情情報を予測モデル222に入力することで、対象発言「ABCD」が発話される確率を出力する。そして、決定部243は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
なお、実施形態は、上記例に限定されなくともよく、決定部243は、推定された受け手側利用者の感情に基づいて、受け手側利用者の発言を変更対象となる発言と決定してもよい。例えば、利用者と会話している他の利用者である受け手側利用者の生体情報から、受け手側利用者が怒っているものとする。この場合、決定部243は、受け手側利用者が怒っているといった受け手側利用者の感情情報を予測モデル222に入力することで、対象発言「ABCD」が発話される確率を出力する。そして、決定部243は、対象発言が発話される確率が所定の閾値以上である場合に、受け手側利用者によって対象発言が発話されると判定してもよい。
(出力部244について)
出力部244は、各種情報を出力する。具体的には、出力部244は、変更対象とされた情報を変更するための情報を出力する。例えば、出力部244は、利用者U1によって対象発言「ABCD」が発話されると判定された場合に、対象発言「ABCD」が示す音声の逆位相の波形情報を利用者U1に対して出力する。これにより、出力部244は、利用者U1によって発話された音声のうち、対象発言に相当する音声を選択的に除去することが可能となる。
〔5.処理手順(1)〕
次に、図4を用いて、実施形態に係る情報処理装置100が実行する情報処理の手順について説明する。図4は、実施形態に係る情報処理装置100が実行する情報処理の流れの一例を示すフローチャートである。
図4に示すように、学習部132は、対象発言が発話されたか否かを判定する(ステップS101)。具体的には、学習部132は、対象発言が発話されないと判定した場合(ステップS101;No)、ステップS105まで進む。
一方、学習部132は、対象発言が発話されたと判定した場合(ステップS101;Yes)、生体情報から感情を推定する(ステップS102)。また、学習部132は、推定された感情から対象発言を予測する予測モデル222を生成する(ステップS103)。
そして、生成部133は、対象発言の逆位相の音声を生成する(ステップS104)。そして、提供部134は、各種モデルと、逆位相の音声とを出力装置200に提供する(ステップS105)。
〔6.処理手順(2)〕
次に、図5を用いて、実施形態に係る出力装置200が実行する出力処理の手順について説明する。図5は、実施形態に係る出力装置200が実行する出力処理の流れの一例を示すフローチャートである。
図5に示すように、推定部242は、利用者の各種情報から感情を推定する(ステップS201)。そして、決定部243は、対象発言が発話されるか否かを予測する(ステップS202)。具体的には、決定部243は、対象発言が発話されないと予測した場合(ステップS202;No)、ステップS201の前まで戻る。
一方、出力部244は、決定部243によって対象発言が発話されると予測された場合(ステップS202;Yes)、逆位相の音声を出力する(ステップS203)。
〔7.変形例〕
上述した情報処理装置100及び出力装置200は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100及び出力装置200の他の実施形態について説明する。
〔7-1.適用例〕
上記実施形態では、利用者U1~U3が会議中である例を挙げて説明してきたが、これに限定されない。例えば、上記実施形態は、ネットワークを介したリモート会議を行うアプリケーション上や、チャットアプリケーション等に対しても適用される。
例えば、リモート会議を行うアプリケーション上で、利用者U1が利用者U2に対して侮辱する発言を発話するものとする。このとき、利用者U1が利用者U2に対して発話した侮辱する発言は、ネットワークを介して、利用者U2に伝達されるものとする。この場合、出力装置200は、利用者U1によって発話された侮辱する発言を除く処理を実行する。
例えば、出力装置200は、利用者U1が利用者U2に対して発話した侮辱する発言を適切な発言に変更して、ネットワークを介して、利用者U2に出力してもよい。ここで、適切な発言とは、侮辱する内容を含まない発言ならば、如何なる発言でもよい。例えば、出力装置200は、侮辱する発言が「バカ」である場合、侮辱する発言を適切な発言「賢い」と変更してもよい。このように、出力装置200は、侮辱する発言等の否定的な発言を肯定的な発言に変更してもよい。また、出力装置200は、侮辱する発言に対応する発言の音量を下げたり、無音にしたり、音声にモザイクをかけたりすることで、ネットワークを介して、利用者U2に出力してもよい。また、出力装置200は、侮辱する発言を発話した利用者U1の顔を隠すといった処理を行ってもよい。
なお、上記例では、出力装置200は、利用者U1が利用者U2に対して発話した侮辱する発言を除く処理について説明したが、これに限定されなくともよい。例えば、出力装置200は、利用者U1が発話した発言を取得し、かかる発言を学習した感情推定モデル及び予測モデルを用いて、利用者U1が2回目以降に発話する利用者U2を侮辱する発言を除く処理を行ってもよい。この場合、出力装置200は、利用者U1が利用者U2とは異なる利用者である利用者U3に対して発話するとき、予め、利用者U1によって発話された侮辱する発言を除く処理を行い、かかる発言を利用者U3に対して出力するようにしてもよい。これにより、出力装置200は、利用者U1が他の利用者に対して繰り返し侮辱する発言を発話することを防ぐことができる。
例えば、チャットアプリケーション上で、利用者U1が利用者U2に対して侮辱する文字を送信するものとする。この場合、出力装置200は、利用者U1によって送信された侮辱する文字を除く処理を実行する。例えば、出力装置200は、利用者U1が利用者U2に対して送信した侮辱する文字を適切な文字に変更してから、利用者U2に出力してもよい。例えば、出力装置200は、侮辱する文字が「落ち着きがない」である場合、侮辱する発言を適切な発言「行動力がある」と変更してもよい。このように、出力装置200は、侮辱する発言等の否定的な発言を肯定的な発言に変更してもよい。
また、出力装置200は、侮辱する文字に対応する文字を消去したり、侮辱する文字を含む一群のチャットを消去したりしてもよい。この場合、出力装置200は、利用者U2に対して、消去されたチャットの代わりに、定型文等を出力してもよい。ここで、定型文とは、侮辱する内容を含まない内容であって、チャットの文脈が変更されない内容ならば、如何なる定型文でもよい。例えば、出力装置200は、侮辱する発言が「理解力がなく、人の話を聞かない」である場合、侮辱する発言を定型文「今日の天気は良い天気ですね」と変更してもよい。これにより、出力装置200は、利用者間に無意味な軋轢が生じることを低減させることができる。
〔7-2.対象発言〕
上記実施形態では、利用者によって発話された他の利用者を侮辱する発言を対象発言として例を挙げて説明してきたが、例えば、利用者によって発話された他の利用者の個人情報を含む発言に対して上記実施形態で示した出力処理を適用してもよい。
〔7-3.出力方向〕
上記実施形態では、出力装置200が所定の波形情報が発生すると予測された場合に、所定の波形情報とは逆位相の波形情報を出力する例を挙げて説明してきたが、これに限定されない。例えば、出力装置200は、逆位相の音声を出力する方向を限定してもよい。この場合、出力装置200は、逆位相の音声を、利用者が対象発言を発する方向に限定して出力してもよい。なお、逆位相の音声は、指向性を有していてもよい。
〔7-4.出力装置〕
上記実施形態では、出力装置200がスマートスピーカとして例を挙げて説明したが、出力装置200は、音声再生機能を有するならば、如何なる情報処理装置であってもよい。具体的には、出力装置200は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される端末装置であってもよい。
例えば、出力装置200は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)、スマートウォッチ、ウェアラブルデバイス(Wearable Device)等であってもよい。例えば、出力装置200は、移動可能な滑車等を備え、自走してもよい。
〔7-5.音声〕
上記実施形態では、利用者によって発話された発言が示す音声を例に挙げて説明してきたが、音声の代わりに、例えば、香り、光、電磁波、地震等の振動に対して上記実施形態で示した出力処理を適用してもよい。また、音声の代わりに、チャットアプリケーション上の文字等の情報等に対して上記実施形態で示した出力処理を適用してもよい。
〔7-6.プログラム〕
また、上述した実施形態に係る出力装置200は、例えば、図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が出力装置200として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
〔7-7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報処理装置100と、出力装置200を統合して、出力装置としてもよい。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。
〔8.効果〕
上述してきたように、実施形態に係る出力装置200は、推定部242と、決定部243と、出力部244とを有する。推定部242は、所定の検知装置により検知された検知情報から、利用者の感情を推定する。決定部243は、推定された利用者の感情に基づいて、変更対象とする情報を決定する。出力部244は、変更対象とされた検知情報を変更するための情報を出力する。
これにより、実施形態に係る出力装置200は、所定の検知装置により検知された検知情報から推定された利用者の感情に基づいて、変更対象とする情報を決定し、変更対象とされた検知情報を変更するための情報を出力するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、決定部243は、推定された利用者の感情に基づいて、変更対象となる発言を決定する。
これにより、実施形態に係る出力装置200は、推定された利用者の感情に基づいて、変更対象となる発言を決定するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、決定部243は、推定された利用者の感情に基づいて、利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定する。
これにより、実施形態に係る出力装置200は、推定された利用者の感情に基づいて、利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、推定部242は、検知情報から、発言を発話する発話側利用者の感情を推定し、決定部243は、推定された発話側利用者の感情に基づいて、発話側利用者の発言を変更対象となる発言と決定する。
これにより、実施形態に係る出力装置200は、検知情報から推定された発話側利用者の感情に基づいて、発話側利用者の発言を変更対象となる発言と決定するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、推定部242は、検知情報から、発言を受ける受け手側利用者の感情を推定し、決定部243は、推定された受け手側利用者の感情に基づいて、受け手側利用者の発言を変更対象となる発言と決定する。
これにより、実施形態に係る出力装置200は、検知情報から推定された受け手側利用者の感情に基づいて、受け手側利用者の発言を変更対象となる発言と決定するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、決定部243は、利用者の感情が所定の条件を満たす場合に、変更対象とする情報を決定する。
これにより、実施形態に係る出力装置200は、利用者の感情が所定の条件を満たす場合に、変更対象とする情報を決定するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、決定部243は、所定の条件として、利用者の感情が否定的な感情である場合に、変更対象とする情報を決定する。
これにより、実施形態に係る出力装置200は、所定の条件として、前記利用者の感情が否定的な感情である場合に、変更対象とする情報を決定するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、決定部243は、推定された利用者の感情に基づいて、利用者の発言を予測し、予測した発言を変更対象となる発言と決定し、出力部244は、予測した発言を示す音声とは逆位相の音声を出力する。
これにより、実施形態に係る出力装置200は、推定された利用者の感情に基づいて、利用者の発言を予測し、予測した発言を変更対象となる発言と決定し、予測した発言を示す音声とは逆位相の音声を出力するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、利用者が所定の感情を有する際に発話した発言のうち、所定の条件を満たす内容の発言をモデルに学習させる学習部(例えば、情報処理装置100の学習部132)を有し、決定部243は、モデルを用いて、変更対象とする発言を決定する。
これにより、実施形態に係る出力装置200は、利用者が所定の感情を有する際に発話した発言のうち、所定の条件を満たす内容の発言を学習したモデルを用いて、変更対象とする発言を決定するため、所定の条件を満たす情報を適切に除去することができる。
また、実施形態に係る出力装置200において、推定部242は、所定の検知装置により検知された検知情報のうち、利用者の生体情報から、利用者の感情を推定する。
これにより、実施形態に係る出力装置200は、所定の検知装置により検知された検知情報のうち、利用者の生体情報から、利用者の感情を推定するため、所定の条件を満たす情報を適切に除去することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
N ネットワーク
1 出力システム
100 情報処理装置
110 通信部
120 記憶部
121 検知情報データベース
130 制御部
131 収集部
132 学習部
133 生成部
134 提供部
200 出力装置
210 通信部
220 記憶部
221 感情推定モデル
222 予測モデル
230 マイク
231 スピーカ
240 制御部
241 取得部
242 推定部
243 決定部
244 出力部

Claims (10)

  1. 所定の検知装置により検知された検知情報から、利用者の感情を推定する推定部と、
    推定された前記利用者の感情に基づいて、前記検知情報のうち、前記利用者の発言に関する情報に含まれる所定の条件を満たす内容の情報を変更対象とする情報と決定する決定部と、
    前記変更対象とされた情報を変更するための情報を出力する出力部と
    を有し、
    前記決定部は、
    推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定する
    ことを特徴とする出力装置。
  2. 前記推定部は、
    前記検知情報から、発言を発話する発話側利用者の感情を推定し、
    前記決定部は、
    推定された前記発話側利用者の感情に基づいて、前記発話側利用者の発言を変更対象となる発言と決定する
    ことを特徴とする請求項1に記載の出力装置。
  3. 前記推定部は、
    前記検知情報から、発言を受ける受け手側利用者の感情を推定し、
    前記決定部は、
    推定された前記受け手側利用者の感情に基づいて、前記受け手側利用者の発言を変更対象となる発言と決定する
    ことを特徴とする請求項1に記載の出力装置。
  4. 前記決定部は、
    前記利用者の感情が所定の条件を満たす場合に、変更対象とする情報を決定する
    ことを特徴とする請求項1~のいずれか1つに記載の出力装置。
  5. 前記決定部は、
    前記所定の条件として、前記利用者の感情が否定的な感情である場合に、変更対象とする情報を決定する
    ことを特徴とする請求項に記載の出力装置。
  6. 前記決定部は、
    推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言を変更対象となる発言と決定し、
    前記出力部は、
    予測した発言を示す音声とは逆位相の音声を出力する
    ことを特徴とする請求項1~のいずれか1つに記載の出力装置。
  7. 前記利用者が所定の感情を有する際に発話した発言のうち、所定の条件を満たす内容の発言をモデルに学習させる学習部を有し、
    前記決定部は、
    前記モデルを用いて、変更対象とする発言を決定する
    ことを特徴とする請求項1~のいずれか1つに記載の出力装置。
  8. 前記推定部は、
    所定の検知装置により検知された検知情報のうち、前記利用者の生体情報から、前記利用者の感情を推定する
    ことを特徴とする請求項1~のいずれか1つに記載の出力装置。
  9. コンピュータが実行する出力方法であって、
    所定の検知装置により検知された検知情報から、利用者の感情を推定する推定工程と、
    推定された前記利用者の感情に基づいて、前記検知情報のうち、前記利用者の発言に関する情報に含まれる所定の条件を満たす内容の情報を変更対象とする情報と決定する決定工程と、
    前記変更対象とされた情報を変更するための情報を出力する出力工程と
    を含み、
    前記決定工程は、
    推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定する
    ことを特徴とする出力方法。
  10. 所定の検知装置により検知された検知情報から、利用者の感情を推定する推定手順と、
    推定された前記利用者の感情に基づいて、前記検知情報のうち、前記利用者の発言に関する情報に含まれる所定の条件を満たす内容の情報を変更対象とする情報と決定する決定手順と、
    前記変更対象とされた情報を変更するための情報を出力する出力手順と
    をコンピュータに実行させ
    前記決定手順は、
    推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定する
    出力プログラム。
JP2020050046A 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム Active JP7248615B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020050046A JP7248615B2 (ja) 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム
US17/198,139 US11749270B2 (en) 2020-03-19 2021-03-10 Output apparatus, output method and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050046A JP7248615B2 (ja) 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム

Publications (2)

Publication Number Publication Date
JP2021149664A JP2021149664A (ja) 2021-09-27
JP7248615B2 true JP7248615B2 (ja) 2023-03-29

Family

ID=77851364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050046A Active JP7248615B2 (ja) 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム

Country Status (2)

Country Link
US (1) US11749270B2 (ja)
JP (1) JP7248615B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084855A1 (ja) * 2022-10-17 2024-04-25 パナソニックIpマネジメント株式会社 遠隔会話支援方法、遠隔会話支援装置、遠隔会話システム、及び、プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037910A (ja) 2002-07-04 2004-02-05 Denso Corp 対話システム及び対話型しりとりシステム
JP2010166324A (ja) 2009-01-15 2010-07-29 Nec Corp 携帯端末、音声合成方法、及び音声合成用プログラム
JP2013046088A (ja) 2011-08-22 2013-03-04 Nec Corp 音声制御システム、音声制御装置、音声制御方法および音声制御プログラム
JP2016219965A (ja) 2015-05-18 2016-12-22 パナソニックIpマネジメント株式会社 指向性制御システム及び音声出力制御方法
WO2017150103A1 (ja) 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 音声処理装置、画像処理装置、マイクアレイシステム、及び音声処理方法
WO2018061346A1 (ja) 2016-09-27 2018-04-05 ソニー株式会社 情報処理装置
JP2018189720A (ja) 2017-04-28 2018-11-29 パナソニックIpマネジメント株式会社 情報出力制御装置、情報出力制御方法、情報出力システム、およびプログラム
JP2019060921A (ja) 2017-09-25 2019-04-18 富士ゼロックス株式会社 情報処理装置、及びプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3377220B2 (ja) * 1991-07-03 2003-02-17 本田技研工業株式会社 スピーチプライバシー保護装置
EP3220180A1 (en) * 2009-06-16 2017-09-20 INTEL Corporation Camera applications in a handheld device
US10042603B2 (en) * 2012-09-20 2018-08-07 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
CN103903627B (zh) * 2012-12-27 2018-06-19 中兴通讯股份有限公司 一种语音数据的传输方法及装置
US20160191958A1 (en) * 2014-12-26 2016-06-30 Krush Technologies, Llc Systems and methods of providing contextual features for digital communication
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
EP3259754B1 (en) * 2015-02-16 2022-06-15 Samsung Electronics Co., Ltd. Method and device for providing information
US9576190B2 (en) * 2015-03-18 2017-02-21 Snap Inc. Emotion recognition in video conferencing
US9336268B1 (en) * 2015-04-08 2016-05-10 Pearson Education, Inc. Relativistic sentiment analyzer
JP2017107078A (ja) 2015-12-10 2017-06-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声対話方法、音声対話装置及び音声対話プログラム
CN105931638B (zh) * 2016-04-26 2019-12-24 北京光年无限科技有限公司 面向智能机器人的对话系统数据处理方法及装置
US10546586B2 (en) * 2016-09-07 2020-01-28 International Business Machines Corporation Conversation path rerouting in a dialog system based on user sentiment
US9947319B1 (en) * 2016-09-27 2018-04-17 Google Llc Forming chatbot output based on user state
US10796217B2 (en) * 2016-11-30 2020-10-06 Microsoft Technology Licensing, Llc Systems and methods for performing automated interviews
US11580350B2 (en) * 2016-12-21 2023-02-14 Microsoft Technology Licensing, Llc Systems and methods for an emotionally intelligent chat bot
JP6499682B2 (ja) * 2017-01-31 2019-04-10 本田技研工業株式会社 情報提供システム
SG11201909643RA (en) * 2017-05-05 2019-11-28 Liveperson Inc Dynamic response prediction for improved bot task processing
US11934937B2 (en) * 2017-07-10 2024-03-19 Accenture Global Solutions Limited System and method for detecting the occurrence of an event and determining a response to the event
US11321522B1 (en) * 2017-08-04 2022-05-03 Grammarly, Inc. Artificial intelligence communication assistance for composition utilizing communication profiles
CN108039988B (zh) * 2017-10-31 2021-04-30 珠海格力电器股份有限公司 设备控制处理方法及装置
CN110998725B (zh) * 2018-04-19 2024-04-12 微软技术许可有限责任公司 在对话中生成响应
US20190327330A1 (en) * 2018-04-20 2019-10-24 Facebook, Inc. Building Customized User Profiles Based on Conversational Data
US20200007380A1 (en) * 2018-06-28 2020-01-02 Microsoft Technology Licensing, Llc Context-aware option selection in virtual agent
CN109274819A (zh) * 2018-09-13 2019-01-25 广东小天才科技有限公司 通话时用户情绪调整方法、装置、移动终端及存储介质
CN111226194A (zh) * 2018-09-27 2020-06-02 三星电子株式会社 提供交互界面的方法和系统
US11373446B1 (en) * 2019-04-26 2022-06-28 Amazon Technologies, Inc. Interactive media facial emotion-based content selection system
US10965802B2 (en) * 2019-06-19 2021-03-30 Avast Software, S.R.O. Device monitoring and restriction system and method
US20210125610A1 (en) * 2019-10-29 2021-04-29 Facebook Technologies, Llc Ai-driven personal assistant with adaptive response generation
US11227602B2 (en) * 2019-11-20 2022-01-18 Facebook Technologies, Llc Speech transcription using multiple data sources
CN112464018A (zh) * 2020-12-10 2021-03-09 山西慧虎健康科技有限公司 一种智能情绪识别调节方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037910A (ja) 2002-07-04 2004-02-05 Denso Corp 対話システム及び対話型しりとりシステム
JP2010166324A (ja) 2009-01-15 2010-07-29 Nec Corp 携帯端末、音声合成方法、及び音声合成用プログラム
JP2013046088A (ja) 2011-08-22 2013-03-04 Nec Corp 音声制御システム、音声制御装置、音声制御方法および音声制御プログラム
JP2016219965A (ja) 2015-05-18 2016-12-22 パナソニックIpマネジメント株式会社 指向性制御システム及び音声出力制御方法
WO2017150103A1 (ja) 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 音声処理装置、画像処理装置、マイクアレイシステム、及び音声処理方法
WO2018061346A1 (ja) 2016-09-27 2018-04-05 ソニー株式会社 情報処理装置
JP2018189720A (ja) 2017-04-28 2018-11-29 パナソニックIpマネジメント株式会社 情報出力制御装置、情報出力制御方法、情報出力システム、およびプログラム
JP2019060921A (ja) 2017-09-25 2019-04-18 富士ゼロックス株式会社 情報処理装置、及びプログラム

Also Published As

Publication number Publication date
US11749270B2 (en) 2023-09-05
US20220020368A1 (en) 2022-01-20
JP2021149664A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
WO2020135194A1 (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
CN107464555B (zh) 增强包含语音的音频数据的方法、计算装置和介质
US10387573B2 (en) Analyzing conversations to automatically identify customer pain points
EP3631793B1 (en) Dynamic and/or context-specific hot words to invoke automated assistant
US20030167167A1 (en) Intelligent personal assistants
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
JP2017108767A (ja) 対話装置、ロボット、対話方法及びプログラム
CN108922525B (zh) 语音处理方法、装置、存储介质及电子设备
JP7485858B2 (ja) 実世界ノイズを使用した音声個性化および連合訓練
US10367940B2 (en) Analyzing conversations to automatically identify product feature requests
EP1490864A2 (en) Intelligent personal assistants
CN111201567A (zh) 用于与数字媒体内容交互的口语、面部和姿势通信设备和计算体系架构
WO2017191696A1 (ja) 情報処理システム、および情報処理方法
KR102326853B1 (ko) 감정 및 윤리 상태 모니터링 기반 사용자 적응형 대화 장치 및 이를 위한 방법
US20210005187A1 (en) User adaptive conversation apparatus and method based on monitoring of emotional and ethical states
JP7347217B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN110493123A (zh) 即时通讯方法、装置、设备及存储介质
CN111640434A (zh) 用于控制语音设备的方法和装置
JP2023548157A (ja) 通話およびオーディオメッセージからのその他の話者の音声フィルタリング
JP7248615B2 (ja) 出力装置、出力方法及び出力プログラム
CN108073272A (zh) 一种用于智能设备的播放控制方法及装置
CN113539261A (zh) 人机语音交互方法、装置、计算机设备和存储介质
KR102389995B1 (ko) 자연발화 음성 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102395399B1 (ko) 음성 인식 학습을 위한 음성 데이터 분해 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
JP2004191407A (ja) 会話システム及び会話処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230110

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230316

R150 Certificate of patent or registration of utility model

Ref document number: 7248615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350