JP6774018B2 - 対話装置 - Google Patents

対話装置 Download PDF

Info

Publication number
JP6774018B2
JP6774018B2 JP2016180318A JP2016180318A JP6774018B2 JP 6774018 B2 JP6774018 B2 JP 6774018B2 JP 2016180318 A JP2016180318 A JP 2016180318A JP 2016180318 A JP2016180318 A JP 2016180318A JP 6774018 B2 JP6774018 B2 JP 6774018B2
Authority
JP
Japan
Prior art keywords
emotion
dialogue
user
topic
emotions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016180318A
Other languages
English (en)
Other versions
JP2018045118A (ja
Inventor
孝雄 内藤
孝雄 内藤
タプリヤ ローシャン
タプリヤ ローシャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016180318A priority Critical patent/JP6774018B2/ja
Priority to US15/439,363 priority patent/US20180075848A1/en
Priority to CN201710251203.1A priority patent/CN107825429B/zh
Publication of JP2018045118A publication Critical patent/JP2018045118A/ja
Application granted granted Critical
Publication of JP6774018B2 publication Critical patent/JP6774018B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、対話装置に関する。
特許文献1には、不快感の強さを示す変数を保持し、不快感を増加させる増加信号を受け付けた場合には、変数の値を増加させ、不快感を減少させる減少信号を受け付けた場合には、変数の値が下限値でなければ変数の値を減少させることにより、変数の値の増減に基づいて快感の強さを疑似的に再現するロボット装置が開示されている。
特許文献2は、ユーザの音声信号及び画像信号に基づいてユーザの情動を検出し、これらの検出結果に基づいて、ユーザの現在の情動を予め所定数に離散化された複数の情動の何れかに分類し、さらに、ユーザの行動とを結び付けることにより、ユーザの情動遷移モデルを構築するロボット装置を開示している。
特許文献3は、ロボットは人と対話する際、会話の内容からその人の感情を判別するとともに、人の感情と人の親密度をもとに対話データベースを検索し、検索した態度でその人間に対して応答するロボット装置およびロボット装置の対話方法を開示している。なお、ロボットは、人間の親密度によって会話の内容、感情の込め方を変えて人に接する。
特許文献4には、利用者との対話時における利用者の表情から得た感情、音声から得た感情、口調、およびテキストの情報を組み合わせることにより利用者の性格を分類し、分類に応じて応答を変化させる対話エージェントが開示されている。
特許文献5には、話者の性格と、話者の現在の感情状態とをそれぞれ示す値を使用した計算結果に応じて応答内容を決定する音声対話制御装置が開示されている。
特開2006−272483号公報 特開2005−238422号公報 特開2004−090109号公報 特開2006−071936号公報 特開2004−021121号公報
本発明は、利用者の感情を、現在の感情とは異なる別の感情に変化させることを誘導する対話を行う対話装置を提供することを目的とする。
請求項1に係る本発明は、
ある話題と、当該話題による対話前後の利用者毎の感情の変化とを関連付けて記憶する記憶手段と、
利用者の感情を表す徴候を検出する検出手段から得た情報を用いて利用者の感情を推定する推定手段と、
推定手段で得た感情と対話前の感情とが一致又は類似し、かつ、目標とする感情と対話後の感情とが一致又は類似する話題を、前記記憶手段から抽出して利用者と対話を行う対話手段と、を備える対話装置である。
請求項2に係る本発明は、
ある話題と、当該話題による対話前後の利用者毎の感情の変化とを関連付けて記憶する記憶手段と、
利用者の感情を表す徴候を検出する検出手段から得た情報を用いて利用者の感情を推定する推定手段と、
推定手段で得た感情から目標とする感情までの変化が、前記記憶手段の対話前後の感情の変化と一致又は類似する話題を、前記記憶手段から抽出して利用者と対話を行う対話手段と、を備える対話装置である。
請求項3に係る本発明は、請求項1又は2記載の対話装置において、前記対話装置はさらに、当該対話装置と利用者が対話を行う状況を取得する取得手段を備え、前記記憶手段は、前記取得手段が取得した状況毎に、話題と、その話題による対話前後の利用者の感情変化とを関連付けて記憶し、前記対話手段は、前記取得手段が取得した状況に対応する状況下において、前記推定手段で得た感情と対話前の感情とが一致又は類似し、かつ、目標とする感情と対話後の感情とが一致又は類似する話題を、前記記憶手段から抽出することを特徴とする。
請求項4に係る本発明は、請求項3記載の対話装置において、前記取得手段は、当該対話装置と利用者が対話を行う位置に基づいて状況を推定することを特徴とする。
請求項5に係る本発明は、請求項1から4いずれかに記載の対話装置において、前記対話手段は、前記推定手段により推定された利用者の現在の感情の強さに応じて目標とする感情を定めて話題を抽出することを特徴とする。
請求項6に係る本発明は、請求項1から5いずれかに記載の対話装置において、前記記憶手段は、利用者の性格をさらに記憶し、前記対話手段は、前記記憶手段に記憶された利用者の性格に応じて目標とする感情を定めて話題を抽出することを特徴とする。
請求項7に係る本発明は、請求項1から5いずれかに記載の対話装置において、複数の利用者が存在する場合に、前記対話手段は、感情を変化させる対象となる利用者と、当該対象となる利用者の現在の感情とは異なる、目標とする感情とを定めて話題を抽出することを特徴とする。
請求項1に係る本発明によれば、利用者の感情を、現在の感情とは異なる別の感情に変化させることを誘導する対話を行う対話装置を提供できる。
請求項2に係る本発明によれば、利用者の感情を、現在の感情とは異なる別の感情に変化させることを誘導する対話を行う対話装置を提供できる。
請求項3に係る本発明によれば、目標とする感情へと利用者を変化させるための適切な話題を、利用者との対話が行われる状況に応じて提供できるようになる。
請求項4に係る本発明によれば、位置に関わらず利用者との対話が行われる状況を取得する場合に比べ、状況をより正確に反映させた話題を提供できるようになる。
請求項5に係る本発明によれば、目標とする感情へと利用者を変化させるための適切な話題を、利用者の感情の強さに応じて変化させることができるようになる。
請求項6に係る本発明によれば、目標とする感情へと利用者を変化させるための適切な話題を、利用者の性格に応じて提供できるようになる。
請求項7に係る本発明によれば、複数の利用者が存在する場合であっても、選択された利用者の感情を、現在の感情とは異なる別の感情に変化させることを誘導する対話を行うことができるようになる。
本発明の一実施形態の対話システム10の一例を示す説明図である。 実施形態における対話型ロボット20のハードウェア構成図である。 実施形態における対話型ロボット20の機能ブロック図である。 実施形態における性格情報データベース217の一例を示す図である。 実施形態における会話実績データベース218の一例を示す図である。 実施形態における感情変換テーブル219の一例を示す図である。 実施形態の対話型ロボット10の動作の流れを示すフローチャートである。 複数の利用者が会議を行っている場合の対話型ロボットの動作を説明する図であり、図8(A)は会議開始当初の状態、図8(B)は、会議開始後所定時間経過後の状態、図8(C)は、対話型ロボット20の対話の様子を示す図である。 複数の利用者が会議を行っている場合の対話型ロボットの動作を説明する図であり、図9(A)は会議開始当初の状態、図9(B)は、会議開始後所定時間経過後の状態、図9(C)は、対話型ロボット20の対話の様子を示す図である。 利用者30の現在の感情から目標とする感情までの変化が、会話実績データベース218における対話前後の感情の変化と類似する話題を抽出する概念を説明した図であり、図10(A)は感情変化テーブル219に基づく利用者30の現在の感情から目標とする感情までの変化を示す図であり、図10(B)は、会話実績データベース218に記憶されている、ある話題による対話前後の利用者の感情の変化を示す説明図である。
本発明の一実施形態の対話システム10を、図1を参照して説明する。図1は、本発明の一実施形態の対話システム10の一例を示す説明図である。本実施形態の対話システム10は、対話型ロボット20を含み、この対話型ロボット20は、オフィスや家といった様々な場所で利用者30と対話を行う。
対話型ロボット20のハードウェア構成図を図2に示す。図2に示すように、対話型ロボット20は、CPU201、メモリ202、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等の記憶装置203、カメラ204、マイクロフォン205、スピーカ206、生体センサ207、移動装置208を備えて構成され、それぞれ制御バス209に接続されている。
CPU201は、記憶装置203に記憶された制御プログラムに基づいて対話型ロボット20の各部の動作を制御統括する。メモリ202には、対話型ロボット20が利用者30と行った対話時の対話音声、対話内容を含む対話情報、カメラ204により撮影された利用者30の顔画像、表情、挙動、身体の状態の画像が一時的に記憶される。さらに、メモリ202には、生体センサ207によって検出された利用者30の心拍数や皮膚の表皮抵抗等の生体情報も記憶される。記憶装置203には対話型ロボット20の各部を制御するための制御プログラムが記憶される。カメラ204は、利用者30の顔画像、表情、挙動、身体の状態の変化等を撮影し、メモリ201に記憶する。
マイクロフォン205は、利用者と対話を行った際に、利用者30の音声を検出し、メモリ202に記憶、つまり録音する。なお、メモリ202には、音声を直接録音するのではなく、音声内容を解釈した後の対話内容のみを記憶させてもよい。スピーカ206は、対話型ロボット20の後述する対話制御部が生成した音声を出力する。生体センサ207は、利用者30の心拍数、皮膚の表皮抵抗(肌の伝導率)、体温等の生体情報を測定し、測定したデータをメモリ202に記憶する。なお、本発明におけるセンサは、生体センサ207に加えて、カメラ204、マイクロフォン205を含み、利用者30の感情を表す徴候を検出する。移動装置217は、対話型ロボット20を任意の場所に移動させるのに必要な車輪やモータ等の駆動装置、およびGPS受信装置等の現在位置検出装置で構成される。なお、カメラ204、マイクロフォン205、生体センサ207は、利用者30の感情を表す徴候を検出する検出手段として機能する。
図3は、対話型ロボット20の機能ブロック図を示す。対話型ロボット20は、記憶装置203に記憶されている制御プログラムをCPU201において実行することにより、図3に示されるように、個人認証部211、対話制御部212、感情推定部213、状況取得部214、感情変化決定部215、話題抽出部216として機能する。さらに対話型ロボット20は、さらに、個人情報データベース217、会話実績データベース218、感情変換テーブル219も含んで構成される。
個人認証部211は、カメラ204によって撮影され、メモリ202に一時的に記憶された利用者30の顔画像を解析し、個人情報データベース218に記憶されている各利用者の顔画像の情報と比較することにより、利用者30が誰であるかを特定する。個人認証部211は、顔認証以外の別の認証方法を使用して利用者30を特定してもよい。例えば、カメラ204で撮影した利用者30の目の部分画像を抽出して使用する虹彩認証、生体センサ207によって検出した利用者30の生体情報を利用する静脈認証や指紋認証、マイクロフォン205で捉えた利用者30の音声を解析して利用する声紋認証といった生体認証を採用してもよい。その場合、個人情報データベース218には、採用しようとする認証方法に応じてそれぞれの利用者30に対応する虹彩パターンの情報、静脈パターンや指紋パターンの情報、声紋パターンの情報を記憶しておく必要がある。
対話制御部212は、対話型ロボット20が利用者30と行う対話を制御するものである。具体的には、対話制御部212は、後述する話題抽出部216が抽出した話題で利用者30と対話を行うよう制御するが、抽出された話題に応じて利用者30に対する応答メッセージを生成し、スピーカ206に出力する。対話型ロボット20の記憶装置203には各種話題に応じた様々な会話パターンやセリフが記憶されており(図示せず)、利用者30との対話に応じてそれら会話パターンを使用して利用者30との対話を進める。また、対話型ロボット20は通信機能を備えていてもよく、対話制御部212は、上述の話題に応じた適切な会話パターンやセリフを対話型ロボット20に接続されたサーバから取得して応答メッセージを生成するようにしてもよい。
感情推定部213は、検出手段、つまりカメラ204、マイクロフォン205、生体センサ207により検出された利用者30の感情を表す徴候の情報を用いて利用者30の現在の感情を推定する。具体的には、感情推定部213は、利用者30と対話型ロボット20との対話時における利用者30の挙動、顔の色、表情、心拍数、体温、肌の伝導率といった身体の状態、声の調子(トーン)、言葉の速さ(発話の速さ)、対話内容のいずれか少なくとも一つ、或いは複数の組み合わせで構成される、利用者の感情を表す徴候に基づいて利用者30の感情を推定する。
例えば、顔色の変化はカメラ204によって撮影された利用者30の顔画像のRGBの割合の変化から検出可能であるが、感情推定部213は、この顔色の変化と、カメラ204におって撮影された利用者30の顔の画像の口の開け具合から、『喜んでいる』というように、利用者30の感情を推定する。また、感情推定部213は、生体センサ207により検出された利用者30の心拍数や体温の変化、肌の伝導率の変化から、『緊張している』というように、利用者30の感情を推定、或いは、利用者30の声の調子と言葉の速さの変化に基づいて『苛立っている』というように、利用者30の感情を推定する。
状況取得部214は、移動装置208の現在位置検出装置により特定された、対話型ロボット20と利用者30が対話を行っている現在位置情報に基づいて対話型ロボット20と利用者30が対話を行う状況を取得する。この状況は例えば、「公的状況」、「私的状況」といった大分類であってもよいし、「会議」、「オフィス」、「休憩所」、「家」、「居酒屋」といった小分類であってもよい。状況取得部214は、特定された現在位置情報と、予め記憶装置203に登録された地点情報とを比較し、現在位置情報に該当する地点情報に基づいて、対話型ロボット20と利用者30とが対話を行っている状況を取得する。
感情変化決定部215は、状況取得部214により取得された利用者30と対話型ロボット20とが対話を行っている状況、後述する個人情報データベース217に記憶された利用者30の平常時の性格(本来の性格)、および感情推定部213により推定された利用者30の現在の感情に基づいて、感情変換テーブル219を参照し、利用者30の現在の感情とは異なる、目標とする感情を決定する。つまり、感情変化決定部215は、利用者30をどんな感情にさせたいかを決定する。さらに、感情変化決定部215は、感情推定部213により推定された現在の感情の強さにより、目標とする感情を異ならせるようにしてもよい。
話題抽出部216は、感情推定部213によって得た利用者30の現在の感情、感情変化決定部215により決定された目標とする変化後の感情、および対話型ロボット20と利用者30が対話を行っている状況に基づいて、利用者30の感情を現在の感情から目標とする感情へと変化させた実績のある話題を、会話実績データベース218から抽出する。具体的には、話題抽出部216は、感情推定部213によって得た利用者30の現在の感情と会話実績データベース218における対話前の感情とが一致し、かつ、目標とする感情と会話実績データベース218における対話後の感情とが一致する話題を、会話実績データベース218から抽出する。
個人情報データベース217には、それぞれの利用者の顔画像の情報と、平常時の性格とが結び付けられて記憶されている。図4は、個人情報データベース217の一例を示す図である。この個人情報データベース217には、利用者30のID、性格1、性格2、性格3、顔画像の情報が関連付けられて記憶されている。例えば、ID「Aさん」には、性格1として「積極的」、性格2として「外交的」、性格3として「社交的」が関連付けられて記憶されている。顔画像の情報は、顔を構成する目や鼻等の各要素の位置を示すデータ集合であってもよいし、顔画像データの保存先を示すデータであってもよい。
会話実績データベース218は、所定の状況下毎に、ある話題と、その話題による対話前後の利用者30毎の感情の変化とを関連付けて記憶したデータベースである。つまり、どんな状況かで、どんな話題で対話を行った場合に、利用者の感情がどのように変化したかについての記録を蓄積している。図5は、会話実績データベース218の一例である。図5に示すように、それぞれの利用者毎に、対話前の感情、対話後の感情、状況1、状況2、話題1、話題2、話題3がそれぞれ関連付けられて記憶されている。例えば、図5においては、「Aさん」の最初の感情「退屈」、変化後の感情「興奮」、状況1「公的」、状況2「オフィス」、話題1「会社A」、話題2「売り上げ」が関連づけられて記憶されている。これは、Aさんが、公的な状況、具体的にはオフィスにおいて、会社Aの売り上げについての話題で対話をしたときに、対話前の感情は退屈していたが、対話によって感情が変化して興奮したということを意味している。
感情変換テーブル219は、利用者30の平常時の性格、現在の感情、現在の感情の程度、現在の感情とは異なる目標となる感情を関連付けて記憶したものである。図6は、感情変換テーブル219の一例を示す。図6においては、平常時の性格「積極的」、現在の感情「落胆」に対し、現在の感情の程度「大」には目標とする変化後の感情として「幸せ」、現在の感情の程度「中」には目標とする変化後の感情として「穏やか」、現在の感情の程度「小」には目標とする変化後の感情として「リラックス」が関連付けられて記憶されている。
次に、図7を参照して、本実施形態の対話型ロボット20の動作の流れを説明する。図7は、対話型ロボット10の動作の流れを示すフローチャートである。対話型ロボット20が利用者30と対話を開始すると、個人認証部211は、カメラ204によって撮影した利用者30の顔画像に基づいて個人情報データベース217を参照し、対話相手である利用者30が誰であるかを特定する。なお、上述したように、個人認証部211は、虹彩認証、静脈認証、指紋認証、声紋認証といった方法によって対話相手の利用者30が誰であるかを特定してもよい。
次いで、ステップS702において、感情推定部213は、利用者30の感情を表す徴候を検出する検出手段から得た情報を用いて利用者30の感情を推定する。具体的には、感情推定部213は、カメラ204によって撮影された利用者30の挙動、顔の色、表情、生体センサ207により検出された利用者30の心拍数、体温、肌の伝導率といった身体の状態、マイクロフォン205によって検出された利用者30の対話時の声の調子、言葉の速さ、対話の内容に基づいて利用者30の現在の感情とその程度を推定する。
次いで、ステップS703において、感情変化決定部215は、利用者30の感情を変化させるか否かを判定する。具体的には、感情変化決定部215は、個人情報データベース217に記憶されている当該利用者30の平常時の性格と、上記ステップS702において推定された利用者30の現在の感情との組み合わせで特定される感情変換パターンが感情変換テーブル219に存在するか否かを参照し、存在している場合には当該利用者30の感情を変化させると判定しステップS704に進み、存在していない場合には、感情を変化させないことに決定し、処理を終了する。
例えば、上記ステップS701において特定された利用者30が「Aさん」であり、上記ステップS702において推定された「Aさん」の現在の感情が「落胆」であり、その程度は「中」であったとする。その場合、感情変化決定部215は個人情報データベース217を参照して「Aさん」の平常時の性格が「積極的」であることを特定し、「Aさん」の平常時の性格(「積極的」)と、上記ステップS702において特定された「Aさん」の現在の感情(「落胆」)とに対応する感情変換パターンが存在するか否かを判定する。感情変換テーブル219には、平常時の性格「積極的」と現在の感情「落胆」とを含む変換パターンが存在するので、感情変化決定部215は、「Aさん」の感情を変化させることに決定し、ステップS704に進む。
ステップS704において、感情変化決定部215は、感情変換テーブル219を参照し、利用者30の平常時の性格、および利用者30の現在の感情とその程度に該当する、現在の感情とは異なる、目標とする感情を決定する。例えば、利用者30が「Aさん」であった場合、感情変換テーブル219を参照し、現在の感情「落胆」の程度が「中」の場合の変化後の目標とする感情は「穏やか」であるので、「穏やか」を感情として決定する。
ステップS705において、状況取得部214は、移動装置208の現在位置検出装置が検出する現在位置情報に基づいて、利用者30と対話型ロボット20とが対話している状況を特定する。具体的には、状況取得部214は、利用者30と対話型ロボット20とが対話している状況が「公的状況」、「私的状況」といった大分類のいずれに該当するか、さらに「会議」、「オフィス」、「休憩所」、「家」、「居酒屋」といった小分類のいずれに該当するかを特定する。
ステップS706において、話題抽出部216は、感情推定部213により推定された当該利用者30の感情と会話実績データベース218における対話前の感情とが一致し、かつ、感情変化決定部215により決定された目標とする感情と会話実績データベース218における対話後の感情とが一致する話題を、対話を行っている状況に基づいて、会話実績データベース218から抽出する。具体的には、利用者30の現在の感情と会話実績データベース218中の「対話前の感情」が一致しており、かつ、目標とする変化後の感情と会話実績データベース218中の「変化後の感情」がそれぞれ一致している話題を抽出する。例えば、上述の例において「Aさん」が対話型ロボット20と対話している状況が「公的」な場所、かつ「休憩所」であったとする。その場合、会話実績データベース218を参照すると、「公的」、「休憩所」という状況下において、「子ども」、「学校」の話題で対話したときに、対話前の感情「落胆」から変化後の感情「穏やか」へと変化した会話実績があることが分かる。そこで、話題抽出部216は、会話実績データベース218から、利用者30の気分を変えるため、話題として「子ども」「学校」を抽出する。
ステップS707において、対話制御部212は、抽出された話題に基づいて利用者30と対話するための対話内容を生成し、スピーカ206を利用して対話音声を出力し、利用者30と対話を行う。上述の例では、対話制御部212は、ステップS706において抽出された「子ども」、「学校」の話題で利用者30である「Aさん」と対話を行うように制御する。次いで、ステップS708において、感情推定部213は、対話相手である利用者30の感情をモニタリングし、上記話題を使用した利用者30との対話時、或いは対話後における利用者30の感情を推定する。
ステップS709において、感情変化決定部215は、感情推定部213により推定した利用者30の感情に基づいて、利用者30が、目標とする感情へと変化したか否かを判定し、目標とする感情へと変化した場合には、処理を終了し、感情へと到達していないと判定された場合には、ステップS710に進む。具体的には、感情変化決定部215は、対話型ロボット20が「Aさん」と「子ども」、「学校」の話題で対話した際に利用者30である「Aさん」が、目標とする感情である「穏やか」になったか否かを判定し、「Aさん」の感情が「穏やか」になっていれば処理を終了し、まだ「穏やか」になっていないと判定された場合には、ステップS710に進む。
ステップS710において、感情変化決定部215は、上述のステップS703からステップS709までの処理、つまり利用者30の感情を変化させるための話題を使用して利用者30との対話を所定回数行ったか否かを判定する。所定回数行ってないと判定された場合、ステップS703に戻り、ステップS703からステップS709までの処理を繰り返し行い、利用者30の感情を変化させる試みを再度実行する。ステップS710において、利用者30の感情を変化させるための話題で利用者30との対話を既に所定回数試みたと判定された場合、処理を終了する。
以上、本実施形態における対話型ロボット20による利用者30との対話の動作について説明した。なお、上記実施形態においては、対話型ロボット20と対話を行う利用者30は一人だけの場合について説明した。しかしながら、本発明の対話型ロボット20が対象とする対話相手は一人だけに限定されるものではなく、複数人の利用者30を対象とすることが可能である。例えば、複数の利用者30が会議等で同一箇所に集まっているような場合に、対話型ロボット20の感情変化決定部215は、感情を変化させる対象となる利用者30と、当該対象となる利用者30の現在の感情とは異なる、目標となる感情とを決定し、その利用者30の感情を変化させるための話題を抽出し、当該話題で利用者30と対話を行い、利用者30の感情を変化させる。
図8には、4人の利用者「Aさん」、「Bさん」、「Cさん」、「Dさん」が会議を行っている様子が示されている。図8(A)に示すように、会議が始まった当初は、4人の感情は皆「リラックス」している状態であった。その後、図8(B)に示すように、会議が進んでいくうちに会議に参加している4人の利用者の感情が変化した。具体的には、図8(B)に示されているように、「Aさん」の感情は、「落胆」「大」の状態に変化し、「Bさん」は「興奮」、「Cさん」と「Dさん」はともに「穏やか」の状態にそれぞれ変化した。このとき、感情変化決定部215は、会議に参加している4人の利用者のうち、どの利用者の感情を変化させるか、どんな感情に変化させるかを、感情変換テーブル219を参照して決定する。感情変換テーブル219には、複数の利用者が存在する場合に、どの利用者の感情を変化させるかを感情変化決定部215が決定する際に参照する優先順位決定テーブル(図示せず)が含まれる。
例えば、感情変換テーブル219に、平常時の性格が「積極的」であり、現在の感情が「落胆」「大」である人の感情を優先して変化させることが決められているとする。その場合、感情変化決定部215は、感情変換テーブル219を参照し、「Aさん」の感情を優先して、「落胆」「大」から「幸せ」へと変化させることに決定する。話題抽出部216は、感情を変化させることに決定した利用者30の現在の感情と会話実績データベース218における対話前の感情とが一致し、かつ、目標とする変化後の感情と会話実績データベース218における対話後の感情とが一致する話題を、対話を行っている状況に基づいて、会話実績データベース218から抽出する。図5の会話実績データベース218を参照すると、「Aさん」が「公的」な場所で「会議」に参加している際に、「テレビ」の話題で対話を行ったときに、対話前の感情「落胆」から対話後の感情「幸せ」へと変化した会話実績がある。そこで、話題抽出部216は、会話実績データベース218から、「Aさん」の感情を変化させるため、話題として「テレビ」を抽出し、対話制御部212は「テレビ」の話題で会話を行うように制御を行う。例えば、対話制御部212は、図8(C)に示すように、対話型ロボット20が「Aさん」に対して「昨日のテレビ番組は楽しかったですか?」と尋ねるような制御を行う。
対話型ロボット20は、「Aさん」の感情を変化させる試みを行った後、再度感情変換テーブル219を参照して、他の利用者30のうち次に感情を変化させるべき利用者30が存在するか否かを判定し、感情を変化させるべき利用者30が存在するなら、上述の「Aさん」に対するのと同様の処理を当該利用者に対して行う。
なお、上述の図8に示した例においては、4人の利用者30の感情を個々に考慮し、個別に感情を変化させる方法について説明した。しかしながら、本発明はこの方法に限定されず、対話型ロボット20が、同一の場所に存在する利用者30の全体的な感情を考慮し、複数の利用者30の全体的な感情を変化させるように制御を行ってもよい。例えば、図9には、4人の利用者「Aさん」、「Bさん」、「Cさん」、「Dさん」が会議を行っている様子が示されている。図9(A)に示すように、会議が始まった当初は、本来の性格が「外交的」な「Aさん」が「興奮」しており、本来の性格が「外交的」な「Bさん」、本来の性格が「内向的」な「Cさん」、および本来の性格が「内向的」な「Dさん」の3人は「リラックス」している。しかし、会議が進むにつれて、図9(B)に示すように、「Aさん」一人だけの話になってしまい、「Bさん」、「Cさん」、「Dさん」は皆「退屈」した状況になってしまったとする。
この場合、感情推定部213は、そこに在席している利用者30の全体的な感情、つまり平均的な感情を推定し、感情変化決定部215は、全体としての感情を変化させるか否か、また、感情を変化させる場合には、どんな感情へと変化させるかを決定する。話題抽出部216は、利用者30の全体としての感情と会話実績データベース218における対話前の感情とが一致し、かつ、利用者30の全体的な感情を変化させた後の目標とする感情と会話実績データベース218における対話後の感情とが一致する話題を、会話実績データベース218から抽出し、対話制御部212は、抽出された話題で複数の利用者30との対話を行い、全体としての雰囲気を変化させる。例えば、図9(C)に示されるように、会議において全体的に皆が退屈している場合、対話型ロボット20は、複数の利用者30に向かって「ちょっと休憩しよう」とか「そろそろ、まとめに入ろう」といった提案を行う。
なお、上記には、個人情報データベース217、会話実績データベース218、感情変換テーブル219が対話型ロボット30に内蔵されている場合について説明したが、本発明は、この構成に限定されず、これらの要素が対話型ロボットと通信回線によって接続されるサーバに配置される構成をとるものとしてもよい。また、生体センサ207が、対話型ロボット20だけでなく、対話型ロボット20以外の場所、例えばオフィスに設置されるようにしてもよい。その場合、センサはオフィスの天井や壁面に設置されるモーションセンサを採用することができる。
また、本実施形態においては、対話型ロボット20を人の形を模した外観として図示しているが、もちろんのことながら、利用者30と対話を行うことができる装置であれば、人の形を模した外観でなくても良いことは言うまでもない。
さらに、上記実施形態においては、話題抽出部216は、感情推定部213によって得た利用者30の現在の感情と会話実績データベース218における対話前の感情とが一致し、かつ、感情変化決定部215により決定された目標とする感情と会話実績データベース218における対話後の感情とが一致する話題を、会話実績データベース218から抽出した例を説明したが、本発明は上記の例のように感情が「一致」した場合の話題を抽出することに限定されるものではなく、感情が「類似」した場合の話題を抽出するようにしてもよい。
例えば、話題抽出部216は、利用者30の現在の感情と会話実績データベース218における対話前の感情とが一致しており、目標とする感情と会話実績データベース218における対話後の感情とが類似している話題を、会話実績データベース218から抽出するようにしてもよい。或いは、話題抽出部216は、利用者30の現在の感情と会話実績データベース218における対話前の感情とが類似しており、目標とする感情と会話実績データベース218における対話後の感情とが一致している話題を、会話実績データベース218から抽出するようにしてもよい。或いは、話題抽出部216は、利用者30の現在の感情と会話実績データベース218における対話前の感情とが類似しており、目標とする感情と会話実績データベース218における対話後の感情とが類似している話題を、会話実績データベース218から抽出するようにしてもよい。
また、上記実施形態においては、利用者30の現在の感情と会話実績データベース218における対話前の感情が一致又は類似し、かつ、目標とする感情と会話実績データベース218における対話後の感情とが一致又は類似する話題を抽出する場合を説明した。しかしながら、本発明は上記の例に限定されるものではなく、例えば、利用者30の現在の感情から目標とする感情までの変化が、会話実績データベース218における対話前後の感情の変化と一致又は類似する話題を会話実績データベース218から抽出するようにしてもよい。
図10は、利用者30の現在の感情から目標とする感情までの変化が、会話実績データベース218における対話前後の感情の変化と類似する話題を抽出する概念を説明した図であり、図10(A)は感情変化テーブル219に基づく利用者30の現在の感情から目標とする感情までの変化を示す図であり、図10(B)は、会話実績データベース218に記憶されている、話題抽出部216は、ある話題による対話前後の利用者の感情の変化を示す説明図である。図10(A)に示すように、感情推定部213によって推定された利用者30の現在の感情と、感情変化決定部215において決定された変化後の目標とする感情とをそれぞれ2次元の感情マップに投影する。なお、2次元の感情マップは、例えば、横軸に「快−不快」、縦軸「積極的−非積極的」をとり、それぞれ横軸、縦軸における値に対応する各種感情(「幸せ」、「悲しい」といった感情)が割り当てられている。
ここで、利用者30の現在の感情が「緊張」「びくびく」であり、目標とする感情が「満足」「安らか」であるとすると、利用者30に取らせようとする感情の変化は、図10(A)のベクトル1000Aで表される。話題抽出部216は、会話実績データベース218を参照し、会話実績データベース218に記憶されている、対話前後の感情の変化が、上記ベクトル1000Aで表される感情の変化と一致又は類似する話題を、会話実績データベース218から抽出する。例えば、会話実績データベース218には、図10(B)に示されるように、対話前の利用者30の感情「びくびく」「ストレス」が、「子ども」「学校」の話題で対話を行った場合に、対話後の感情が「安らか」「リラックス」へと変化した会話の実績が記憶されており、この場合の感情の変化はベクトル1000Bで表される。
現在の感情から目標とする感情までの変化(ベクトル1000A)は、会話実績データベース218に記憶された、「子ども」「学校」の話題での対話前後の感情の変化(ベクトル1000B)と、ベクトルの始点と終点は異なるものの、ベクトルの方向と長さが一致している。そこで、話題抽出部216は、当該利用者30の感情を変化させるための話題として、「子ども」「学校」を抽出する。なお、話題抽出部216は、現在の感情から目標とする感情までの変化を示すベクトルが、会話実績データベース218に記憶されたある話題における対話前後の感情の変化を示すベクトルと一致している場合だけでなく、方向と長さが予め定められた閾値内である場合、或いは、方向、長さ、重心の偏位が予め定められた閾値内である場合であっても、ベクトルが類似しているとみなし、そのベクトルが表す感情変化をもたらした話題を抽出するようにしてもよい。
10 対話システム
20 対話型ロボット
30 利用者
201 CPU
202 メモリ
203 記憶装置
204 カメラ
205 マイクロフォン
206 スピーカ
207 生体センサ
208 移動装置
209 制御バス
211 個人認証部
212 対話制御部
213 感情推定部
214 状況取得部
215 感情変化決定部
216 話題抽出部
217 個人情報データベース
218 会話実績データベース
219 感情変換テーブル

Claims (7)

  1. ある話題と、当該話題による対話前後の利用者毎の感情の変化とを関連付けて記憶する記憶手段と、
    利用者の感情を表す徴候を検出する検出手段から得た情報を用いて利用者の感情を推定する推定手段と、
    推定手段で得た感情と対話前の感情とが一致又は類似し、かつ、目標とする感情と対話後の感情とが一致又は類似する話題を、前記記憶手段から抽出して利用者と対話を行う対話手段と、を備える対話装置。
  2. ある話題と、当該話題による対話前後の利用者毎の感情の変化とを関連付けて記憶する記憶手段と、
    利用者の感情を表す徴候を検出する検出手段から得た情報を用いて利用者の感情を推定する推定手段と、
    推定手段で得た感情から目標とする感情までの変化が、前記記憶手段の対話前後の感情の変化と一致又は類似する話題を、前記記憶手段から抽出して利用者と対話を行う対話手段と、を備える対話装置。
  3. 前記対話装置はさらに、当該対話装置と利用者が対話を行う状況を取得する取得手段を備え、
    前記記憶手段は、前記取得手段が取得した状況毎に、話題と、その話題による対話前後の利用者の感情変化とを関連付けて記憶し、
    前記対話手段は、前記取得手段が取得した状況に対応する状況下において、前記推定手段で得た感情と対話前の感情とが一致又は類似し、かつ、目標とする感情と対話後の感情とが一致又は類似する話題を、前記記憶手段から抽出する請求項1又は2記載の対話装置。
  4. 前記取得手段は、当該対話装置と利用者が対話を行う位置に基づいて状況を推定する請求項3記載の対話装置。
  5. 前記対話手段は、前記推定手段により推定された利用者の現在の感情の強さに応じて目標とする感情を定めて話題を抽出する請求項1から4いずれかに記載の対話装置。
  6. 前記記憶手段は、利用者の性格をさらに記憶し、
    前記対話手段は、前記記憶手段に記憶された利用者の性格に応じて目標とする感情を定めて話題を抽出する請求項1から5いずれかに記載の対話装置。
  7. 複数の利用者が存在する場合に、前記対話手段は、感情を変化させる対象となる利用者と、当該対象となる利用者の現在の感情とは異なる、目標とする感情とを定めて話題を抽出する、請求項1から5いずれかに記載の対話装置。
JP2016180318A 2016-09-15 2016-09-15 対話装置 Active JP6774018B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016180318A JP6774018B2 (ja) 2016-09-15 2016-09-15 対話装置
US15/439,363 US20180075848A1 (en) 2016-09-15 2017-02-22 Dialogue apparatus and method
CN201710251203.1A CN107825429B (zh) 2016-09-15 2017-04-18 对话装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016180318A JP6774018B2 (ja) 2016-09-15 2016-09-15 対話装置

Publications (2)

Publication Number Publication Date
JP2018045118A JP2018045118A (ja) 2018-03-22
JP6774018B2 true JP6774018B2 (ja) 2020-10-21

Family

ID=61560265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016180318A Active JP6774018B2 (ja) 2016-09-15 2016-09-15 対話装置

Country Status (3)

Country Link
US (1) US20180075848A1 (ja)
JP (1) JP6774018B2 (ja)
CN (1) CN107825429B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592612B2 (en) * 2017-04-07 2020-03-17 International Business Machines Corporation Selective topics guidance in in-person conversations
JP6867971B2 (ja) * 2018-03-26 2021-05-12 株式会社 日立産業制御ソリューションズ 会議支援装置及び会議支援システム
WO2019187590A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP7131077B2 (ja) * 2018-05-24 2022-09-06 カシオ計算機株式会社 会話装置、ロボット、会話装置制御方法及びプログラム
KR102252195B1 (ko) * 2018-09-14 2021-05-13 엘지전자 주식회사 감성 인식기 및 이를 포함하는 로봇, 서버
JP6748170B2 (ja) * 2018-10-04 2020-08-26 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、ビデオゲーム処理装置及びビデオゲーム処理方法
CN109352666A (zh) * 2018-10-26 2019-02-19 广州华见智能科技有限公司 一种基于机器语音对话的情感发泄方法及系统
CN111192574A (zh) * 2018-11-14 2020-05-22 奇酷互联网络科技(深圳)有限公司 智能语音交互方法、移动终端和计算机可读存储介质
CN109887503A (zh) * 2019-01-20 2019-06-14 北京联合大学 一种智能服务机器人的人机交互方法
JP7273637B2 (ja) * 2019-07-17 2023-05-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
JP6797979B1 (ja) * 2019-08-08 2020-12-09 株式会社Nttドコモ 情報処理装置
CN113535903B (zh) * 2021-07-19 2024-03-19 安徽淘云科技股份有限公司 情绪引导方法、情绪引导机器人及存储介质和电子设备
CN117283577B (zh) * 2023-09-19 2024-05-03 重庆宗灿科技发展有限公司 一种仿真陪护机器人

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (ja) * 2000-04-03 2001-10-12 Nec Corp 感性適応型情報提示装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
US9440356B2 (en) * 2012-12-21 2016-09-13 Crosswing Inc. Customizable robotic system
KR102228455B1 (ko) * 2013-08-05 2021-03-16 삼성전자주식회사 대화의 소재를 제공하는 장치, 서버 및 방법
JP2015138433A (ja) * 2014-01-23 2015-07-30 株式会社Nttドコモ 情報処理装置及び情報処理方法
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
US20170214962A1 (en) * 2014-06-24 2017-07-27 Sony Corporation Information processing apparatus, information processing method, and program
US9807559B2 (en) * 2014-06-25 2017-10-31 Microsoft Technology Licensing, Llc Leveraging user signals for improved interactions with digital personal assistant
JP6122816B2 (ja) * 2014-08-07 2017-04-26 シャープ株式会社 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム
CN104809103B (zh) * 2015-04-29 2018-03-30 北京京东尚科信息技术有限公司 一种人机对话的语义分析方法及系统
US10446142B2 (en) * 2015-05-20 2019-10-15 Microsoft Technology Licensing, Llc Crafting feedback dialogue with a digital assistant
US10997226B2 (en) * 2015-05-21 2021-05-04 Microsoft Technology Licensing, Llc Crafting a response based on sentiment identification

Also Published As

Publication number Publication date
CN107825429B (zh) 2022-09-20
US20180075848A1 (en) 2018-03-15
CN107825429A (zh) 2018-03-23
JP2018045118A (ja) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6774018B2 (ja) 対話装置
CN111368609B (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
JP6761598B2 (ja) 感情推定システム、感情推定モデル生成システム
CN107053186B (zh) 对话装置、机器人、对话方法以及存储介质
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
JP6951712B2 (ja) 対話装置、対話システム、対話方法、およびプログラム
CN111415677A (zh) 用于生成视频的方法、装置、设备和介质
JP2004310034A (ja) 対話エージェントシステム
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
JP7227395B2 (ja) インタラクティブ対象の駆動方法、装置、デバイス、及び記憶媒体
CN111199032A (zh) 身份认证的方法以及装置
KR101727592B1 (ko) 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법
JP7003400B2 (ja) 対話制御システム
US10789961B2 (en) Apparatus and method for predicting/recognizing occurrence of personal concerned context
KR101738142B1 (ko) 감성 기반의 대화가 가능한 디지털 생명체 생성 시스템 및 그 제어방법
JP2019217122A (ja) ロボット、ロボットの制御方法及びプログラム
US20200176019A1 (en) Method and system for recognizing emotion during call and utilizing recognized emotion
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
EP3939039A1 (en) Providing emotion management assistance
CN116188642A (zh) 交互方法、装置、机器人和存储介质
KR102106700B1 (ko) 사용자의 음성 신호를 기반으로 감정, 나이 및 성별을 동시에 인식하는 방법 및 시스템
CN109961152B (zh) 虚拟偶像的个性化互动方法、系统、终端设备及存储介质
KR102345729B1 (ko) 영상 생성 방법 및 장치
CN111506183A (zh) 一种智能终端及用户交互方法
CN111971670B (zh) 在对话中生成响应

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200915

R150 Certificate of patent or registration of utility model

Ref document number: 6774018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350