JP7021488B2 - 情報処理装置、及びプログラム - Google Patents

情報処理装置、及びプログラム Download PDF

Info

Publication number
JP7021488B2
JP7021488B2 JP2017183342A JP2017183342A JP7021488B2 JP 7021488 B2 JP7021488 B2 JP 7021488B2 JP 2017183342 A JP2017183342 A JP 2017183342A JP 2017183342 A JP2017183342 A JP 2017183342A JP 7021488 B2 JP7021488 B2 JP 7021488B2
Authority
JP
Japan
Prior art keywords
speaker
unit
data
emotion
phoneme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017183342A
Other languages
English (en)
Other versions
JP2019060921A (ja
Inventor
佑樹 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017183342A priority Critical patent/JP7021488B2/ja
Publication of JP2019060921A publication Critical patent/JP2019060921A/ja
Application granted granted Critical
Publication of JP7021488B2 publication Critical patent/JP7021488B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、及びプログラムに関する。
特許文献1には、取得した口の動きの画像に基づいて、その動きに対応する文字を抽出し、その文字を用いて音声を生成して通信先に送信する携帯端末装置が開示されている。
特許文献2には、マイクロフォンに入力される音の大きさがあらかじめ定められた閾値以上である場合には、着信時に読唇通話モードを選択する画面を表示部に表示させ、読唇通話モードが選択されると通話モードを読唇通話モードに切り替え、読唇通話モードに切り替えられると、撮像装置で撮像して得られた画像から話者の唇の形状を検出して言葉の音声データ及びテキストデータの少なくとも一方に変換し、外部に送信する携帯端末装置が開示されている。
特開2015-115926公報 特開2015-220684公報
本発明は、話者の口の動きからその話者の発言に対応するデータを生成して表現する際に、そのデータをその話者の感情に沿った態様で表現することを目的とする。
本発明の請求項1に係る情報処理装置は、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部と、抽出された前記変化から前記発言を特定する特定部と、前記感情を推定する推定部と、を有し、前記特定部は、前記話者の発言の速度及び音量の少なくとも一方を特定し、前記生成部は、前記特定部により特定された前記発言から音素を選択し、該音素から前記推定部により推定された前記感情に対応する表現であって、前記特定部により特定された前記速度又は音量の前記データを生成することを特徴とする情報処理装置である。
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記話者の生体情報を取得する第2取得部、を有し、前記推定部は、取得した前記生体情報に応じて前記感情を推定することを特徴とする情報処理装置である。
本発明の請求項に係る情報処理装置は、請求項又はに記載の態様において、前記推定部は、前記画像から前記話者の表情を抽出して、該表情に応じて前記感情を推定することを特徴とする情報処理装置である。
本発明の請求項に係る情報処理装置は、請求項1からのいずれか1項に記載の態様において、前記生成部は、前記発言から音素を選択し、該音素から前記感情に対応する表現の音声を示す前記データを生成することを特徴とする情報処理装置である。
本発明の請求項に係る情報処理装置は、請求項1からのいずれか1項に記載の態様において、前記生成部は、前記話者の音声を示す話者データを用いて前記データを生成することを特徴とする情報処理装置である。
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記生成部は、前記話者の音声のうち、推定された前記感情に対応する音声を示す前記話者データを用いて前記データを生成することを特徴とする情報処理装置である。
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記生成部は、前記話者の音声のうち、前記話者の生体情報に対応する音声を示す話者データを用いて前記データを生成することを特徴とする情報処理装置である。
本発明の請求項8に係る情報処理装置は、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部と、抽出された前記変化から前記発言を特定する特定部と、前記話者の生体情報を取得する第2取得部と、取得した前記生体情報に応じて前記感情を推定する推定部と、を有し、前記生成部は、前記特定部により特定された前記発言と、前記推定部により推定された前記感情と、に対応する前記データを前記話者の音声のうち、前記話者の生体情報に対応する音声を示す話者データを用いて生成することを特徴とする情報処理装置である。
本発明の請求項に係る情報処理装置は、請求項1からのいずれか1項に記載の態様において、前記生成部は、前記話者から決められた操作を受付けた場合に、前記データを生成することを特徴とする情報処理装置である。
本発明の請求項10に係る情報処理装置は、請求項1からのいずれか1項に記載の態様において、前記話者の発した声の音量を計測する計測部、を有し、前記生成部は、前記音量が決められた閾値未満である場合に、前記データを生成することを特徴とする情報処理装置である。
本発明の請求項11に係る情報処理装置は、請求項1から10のいずれか1項に記載の態様において、前記話者の周囲の光量を計測する計測部、を有し、前記生成部は、前記光量が決められた閾値未満である場合に、前記データの生成を停止することを特徴とする情報処理装置である。
本発明の請求項12に係る情報処理装置は、請求項1から11のいずれか1項に記載の態様において、前記生成部が前記データを生成するか否かを通知する、ことを特徴とする情報処理装置である。
本発明の請求項1に係るプログラムは、コンピュータを、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部抽出された前記変化から前記発言を特定する特定部と、前記感情を推定する推定部、として機能させるとともに、前記特定部が、前記話者の発言の速度及び音量の少なくとも一方を特定し、前記生成部が、前記特定部により特定された前記発言から音素を選択し、該音素から前記推定部により推定された前記感情に対応する表現であって、前記特定部により特定された前記速度又は音量の前記データを生成するように、前記コンピュータを機能させるためのプログラムである。
本発明の請求項14に係るプログラムは、コンピュータを、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部と、抽出された前記変化から前記発言を特定する特定部と、前記話者の生体情報を取得する第2取得部と、取得した前記生体情報に応じて前記感情を推定する推定部、として機能させるとともに、前記生成部が、前記特定部により特定された前記発言と、前記推定部により推定された前記感情と、に対応する前記データを前記話者の音声のうち、前記話者の生体情報に対応する音声を示す話者データを用いて生成するように、前記コンピュータを機能させるためのプログラムである。
請求項1、13に係る発明によれば、話者の口の動きからその話者の発言の速度及び音量の少なくとも一方が反映されたデータを生成して表現する際に、そのデータをその話者の感情に沿った態様で表現することができる。
請求項に係る発明によれば、表現に用いられる話者の感情は、その話者の生体情報に応じて推定される。
請求項に係る発明によれば、話者の表情から話者の感情が推定される。
請求項に係る発明によれば、音素を合成して音声を示すデータが合成される。
請求項に係る発明によれば、話者の音声に応じたデータが合成される。
請求項に係る発明によれば、話者の感情に対応する音声を用いてデータが合成される。
請求項に係る発明によれば、話者の生体情報に対応する音声を用いてデータが合成される。
請求項8、14に係る発明によれば、話者の口の動きからその話者の発言に対応するデータを生成して表現する際に、そのデータをその話者の生体情報に応じて推定された感情に沿って、その話者の生体情報に対応する音声で表現することができる。
請求項に係る発明によれば、話者が決められた操作を行うことでデータが合成される。
請求項10に係る発明によれば、話者の発した声の音量が閾値未満である場合にデータが合成される。
請求項11に係る発明によれば、話者の周囲の光量が閾値未満である場合にデータの合成が停止される。
請求項12に係る発明によれば、話者の発言及び感情に応じたデータが合成されるか否かを知ることができる。
本実施形態に係る通話システム9の構成の例を示す図。 測定装置2の構成の例を示す図。 端末1の構成の例を示す図。 記憶部12に記憶される各種のデータベースを示す図。 端末1の機能的構成を示す図。 端末1の代表色及び配色候補を抽出する動作の流れを示すフロー図。 話者の感情ごとに変化する音声の表現を説明するための図。 図1において破線で示したサーバ装置4の構成を示す図。 サーバ装置4の機能的構成を示す図。 端末1a及び端末1bが機能を分担する例を示す図。 端末1a及び端末1bが機能を分担する例を示す図。 変形例における音素DB124の一例を示す図。
1.実施形態
1-1.通話システムの全体構成
図1は、本実施形態に係る通話システム9の構成の例を示す図である。通話システム9は、話者が利用する端末1a、話者の通話の相手が利用する端末1b(以下、端末1a、1bを区別しない場合に、単に「端末1」と表記する)、及び、これらの端末1を互いに接続する通信回線3を有する。また、図1に示す通話システム9は、話者の手首等、身体のいずれかの部位に装着され、話者の生体の情報(以下、「生体情報」という)を測定する測定装置2を有している。生体情報とは、例えば、血圧、体温、発汗量、脈拍数、心拍のパターン等で示される情報である。
1-2.測定装置の構成
図2は、測定装置2の構成の例を示す図である。測定装置2は、制御部21、記憶部22、通信部23、及び測定部28を有する。
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有し、CPUがROM及び記憶部22に記憶されているコンピュータプログラム(以下、単にプログラムという)を読み出して実行することにより測定装置2の各部を制御する。
記憶部22は、ソリッドステートドライブ等の記憶手段であり、制御部21のCPUに読み込まれる各種のプログラムを記憶する。
測定部28は、端末1を利用する話者の生体情報を測定するデバイスである。測定部28は、例えば、LED(Light Emitting Diode)等、照射装置により、決められた波長の光を話者の手首の組織へ照射し、血管中を流れる血液に含まれるヘモグロビンに吸収されずに反射された反射光を受光素子によって受光して、その反射光の経時変化の周期から脈拍数を測定する脈拍計である。また、測定部28は、話者の血圧、体温、発汗量、心拍のパターン等を測定してもよい。
通信部23は、無線又は有線により端末1に接続する通信回路である。測定装置2は、通信部23により端末1に測定部28が測定した結果を示す生体情報を供給する。
1-3.端末の構成
図3は、端末1の構成の例を示す図である。端末1は、制御部11、記憶部12、通信部13、表示部14、操作部15、収音部16、放音部17、及び撮像部18を有する。
制御部11は、CPU、ROM、RAMを有し、CPUがROM及び記憶部12に記憶されているプログラムを読み出して実行することにより端末1の各部を制御する。
操作部15は、各種の指示をするための操作ボタン、キーボード等の操作子を備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部11に供給する。操作部15は、利用者の指又はスタイラスペン等の操作体を検知するタッチパネルを有してもよい。
表示部14は、液晶ディスプレイ等の表示画面を有しており、制御部11の制御の下、画像を表示する。表示画面の上には、操作部15の透明のタッチパネルが重ねて配置されてもよい。
収音部16は、話者の音声を収録して音声信号に変換するマイクロフォン等である。
放音部17は、制御部11から供給される音声信号を音に変換して放出するスピーカ等である。
撮像部18は、CMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge Coupled Device)等の撮像素子と、これら撮像素子に像を結像する光学系を備える。撮像部18は、いわゆるインカメラであり、撮像素子で得られた画像を示す画像データを生成する。端末1を話者が利用するとき、撮像部18は、話者の顔を複数回にわたって撮像する。
なお、この撮像部18は、話者の顔を複数回にわたって撮像することに代えて、その話者の顔を示す動画像を1回撮影することで、複数の静止画像を示す画像データを得てもよい。
通信部13は、第1通信部131及び第2通信部132を有する。第1通信部131は、無線又は有線により通信回線3と接続する通信回路である。第2通信部132は、無線又は有線により測定装置2と接続する通信回路である。第2通信部132による通信には、例えば、IEEE802.15に準拠した近接無線通信方式等が適用される。
記憶部12は、ソリッドステートドライブ、ハードディスクドライブ等の大容量の記憶手段であり、制御部11のCPUに読み込まれる各種のプログラムを記憶する。また、記憶部12は、感情DB121、発言DB122、表現DB123、及び音素DB124を記憶する。
図4は、記憶部12に記憶される各種のデータベースを示す図である。図4(a)に示す感情DB121は、話者の表情に関する条件(「表情条件」という)と、話者の生体情報に関する条件(「生体条件」という)と、これら表情条件及び生体条件の少なくとも一方を満たすときの話者の感情を識別するための識別情報(「感情ID」という)とを対応付けて記憶する。感情とは、例えば「喜び」「怒り」「悲しみ」「驚き」「興奮」「困惑」「疑問」「焦り」等である。
表情条件は、例えば、話者の顔を撮像した画像から、その話者の口角、眉、瞳等、表情を構成する各部位の位置や動きの範囲を定めた条件である。生体条件は、第2通信部132を介して測定装置2から取得した話者の生体情報から、その話者の血圧、体温、発汗量、脈拍数、心拍のパターン等の範囲を定めた条件である。
この感情DB121を参照することにより、制御部11は、例えば、話者の口角が決められた基準を超えて上がっているという表情条件を満たしていると判定し、かつ、脈拍数が決められた範囲にあるという生体条件を満たしていると判定するとき、この話者がこの表情条件及び生体条件に対応付けられた「喜び」の感情を有している、と特定する。なお、制御部11は、表情条件及び生体条件のいずれか一方を満たしていると判定するときに、その条件に対応付けられた感情を有していると特定してもよい。
図4(b)に示す発言DB122は、話者の口又は唇の形状に関する条件(「口唇条件」という)と、その口唇条件を満たすときに話者の発言を示す情報(「発言情報」という)とを対応付けて記憶する。この発言DB122を参照することにより、制御部11は、話者の口又は唇の形状から話者の発言を特定する。
発言情報により示される発言は、話者が用いる言語において区別される音の単位である音声素片(「音素」という)であってもよいが、いくつかの音素の組合せで構成される単語であってもよい。
図4(c)に示す表現DB123は、感情IDと、音声の表現の態様を示す情報(「表現情報」という)とを対応付けて記憶する。表現DB123を参照することにより、制御部11は、指定された感情IDで示される感情を話者が有しているときに、その話者の音声が表現される態様を特定する。
音声が表現される態様とは、具体的には、例えば、音声の強勢、抑揚、音程、リズム等の韻律で示される態様である。表現DB123には、例えば、「喜び」の感情に対して、「全体的に高めの音程で、語頭と語尾とが閾値以上の高い音程になる抑揚」が、「怒り」の感情に対して、「全体的に低めの音程で、音程の変化が閾値未満になる抑揚」が、それぞれ表現情報として対応付けられている。
感情と、音声が表現される態様との対応関係は、複数の人の標本を統計的に処理して決定されてもよいし、端末1を利用する話者の標本を統計的に処理して決定されてもよい。なお、統計的に処理するとは、例えば、閾値との比較による異常値の除去や、相加平均・相乗平均の算出、最頻値・中央値等の代表値の特定等である。
図4(d)に示す音素DB124は、発言情報と、その発言情報により示される発言を人が発声したときの音素を示す音素データとを対応付けて記憶する。
音素データは、複数の人が音素を発声したときの波形データを統計的に処理して生成された音声信号であってもよいし、端末1を利用する話者が過去に録音した音声を示すデータ(「話者データ」という)を統計的に処理して生成された音声信号であってもよい。
1-4.端末の機能的構成
図5は、端末1の機能的構成を示す図である。図5に示す端末1の制御部11は、図1に示す記憶部12に記憶されたプログラムを実行することにより、特定部111、推定部112、選択部113、生成部114、第1取得部117、及び第2取得部118として機能する。また、図5に示す制御部11は、上述したプログラムを実行することにより、計測部119、及び受付部110として機能する。
第1取得部117は、撮像部18が話者の顔を複数回にわたって撮像した画像を取得する。特定部111は、画像から話者の口の形状の変化を抽出して、話者の発言を特定する。
また、特定部111は、取得した画像から抽出された話者の口唇情報を用いて、例えば、開いた口の大きさや形状、それらの変化の速度を解析することにより、話者の発言の速度及び音量の少なくとも一方を特定してもよい。
第2取得部118は、第2通信部132を介して測定装置2と通信し、測定装置2を装着した話者の生体情報を取得する。推定部112は、第1取得部117が取得した話者の画像からその話者の表情を抽出する。そして推定部112は、抽出したその表情と第2取得部118が取得した生体情報とをそれぞれ感情DB121に定められた表情条件及び生体条件に照合してこの話者の感情を推定する。
選択部113は、特定された話者の発言を示す発言情報に基づいて音素DB124を検索し、この発言情報に対応する音素データを選択する。選択部113が選択する音素データは、1つの発言情報に対して1つであってもよいし、複数であってもよい。
生成部114は、特定された話者の発言、及び推定された話者の感情に応じた音声データを生成する。生成部114は、例えば、選択された音素データを、推定された感情に応じて変形し、発言に沿った配列に並べて互いに接続することで音声データを生成する。つまり、選択部113及び生成部114の機能を合わせると、特定部111で特定された話者の発言から音素を選択し、選択されたその音素から話者の感情に対応する表現の音声を示す音声データを生成する機能となる。
生成部114は、音声データを生成すると、通信部13の第1通信部131を介して、通話の相手が利用する端末1にこの音声データを送信する。なお、送信先の端末1bは、音声データを生成した端末1aの機能を全て有していなくてもよく、端末1aから受信した音声データを例えば放音部17から出力する機能を有していればよい。
上述した機能を制御部11が実現することで、端末1は、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、画像から話者の口の形状の変化を抽出して、話者の発言を特定する特定部と、話者の感情を推定する推定部と、発言、及び感情に応じたデータを生成する生成部と、を有する情報処理装置として機能する。
なお、音素DB124に記憶されている音素データが、話者データに基づいて生成された音声信号である場合、生成部114は、話者データに基づいて生成された音声信号を用いて上述した音声データを生成する。この場合、生成された音声データには、端末1を利用する話者の音声に固有の特徴が含まれる可能性が高い。
計測部119は、話者の発した声の音量を計測する。生成部114は、計測された音量が決められた閾値未満である場合に、音声データを生成する。この構成によれば、話者の発した声の音量が決められた程度に満たないときに、端末1は、話者の口唇の形状と動きから発言の内容(「発言内容」という)を特定して、その発言内容に応じた音声データを生成して相手の端末1に送信する。したがって、声が小さくて聞き取れない場合に、端末1は、発言内容に応じた音声データを生成して相手に送信する。
また、計測部119は、話者の周囲の光量を計測する。例えば、計測部119は、第1取得部が取得した画像から上述した光量を計測してもよい。また、端末1は、話者の周囲の光量を測定する照度計等を有していてもよい。この場合、計測部119は、この照度計から上述した光量の情報を取得すればよい。
生成部114は、計測された光量が決められた閾値未満である場合に、音声データの生成を停止する。この構成によれば、話者の周囲に決められた程度の明るさがないときに、話者の口唇の形状と動きから特定される発言内容に応じた音声データは生成されない。したがって、撮像した画像が暗すぎて話者の口唇の動きを特定することが困難になり、特定される発言内容が不正確になる可能性がある場合に、端末1は音声データを生成せず、相手に送信しない。
受付部110は、操作部15を介して話者の操作を受付ける。生成部114は、受付部110が話者から決められた操作を受付けた場合に、上述した音声データを生成する。例えば、生成部114は、受付部110が操作部15の決められたボタンを押してから離すまでの期間、すなわち、そのボタンを押下し続けている期間に、上述した音声データを生成する。
1-5.端末の動作
図6は、端末1の代表色及び配色候補を抽出する動作の流れを示すフロー図である。図6(a)に示すフロー図に沿って、端末1の制御部11は、第1通信部131を監視して他の端末1から着信があるか否かを判断する(ステップS101)。着信がないと判断する間(ステップS101;NO)、制御部11は、この判断を続ける。着信があると判断した場合(ステップS101;YES)、制御部11は、話者が着信を受けるモードを選択するための操作を受付けて、話者がモードを選択したか否かを判断する(ステップS102)。
話者が選択をしていないと判断する場合(ステップS102;NO)、制御部11は、この判断を続ける。話者が選択をしたと判断する場合(ステップS102;YES)、制御部11は、その選択したモードが、音声無しで通話を行うモード(「無音声モード」という)であるか否かを判断する(ステップS103)。
無音声モードが選択されていないと判断する場合(ステップS103;NO)、制御部11は、音声を介した通常の通話を行う(ステップS104)。無音声モードが選択されたと判断する場合(ステップS103;YES)、制御部11は、撮像部18を駆動して話者の顔を撮像させ(ステップS105)、撮像部18からそれらの画像を取得し、また、測定装置2から生体情報を取得する(ステップS106)。
制御部11は、話者から発言するための操作(「発言操作」という)があったか否かを判断する(ステップS107)。発言操作は、例えば、操作部15の決められたボタンを押下し続けるといった操作である。発言操作がないと判断する間(ステップS107;NO)、制御部11は、この判断を続ける。
発言操作があると判断した場合(ステップS107;YES)、制御部11は、取得した画像から話者の口唇情報を抽出して話者の発言を特定する(ステップS108)。
また、制御部11は、取得した画像から抽出された話者の口唇情報を用いて、話者のしゃべり方の速度や、発しているはずの声の大きさ等を特定してもよい(ステップS109)。
制御部11は、取得した生体情報又は話者の顔の画像から、話者の感情を推定する(ステップS110)。制御部11は、特定した話者の発言に対応付けられた1つ又は複数の音素を示す音素データを選択し(ステップS111)、それらの音素データを推定した感情に沿って変形、接続して、その感情に応じた表現の音声データを生成する(ステップS112)。ステップS109で話者の発言の速度や音量を特定した場合に、これらの情報がこの音声データの生成に反映されてもよい。制御部11は、生成したこの音声を相手の端末1に送信する(ステップS113)。
以上の動作により、端末1は、話者の顔を複数回にわたって撮像した画像を取得して、その画像から話者の口の形状の変化を抽出してその発言を特定する。そして、端末1は、話者の感情を上述した画像又は生体情報から推定し、特定した発言と推定した感情とに応じた音声データを生成する。
図7は、話者の感情ごとに変化する音声の表現を説明するための図である。図7に示す表には左から右に向かって順に発音される音素が並んでおり、縦にはそれぞれ「喜び」「怒り」「悲しみ」等の話者の感情が並んでいる。そして図7には、それぞれの感情ごとに、各音素が発音されるときの音程が、対応する位置の棒グラフの高さで表されている。
図7に示す通り、例えば、「ありがとうございました」という発言は11個の音素の並びで表される。話者が「喜び」の感情を抱いているときに、この発言は、話者が他の感情を抱いているときと比較して全体的に高めな音程になり、語頭と語尾とが閾値以上の高い音程になる。
一方、話者が「怒り」の感情を抱いているときに、この発言は、「喜び」の感情を抱いているときと比べて全体的に低めな音程になり、抑揚が比較的少ない。また、話者が「悲しみ」の感情を抱いているときには、この発言は、他の感情を抱いているときと比較して全体的に低めな音程になり、3つ目の音素から音程が下がり続ける。
この端末1の上述した動作によれば、話者の口の形状の変化から発言を特定し、特定した発言だけに基づいて生成された音声データを送信する端末に比べて、話者の感情に応じた表現で音声データが相手の端末に伝わる。
2.変形例
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組合せてもよい。
2-1.変形例1
上述した実施形態において、推定部112は、第1取得部117が取得した画像から抽出した話者の表情と第2取得部118が取得した生体情報とを用いてこの話者の感情を推定していたが、表情及び生体情報のいずれか一方に基づいて推定してもよい。
例えば、推定部112は、第1取得部117が取得した画像から抽出した話者の表情からその話者の感情を推定してもよい。この場合、図4(a)に示した感情DB121に、生体条件の欄はなくてもよい。また、この場合、話者は測定装置2を自分の身体の部位に装着しなくてもよく、制御部11は、第2取得部118として機能しなくてもよい。
2-2.変形例2
また、推定部112は、第2取得部118が取得した生体情報からその話者の感情を推定してもよい。この場合、図4(a)に示した感情DB121に、表情条件の欄はなくてもよい。また、この場合、推定部112は、第1取得部117が取得した画像から話者の表情を抽出しなくてもよい。
また、推定部112は、表情及び生体情報のそれぞれの条件のいずれか一方が満たされるときに、話者の感情を推定してもよい。
また、推定部112は、表情及び生体情報とは異なる条件に基づいて話者の感情を推定してもよい。例えば、推定部112は、収音部16により収録された話者の音声の特徴、韻律を特定して、これらに基づいて話者の感情を推定してもよい。
2-3.変形例3
上述した実施形態において、生成部114及び選択部113は、特定部111で特定された話者の発言から音素を選択し、選択されたその音素から話者の感情に対応する表現の音声を示す音声データを生成する機能を有していたが、生成部114は、話者の発言の内容を示すデータを生成してもよい。
生成部114は、例えば、話者の発言の内容を文字で表したテキストデータを生成してもよい。この場合、生成部114は、推定部112によって推定された話者の感情を、注釈や、文字色、書体、下線付与等の文字修飾、フォントの選択等、テキストやテキストの表示態様を用いて表現してもよい。要するに、生成部114は、特定した発言、及び推定した感情に応じたデータを生成すればよい。
2-4.変形例4
上述した実施形態において、特定部111は、口唇情報を用いて、話者の発言の速度又は音量を特定していたが、これらを特定しなくてもよい。この場合にも、特定部111は口唇情報から話者の発言を特定し、生成部114がこの発言に応じたデータを生成する。
2-5.変形例5
上述した実施形態において、音素DB124は、発言情報と、その発言情報により示される発言を人が発声したときの音素を示す音素データとを対応付けて記憶していたが、この発言情報及び話者の発した音素を示す音素データの組を、話者の感情ごとに記憶してもよい。
例えば、同じ「あ」という発言を話者が発声するときであっても、話者が「喜び」の感情を有しているときと、「怒り」の感情を有しているときとでは、韻律が異なる場合がある。この変形例において音素DB124は、話者の感情ごとに、発言情報とこれに対応する音素データとの組を記憶する。
この構成において、選択部113は、例えば、特定された話者の発言を示す発言情報と、推定された話者の感情を示す感情IDとに基づいて音素DB124を検索し、これらに対応する音素データを選択する。生成部114は、選択された音素データを接続して、上述した音声データを生成する。
2-6.変形例6
また、音素DB124は、発言情報及び話者の音素データの組を、話者の生体情報ごとに記憶してもよい。例えば、同じ「あ」という発言を話者が発声するときであっても、話者の血圧、体温、発汗量、脈拍数、心拍のパターン等の生体の状態が話者の音声に影響する場合がある。この変形例において音素DB124は、話者の生体情報ごとに、発言情報とこれに対応する音素データとの組を記憶する。
この構成において、選択部113は、例えば、特定された話者の発言を示す発言情報と、測定装置2において測定された話者の生体情報とに基づいて音素DB124を検索し、これら発言情報及び生体情報のそれぞれに対応する音素データを選択する。生成部114は、選択された音素データを接続して、上述した音声データを生成する。
2-7.変形例7
上述した実施形態において、受付部110は、操作部15を介して話者の操作を受付け、生成部114は、受付部110が話者から決められた操作を受付けた場合に、上述した音声データを生成していたが、生成部114は、話者からの操作に依らずに音声データを生成してもよい。
2-8.変形例8
上述した実施形態において、生成部114は、計測された音量が決められた閾値未満である場合に、音声データを生成していたが、この音量が決められた条件を満たす場合に、音声データの生成を開始又は停止してもよい。また、生成部114は、話者の発した声の音量と関係なく、例えば決められた操作を受付けたとき等に、音声データの生成を開始又は停止してもよい。この場合、計測部119は、話者の発した声の音量を計測しなくてもよく、端末1に設けられなくてもよい。
また、端末1は、例えば赤外線センサ等の人感センサを備え、この人感センサにより端末1の決められた部位から決められた距離内に話者が存在しているか否かを検知してもよい。
例えば無音声モードが選択されているときに、この人感センサが、撮像部18により撮像し得ない範囲等を示す決められた距離内に話者の顔の一部等が存在していることを検知すると、生成部114による音声データの生成を止めてもよい。また、このとき制御部11は放音部17を用いて話者に対し「無音声モードによる音声データの生成を行いますので、端末を顔から離し、インカメラに顔を写しながら話をして下さい」というアナウンスをしてもよい。
2-9.変形例9
また、生成部114は、計測された光量が決められた閾値未満である場合に、音声データの生成を停止していたが、この光量が決められた条件を満たす場合に、音声データの生成を開始又は停止してもよい。また、生成部114は、話者の周囲の光量と関係なく、例えば、決められた操作を受付けた場合に、音声データの生成を開始又は停止してもよい。この場合、計測部119は、話者の周囲の光量を計測しなくてもよく、端末1に設けられなくてもよい。
なお、計測部119は、話者の発した声の音量や話者の周囲の光量の他に、物理量を計測してもよい。生成部114は、計測された物理量が決められた条件を満たす場合に、音声データの生成を開始又は停止してもよい。
2-10.変形例10
端末1は、相手の端末1と通信をする際に、生成部114が上述した音声データを生成するか否かを通知してもよい。これにより、通信先の端末1bの利用者は、送られてくる音声データが無音声モードにおいて生成されたものであるか否かを把握する。
2-11.変形例11
上述した端末1の制御部11は、特定部111、推定部112、選択部113、生成部114、第1取得部117、及び第2取得部118として機能したが、これらの機能を、通信回線3に接続されたサーバ装置4が行ってもよい。
図8は、図1において破線で示したサーバ装置4の構成を示す図である。サーバ装置4は、通信回線3に接続しており、端末1a及び端末1bの通話を仲介する。
図8に示す通り、サーバ装置4は、制御部41、記憶部42、及び通信部43を有する。
制御部41は、CPU、ROM、RAMを有し、CPUがROM及び記憶部42に記憶されているプログラムを読み出して実行することによりサーバ装置4の各部を制御する。
通信部43は、無線又は有線により通信回線3と接続する通信回路である。
記憶部42は、ソリッドステートドライブ、ハードディスクドライブ等の大容量の記憶手段であり、制御部41のCPUに読み込まれる各種のプログラムを記憶する。また、記憶部42は、感情DB421、発言DB422、表現DB423、及び音素DB424を記憶する。これらのデータベースは、記憶部12に記憶された感情DB121、発言DB122、表現DB123、及び音素DB124に相当するものである。
図9は、サーバ装置4の機能的構成を示す図である。図9に示す端末1の制御部41は、記憶部42に記憶されたプログラムを実行することにより、特定部411、推定部412、選択部413、生成部414、及び取得部417として機能する。
端末1aの制御部11は、撮像部18が話者の顔を複数回にわたって撮像した画像を取得すると、通信部13及び通信回線3を介してこの画像をサーバ装置4に送信する。また、端末1aの制御部11は、測定装置2から話者の生体情報を取得すると、通信部13及び通信回線3を介してこの生体情報をサーバ装置4に送信する。
取得部417は、端末1aから画像及び生体情報を取得する。特定部411は、画像から話者の口の形状の変化を抽出して、話者の発言を特定する。推定部412は、画像から抽出したその表情と生体情報とを用いて話者の感情を推定する。
選択部413は、特定された話者の発言を示す発言情報に対応する音素データを選択する。生成部414は、特定された話者の発言、及び推定された話者の感情に応じた音声データを生成する。そして、生成部414は、音声データを生成すると、通信部43を介して、通話の相手が利用する端末1bにこの音声データを送信する。
上述した機能を制御部41が実現することで、サーバ装置4は、話者の顔を複数回にわたって撮像した画像を取得する取得部と、画像から話者の口の形状の変化を抽出して、話者の発言を特定する特定部と、話者の感情を推定する推定部と、発言、及び感情に応じたデータを生成する生成部と、を有する情報処理装置として機能する。
2-12.変形例12
上述した端末1の制御部11は、特定部111、推定部112、選択部113、生成部114、第1取得部117、及び第2取得部118として機能したが、音声データの送信元である端末1aと、送信先である端末1bとで、これらの機能を分担してもよい。
図10は、端末1a及び端末1bが機能を分担する例を示す図である。図10に示す端末1aの制御部11は、特定部111、推定部112、第1取得部117、及び第2取得部118として機能する。図10に示す特定部111、推定部112、第1取得部117及び第2取得部118の機能は図5に示す機能と共通である。
端末1aの制御部11は、特定部111で特定した話者の発言情報と、推定部112で推定した話者の感情を示す情報を、通信部13の第1通信部131、及び通信回線3を介して、端末1bに送信する。
図10に示す端末1bの制御部11は、選択部113、生成部114、及び放音制御部115として機能する。また、図10に示す端末1bの制御部11は、表示制御部116として機能してもよい。
選択部113は、端末1aから送信された発言情報に基づいて、話者の発言を示す発言情報のそれぞれに対応する音素データを選択する。生成部114は、端末1aから送信された話者の感情を示す情報を受取り、選択部113で選択された音素データを、話者の感情に応じて変形・接続して音声データを生成する。
放音制御部115は、生成部114で生成された音声データを放音部17に出力(放音)させる。表示制御部116は、生成部114において、例えば変形例3で示したテキストデータが生成される場合に、生成されたそのテキストデータを表示部14に表示させる。
図10に示す構成では、話者の発言情報と、話者の感情を示す情報とが通信回線3を介してやり取りされるので、音声データをやり取りする場合に比べて通信負荷が抑制される可能性がある。
図11は、端末1a及び端末1bが機能を分担する例を示す図である。図11に示す端末1aの制御部11は、第1取得部117、及び第2取得部118として機能する。
端末1aの制御部11は、第1取得部117が取得した画像と、第2取得部118が取得した生体情報とを、それぞれ通信部13の第1通信部131、及び通信回線3を介して、端末1bに送信する。
図11に示す端末1bの制御部11は、特定部111、推定部112、選択部113、生成部114、及び放音制御部115として機能する。また、図11に示す端末1bの制御部11は、表示制御部116として機能してもよい。特定部111は、端末1aから送信された画像を解析して話者の口の形状の変化を抽出し、話者の発言を特定する。推定部112は、端末1aから送信された画像を解析して抽出した話者の表情と、端末1aから送信された生体情報とをそれぞれ感情DB121に定められた表情条件及び生体条件に照合してこの話者の感情を推定する。
選択部113は、特定された話者の発言を示す発言情報に基づいて音素DB124を検索し、この発言情報に対応する音素データを選択する。生成部114は、特定された話者の発言、及び推定された話者の感情に応じた音声データを生成する。放音制御部115は、生成された音声データを放音部17に出力させ、表示制御部116は、生成されたそのテキストデータを表示部14に表示させる。
図11に示す構成では、第1取得部117が取得した画像と、第2取得部118が取得した生体情報とが通信回線3を介してやり取りされるので、音声データをやり取りする場合に比べて通信負荷が抑制される可能性がある。
なお、端末1a及び端末1bは、上述した通りに機能を分担してもよいが、端末1の制御部11は、特定部111及び推定部112の機能を他の装置に委託して実行させてもよい。要するに、端末1の制御部11は、話者の顔を複数回にわたって撮像した画像を取得する第1取得部117と、取得したその画像から話者の口の形状の変化を抽出して、いずれかの装置に委託して特定される話者の発言と、いずれかの装置に委託して推定される話者の感情と、に対応するデータを生成する生成部114として機能すればよい。
2-13.変形例13
上述した音素DB124は、発言情報と、その発言情報により示される発言を人が発声したときの音素を示す音素データとを対応付けて記憶していたが、1つの音素ごとに1つの音素データを記憶しなくてもよい。例えば、音素DB124は、ひとまとまりの音素(音素群)に対して、その音素群を構成する音素を示す音素データが順に並べられたデータ列(音素データ列という)を記憶してもよい。
図12は、変形例における音素DB124の一例を示す図である。図12に示す音素DB124は、複数の音素をひとまとまりとした音素群を、ひとまとまりの発言情報と予め対応付けた音素群表1241と、その音素群をそれぞれ示す音素データ列1242とを有する。例えば、図12に示す音素群表1241には、「ありがとう」という音素群や、「ございました」という音素群等が発言情報に対応付けられている。そしてそれぞれの音素群には、音素データ列1242が対応付けられている。
この場合、制御部11により実現される選択部113は、特定された話者の発言を示す発言情報に基づいて音素DB124を検索し、この発言情報に対応する音素データ列1242を選択すればよい。
例えば、特定部111で特定された発言を示す発言情報が、音素DB124の音素群表1241に記述されているいずれかの発言情報と、決められた誤差の範囲で一致する場合、選択部113は、音素群表1241において、その発言情報に対応付けられている音素群を特定し、特定した音素群に対応付けられている音素データ列1242を選択する。このとき、選択部113は、発言情報に応じた音素データ列1242を選択するため、音素ごとに音素データを選択する必要はない。
そして、この場合、制御部11により実現される生成部114は、選択された音素データ列1242を、推定された感情に応じて変形することで音声データを生成すればよい。この生成部114は、選択部113が音素データ列1242を選択しているため、1つの音素をそれぞれ示す複数の音素データを接続して音声データを生成する必要がない。
つまり、この変形例に示す選択部113及び生成部114の機能を合わせると、特定部111で特定された話者の発言から音素群を選択し、選択されたその音素群から話者の感情に対応する表現の音声を示す音声データを生成する機能となる。
2-14.変形例14
端末1の制御部11によって実行されるプログラムは、磁気テープ及び磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネット等の通信回線経由でダウンロードさせることも可能である。なお、上述した制御部11によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。
1,1a,1b…端末、11…制御部、110…受付部、111…特定部、112…推定部、113…選択部、114…生成部、117…第1取得部、118…第2取得部、119…計測部、12…記憶部、121…感情DB、122…発言DB、123…表現DB、124…音素DB、13…通信部、131…第1通信部、132…第2通信部、14…表示部、15…操作部、16…収音部、17…放音部、18…撮像部、2…測定装置、21…制御部、22…記憶部、23…通信部、28…測定部、3…通信回線、9…通話システム。

Claims (14)

  1. 話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、
    前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部と、
    抽出された前記変化から前記発言を特定する特定部と、
    前記感情を推定する推定部と、を有し、
    前記特定部は、前記話者の発言の速度及び音量の少なくとも一方を特定し、
    前記生成部は、前記特定部により特定された前記発言から音素を選択し、該音素から前記推定部により推定された前記感情に対応する表現であって、前記特定部により特定された前記速度又は音量の前記データを生成する
    ことを特徴とする情報処理装置。
  2. 前記話者の生体情報を取得する第2取得部、を有し、
    前記推定部は、取得した前記生体情報に応じて前記感情を推定する
    ことを特徴とする請求項に記載の情報処理装置。
  3. 前記推定部は、前記画像から前記話者の表情を抽出して、該表情に応じて前記感情を推定する
    ことを特徴とする請求項又はに記載の情報処理装置。
  4. 前記生成部は、前記発言から音素を選択し、該音素から前記感情に対応する表現の音声を示す前記データを生成する
    ことを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  5. 前記生成部は、前記話者の音声を示す話者データを用いて前記データを生成する
    ことを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  6. 前記生成部は、前記話者の音声のうち、推定された前記感情に対応する音声を示す前記話者データを用いて前記データを生成する
    ことを特徴とする請求項に記載の情報処理装置。
  7. 前記生成部は、前記話者の音声のうち、前記話者の生体情報に対応する音声を示す話者データを用いて前記データを生成する
    ことを特徴とする請求項に記載の情報処理装置。
  8. 話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、
    前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部と、
    抽出された前記変化から前記発言を特定する特定部と、
    前記話者の生体情報を取得する第2取得部と、
    取得した前記生体情報に応じて前記感情を推定する推定部と、を有し、
    前記生成部は、前記特定部により特定された前記発言と、前記推定部により推定された前記感情と、に対応する前記データを前記話者の音声のうち、前記話者の生体情報に対応する音声を示す話者データを用いて生成する
    ことを特徴とする情報処理装置。
  9. 前記生成部は、前記話者から決められた操作を受付けた場合に、前記データを生成する
    ことを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  10. 前記話者の発した声の音量を計測する計測部、を有し、
    前記生成部は、前記音量が決められた閾値未満である場合に、前記データを生成する
    ことを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  11. 前記話者の周囲の光量を計測する計測部、を有し、
    前記生成部は、前記光量が決められた閾値未満である場合に、前記データの生成を停止
    する
    ことを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。
  12. 前記生成部が前記データを生成するか否かを通知する、
    ことを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。
  13. コンピュータを、
    話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、
    前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部
    抽出された前記変化から前記発言を特定する特定部と、
    前記感情を推定する推定部、
    として機能させるとともに、
    前記特定部が、前記話者の発言の速度及び音量の少なくとも一方を特定し、
    前記生成部が、前記特定部により特定された前記発言から音素を選択し、該音素から前記推定部により推定された前記感情に対応する表現であって、前記特定部により特定された前記速度又は音量の前記データを生成するように、
    前記コンピュータを機能させるためのプログラム。
  14. コンピュータを、
    話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、
    前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部
    抽出された前記変化から前記発言を特定する特定部と、
    前記話者の生体情報を取得する第2取得部と、
    取得した前記生体情報に応じて前記感情を推定する推定部、
    として機能させるとともに、
    前記生成部が、前記特定部により特定された前記発言と、前記推定部により推定された前記感情と、に対応する前記データを前記話者の音声のうち、前記話者の生体情報に対応する音声を示す話者データを用いて生成するように、
    前記コンピュータを機能させるためのプログラム。
JP2017183342A 2017-09-25 2017-09-25 情報処理装置、及びプログラム Active JP7021488B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017183342A JP7021488B2 (ja) 2017-09-25 2017-09-25 情報処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017183342A JP7021488B2 (ja) 2017-09-25 2017-09-25 情報処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019060921A JP2019060921A (ja) 2019-04-18
JP7021488B2 true JP7021488B2 (ja) 2022-02-17

Family

ID=66177277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017183342A Active JP7021488B2 (ja) 2017-09-25 2017-09-25 情報処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP7021488B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208138A (ja) * 2018-05-29 2019-12-05 住友電気工業株式会社 発話認識装置、及びコンピュータプログラム
JP2021107873A (ja) * 2019-12-27 2021-07-29 パナソニックIpマネジメント株式会社 音声特性変更システムおよび音声特性変更方法
JP7248615B2 (ja) * 2020-03-19 2023-03-29 ヤフー株式会社 出力装置、出力方法及び出力プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000068882A (ja) 1998-08-17 2000-03-03 Matsushita Electric Ind Co Ltd 無線通信装置
JP2002169582A (ja) 2000-11-29 2002-06-14 Canon Inc 音声合成装置及びその制御方法、コンピュータ可読メモリ
JP2002244688A (ja) 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
JP2003150194A (ja) 2001-11-14 2003-05-23 Seiko Epson Corp 音声対話装置および音声対話装置における入力音声最適化方法ならびに音声対話装置における入力音声最適化処理プログラム
JP2000057325A5 (ja) 1998-08-17 2004-09-02
JP2006323769A (ja) 2005-05-20 2006-11-30 Tokai Univ 対面入力装置
JP2008009695A (ja) 2006-06-29 2008-01-17 Nikon Corp ユーザ認識装置、再生装置、再生システムおよびテレビジョンセット
WO2009125710A1 (ja) 2008-04-08 2009-10-15 株式会社エヌ・ティ・ティ・ドコモ メディア処理サーバ装置およびメディア処理方法
JP3173022U (ja) 2011-11-01 2012-01-19 サイバークローン株式会社 音声合成を伴う動く画像システム
JP2012133477A (ja) 2010-12-20 2012-07-12 Nec Corp 認証カード、認証システム、ガイダンス方法及びプログラム
JP2015220684A (ja) 2014-05-20 2015-12-07 株式会社ニコン 携帯端末装置および読唇処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3688879B2 (ja) * 1998-01-30 2005-08-31 株式会社東芝 画像認識装置、画像認識方法及びその記録媒体
JP4017748B2 (ja) * 1998-06-11 2007-12-05 日本放送協会 発話速度計測システム、方法および記録媒体
JP3893763B2 (ja) 1998-08-17 2007-03-14 富士ゼロックス株式会社 音声検出装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000068882A (ja) 1998-08-17 2000-03-03 Matsushita Electric Ind Co Ltd 無線通信装置
JP2000057325A5 (ja) 1998-08-17 2004-09-02
JP2002169582A (ja) 2000-11-29 2002-06-14 Canon Inc 音声合成装置及びその制御方法、コンピュータ可読メモリ
JP2002244688A (ja) 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
JP2003150194A (ja) 2001-11-14 2003-05-23 Seiko Epson Corp 音声対話装置および音声対話装置における入力音声最適化方法ならびに音声対話装置における入力音声最適化処理プログラム
JP2006323769A (ja) 2005-05-20 2006-11-30 Tokai Univ 対面入力装置
JP2008009695A (ja) 2006-06-29 2008-01-17 Nikon Corp ユーザ認識装置、再生装置、再生システムおよびテレビジョンセット
WO2009125710A1 (ja) 2008-04-08 2009-10-15 株式会社エヌ・ティ・ティ・ドコモ メディア処理サーバ装置およびメディア処理方法
JP2012133477A (ja) 2010-12-20 2012-07-12 Nec Corp 認証カード、認証システム、ガイダンス方法及びプログラム
JP3173022U (ja) 2011-11-01 2012-01-19 サイバークローン株式会社 音声合成を伴う動く画像システム
JP2015220684A (ja) 2014-05-20 2015-12-07 株式会社ニコン 携帯端末装置および読唇処理プログラム

Also Published As

Publication number Publication date
JP2019060921A (ja) 2019-04-18

Similar Documents

Publication Publication Date Title
JP6524049B2 (ja) 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム
US10433052B2 (en) System and method for identifying speech prosody
US11918372B2 (en) Cognitive function evaluation system, method, and storage medium for dementia by analyzing voice of evaluatee for recognition, remembering or jugment capabilities
US9031293B2 (en) Multi-modal sensor based emotion recognition and emotional interface
JP2004310034A (ja) 対話エージェントシステム
KR101143862B1 (ko) 정보처리단말 및 통신시스템
CN109460752B (zh) 一种情绪分析方法、装置、电子设备及存储介质
CN108573695B (zh) 语音处理装置及其方法、机器人及计算机可读取记录介质
JP2019000937A (ja) コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
JP7063779B2 (ja) 音声対話システム、音声対話方法、プログラム、学習モデル生成装置及び学習モデル生成方法
US20050187437A1 (en) Information processing apparatus and method
Schuller et al. Automatic recognition of physiological parameters in the human voice: Heart rate and skin conductance
JP7021488B2 (ja) 情報処理装置、及びプログラム
JP2006071936A (ja) 対話エージェント
US20170344713A1 (en) Device, system and method for assessing information needs of a person
US9934426B2 (en) System and method for inspecting emotion recognition capability using multisensory information, and system and method for training emotion recognition using multisensory information
JP2012059107A (ja) 感情推定装置、感情推定方法およびプログラム
KR20190141348A (ko) 전자 장치에서 생체 정보 제공 방법 및 장치
JP2018032164A (ja) 面接システム
CN113287175A (zh) 互动式健康状态评估方法及其系统
JP2012230535A (ja) 電子機器および電子機器の制御プログラム
Zhang et al. Speechin: A smart necklace for silent speech recognition
JP2018206055A (ja) 会話記録システム、会話記録方法およびケアサポートシステム
JP2021058573A (ja) 認知機能予測装置、認知機能予測方法、プログラム及びシステム
US8810362B2 (en) Recognition system and recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220118

R150 Certificate of patent or registration of utility model

Ref document number: 7021488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150