JP2013101680A - 電子的に会話を評価するための方法およびシステム - Google Patents
電子的に会話を評価するための方法およびシステム Download PDFInfo
- Publication number
- JP2013101680A JP2013101680A JP2013016863A JP2013016863A JP2013101680A JP 2013101680 A JP2013101680 A JP 2013101680A JP 2013016863 A JP2013016863 A JP 2013016863A JP 2013016863 A JP2013016863 A JP 2013016863A JP 2013101680 A JP2013101680 A JP 2013101680A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- people
- person
- phase
- iris
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Telephonic Communication Services (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Machine Translation (AREA)
Abstract
【解決手段】本発明は、少なくとも2人の人の間の会話を電子的に評価するための方法に関し、ビデオデータを受けるステップと、会話中に2人の間で視覚的な相互作用が生じたか否かを決定するためにビデオデータを解析するステップと、眼の運動方向が同じモードであるか否かを決定するために2人の眼の運動を解析するステップとを備える。
【選択図】図7
Description
「再構築」:第1の人が時々短時間だけ介入するのに対し、他方の人が主に話をしている。
「表現」:他方の人が時々短時間だけ介入するのに対し、第1の人が主に話をしている。
受け取られたデータから発言の再分類が抽出されるような、受信したオーディオデータの解析によって、会話のさまざまな言語的コミュニケーションパターンが自動的に認識され、本発明に従う方法を実現するシステムのユーザへ出力され得る。この抽出された会話に関する追加情報に基づいて記録された会話の評価が確立され、特に、会話に参加している人(人達)によって、コミュニケーションパターンが使用されてないか、十分には使用されてはないか、または非常に多く用いられているかが、指し示される。
図1は、少なくとも2人の人の間の会話を、電子的に評価するためのシステムの第1の実施形態を示す図である。システム1は、第1および第2のマイクロフォン3,5を備え、これらは、処理装置7へそれぞれ結合される。マイクロフォン3,5は、販売員およびバイヤーが配置され得る位置9,11に近接して配置される。位置9,11にそれぞれ近接したマイクロフォン3,5の位置は、マイクロフォンに最も近接した位置すなわちマイクロフォン3の場合は位置9であり、マイクロフォン5の場合位置11に座っている人の発言から生じる信号強度が、他方の位置に座っている人の発言から生じる信号強度より大きいことを保障するが、背景ノイズもまたより大きい。解析期間中、処理装置7は、それを利用して、得られたオーディオ信号が、位置9に座っている人または位置11に座っている人のいずれかであるかを明確にする。2人以上が会話に参加する場合には、システム1は、追加のマイクロフォンを提供することによって適合され得る。
図2は、システム1が会話を評価するために用いられる方法を示す図であり、さらに、本発明に従う第2の実施形態、主に本発明に従う少なくとも2人の人の間の会話を自動的に、主に電子的に評価するための方法を示し、それは実施形態1のシステム1を用いる。
優れた販売員は、会話の間に自分自身を見出す状況に依存して5つのパターンを積極的に使用することができなくてはならない。販売員が、このコミュニケーションツールを適用することに堪能である場合、彼は、彼の相手、すなわちバイヤーの期待および振る舞いの効果として、彼が売ろうとしている製品の価値をあげることができるだろう。
図4は、システム1が会話を評価するために用いられるさらなる方法を示す図であり、さらに、本発明に従う第3の実施形態、主に本発明に従う少なくとも2人の人の間の会話を自動的に、主に電子的に評価するための方法を示し、それは実施形態1のシステム1を用いる。
フェーズが第1のフェーズであり、かつ販売員がバイヤーより多く、または同じくらい話している場合は、そのフェーズは、プレゼンテーションのフェーズであるとして同定される。
図6は、本発明に従う、システム1の第3の使用、および少なくとも2人の人の間の会話を電子的に評価するための第3の方法を表わす、第4の実施形態を示す図である。図2に図示された第2の実施形態と比較して、本方法は、少なくとも販売員の発言において予め定められた言葉を同定する、追加のステップS9を備える。変形例によれば、予め定められた言葉は、バイヤーの発言においても同定され得る。他のステップである、S9の前のS1からS4,ならびに、S9の後のS5およびS6は、第2の実施形態のそれぞれに対応し、したがって、再度繰り返しはしないが、それらの説明は参照によってここに引用される。
図7は、本発明に従う第4の実施形態、主に少なくとも2人の人の間の会話を電子的に評価するため第2の発明のシステムを示す図である。システム41は、会話中の少なくとも2人の人を映し出すビデオデータを撮影するための、2つのビデオカメラ43および45を備える。第1の実施形態のマイクロフォン3および5と同様に、ここでは、ビデオカメラ43および45は、ビデオカメラ43が位置11(第1の実施形態と同じ位置11)にいる人を撮影する一方で、第2のカメラ45が位置9にいる人を撮影するように配置される。好ましくは、カメラ43,45は、データ処理を容易にするために、一度に1人だけを撮影する。
図8は、第5の実施形態のシステム41が視覚的相互作用情報を得るために用いられる方法を示す図であり、さらに本発明に従う第6の実施形態、主に本発明による少なくとも2人の人の間の会話を電子的に評価するための方法を示し、それは第5の実施形態のシステム41を用いる。さらに、第6の実施形態は、2人の人の間の販売上の会話に関して説明される。ここで、第1の人、たとえば販売員は、位置9に座っており、第2の人、すなわちバイヤーは位置11に座っている。したがって、カメラ43はバイヤーの顔の少なくとも一部のビデオデータを撮影し、カメラ45は販売員の顔の少なくとも一部のビデオデータを撮影する。
図9は、本発明の第7の実施形態、主に複数の連続した画像を備えたビデオデータ内の人の眼の位置を電子的に検出するための方法を示す図である。本方法は、虹彩の位置を検出することに特に適しており、したがって、第6の実施形態のステップS12およびS13に詳細が説明される。さらに、本方法は、ちょうど実施形態6の方法と同様に、2つのビデオカメラ43および45によって撮影されたビデオデータを受け取ることで始まる(ステップS21)。図10aは、カメラ43によって撮影されたビデオデータストリームからの、人55の頭部の画像53を示す図である。データ解析を容易にするために、人の背景57は、皮膚の色と異なった色としている。第7の実施形態に従う方法は、1人の人だけの顔を撮影する1つのビデオカメラだけでも実現され得ることが言及されなくてはならない。
図11は、少なくとも2人の人の間の会話を電子的に評価するためのさらなる方法を示す、第8の実施形態を示す図である。第7の実施形態の場合と同様に、本実施形態は、ステップS21からS25に加えて追加のステップS26およびS27を含み、これらは、ビデオデータの画像フレーム内の虹彩の位置を決定するプロセスのスピードをさらにアップさせる。第1の画像の眼の領域内の虹彩の位置を決定(ステップS25)した後、処理装置47は、ビデオデータの次の画像フレームの解析を開始するが、ステップ22における顔を表示する領域の同定は再スタートせず、眼の領域が前の画像フレーム内で同定された位置に対応する領域内の虹彩の位置の再決定を直ちに開始する。最終的に、変形例によれば、虹彩を発見する機会を改善するために、この領域は拡大され得る。
図12は、本発明の第9の実施形態による、本発明に従う第3のシステムを示す図である。システム71は、本発明の第1および第5の実施形態によるシステム1および41の組み合わせに対応する。したがって、−第1および第5の実施形態に関する同じ参照番号を用いて−2つのマイクロフォン3,5、2つのビデオカメラ43および45を備え、それらは各々、第1から第5の処理ユニット13、15、17、49および51を備える処理装置73と結合され、マイクロフォンおよびビデオカメラから受信したオーディオデータおよびビデオデータの両方を解析するように構成される。これらの要素の詳細な説明は再び繰り返さないが、第1および第5の実施形態が参照によってここに引用される。上述のように、 2人より多くの人が会話に参加している場合、システム71は、対応する数のマイクロフォンおよび/またはビデオカメラを提供することによって、それに応じて適合され得る。
Claims (26)
- 少なくとも2人の人の間の会話を、自動的に、特に電子的に評価するための方法であって、
g)少なくとも2人の人を、少なくとも部分的に映し出すビデオデータを受け取るステップと、
h)前記少なくとも2人の人の間で、会話中に視覚的な相互作用が生じたか否かを決定するために、前記ビデオデータを解析するステップとを備え、
ステップh)は、前記少なくとも2人の人の虹彩の位置を検出することによって、前記少なくとも2人の人が、互いに顔を見合わせたか否かを決定することを含み、
前記方法は、
i)眼の運動の方向が同じモードであるか否かを決定するために、前記少なくとも2人の人の眼の運動を解析するステップをさらに備える、方法。 - 前記ステップi)は、
上方左、上方右、左、右、下方左および下方右眼の6つの方向のうちの1つへの虹彩の運動を含む、請求項1に記載の方法。 - ステップi)は、
少なくとも1つの予め定められた相互作用フェーズにおいて、眼の運動の方向が同じであるか否かを決定することを含む、請求項2に記載の方法。 - ステップh)は、
h_1)前記2人の人の少なくとも1人の顔の少なくとも一部、特に少なくとも両眼を示す画像の領域を決定するために、前記ビデオデータの画像中に視覚的特徴を同定するステップと、
h_2)前記領域の中のストライプ、特に縦ストライプを分離するステップと、
h_3)ステップh_2)において1つより多くのストライプが分離された場合、前記縦ストライプの中の眼の領域を探索するステップとを含む、請求項1〜3のいずれか1項に記載の方法。 - ステップh_2)は、
前記ストライプをグレースケールフォーマットに転送することによって、前記ストライプの輪郭を同定するステップと、
前記虹彩に一致しやすい円を探索することによって、予め定められた色を有する前記輪郭内の前記ビデオデータにおいて、それらのグレースケール強度に重み付けをすることによって、決定された輪郭の中心候補の探索とを含む、請求項4に記載の方法。 - 前記虹彩に一致しやすい円を探索することによって、予め定められた色を有する前記輪郭内の前記グレースケールビデオデータを重み付けすることによって、眼の領域における前記虹彩の位置を同定するステップh_4)をさらに備える、請求項4または5に記載の方法。
- 前記ビデオデータにおける少なくとも続きの画像について、虹彩の位置が全く検出できなくはない場合に、眼の領域における前記虹彩の位置を同定するために、ステップh_4)のみが繰り返される、請求項6に記載の方法。
- 前記ビデオデータは、
会話に参加している人に対して、異なった位置に配置された異なるカメラからの複数のデータストリームを含む、請求項7に記載の方法。 - 各々のカメラは、1人の人のみを撮影する、請求項8に記載の方法。
- a)少なくとも2人の人の間の会話を含むオーディオデータを受け取るステップと、
b)会話の進行における少なくとも2人の人の発言の再区分を決定するために、時間領域において、前記オーディオデータを解析するステップと、
c)前記解析するステップの結果を予め定められたコミュニケーションパターンと比較することによって、会話中の1つまたはより多くのコミュニケーションパターンを同定するステップとをさらに備える、請求項1〜9のいずれか1項に記載の方法。 - a)少なくとも2人の人の間の会話を含むオーディオデータを受け取るステップと、
d)会話に参加している1人の人の話す時間の移動平均値に基づいて、会話の進行における、予め定められた相互作用フェーズを同定するステップとをさらに備える、請求項1に記載の方法。 - 少なくとも1つの相互作用フェーズの同定は、
1つの相互作用フェーズから他の相互作用フェーズへの遷移の検出を備え、
遷移は、前記移動平均値が第1の制限値を通過する第1の時間、および前記移動平均値が第2の時間において遷移の存在を示す第2の制限値を通過する第2の時間を定めることによって検出される、請求項11に記載の方法。 - 前記第1の制限値は、一方の人が他方の人より多く話す期間のフェーズについては、60%から80%の範囲であり、前記一方の人が他方の人より少なく話す期間のフェーズについては、20%から40%の範囲であり、
前記第2の制限値は、45%から55%である、請求項12に記載の方法。 - 前記平均値は、会話の総継続時間のおよそ3%から10%の継続時間にわたって演算される、請求項11〜13のいずれか1項に記載の方法。
- 少なくとも2人の人の発言の中における予め定められた言葉を同定するために、前記オーディオデータを解析するステップe)をさらに備える、請求項10〜14のいずれか1項に記載の方法。
- 同定された1つまたはより多くの相互作用フェーズのそれぞれにおいて、前記予め定められた言葉の発生をカウントするステップf)をさらに備える、請求項15に記載の方法。
- 前記オーディオデータは、
異なるマイクロフォンからの複数のデータストリームを含み、
特に、各マイクロフォンは、少なくとも2人の人のうちの1人のみに向けられ、かつ話しているときに前記1人の人からの信号強度が残りの人の信号強度よりも大きくなるように構成される、請求項10〜16のいずれか1項に記載の方法。 - 請求項1〜17のいずれか1項に記載の方法のステップを実行するためのコンピュータ実行可能指令が記憶された、1つまたはより多くのコンピュータ読み込み可能媒体を備える、コンピュータプログラム製品。
- 会話中の少なくとも2人の人の間の会話を、自動的に、特に電子的に評価するためのシステムであって、
少なくとも2人の人を、少なくとも部分的に映し出すビデオデータを撮影するための少なくとも1つのビデオカメラ(43,45)と、
前記少なくとも2人の人の間で、会話中に視覚的な相互作用が生じたか否かを決定するように構成された処理装置(47)とを備え、
前記処理装置(47,73)は、領域内のストライプを分離するとともに、前記処理装置(47,73)が前記2人の人の眼の運動の方向が同じであるか否かを同定するようにさらに構成される先行するステップにおいて1つより多くのストライプが分離された場合にストライプ内の眼の領域を探索することにより、人の少なくとも顔の一部を示す画像の領域を決定するために画像内の視覚的特徴を同定することによって、複数の連続画像を含むビデオデータ内の人の眼の位置を検出するようにさらに構成される、システム。 - 会話に参加している人の各々に対して1つのビデオカメラ(43,45)が提供され、
前記ビデオカメラ(43,45)は、各カメラ(43,45)が1人の人のみを撮影するように配置される、請求項19に記載のシステム。 - 前記処理装置は、上方左、上方右、左、右、下方左および下方右眼の6つの方向のうちの1つへの虹彩の運動を決定するように構成される、請求項19または20に記載のシステム。
- 少なくとも2人の人の間の会話を、自動的に評価するために、
a)会話を捕らえて、オーディオデータを提供するための少なくとも1つのマイクロフォン(3,5)と、
b)時間領域において、会話の進行における少なくとも2人の人の発言の再区分を決定するために、前記オーディオデータを解析するように構成され、かつ、会話中の1つまたはより多くのコミュニケーションパターンを同定するために、解析するステップの結果を予め定められたコミュニケーションパターンと比較するように構成されたデータ処理装置(7)とをさらに備える、請求項19〜21のいずれか1項に記載のシステム。 - 少なくとも2人の人の間の会話を、自動的に評価するために、
a)会話を捕らえて、オーディオデータを提供するための少なくとも1つのマイクロフォン(3,5)と、
d)会話に参加している1人の人の話す時間の移動平均値に基づいて、会話の進行における、予め定められた相互作用フェーズを同定するように構成されたデータ処理装置(7)とをさらに備える、請求項19〜21のいずれか1項に記載のシステム。 - 前記データ処理装置(7)は、さらに、会話に参加している1人の人の話す時間の移動平均値に基づいて、会話の進行における、予め定められた相互作用フェーズを同定するように構成される、請求項22に記載のシステム。
- 前記データ処理装置(7)は、さらに、発言中の予め定められた言葉を同定するように構成される、請求項22〜24のいずれか1項に記載のシステム。
- 1つのマイクロフォン(3,5)は、会話に参加している人ごとに提供され、
各々のマイクロフォン(3,5)は、対応する人からの信号強度が、話しているときに、残りの人の信号強度よりも大きくなるように構成される、請求項22〜25のいずれか1項に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP07290851.0 | 2007-07-06 | ||
EP07290851A EP2012304B1 (en) | 2007-07-06 | 2007-07-06 | Methods for electronically analysing a dialogue and corresponding systems |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010513750A Division JP2010536053A (ja) | 2007-07-06 | 2008-06-25 | 電子的に会話を解析する方法および対応するシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013101680A true JP2013101680A (ja) | 2013-05-23 |
JP5634537B2 JP5634537B2 (ja) | 2014-12-03 |
Family
ID=38777936
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010513750A Pending JP2010536053A (ja) | 2007-07-06 | 2008-06-25 | 電子的に会話を解析する方法および対応するシステム |
JP2013016863A Active JP5634537B2 (ja) | 2007-07-06 | 2013-01-31 | 電子的に会話を評価するための方法およびシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010513750A Pending JP2010536053A (ja) | 2007-07-06 | 2008-06-25 | 電子的に会話を解析する方法および対応するシステム |
Country Status (14)
Country | Link |
---|---|
US (1) | US8861779B2 (ja) |
EP (1) | EP2012304B1 (ja) |
JP (2) | JP2010536053A (ja) |
KR (1) | KR101532705B1 (ja) |
AU (1) | AU2008274651B2 (ja) |
BR (1) | BRPI0812652B1 (ja) |
CA (1) | CA2691424C (ja) |
DK (1) | DK2012304T3 (ja) |
MA (1) | MA31579B1 (ja) |
NZ (1) | NZ582481A (ja) |
RU (1) | RU2472219C2 (ja) |
TN (1) | TN2009000546A1 (ja) |
WO (1) | WO2009007011A1 (ja) |
ZA (1) | ZA201000248B (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8676586B2 (en) * | 2008-09-16 | 2014-03-18 | Nice Systems Ltd | Method and apparatus for interaction or discourse analytics |
JP5150583B2 (ja) * | 2009-08-24 | 2013-02-20 | 日本電信電話株式会社 | 聞き役対話評価装置、聞き役対話評価方法、聞き役対話評価プログラム |
AU2011279558A1 (en) * | 2010-07-15 | 2013-03-07 | The University Of Queensland | A communications analysis system and process |
US8825493B2 (en) * | 2011-07-18 | 2014-09-02 | At&T Intellectual Property I, L.P. | Method and apparatus for social network communication over a media network |
US9747899B2 (en) | 2013-06-27 | 2017-08-29 | Amazon Technologies, Inc. | Detecting self-generated wake expressions |
JP6363986B2 (ja) * | 2015-12-24 | 2018-07-25 | 日本電信電話株式会社 | コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム |
US10375340B1 (en) * | 2016-12-02 | 2019-08-06 | Amazon Technologies, Inc. | Personalizing the learning home multi-device controller |
US10469787B1 (en) | 2016-12-02 | 2019-11-05 | Amazon Technologies, Inc. | Learning multi-device controller with personalized voice control |
US10268447B1 (en) | 2016-12-02 | 2019-04-23 | Amazon Technologies, Inc. | Curating audio and IR commands through machine learning |
WO2019093392A1 (ja) * | 2017-11-10 | 2019-05-16 | 日本電信電話株式会社 | コミュニケーションスキル評価システム、装置、方法、及びプログラム |
WO2019139101A1 (ja) | 2018-01-12 | 2019-07-18 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6572354B1 (ja) * | 2018-08-10 | 2019-09-11 | Regain Group株式会社 | 営業提案システム、営業提案プログラム及び営業提案方法 |
US11817005B2 (en) | 2018-10-31 | 2023-11-14 | International Business Machines Corporation | Internet of things public speaking coach |
CN110491241B (zh) * | 2019-09-05 | 2021-08-13 | 河南理工大学 | 一种声乐发声训练装置及其方法 |
US11163965B2 (en) * | 2019-10-11 | 2021-11-02 | International Business Machines Corporation | Internet of things group discussion coach |
AU2021104873A4 (en) * | 2021-02-25 | 2021-09-30 | Gail Bower | An audio-visual analysing system for automated presentation delivery feedback generation |
WO2023119671A1 (ja) * | 2021-12-24 | 2023-06-29 | 日本電信電話株式会社 | 推定方法、推定装置及び推定プログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175538A (ja) * | 2000-12-08 | 2002-06-21 | Mitsubishi Electric Corp | 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法 |
JP2004504684A (ja) * | 2000-07-24 | 2004-02-12 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 顔画像処理システム |
JP2004175538A (ja) * | 2002-11-28 | 2004-06-24 | Toshiba Elevator Co Ltd | エレベータ制御装置 |
JP2005108206A (ja) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | 円中心位置検出方法および装置並びにプログラム |
JP2005252595A (ja) * | 2004-03-03 | 2005-09-15 | Hisatoku Ito | 会話支援システム |
JP2006075348A (ja) * | 2004-09-09 | 2006-03-23 | Fuji Xerox Co Ltd | 相互視分析装置、相互視分析方法および相互視分析プログラム |
JP2006338529A (ja) * | 2005-06-03 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | 会話構造推定方法 |
JP2007003700A (ja) * | 2005-06-22 | 2007-01-11 | Oki Electric Ind Co Ltd | 商品販売支援装置 |
JP2007293818A (ja) * | 2006-03-28 | 2007-11-08 | Fujifilm Corp | 画像記録装置、画像記録方法、および画像記録プログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS591394A (ja) | 1982-06-21 | 1984-01-06 | 牧野 鉄郎 | 粉じん防止貯蔵施設 |
JPH0591394A (ja) * | 1991-09-26 | 1993-04-09 | Canon Inc | ビデオカメラ |
JP3252282B2 (ja) * | 1998-12-17 | 2002-02-04 | 松下電器産業株式会社 | シーンを検索する方法及びその装置 |
CA2429676A1 (en) * | 2000-11-23 | 2002-06-13 | Goren Gordon | Method and system for creating meaningful summaries from interrelated sets of information units |
US7941313B2 (en) * | 2001-05-17 | 2011-05-10 | Qualcomm Incorporated | System and method for transmitting speech activity information ahead of speech features in a distributed voice recognition system |
KR100580619B1 (ko) * | 2002-12-11 | 2006-05-16 | 삼성전자주식회사 | 사용자와 에이전트 간의 대화 관리방법 및 장치 |
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
US7995717B2 (en) * | 2005-05-18 | 2011-08-09 | Mattersight Corporation | Method and system for analyzing separated voice data of a telephonic communication between a customer and a contact center by applying a psychological behavioral model thereto |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
JP5317415B2 (ja) * | 2006-03-27 | 2013-10-16 | 富士フイルム株式会社 | 画像出力装置、画像出力方法、および画像出力プログラム |
US8253770B2 (en) * | 2007-05-31 | 2012-08-28 | Eastman Kodak Company | Residential video communication system |
-
2007
- 2007-07-06 EP EP07290851A patent/EP2012304B1/en active Active
- 2007-07-06 DK DK07290851.0T patent/DK2012304T3/da active
-
2008
- 2008-06-25 AU AU2008274651A patent/AU2008274651B2/en not_active Ceased
- 2008-06-25 JP JP2010513750A patent/JP2010536053A/ja active Pending
- 2008-06-25 US US12/667,511 patent/US8861779B2/en active Active
- 2008-06-25 RU RU2010102675/08A patent/RU2472219C2/ru active
- 2008-06-25 CA CA2691424A patent/CA2691424C/en active Active
- 2008-06-25 WO PCT/EP2008/005161 patent/WO2009007011A1/en active Application Filing
- 2008-06-25 BR BRPI0812652-6A patent/BRPI0812652B1/pt not_active IP Right Cessation
- 2008-06-25 NZ NZ582481A patent/NZ582481A/xx not_active IP Right Cessation
- 2008-06-25 KR KR1020107002619A patent/KR101532705B1/ko active IP Right Grant
-
2009
- 2009-12-25 TN TNP2009000546A patent/TN2009000546A1/fr unknown
-
2010
- 2010-01-13 ZA ZA2010/00248A patent/ZA201000248B/en unknown
- 2010-02-02 MA MA32574A patent/MA31579B1/fr unknown
-
2013
- 2013-01-31 JP JP2013016863A patent/JP5634537B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004504684A (ja) * | 2000-07-24 | 2004-02-12 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 顔画像処理システム |
JP2002175538A (ja) * | 2000-12-08 | 2002-06-21 | Mitsubishi Electric Corp | 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法 |
JP2004175538A (ja) * | 2002-11-28 | 2004-06-24 | Toshiba Elevator Co Ltd | エレベータ制御装置 |
JP2005108206A (ja) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | 円中心位置検出方法および装置並びにプログラム |
JP2005252595A (ja) * | 2004-03-03 | 2005-09-15 | Hisatoku Ito | 会話支援システム |
JP2006075348A (ja) * | 2004-09-09 | 2006-03-23 | Fuji Xerox Co Ltd | 相互視分析装置、相互視分析方法および相互視分析プログラム |
JP2006338529A (ja) * | 2005-06-03 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | 会話構造推定方法 |
JP2007003700A (ja) * | 2005-06-22 | 2007-01-11 | Oki Electric Ind Co Ltd | 商品販売支援装置 |
JP2007293818A (ja) * | 2006-03-28 | 2007-11-08 | Fujifilm Corp | 画像記録装置、画像記録方法、および画像記録プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2012304B1 (en) | 2012-09-05 |
KR20100056451A (ko) | 2010-05-27 |
AU2008274651A1 (en) | 2009-01-15 |
BRPI0812652B1 (pt) | 2020-02-18 |
US20100278377A1 (en) | 2010-11-04 |
JP5634537B2 (ja) | 2014-12-03 |
CA2691424A1 (en) | 2009-01-15 |
CA2691424C (en) | 2017-03-21 |
RU2010102675A (ru) | 2011-08-20 |
NZ582481A (en) | 2012-08-31 |
AU2008274651B2 (en) | 2012-07-26 |
MA31579B1 (fr) | 2010-08-02 |
EP2012304A1 (en) | 2009-01-07 |
KR101532705B1 (ko) | 2015-06-30 |
JP2010536053A (ja) | 2010-11-25 |
BRPI0812652A2 (pt) | 2015-10-13 |
ZA201000248B (en) | 2010-09-29 |
WO2009007011A1 (en) | 2009-01-15 |
TN2009000546A1 (en) | 2011-03-31 |
US8861779B2 (en) | 2014-10-14 |
DK2012304T3 (da) | 2012-11-19 |
RU2472219C2 (ru) | 2013-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5634537B2 (ja) | 電子的に会話を評価するための方法およびシステム | |
Celiktutan et al. | Multimodal human-human-robot interactions (mhhri) dataset for studying personality and engagement | |
US11127232B2 (en) | Multi-camera, multi-sensor panel data extraction system and method | |
JP2005531080A (ja) | 視覚及び音声認識を介するコンテンツ格付けの測定 | |
JP7036046B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
Sun et al. | Towards visual and vocal mimicry recognition in human-human interactions | |
JP7242114B2 (ja) | 反応解析システムおよび反応解析装置 | |
US20220067353A1 (en) | System and method for reading and analysing behaviour including verbal, body language and facial expressions in order to determine a person's congruence | |
Neumann et al. | On the utility of audiovisual dialog technologies and signal analytics for real-time remote monitoring of depression biomarkers | |
JP4775961B2 (ja) | 映像を用いた発音の推定方法 | |
Chiba et al. | Analysis of efficient multimodal features for estimating user's willingness to talk: Comparison of human-machine and human-human dialog | |
JP7197957B2 (ja) | 反応解析システムおよび反応解析装置 | |
JP2023015068A (ja) | 感情解析システムおよび感情解析装置 | |
CN115831153A (zh) | 发音质量测试方法 | |
JP2021072497A (ja) | 分析装置及びプログラム | |
Grůber et al. | Czech Senior COMPANION: Wizard of Oz data collection and expressive speech corpus recording and annotation | |
WO2022201272A1 (ja) | 動画像分析プログラム | |
JP5909472B2 (ja) | 共感解釈推定装置、方法、プログラム | |
Naik et al. | CONFIDENCE LEVEL ESTIMATOR BASED ON FACIAL AND VOICE EXPRESSION RECOGNITION AND CLASSIFICATION | |
Paleari et al. | Bimodal emotion recognition | |
Zhang | A Novel Eye-tracking and Audio Hybrid System for Autism Spectrum Disorder Early Detection | |
JP2021110996A (ja) | 発話者判別方法、発話者判別プログラム、及び、発話者判別装置 | |
Solanki et al. | Measuring mimicry in task-oriented conversations: degree of mimicry is related to task difficulty | |
KR20240063324A (ko) | 능동적인 언어, 동작 학습 방법 및 시스템 | |
George et al. | Acoustical Quality Assessment of the Classroom Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140916 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141014 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5634537 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |