JP7276158B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP7276158B2 JP7276158B2 JP2019564747A JP2019564747A JP7276158B2 JP 7276158 B2 JP7276158 B2 JP 7276158B2 JP 2019564747 A JP2019564747 A JP 2019564747A JP 2019564747 A JP2019564747 A JP 2019564747A JP 7276158 B2 JP7276158 B2 JP 7276158B2
- Authority
- JP
- Japan
- Prior art keywords
- participant
- conversation
- image
- participants
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 67
- 238000003672 processing method Methods 0.000 title description 3
- 238000012545 processing Methods 0.000 claims description 84
- 230000005236 sound signal Effects 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 9
- 238000004148 unit process Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 description 28
- 238000000034 method Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 4
- 230000016571 aggressive behavior Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 208000031636 Body Temperature Changes Diseases 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001846 repelling effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Telephonic Communication Services (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Description
音声信号から会話の複数の参加者の発言を検出する音声処理部と、
画像信号から上記会話の複数の参加者の状態を検出する画像処理部と、
上記複数の参加者の発言と上記複数の参加者の状態に基づいて会話の状態を判定する判定部を備える
情報処理装置にある。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
[情報処理装置]
図1は、第1の実施の形態としての情報処理装置100の構成例を示している。この情報処理装置100は、音声処理部101と、画像処理部102と、判定部103を有している。
[情報処理装置]
図2は、第2の実施の形態としての情報処理装置200の構成例を示している。この情報処理装置200は、N個(Nは整数)のカメラ201-1~201-Nと、M個(Mは整数)のマイク202-1~202-Mと、画像音声制御システム203と、モニタ204と、サーバ205と、モバイル端末206を有している。
なお、上述実施の形態においては、予め参加者の顔を登録して、画像から検出した顔と登録している顔を比較することで個人照合を行っている。しかしながら、これでは登録していない人が参加した場合に適切な表示をすることができない。そこで、個人照合に失敗した場合は、その顔を新たに参加者として登録することも考えられる。
F = km1m2/r2 ・・・(1)
Et = αg・Ngs + βg・Ngc ・・・(2)
Em = αm・Nms + βm・Nmc ・・・(3)
Et’ = αg・Ngs + βg・Ngc + γg・min(Em) ・・・(4)
(1)音声信号から会話の複数の参加者の発言を検出する音声処理部と、
画像信号から上記会話の複数の参加者の状態を検出する画像処理部と、
上記複数の参加者の発言と上記複数の参加者の状態に基づいて会話の状態を判定する判定部を備える
情報処理装置。
(2)上記会話の状態は、上記会話の参加者間の会話による関係性である
前記(1)に記載の情報処理装置。
(3)上記会話の状態は、少なくとも、発言内容、発言回数または発言時間のいずれかを含む
前記(1)に記載の情報処理装置。
(4)上記会話の状態は、会話の成立である
前記(1)に記載の情報処理装置。
(5)上記判定部は、上記参加者が会話の相手を見て話をしているとき、上記会話が成立したと判定する
前記(4)に記載の情報処理装置。
(6)上記画像処理部は、上記参加者の状態として、見ている方向を検出する
前記(1)から(5)のいずれか記載の情報処理装置。
(7)上記画像処理部は、上記参加者の顔の向きまたは視線方向から該参加者の見ている方向を検出する
前記(6)に記載の情報処理装置。
(8)上記判定部は、第1の参加者の発言の後に第2の参加者の発言があり、かつ上記第2の参加者の見ている方向が上記第1の参加者の方向であるとき、上記第1の参加者と上記第2の参加者との間の会話があると判定する
前記(6)または(7)に記載の情報処理装置。
(9)上記音声処理部は、上記音声信号から音量を計測し、閾値以上の状態が一定時間以上継続した場合には発言であると判定する
前記(1)から(8)のいずれかに記載の情報処理装置。
(10)上記音声処理部は、閾値以上の状態が一定時間に満たない場合には、同意、否定またはあいづちに係る発声であると判定する
前記(9)に記載お情報処理装置。
(11)上記会話に使用されている空間の平面マップ画像を生成する画像生成部をさらに備え、
上記平面マップ画像には、上記会話に参加しているそれぞれの参加者を示す参加者表示が存在し、
上記平面マップ画像には、上記検出された会話に基づいて、対応する2つの参加者表示をつなぐ会話線が存在する
前記(1)から(10)のいずれかに記載の情報処理装置。
(12)上記画像処理部は、上記画像信号を処理して上記会話に参加しているそれぞれの参加者の位置をさらに検出し、
上記画像生成部は、上記平面マップ画像における上記それぞれの参加者を示す参加者表示の位置を、上記検出されたそれぞれの参加者の位置に応じて変更する
前記(11)に記載の情報処理装置。
(13)上記画像生成部は、上記平面マップ画像における上記それぞれの参加者を示す参加者表示の位置を、上記それぞれの参加者の会話数に応じて変更する
前記(11)に記載の情報処理装置。
(14)上記画像生成部は、上記それぞれの参加者を示す参加者表示の位置を、会話数が多いほど上記平面マップ画像の中央寄りに配置する
前記(13)に記載の情報処理装置。
(15)上記画像生成部は、2参加者の参加者表示の間隔を、該2参加者間の会話数が多いほど近くする
前記(13)または(14)に記載の情報処理装置。
(16)上記参加者表示は、対応する参加者の発言数に応じたサイズとされる
前記(11)から(15)のいずれかに記載の情報処理装置。
(17)上記参加者表示には、対応する参加者の発言数を示す文字が添えられる
前記(11)から(16)のいずれかに記載の情報処理装置。
(18)上記会話線は、対応する参加者間の会話数に応じた太さとされる
前記(11)から(17)のいずれかに記載の情報処理装置。
(19)上記会話線には、対応する参加者間の会話数を示す文字が添えられる
前記(11)から(18)のいずれかに記載の情報処理装置。
(20)上記画像生成部で生成された平面マップ画像を表示する表示部をさらに備える
前記(11)から(19)のいずれかに記載の情報処理装置。
(21)上記画像生成部で生成された平面マップ画像を保持するサーバをさらに備える
前記(11)から(20)のいずれかに記載の情報処理装置。
(22)上記画像生成部で生成された平面マップ画像をモバイル端末に送信する通信部をさらに備える
前記(11)から(21)のいずれかに記載の情報処理装置。
(23)音声処理部が、音声信号から会話の複数の参加者の発言を検出する音声処理ステップと、
画像処理部が、画像信号から上記会話の複数の参加者の状態を検出する画像処理ステップと、
会話検出部が、上記複数の参加者の発言と上記複数の参加者の状態に基づいて会話の状態を判定する検出ステップを有する
情報処理方法。
(24)コンピュータを、
音声信号から会話の複数の参加者の発言を検出する音声処理手段と、
画像信号から上記会話の複数の参加者の状態を検出する画像処理手段と、
上記複数の参加者の発言と上記複数の参加者の状態を判定する判定手段として機能させる
プログラム。
101・・・音声処理部
102・・・画像処理部
103・・・判定部
200・・・情報処理装置
201-1~201-N・・・カメラ
202-1~202-M・・・マイク
203・・・画像音声制御システム
204・・・モニタ
205・・・サーバ
206・・・モバイル端末
231・・・制御部
232・・・ユーザ操作部
233・・・音声処理部
234・・・画像処理部
235・・・判定部
236・・・画像生成部
237・・・通信部
Claims (18)
- 音声信号から会話の複数の参加者の発言を検出する音声処理部と、
画像信号から上記会話の複数の参加者の状態を検出する画像処理部と、
上記複数の参加者の発言と上記複数の参加者の状態に基づいて会話の状態を判定する判定部を備え、
上記画像処理部は、上記参加者の状態として、見ている方向を検出し、
上記判定部は、第1の参加者が発言した後に、あるいは該発言が終わる直前に第2の参加者の発言があり、かつ上記第2の参加者の見ている方向が上記第1の参加者の方向であるとき、上記第1の参加者と上記第2の参加者との間の会話があると判定する
情報処理装置。 - 上記画像処理部は、上記参加者の顔の向きまたは視線方向から該参加者の見ている方向を検出する
請求項1に記載の情報処理装置。 - 上記音声処理部は、上記音声信号から音量を計測し、閾値以上の状態が一定時間以上継続した場合には発言であると判定する
請求項1に記載の情報処理装置。 - 上記音声処理部は、閾値以上の状態が一定時間に満たない場合には、同意、否定またはあいづちに係る発声であると判定する
請求項3に記載の情報処理装置。 - 上記会話に使用されている空間の平面マップ画像を生成する画像生成部をさらに備え、
上記平面マップ画像には、上記会話に参加しているそれぞれの参加者を示す参加者表示が存在し、
上記平面マップ画像には、上記判定部によってあると判定された会話に基づいて、対応する2つの参加者表示をつなぐ会話線が存在する
請求項1に記載の情報処理装置。 - 上記画像処理部は、上記画像信号を処理して上記会話に参加しているそれぞれの参加者の位置をさらに検出し、
上記画像生成部は、上記平面マップ画像における上記それぞれの参加者を示す参加者表示の位置を、上記検出されたそれぞれの参加者の位置に応じて変更する
請求項5に記載の情報処理装置。 - 上記画像生成部は、上記平面マップ画像における上記それぞれの参加者を示す参加者表示の位置を、上記それぞれの参加者の会話数に応じて変更する
請求項5に記載の情報処理装置。 - 上記画像生成部は、上記それぞれの参加者を示す参加者表示の位置を、会話数が多いほど上記平面マップ画像の中央寄りに配置する
請求項7に記載の情報処理装置。 - 上記画像生成部は、2参加者の参加者表示の間隔を、該2参加者間の会話数が多いほど近くする
請求項7に記載の情報処理装置。 - 上記参加者表示は、対応する参加者の発言数に応じたサイズとされる
請求項5に記載の情報処理装置。 - 上記参加者表示には、対応する参加者の発言数を示す文字が添えられる
請求項5に記載の情報処理装置。 - 上記会話線は、対応する参加者間の会話数に応じた太さとされる
請求項5に記載の情報処理装置。 - 上記会話線には、対応する参加者間の会話数を示す文字が添えられる
請求項5に記載の情報処理装置。 - 上記画像生成部で生成された平面マップ画像を表示する表示部をさらに備える
請求項5に記載の情報処理装置。 - 上記画像生成部で生成された平面マップ画像を保持するサーバをさらに備える
請求項5に記載の情報処理装置。 - 上記画像生成部で生成された平面マップ画像をモバイル端末に送信する通信部をさらに備える
請求項5に記載の情報処理装置。 - 音声処理部が、音声信号から会話の複数の参加者の発言を検出する音声処理ステップと、
画像処理部が、画像信号から上記会話の複数の参加者の状態を検出する画像処理ステップと、
判定部が、上記複数の参加者の発言と上記複数の参加者の状態に基づいて会話の状態を判定する判定ステップを有し、
上記画像処理ステップでは、上記参加者の状態として、見ている方向を検出し、
上記判定ステップでは、第1の参加者が発言した後に、あるいは該発言が終わる直前に第2の参加者の発言があり、かつ上記第2の参加者の見ている方向が上記第1の参加者の方向であるとき、上記第1の参加者と上記第2の参加者との間の会話があると判定する
情報処理方法。 - コンピュータを、
音声信号から会話の複数の参加者の発言を検出する音声処理手段と、
画像信号から上記会話の複数の参加者の状態を検出する画像処理手段と、
上記複数の参加者の発言と上記複数の参加者の状態に基づいて会話の状態を判定する判定手段として機能させ、
上記画像処理手段は、上記参加者の状態として、見ている方向を検出し、
上記判定手段は、第1の参加者が発言した後に、あるいは該発言が終わる直前に第2の参加者の発言があり、かつ上記第2の参加者の見ている方向が上記第1の参加者の方向であるとき、上記第1の参加者と上記第2の参加者との間の会話があると判定する
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003778 | 2018-01-12 | ||
JP2018003778 | 2018-01-12 | ||
PCT/JP2019/000597 WO2019139101A1 (ja) | 2018-01-12 | 2019-01-10 | 情報処理装置、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019139101A1 JPWO2019139101A1 (ja) | 2021-01-28 |
JP7276158B2 true JP7276158B2 (ja) | 2023-05-18 |
Family
ID=67219559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564747A Active JP7276158B2 (ja) | 2018-01-12 | 2019-01-10 | 情報処理装置、情報処理方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11837233B2 (ja) |
EP (1) | EP3739573B1 (ja) |
JP (1) | JP7276158B2 (ja) |
CN (1) | CN111542876A (ja) |
WO (1) | WO2019139101A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7177348B2 (ja) * | 2019-02-06 | 2022-11-24 | 日本電信電話株式会社 | 音声認識装置、音声認識方法およびプログラム |
JP2021099670A (ja) * | 2019-12-23 | 2021-07-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7471911B2 (ja) | 2020-05-20 | 2024-04-22 | 清水建設株式会社 | 人物関係抽出システム |
JPWO2021245759A1 (ja) * | 2020-06-01 | 2021-12-09 | ||
WO2024100703A1 (ja) * | 2022-11-07 | 2024-05-16 | マクセル株式会社 | 映像表示装置、映像表示システム及び映像表示装置の制御方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184345A (ja) | 1998-12-14 | 2000-06-30 | Nec Corp | マルチモーダルコミュニケーション支援装置 |
WO2008139717A1 (ja) | 2007-05-09 | 2008-11-20 | Panasonic Corporation | 表示装置、表示方法、表示プログラム |
WO2009004731A1 (ja) | 2007-07-05 | 2009-01-08 | Panasonic Corporation | 画像音声通信装置及び画像表示方法 |
JP2010266522A (ja) | 2009-05-12 | 2010-11-25 | Nippon Telegr & Teleph Corp <Ntt> | 対話状態分割装置とその方法、そのプログラムと記録媒体 |
WO2011105003A1 (ja) | 2010-02-25 | 2011-09-01 | パナソニック株式会社 | 信号処理装置及び信号処理方法 |
JP2011237965A (ja) | 2010-05-10 | 2011-11-24 | Seiko Epson Corp | 会話比率算出装置、接客データ記録装置、会話比率算出方法およびプログラム |
JP2013058221A (ja) | 2012-10-18 | 2013-03-28 | Hitachi Ltd | 会議分析システム |
JP2016004066A (ja) | 2014-06-13 | 2016-01-12 | 株式会社Nttドコモ | 管理装置、会話システム、会話管理方法及びプログラム |
JP2017009825A (ja) | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | 会話状況分析装置および会話状況分析方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07122895B2 (ja) | 1985-10-04 | 1995-12-25 | 株式会社日立製作所 | ステレオ画像処理方法 |
JPH04323689A (ja) | 1991-04-24 | 1992-11-12 | Toshiba Corp | 会議進行支援装置 |
JP3197633B2 (ja) | 1992-11-30 | 2001-08-13 | 松下電器産業株式会社 | 移動体の自動追尾装置 |
JP3522954B2 (ja) | 1996-03-15 | 2004-04-26 | 株式会社東芝 | マイクロホンアレイ入力型音声認識装置及び方法 |
GB2351628B (en) | 1999-04-14 | 2003-10-01 | Canon Kk | Image and sound processing apparatus |
US6894714B2 (en) * | 2000-12-05 | 2005-05-17 | Koninklijke Philips Electronics N.V. | Method and apparatus for predicting events in video conferencing and other applications |
US6782363B2 (en) * | 2001-05-04 | 2004-08-24 | Lucent Technologies Inc. | Method and apparatus for performing real-time endpoint detection in automatic speech recognition |
US7386799B1 (en) * | 2002-11-21 | 2008-06-10 | Forterra Systems, Inc. | Cinematic techniques in avatar-centric communication during a multi-user online simulation |
KR100580619B1 (ko) * | 2002-12-11 | 2006-05-16 | 삼성전자주식회사 | 사용자와 에이전트 간의 대화 관리방법 및 장치 |
US9454747B2 (en) * | 2005-10-11 | 2016-09-27 | Aol Inc. | Ordering of conversations based on monitored recipient user interaction with corresponding electronic messages |
US9250703B2 (en) * | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
EP2012304B1 (en) * | 2007-07-06 | 2012-09-05 | Zero To One Technology | Methods for electronically analysing a dialogue and corresponding systems |
WO2009104564A1 (ja) * | 2008-02-20 | 2009-08-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想空間における会話サーバ、会話のための方法及びコンピュータ・プログラム |
US8416715B2 (en) * | 2009-06-15 | 2013-04-09 | Microsoft Corporation | Interest determination for auditory enhancement |
US10198775B2 (en) * | 2010-06-23 | 2019-02-05 | Microsoft Technology Licensing, Llc | Acceleration of social interactions |
JP5755012B2 (ja) | 2011-04-21 | 2015-07-29 | キヤノン株式会社 | 情報処理装置、その処理方法、プログラム及び撮像装置 |
US20150189233A1 (en) * | 2012-04-30 | 2015-07-02 | Goggle Inc. | Facilitating user interaction in a video conference |
JP6400445B2 (ja) | 2014-11-27 | 2018-10-03 | Kddi株式会社 | 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム |
JPWO2016158014A1 (ja) * | 2015-03-31 | 2018-01-25 | ソニー株式会社 | 情報処理装置、通信システム、情報処理方法及びプログラム |
US20160308920A1 (en) * | 2015-04-16 | 2016-10-20 | Microsoft Technology Licensing, Llc | Visual Configuration for Communication Session Participants |
JP6651989B2 (ja) * | 2015-08-03 | 2020-02-19 | 株式会社リコー | 映像処理装置、映像処理方法、及び映像処理システム |
CN106453030B (zh) * | 2015-08-12 | 2019-10-11 | 大连民族学院 | 一种获取社交关系链的方法及装置 |
JP6772023B2 (ja) * | 2015-10-30 | 2020-10-21 | コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド | ユーザー状態検出による集団相互作用の方法及びシステム |
US20170301037A1 (en) * | 2016-04-19 | 2017-10-19 | International Business Machines Corporation | Group discourse architecture |
-
2019
- 2019-01-10 CN CN201980007295.6A patent/CN111542876A/zh active Pending
- 2019-01-10 WO PCT/JP2019/000597 patent/WO2019139101A1/ja unknown
- 2019-01-10 JP JP2019564747A patent/JP7276158B2/ja active Active
- 2019-01-10 US US16/959,884 patent/US11837233B2/en active Active
- 2019-01-10 EP EP19738367.2A patent/EP3739573B1/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184345A (ja) | 1998-12-14 | 2000-06-30 | Nec Corp | マルチモーダルコミュニケーション支援装置 |
WO2008139717A1 (ja) | 2007-05-09 | 2008-11-20 | Panasonic Corporation | 表示装置、表示方法、表示プログラム |
WO2009004731A1 (ja) | 2007-07-05 | 2009-01-08 | Panasonic Corporation | 画像音声通信装置及び画像表示方法 |
JP2010266522A (ja) | 2009-05-12 | 2010-11-25 | Nippon Telegr & Teleph Corp <Ntt> | 対話状態分割装置とその方法、そのプログラムと記録媒体 |
WO2011105003A1 (ja) | 2010-02-25 | 2011-09-01 | パナソニック株式会社 | 信号処理装置及び信号処理方法 |
JP2011237965A (ja) | 2010-05-10 | 2011-11-24 | Seiko Epson Corp | 会話比率算出装置、接客データ記録装置、会話比率算出方法およびプログラム |
JP2013058221A (ja) | 2012-10-18 | 2013-03-28 | Hitachi Ltd | 会議分析システム |
JP2016004066A (ja) | 2014-06-13 | 2016-01-12 | 株式会社Nttドコモ | 管理装置、会話システム、会話管理方法及びプログラム |
JP2017009825A (ja) | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | 会話状況分析装置および会話状況分析方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019139101A1 (ja) | 2021-01-28 |
EP3739573A4 (en) | 2021-01-13 |
EP3739573B1 (en) | 2023-06-28 |
EP3739573A1 (en) | 2020-11-18 |
US11837233B2 (en) | 2023-12-05 |
US20200335105A1 (en) | 2020-10-22 |
CN111542876A (zh) | 2020-08-14 |
WO2019139101A1 (ja) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7276158B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US8243116B2 (en) | Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications | |
US10984386B2 (en) | Interview system | |
US20120204120A1 (en) | Systems and methods for conducting and replaying virtual meetings | |
JP2017123149A (ja) | ユーザー状態検出による集団相互作用の方法及びシステム | |
JP2019061557A (ja) | 情報処理装置、情報処理システム及びプログラム | |
KR20150040981A (ko) | 조직화 모델들을 구현하는 화상 회의 시스템들 | |
US20120204119A1 (en) | Systems and methods for conducting and replaying virtual meetings | |
JPWO2011013605A1 (ja) | プレゼンテーションシステム | |
JP2018205638A (ja) | 集中度評価機構 | |
JP2019169099A (ja) | 会議支援装置及び会議支援システム | |
JP2018180503A (ja) | パブリックスピーキング支援装置、及びプログラム | |
JP2007030050A (ja) | ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 | |
Kopf et al. | A real-time feedback system for presentation skills | |
WO2022137547A1 (ja) | コミュニケーション支援システム | |
Al Moubayed et al. | Furhat goes to Robotville: A large-scale multiparty human-robot interaction data collection in a public space | |
JP6901190B1 (ja) | 遠隔対話システム、遠隔対話方法及び遠隔対話プログラム | |
JP7152453B2 (ja) | 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム | |
US20230196632A1 (en) | Information processing device and information processing method | |
JP2019057061A (ja) | 情報出力装置及びプログラム | |
JP7263475B1 (ja) | 授業支援システム、授業支援方法、授業支援プログラム | |
Webb et al. | SoGrIn: a non-verbal dataset of social group-level interactions | |
JP7465040B1 (ja) | コミュニケーション可視化システム | |
JP2019207308A (ja) | 教室システム | |
WO2024142291A1 (ja) | コミュニケーション可視化システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7276158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |