JP7259447B2 - 発話者検出システム、発話者検出方法及びプログラム - Google Patents

発話者検出システム、発話者検出方法及びプログラム Download PDF

Info

Publication number
JP7259447B2
JP7259447B2 JP2019052911A JP2019052911A JP7259447B2 JP 7259447 B2 JP7259447 B2 JP 7259447B2 JP 2019052911 A JP2019052911 A JP 2019052911A JP 2019052911 A JP2019052911 A JP 2019052911A JP 7259447 B2 JP7259447 B2 JP 7259447B2
Authority
JP
Japan
Prior art keywords
speaker
detection system
person
image data
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019052911A
Other languages
English (en)
Other versions
JP2020155944A (ja
Inventor
紘之 長野
将樹 能勢
悠斗 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019052911A priority Critical patent/JP7259447B2/ja
Publication of JP2020155944A publication Critical patent/JP2020155944A/ja
Application granted granted Critical
Publication of JP7259447B2 publication Critical patent/JP7259447B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

本発明は、発話者検出システム、発話者検出方法及びプログラムに関する。
近年、会議等において、言葉を発している人物(以下「発話者」という。)を検出する方法が知られている。
例えば、テレビ会議システムが、まず、会議室内にいる、発話者を含む参加者をカメラ等で撮像する。そして、撮像された画像データに基づいて、テレビ会議システムは、それぞれの参加者の顔画像を抽出する。次に、テレビ会議システムは、顔画像における口唇部分の動作を検出することで発話者を特定する。このようにして、発話者を特定して選択的に画像を撮像する方法が知られている(例えば、特許文献1参照)。
しかしながら、従来の方法では、画像データに口唇部分が写っていないと、発話者の検出が難しい場合がある。例えば、人物がマスクを装着していたり、口唇部分を手で隠す癖等があったりすると、口唇部分が遮蔽され、画像データに、口唇部分が写らない場合がある。このような場合には、口唇の動作を検出して発話者を検出するのが難しい場合がある。
本発明の一態様は、口唇の動作で発話者を検出するのが難しい場合であっても、発話者を検出することを目的とする。
本発明の一実施形態による、発話者を検出する発話者検出システムは、
前記発話者を含む複数の参加者を撮像して画像データを生成する撮像部と、
前記画像データに基づいて、口唇の動作を検出して前記発話者を検出する第1検出部と、
前記第1検出部で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出部と
を備え
前記第2検出部は、
前記参加者のうち、前記口唇が遮蔽されている外観の第1人物を検出し、かつ、前記第1人物となる人物以外が前記発話者でないと検出されると、前記第1人物を前記発話者と検出することを特徴とする。
本発明の実施形態によって、口唇の動作で発話者を検出するのが難しい場合であっても、発話者を検出できる。
発話者検出システムの全体構成例及び使用例を示す概略図である。 電子黒板のハードウェア構成例を示す図である。 全体処理例を示すフローチャートである。 第1人物の検出例を示す図である。 第2人物の検出例を示す図である。 第3人物の検出例を示す図である。 第1実施形態における発話者検出システムの機能構成例を示す機能ブロック図である。 第2実施形態における発話者検出システムの機能構成例を示す機能ブロック図である。 第3実施形態における全体処理例を示すフローチャートである。
以下、発明を実施するための最適な形態について、図面を参照して説明する。
<第1実施形態>
<発話者検出システムの全体構成例及び使用例>
発話者検出システムは、例えば、複数の参加者が会議室等に集まって話し合い等をする場面等において、以下のように設置して使用される。なお、設置場所は、会議室に限られず、他の部屋等でもよい。
図1は、発話者検出システムの全体構成例及び使用例を示す概略図である。例えば、発話者検出システム10は、図示するように、撮像装置の例であるカメラ1と、カメラ1と有線又は無線で接続する情報処理装置の例である電子黒板2とを有する構成である。
カメラ1は、参加者である第1参加者MA、第2参加者MB及び第3参加者MCが撮像できる画角及び設置位置であるのが望ましい。例えば、カメラ1は、360 °の範囲が撮像できる画角を有する。このように、カメラ1は、180 °以上の広角な範囲を撮像できる光学系であるのが望ましい。このような広角な範囲を撮像できる撮像装置であると、画像データに参加者が漏れなく撮像できる確率を高くできる。
なお、撮像装置は、複数でもよい。また、撮像装置は、図示するような会議室の真ん中となる配置でなくともよい。すなわち、撮像装置は、部屋の端等に設置され、全体を撮像できるように調整されてもよい。
カメラ1は、静止画像又は動画像である画像データを電子黒板2に送信する。そして、電子黒板2は、例えば、画像データに基づいて、会議の様子等を表示する等の処理を行う。なお、電子黒板2は、画像データをクラウド上又は記憶装置等に保存してもよい。
<電子黒板の例>
図2は、電子黒板のハードウェア構成例を示す図である。図示するように、電子黒板2は、CPU201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD204、ネットワークI/F205、及び、外部機器接続I/F206を備える。
これらのうち、CPU201は、電子黒板2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワークで外部機器と通信を行うためのインターフェースである。ネットワークコントローラは、通信ネットワークとの通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ1)である。
また、電子黒板2は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備える。
これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer)270のディスプレイに対して映像情報を静止画又は動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ280等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ280上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ280の上側両端部に設置された2つ受発光装置が、ディスプレイ280に平行して複数の赤外線を放射し、ディスプレイ280の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ280へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC又はBluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ280の表示の明暗や色合い等を調整するためのスイッチ群である。
更に、電子黒板2は、バスライン210を備えている。バスライン210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネル等の種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分、又は、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
なお、情報処理装置は、電子黒板でなくともよい。例えば、情報処理装置は、PC(Personal Computer)又はサーバ等でもよい。
<全体処理例>
図3は、全体処理例を示すフローチャートである。例えば、会議が開始されると、発話者検出システムは、例えば、以下のような処理を行う。
<画像データの生成例>(ステップS1S)
発話者検出システムは、参加者を撮像して画像データを生成する。なお、ステップS1Sによって撮像する画像を1 フレームとすると、発話者検出システムは、ステップS1Eにより、繰り返し画像データを生成し、複数のフレームを生成する。また、ステップS2S以降の処理は、それぞれのフレームに対して行われる。
<人物の検出例>(ステップS2S)
発話者検出システムは、画像データに基づいて、人物を検出する。すなわち、発話者検出システムは、画像データに対して、顔認証等の処理を行うと、参加者を検出することができる。なお、人物の検出方法は、顔認証に限られず、他の認識処理等で実現してもよい。
また、発話者検出システムは、ステップS2Eにより、それぞれのフレームに対して、繰り返し人物を検出する処理を行う。以下、ステップS3乃至ステップS6は、ステップS2Sで検出される人物ごとに繰り返し行われる。
<人物の動きの検出例>(ステップS3)
発話者検出システムは、人物の動きを検出する。例えば、発話者検出システムは、オプティカルフロー等の処理で人物の動きを検出する。なお、動きの検出方法は、他の認識処理等で実現してもよい。
<視線の検出例>(ステップS4)
発話者検出システムは、視線を検出する。例えば、発話者検出システムは、参加者の目を示す画像等から視線を検出する。なお、視線の検出方法は、他の認識処理等で実現してもよい。このように、発話者検出システムは、視線を検出して、参加者のうち、どの人物に最も視線が集まっているかを検出するのが望ましい。すなわち、それぞれの参加者の視線を検出することで、発話者検出システムは、視線の先となる回数が最も多い人物を特定する処理を行うのが望ましい。
<口唇の検出例>(ステップS5)
発話者検出システムは、口唇を検出する。例えば、発話者検出システムは、顔認証等の処理を行うと、顔の主な部位である、目、鼻、口唇及び耳等を検出できる。
<口唇の動作の検出例>(ステップS6)
発話者検出システムは、口唇の動作を検出する。例えば、発話者検出システムは、ステップS5で検出する口唇をフレーム間で追跡していくと、口唇の動作を検出できる。
<口唇の動作で発話者が検出できたか否かの判断例>(ステップS7)
発話者検出システムは、口唇の動作で発話者が検出できたか否かを判断する。具体的には、ステップS5及びステップS6で口唇が検出できない場合等には、発話者検出システムは、口唇の動作で発話者が検出できないと判断する(ステップS7でNO)。
次に、口唇の動作で発話者が検出できないと判断すると(ステップS7でNO)、発話者検出システムは、ステップS9に進む。一方で、口唇の動作で発話者が検出できると判断すると(ステップS7でYES)、発話者検出システムは、ステップS8に進む。
<口唇の動作が検出できた人物を発話者と検出する例>(ステップS8)
発話者検出システムは、口唇の動作が検出できた人物を発話者と検出する。すなわち、発話者検出システムは、口唇が動いている人物を発話者と検出する。
<口唇が遮蔽されている外観の第1人物を検出できたか否かの判断例>(ステップS9)
発話者検出システムは、口唇が遮蔽されている外観の人物(以下「第1人物」という場合がある。)を検出できたか否かを判断する。具体的には、以下のような人物が検出される。
図4は、第1人物の検出例を示す図である。以下、図示するような画像データIMGが生成された例で説明する。すなわち、この例は、図1に示すように、3 人の参加者MEMである、第1参加者MA、第2参加者MB及び第3参加者MCがいる会議を撮像した例である。また、図示するように、参加者MEMのうち、第2参加者MBは、マスクMSKを装着しているとする。
第2参加者MBのように、マスクMSK等によって、口唇が遮蔽されている外観の人物は、第1人物と検出される。一方で、第1参加者MA及び第3参加者MCは、口唇がステップS5で検出される人物の例である。
なお、第1人物と検出する場合は、マスクMSKの装着に限られない。例えば、発話者検出システムは、マスクMSK以外の物体で口唇が遮蔽されている人物を第1人物と検出してもよい。具体的には、第1人物は、手で鼻等を触る動きで口唇が遮蔽されていてもよい。ほかにも、第1人物は、撮像装置との位置関係等により、口唇が検出できない方向を向いている人物又は逆光等で画像では顔が分かりにくい人物等でもよい。
第1参加者MA及び第3参加者MCが発話者である場合は、口唇の動作が検出できるため、発話者検出システムは、口唇の動作で発話者が検出できる(ステップS7でYES)。
一方で、第2参加者MBが発話者である場合は、発話者検出システムは、口唇の動作では、発話者が検出できない(ステップS7でNO)。
そこで、第2参加者MBのような第1人物が検出でき、かつ、第1人物以外の人物が発話者でないと検出されると、発話者検出システムは、第2参加者MBを発話者と推定する。なお、このような方法は、第1人物と検出する人物が1 人である場合に用いられるのが望ましい。
次に、第1人物を検出できたと判断すると(ステップS9でYES)、発話者検出システムは、ステップS10に進む。一方で、第1人物を検出できないと判断すると(ステップS9でNO)、発話者検出システムは、ステップS11に進む。
<第1人物を発話者と検出する例>(ステップS10)
発話者検出システムは、第1人物を発話者と検出する。すなわち、発話者検出システムは、口唇が遮蔽されている人物を発話者と検出する。
<参加者のうち、最も動きのある第2人物を検出できたか否かの判断例>(ステップS11)
発話者検出システムは、参加者のうち、最も動きのある人物(以下「第2人物」という。)を検出できたか否かの判断する。すなわち、発話者検出システムは、参加者の中で最も動きのある人物を発話者と検出する。
例えば、第1人物と検出される人物が以下のように複数検出された場合等に、ステップS9が行われるのが望ましい。
図5は、第2人物の検出例を示す図である。この例では、まず、第2参加者MBは、図4と同様に、マスクの装着によって、口唇が遮蔽されているため、第1人物と判断される。
そして、この例では、第1参加者MAは、電子黒板2がある方向を見て発話しているとする。すなわち、カメラ1に対して、第1参加者MAは、背を向けた姿勢等である。
そのため、画像データは、第1参加者MAの口唇が遮蔽されているのと同様に、第1参加者MAの口唇が写っていない状態である。したがって、第1参加者MA及び第2参加者MBがどちらも第1人物となり、発話者が1 人に特定できない場合である。
このような場合等には、発話者検出システムは、参加者のうち、最も動きのある人物を検出する。この例では、第1参加者MAが第2人物と検出される例である。
発話者は、話を聞いている者より、ジェスチャが多い可能性が高い。すなわち、発話者は、身振り手振りを行いながら発話する場合が多い。したがって、発話者検出システムは、参加者のうち、最も動きのある人物を第2人物と検出するのが望ましい。
なお、動きの検出を行うのにおいて、対象となる部位は、手Hの部位であるのが望ましい。会議等では、参加者の上半身が撮像される対象となる場合が多い。また、発言中は、手Hの部位が最もよく動く部位となる場合が多い。そこで、手Hを対象とすると、発話者検出システムは、発話者を精度よく検出できる。なお、手Hの部位には、腕等が含まれてもよい。
<第2人物を発話者と検出する例>(ステップS12)
発話者検出システムは、第2人物を発話者と検出する。すなわち、発話者検出システムは、最も動きのある人物を発話者と検出する。
<参加者の視線が最も集まる第3人物を発話者と検出する例>(ステップS13)
発話者検出システムは、参加者のうち、参加者の視線が最も集まる人物(以下「第3人物」という。)を検出して発話者と検出する。例えば、以下のように、第1人物と検出される人物が複数検出され、かつ、参加者の動きにあまり差がなく、第2人物が特定しにくい場合等に、ステップS13が行われるのが望ましい。
図6は、第3人物の検出例を示す図である。この例では、まず、第1参加者MA、第2参加者MB及び第3参加者MCのいずれもが、図4と同様に、マスクの装着によって、口唇が遮蔽されているため、第1人物と判断される。
さらに、図示する例では、第1参加者MA、第2参加者MB及び第3参加者MCのいずれもが、あまり動かない場合であるとする。したがって、参加者の動きにあまり差がなく、第2人物が特定されない状態である。
発話者は、話を聞いている者が視線を向けることが多いため、発話者に視線が最も集まる場合が多い。そこで、発話者検出システムは、参加者のうち、参加者の視線が最も集まる人物を特定し、第3人物と検出する。そして、発話者検出システムは、第3人物を発話者と検出する。
このようにすると、図示するように、第1人物が複数検出され、かつ、第2人物が検出できない場合等であっても、発話者検出システムは、発話者を検出できる。
なお、ステップS9、ステップS11及びステップS13は、図示するような順序でなくともよい。具体的には、第2人物の検出処理と第3人物の検出処理は、順序が逆でもよい。
<機能構成例>
図7は、第1実施形態における発話者検出システムの機能構成例を示す機能ブロック図である。例えば、図示するように、発話者検出システム10は、撮像部10F1、第1検出部10F2及び第2検出部10F3を備える機能構成である。
撮像部10F1は、発話者を含む複数の参加者を撮像して画像データIMGを生成する撮像手順を行う。例えば、撮像部10F1は、カメラ1等によって実現する。
第1検出部10F2は、画像データIMGに基づいて、口唇の動作を検出して発話者を検出する第1検出手順を行う。例えば、第1検出部10F2は、CPU201等で実現する。
第2検出部10F3は、第1検出部10F2で発話者が検出できない場合に、画像データIMGに基づいて、参加者の動き又は外観を検出して発話者を検出する第2検出手順を行う。例えば、第2検出部10F3は、CPU201等で実現する。
口唇の動作を検出して発話者を検出する方法であると、例えば、人物がマスクを装着していたり、口唇部分を手で隠す癖等があったりすると、口唇部分が遮蔽され、画像データに口唇部分が写らない場合等がある。このような場合には、口唇の動作に基づいて、発話者を検出するのが難しい場合が多い。一方で、本実施形態のような構成であると、発話者検出システム10は、口唇の動作を用いる第1検出では難しい場合でも、参加者の動き又は外観に基づく第2検出によって発話者を検出できる。
また、このように、画像データを用いる構成は、例えば、マイクアレイ等で発話者を検出する方法等と比較すると、精度よく発話者を検出できる。具体的には、マイクアレイ等の方法では、発話者がいると推定する角度が検出されるに過ぎず、同じ角度に複数の参加者がいるような場合には、区別ができない場合が多い。一方で、本実施形態のような構成であると、発話者検出システム10は、発話者を検出できる。
<第2実施形態>
発話者検出システムは、例えば、以下のように、検出結果を利用した処理を行ってもよい。
図8は、複数の認識モデルを用いる音声認識処理等の例を示すブロック図である。第2実施形態は、第1実施形態と比較すると、発話者の検出結果を利用して後段で処理を行う構成である点が異なる。具体的には、発話者検出システム10は、例えば、後段で音声認識処理等を行う。ゆえに、発話者検出システム10は、第1実施形態と比較すると、第2実施形態では、音声入力部10F21、切替部10F22及び音声認識部10F23等を更に備える機能構成である。以下、第1実施形態と異なる点を中心に説明し、重複する説明を省略する。
音声入力部10F21は、音声を入力して音声データを生成する音声入力手順を行う。例えば、音声入力部10F21は、マイク240等で実現する。
切替部10F22は、発話者の特性に合うように、認識モデルを切り替える切替手順を行う。例えば、切替部10F22は、CPU201等で実現する。
音声認識部10F23は、認識モデルに基づいて、音声認識をする音声認識手順を行う。例えば、音声認識部10F23は、CPU201等で実現する。
発話者検出システム10は、音声認識処理によって、例えば、音声を変換してテキストデータTXを生成する。そこで、音声認識には、発話者の特性、すなわち、発話者の年齢又は性別に合わせて、カテゴリごとに生成される複数の認識モデルML1、ML2及びML3を適用させるのが望ましい。このように、発話者の特性に合わせて、認識モデルを切り替えると、発話者検出システム10は、音声認識における認識率を向上させることができる。
認識モデルML1、ML2及びML3は、例えば、あらかじめ準備されるデータ等である。また、認識モデルML1、ML2及びML3は、例えば、音響モデル又は言語モデル等のように、様々な種類があってもよい。さらに、認識モデルML1、ML2及びML3は、例えば、個別に準備されてもよい。すなわち、過去の発話等に基づいて、参加者ごとに、認識モデルML1、ML2及びML3のように、認識モデルが準備されてもよい。
また、後段に行う処理は、音声認識に限られない。例えば、発話者検出システム10は、入力した音声を参加者ごとに、タグ付けする処理等でもよい。
<第3実施形態>
全体処理は、以下のような処理でもよい。
図9は、第3実施形態における全体処理例を示すフローチャートである。第1実施形態と比較すると、第3実施形態では、ステップS31が加わる点が異なる。以下、異なる点を中心に説明する。
<発話者が複数人検出されたか否かの判断例>(ステップS31)
発話者検出システムは、発話者が複数人検出されたか否かを判断する。例えば、口唇の動作で検出すると、発話していなくとも、発話者検出システムは、物を噛む等の動作を行い、口唇を動かす人物がいると、発話者と検出する場合がある。そこで、発話者が複数であるような検出結果である場合には、発話者と検出された複数の人物を対象に、ステップS11及びステップS13等の処理を行うことで、1 人に特定する処理を行うのが望ましい。
すなわち、複数の発話者候補のうち、発話者検出システムは、最も動きのある人物又は最も視線が集まる人物等を発話者と検出する。
このような構成であると、発話者検出システムは、物を噛む等の動作を行う人物がいても、発話者を精度よく検出できる。
<その他の実施形態>
なお、撮像装置及び情報処理装置は、複数の装置であってもよい。すなわち、本発明に係る実施形態は、発話者検出システムは、各処理及びデータの記憶を冗長、分散、並列、仮想化又はこれらを組み合わせて実行してもよい。
また、撮像装置及び情報処理装置は、上記の例に限られない。例えば、撮像装置及び情報処理装置は、外部又は内部に演算装置、制御装置又は記憶装置を更に有してもよい。一方で、撮像装置及び情報処理装置は、上記の例より、少ない部品で構成するハードウェア構成でもよい。
なお、本発明に係る各処理の全部又は一部は、低水準言語又は高水準言語で記述され、コンピュータに発話者検出方法を実行させるためのプログラムによって実現されてもよい。すなわち、プログラムは、発話者検出システム等のコンピュータに各処理を実行させるためのコンピュータプログラムである。
したがって、プログラムに基づいて発話者検出方法が実行されると、コンピュータが有する演算装置及び制御装置は、各処理を実行するため、プログラムに基づいて演算及び制御を行う。また、コンピュータが有する記憶装置は、各処理を実行するため、プログラムに基づいて、処理に用いられるデータを記憶する。
また、プログラムは、コンピュータが読み取り可能な記録媒体に記録されて頒布することができる。なお、記録媒体は、磁気テープ、フラッシュメモリ、光ディスク、光磁気ディスク又は磁気ディスク等のメディアである。さらに、プログラムは、電気通信回線を通じて頒布することができる。
また、各処理には、AI(Artificial Intelligence)等が用いられてもよい。つまり、発話者検出システムは、過去のデータを学習データとして機械学習等を行う。例えば、この学習結果によって、発話者検出システムは、発話者の検出又は音声の認識等を推測する等の処理を行ってもよい。
以上、実施形態における一例について説明したが、本発明は、上記実施形態に限定されない。すなわち、本発明の範囲内で種々の変形及び改良が可能である。
1 カメラ
2 電子黒板
10 発話者検出システム
10F1 撮像部
10F2 第1検出部
10F21 音声入力部
10F22 切替部
10F23 音声認識部
10F3 第2検出部
205 ネットワークI/F
210 バスライン
211 キャプチャデバイス
213 ディスプレイコントローラ
214 接触センサ
215 センサコントローラ
216 電子ペンコントローラ
219 近距離通信回路
219a アンテナ
222 電源スイッチ
223 選択スイッチ類
230 USBメモリ
240 マイク
250 スピーカ
280 ディスプレイ
290 電子ペン
H 手
IMG 画像データ
MA 第1参加者
MB 第2参加者
MC 第3参加者
MEM 参加者
ML1 認識モデル
ML2 認識モデル
ML3 認識モデル
MSK マスク
TX テキストデータ
特開2004-118314号公報

Claims (6)

  1. 発話者を検出する発話者検出システムであって、
    前記発話者を含む複数の参加者を撮像して画像データを生成する撮像部と、
    前記画像データに基づいて、口唇の動作を検出して前記発話者を検出する第1検出部と、
    前記第1検出部で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出部と
    を備え
    前記第2検出部は、
    前記参加者のうち、前記口唇が遮蔽されている外観の第1人物を検出し、かつ、前記第1人物となる人物以外が前記発話者でないと検出されると、前記第1人物を前記発話者と検出する発話者検出システム。
  2. 発話者を検出する発話者検出システムであって、
    前記発話者を含む複数の参加者を撮像して画像データを生成する撮像部と、
    前記画像データに基づいて、口唇の動作を検出して前記発話者を検出する第1検出部と、
    前記第1検出部で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出部と
    を備え、
    前記第2検出部は、
    前記参加者のうち、最も動きのある第2人物を検出すると、前記第2人物を前記発話者と検出する発話者検出システム。
  3. 発話者を検出する発話者検出システムであって、
    前記発話者を含む複数の参加者を撮像して画像データを生成する撮像部と、
    前記画像データに基づいて、口唇の動作を検出して前記発話者を検出する第1検出部と、
    前記第1検出部で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出部と
    を備え、
    前記第2検出部は、
    前記参加者の視線が最も集まる第3人物を前記発話者と検出する発話者検出システム。
  4. 発話者を検出する発話者検出システムであって、
    前記発話者を含む複数の参加者を撮像して画像データを生成する撮像部と、
    前記画像データに基づいて、口唇の動作を検出して前記発話者を検出する第1検出部と、
    前記第1検出部で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出部と、
    前記発話者を検出すると、前記発話者の特性に合う認識モデルに切り替える切替部と、
    前記認識モデルに基づいて音声認識を行う音声認識部と
    を備る発話者検出システム。
  5. 発話者を検出する発話者検出システムが行う発話者検出方法であって、
    発話者検出システムが、前記発話者を含む複数の参加者を撮像して画像データを生成する撮像手順と、
    発話者検出システムが、前記画像データに基づいて、口唇の動作を検出して前記発話者を検出する第1検出手順と、
    発話者検出システムが、前記第1検出手順で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出手順と
    前記発話者を検出すると、前記発話者の特性に合う認識モデルに切り替える切替手順と、
    前記認識モデルに基づいて音声認識を行う音声認識手順と
    を含む発話者検出方法。
  6. 請求項に記載の発話者検出方法をコンピュータに実行させるためのプログラム。
JP2019052911A 2019-03-20 2019-03-20 発話者検出システム、発話者検出方法及びプログラム Active JP7259447B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019052911A JP7259447B2 (ja) 2019-03-20 2019-03-20 発話者検出システム、発話者検出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019052911A JP7259447B2 (ja) 2019-03-20 2019-03-20 発話者検出システム、発話者検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020155944A JP2020155944A (ja) 2020-09-24
JP7259447B2 true JP7259447B2 (ja) 2023-04-18

Family

ID=72559875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019052911A Active JP7259447B2 (ja) 2019-03-20 2019-03-20 発話者検出システム、発話者検出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7259447B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022168175A1 (ja) * 2021-02-02 2022-08-11 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
CN114282621B (zh) * 2021-12-29 2022-08-23 湖北微模式科技发展有限公司 一种多模态融合的话者角色区分方法与系统
CN114299952B (zh) * 2021-12-29 2022-08-19 湖北微模式科技发展有限公司 结合多种运动分析的话者角色区分方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352996A (ja) 1999-03-26 2000-12-19 Canon Inc 情報処理装置
JP2005122128A (ja) 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム
JP2007049375A (ja) 2005-08-09 2007-02-22 Nikon Corp 画像処理装置、カメラ、通信装置およびその画像処理装置を実現するプログラム
JP2007094104A (ja) 2005-09-29 2007-04-12 Sony Corp 情報処理装置および方法、並びにプログラム
WO2011013605A1 (ja) 2009-07-27 2011-02-03 三洋電機株式会社 プレゼンテーションシステム
WO2011040056A1 (ja) 2009-10-02 2011-04-07 独立行政法人情報通信研究機構 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
CN109410954A (zh) 2018-11-09 2019-03-01 杨岳川 一种基于音视频的无监督的多说话人识别装置和方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352996A (ja) 1999-03-26 2000-12-19 Canon Inc 情報処理装置
JP2005122128A (ja) 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム
JP2007049375A (ja) 2005-08-09 2007-02-22 Nikon Corp 画像処理装置、カメラ、通信装置およびその画像処理装置を実現するプログラム
JP2007094104A (ja) 2005-09-29 2007-04-12 Sony Corp 情報処理装置および方法、並びにプログラム
WO2011013605A1 (ja) 2009-07-27 2011-02-03 三洋電機株式会社 プレゼンテーションシステム
WO2011040056A1 (ja) 2009-10-02 2011-04-07 独立行政法人情報通信研究機構 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
CN109410954A (zh) 2018-11-09 2019-03-01 杨岳川 一种基于音视频的无监督的多说话人识别装置和方法

Also Published As

Publication number Publication date
JP2020155944A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US11983823B2 (en) Transmodal input fusion for a wearable system
CN104956292B (zh) 多个感知感测输入的交互
JP7259447B2 (ja) 発話者検出システム、発話者検出方法及びプログラム
US11119573B2 (en) Pupil modulation as a cognitive control signal
US20120259638A1 (en) Apparatus and method for determining relevance of input speech
US20130300650A1 (en) Control system with input method using recognitioin of facial expressions
US20120259554A1 (en) Tongue tracking interface apparatus and method for controlling a computer program
US11803233B2 (en) IMU for touch detection
WO2012145142A2 (en) Control of electronic device using nerve analysis
WO2021073743A1 (en) Determining user input based on hand gestures and eye tracking
US20220262080A1 (en) Interfaces for presenting avatars in three-dimensional environments
US11620790B2 (en) Generating a 3D model of a fingertip for visual touch detection
US20170160797A1 (en) User-input apparatus, method and program for user-input
US11782548B1 (en) Speed adapted touch detection
KR20200081529A (ko) 사회적 수용성을 고려한 hmd 기반 사용자 인터페이스 방법 및 장치
US11055517B2 (en) Non-contact human input method and non-contact human input system
Deepateep et al. Facial movement interface for mobile devices using depth-sensing camera
US11237671B1 (en) Temporal filter touch detection
US11783444B1 (en) Warping an input image based on depth and offset information
US20220261085A1 (en) Measurement based on point selection
US20230059153A1 (en) Methods, devices and media for input/output space mapping in head-based human-computer interactions
Nakamura Embedded Facial Surface Sensing and Stimulation: Toward Facial Surface Interaction in Virtual Environment
Marques-Villarroya et al. A bio-inspired exogenous attention-based architecture for social robots
CN118076942A (zh) 用于发起动作的方法和装置
CN117762243A (zh) 连续手势的运动映射

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7259447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151