JP2001078162A - 通信装置および方法、並びに記録媒体 - Google Patents
通信装置および方法、並びに記録媒体Info
- Publication number
- JP2001078162A JP2001078162A JP25385399A JP25385399A JP2001078162A JP 2001078162 A JP2001078162 A JP 2001078162A JP 25385399 A JP25385399 A JP 25385399A JP 25385399 A JP25385399 A JP 25385399A JP 2001078162 A JP2001078162 A JP 2001078162A
- Authority
- JP
- Japan
- Prior art keywords
- area
- participant
- face
- detection
- centroid point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Telephonic Communication Services (AREA)
- Image Analysis (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
ら、肌色領域と黒色領域を含む重心点検出領域を抽出
し、抽出された重心点検出領域の肌色領域と黒色領域か
らなる領域の重心点G1と、重心点検出領域の肌色領域
の重心点G2を検出し、検出した重心点G1および重心
点G2から、顔の向きを検出する。
Description
法、並びに記録媒体に関し、特に、ユーザの顔の向きに
対応して音量を制御する通信装置および方法、並びに記
録媒体に関する。
る画像および音声を、ネットワークを介して相互に通信
し、各会議室において、他の会議室の映像および音声を
再生することにより、あたかも1つのテーブルを囲んで
いるかのように会議を行うことができる遠隔会議システ
ムが存在する。
システムにおいては、各会議室における会議参加者が、
同時に発言することが可能とされているので、聞き取り
たい発言が他の発言に邪魔されて、聞き取り難くなる課
題があった。
ものであり、会議参加者の顔の向きに対応して音量を制
御することより、顔の向きに対応する発言を聞き取り易
くするものである。
置は、撮像されたユーザの顔の画像データから、第1の
領域と第2の領域を含む重心点検出領域を抽出する抽出
手段と、抽出手段により抽出された重心点検出領域の第
1の領域と第2の領域からなる第3の領域の第1の重心
点と、重心点検出領域の第1の領域の第2の重心点を検
出する第1の検出手段と、第1の検出手段により検出さ
れた第1の重心点および第2の重心点から、顔の向きを
検出する第2の検出手段とを備えることを特徴とする。
ユーザの顔の画像データから、第1の領域と第2の領域
を含む重心点検出領域を抽出する抽出ステップと、抽出
ステップの処理で抽出された重心点検出領域の第1の領
域と第2の領域からなる第3の領域の第1の重心点と、
重心点検出領域の第1の領域の第2の重心点を検出する
第1の検出ステップと、第1の検出ステップの処理で検
出された第1の重心点および第2の重心点から、顔の向
きを検出する第2の検出ステップとを含むことを特徴と
する。
ユーザの顔の画像データから、第1の領域と第2の領域
を含む重心点検出領域を抽出する抽出ステップと、抽出
ステップの処理で抽出された重心点検出領域の第1の領
域と第2の領域からなる第3の領域の第1の重心点と、
重心点検出領域の第1の領域の第2の重心点を検出する
第1の検出ステップと、第1の検出ステップの処理で検
出された第1の重心点および第2の重心点から、顔の向
きを検出する第2の検出ステップとを含むことを特徴と
する。
載の通信方法、および請求項3に記載の記録媒体におい
ては、撮像されたユーザの顔の画像データから、第1の
領域と第2の領域を含む重心点検出領域が抽出され、抽
出された重心点検出領域の第1の領域と第2の領域から
なる第3の領域の第1の重心点と、重心点検出領域の第
1の領域の第2の重心点が検出され、検出された第1の
重心点および第2の重心点から、顔の向きが検出され
る。
議システムの構成例を示している。この遠隔会議システ
ムにおいては、4個の遠隔会議装置1−1乃至1−4
(以下、遠隔会議装置1−1乃至1−4を個々に区別す
る必要がない場合、単に遠隔会議装置1と記述する。他
の装置についても同様である)がISDN(Integrated Serv
ices Digital Network)2を介して接続されている。遠
隔会議装置1−1は、参加者Aの画像データおよび音声
データを、ISDN2を介して遠隔会議装置1−2乃至1−
4に送信したり、遠隔会議装置1−2乃至1−4から送
信されてきた画像データおよび音声データを再生する。
ータおよび音声データを、ISDN2を介して遠隔会議装置
1−1,1−3,1−4に送信したり、遠隔会議装置1
−1,1−3,1−4から送信されてきた画像データお
よび音声データを再生する。遠隔会議装置1−3は、参
加者Cの画像データおよび音声データを、ISDN2を介し
て遠隔会議装置1−1,1−2,1−4に送信したり、
遠隔会議装置1−1,1−2,1−4から送信されてき
た画像データおよび音声データを再生する。遠隔会議装
置1−4は、参加者Dの画像データおよび音声データ
を、ISDN2を介して遠隔会議装置1−1乃至1−3に送
信したり、遠隔会議装置1−1乃至1−3から送信され
てきた画像データおよび音声データを再生する。
1−1乃至1−4が設けられているが、さらに多くの遠
隔会議装置を接続することも可能である。また、ISDN2
の代わりに、例えば、ケーブルテレビ網のような他の伝
送媒体を用いることも可能である。
例を示している。遠隔会議装置1−1は、3個の再生装
置10−1乃至10−3、カメラ13、およびマイクロ
フォン14から構成されている。
1およびスピーカ12−1から構成され、参加者Aの左
側前方(図2中、左方向)に配置されている。ディスプ
レイ11−1は、遠隔会議装置1−2から送信された画
像データに対応する映像(例えば、参加者Bの顔)を表
示する。スピーカ12−1は、遠隔会議装置1−2から
送信された音声データに対応する音声(例えば、参加者
Bの発言)を出力する。
2およびスピーカ12−2から構成され、参加者Aの前
方(図2中、上方向)に配置されている。ディスプレイ
11−2は、遠隔会議装置1−3から送信された画像デ
ータに対応する映像(例えば、参加者Cの顔)を表示す
る。スピーカ12−2は、遠隔会議装置1−3から送信
された音声データに対応する音声(例えば、参加者Cの
発言)を出力する。
3およびスピーカ12−3から構成され、参加者Aの右
側前向(図2中、右方向)に配置されている。ディスプ
レイ11−3は、遠隔会議装置1−4から送信された画
像データに対応する映像(例えば、参加者Dの顔)を表
示する。スピーカ12−3は、遠隔会議装置1−4から
送信された音声データに対応する音声(例えば、参加者
Dの発言)を出力する。
配置され、すなわち、参加者Aの前方に配置され、例え
ば、参加者Aの顔の部分を撮像する。マイクロフォン1
4も、再生装置10−2の上面に配置され、参加者Aの
発言を集音する。カメラ13により撮像された映像およ
びマイクロフォン14により集音された音声は、遠隔会
議装置1−2乃至1−4に送信される。
議の参加者A,B,C,Dのうち、この装置を使用する
参加者A以外の参加者B,C,Dの映像を表示し、か
つ、彼らの発言を出力し、参加者Aに提供するととも
に、参加者Aの顔の部分の画像データおよび音声データ
を、遠隔会議装置1−2乃至1−4に出力し、参加者A
の映像および発言を参加者B,C,Dに提供する。遠隔
会議装置1−1はまた、撮像した参加者Aの映像から、
参加者Aの顔の向きを検出し、その検出結果に基づい
て、各再生装置10のスピーカ12の音量を調整する音
量制御処理を実行する。
理を行う部分の構成例を示している。角度検出部21
は、カメラ13から供給される参加者Aの画像データを
解析し、参加者Aの顔の向き(角度)を検出し、音量演
算部22−1乃至22−3に供給する。すなわち、角度
検出部21は、参加者Aの顔が、参加者Bが表示されて
いるディスプレイ11−1、参加者Cが表示されている
ディスプレイ11−2、または参加者Dが表示されてい
るディスプレイ11−3のいずれに向いているかを検出
して、検出結果(以下、検出情報と称する)を音量演算
部22−1乃至22−3に供給する。
ら供給された検出情報に基づいて、遠隔会議装置1−2
から入力された参加者Bの音声データの増幅率Gain
(t)を演算し、演算結果を増幅器23−1に出力す
る。音量演算部22−2は、角度検出部21からの検出
情報に基づいて、遠隔会議装置1−3から入力される参
加者Cの音声データの増幅率Gain(t)を演算し、演算
結果を増幅器23−2に出力する。また音量演算部22
−3は、角度検出部21からの検出情報に基づいて、遠
隔会議装置1−4から入力される参加者Dの音声データ
の増幅率Gain(t)を演算し、演算結果を増幅器23−
3に出力する。なお、増幅率Gain(t)の演算方法につ
いては、後述する。
部22−1乃至22−3から入力された増幅率Gain
(t)に基づいて、対応する遠隔会議装置1−2乃至1
−4から供給される参加者B乃至Dの音声データを増幅
し、スピーカ12−1乃至12−3から放音させる。
議装置1−1と同様に、3個の再生装置、カメラ、およ
びマイクロフォンから構成され、かつ、音量制御処理機
能を有しているので、その図示および説明は省略する。
処理について、図4のフローチャートを参照して説明す
る。
1のカメラ13により、図5(A)に示すような、参加
者Aの顔を含む風景が撮像されると、その撮像結果に基
づく画像データが、角度検出部21に供給される。ステ
ップS2において、角度検出部21は、供給された画像
データに基づいて、参加者Aの顔の向き(角度)を検出
する。この処理の詳細を、図6のフローチャートを参照
して説明する。
は、供給された画像データ上に、画像の色彩情報(画素
値)を用いて、図5(B)に示すように肌色領域A(図
中、白抜き部分)と黒色領域B(図中、影が付されてい
る部分)を生成する。すなわち、肌が露出して肌色に見
える部分(参加者Aの顔部分および首部分)が、肌色領
域Aとなり、髪の毛が存在し黒く見える部分(参加者A
の頭部)が、黒色領域Bとなる。
部21は、重心点検出領域Wを抽出する。具体的には、
角度検出部21は、肌色領域Aおよび黒色領域Bからな
る領域の上端を検出し、その上端上に引かれる、X軸と
平行な線を基準線B1とする。図5(B)の例の場合、
黒色領域Bが肌色領域Aより上側の位置するので、黒色
領域Bの上端(頭の先端)上に引かれる、X軸と平行な
線が基準線B1とされる。次に角度検出部21は、基準
線B1を、距離L1分だけ下方(Y軸の値が大きくなる
方向)にX軸に対して平行移動させ、基準線B2を設定
し、さらに基準線B2を、距離L2分だけ下方にX軸に対
して平行移動させ基準線B3を設定する。
び基準線B3を設定すると、角度検出部21は、図5
(C)に示すように、基準線B2と基準線B3で区分され
る領域(重心点検出領域W)を画像データから抽出す
る。
は、抽出した重心点検出領域Wに存在する肌色領域Aお
よび黒色領域Bからなる領域の重心点G1と、重心点検
出領域Wに存在する肌色領域Aの重心点G2を検出し、
そのX軸上の値を検出する。図5(C)には、図5
(B)の重心点検出領域Wの重心点G1およびそのX軸
上の値X1、並びに重心点G2およびそのX軸上の値X2
が示されている。なお、この場合、値X1は値X2とほぼ
同値である。
部21は、検出した重心点G1の値X1および重心点G2
の値X2の差Dを算出する。図5の例では、値X1および
値X2はほぼ同値であるので、その差Dは0となる。
は、算出した差Dから、顔の向き(正面に対する角度)
を検出する。具体的には、角度検出部21は、図7に示
すような、差Dと、顔の向きの角度(正面に対する角
度)との対応関係を示すデータを予め有しており、それ
を参照して算出した差Dに対応する角度を検出する。図
7の例の場合、差D=0には、角度=0が対応してうる
ので、0度が検出される。
下記の式により求められる。なお、aは所定の定数であ
る。
て、参加者Aが右方向を向いていることを示し、負の値
の角度は、左方向を向いていることを示している。
(角度)が検出されるが、次に、図8(A)に示すよう
な画像が撮像された場合を例として、角度検出処理を、
再度説明する。
び黒色領域Bが決定され(ステップS11)、重心点検
出領域Wが設定される(ステップS12)。次に、重心
点G1(重心点検出領域Wに存在する肌色領域Aおよび
黒色領域Bからなる領域の重心点)のX軸上の値X1お
よび重心点G2(重心点検出領域Wに存在する肌色領域
Aの重心点)のX軸上の値X2が検出される(ステップ
S13)。このように、値X1および値X2が検出される
と、差Dが算出され(ステップS14)、算出された差
Dに対応する顔の向きの角度が検出される(ステップS
15)。この例の場合、値X1と値X2の差Dは、差D
eとされ、図7において、角度Veが検出される。 以上
のようして、顔の向き(角度)が検出されると、ステッ
プS16に進み、角度検出部21は、その角度に基づい
て検出情報を生成し(図5の例では、0度が検出された
ことから、顔が正面を向いていることを示す情報、図8
の例では、角度Veが検出されたことから、参加者Aの
顔が、例えば、ディスプレイ11−3方向を向いている
ことを示す情報を生成し)、音量演算部22−1乃至2
2−3に出力する。このように角度検出処理が完了する
と、次に、図4のステップS3に進む。
1乃至22−3は、角度検出部21から供給された検出
情報に基づいて、対応する遠隔会議装置1−2乃至1−
4から入力された参加者B乃至Dの音声データの増幅率
を演算し、対応する増幅器23−1乃至23−3に供給
する。以下、増幅率Gain(t)の演算方法を説明する。
増幅率Gain(t)は、式(1)に従って演算される。
レイ11を注視していた時刻」と定義すれば、β(t)
<Tattであるとき、α(t)=0であり、β(t)
≧Tattであるとき、α(t)=β(t)−Tatt
である。
1を注視している」の定義は、時刻(t−Tcont)
から時刻tまでの間、顔がディスプレイ11に向いてい
ることである。また、最小増幅率Gmin,定数A,時
間Tatt、および時間Tcontは、次式(2)乃至
(5)をそれぞれ満足する定数である。
が、図9(C)に示すように、ディスプレイ11−1に
向けられた場合、顔の向きがディスプレイ11−1に向
けられた状態で時間Tcontが経過すると、図9
(B)に示すように、参加者Aがディスプレイ11−1
を凝視していると判定され、図9(A)に示すように、
増幅率Gain(t)が最大値(=1)に設定される。その
後、顔の向きがディスプレイ11−1から外されると、
その時点から時間Tattが経過するまで、増幅率Gain
(t)は最大値(=1)に保持された後、徐々に最小増
幅率Gminに漸近する。
は、角度検出部21から供給された検出情報に基づい
て、対応する遠隔会議装置1−3,1−4から入力され
た参加者C,Dの音声データの増幅率Gain(t)を演算
するようになされている。
−1乃至23−3は、音量演算部22−1乃至22−3
から供給された増幅率Gain(t)に基づいて、遠隔会議
装置1−2乃至1−4から供給された参加者B乃至Dの
音声データを増幅し、スピーカ12−1乃至12−3に
出力する。ステップS5において、スピーカ12−1乃
至12−3は、増幅器23−1乃至23−3から入力さ
れた音声データを放音する。
も、上述したような音量調整処理が行われるので、その
説明は省略する。
心点2のX軸上における位置関係から顔の向き(角度)
を検出する場合を例として説明したが、それぞれのY軸
上の位置関係と組み合わせて、顔の向き(角度)を検出
するようにすることもできる。
を示している。この再生装置10−2には、ディスプレ
イ11−2に代えて、ハーフミラー31が設けられてお
り、図2に示したカメラ13が、ハーフミラー31の裏
側(再生装置10−2の内部)に設置されている。
ている。ハーフミラー31は、参加者Aが位置する側か
らカメラ13に向かう光(図11中点線で示されてい
る、右から左方向に向かう光)を透過する。ハーフミラ
ー31はまた、表示装置31の上面に設けられているデ
ィスプレイ32から出射される光(図11中実線で示さ
れている、下から上方向に向かう光)を、参加者Aが位
置する側に反射する。表示装置31は、ディスプレイ3
2に参加者Cの映像を反転して表示する。すなわち、デ
ィスプレイ32に表示された参加者Cの映像(反転され
た映像)は、ハーフミラー31により反射され(再反転
され)、参加者Aに表示される。
参加者Aに表示される参加者Cの映像上の目と同じ位置
に設置されている。
有することにより、参加者Aが、ハーフミラー31を介
して提供される参加者Cの映像上の目を見ているとき、
カメラ13により撮像された参加者Aの顔の映像は、参
加者Cが使用する遠隔会議装置1−3において、あたか
も参加者Cを見ているように、すなわち、視線があった
状態で表示される。
生装置10−2の上側に設けられている。すなわち、そ
の位置は、ディスプレイ11−2に表示される参加者C
の映像上の目の位置とは異なるので、参加者Aがディス
プレイ11−2に表示される参加者Cの表示上の目を見
ているときの参加者Aの映像は、遠隔会議装置1−3に
おいて、参加者Cの目を見ているようには表示されな
い。すなわち、視線が合っているようには表示されな
い。
至10−3、および遠隔会議装置1−2乃至1−4の各
再生装置が、図10,図11に示したような構成を有す
ることにより、表示される話者相手の参加者と視線が合
うようにすることができる。
る、遠隔会議装置1−1乃至1−4の再生装置が、図2
に示すように、各参加者の使用に対応した位置に配置さ
れることより、参加者の視線と、話者相手の視線が合う
とともに、各参加者がどの参加者を見ているかを認識で
きる。
例を示している。この構成例において、湾曲したスクリ
ーン41には、その所定の位置に、遠隔会議装置1−2
乃至1−4から送信される参加者B乃至Dの画像が表示
される。カメラ44により撮像される参加者Aの画像デ
ータは、ISDN2を介して遠隔会議装置1−2乃至1−4
に送信される。
れる参加者B乃至Dの音声データは、その音像がスクリ
ーン41の所定の位置に定位するように制御されて、ス
クリーン41の左右に配置されたスピーカ42,43に
供給され、放音される。
メラ44で撮像された参加者Aの画像データを用いて検
出される参加者Aの顔の向きに対応して、その増幅率が
個別に制御される。
対応する遠隔会議装置1−1の構成例を示している。こ
の構成例において、湾曲したスクリーン51には、その
所定の位置に、他の遠隔会議装置から送信される参加者
C乃至Eの画像が表示される。カメラ54により撮像さ
れる参加者Aの画像データ、および、カメラ55により
撮像される参加者Bの画像データは、ISDN2を介して他
の遠隔会議装置に送信される。
乃至Eの音声データは、その音像がスクリーン51の所
定の位置に定位するように制御されて、スクリーン51
の左右に配置されたスピーカ52,53に供給され、放
音される。
参加者C乃至Eの音声データは、カメラ54で撮像され
た画像データを用いて検出される参加者Aの顔の向きに
対応して個別に制御される増幅率と、カメラ55で撮像
された画像データを用いて検出される参加者Bの顔の向
きに対応して個別に制御される増幅率との対応するもの
の平均値が用いられて増幅される。
対応する遠隔会議装置1−1の他の構成例を示してい
る。この構成例において、湾曲したスクリーン61に
は、その所定の位置に、他の遠隔会議装置から送信され
る参加者C乃至Eの画像が表示される。カメラ64によ
り撮像される参加者Aの画像データ、および、カメラ6
5により撮像される参加者Bの画像データは、ISDN2を
介して他の遠隔会議装置に送信される。
乃至Eの音声データは、その音像が所定の位置に定位す
るように制御されるとともに、カメラ64で撮像された
画像データを用いて検出される参加者Aの顔の向きに対
応して増幅率が個別に制御されて、参加者Aが装着する
ヘッドフォン62に供給され、放音される。また、参加
者C乃至Eの音声データは、その音像が所定の位置に定
位するように制御されるとともに、カメラ65で撮像さ
れた画像データを用いて検出される参加者Bの顔の向き
対応して音像が移動するように制御されて、参加者Bが
装着するヘッドフォン63に供給され、放音される。
の構成例を示している。この構成例においては、各遠隔
会議装置間で参加者の画像データは通信されず、音声デ
ータだけが通信される。参加者B乃至Dの音声データを
放音するスピーカ71乃至73の近傍には、例えば、写
真75B乃至75Dのような参加者B乃至Dを象徴する
ものが配置される。
乃至Dの音声データは、対応するスピーカ71乃至73
から放音されるが、そのときの増幅率は、図2に示した
構成例と同様に、カメラ74により撮像された参加者A
の画像データを用いて検出される参加者Aの顔の向きに
対応して制御される。
り実行させることもできるが、ソフトウエアにより実行
させることもできる。一連の処理をソフトウエアにより
実行する遠隔会議装置について説明する。
ンピュータで構成される。CPU(Central Processing Un
it)511にはバス515を介して入出力インタフェー
ス516が接続されており、CPU511は、入出力イン
タフェース516を介して、ユーザから、キーボード、
マウスなどよりなる入力部518から指令が入力される
と、例えば、ROM(Read Only Memory)512、ハード
ディスク514、またはドライブ520に装着される磁
気ディスク531、光ディスク532、光磁気ディスク
533、若しくは半導体メモリ534などの記録媒体に
格納されているプログラムを、RAM(Random Access Mem
ory)513にロードして実行する。さらに、CPU511
は、その処理結果を、例えば、入出力インタフェース5
16を介して、LCD(Liquid Crystal Display)などよ
りなる表示部517に必要に応じて出力する。なお、プ
ログラムは、ハードディスク514やROM512に予め
記憶しておき、遠隔会議装置501と一体的にユーザに
提供したり、磁気ディスク531、光ディスク532、
光磁気ディスク533,半導体メモリ534等のパッケ
ージメディアとして提供したり、衛星、ネットワーク等
から通信部519を介してハードディスク514に提供
することができる。
提供されるプログラムを記述するステップは、記載され
た順序に沿って時系列的に行われる処理はもちろん、必
ずしも時系列的に処理されなくとも、並列的あるいは個
別に実行される処理をも含むものである。
複数の装置により構成される装置全体を表すものであ
る。
記載の通信方法、および請求項3に記載の記録媒体によ
れば、撮像したユーザの顔の画像データから、第1の領
域と第2の領域を含む重心点検出領域を抽出し、重心点
検出領域の第1の領域と第2の領域からなる第3の領域
の第1の重心点と、重心点検出領域の第1の領域の第2
の重心点を検出するようにしたので、ユーザの顔の向き
を検出することができる。
示すブロック図である。
ック図である。
の構成例を示すブロック図である。
る。
ある。
る。
すブロック図である。
すブロック図である。
すブロック図である。
すブロック図である。
11 ディスプレイ,12 スピーカ, 13 カメ
ラ, 14 マイクロフォン, 21 角度検出部,
22 音量演算部, 23 増幅器
Claims (3)
- 【請求項1】 複数の他の通信装置と相互に音声データ
を通信する通信装置において、 撮像されたユーザの顔の画像データから、第1の領域と
第2の領域を含む重心点検出領域を抽出する抽出手段
と、 前記抽出手段により抽出された前記重心点検出領域の前
記第1の領域と前記第2の領域からなる第3の領域の第
1の重心点と、前記重心点検出領域の前記第1の領域の
第2の重心点を検出する第1の検出手段と、 前記第1の検出手段により検出された前記第1の重心点
および前記第2の重心点から、前記顔の向きを検出する
第2の検出手段とを備えることを特徴とする通信装置。 - 【請求項2】 複数の他の通信装置と相互に音声データ
を通信する通信装置の通信方法において、 撮像されたユーザの顔の画像データから、第1の領域と
第2の領域を含む重心点検出領域を抽出する抽出ステッ
プと、 前記抽出ステップの処理で抽出された前記重心点検出領
域の前記第1の領域と前記第2の領域からなる第3の領
域の第1の重心点と、前記重心点検出領域の前記第1の
領域の第2の重心点を検出する第1の検出ステップと、 前記第1の検出ステップの処理で検出された前記第1の
重心点および前記第2の重心点から、前記顔の向きを検
出する第2の検出ステップとを含むことを特徴とする通
信方法。 - 【請求項3】 複数の通信装置と相互に音声データを通
信する場合の通信処理用プログラムであって、 撮像されたユーザの顔の画像データから、第1の領域と
第2の領域を含む重心点検出領域を抽出する抽出ステッ
プと、 前記抽出ステップの処理で抽出された前記重心点検出領
域の前記第1の領域と前記第2の領域からなる第3の領
域の第1の重心点と、前記重心点検出領域の前記第1の
領域の第2の重心点を検出する第1の検出ステップと、 前記第1の検出ステップの処理で検出された前記第1の
重心点および前記第2の重心点から、前記顔の向きを検
出する第2の検出ステップとを含むことを特徴とする処
理をコンピュータに実行させるプログラムが記録されて
いる記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25385399A JP2001078162A (ja) | 1999-09-08 | 1999-09-08 | 通信装置および方法、並びに記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25385399A JP2001078162A (ja) | 1999-09-08 | 1999-09-08 | 通信装置および方法、並びに記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001078162A true JP2001078162A (ja) | 2001-03-23 |
JP2001078162A5 JP2001078162A5 (ja) | 2006-04-27 |
Family
ID=17257054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25385399A Pending JP2001078162A (ja) | 1999-09-08 | 1999-09-08 | 通信装置および方法、並びに記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001078162A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004023180A (ja) * | 2002-06-12 | 2004-01-22 | Toshiba Corp | 音声伝送装置、音声伝送方法及びプログラム |
JP2005196519A (ja) * | 2004-01-08 | 2005-07-21 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
CN100457078C (zh) * | 2001-01-19 | 2009-02-04 | 株式会社资生堂 | 化妆品 |
-
1999
- 1999-09-08 JP JP25385399A patent/JP2001078162A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100457078C (zh) * | 2001-01-19 | 2009-02-04 | 株式会社资生堂 | 化妆品 |
JP2004023180A (ja) * | 2002-06-12 | 2004-01-22 | Toshiba Corp | 音声伝送装置、音声伝送方法及びプログラム |
JP2005196519A (ja) * | 2004-01-08 | 2005-07-21 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970037B2 (en) | System and method for differentially locating and modifying audio sources | |
US6275258B1 (en) | Voice responsive image tracking system | |
US8571192B2 (en) | Method and apparatus for improved matching of auditory space to visual space in video teleconferencing applications using window-based displays | |
JP5857674B2 (ja) | 画像処理装置、及び画像処理システム | |
US20190222950A1 (en) | Intelligent audio rendering for video recording | |
WO2000022823A1 (fr) | Appareil et procede de telecommunication | |
CN116208885A (zh) | 具有增强音频的设备 | |
WO2017058192A1 (en) | Suppressing ambient sounds | |
WO2006057131A1 (ja) | 音響再生装置、音響再生システム | |
US11405584B1 (en) | Smart audio muting in a videoconferencing system | |
Kapralos et al. | Audiovisual localization of multiple speakers in a video teleconferencing setting | |
JP2006254064A (ja) | 遠隔会議システム、音像位置割当方法および音質設定方法 | |
JP2009049734A (ja) | カメラ付きマイクロフォン、カメラ付きマイクロフォンの制御プログラムおよびテレビ会議システム | |
JP2020010329A (ja) | 符号化された光線を用いてスピーカアレイ及びマイクロフォンアレイを誘導するシステム、方法、及びプログラム | |
JP2001078162A (ja) | 通信装置および方法、並びに記録媒体 | |
JP4244416B2 (ja) | 情報処理装置および方法、並びに記録媒体 | |
JP2009060220A (ja) | コミュニケーションシステム及びコミュニケーションプログラム | |
WO2018173139A1 (ja) | 撮影収音装置、収音制御システム、撮影収音装置の制御方法、及び収音制御システムの制御方法 | |
JP2007251355A (ja) | 対話システム用中継装置、対話システム、対話方法 | |
JP2003518891A (ja) | 音声信号処理装置 | |
KR20150087017A (ko) | 시선 추적에 기반한 오디오 제어 장치 및 이를 이용한 화상통신 방법 | |
JP2006339869A (ja) | 映像信号と音響信号の統合装置 | |
JP6972858B2 (ja) | 音響処理装置、プログラム及び方法 | |
TW202227855A (zh) | 聲源追蹤系統及其方法 | |
JPS62209985A (ja) | テレビ会議装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060310 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080229 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080626 |