JP4469887B2 - 超音波カメラトラッキングシステム及びそれに関連する方法 - Google Patents

超音波カメラトラッキングシステム及びそれに関連する方法 Download PDF

Info

Publication number
JP4469887B2
JP4469887B2 JP2007271854A JP2007271854A JP4469887B2 JP 4469887 B2 JP4469887 B2 JP 4469887B2 JP 2007271854 A JP2007271854 A JP 2007271854A JP 2007271854 A JP2007271854 A JP 2007271854A JP 4469887 B2 JP4469887 B2 JP 4469887B2
Authority
JP
Japan
Prior art keywords
radiation source
camera
ultrasound
signal
stationary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007271854A
Other languages
English (en)
Other versions
JP2008113431A (ja
Inventor
サレー ユーセフ
チュー ピーター
フェン ジンウェイ
ニムリ アラン
Original Assignee
ポリコム・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ポリコム・インコーポレイテッド filed Critical ポリコム・インコーポレイテッド
Publication of JP2008113431A publication Critical patent/JP2008113431A/ja
Application granted granted Critical
Publication of JP4469887B2 publication Critical patent/JP4469887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Transducers For Ultrasonic Waves (AREA)
  • Studio Devices (AREA)

Description

本発明はカメラのトラッキングに関し、特にカメラトラッキング装置、カメラトラッキング方法等に関する。
[関連出願との相互参照]
この出願は、2006年10月19日に出願された米国仮出願第60/862,132号(発明の名称「超音波カメラトラッキングシステム及びそれに関連する方法」)の利益を主張するものである。この出願をここに参照援用し、その優先権を主張する。
プレゼンテーションをする人は、一般的に、ハンドヘルドのリモコンを使ってテレビ会議システムのカメラを制御する。しかし、テレビ会議が目標とするのは、参加者に自然な体験をしてもらうことである。それゆえ、プレゼンテーションをする人やその他の参加者が、カメラの制御や複雑な入力機器の取扱に時間を取られるようなことは望ましくない。
カメラをトラッキング(tracking)する先行技術が米国特許公報第5,844,599号、第6,731,334号、第6,980,485号に開示されている。例えば、米国特許公報第6,980,485は、ポリコム社(Polycom, Inc.)に譲渡されているが、ビームフォーミング(beamforming)を用いる自動カメラトラッキング技術を開示している。また、ポリコム社はそのVSXテレビ会議システムのためのボイストラッキングシステム(voice tracking system)を提供しており、このシステムを「自動カメラポジショニング(Automatic Camera Positioning)」またはACPと呼んでいる。先行技術の他の一システムは、カラーコードベーストラッキング(color code-based tracking)やビジョン分析を使って、カメラで目標をトラッキングする。
先行技術システムの一部には、有効ではあるが、いくつかの点で制約があり、保持する(maintain)ことが難しいものもある。例えば、ボイストラッキングでは、反射やその他の理由で、カメラが壁やテーブルを向いてしまうことがある。また、カメラは、人が動いている間に話していなければ、その人をトラッキング(track)することができない。さらに、これらの先行技術は、複数の音声(voices)や相異なるカラーコードがある状況において問題が生じる。
本発明は上記の問題を解消し、または少なくともその効果を低減することに関する。
カメラトラッキングシステムは、制御可能カメラと、マイクロホンアレイ(an array of microphones)と、コントローラとを含む。マイクロホンは制御可能カメラに近接して配置され、音源(source)が放射する超音波に少なくとも応答する。マイクロホンは、さらに、可聴スペクトルにある音声(sound)に応答できるものであってもよい。コントローラは、音源が放射した超音波に応答してマイクロホンから伝送される超音波信号を受け取り、その超音波信号を処理して、その音源の少なくとも近似位置(approximate location)を決定する。次に、コントローラは制御可能カメラにコマンド信号を送り、決定されたその音源の位置に少なくとも近似的にその制御可能カメラを向ける。カメラトラッキングシステムは、音源が動いても超音波を放射(emit)し続ける間は、その音源をトラッキング(track)する。音源は人が身につけたエミッタパック(emitter pack)であってもよい。エミッタパックは1つ以上の超音波トランスデューサを有し、そのトランスデューサは約24kHzから約40kHzまでをスイープ(sweep)する超音波を発生する。
上記の要約は、本発明の潜在的な各実施形態やすべての態様を要約することを意図したものではない。
上記の要約、好ましい実施形態、本発明の他の態様は、添付した図面を参照しつつ、以下に記載した具体的な実施形態の詳細な説明を読めばよく理解できるであろう。
本開示の主題はいろいろな修正を施したり代替的形式を取ったりすることもできるが、その具体的な実施形態を図面において実施例で示し、ここに詳細に説明する。図面と説明は、いかなる方法によっても発明コンセプトの範囲を限定することを意図したものではない。むしろ、図面と説明を提供して、具体的な実施形態を参照して当業者に発明コンセプトを例示する。これは米国特許法第112条の規定に従うものである。
図1を参照するに、本開示の一教示によるカメラトラッキングシステム100の一実施形態を近似的に示している。カメラトラッキングシステム100は、カメラユニット120と、制御ユニット130と、エミッタユニット140とを含む。プレゼンテーションをする人(プレゼンター)はエミッタユニット140を身につけているか、担っている。そのエミッタユニット140はビーコン(beacon)として機能し、カメラユニット120が放射されたビーコン信号を検出してプレゼンターを追うことができる。
様々な実施形態では、カメラトラッキングシステム100は、リモコン(remote control)150で使用でき、テレビ会議システム(videoconferencing system)その他のシステムである外部装置160で使用できる。カメラユニット120と制御ユニット130は、図示したように別々のコンポーネントでもよいし、1つのユニットに一体化されていてもよい。また、外部装置160は別々のコンポーネントとして示したが、カメラユニット120と制御ユニット130の一方または両方が、外部装置160と一体になっていてもよい。
本実施形態では、制御ユニット130がシステム100のカメラトラッキングその他の機能を制御する。制御ユニット130は、ここに開示するカメラトラッキング(camera tracking)方法を実行するために必要な計算を行うプロセッサ(図示せず)を含む。プロセッサは必要な計算を行うことができればいかなる装置であってもよく、例えば中央処理ユニット(CPU)、フィールドプログラマブルゲートアレイ(FPGA)等である。制御ユニット130は、第1の接続110を介してカメラユニット120から送られた標準的なNTSC、PAL、Sビデオ、その他のビデオ信号を受信できる。制御ユニット130は、接続110を介してカメラユニット120から送られた複数チャンネル(例えば4チャンネル)のラインレベルのオーディオ信号も受け取る。
第2の接続112を介して、接続ユニット130はカメラユニット120の制御信号を伝送することができる。第3の接続114を介して、制御ユニット130はテレビ会議ユニット等の外部装置160に接続することができる。この第3の接続114は外部装置160にビデオ、オーディオ、その他の信号を送るために使用できる。この第3の接続114により、外部装置160は、テレビ会議にカメラユニット120を使用して制御することができる。例えば、制御ユニット130は、PowerCamアプリケーションプログラミングインターフェイス(API)またはソニーEVI D−100APIをサポートし、外部装置160とカメラユニット120の間でパケットをやりとりすることができる。第3の接続114と第4の接続116を用いて、カメラユニット120からのビデオをのみを含むビデオ、またはそのビデオと制御ユニット130により付加されたグラフィカルユーザインターフェイスのオーバーレイ(overlay)と含むビデオを出力することができる。
カメラユニット120は、制御可能カメラ122とマイクロホン126のアレイ126とを含む。制御可能カメラ122は、パン(panning)、チルト(tilting)、ズーム(zooming)等ができ、機械的なパン・チルト・ズームカメラであっても電子的なパン・チルト・ズームカメラであってもよい。一実施形態では、制御可能カメラ122はPolycom PowerCam Plusであり、約±45°のパン、中心点から約+10°、−30°のチルトができる。カメラユニット120は、接続110を介して制御ユニット130にSビデオ(PALまたはNTSC)またはその他の形式のビデオ信号を提供する。カメラユニット120は、接続112を介して制御ユニット130から送られるコマンドに応答し、制御可能カメラ122のパン、チルト、ズームを変更する。また、カメラユニット122は赤外線(IR)レシーバ125を含んでもよく、IRリモコン150から受け取った信号を接続110を介して制御ユニット130に送ることができる。
一実施形達では、マイクロホンアレイ124には4つのマイクロホン126が含まれる。少なくとも2つのマイクロホン126は、エミッタユニット140の位置を決定するために水平に配置され、水平軸に沿ったカメラ122のパン(panning)を制御する。同様に、少なくとも2つのマイクロホン126は、エミッタユニット140の位置を決定するために垂直に配置され、垂直軸に沿ったカメラ122のチルト(tilting)を制御する。言うまでもなく、マイクロホン126のうちの2つのマイクロホンを、十分な水平トラッキング(horizontal tracking)ができるように、当業者には分かる許容誤差で実質的に水平に配置することができる。さらに、マイクロホン126のうちの2つのマイクロホンを、十分な垂直トラッキング(vertical tracking)ができるように、当業者には分かる許容誤差で実質的に垂直に配置することができる。
マイクロホンアレイ124のマイクロホン126は、エミッタユニット140が放射する超音波スペクトル中の超音波に応答する。一実施形態では、マイクロホンアレイ124のマイクロホン126は、特に超音波スペクトルで応答するように構成され、システム100は可聴スペクトルの音声に応答する別のマイクロホンを有してもよい。可聴スペクトルは、一般的には、約20Hzから20,000Hzである。他の実施形態では、マイクロホンアレイ124のマイクロホン126は、可聴スペクトルに応答し、超音波スペクトルにも好適な周波数応答を示す。そのため、マイクロホン126を通常のテレビ会議のオーディオにも、超音波180によるカメラトラッキングにも使用できる。また、カメラユニット120は、デュアルユースマイクロホン126を、米国特許第6,980,485号で開示され、Polycom社の製品iPower、VSX、HDXシリーズで使用されているテレビ会議システムに関連するボイストラッキング方法と共に使用できる。
エミッタユニット140は信号ジェネレータ回路142と、パワーアンプ143と、再充電可能バッテリ144と、1つ以上のトランスデューサまたはスピーカ146−148とを有する。上で簡単に触れたように、エミッタユニット140は、カメラ122がトラッキング(track)する人が担うか身につけている。従って、エミッタユニット140はベルト、クリップ、飾りひも(lanyard)その他の手段(図示せず)を有し、人が身につけたり担ったりできるようになっている。
動作中、エミッタユニット140は超音波180を発生し、アレイ124のマイクロホン126が検出する。好ましくは、超音波180は100msより大きい時間で24kHzから40kHzの周波数をスイープする音を繰り返し、音の間には約100msの短い無音時間がある。超音波180の好ましいスイープ音(sweep tone)を発生するために、信号ジェネレータ142のサンプリング周波数は96kHzであり、信号ジェネレータ回路142は24.576MHz、50ppmで発信するクロック発信器(例えば、エプソンSG−710ECK24.5760MB、RALTRON CO4305−24.5760、SARONIX S1613B−24.5760T等)を含む。好ましくは、エミッタユニット140は、デジタル・アナログ・コンバータ用のローパスフィルタを有し、56kHzより高い周波数では、少なくとも60dBストップバンド減衰率を使用することが好ましい。遷移帯域は40kHzから56kHzであり、デジタル・アナログ・コンバータはAKMセミコンダクタ社のAK4386を使用することができる。
エミッタユニット140は超音波トランスデューサを1つだけ(146)有してもよいし、2つ以上(146−148)有してもよい。いずれにしても、超音波トランスデューサ146/148はワイヤによりエミッタユニット140に接続されており、圧電型トランスデューサ(電圧を印加すると圧電性結晶が形状を変えて音を発するもの)や、磁歪トランスデューサ(磁歪物質が磁気エネルギーを機械的エネルギーに変換、またはその逆変換をするもの)であってもよい。例えば、エミッタユニット140が2つ以上のトランスデューサ146−148を含む実施形態では、プレゼンターはトランスデューサの1つ(146)を体の正面に付け、もう1つ(148)を体の背面に付けることができる。あるいは、両肩にトランスデューサを1つずつ(146と148)付けてもよい。一実施形態では、各トランスデューサ146、148は同期して同じ超音波信号180を放射する。別の実施形態では、トランスデューサ146、148は相異なる超音波信号180を放射でき、人の体がマイクロホン126のアレイ124に対していろいろな方向を向いている場合にも、カメラ122がその人をトラッキング(track)する能力を向上させることができる。
放射された超音波18をマイクロホン126で捉えた時、カメラユニット120は各マイクロホン126の超音波信号を接続110を介して制御ユニット130に送る。制御ユニット130は、受け取った信号を処理して、音が発せられたエミッタユニット140の少なくとも近似位置(approximate location)を決定する。後でより詳しく説明するように、制御ユニット130のソフトウェアは、受け取った信号を処理してエミッタユニット140の位置を特定する。位置を決定すると、制御ユニット130は1つ以上のコマンド信号をカメラユニット120に送り、カメラ22を制御してエミッタユニット140を少なくとも近似的にトラッキング(track)する。
エミッタユニット140の位置の決定は、パン、チルト、ズーム等を当業者には分かる許容範囲で近似的でよく、カメラ22はエミッタユニット140を身につけているプレゼンターの方向に十分向くことができる。さらに、エミッタユニット140を有するプレゼンターにカメラ22を向け、そのプレゼンターをトラッキングするのは、パン、チルト、ズーム等を当業者には分かる許容範囲で近似的でよく、カメラ22はプレゼンターの画像を十分取ることができる。そのために、少なくとも4つのマイクロホン126が、許容誤差に応じて、2つの対角軸上に設定される。制御ユニット100は、決められたトラッキングエリア内でのみシステムが動作し、そのエリア外にはカメラ22が向かないようにさらに設定することもできる。また、制御ユニット100は、カメラ22を、それがプレゼンターのタイトビュー(tight view)またはワイドビュー(wide view)を捉えるように設定することもできるし、捉えた画像の中央、右、または左にプレゼンターがいる(すなわち、エミッタユニットの位置がある)ビューを捉えるように設定することもできる。
例えば、プレゼンテーションやテレビ会議の間に、制御ユニット130はカメラ122を制御してエミッタユニット140を身につけている人をトラッキング(track)する。トラッキングされている人が動いて止まった時、カメラ122の動き(例えば、パンやチルト)は、好ましくは、まずゆっくりになってから止まり、その人に向くように制御される。例えば、カメラ122は2秒間で止まってその人に向き、カメラの動きがスムースになるようにして、その人がまた動き出してもぎくしゃく動かないようにする。これらのパラメータはユーザが設定できる。
その人が少し動いたが、まだカメラ122のフレームまたは視野内にいる場合がある。好ましくは、このような場合にも、カメラ122は、その人を追ってぎくしゃく動かず、静止している。こうするために、制御ユニット130は、カメラ122の視野角を決めて、視野角をその人の位置と相関(correlate)することができる。この相関に基づき、制御ユニット130は、その人がカメラ122のフレーム外に動いたか判断してから、カメラ122を動かすコマンドを発してその人をトラッキングすることができる。また、その人がカメラ122のフレームの外に出たとき、カメラ122は約500msの遅延時間が過ぎるまで動かされなくてもよい。
カメラトラッキングシステム100を詳細に説明したので、図2に移り、制御ユニット130のソフトウェアについて説明する。図2に示したように、制御ユニットのソフトウェアフレームワーク200の一実施形態は、ユーザインターフェイスモジュール210と、メッセージハンドラ220と、カメラ制御モジュール230と、オーディオサブシステム240と、設定モジュール250と、記憶モジュール255と、シリアルドライバ260と、オーディオハードウェアマネージャ265と、TCP/IPモジュール270と、FPGA(Field Programmable Gate Array)280とを含む。
ユーザインターフェイス(UI)モジュール210は、メッセージハンドラ220を介して、フレームワーク200の他のモジュールとサブシステムとにコマンドメッセージストリングを送る。UIモジュール210は、ユーザがIRリモコンのボタンを押すと、それを処理して、ビデオ出力にテキストとグラフィックスとをオーバーレイ(overlay)して、ユーザに対してオンスクリーンメニューシステムを表示する。例えば、UIモジュール210はユーザ入力を処理して、プリセットの設定と呼び出し、自動トラッキングのオンとオフ、メニューモードの選択等をすることができる。また、UIモジュール210は、様々な警告画面、設定画面、調整画面、情報画面等を生成してユーザに表示することができる。
オーディオサブシステム240は、インターフェイス286とFPGA280とオーディオハードウェアマネージャ265とを介して、カメラのマイクロホン126から超音波入力を受け取る。以下に詳しく説明する方法を用いて、オーディオサブシステム240は、マイクロホン126からの超音波信号をフィルタし、分析し、水平方向と垂直方向における信号源の超音波エミッタ(エミッタユニット)(図2には図示せず)の角度位置を決定する。オーディオサブシステム240は、カメラ122からのエミッタの近似距離も決定する。オーディオサブシステム240は、この位置情報をカメラ制御モジュール230に定期的に送るので、カメラ制御モジュール230はカメラ122を適宜制御できる。
カメラ制御モジュール230は、マニュアル動作モードと自動動作モードの両方において、カメラに関するすべての動きを処理する。自動動作モード中、信号源は自動的にトラッキングされるが、カメラ制御モジュール230は、オーディオサブシステム240から信号源の位置情報を受け取り、その位置情報をカメラ動きコマンドに変換する。カメラ制御モジュール230は、シリアルドライバ260とFPGA280とインターフェイス284とを介して、カメラ122にカメラ動きコマンドを送る。コマンドは、好ましくは、カメラをスムースに動かして目標の信号源を追跡するものである。外部装置(例えば、テレビ会議ユニット160)に対して任意的インターフェイス282を使用するとき、カメラ制御モジュール230は、外部装置160から受け取ったカメラシリアルコマンド(camera serial commands)を他のインターフェイス284を介してカメラ122に転送し、カメラ120の応答を外部装置160に返すこともできる。
制御ユニットのソフトウェアを説明したので、図3Aに移り、カメラトラッキングシステム300のコンポーネントに関して例示したカメラユニット310の好ましい実施形態を説明する。上で説明したように、カメラユニット310は制御ユニット360と通信可能に結合している。また、制御ユニット360は、テレビ会議ユニット、ビデオモニタ、コンピュータ等の外部装置(図示せず)に接続されていてもいなくてもよい。
カメラユニット310は、様々なコンポーネントのためのハウジング312と、ハウジングに接続されたブーム(boom)318と、アレイ上に配置された複数のマイクロホンレシーバ320と、ハウジング上の可動カメラ340と、図示していないその他のコンポーネントとを有する。
3つのマイクロホンレシーバ320(すなわち、レシーバ322、324、326)がハウジング312上に水平に配置されている。また、1つのマイクロホンレシーバ320(すなわち、レシーバ328)がブーム318に配置され、ハウジング312上の中央のマイクロホンレシーバ324に対して垂直に配置されている。カメラユニット310に対する超音波トランスデューサ350の空間的位置は、デカルト座標系(X,Y,Z)を用いて示すことができる。超音波トランスデューサ350が超音波352を放射し、その超音波をマイクロホンレシーバ320がピックアップする。制御ユニット360が少なくとも部分的に実行する処理により、超音波トランスデューサ350の位置が決定され、カメラ340を動かして、その超音波トランスデューサ350の位置をトラッキング(track)する。以下に説明する位置決定アルゴリズムを用いて、水平に配置されたマイクロホンレシーバ322、324、326が受け取る超音波の位相差により、カメラユニット310に対する超音波トランスデューサ350の水平位置が決定される。この水平位置はカメラ340のパン位置(pan position)Pに対応する。垂直に配置されたマイクロホンレシーバ324、328が受け取る超音波の位相差により、カメラユニット310に対する超音波トランスデューサ310の垂直位置を決定する。この垂直位置は、カメラ340のチルト位置(tilt position)Tに対応する。一実施形態では、以下に説明する位置決定アルゴリズムを用いて、パン位置とチルト位置の両方で約0.125°の精度を実現することができる。
また、水平に配置されたマイクロホンレシーバ322、324、326が受け取る超音波352の波面曲率を用いて、カメラユニット310からの超音波トランスデューサ310の距離を決定できる。この距離は、カメラ340のズーム位置(zoom position)Zに対応する。追加的に、または代替的に、他の方法を用いて超音波トランスデューサ350のカメラユニット310からの距離を決定することができる。別の実施形態において後で説明するように、例えば、無線周波数(RF)信号と無線マイクロホン信号を使用することもできる。カメラ340のフォーカスは本技術分野で知られている方法を用いて制御できる。
図3Bにおいて、図3Aのカメラトラッキングシステム300の信号チェイン(signal chain)を概略的に示した。この信号チェインにおいて、トランスデューサ350を身につけているまたは担っている目標の信号源(すなわち、ユーザ)がマイクロホンレシーバ320に対して動く時、超音波トランスデューサ350が超音波352を放射する。各マイクロホンレシーバ320が受け取る超音波352の信号は制御ユニット360に送られ、制御ユニット360は4つのチャネルの入力信号を受け取る。次に、制御ユニット330は、1つ以上のデジタルシグナルプロセッサ(DSP)を有し、その信号を処理する(ブロック362)。その処理の詳細は図4Aと図4Bを参照して後で説明する。
制御ユニット360は、位置決定アルゴリズムを使って、レシーバ320に対する超音波トランスデューサ350の垂直位置と水平位置と距離と(例えば、X,Y,Z)を近似的に決定する(ブロック364)。位置決定アルゴリズムは図5を参照して詳しく説明する。決定した位置(X,Y,Z)を用いて、制御ユニット360はカメラ制御コマンドを構成し(ブロック366)、それらのコマンドをカメラに送る(ブロック368)。カメラ制御コマンドを構成するために、制御ユニット360は超音波トランスデューサ350の決定された位置(例えば、X,Y,Z)を、カメラ340のアクチュエータ、サーボ342等のパン、チルト、ズーム情報に変換する。カメラコンポーネント330は、コマンドを受け取り、それを使って超音波トランスデューサ350の決定された位置にカメラ340を向ける(ブロック344)。
ここに開示するトラッキングシステム350の超音波トランスデューサ350は、好ましくは、帯域幅が広く、感度がよく、歪みが小さく、厚みが小さい圧電型超音波トランスデューサである。一実施形態では、例えば、超音波トランスデューサ350の周波数応答は24kHzから40kHzの周波数範囲において適度に平坦であるが、言うまでもなく、カメラトラッキングシステム300は24kHzから40kHzの帯域幅には限定されない。適度に平坦であるとは、例えば、周波数応答がそのレベルの±5%以内に入るか、実施形態に応じた好適な許容幅以内に入ることである。さらに、24kHzから40kHzまでの帯域幅の限度は、±数kHzだけ違ってもよいし、実施形態に応じた好適な量だけ違ってもよい。
超音波レシーバ320の周波数応答は、好ましくは、少なくとも40kHzまでほぼ平坦である。ここに開示したカメラトラッキングシステム300の好適な超音波レシーバ320は、パナソニックのWM61BレシーバとWM64レシーバであり、これらの周波数応答は40kHzまでほぼ平坦である。周波数応答がどのくらい平坦であるか、またはどのくらい平坦である必要があるかは、本開示の利益を有する当業者の相対的スキルによる。
制御ユニット300によるブロック362における処理は、好ましくは、ダウンサンプリングを含み、信号に対する他のフィルタ処理により、マイクロホンレシーバ320はその信号の後の処理段階を改善することができる。図4Aは、超音波信号を可聴範囲にして信号特性を改善するダウンサンプリング・フィルタリング処理400を示すブロック図である。最初に、超音波トランスデューサ(350)が24kHzから40kHzの範囲をスイープする超音波を放射する。第1段階401において、各マイクロホンレシーバ(320)がこのスイープ音(sweep tone)をピックアップする。帯域を限定したホワイトノイズではなくスイープ音を使用する利点は、スイープ音とすることにより、非線形歪みにより超音波トランスデューサ(350)の音をより聞こえにくくできることである。他の利点は、スイープ音を使用することにより、ホワイトノイズよりも信号雑音比が高くなることである。この第1の段階401において、24kHzから40kHzまでのスイープ音が各マイクロホンレシーバ(321)によりピックアップされ、96kHzでデジタル的にサンプリングされる。これは、図4Bのグラフ410に示した。
各マイクロホンレシーバ(320)がスイープ音をピックアップ(pick up)するので、制御ユニット360は、各マイクロホンレシーバ(320)からの信号に別々に処理を実行でき、全レシーバ(320)からの信号の合計に別の処理を実行できる。しかし、その後の段階では、好ましくは処理は各レシーバ(320)からの信号に別々に実行される。最初の処理が完了してから、信号が足し合わされる。
第2の段階402において、制御ユニット(360)の2対1リサンプラ・変調モジュールがサンプリングされたスイープ音信号のスペクトルを、24〜48kHzから0〜24kHzにシフトして、出力サンプリングレートを48kHzとする。これは、図4Bのグラフ420に示した。第3の段階403において、制御ユニット(360)の3対2リサンプラが0kHzから16kHzの周波数範囲にある信号を発生する。これは図4Bのグラフ430に示した。3対2リサンプラの出力は段階401で受信した元の信号と同じ情報を含むが、この段階403の出力のサンプリングレートは非常に低く32kHzであり、後段での処理に必要な計算量を減らすことができる。
第4の段階404において、マッチフィルタ(match filter)が一定時間にわたり各スイープ音信号のエネルギーを圧縮し、エネルギーがレシーバ(320)の各信号のインパルス状波形に集中させる。このように、マッチフィルタにより、信号雑音比が改善され、システム(300)の潜在的なトラッキング範囲を拡大することができる。マッチングフィルタ法(matching filtering techniques)は本技術分野において知られており、ここでは詳しく説明しない。
マッチフィルタ段階404後の理想的な出力信号はインパルス波形か、インパルスに非常に近い波形である。ダウンサンプリング・フィルタ処理400の場合、元の受け取った信号の形状に応じて6通りのインパルス形状が可能である。サンプリングレート96kHzの時、スイープ音は帯域幅が制限された信号であり、ダウンサンプリングされると多相出力となるからである。
第5の段階405において、反射除去アルゴリズムが、段階404のマッチフィルタ処理後のインパルス状波形出力の反射により生じた部分を除去する。反射除去アルゴリズムは、好ましくは、超音波トランスデューサ(350)への直接パスにほぼ対応する信号のインパルスを残し、一定時間中にそのインパルスに続く信号部分を除去する。一実施例では、反射除去では、信号のインパルスの0.5ms分を残し、そのインパルスに続く約39ms分をゼロ設定(zero-out)する。好ましくは、反射除去アルゴリズムは、動的閾値を使って、トランスデューサ(350)への直接パスに対応する信号のインパルスを特定する。時間領域信号のダイナミックレンジは変化し得るからである。ダイナミックレンジの時間的な変化は、超音波トランスデューサ(350)が広い部屋を動いて、時々マイクロホンレシーバ(320)に対してターン(turn)した時に起こる。反射除去アルゴリズムは、経過した短い時間中の信号の最大値をトラッキングして、動的閾値をそれらの最大値の約1/8に設定する。
反射除去に加えて、好ましくは、マッチフィルタ段階404から受け取った信号の波形をイコライズ(equalized)する。例えば、マッチフィルタ段階404からの出力信号は、周波数応答が完全ではないなどの理由により、インパルス波形より複雑である。マッチフィルタ段階404からの出力信号をよりパルス状にするため、好ましくは信号に波形等化(waveform equalization)を行って、超音波トランスデューサ(350)とレシーバ(320)の不完全な周波数応答を補償する。
さらに、留意すべきこととして、マイクロホンレシーバ(320)が背景のスプリアス(spurious)な超音波音もピックアップしてしまい、その超音波音は雑音レベルより20dBから30dB大きいことがある。背景ノイズは、周辺にあるデスクトップコンピュータやテレビ等の電子機器から発生し、測定精度をある程度低下させる。背景雑音を除去する第6の段階406において、制御ユニット(360)は、背景雑音エスティメータ(background noise estimator)と適応的ノッチフィルタ(adaptive notch filter)とを使って、背景雑音の一部を除去する。動作中、エスティメータは、自動的に、超音波トランスデューサ(350)がオンかオフか、すなわち超音波を放射しているかいないか判断する。その判断は、受信した信号を統計的に分析することにより行う。いろいろな間隔でエスティメータは信号を捉えて、背景雑音レベルを推定する。このプロセスには約1秒あれば十分である。次に、好ましくは適応的ノッチフィルタ(adaptive notch filter)を使って、少なくとも背景音の一部を除去する。
ダウンサンプリング・フィルタ処理400を実行すると、処理されたマイクロホンレシーバ(320)からの信号は、位置決定アルゴリズム500に入力される。簡単にいうと、位置決定アルゴリズム500は、可能性のある複数の位置である候補位置(candidate location)に超音波トランスデューサ(350)が位置している最大尤度(maximum likelihood)を推定する。このアプローチでは、超音波トランスデューサ(350)は、その環境(例えば、部屋)の中の可能性のある多数の候補位置の各々にあると最初に仮定する。各候補位置に対して、マイクロホンレシーバ(320)からの信号は、相互に少し遅延され、遅延・合計演算(delay-sum operation)を用いて合計される。その結果、利用可能な周波数について最強ビームエネルギーが求まる。
次に、各周波数と各マイクロホンレシーバ(320)にホワイトニングフィルタ(whitening filter)をかけて、合計して総エネルギーを求める際に各周波数と各マイクロホンレシーバ(320)が等しく重要であるようにする。次に、様々な候補位置をサーチして、最大ビームエネルギーとなる1つの候補位置を求める。この候補位置をトランスデューサ(350)の推定位置とする。一般的に、マイクロホンレシーバ(320)からのサンプルを合計するのに必要ないろいろな遅延は小数値であり、サーチする候補位置は数百から数千あってもよい。好ましくは、計算コストを低減するため、候補位置のサーチには計算効率がよいプロセスを使用する。
超音波トランスデューサ(350)の候補位置を推定する位置決定アルゴリズム500の一実施形態を、フローチャートにして図5Aに示す。アルゴリズム500は、4チャンネルの信号を入力として受け取る(ブロック502)。本実施形態では、各チャンネルは、4つのマイクロホンレシーバ(320)から受け取った超音波信号(352)をダウンサンプリングしてフィルタをかけたものである。次に、アルゴリズム500は、規格化最大ビームエネルギーを生ずる水平チャネル(すなわち、水平に配置された各マイクロホンレシーバ(320))の位相差を決定する(ブロック504)。ブロック504のステップは、図5Bを参照してより詳細に説明する。次に、決定した位相差を使って、トランスデューサ(350)の水平位置を決定し、それによりカメラ(340)のパン位置(pan position)を決定する(ブロック506)。
次に、アルゴリズム500は、垂直レシーバ320に対して図5Bのステップを繰り返して、規格化最大ビームエネルギーを生ずる垂直チャネル(すなわち、垂直に配置された各マイクロホンレシーバ(320))の位相差を決定する(ブロック508)。決定した位相差を使って、トランスデューサ(350)の垂直位置を決定し、それによりカメラ(340)のチルト位置(tilt position)を決定する(ブロック510)。
次に、アルゴリズム500は、水平に配置されたマイクロホンレシーバ(320)で検出した超音波(352)の波面の曲率を計算し(ブロック512)、その曲率を使って、トランスデューサ(350)の距離を計算し、それによりカメラ(340)のズーム位置を計算する(ブロック514)。最後に、制御ユニット(360)は、カメラに、決定されたエミッタ(350)の位置に向くように指示する(ブロック516)。
図5Bにおいて、規格化最大ビームエネルギーを生じるチャネルの位相差を決定するステップ550を例示した。最初に、各チャネルに対してフィルタリング分析(filtering analysis)を実行する(ブロック552)。合計したビームエネルギーを全てのチャンネルの各サブバンドにおいて計算する(ブロック554)。合計したエネルギーを所定の閾値と比較し(ブロック556)、帯域数が必要数よりも多いか判断する(ブロック558)。多くなければ、サブルーチンは完全にバイパスする(ブロック560)。処理する信号情報が十分ないからである。
帯域数が必要数より多い場合、サブバンド信号を帯域とチャンネルとにわたり規格化する(ブロック562)。位相の角度範囲をスイープサーチ(sweeping search)し、複数の第1の位相角におけるビームエネルギーを求める(ブロック564)。そのサーチから、規格化最大ビームエネルギーに対応する第1の位相角を見つける(ブロック566)。次に、先に見つかった第1の位相角に関して、より細かい位相角の角度範囲でスイープサーチを行い、複数の第2の位相角におけるビームエネルギーを求める(ブロック568)。その細かいサーチから、規格化最大ビームエネルギーに対応する第2の位相角を見つける(ブロック670)。最後のブロック572において、この第2の位相角を、水平配置と垂直配置のいずれを分析しているかに応じて、図5Aのブロック504またはブロック508に返す。
ここで、位置決定アルゴリズムをより詳細に説明する。図5Bのブロック552において各チャンネルのフィルタリング分析を実行するため、M個のチャンネルの超音波レシーバ信号を同数のアナログ・デジタル(A/D)コンバータに送る。A/Dコンバータは、超音波レシーバ信号をデジタルサンプルに変換する。各超音波レシーバチャンネルに対して、N個のサンプルのブロックを蓄積して処理する。好ましい実施形態では、サンプル数Nは640である。その結果の入力データを次式(1)で示す:
Figure 0004469887
ここで、m=0,1,...,M−1(Mはチャンネル数)であり、n=0,1,...,N−1(Nは各チャンネルのサンプル数)である。次に、N個のサンプルのブロックM個を、オーバーラップ・加算フィルタバンクに送る。このオーバーラップ・加算フィルタバンクは、一実施形態では、各チャンネルについてN個の複素周波数(complex frequencies)を発生する。その結果、時間領域の超音波レシーバ信号は、フィルタバンク出力に変換され、次式(2)で示される:
Figure 0004469887
フィルタバンク出力H(k)は、実数成分と虚数成分とを有する複素数である。ここで、kは周波数帯域であり、周波数ビン数(frequency bin number)に変換することができる。毎回、所定の時間領域においてN個のサンプルのブロックが求まり、新しいフィルタバンク出力H(k)の組が求められる。ある超音波レシーバX(n)の入力信号がフィルタバンク出力H(k)の1つの帯域(k′と呼ぶ)の中心周波数の正弦波であれば、その中心帯域k′のフィルタバンク出力H(k′)は大きく、k≠k′であるその他のH(k)は小さい。
ブロック554のところで説明したように、すべてのチャンネルの各サブバンドにおいて合計ビームエネルギーを計算する。最初に、信号を規格化する。式(3)により、規格化信号を計算し、ビームエネルギーの計算では複素信号の位相角のみを使用する:
Figure 0004469887
次に、上で触れた遅延・合計演算を各周波数領域に対して実行する。サブバンドは十分狭ければ正弦波(sinusoid)とみなせ、遅延(time-delay)は複素信号にフェーザ(phasor)ejθをかけることにより近似できる。すると、
Figure 0004469887
ここで、θは正弦波を所望時間だけ遅延したときの適当な位相角である。ある周波数サブバンドkに対して、遅延・合計演算は次式(5)により計算される:
Figure 0004469887
ここで、θは、トランスデューサ(350)の位置を(x,y,z)と仮定したときに、合計値Gx,y,z(k)の大きさを最大にする位相角を表す。音声はマイクロホンレシーバ(320)に相異なる到達時間で到達するので、式(5)は、これらの相異なる時間を補償して、信号がすべてのマイクロホンレシーバ(320)にまったく同時に到達したように、異なる超音波レシーバ信号を加算することができる。
式(5)について、トランスデューサ(350)が位置(x,y,z)にあると仮定して、合計値Gx,y,z(k)の大きさを最大にする適当な位相角θを計算するため、トランスデューサ(350)がデカルト座標系の位置X,Y,Zに位置し、M個(例えば、4個)のマイクロホンレシーバ(320)が位置X,Y,Zに位置すると仮定する。次に、トランスデューサ(350)とm番目のマイクロホンレシーバ(320)との間の距離を計算する:
Figure 0004469887
マイクロホンレシーバ(320)の1つ(例えば、m′)を基準として、基準レシーバm′と他のレシーバとの間の距離の差を示すと:
Figure 0004469887
また、基準レシーバm′と他のレシーバとの間の、帯域kの周波数ビンの位相角の差を示すと:
Figure 0004469887
ここで、bはサブバンドフィルタのヘルツ/ビン(Hertz-per-bin)であり、サブバンドフィルタの中心周波数は24,000+kbヘルツである。数24,000は、図4A−図4Bを参照して上で説明したスペクトルシフトから求まる。Δ項はレシーバ(320)間の距離差(インチ)であり、νは音速の逆数(1/(13.54×1000))に比例する定数である。式(8)の位相シフトをキャンセルするために、式(5)のθを次式(9)のように設定する:
Figure 0004469887
一般的に、帯域kの各周波数ビン(frequency bin)と各超音波レシーバmにおいて、式(9)のθは異なる。
最低周波数ビンから最高周波数ビンまでの帯域kに対して(すなわち、24kHzから40kHzまで、変換すると周波数ビン数の0から639の範囲にわたる)、式(5)のトランスデューサ(350)の仮定的位置Gx,y,z(k)を見つける。次の位置重みづけ関数を最終的に決定する:
Figure 0004469887
式(10)の位置重みづけ関数W(x,y,z)を最大値とするトランスデューサの候補位置(x,y,z)をそのトランスデューサ(350)の推定された位置とする。
計算コストを低減し、また検出精度を高めるために、式(10)の位置重みづけ関数W(x,y,z)は時々(例えば、Pブロックごとに)計算する。好ましい実施形態では、Pは5であり、これは約0.1秒ごとの計算に対応する。さらに、周波数サブバンドデータHm(k)は時間と周波数の両方で省略(trim)して、最新のP個のブロックにわたる最も有用なデータのみを使用して、Pブロックの時間の終わりに、位置重み付け関数W(x,y,z)を計算する。
従って、周波数サブバンドデータを省略(trim)して位置重み付け関数W(x,y,z)を時々しか計算しないステップをここで説明する。P個のブロックの時間にわたり、帯域kの各周波数ビンについて、M個の超音波レシーバ(320)からのデータは次式(11)で示される:
Figure 0004469887
ここで、p=0,1,...,P−1であり、m=0,1,...,M−1である。
帯域kの周波数ビンの仮定的位置G(x,y,z)を見つけるために、p′のある時間で
[外1]
Figure 0004469887
を選択する。ここで、
[外2]
Figure 0004469887
は、単一の超音波レシーバm′とインデックスp′についてp=0,1,...,P−1にわたって最大である。ここで、p′は0からP−1までの範囲にある。この大きさをその周波数ビンの背景雑音の大きさと比較する。この強さが背景雑音に近すぎると、規格化された信号
[外3]
Figure 0004469887
はすべてのmについてゼロに設定される。このデータを含めると、単に結果を間違いやすくするだけだからである。このように、ある周波数ビンkについて、仮定的位置を次式(12)で示す:
Figure 0004469887
式(12)を式(10)で使用して、位置重み付け関数W(x,y,z)の最大値を見つける。信号エネルギーが雑音エネルギーに近い帯域kの周波数ビンでは、位置Gx,y,z(k)はゼロとなる。非ゼロ周波数ビンの数が少なすぎる場合、その計算を全体としてバイパスする。最新のP個のブロックのデータは雑音のみによるものである可能性が高いからである。
式(12)において、フェーザ項ejθmは超越関数であり、虚部と実部とを有し、各周波数ビンkと各仮定的信号源位置x,y,zについて異なる。従って、そのフェーザ項を制御ユニットで実行中に計算することは効率的ではない。好ましくは、値を事前に計算してメモリ中のルックアップテーブルに格納しておき、制御ユニット(360)が実行時にそのテーブルにアクセスして計算を行う。
ルックアップテーブルを事前に計算する実施形態では、時間ブロックサイズはN=640であり、周波数ビンの数も640であり、低周波数から高周波数までの周波数範囲は640周波数であり、超音波レシーバの数Mは4であり、仮定的信号源位置の数は8640(すなわち、48通りの距離にある、1/4°ごとに180°(180-degrees in 1/4 degree increments at 48 distances))であり得る。結果として、テーブルのエントリー数は:
エントリー数=2×640×16×8640=176,947,200 (13)
精度を16ビットとするには、このテーブルを格納するために必要なメモリは約350メガバイトであり、一般的な実施形態ではメモリサイズの点で手が出せない。
テーブルサイズを小さくするには、式(12)のフェーザ項ejθmの実部を次式(14)とする:
Figure 0004469887
ここで、cはすべてのkとmについて定数である。余弦関数は引数が2πごとに同じ値に戻るので、cos(θm)を計算するには、最初に積kΔmcを計算し、この積のモジュロ(modulo)2πを求め、その結果を余弦関数のテーブルで探すと効率的である。
式(14)を独立に計算するのではなく、事前に計算した2つのルックアップテーブルを制御ユニット(360)のメモリに格納し、計算を少なくするために使用する。カメラトラッキングシステム(300)に対して事前に計算した第1のルックアップテーブルD(r,m)を作る。ここで、rは3次元空間内のトランスデューサ(350)の仮定的位置(x,y,z)を一意的に指定するインデックスであり、mは超音波レシーバのインデックスである。この事前に計算したルックアップテーブルD(r,m)のエントリーは次式(15)の通りである:すべてのr及びm=0,1,...,M−1に対して、
Figure 0004469887
式(15)において、b=(ビンの中心周波数)/kであり、Δr,mはインデックスrの信号源位置に関するマイクロホンmと基準マイクロホンとの間の信号パス差(インチ単位)である。
事前に計算された第2のモジュロ余弦テーブルcos_table(i)も作られ、次式(16)のようになる:
Figure 0004469887
これらのテーブルD(r,m)とcos_table(i)を用いて、トランスデューサ(350)の候補位置rと周波数ビンkに対するcos(θm)の値は、次式(17)のようになる:
Figure 0004469887
ここで、&は「and」関数(0x1FFでマスク)であり、「int」は「最も近い整数に丸める」ことを意味する。
このように、制御ユニット(360)は、好ましくは、これらの2つのテーブルD(r,m)とcos_table(i)を使用して、式(14)のcos(θ)に対する解を計算する。本実施例では、D(r,m)テーブルは8640×4すなわち34,560通りの位置を有し、cos_table(i)は512通りの位置を有する。sin(θ)を計算するため、式(17)と同様の手続を使用して、他のテーブル(sin_table(i)と呼ぶ)を作る。このテーブルは512通りの位置を有する。このように、これらのテーブルは全部で35,584個のエントリーを有する。これは、カメラトラッキングシステムの一実施形態として現実的なサイズである。
ルックアップテーブルにより決定された結果として得られるcos(θ)とsin(θ)の値を使用して、式(12)のフェーザ(phasor)項ejθmを推定し、周波数ビンkの候補位置Gx,y,z(k)を計算する。次に、位置重み付け関数W(x,y,z)の式(10)において候補位置Gx,y,z(k)の値を用いて、候補位置の位置重みを計算する。結局、式(10)の位置重みづけ関数W(x,y,z)を最大値とする位置(x,y,z)を、トランスデューサ(350)の推定された位置とする。究極的には、トランスデューサ(350)の推定位置を、カメラユニット(310)のカメラで信号源をトラッキングするために使用する。
図5Bのブロック564のところで説明したように、計算量を減らすために、第1のサーチをして、上記の式と方法を用いて、複数の第1の候補位置におけるビームエネルギーを決定する。好ましくは、この第1のサーチは計算コストを低減するための粗いものであり、ブロック566において、トランスデューサの少なくとも近似的な位置を粗く推定することができる。粗い第1のサーチに続いて、ブロック564の粗い推定にフォーカスした、より細かい第2のサーチを行い、上記の式と方法を用いて、規格化ビームエネルギーが最大となる細かい位置を見つける。サーチを、マイクロホンレシーバ(320)の水平配置と垂直配置の両方に対して行い、カメラユニットのパン角度とチルト角度に対するトランスデューサ(350)の位置をそれぞれ決定する。カメラユニット(310)のカメラを、決定した位置に向ける操作(すなわち、パン、チルト、ズーム)をできる。
図6Aと図6Bを参照して、本開示のカメラトラッキングシステムの追加的実施形態と代替的実施形態を説明する。一般的に、上記のカメラトラッキングシステムの実施形態では、図3Aのユニット310等のカメラユニットは4つのマイクロホンレシーバ320を有すると説明した。レシーバ320からのトラッキング範囲は、それらがカメラユニット310上でどのくらい近いかにより決まる。それゆえ、カメラユニット310の一実施形態では、サイズを大きくして、マイクロホンレシーバ320の間隔をさらに広くする。別の実施形態では、4個より多い(例えば、8個以上)マイクロホンレシーバ320を使用して、レシーバ320がより広いエリア(例えば、約75×75フィートのエリア)をカバーできるようにする。超音波を用いてカメラでトラッキングするのに加え、超音波カメラトラッキングシステムの実施形態では、例えば、米国特許第6,980,485号に開示されているようなボイストラッキング法(voice tracking technique)も使用できる。この文献は、ここに参照援用する。
さらに、開示したカメラトラッキングシステムの他の実施形態では、複数のリモートレシーバが広い場所において相互により遠く離れて配置された超音波レシーバシステムを使用することもできる。例えば、図6Aは、カメラトラッキングシステム600Aの一実施形態を示し、このシステムはカメラユニット610と、制御ユニット630と、エミッタユニット640とともに、超音波レシーバシステム620を有する。超音波レシーバシステム620は、部屋の周りに配置された3つ以上のレシーバユニット622、624、626を有し、制御ユニット630上にマイクロホンのアレイを有するのとは対照的である。レシーバユニット622、624、626は固定され、相互の距離が計算され、制御ユニット630と無線または有線で通信することができる。
一実施形態では、エミッタユニット640に接続された1つ以上の無線周波数(RF)デバイスからのRF信号を、トランスデューサ642、644からの超音波と同期させることができ、レシーバユニット622、624、626はそれらからエミッタ640までの距離を決定することができる。部屋の周りに配置した複数のレシーバユニット622、624、626でRF信号と超音波とを同期させて使用することにより、エミッタ640の位置計算をより正確にできる。例えば、超音波信号と同期したRF信号は、トランスデューサ642、644のレンジ検出(range detection)の精度を向上でき、カメラユニット610の自動ズームを改善することができる。
一実施形態では、RF無線マイクロホンは、エミッタユニット640と一体とし、テレビ会議の音声だけでなく、トラッキングとレンジ検出(range detection)にも使用するRF信号も送信することができる。図7Aは、エミッタユニット700Aを示し、このユニットは、1つ以上のトランスデューサ702、704と、RFトランスミッタ710と、一体型マイクロホン720(ラペルマイクロホン(lapel microphone)でもよい)とを有する。RF信号を使ってプレゼンターの音声を送信し、エミッタユニット700Aのレンジ検出(range detection)をする。一体型のラペルマイクロホン720を有するので、他の代替用途にも使用できる。例えば、図6Aのシステム600Aは、一体型ラペルマイクロホン(720)がプレゼンターの音声を検出するとイネーブル(enabled)されるトランスデューサ642、644からの超音波と併せて、ボイスマイクゲーティング法(voice mic gating techniques)に基づいて、カメラユニット610のカメラの方向を制御することができる。
図6Aに示したように、プレゼンターは前と後にトランスデューサ642、644を有し、カメラトラッキングシステム600Aはプレゼンターが向きを変えてもそのプレゼンターをトラッキングできる。また、図6Aに別に示したように、プレゼンターは両肩にトランスデューサ642、644をそれぞれ有し、カメラトラッキングシステム600Aはプレゼンターが向きを変えてもそのプレゼンターをトラッキングできる。
上記の実施形態において、開示したカメラトラッキングシステムは、超音波エミッタユニットを身につけた1人の人をトラッキングすることを参照して説明した。他の実施形態では、複数の参加者がエミッタユニットを身につけ、どの参加者をトラッキングするかの決定を様々な方法を用いて制御することができる。例えば、図6Bは複数のエミッタユニット640−A、640−Bを使用するカメラトラッキングシステム600Bを示す。上記と同様に、システム600Bはカメラユニット610と、超音波レシーバ620と、制御ユニット630とを有する。複数のエミッタユニット640−A、640−Bはそれぞれ少なくとも1つの超音波トランスデューサ642を含む。エミッタユニット640−A、640−Bは自動的または手動でアクティベートされ、超音波を放射し、カメラユニット610がアクティベートされたトランスデューサ642を有するプレゼンターをトラッキングする。
一実施形態では、プレゼンターが話したときに、エミッタユニット640−A、640−Bがアクティベートされる。例えば、図7Aのエミッタ700Aは、一体のマイクロホン720がプレゼンターが話しているのをピックアップしたときに、アクティベートされる。他の実施形態では、図7Bに示したエミッタユニット700Bは、タグ730等の上にボタンを有し、プレゼンターが押すとユニット700Bがアクティベートされ、トランスデューサ702、704が超音波を放射する。
図6Bに戻り、2つ以上のエミッタユニット640−A、640−Bが同時に放射してもよい。例えば、エミッタユニット640−A、640−Bはアクティベートされ、参加者が話しているのをラペルマイクロホンが検出したとき、超音波を放射してもよい。二人以上の参加者が同時に話しているとき、一実施形態の制御ユニット630はカメラユニット610を制御して、エミッタユニット640−A、640−Bがアクティブなプレゼンターを両方ともフレームに入れる(frame)。
別の実施形態では、エミッタユニット640−A、640−Bは、RF信号またはIR信号を用いて互いに通信できるか、または制御ユニット630と通信でき、一度に1つのエミッタユニットのみ(640−Aまたは640−B)が超音波を放射する。一実施形態では、駆動されたエミッタユニット640−AはRF信号を他のエミッタユニット640−Bに送信し、そのエミッタユニット640−Bは超音波の送信を停止する。
他の実施例では、システム600−Bは制御ユニット630に結合したRFユニット670を含む。プレゼンターがそのエミッタユニット640−Aを起動すると、エミッタユニット640−A上のRFトランスミッタ(図示せず)からRFユニット670にRF信号が送信され、制御ユニット630はこのプレゼンターをトラッキングすることが分かる。制御ユニット630は、RFユニットからのRF信号を他のエミッタユニット640−Bに中継し、そのエミッタユニット640−Bが超音波を放射するのを止める。このように、一度に1つのエミッタユニット640−Aのみが超音波を発生し、制御ユニット630は2つ以上のエミッタユニット640からの超音波を区別しようとする必要がなくなる。RF信号ではなく、IR信号その他を使って通信してもよい。
さらに別の実施形態では、制御ユニット630は、放射された超音波の特性に応じて、エミッタユニット640−A、640−Bから複数の超音波信号源を区別することもできる。例えば、各エミッタユニット640は、他とは異なる周波数の超音波を放射し、相互に識別(isolate)できる。あるいは、各エミッタユニット640は、他とは異なる時間に超音波を放射し、相互に識別(isolate)できる。複数のエミッタ640−A、640−Bが同時に動作するとき、制御ユニット630は、両方のエミッタユニット640−A、640−Bが超音波を放射し続けていても、どのエミッタユニット640が起動されておりトラッキングされるべきかを示すRF信号を受け取る必要がある。
さらに別の実施形態では、同一環境において複数の独立なトラッキングシステム600Bを使用して、1つが1人のプレゼンターをトラッキングし、もう1つがもう1人のプレゼンターをトラッキングする。独立な各システム600Bは、位相シフトキーイング(PSK)/周波数シフトキーイング(FSK)を用いる異なるシード(seeds)を有し、各システムの超音波を区別する。
好ましい実施形態その他の上記の記載は、出願人が認識している発明概念の範囲や適用性を限定または制限することを意図したものではない。垂直、水平、右、左等の用語は、1つの方向に対する相対的な方向を示すために使っており、他の方向に対する相対的な方向を示すこともある。言うまでもなく、ここに開示した実施形態を修正することができ、本開示の教示に基づいて別の実施形態を実施することもできる。テレビ会議においてカメラでプレゼンターをトラッキングするのに加え、例えば、本開示のカメラトラッキングシステム及びそれに関連する方法を、舞台パフォーマンスのスポットライトの制御や、他の環境でのカメラの制御等の他の実施形態で用いることもできる。ここに含まれる発明概念を開示するのと引き替えに、出願人は添付した請求項に記載されたすべての特許を望む。よって、添付した請求項は、その請求項またはその均等の範囲内にある全ての修正と変更を含むことを意図している。
本開示の一教示による、カメラトラッキングシステムの一実施形態を示す図である。 図1のカメラトラッキングシステムの制御ユニットのソフトウェアフレームワークの一実施形態を示す図である。 カメラトラッキングシステムのカメラユニットの一実施形態を示す図である。 図3Aのカメラトラッキングシステムの信号チェイン(signal chain)の一実施形態を示す図である。 開示したカメラトラッキングシステムにおいて、超音波信号を可聴範囲にダウンサンプリングする方法の一実施形態を示す図である。 図4Aのダウンサンプリング方法の段階における信号スペクトルを示すグラフである。 開示したカメラトラッキングシステムにおいて、目標音源の候補位置を推定する位置決定アルゴリズムの一実施形態を示すフローチャートである。 開示したカメラトラッキングシステムにおいて、目標音源の候補位置を推定する位置決定アルゴリズムの一実施形態を示すフローチャートである。 カメラトラッキングシステムの他の一実施形態を示す図である。 カメラトラッキングシステムのさらに他の一実施形態を示す図である。 開示したカメラトラッキングシステムのためのエミッタユニットの他の実施形態を示す図である。 開示したカメラトラッキングシステムのためのエミッタユニットの他の実施形態を示す図である。
符号の説明
120 カメラユニット
122 カメラ
126 マイクロホン
130 制御ユニット
140 エミッタユニット
142 信号ジェネレータ
143 アンプ
144 バッテリ
150 リモコン
160 テレビ会議ユニット
180 超音波
190 赤外線
210 ユーザインターフェイスモジュール
220 メッセージハンドラ
230 カメラ制御モジュール
250 設定
255 不揮発性記憶装置
265 オーディオハードウェアマネージャ
360 制御ユニット

Claims (25)

  1. カメラトラッキング装置であって、
    カメラによりトラッキングする第1の対象とともに動き得る、超音波を放射する少なくとも1つの超音波トランスデューサを有する第1の放射源と、
    制御可能カメラと、
    前記第1の放射源から放射された超音波に少なくとも応答する複数の静止したレシーバと、
    前記制御可能カメラと前記静止したレシーバとに通信可能に結合されたコントローラであって、
    前記第1の放射源から放射された超音波に応答して前記静止したレシーバから送られた超音波信号を受け取り、
    前記超音波信号を処理して前記第1の放射源の少なくとも近似位置を決定し、
    前記制御可能カメラを制御して、前記静止したレシーバを動かさずに、前記第1の放射源の前記決定した位置に少なくとも近似的に向けるように構成されたコントローラとを有する装置。
  2. 前記制御可能カメラを制御するため、前記コントローラは前記第1の放射源の前記決定された位置に少なくとも近似的にチルトするように前記制御可能カメラに命令する、請求項1に記載の装置。
  3. 前記制御可能カメラを制御するため、前記コントローラは前記第1の放射源の前記決定された位置に少なくとも近似的にパンするように前記制御可能カメラに命令する、請求項1に記載の装置。
  4. 前記制御可能カメラを制御するため、前記コントローラは前記第1の放射源の前記決定された位置に少なくとも近似的にズームするように前記制御可能カメラに命令する、請求項1に記載の装置。
  5. 前記静止したレシーバはそれぞれ約24kHzから約40kHzの範囲で実質的にフラットな周波数応答を有するマイクロホンを有し、前記第1の放射源から放射される超音波は約24kHzから約40kHzの範囲でスウィープされる音を含む、請求項1に記載の装置。
  6. 前記マイクロホンはそれぞれ可聴範囲内で周波数応答をさらに有する、請求項5に記載の装置。
  7. 前記超音波を処理するため、前記コントローラは前記超音波信号を前処理して前記超音波信号の反射によって生じた部分を除去する、請求項1に記載の装置。
  8. 前記超音波信号を処理して、前記超音波信号の反射によって生じた部分を除去するために、前記コントローラは、
    前記超音波信号をダウンサンプリングし、
    前記ダウンサンプリングた信号をフィルタして実質的にインパルスとし、
    前記フィルタされた信号の一部をゼロにして前記超音波信号の反射により生じた部分を除去するように構成された、請求項に記載の装置。
  9. 前記静止したレシーバのうち少なくとも2つは前記第1の放射源に対して実質的に水平に配置された軸に沿って配置され、前記超音波信号を処理して前記第1の放射源の前記少なくとも近似的位置を決定するために、前記コントローラは、
    前記少なくとも2つの静止したレシーバ間の前記超音波信号の位相差を用いて前記第1の放射源の近似的水平位置を計算し、
    前記近似的水平位置に基づいて前記制御可能カメラのパン変数を決定するように構成された、請求項1に記載の装置。
  10. 前記静止したレシーバのうち少なくとも2つは前記第1の放射源に対して実質的に垂直に配置された軸に沿って配置され、前記超音波信号を処理して前記第1の放射源の前記少なくとも近似的位置を決定するために、前記コントローラは、
    前記少なくとも2つの静止したレシーバ間の前記超音波信号の位相差を用いて前記第1の放射源の近似的垂直位置を計算し、
    前記近似的垂直位置に基づいて前記制御可能カメラのチルト変数を決定するように構成された、請求項1に記載の装置。
  11. 前記レシーバのうち少なくとも2つは1つの軸に沿って配置され、前記超音波信号を処理して前記第1の放射源の前記少なくとも近似的位置を決定するために、前記コントローラは、
    前記少なくとも2つの静止したレシーバが受け取った前記超音波信号の波面の曲率を用いて前記第1の放射源の近似的距離を計算し、
    前記近似的距離に基づいて前記制御可能カメラのズーム変数を決定するように構成された、請求項1に記載の装置。
  12. 候補位置の複数の変数を格納するメモリをさらに有し、前記コントローラは前記メモリに通信可能に結合され、前記変数を用いて前記超音波信号を処理し、前記第1の放射源の前記少なくとも1つの近似的位置を決定する、請求項1に記載の装置。
  13. 前記第1の放射源は前記カメラによりトラッキングする前記対象の一方の側に配置可能な第1の超音波トランスデューサを有し、前記第1の放射源は前記対象の反対側に配置可能な第2の超音波トランスデューサを有し、前記対象が前記静止したレシーバに対してどちらかの側に向いているとき、前記静止したレシーバは前記第1と第2の超音波トランスデューサにより超音波を受信する、請求項1に記載の装置。
  14. 前記第1の放射源は無線周波数信号を出す少なくとも1つの無線周波数トランスミッタを有し、前記コントローラは前記無線周波数信号を用いて前記制御可能カメラからの前記対象の距離を決定するように構成される、請求項1に記載の装置。
  15. 前記少なくとも1つの無線周波数トランスミッタは前記対象からの音声信号を前記コントローラに送信する、請求項14に記載の装置。
  16. 前記第1の放射源とは別の、超音波を放射する第2の放射源をさらに有し、各放射源を前記カメラによりトラッキングする1つ以上の対象に配置可能である、請求項1に記載の装置。
  17. 各放射源はその放射源がトラッキングする対象からの音声を検出し、検出した音声により駆動されると、超音波を出す、請求項16に記載の装置。
  18. 各放射源は、駆動されると、他の放射源に信号を送り、超音波の放射を停止させる、請求項17に記載の装置。
  19. 各放射源は他の放射源とは違う検出可能範囲の超音波を出す、請求項16に記載の装置。
  20. 各放射源は別のトラッキングする対象に配置され、各放射源が同時に超音波信号を放射しているとき、前記コントローラは前記カメラの可視領域にいる各対象を位置付けるよう前記カメラを制御するように構成された、請求項16に記載の装置。
  21. カメラトラッキング方法であって、
    少なくとも1つの超音波トランスデューサを有し、トラッキングする第1の対象とともに動き得る第1の放射源で超音波を放射する段階と、
    複数の静止したレシーバで前記超音波を受信する段階と、
    前記静止したレシーバで受信した前記超音波を処理することにより、前記第1の放射源の少なくとも近似的位置を決定する段階と、
    前記静止したレシーバを動かさずに、前記第1の放射源の前記決定した位置に少なくとも近似的にカメラを向けるように制御する段階とを有する、方法。
  22. 前記複数の静止したレシーバで超音波を受信する段階は、前記静止したレシーバのそれぞれにおいて約20kHzから約40kHzまでの範囲超音波に応答する段階を有する、請求項21に記載の方法。
  23. 前記静止したレシーバで受信した前記超音波を処理する段階は、
    前記静止したレシーバのそれぞれ前記超音波の信号をダウンサンプリングする段階と、
    前記ダウンサンプリングされた信号をフィルタして実質的にインパルスとする段階と、
    前記フィルタされた信号の部分をゼロにして反射により生じた超音波信号の部分を除去する段階とを有する、請求項21に記載の方法。
  24. 前記第1の放射源の前記少なくとも近似的位置を決定する段階は、前記第1の放射源に対して水平に配置された前記静止したレシーバの少なくとも2つにより受信た超音波信号の位相差に基づいて前記カメラのパン変数を計算する段階と、
    前記第1の放射源に対して垂直に配置された前記静止したレシーバの少なくとも2つにより受信した超音波信号の位相差に基づいて前記カメラのチルト変数を計算する段階と、
    1つの軸に沿って配置された前記静止したレシーバの少なくとも2つにより受信された超音波信号の波面の曲率に基づいて前記カメラのズーム変数を計算する段階とを有する、請求項21に記載の方法。
  25. プログラマブル制御デバイスにより読み取り可能なプログラム記憶デバイスであって、前記プログラマブル制御デバイスに請求項21に記載の方法を実行させる、前記プログラム記憶デバイスに格納された命令を有するデバイス。
JP2007271854A 2006-10-19 2007-10-18 超音波カメラトラッキングシステム及びそれに関連する方法 Expired - Fee Related JP4469887B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US86213206P 2006-10-19 2006-10-19

Publications (2)

Publication Number Publication Date
JP2008113431A JP2008113431A (ja) 2008-05-15
JP4469887B2 true JP4469887B2 (ja) 2010-06-02

Family

ID=38961489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007271854A Expired - Fee Related JP4469887B2 (ja) 2006-10-19 2007-10-18 超音波カメラトラッキングシステム及びそれに関連する方法

Country Status (7)

Country Link
US (1) US8249298B2 (ja)
EP (1) EP1914563B1 (ja)
JP (1) JP4469887B2 (ja)
CN (1) CN101277422B (ja)
AU (1) AU2007221976B2 (ja)
DE (1) DE602007004549D1 (ja)
HK (1) HK1110943A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5705548B2 (ja) * 2008-01-03 2015-04-22 クアルコム,インコーポレイテッド 超音波デジタイザおよびホスト
US20090177302A1 (en) * 2008-01-07 2009-07-09 Sony Corporation Sensor information obtaining apparatus, sensor device, information presenting apparatus, mobile information apparatus, sensor control method, sensor processing method, and information presenting method
CN101567969B (zh) * 2009-05-21 2013-08-21 上海交通大学 基于麦克风阵列声音制导的智能视频导播方法
CN102157058A (zh) * 2010-02-11 2011-08-17 上海科斗电子科技有限公司 超声波遥控系统
US8842161B2 (en) 2010-05-18 2014-09-23 Polycom, Inc. Videoconferencing system having adjunct camera for auto-framing and tracking
US9723260B2 (en) 2010-05-18 2017-08-01 Polycom, Inc. Voice tracking camera with speaker identification
US8395653B2 (en) 2010-05-18 2013-03-12 Polycom, Inc. Videoconferencing endpoint having multiple voice-tracking cameras
US8248448B2 (en) 2010-05-18 2012-08-21 Polycom, Inc. Automatic camera framing for videoconferencing
DE102010033210A1 (de) * 2010-08-03 2012-02-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Ultraschallsensors eines Fahrerassistenzsystems in einem Kraftfahrzeug, Fahrerassistenzsystem und Kraftfahrzeug
JP5562810B2 (ja) * 2010-11-18 2014-07-30 本田技研工業株式会社 距離測定方法
CN102572382B (zh) * 2010-12-29 2015-04-08 南陵县生产力促进中心有限公司 摄像系统及其同步播放影像及声音的方法
RU2591026C2 (ru) * 2011-01-05 2016-07-10 Конинклейке Филипс Электроникс Н.В. Аудиосистема и способ ее работы
CN102739372A (zh) * 2011-04-02 2012-10-17 国民技术股份有限公司 一种以声音为载体来触发信息交互的装置与方法
US9491404B2 (en) 2011-10-27 2016-11-08 Polycom, Inc. Compensating for different audio clocks between devices using ultrasonic beacon
US9001621B2 (en) 2012-04-20 2015-04-07 Symbol Technologies, Inc. Dual frequency ultrasonic locationing system
US9151826B2 (en) 2012-06-08 2015-10-06 Symbol Technologies, Llc Locationing via phase difference correlation between two frequency pulses derived from a single frequency emitter ultrasonic burst
US10827292B2 (en) * 2013-03-15 2020-11-03 Jawb Acquisition Llc Spatial audio aggregation for multiple sources of spatial audio
US9843903B2 (en) * 2013-03-15 2017-12-12 Pelco, Inc. Method and apparatus for mobile device localization
US9591426B2 (en) 2013-11-22 2017-03-07 Voyetra Turtle Beach, Inc. Method and apparatus for an ultrasonic emitter system floor audio unit
US20150207961A1 (en) * 2014-01-17 2015-07-23 James Albert Gavney, Jr. Automated dynamic video capturing
US20150365750A1 (en) * 2014-06-16 2015-12-17 Mediatek Inc. Activating Method and Electronic Device Using the Same
JP2016008940A (ja) * 2014-06-26 2016-01-18 株式会社デンソー 位置情報提供装置、位置報知装置およびプログラム
CN104486536B (zh) * 2014-07-18 2018-07-20 吴莉 一种自动影像拍摄系统及其实现方法
CN104457633B (zh) * 2014-11-18 2019-11-08 合肥工业大学 一种提高超声波位移测量精度的检测方法
GB2540224A (en) * 2015-07-08 2017-01-11 Nokia Technologies Oy Multi-apparatus distributed media capture for playback control
USD788725S1 (en) * 2015-09-11 2017-06-06 Polycom, Inc. Videoconferencing unit
FI129137B (en) * 2016-09-22 2021-08-13 Noiseless Acoustics Oy ACOUSTIC CAMERA AND METHOD FOR DETECTING ACOUSTIC EMISSIONS FROM VARIOUS LOCATIONS AND EQUIPMENT
GB2555422B (en) * 2016-10-26 2021-12-01 Xmos Ltd Capturing and processing sound signals
US10545219B2 (en) 2016-11-23 2020-01-28 Chirp Microsystems Three dimensional object-localization and tracking using ultrasonic pulses
CN106604191A (zh) * 2016-12-20 2017-04-26 广州视源电子科技股份有限公司 一种扩音方法及扩音系统
GB201708100D0 (en) * 2017-05-19 2017-07-05 Sintef Input device
US10749920B2 (en) 2017-06-09 2020-08-18 FG Innovation Company Limited Monitoring system and wireless communication system equipped therewith
US10349025B2 (en) * 2017-07-27 2019-07-09 Seiko Epson Corporation Projector and method of controlling projector
WO2019020457A1 (de) * 2017-07-28 2019-01-31 Elmos Semiconductor Aktiengesellschaft Verfahren zur erkennung mindestens eines im umfeld eines fahrzeugs befindlichen objekts
JP6976131B2 (ja) * 2017-10-16 2021-12-08 三菱重工サーマルシステムズ株式会社 空調システム及び空調制御方法
JP6922821B2 (ja) * 2018-04-13 2021-08-18 オムロン株式会社 画像解析装置、方法およびプログラム
US10446941B1 (en) * 2018-05-18 2019-10-15 Sling Media Pvt. Ltd. Wireless camera tracking system
CN109959445B (zh) * 2019-03-29 2020-10-16 武汉理工大学 智能声强扫描系统
CN112887594B (zh) * 2021-01-13 2022-07-15 随锐科技集团股份有限公司 提升视频会议安全性的方法及系统
US11825200B2 (en) 2021-12-30 2023-11-21 Microsoft Technology Licensing, Llc Framing an image of a user requesting to speak in a network-based communication session
EP4390435A1 (en) * 2022-12-22 2024-06-26 GN Audio A/S Audio device with ultrasound movement detection

Family Cites Families (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US550754A (en) * 1895-12-03 James iialpin
US3601530A (en) * 1969-04-29 1971-08-24 Bell Telephone Labor Inc Video conference system using voice-switched cameras
US4264928A (en) * 1979-11-05 1981-04-28 Schober Gary W Conference video system
US4400724A (en) * 1981-06-08 1983-08-23 The United States Of America As Represented By The Secretary Of The Army Virtual space teleconference system
US4516156A (en) * 1982-03-15 1985-05-07 Satellite Business Systems Teleconferencing method and system
US4494144A (en) * 1982-06-28 1985-01-15 At&T Bell Laboratories Reduced bandwidth video transmission
US4536887A (en) * 1982-10-18 1985-08-20 Nippon Telegraph & Telephone Public Corporation Microphone-array apparatus and method for extracting desired signal
US4596041A (en) * 1983-06-17 1986-06-17 Mack John L Participant-identification recording and playback system
US4531024A (en) * 1983-10-25 1985-07-23 At&T Bell Laboratories Multilocation video conference terminal including video switching contention control
US4529840A (en) * 1983-10-26 1985-07-16 At&T Bell Laboratories Multilocation video conference terminal including controllable conference location reconfiguration
US4581758A (en) 1983-11-04 1986-04-08 At&T Bell Laboratories Acoustic direction identification system
CA1232059A (en) * 1985-03-21 1988-01-26 Donald C. Knudsen Digital delay generator for sonar and radar beam formers
US4847829A (en) * 1985-04-08 1989-07-11 Datapoint Corporation Video conferencing network
US4975960A (en) * 1985-06-03 1990-12-04 Petajan Eric D Electronic facial tracking and detection system and method and apparatus for automated speech recognition
JPS6292687A (ja) 1985-10-18 1987-04-28 Toshiba Corp ビデオカメラ
US4858012A (en) * 1987-03-19 1989-08-15 Hiromasa Hino Camera having automatically controllable shooting features
JPS647791A (en) * 1987-06-30 1989-01-11 Nec Corp Multiscreen video conference method and device therefor
IT1241398B (it) * 1987-09-01 1994-01-10 Thomson Csf Procedimento di telemetria acustica passiva
US4924387A (en) * 1988-06-20 1990-05-08 Jeppesen John C Computerized court reporting system
DE3823219C1 (ja) * 1988-07-08 1989-05-18 Telenorma Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt, De
JPH0771279B2 (ja) 1988-08-17 1995-07-31 富士通株式会社 テレビ会議用画像処理装置
US5382972A (en) * 1988-09-22 1995-01-17 Kannes; Deno Video conferencing system for courtroom and other applications
US4965819A (en) * 1988-09-22 1990-10-23 Docu-Vision, Inc. Video conferencing system for courtroom and other applications
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
JPH0728470B2 (ja) * 1989-02-03 1995-03-29 松下電器産業株式会社 アレイマイクロホン
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
JPH0378373A (ja) * 1989-08-22 1991-04-03 Fuji Photo Optical Co Ltd テレビカメラ操作装置
US5206721A (en) * 1990-03-08 1993-04-27 Fujitsu Limited Television conference system
JPH0433490A (ja) 1990-05-30 1992-02-04 Sony Corp テレビ会議システム
US5517300A (en) * 1990-05-31 1996-05-14 Parkervision, Inc. Remote controlled tracking system for tracking a remote control unit and positioning and operating a camera
US5179421A (en) * 1990-08-20 1993-01-12 Parkervision, Inc. Remote tracking system particularly for moving picture cameras and method
US5268734A (en) * 1990-05-31 1993-12-07 Parkervision, Inc. Remote tracking system for moving picture cameras and method
US5099510A (en) * 1990-06-11 1992-03-24 Communications Network Enhancement Inc. Teleconferencing with bridge partitioning and other features
US5340309A (en) * 1990-09-06 1994-08-23 Robertson James G Apparatus and method for recording jaw motion
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JPH04122184A (ja) 1990-09-13 1992-04-22 Nec Corp テレビ会議システム
DE4109507A1 (de) 1991-03-22 1992-09-24 Magnet Bahn Gmbh Langstator-linearmotor ohne abschnittschalter
US5631697A (en) * 1991-11-27 1997-05-20 Hitachi, Ltd. Video camera capable of automatic target tracking
GB9201006D0 (en) * 1992-01-17 1992-03-11 Philip Electronic And Associat Classifying faces
EP0557007A2 (en) * 1992-02-15 1993-08-25 Sony Corporation Picture processing apparatus
US5396287A (en) * 1992-02-25 1995-03-07 Fuji Photo Optical Co., Ltd. TV camera work control apparatus using tripod head
JP2797830B2 (ja) * 1992-03-31 1998-09-17 日本ビクター株式会社 ビデオカメラにおける被写体追尾方法
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
JPH06105306A (ja) 1992-09-16 1994-04-15 Funai Denki Kenkyusho:Kk テレビ会議システム
JP3487436B2 (ja) * 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム
US5432864A (en) * 1992-10-05 1995-07-11 Daozheng Lu Identification card verification system
JPH06205249A (ja) * 1992-10-22 1994-07-22 Konica Corp ビデオカメラ
IT1257164B (it) * 1992-10-23 1996-01-05 Ist Trentino Di Cultura Procedimento per la localizzazione di un parlatore e l'acquisizione diun messaggio vocale, e relativo sistema.
US5742329A (en) * 1992-10-26 1998-04-21 Canon Kabushiki Kaisha Image pickup system and communication system for use in video conference system or the like
US5550928A (en) * 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
WO1994017636A1 (en) 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
US5625410A (en) * 1993-04-21 1997-04-29 Kinywa Washino Video monitoring and conferencing system
JPH0730796A (ja) * 1993-07-14 1995-01-31 Sony Corp ビデオ信号追従処理システム
CA2119327A1 (en) 1993-07-19 1995-01-20 David Crawford Gibbon Method and means for detecting people in image sequences
JPH0795598A (ja) * 1993-09-25 1995-04-07 Sony Corp 目標追尾装置
WO1995011566A1 (en) * 1993-10-20 1995-04-27 Videoconferencing Systems, Inc. Adaptive videoconferencing system
US5438357A (en) * 1993-11-23 1995-08-01 Mcnelley; Steve H. Image manipulating teleconferencing system
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5512939A (en) * 1994-04-06 1996-04-30 At&T Corp. Low bit rate audio-visual communication system having integrated perceptual speech and video coding
US5852669A (en) * 1994-04-06 1998-12-22 Lucent Technologies Inc. Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video
US5581620A (en) * 1994-04-21 1996-12-03 Brown University Research Foundation Methods and apparatus for adaptive beamforming
US5550754A (en) 1994-05-13 1996-08-27 Videoptic Research Teleconferencing camcorder
CA2148631C (en) * 1994-06-20 2000-06-13 John J. Hildin Voice-following video system
US5508734A (en) * 1994-07-27 1996-04-16 International Business Machines Corporation Method and apparatus for hemispheric imaging which emphasizes peripheral content
US5859663A (en) * 1994-09-15 1999-01-12 Intel Corporation Audio control system for video teleconferencing
US5500671A (en) * 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5737431A (en) * 1995-03-07 1998-04-07 Brown University Research Foundation Methods and apparatus for source location estimation from microphone-array time-delay estimates
JPH08256318A (ja) * 1995-03-17 1996-10-01 Fujitsu Ltd テレビ会議システムのカメラ制御装置
DE19513975A1 (de) * 1995-04-13 1996-10-17 Bosch Gmbh Robert Einrichtung zum Bestimmen eines Lastsignals bei einer Brennkraftmaschine
US6731334B1 (en) * 1995-07-31 2004-05-04 Forgent Networks, Inc. Automatic voice tracking camera system and method of operation
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US6710797B1 (en) * 1995-09-20 2004-03-23 Videotronic Systems Adaptable teleconferencing eye contact terminal
US7209160B2 (en) * 1995-09-20 2007-04-24 Mcnelley Steve H Versatile teleconferencing eye contact terminal
US6008837A (en) * 1995-10-05 1999-12-28 Canon Kabushiki Kaisha Camera control apparatus and method
JPH09181893A (ja) * 1995-12-26 1997-07-11 Minolta Co Ltd ファクシミリ装置および画像通信方法
JP4079463B2 (ja) * 1996-01-26 2008-04-23 ソニー株式会社 被写体検出装置および被写体検出方法
US5719622A (en) * 1996-02-23 1998-02-17 The Regents Of The University Of Michigan Visual control selection of remote mechanisms
FR2747003A1 (fr) * 1996-03-27 1997-10-03 Pompier Denis Dispositif qui permet d'orienter un appareil quelconque fixe dans la direction d'un sujet mobile
US5959667A (en) * 1996-05-09 1999-09-28 Vtel Corporation Voice activated camera preset selection system and method of operation
US5778082A (en) * 1996-06-14 1998-07-07 Picturetel Corporation Method and apparatus for localization of an acoustic source
JPH1021047A (ja) 1996-07-05 1998-01-23 Nippon Telegr & Teleph Corp <Ntt> 雑音抑圧収音装置
US6343141B1 (en) 1996-10-08 2002-01-29 Lucent Technologies Inc. Skin area detection for video image systems
JPH1141577A (ja) 1997-07-18 1999-02-12 Fujitsu Ltd 話者位置検出装置
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US5900907A (en) * 1997-10-17 1999-05-04 Polycom, Inc. Integrated videoconferencing unit
US5940118A (en) * 1997-12-22 1999-08-17 Nortel Networks Corporation System and method for steering directional microphones
US6005610A (en) * 1998-01-23 1999-12-21 Lucent Technologies Inc. Audio-visual object localization and tracking system and method therefor
US6593956B1 (en) * 1998-05-15 2003-07-15 Polycom, Inc. Locating an audio source
US6469732B1 (en) * 1998-11-06 2002-10-22 Vtel Corporation Acoustic source location using a microphone array
US6590604B1 (en) * 2000-04-07 2003-07-08 Polycom, Inc. Personal videoconferencing system having distributed processing architecture
JP2001339703A (ja) * 2000-05-26 2001-12-07 Nec Corp テレビ会議システム及びテレビ会議システムに於けるカメラの制御装置並びにカメラの制御方法
US6980485B2 (en) * 2001-10-25 2005-12-27 Polycom, Inc. Automatic camera tracking using beamforming
US6912178B2 (en) * 2002-04-15 2005-06-28 Polycom, Inc. System and method for computing a location of an acoustic source
US7852369B2 (en) * 2002-06-27 2010-12-14 Microsoft Corp. Integrated design for omni-directional camera and microphone array
NO318096B1 (no) * 2003-05-08 2005-01-31 Tandberg Telecom As Arrangement og fremgangsmate for lokalisering av lydkilde
US7623156B2 (en) * 2004-07-16 2009-11-24 Polycom, Inc. Natural pan tilt zoom camera motion to preset camera positions

Also Published As

Publication number Publication date
EP1914563B1 (en) 2010-01-27
HK1110943A1 (en) 2008-07-25
DE602007004549D1 (de) 2010-03-18
US20080095401A1 (en) 2008-04-24
EP1914563A1 (en) 2008-04-23
AU2007221976A1 (en) 2008-05-08
CN101277422A (zh) 2008-10-01
CN101277422B (zh) 2012-06-27
US8249298B2 (en) 2012-08-21
JP2008113431A (ja) 2008-05-15
AU2007221976B2 (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP4469887B2 (ja) 超音波カメラトラッキングシステム及びそれに関連する方法
JP4296197B2 (ja) 音源追跡のための配置及び方法
US9912908B2 (en) System and method for localizing a talker using audio and video information
US6185152B1 (en) Spatial sound steering system
CN109218651B (zh) 视频会议中的最佳视图选择方法
CA2257444C (en) Method and apparatus for localization of an acoustic source
US5940118A (en) System and method for steering directional microphones
JP5529931B2 (ja) ビデオ会議のための自動カメラ選択
US20090167867A1 (en) Camera control system capable of positioning and tracking object in space and method thereof
EP2953348B1 (en) Determination, display, and adjustment of best sound source placement region relative to microphone
EP2508945B1 (en) Directional sound capturing
US20040037436A1 (en) System and process for locating a speaker using 360 degree sound source localization
JP2008288785A (ja) テレビ会議装置
JP2004528766A (ja) 音声/画像を用いて話者を感知し位置探しする方法及び装置
JP2011244455A (ja) ビデオ会議のための自動カメラフレーミング
JP2011244454A (ja) 複数の音声追跡カメラを有するビデオ会議端末
JP2011244456A (ja) 話者識別による音声追跡カメラ
EP3342187A1 (en) Suppressing ambient sounds
CN108063910A (zh) 用于视频会议系统中的摄像机底座及其方法
CN114994607B (zh) 一种支持变焦的声学成像方法
CN118202641A (zh) 用于房间智能的会议系统及方法
JP4198915B2 (ja) 空間的音波ステアリングシステム
Sasaki et al. Sound localization and separation for mobile robot tele-operation by tri-concentric microphone array
Milighetti et al. Combined visual-acoustic grasping for humanoid robots
Kuramoto et al. Understanding posture during performance and vocalization and its application in multiple Azure Kinects recordings

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091113

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100301

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees