JP2007080262A - 3次元マルチカメラビデオナビゲーション支援システム、3次元マルチカメラビデオナビゲーション支援方法、3次元マルチカメラビデオナビゲーション支援プログラム - Google Patents
3次元マルチカメラビデオナビゲーション支援システム、3次元マルチカメラビデオナビゲーション支援方法、3次元マルチカメラビデオナビゲーション支援プログラム Download PDFInfo
- Publication number
- JP2007080262A JP2007080262A JP2006241057A JP2006241057A JP2007080262A JP 2007080262 A JP2007080262 A JP 2007080262A JP 2006241057 A JP2006241057 A JP 2006241057A JP 2006241057 A JP2006241057 A JP 2006241057A JP 2007080262 A JP2007080262 A JP 2007080262A
- Authority
- JP
- Japan
- Prior art keywords
- video
- navigation
- video stream
- user
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
Abstract
【課題】2次元表示から没入型3次元環境を生成することによって、3次元マルチカメラビデオのナビゲーションを支援する。
【解決手段】内容解析モジュールは、監視下にある現場の3次元意味論的レイアウトを生成し、レンダリングモジュールは、複数のカメラからのビデオストリームと前記3次元意味論的レイアウトとを3次元没入型環境に統合し、ユーザナビゲーションインターフェースの複数の表示において該ビデオストリームをレンダリングし、ユーザナビゲーションインターフェースは、複数の前記表示の各々の複数の視点から視点を選択すること、及び、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、ビデオストリームにおける移動オブジェクトを追跡すること、の少なくとも一方を、ユーザに実行させる。
【選択図】図1
【解決手段】内容解析モジュールは、監視下にある現場の3次元意味論的レイアウトを生成し、レンダリングモジュールは、複数のカメラからのビデオストリームと前記3次元意味論的レイアウトとを3次元没入型環境に統合し、ユーザナビゲーションインターフェースの複数の表示において該ビデオストリームをレンダリングし、ユーザナビゲーションインターフェースは、複数の前記表示の各々の複数の視点から視点を選択すること、及び、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、ビデオストリームにおける移動オブジェクトを追跡すること、の少なくとも一方を、ユーザに実行させる。
【選択図】図1
Description
本発明は、マルチカメラビデオの監視、表示、ナビゲーションの分野に関する。詳細には、本発明は、3次元マルチカメラビデオのナビゲーションを支援するシステム、3次元マルチカメラビデオのナビゲーションを支援する方法、及び、3次元マルチカメラビデオのナビゲーションを支援するプログラムに関する。
近年、多数のビデオ監視システムの台頭が見られるが、該システムの大部分は、複数のカメラからなる。このようなシステムのビデオストリームの可視化(ビジュアライゼーション)は2次元(2−D)に限られていたため、各カメラが捕捉(キャプチャ)する物理的シーンの空間位置を保安要員が連続的に追跡するには手間が掛かりすぎた。従って、2次元表示から、没入型3次元環境を生成することによって、この難題を解決することが望まれる。この没入型3次元環境において、保安要員は、マウスをクリックして、ナビゲーションを直観的に行い、シーンの隅々まで詳しく調べることができる。
スタウファー C.(Stauffer C)、グリムソン W.E.L.(Grimson W.E.L)、「リアルタイム追跡によるアクティビティパターン学習(Learning patterns of activity using real-time tracking)、パターン解析及びマシンインテリジェンスに関するIEEEトランザクション(IEEE Transactions on Pattern Analysis & Machine Intelligence)、2000年、22(8)、頁747〜757 ヴィオラ P.(Viola P.)、ジョーンズ M.J.(Jones M.J.)、スノー D.(Snow D.)、「モーションパターン及び外観による歩行者検出( Detecting Pedestrians Using Patterns of Motion and Appearance)」、コンピュータビジョンに関するIEEEインターナショナルカンファレンス(IEEE International Conference on Computer Vision (ICCV))、2003年10月、Vol. 2、頁734〜741 カメダ Y.(Kameda Y.)、タケマサ T.(Takemasa T.)、オオタ Y.(Ohta Y.)、「調査カメラを利用したアウトドアシースルービジョン(Outdoor see-through vision utilizing surveillance cameras)」、混合及び拡張現実に関する第3回IEEE及びACMインターナショナルシンポジウム(Third IEEE and ACM International Symposium on Mixed and Augmented Reality)、2004年11月2〜5日、頁151〜160
スタウファー C.(Stauffer C)、グリムソン W.E.L.(Grimson W.E.L)、「リアルタイム追跡によるアクティビティパターン学習(Learning patterns of activity using real-time tracking)、パターン解析及びマシンインテリジェンスに関するIEEEトランザクション(IEEE Transactions on Pattern Analysis & Machine Intelligence)、2000年、22(8)、頁747〜757 ヴィオラ P.(Viola P.)、ジョーンズ M.J.(Jones M.J.)、スノー D.(Snow D.)、「モーションパターン及び外観による歩行者検出( Detecting Pedestrians Using Patterns of Motion and Appearance)」、コンピュータビジョンに関するIEEEインターナショナルカンファレンス(IEEE International Conference on Computer Vision (ICCV))、2003年10月、Vol. 2、頁734〜741 カメダ Y.(Kameda Y.)、タケマサ T.(Takemasa T.)、オオタ Y.(Ohta Y.)、「調査カメラを利用したアウトドアシースルービジョン(Outdoor see-through vision utilizing surveillance cameras)」、混合及び拡張現実に関する第3回IEEE及びACMインターナショナルシンポジウム(Third IEEE and ACM International Symposium on Mixed and Augmented Reality)、2004年11月2〜5日、頁151〜160
本発明は、上記に鑑み、2次元表示から没入型3次元環境を生成することによって、3次元マルチカメラビデオのナビゲーションを支援することを課題とする。
本発明の種々の実施の形態によって、複数のカメラから捕捉されたビデオストリーム(ビデオ)をユーザに監視させ、ナビゲートさせるユーザナビゲーションインターフェースが提供される。該インターフェースは、3次元没入型環境に複数のカメラからのビデオストリームと意味論的レイアウトとを統合し、ユーザナビゲーションインターフェース上の複数の表示においてビデオストリームをレンダリングする。該ユーザナビゲーションインターフェースは、カメラの空間分布及びカメラの視野を伝達し、ユーザに、プリセットされた視点(ビュー)間で自在にナビゲートさせたり、あるいは、視点(ビュー)を切り替えさせたりする。さらに、ユーザナビゲーションインターフェースは、最大画面解像度の表示で、オブジェクトの最適な視点(ビュー)を有するように、ユーザにビデオストリームの移動オブジェクトを追跡させる。
本発明の第1の態様は、3次元マルチカメラビデオナビゲーションを支援するシステムであって、監視下にある現場の3次元意味論的レイアウトを生成するために動作可能な内容解析モジュールと、複数のカメラからのビデオストリームと前記3次元意味論的レイアウトとを3次元没入型環境に統合し、ユーザナビゲーションインターフェースの複数の表示において該ビデオストリームをレンダリングするために動作可能なレンダリングモジュールと、複数の前記表示の各々の複数の視点から視点を選択すること、及び、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、ビデオストリームにおける移動オブジェクトを追跡すること、の少なくとも一方を、ユーザに実行させるために動作可能なユーザナビゲーションインターフェースと、を含む。
本発明の第2の態様は、第1の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記複数のカメラのサイトマップと前記意味論的レイアウトとを組み合わせるために動作可能な3次元レイアウト生成モジュールをさらに含む。
本発明の第3の態様は、第2の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記ユーザナビゲーションインターフェースは、さらに、内容ベースモード及び幾何ベースモードの間で、ユーザをシームレスに移行させるために動作可能である。
本発明の第4の態様は、第1の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記ビデオストリームにおける移動オブジェクトを検出及び分割するために動作可能な背景差分モジュールと、前記背景差分モジュールからのビデオストリームにおける雑音を除去するために動作可能な形態学的オペレータと、前記ビデオストリームにおける移動オブジェクトを追跡するために動作可能なモーション追跡モジュールと、アルファ混合によって前記ビデオストリームの前景領域を強調するために動作可能な混合モジュールと、の少なくとも1つをさらに含む。
本発明の第5の態様は、第4の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記混合モジュールが、前景や背景の分割方法による統計と、オブジェクト検出方法による信頼性スコアと、の少なくとも1つからアルファ値を直接的に導くために動作可能である。
本発明の第6の態様は、第1の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記移動オブジェクトが人間及び人間の顔の少なくとも一方である。
本発明の第7の態様は、第1の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記内容解析モジュールが、多次元スケーリングによって意味論的レイアウトを生成するために動作可能である。
本発明の第8の態様は、第1の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記レンダリングモジュールが、テクスチャマッピングによって、前記3次元没入型環境に前記ビデオストリームを統合するために動作可能である。
本発明の第9の態様は、第1の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記レンダリングモジュールが、さらに、前記ユーザナビゲーションインターフェースにおいて、常に、画面と平行に複数の表示の向きをレンダリングするために動作可能である。
本発明の第10の態様は、第1の態様の3次元マルチカメラビデオナビゲーション支援システムであって、前記ユーザナビゲーションインターフェースが、さらに、前記移動オブジェクトの位置をユーザに追跡させるために動作可能である。
本発明の第11の態様は、3次元マルチカメラビデオのナビゲーションを支援する方法であって、監視下にある現場の3次元意味論的レイアウトを生成し、前記3次元意味論的レイアウトと複数のカメラからのビデオストリームとを、3次元没入型環境に統合し、ユーザナビゲーションインターフェースの複数の表示において前記ビデオストリームをレンダリングし、複数の前記表示の各々の複数の視点から視点を選択すること、及び、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、ビデオストリームにおける移動オブジェクトを追跡すること、の少なくとも一方を、前記ユーザナビゲーションインターフェースを介して実行する。
本発明の第12の態様は、第11の態様の3次元マルチカメラビデオナビゲーション支援方法であって、前記複数のカメラのサイトマップと前記意味論的レイアウトとを組み合わせることをさらに含む。
本発明の第13の態様は、第12の態様の3次元マルチカメラビデオナビゲーション支援方法であって、さらに、前記ユーザナビゲーションインターフェースを介して、内容ベースモード及び幾何ベースモードの間をシームレスに移行する。
本発明の第14の態様は、第11の態様の3次元マルチカメラビデオナビゲーション支援方法であって、背景差分によって前記ビデオストリームにおける移動オブジェクトを検出及び分割すること、形態学的オペレーションによって前記ビデオストリームにおける雑音を除去すること、前記ビデオストリームにおける移動オブジェクトを追跡すること、アルファ混合によって前記ビデオストリームの前景領域を強調すること、の少なくとも1つをさらに含む。
本発明の第15の態様は、第14の態様の3次元マルチカメラビデオナビゲーション支援方法であって、前景や背景の分割方法による統計と、オブジェクト検出方法による信頼性スコアと、の少なくとも1つからアルファ値を直接的に導くことをさらに含む。
本発明の第16の態様は、第11の態様の3次元マルチカメラビデオナビゲーション支援方法であって、多次元スケーリングによって意味論的レイアウトを生成すること、テクスチャマッピングによって前記ビデオストリームを3次元没入型環境に統合すること、の少なくとも一方をさらに含む。
本発明の第17の態様は、第11の態様の3次元マルチカメラビデオナビゲーション支援方法であって、前記ユーザナビゲーションインターフェースにおいて、常に、画面と平行に複数の表示の向きをレンダリングする、ことをさらに含む。
本発明の第18の態様は、第11の態様の3次元マルチカメラビデオナビゲーション支援方法であって、前記ユーザナビゲーションインターフェースを介して移動オブジェクトの位置を追跡する、ことをさらに含む。
本発明の第19の態様は、3次元マルチカメラビデオのナビゲーションを支援するプログラムであって、監視下にある現場の3次元意味論的レイアウトを生成するステップと、複数のカメラからのビデオストリームと意味論的レイアウトとを3次元没入型環境に統合するステップと、ユーザナビゲーションインターフェースの複数の表示において前記ビデオストリームをレンダリングするステップと、複数の前記表示の各々の複数の視点から視点を選択することと、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、前記ビデオストリームにおける移動オブジェクトを追跡することと、の少なくとも一方を、ユーザナビゲーションインターフェースを介して実行するステップと、を、コンピュータに実行させる。
本発明の第20の態様は、3次元マルチカメラビデオのナビゲーションを支援するためのシステムであって、監視下にある現場の3次元意味論的レイアウトを生成する手段と、複数のカメラからのビデオストリームと前記3次元意味論的レイアウトとを3次元没入型環境に統合する手段と、ユーザナビゲーションインターフェースの複数の表示に前記ビデオストリームをレンダリングする手段と、複数の前記表示の各々の複数の視点から視点を選択することと、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、前記ビデオストリームにおける移動オブジェクトを追跡することと、の少なくとも一方を、ユーザナビゲーションインターフェースを介して実行する手段と、を含む。
本発明は、監視下にある現場の3次元意味論的レイアウトを生成し、前記3次元意味論的レイアウトと複数のカメラからのビデオストリームとを、3次元没入型環境に統合し、ユーザナビゲーションインターフェースの複数の表示において前記ビデオストリームをレンダリングし、複数の前記表示の各々の複数の視点から視点を選択すること、及び、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、ビデオストリームにおける移動オブジェクトを追跡すること、の少なくとも一方を、前記ユーザナビゲーションインターフェースを介して実行するようにしているので、2次元表示から没入型3次元環境を生成することができ、これにより、3次元マルチカメラビデオのナビゲーションを支援することができる。
本発明は例によって示されるが、添付図面に限定されない。該添付図面において、同様の構成要素には同様の参照番号が付される。「ある」、「一(の)」、または「いくつかの」実施形態が必ずしも同一実施形態を示しているわけではなく、このような言及は「少なくとも一の」を意味することに留意されたい。
図1は、本発明の一実施形態における3次元マルチカメラビデオ監視(及びナビゲーション)システム100の例を示す。この図は、構成要素を機能的に分離したものとして描いているが、このような描写は、単に図示を目的としてなされている。この図において描写される構成要素が任意に組み合わされ、別個のソフトウェア、ファームウェア及びハードウェアの少なくとも一の構成要素に分割され得ることは、当業者に明らかである。さらにまた、どのようにして、組み合わされるか、あるいは、分割されるかにかかわらず、このような構成要素は、同じ演算装置または複数の演算装置で実行できること、そして、該複数の演算装置が一以上のネットワークに接続され得ることが、当業者には明らかである。
図1を参照する。内容解析モジュール101は、カメラのネットワークから、現場の長期の統計的観察(写真、ビデオストリームなどであってよいが、これらに限定されない)に基づいて、多次元スケーリング(MDS)法による監視下で現場の意味論的(セマンチックな)レイアウトを生成する。3次元レイアウト生成モジュール102は、カメラのネットワークのサイトマップ(すなわち、幾何学的情報)と内容解析モジュールからのシーン(意味論的レイアウト)とを結合して、ユーザ110がナビゲートできるように、ユーザナビゲーションインターフェース108上へ3次元没入型環境を生成する。モーション検出のため、前景オブジェクトの分割は、コンピュータビジョンの基本的な問題の一つである。カメラが固定されている場合、モーションキューが、この問題を解決するために広く用いられており、このような解決法は、「背景差分」と称される。複数のカメラのネットワークからのビデオストリームは、移動オブジェクトを検出し、分割するために、背景差分モジュール103へ送られる。形態学的オペレータ104は、背景差分モジュールの出力から雑音を除去するために任意に使用され得る。雑音除去された後のビデオストリームにおける移動中の人やオブジェクトは、モーション追跡モジュール105によって追跡され得る。混合モジュール106は、(元のビデオストリームと)局所的にアルファ混合することによってビデオストリームの前景領域を強調(ハイライト)するために用いられる。これにより、ストリームの誤分割の影響を緩和し、モーション検出結果を伝達して、ユーザによるオブジェクトの追跡を支援する。様々なカメラからのビデオストリームの空間分布を示すために、処理されたビデオストリームは、ユーザナビゲーションインターフェース上の複数のビデオ表示装置109にレンダリングされ、現場の3次元レイアウトに統合され、テクスチャマッピングを介して、レンダリングモジュール107によって、没入型3次元環境を生成する。
図2は、本発明の一実施形態の3次元マルチカメラビデオ監視及びナビゲーションのプロセスの例を示すフローチャートである。この図では、機能的なステップを特定の順序で示しているが、これは、例示を目的としており、該プロセスは、任意の特定の順番やステップの構成に限定されない。当業者は、この図に描かれた様々なステップを省略したり、再構成したり、組み合わせたり、様々な方法で調整したりすることができることを理解するであろう。
図2を参照すると、ステップ201において、監視下の現場の3次元意味論的レイアウトが、多次元スケーリング(MDS)法によって、まず、生成される。次に、ステップ202において、内容解析による意味論的レイアウトとカメラのネットワークのサイトマップ(即ち、幾何学的情報)とを結合し、3次元没入型環境が生成される。ビデオ監視中、ステップ203において、複数のカメラのネットワークからのビデオストリームの移動オブジェクトが、背景差分によって、検出され、分割され得る。ステップ204において、背景差分モジュールからの出力にある雑音は形態学的オペレータによって任意に除去することが可能である。ステップ205において、モーション追跡モジュールは、雑音除去後のストリームにおける移動する人やオブジェクトを追跡するために動作可能である。ステップ206において、ビデオストリームの前景領域は、局所的なアルファ混合によって強調(ハイライト)され、ビデオストリームにおける誤分割の影響を緩和し、モーション検出結果を伝達することができる。最後に、ステップ207において、処理されたビデオストリームは、テクスチャマッピングによって、没入型3次元環境に統合されて、様々なカメラからのビデオストリームの空間分布を示し、ユーザがユーザナビゲーションインターフェースを介してナビゲートするのを容易にすることができる。ステップ203乃至207は、サイトの監視期間中、連続的に反復され得る。
従来の方法と比較すると、本発明は、少なくとも以下の利点を享受できる。
●内容ベースの配置(プレースメント)アルゴリズムが採用されるので、建物の幾何学的測定を行わなくても、ビデオストリームのみから、3次元マルチストリームビデオ監視モデルを生成することができる。
●前景分割(セグメンテーション)の結果が(一連の画像からのアクションキーフレームを生成するために使用される)局所的アルファ混合によって可視化される。この場合、分割(セグメンテーション)結果については、境界ボックスやオブジェクト輪郭を使用した場合と同量であるが、境界ボックスやオブジェクト輪郭よりも誤分割に対する耐用性が高い。
●ワープしたビデオモードとビルボードビデオモードとを切り替えることができ、画面実領域(スクリーンリアルエステート)を効率的に使用することができる。
●一連の画像を示す単一画像を生成するかわりに、ビデオストリームを見せることにより、ユーザの注意を前景へ向けることができる。
●背景と前景とのいずれに対してもぼけを生じることなく、鮮明な画像を保つことができる。
●内容ベースの配置(プレースメント)アルゴリズムが採用されるので、建物の幾何学的測定を行わなくても、ビデオストリームのみから、3次元マルチストリームビデオ監視モデルを生成することができる。
●前景分割(セグメンテーション)の結果が(一連の画像からのアクションキーフレームを生成するために使用される)局所的アルファ混合によって可視化される。この場合、分割(セグメンテーション)結果については、境界ボックスやオブジェクト輪郭を使用した場合と同量であるが、境界ボックスやオブジェクト輪郭よりも誤分割に対する耐用性が高い。
●ワープしたビデオモードとビルボードビデオモードとを切り替えることができ、画面実領域(スクリーンリアルエステート)を効率的に使用することができる。
●一連の画像を示す単一画像を生成するかわりに、ビデオストリームを見せることにより、ユーザの注意を前景へ向けることができる。
●背景と前景とのいずれに対してもぼけを生じることなく、鮮明な画像を保つことができる。
いくつかの実施形態において、GMM(ガウス混合モデル)ベースの適応背景差分アルゴリズムが、背景差分モジュールによって使用され、ビデオストリームにおける移動オブジェクトを検出し分割することができる。画像の各画素は、RGB色空間のいくつかの(通常3乃至5の)ガウス分布を使用してモデリングされる。これによって、システムは、(風で揺れる木のような)変化しやすい背景をモデリングでき、前景オブジェクトまたは、一時的な、背景の変化によって画素の色が変化した時でも、それまでの背景の色分布をそのまま追跡することができる。画素を前景画素または背景画素としてラベリング(分類)するための決定は、各ガウスのエビデンス全体とその分散(バリアンス)とを評価することによって行われる。背景画素は、前景画素よりエビデンスが多く、分散が低いと仮定される。これは、数学的には、ログ(対数)尤度に対して固定された閾値を設定することに等しい。なぜなら、尤度は、エビデンスと分散との比率であるためである。一定割合に達するまで、正規化スコアを降順に合計することによって、分類は達成される。この割合に達するために要求される全てのガウスカーネル(核)は背景とみなされ、それ以外は、前景としてラベリングされる。GMMベースの移動オブジェクトのモーション検出方法の例示的な出力が、図3Aに示される。
いくつかの実施の形態において、ベイズ(Bayesian)フレームワークが、廊下に沿って移動オブジェクトを追跡すべく構築され得る。該オブジェクトの位置は、ベイズフィルタにおける隠れ変数である。フィルタが観察するのは、廊下の両側のカメラから検出されたモーションブロブのサイズおよび重心である。直観的に、人やオブジェクトが一方から他方へ移動する時、一端のモーションブロブのスケールは連続的に増加し、これにしたがって、モーションブロブのスケールは他端から減少する。複数の移動オブジェクトを追跡する場合、データに関連した問題を取り扱うために識別追跡が使用され得る。人を追跡する場合、顔検出および皮膚色が、追跡(トラッカー)のロバストを高めるために、さらなる観察オブジェクトとして使用され得る。
全体的な照明変化、動的背景、投影、およびスペックルライトを含む要因によって(これらの要因に限定されるものではないが)、背景差分モジュールから得られる結果は、雑音を含み得る。形態学的オペレータは、小さい領域から雑音を除去するように用いられ、小さな孔に埋め込まれる。この後処理の後でさえ、前景または背景の一部に誤分割が見られることもある。
いくつかの実施の形態において、モーション検出ベースのアルファ混合が混合モジュールとして提供され、このようなエラーの影響を緩和し、モーション検出結果を伝達して、ユーザのオブジェクト追跡を支援する。アルファ値は、前景と背景との分割アルゴリズムからの統計、または、オブジェクト(歩行者、顔)検出アルゴリズムの信頼性スコアから、直接的に導かれる。テクスチャマップのアルファチャネルは、テクスチャにおける各画素の透過値を示す。ビデオストリームがテクスチャマップとして示されるので、図3Aに示される前景マスクに基づいて、アルファチャネルにおいて、異なる値が異なる領域に割り当てられ、前景を効果的に強調することができる。アルファ混合の例示的な結果は、図3Bに示される。ユーザは、容易に混合係数を変更し、背景を明るくして、背景の環境を詳しく調べることができる。均一な色で前景を塗ることとは異なり、このような可視化(ビジュアライゼーション)は、一般的に、関心を持たれるオブジェクトである前景オブジェクトの細部をユーザが識別することを支援する。一方、誤分割が生じても、それほどユーザの気を散らさない。これは、テクスチャのある画像領域の明度(illumination)分散に人間の視覚系が鈍感なためである。アルファ値をセットする、より一般的な方法としては、GMMモデルから対数尤度を直接使用することであり、この場合、全ての画素の対数尤度は、まず、[0,255]の範囲に正規化されなければならない。
いくつかの実施形態では、様々なカメラからのビデオストリームの空間分布を示すために、ビデオレンダリングモジュールは、テクスチャマッピングによって、処理されたビデオストリームを没入型3次元環境に置くことができる。カメラの幾何学的情報が既知である場合、カメラ画像の位置に基づいて図4の3次元レイアウトのスナップショットの例によって示されるように、ビデオストリームは、対応するカメラの検知平面における複数の表示としてレンダリングされ得る。
しかしながら、カメラの検知平面は、このカメラがフォーカスされる場所を適切に示さないかもしれない。例えば、廊下の各端部に取り付けられた2台のカメラが通路全体をカバーする場合、理想的には、これらのカメラの対応する物理的な位置において捕捉されたビデオストリームをペーストすることがより好ましい。しかしながら、本発明はこれに限定されるものではない。内容ベースの表示配置の構想は、2台のカメラが互いに遠くに離間されて取り付けられても、(恐らく異なる視点から)同じシーンを見ている2台のカメラからのビデオストリームが、空間的には近接してレンダリングされるべきであるというものである。異なるカメラからの視野間の類似性を決定するために、日常のオフィス活動のビデオストリームを収集し、フレーム毎にモーションの量を検出することができる。400フレームの短分割における9台のカメラにわたるモーション検出の結果の例が図5Aに示されている。異なるカメラ間の相関関係が対のカメラの類似性として使用されることができ、カメラ間の相関マトリックスの例が図5Bに示されている。
いくつかの実施形態において、各カメラの視点(ビュー)が高次元空間のある点であると仮定した場合、これらのカメラの視点(ビュー)の低次元多様体を見つけるために、内容解析モジュールによって、多次元スケーリング(MDS)法が使用され得る。より詳細には、該多様体が2次元となるようにすることによって、異なるカメラからのビデオストリーム間の類似性の関係を最適に保護する2次元レイアウトを見つけることができる。このレイアウトがカメラの視点(ビュー)の実際のレイアウトと同じであることが望ましい(このレイアウトが、カメラが取り付けられている物理的位置とは異なることに注目されたい)。しかしながら、配向が制限されないので、MDS法の解は、同一トポロジーのフリップまたは回転バージョンであってもよい。MDSによるカメラからのビデオストリームの内容に基づいた3次元レイアウトのスナップショットの例が図6に示されている。
いくつかの実施の形態において、カメラの物理的な位置は、内容ベースのシーン解析に組み合わされてもよい。ユーザは、3次元レイアウト生成モジュールを介して、好みに応じて、組み合わせの重み付けを調節することができる。そして、カメラの画像平面とカメラからのビデオストリームの内容との組み合わせに基づいた3次元レイアウトの例が図7に示されるように、レイアウトは、完全内容ベースから完全幾何学的情報(ジオメトリ)ベースへとシームレス(継ぎ目なし)に移行することができる。ビデオストリームの表示は、図4のビデオストリームと図6のビデオストリームとの表示の間のどこかに配置される。システムは、画面の使用率を最大化するためにビルボードモードへ切り替えることもでき、図8において3次元レイアウトのスナップショットの例が示されているように、これらの表示の配向は全て画面に対して常に平行である。
多くのバーチャルリアリティ(VR)システムにおいて、マウスドラッグ(フライスルー(鳥瞰的視点))によるナビゲーションは、一つの視点(ビュー)から他の視点(ビュー)への速攻切替には効果的ではない。しかしながら、ユーザは、監視システムにおいて、不適当なアクティビティ(動作)を有するシーンの吟味(スクルーティニィ、凝視)のために、常に、特定の視点(ビュー)へズームインする必要がある。このタスクを容易にするために、本発明は、ビデオ表示がマッピングされる多角形をダブルクリックすることによって特定のビデオ表示の最良の視点へ切り替えるために、レンダリングモジュールによってユーザへインターフェースを提供することができる。これらの視点(ビュー)は、システムのセットアップ中にプリセットされてもよいし、ユーザによって指定されてもよい。ビデオ表示に提示される二つの視点(ビュー)の例が、それぞれ、図9Aと図9Bに示されている。
いくつかの実施の形態において、ユーザは、モーション追跡モジュールによって報告された追跡の結果に基づいた没入型環境でナビゲートすることができる。ユーザは、まず、ある人物に対応するアバターをダブルクリックすることによって、当該人物を追跡の対象とする歩行者として選ぶ。対象とした歩行者が移動している場合、対象とした人物の最適な視点(ビュー)を有する表示に最大の画面解像度が付与されるとともに、画面のそれ以外の部分において示されるモデルや他の表示が没入型環境の知覚をユーザに与えることができるように、ユーザの視点(ビュー)はその人物を追う。対象が移動している場合の視点(ビュー)のシーケンスの例が、図10A乃至図10Gに示される。
いくつかの実施の形態において、以下の少なくとも2つの方法においてユーザの追跡結果が可視化される。
●アルファ混合によって前景領域を強調(ハイライト)する。:
この可視化(ビジュアライゼーション)は、オブジェクト位置を含む困難な決定を必要としない。従って、自動前景分割アルゴリズムによって生じるエラーに対して耐用性が増す。0.4にセットされたアルファ混合値を有する3次元環境での可視化(ビジュアライゼーション)の例が図11に示されている。
●追跡されたオブジェクトの位置においてアバターを描画する。:
この種の可視化(ビジュアライゼーション)は、オブジェクトの3次元位置の追跡を含む。建物に関する十分な幾何学的情報があれば、廊下の経線に沿った1次元追跡に低減することができる。バウンディングボックスのスケール(サイズ)は、最も重要な点(観察結果)である。カメラの捕捉レートが十分に高い場合、ユーザは、移動する歩行者の位置を追跡するために、単純な動的モデルを使用することができる。対象毎に追跡(トラッカー)を登録し、歩行者がそのシーンに関係する(インタラクトする)場合に、該追跡を切り替え、分割し、あるいは併合するために、識別可能なデータ関連技術を使用することができる。
●アルファ混合によって前景領域を強調(ハイライト)する。:
この可視化(ビジュアライゼーション)は、オブジェクト位置を含む困難な決定を必要としない。従って、自動前景分割アルゴリズムによって生じるエラーに対して耐用性が増す。0.4にセットされたアルファ混合値を有する3次元環境での可視化(ビジュアライゼーション)の例が図11に示されている。
●追跡されたオブジェクトの位置においてアバターを描画する。:
この種の可視化(ビジュアライゼーション)は、オブジェクトの3次元位置の追跡を含む。建物に関する十分な幾何学的情報があれば、廊下の経線に沿った1次元追跡に低減することができる。バウンディングボックスのスケール(サイズ)は、最も重要な点(観察結果)である。カメラの捕捉レートが十分に高い場合、ユーザは、移動する歩行者の位置を追跡するために、単純な動的モデルを使用することができる。対象毎に追跡(トラッカー)を登録し、歩行者がそのシーンに関係する(インタラクトする)場合に、該追跡を切り替え、分割し、あるいは併合するために、識別可能なデータ関連技術を使用することができる。
このような環境は、一般的なパトロールのために全ての領域の鳥瞰的な視点(ビュー)をユーザに提供することができ、複数の移動する人間やオブジェクトを、全てのカメラにわたって、ユーザが容易に追跡することができるようにする。いかなる異常な事象(イベント)の際も、ユーザは、アクティビティの最良の視点(ビュー)に素早くズームすることができ、デスクトップモニタの最高の解像度においてその領域をじっくり観察することができる。人間やオブジェクトが1台のカメラの視点(ビュー)から外れた時、システムは近隣のカメラからのビデオストリームにおいてそれを捜索し、あるいは、CG環境を鳥瞰的視野から(フライスルー)追跡する。
いくつかの実施形態において、歩行者検出器が新しい移動オブジェクトを検出することによって、追跡(トラッカー)は開始され得る。合理的に作動し前景分割に依存しない、アダブースト(ADaBoost)ベース検出器などの、シングルフレーム歩行者検出器が使用され得る。
本発明の一実施の形態は、コンピュータ技術における当業者に明確であるように、本発明の開示の教示によってプログラムされた従来の汎用または専用のデジタルコンピュータまたはマイクロプロセッサを用いて好適に実現されてもよい。また、当業者に容易に理解されるように、本発明は、汎用または特定用途の集積回路の作成や従来のコンポーネント回路の適切なネットワークの相互接続によって実現されてもよい。
本発明の一実施の形態は、本明細書中に提示された任意の機能を実行するために、コンピュータをプログラムするために使用され得るインストラクションを記憶した記憶媒体であるコンピュータプログラムプロダクトを含む。この機械可読媒体は、フロッピー(登録商標)ディスク、光学ディスク、DVD、CD−ROM、マイクロドライブ及び磁気光学ディスク、ROM、EPROM、EEPROM、DRAM、VRAM、フラッシュメモリデバイス、磁気的または光学的カード、ナノシステム(分子メモリICを含む)を含む任意のタイプの1以上のディスクを含んでもよく、インストラクションやデータの記憶に適する任意のタイプの複数の媒体またはデバイスを含んでもよい。しかしながら、本発明はこれらに限定されるものではない。コンピュータ可読媒体のいずれか1つに記憶された状態で、本発明は、汎用コンピュータ・専用コンピュータまたはマイクロプロセッサの両方のハードウェアをコントロールするとともに、本発明の結果を活用して、コンピュータまたはマイクロプロセッサがヒューマンユーザまたは他のメカニズムとインタラクションするのを可能とするためのソフトウェアを含む。このようなソフトウェアは、デバイスドライバ、オペレーティングシステム、実行環境やコンテナ、及びアプリケーションを含んでいてもよいが、これに限定されるものではない。
上述された本発明の好ましい実施の形態についての説明は、例示及び説明のみを目的として成されているのであって、これらに本発明のすべてを網羅すること、あるいは、本明細書中に開示された通りの形態に本発明を限定することを意図するものではない。多数の変更及び変形が可能であることは当業者に明らかである。具体的には、「インターフェース」についてのコンセプトが上記に説明されたシステムおよび方法の実施の形態において使用されているが、このようなコンセプトが、ビーン、クラス、メソッド、タイプ、コンポーネント、オブジェクトモデル、および他の好適なコンセプトと同等のコンセプトと互換性をもって使用され得ることが明白である。実施の形態は、本発明の原則とその実践的な応用とを最も良好に説明するために選択され記述されたものであり、他の当業者がこれによって考案される特別な用途に適した種々の変更を行いつつ、種々の実施の形態による本発明を理解することを可能とする。本発明の範囲は、請求の範囲及びそれらと同等のものによって定義付けられることを意図する。
なお、本願明細書の開示内容の一部には、著作権保護を受けるべき事柄が含まれる。特許庁の特許ファイルや記録において明らかであるように、何人かによって特許書類もしくは特許開示が複写されることに、著作権所有者は異議を唱えない。しかしながら、これらの場合以外は、すべての著作権を保持する。
100: 3次元マルチカメラビデオ監視システム
101: 内容解析モジュール
102: 3次元レイアウト生成モジュール
103: 背景差分モジュール
104: 形態学的オペレータ
105: モーション追跡モジュール
106: 混合モジュール
107: レンダリングモジュール
108: ユーザナビゲーションインターフェース
109: ビデオ表示装置
101: 内容解析モジュール
102: 3次元レイアウト生成モジュール
103: 背景差分モジュール
104: 形態学的オペレータ
105: モーション追跡モジュール
106: 混合モジュール
107: レンダリングモジュール
108: ユーザナビゲーションインターフェース
109: ビデオ表示装置
Claims (20)
- 3次元マルチカメラビデオナビゲーションを支援するシステムであって、
監視下にある現場の3次元意味論的レイアウトを生成するために動作可能な内容解析モジュールと、
複数のカメラからのビデオストリームと前記3次元意味論的レイアウトとを3次元没入型環境に統合し、ユーザナビゲーションインターフェースの複数の表示において該ビデオストリームをレンダリングするために動作可能なレンダリングモジュールと、
複数の前記表示の各々の複数の視点から視点を選択すること、及び、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、ビデオストリームにおける移動オブジェクトを追跡すること、の少なくとも一方を、ユーザに実行させるために動作可能なユーザナビゲーションインターフェースと、
を含む、3次元マルチカメラビデオナビゲーション支援システム。 - 前記複数のカメラのサイトマップと前記意味論的レイアウトとを組み合わせるために動作可能な3次元レイアウト生成モジュールをさらに含む、請求項1に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 前記ユーザナビゲーションインターフェースは、さらに、内容ベースモード及び幾何ベースモードの間で、ユーザをシームレスに移行させるために動作可能である、請求項2に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 前記ビデオストリームにおける移動オブジェクトを検出及び分割するために動作可能な背景差分モジュールと、
前記背景差分モジュールからのビデオストリームにおける雑音を除去するために動作可能な形態学的オペレータと、
前記ビデオストリームにおける移動オブジェクトを追跡するために動作可能なモーション追跡モジュールと、
アルファ混合によって前記ビデオストリームの前景領域を強調するために動作可能な混合モジュールと、
の少なくとも1つをさらに含む、請求項1に記載の3次元マルチカメラビデオナビゲーション支援システム。 - 前記混合モジュールが、前景や背景の分割方法による統計と、オブジェクト検出方法による信頼性スコアと、の少なくとも1つからアルファ値を直接的に導くために動作可能である、請求項4に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 前記移動オブジェクトが人間及び人間の顔の少なくとも一方である、請求項1に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 前記内容解析モジュールが、多次元スケーリングによって意味論的レイアウトを生成するために動作可能である、請求項1に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 前記レンダリングモジュールが、テクスチャマッピングによって、前記3次元没入型環境に前記ビデオストリームを統合するために動作可能である、請求項1に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 前記レンダリングモジュールが、さらに、前記ユーザナビゲーションインターフェースにおいて、常に、画面と平行に複数の表示の向きをレンダリングするために動作可能である、請求項1に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 前記ユーザナビゲーションインターフェースが、さらに、前記移動オブジェクトの位置をユーザに追跡させるために動作可能である、請求項1に記載の3次元マルチカメラビデオナビゲーション支援システム。
- 3次元マルチカメラビデオのナビゲーションを支援する方法であって、
監視下にある現場の3次元意味論的レイアウトを生成し、
前記3次元意味論的レイアウトと複数のカメラからのビデオストリームとを、3次元没入型環境に統合し、
ユーザナビゲーションインターフェースの複数の表示において前記ビデオストリームをレンダリングし、
複数の前記表示の各々の複数の視点から視点を選択すること、及び、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、ビデオストリームにおける移動オブジェクトを追跡すること、の少なくとも一方を、前記ユーザナビゲーションインターフェースを介して実行する、
3次元マルチカメラビデオナビゲーション支援方法。 - 前記複数のカメラのサイトマップと前記意味論的レイアウトとを組み合わせることをさらに含む、請求項11に記載の3次元マルチカメラビデオナビゲーション支援方法。
- さらに、前記ユーザナビゲーションインターフェースを介して、内容ベースモード及び幾何ベースモードの間をシームレスに移行する、請求項12に記載の3次元マルチカメラビデオナビゲーション支援方法。
- 背景差分によって前記ビデオストリームにおける移動オブジェクトを検出及び分割すること、
形態学的オペレーションによって前記ビデオストリームにおける雑音を除去すること、
前記ビデオストリームにおける移動オブジェクトを追跡すること、
アルファ混合によって前記ビデオストリームの前景領域を強調すること、
の少なくとも1つをさらに含む、請求項11に記載の3次元マルチカメラビデオナビゲーション支援方法。 - 前景や背景の分割方法による統計と、オブジェクト検出方法による信頼性スコアと、の少なくとも1つからアルファ値を直接的に導くことをさらに含む、請求項14に記載の3次元マルチカメラビデオナビゲーション支援方法。
- 多次元スケーリングによって意味論的レイアウトを生成すること、
テクスチャマッピングによって前記ビデオストリームを3次元没入型環境に統合すること、
の少なくとも一方をさらに含む、請求項11に記載の3次元マルチカメラビデオナビゲーション支援方法。 - 前記ユーザナビゲーションインターフェースにおいて、常に、画面と平行に複数の表示の向きをレンダリングする、ことをさらに含む請求項11に記載の3次元マルチカメラビデオナビゲーション支援方法。
- 前記ユーザナビゲーションインターフェースを介して移動オブジェクトの位置を追跡する、ことをさらに含む請求項11に記載の3次元マルチカメラビデオナビゲーション支援方法。
- 3次元マルチカメラビデオのナビゲーションを支援するプログラムであって、
監視下にある現場の3次元意味論的レイアウトを生成するステップと、
複数のカメラからのビデオストリームと意味論的レイアウトとを3次元没入型環境に統合するステップと、
ユーザナビゲーションインターフェースの複数の表示において前記ビデオストリームをレンダリングするステップと、
複数の前記表示の各々の複数の視点から視点を選択することと、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、前記ビデオストリームにおける移動オブジェクトを追跡することと、の少なくとも一方を、ユーザナビゲーションインターフェースを介して実行するステップと、
を、コンピュータに実行させる3次元マルチカメラビデオナビゲーション支援プログラム。 - 3次元マルチカメラビデオのナビゲーションを支援するためのシステムであって、
監視下にある現場の3次元意味論的レイアウトを生成する手段と、
複数のカメラからのビデオストリームと前記3次元意味論的レイアウトとを3次元没入型環境に統合する手段と、
ユーザナビゲーションインターフェースの複数の表示に前記ビデオストリームをレンダリングする手段と、
複数の前記表示の各々の複数の視点から視点を選択することと、オブジェクトの最良の視点を有する複数の表示において、表示の最大画面解像度で、前記ビデオストリームにおける移動オブジェクトを追跡することと、の少なくとも一方を、ユーザナビゲーションインターフェースを介して実行する手段と、
を含む、3次元マルチカメラビデオナビゲーション支援システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/220,730 US7944454B2 (en) | 2005-09-07 | 2005-09-07 | System and method for user monitoring interface of 3-D video streams from multiple cameras |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007080262A true JP2007080262A (ja) | 2007-03-29 |
Family
ID=37829670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006241057A Pending JP2007080262A (ja) | 2005-09-07 | 2006-09-06 | 3次元マルチカメラビデオナビゲーション支援システム、3次元マルチカメラビデオナビゲーション支援方法、3次元マルチカメラビデオナビゲーション支援プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7944454B2 (ja) |
JP (1) | JP2007080262A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013506342A (ja) * | 2009-09-29 | 2013-02-21 | インテル・コーポレーション | 異種のコンテンツソースの関連付け |
JP2013211740A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像監視装置 |
JP2013211739A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像監視装置 |
JP2013211741A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像監視装置 |
US11356632B2 (en) | 2018-02-07 | 2022-06-07 | Fujifilm Business Innovation Corp. | Display-information generating apparatus, information processing apparatus, and imaging system |
WO2024144304A1 (ko) * | 2022-12-30 | 2024-07-04 | 씨제이올리브네트웍스 주식회사 | 뉴럴 렌더링 기반의 3차원 가상공간 생성 방법 및 이를 위한 서버 |
Families Citing this family (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8396328B2 (en) * | 2001-05-04 | 2013-03-12 | Legend3D, Inc. | Minimal artifact image sequence depth enhancement system and method |
US8897596B1 (en) | 2001-05-04 | 2014-11-25 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with translucent elements |
US9031383B2 (en) | 2001-05-04 | 2015-05-12 | Legend3D, Inc. | Motion picture project management system |
US8401336B2 (en) | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
US8121361B2 (en) | 2006-05-19 | 2012-02-21 | The Queen's Medical Center | Motion tracking system for real time adaptive imaging and spectroscopy |
DE102007024868A1 (de) * | 2006-07-21 | 2008-01-24 | Robert Bosch Gmbh | Bildverarbeitungsvorrichtung, Überwachungssystem, Verfahren zur Erzeugung eines Szenenreferenzbildes sowie Computerprogramm |
US8049748B2 (en) | 2007-06-11 | 2011-11-01 | Honeywell International Inc. | System and method for digital video scan using 3-D geometry |
US9398266B2 (en) * | 2008-04-02 | 2016-07-19 | Hernan Carzalo | Object content navigation |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US9247286B2 (en) * | 2009-12-31 | 2016-01-26 | Broadcom Corporation | Frame formatting supporting mixed two and three dimensional video data communication |
US8823782B2 (en) | 2009-12-31 | 2014-09-02 | Broadcom Corporation | Remote control with integrated position, viewer identification and optical and audio test |
US8854531B2 (en) * | 2009-12-31 | 2014-10-07 | Broadcom Corporation | Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display |
US8964013B2 (en) * | 2009-12-31 | 2015-02-24 | Broadcom Corporation | Display with elastic light manipulator |
BR112012024415A2 (pt) * | 2010-03-26 | 2017-08-08 | Fortem Solutions Inc | método e sistema para navegar por uma pluralidade de câmeras e controle cooperativo de câmeras |
US9604142B2 (en) | 2010-08-26 | 2017-03-28 | Blast Motion Inc. | Portable wireless mobile device motion capture data mining system and method |
US9940508B2 (en) | 2010-08-26 | 2018-04-10 | Blast Motion Inc. | Event detection, confirmation and publication system that integrates sensor data and social media |
US9646209B2 (en) | 2010-08-26 | 2017-05-09 | Blast Motion Inc. | Sensor and media event detection and tagging system |
US8903521B2 (en) | 2010-08-26 | 2014-12-02 | Blast Motion Inc. | Motion capture element |
US9261526B2 (en) | 2010-08-26 | 2016-02-16 | Blast Motion Inc. | Fitting system for sporting equipment |
US9626554B2 (en) | 2010-08-26 | 2017-04-18 | Blast Motion Inc. | Motion capture system that combines sensors with different measurement ranges |
US9235765B2 (en) | 2010-08-26 | 2016-01-12 | Blast Motion Inc. | Video and motion event integration system |
US9401178B2 (en) | 2010-08-26 | 2016-07-26 | Blast Motion Inc. | Event analysis system |
US9076041B2 (en) | 2010-08-26 | 2015-07-07 | Blast Motion Inc. | Motion event recognition and video synchronization system and method |
US9418705B2 (en) | 2010-08-26 | 2016-08-16 | Blast Motion Inc. | Sensor and media event detection system |
US9320957B2 (en) | 2010-08-26 | 2016-04-26 | Blast Motion Inc. | Wireless and visual hybrid motion capture system |
US8941723B2 (en) | 2010-08-26 | 2015-01-27 | Blast Motion Inc. | Portable wireless mobile device motion capture and analysis system and method |
US8905855B2 (en) | 2010-08-26 | 2014-12-09 | Blast Motion Inc. | System and method for utilizing motion capture data |
US8994826B2 (en) | 2010-08-26 | 2015-03-31 | Blast Motion Inc. | Portable wireless mobile device motion capture and analysis system and method |
US9039527B2 (en) | 2010-08-26 | 2015-05-26 | Blast Motion Inc. | Broadcasting method for broadcasting images with augmented motion data |
US8827824B2 (en) | 2010-08-26 | 2014-09-09 | Blast Motion, Inc. | Broadcasting system for broadcasting images with augmented motion data |
US9247212B2 (en) | 2010-08-26 | 2016-01-26 | Blast Motion Inc. | Intelligent motion capture element |
US9396385B2 (en) | 2010-08-26 | 2016-07-19 | Blast Motion Inc. | Integrated sensor and video motion analysis method |
US9406336B2 (en) | 2010-08-26 | 2016-08-02 | Blast Motion Inc. | Multi-sensor event detection system |
US9607652B2 (en) | 2010-08-26 | 2017-03-28 | Blast Motion Inc. | Multi-sensor event detection and tagging system |
US9619891B2 (en) | 2010-08-26 | 2017-04-11 | Blast Motion Inc. | Event analysis and tagging system |
US8944928B2 (en) | 2010-08-26 | 2015-02-03 | Blast Motion Inc. | Virtual reality system for viewing current and previously stored or calculated motion data |
US8702516B2 (en) | 2010-08-26 | 2014-04-22 | Blast Motion Inc. | Motion event recognition system and method |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8570320B2 (en) | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8730232B2 (en) | 2011-02-01 | 2014-05-20 | Legend3D, Inc. | Director-style based 2D to 3D movie conversion system and method |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9113130B2 (en) | 2012-02-06 | 2015-08-18 | Legend3D, Inc. | Multi-stage production pipeline system |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
CN102254338B (zh) * | 2011-06-15 | 2012-11-28 | 西安交通大学 | 基于最大化可视信息的三维场景最佳视角自动获取方法 |
WO2013032933A2 (en) | 2011-08-26 | 2013-03-07 | Kinecticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US8913134B2 (en) | 2012-01-17 | 2014-12-16 | Blast Motion Inc. | Initializing an inertial sensor using soft constraints and penalty functions |
GB2506338A (en) | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
US9007365B2 (en) | 2012-11-27 | 2015-04-14 | Legend3D, Inc. | Line depth augmentation system and method for conversion of 2D images to 3D images |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9007404B2 (en) | 2013-03-15 | 2015-04-14 | Legend3D, Inc. | Tilt-based look around effect image enhancement method |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9420237B2 (en) * | 2013-07-09 | 2016-08-16 | Globalfoundries Inc. | Insight-driven augmented auto-coordination of multiple video streams for centralized processors |
CN103716586A (zh) * | 2013-12-12 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 一种基于三维空间场景的监控视频融合系统和方法 |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
US10217003B2 (en) | 2014-04-10 | 2019-02-26 | Sensormatic Electronics, LLC | Systems and methods for automated analytics for security surveillance in operation areas |
US11093545B2 (en) | 2014-04-10 | 2021-08-17 | Sensormatic Electronics, LLC | Systems and methods for an automated cloud-based video surveillance system |
US9407879B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated cloud-based analytics and 3-dimensional (3D) playback for surveillance systems |
US9420238B2 (en) | 2014-04-10 | 2016-08-16 | Smartvue Corporation | Systems and methods for automated cloud-based 3-dimensional (3D) analytics for surveillance systems |
US9407880B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated 3-dimensional (3D) cloud-based analytics for security surveillance in operation areas |
US10084995B2 (en) | 2014-04-10 | 2018-09-25 | Sensormatic Electronics, LLC | Systems and methods for an automated cloud-based video surveillance system |
US10057546B2 (en) | 2014-04-10 | 2018-08-21 | Sensormatic Electronics, LLC | Systems and methods for automated cloud-based analytics for security and/or surveillance |
US9405979B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems |
US9407881B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated cloud-based analytics for surveillance systems with unmanned aerial devices |
US9686514B2 (en) | 2014-04-10 | 2017-06-20 | Kip Smrt P1 Lp | Systems and methods for an automated cloud-based video surveillance system |
US9426428B2 (en) | 2014-04-10 | 2016-08-23 | Smartvue Corporation | Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems in retail stores |
US11120274B2 (en) | 2014-04-10 | 2021-09-14 | Sensormatic Electronics, LLC | Systems and methods for automated analytics for security surveillance in operation areas |
CN106714681A (zh) | 2014-07-23 | 2017-05-24 | 凯内蒂科尔股份有限公司 | 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法 |
US9844723B2 (en) * | 2014-07-25 | 2017-12-19 | Zynga Inc. | In-browser emulation of multiple technologies to create consistent visualization experience |
US10974121B2 (en) | 2015-07-16 | 2021-04-13 | Blast Motion Inc. | Swing quality measurement system |
US10124230B2 (en) | 2016-07-19 | 2018-11-13 | Blast Motion Inc. | Swing analysis method using a sweet spot trajectory |
US11565163B2 (en) | 2015-07-16 | 2023-01-31 | Blast Motion Inc. | Equipment fitting system that compares swing metrics |
US9694267B1 (en) | 2016-07-19 | 2017-07-04 | Blast Motion Inc. | Swing analysis method using a swing plane reference frame |
US11577142B2 (en) | 2015-07-16 | 2023-02-14 | Blast Motion Inc. | Swing analysis system that calculates a rotational profile |
CN108369646B (zh) | 2015-07-16 | 2021-10-15 | 博拉斯特运动有限公司 | 多传感器事件检测和标记系统 |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN105516656B (zh) * | 2015-11-27 | 2018-08-10 | 上海博康智能信息技术有限公司 | 一种物品实况查看方法和系统 |
CN105678748B (zh) * | 2015-12-30 | 2019-01-15 | 清华大学 | 三维监控系统中基于三维重构的交互式标定方法和装置 |
US10265602B2 (en) | 2016-03-03 | 2019-04-23 | Blast Motion Inc. | Aiming feedback system with inertial sensors |
US20180121729A1 (en) * | 2016-11-02 | 2018-05-03 | Umbo Cv Inc. | Segmentation-based display highlighting subject of interest |
US10786728B2 (en) | 2017-05-23 | 2020-09-29 | Blast Motion Inc. | Motion mirroring system that incorporates virtual environment constraints |
CN108090944A (zh) * | 2017-12-29 | 2018-05-29 | 深圳多哚新技术有限责任公司 | 一种自适应vr显示方法及装置 |
USD866571S1 (en) * | 2018-01-08 | 2019-11-12 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
US11153492B2 (en) | 2019-04-16 | 2021-10-19 | At&T Intellectual Property I, L.P. | Selecting spectator viewpoints in volumetric video presentations of live events |
US11012675B2 (en) | 2019-04-16 | 2021-05-18 | At&T Intellectual Property I, L.P. | Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations |
US11074697B2 (en) | 2019-04-16 | 2021-07-27 | At&T Intellectual Property I, L.P. | Selecting viewpoints for rendering in volumetric video presentations |
US10970519B2 (en) | 2019-04-16 | 2021-04-06 | At&T Intellectual Property I, L.P. | Validating objects in volumetric video presentations |
CN111415416B (zh) * | 2020-03-31 | 2023-12-15 | 武汉大学 | 一种监控实时视频与场景三维模型融合方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
JP3679487B2 (ja) * | 1996-01-30 | 2005-08-03 | キヤノン株式会社 | 通信装置及び通信方法 |
US6097393A (en) * | 1996-09-03 | 2000-08-01 | The Takshele Corporation | Computer-executed, three-dimensional graphical resource management process and system |
JP3809309B2 (ja) * | 1999-09-27 | 2006-08-16 | キヤノン株式会社 | カメラ制御システム及びカメラ制御方法及び記憶媒体 |
US6563529B1 (en) * | 1999-10-08 | 2003-05-13 | Jerry Jongerius | Interactive system for displaying detailed view and direction in panoramic images |
US6987883B2 (en) * | 2002-12-31 | 2006-01-17 | Objectvideo, Inc. | Video scene background maintenance using statistical pixel modeling |
US7224735B2 (en) * | 2003-05-21 | 2007-05-29 | Mitsubishi Electronic Research Laboratories, Inc. | Adaptive background image updating |
US20050207617A1 (en) * | 2004-03-03 | 2005-09-22 | Tim Sarnoff | Digital representation of a live event |
US7142209B2 (en) * | 2004-08-03 | 2006-11-28 | Microsoft Corporation | Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid |
US20060233461A1 (en) * | 2005-04-19 | 2006-10-19 | Honeywell International Inc. | Systems and methods for transforming 2d image domain data into a 3d dense range map |
-
2005
- 2005-09-07 US US11/220,730 patent/US7944454B2/en active Active
-
2006
- 2006-09-06 JP JP2006241057A patent/JP2007080262A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013506342A (ja) * | 2009-09-29 | 2013-02-21 | インテル・コーポレーション | 異種のコンテンツソースの関連付け |
JP2013211740A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像監視装置 |
JP2013211739A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像監視装置 |
JP2013211741A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像監視装置 |
US11356632B2 (en) | 2018-02-07 | 2022-06-07 | Fujifilm Business Innovation Corp. | Display-information generating apparatus, information processing apparatus, and imaging system |
WO2024144304A1 (ko) * | 2022-12-30 | 2024-07-04 | 씨제이올리브네트웍스 주식회사 | 뉴럴 렌더링 기반의 3차원 가상공간 생성 방법 및 이를 위한 서버 |
Also Published As
Publication number | Publication date |
---|---|
US7944454B2 (en) | 2011-05-17 |
US20070052807A1 (en) | 2007-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4899729B2 (ja) | 3次元マルチカメラビデオ監視支援システム、3次元マルチカメラビデオ監視支援方法、3次元マルチカメラビデオ監視支援プログラム | |
JP2007080262A (ja) | 3次元マルチカメラビデオナビゲーション支援システム、3次元マルチカメラビデオナビゲーション支援方法、3次元マルチカメラビデオナビゲーション支援プログラム | |
US10977818B2 (en) | Machine learning based model localization system | |
US11132578B2 (en) | System and method for creating navigable views | |
Sugano et al. | Aggregaze: Collective estimation of audience attention on public displays | |
Gauglitz et al. | World-stabilized annotations and virtual scene navigation for remote collaboration | |
US7755608B2 (en) | Systems and methods of interfacing with a machine | |
US20140248950A1 (en) | System and method of interaction for mobile devices | |
Schlattman et al. | Simultaneous 4 gestures 6 dof real-time two-hand tracking without any markers | |
Maugey et al. | Saliency-based navigation in omnidirectional image | |
JPH08322033A (ja) | 画像の中の画素を分類するためのコンピュータユニットの中に色テーブルを形成する方法 | |
Du et al. | Video fields: fusing multiple surveillance videos into a dynamic virtual environment | |
US11893707B2 (en) | Vehicle undercarriage imaging | |
Chao et al. | Augmented 3-D keyframe extraction for surveillance videos | |
Benedek et al. | An integrated 4D vision and visualisation system | |
Chen et al. | A 3-D surveillance system using multiple integrated cameras | |
Du | Fusing multimedia data into dynamic virtual environments | |
Wang et al. | Spatiotemporal coherence-based annotation placement for surveillance videos | |
Iosifidis et al. | A hybrid static/active video surveillance system | |
McClean | An Augmented Reality System for Urban Environments using a Planar Building Fa cade Model | |
Fogelton | Real-time hand tracking using flocks of features | |
Boufarguine et al. | Virtu4D: a Real-time Virtualization of Reality | |
Lee et al. | Space-time slicing: visualizing object detector performance in driving video sequences | |
KR20230053262A (ko) | 2d 현실공간 이미지를 기반의 3d 객체 인식 및 변환 방법과 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
Sebe et al. | Dynamic objects modeling and 3D visualization |