JP2009181138A - コンピュータ・システムにおけるビデオ映像の使用 - Google Patents

コンピュータ・システムにおけるビデオ映像の使用 Download PDF

Info

Publication number
JP2009181138A
JP2009181138A JP2009113078A JP2009113078A JP2009181138A JP 2009181138 A JP2009181138 A JP 2009181138A JP 2009113078 A JP2009113078 A JP 2009113078A JP 2009113078 A JP2009113078 A JP 2009113078A JP 2009181138 A JP2009181138 A JP 2009181138A
Authority
JP
Japan
Prior art keywords
video
frame buffer
display
filter
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009113078A
Other languages
English (en)
Inventor
William C Deleeuw
デリユー,ウィリアム・シイ
Kenneth L Knowlson
クノールソン,ケネス・エル
Bradford H Needham
ニードハム,ブラッドフォード・エイチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2009181138A publication Critical patent/JP2009181138A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

【課題】第1、第2のイメージを重ね合わせて表示する際に、一方のイメージを透明化して表示して、両イメージが見えるようにする。
【解決手段】第1のビデオデータ信号を生成する手段と、第2のビデオデータ信号を生成する手段と、前記第2のビデオデータ信号による第2のイメージがディスプレイ上において前記第1のビデオデータ信号による第1のイメージの上で透明に見えるように、前記第1、第2のイメージのピクセルをインターリービングしてレンダリングする手段と、を設けた。
【選択図】 図2

Description

本件出願書類の一部は、著作権に係る資料を含んでいる。著作権者は、特許商標庁の特許書類あるいは記録として現れる場合であれば、特許書類もしくは特許の開示の第三者による複製を拒絶する理由を持たないが、それ以外は、いかなる場合であってもすべての権利を留保する。
背景
1.分野
本発明は、概してコンピュータ・システムに関し、より具体的に述べれば、コンピュータ・システムに対して入力データを提供するための方法に関する。
2.説明
ユーザからコンピュータ・システムに入力データを伝達するために、多くのテクニックならびにデバイスが開発されてきた。選択したタスクをコンピュータに実行させるためには、キーボード、カーソル移動デバイス(たとえばマウス、トラックボール、およびジョイスティック等)、ペンならびにタブレット、バーコード・スキャナ、およびその他のデバイスが使用されている。ビデオ・カメラを、たとえばパーソナル・コンピュータ(PC)等のコンピュータ・システムに接続する用法も一般的となり、それに伴って新しく興味深い方法でリアルタイムのビデオ・データを使用する機会も現れた。しかしながら、PCにおける最近の多くのアプリケーションは、各種の表示機能に焦点が当てられており、新しい入力パラダイムへの関心は持たれていない。ビデオ・カメラの機能を利用してPCユーザの経験を高め、よりPCを使用容易にすることが有意義であると見られる。
概要
本発明の一実施形態は、ディスプレイを有するシステムであって、ビデオ・データ信号ソースに接続されたシステムに入力信号を提供する方法である。この方法は、ビデオ・ソースによって生成された、シーンを表すビデオ・データ信号を取り込むステップ、当該シーンがディスプレイ上において透明に見えるようにそのシーンをディスプレイ上でレンダリングするステップ、ビデオ・データ信号を解析してシーン内のオブジェクトを検出するステップ、および検出したオブジェクトに応答してシステム用の入力信号を生成するステップからなる。
本発明の特徴ならびに利点は、以下の本発明の詳細な説明から明らかになるであろう。
本発明の一実施形態に従ったビデオ映像を示すサンプル表示の一部を示した概要図である。 本発明の実施形態に従ってオペレーティング・システム出力グラフィックス・データとともに表示される透明なグラフィックス・データの例を図示した概要図である。 本発明の実施形態に従った透明化の方法を用いたプログラミングに適したサンプル・コンピュータ・システムを示したブロック図である。 本発明の一実施形態に従って透明グラフィックスをインプリメントするためのソフトウエアならびにハードウエア・スタックを示した概要図である。 本発明の一実施形態に従って透明グラフィックスを提供するために使用される複数のフレーム・バッファを示した概要図である。 本発明の一実施形態に従って透明グラフィックス・フレーム・バッファとオペレーティング・システム出力フレーム・バッファの間における、ピクセルを交番させるテクニックを用いた混合を示した概要図である。 本発明の一実施形態に従ってシステムを初期化し、透明グラフィックスを提供する処理を示したフローチャートである。 本発明の一実施形態に従った二重バッファ・コントロール処理を示したフローチャートである。 本発明の一実施形態に従った色混合およびインターリーブの処理を示したフローチャートである。 本発明の一実施形態に従ったビデオ映像入力テクニックを提供するアプリケーション・プログラムのコンポーネントを示した概要図である。 本発明の一実施形態に従ったフィルタ・グラフを示した概要図である。 本発明の一実施形態に従ったフィルタ初期化の処理を示したフローチャートである。 本発明の一実施形態に従ったハンドル入力イベントの処理を示したフローチャートである。 本発明の一実施形態に従った有効な入力イベントを検出するための処理を示したフローチャートである。 本発明の一実施形態に従った透明化を伴うビデオ・レンダラの処理スレッドを示したフローチャートである。 本発明の一実施形態に従った透明混合コアの処理スレッドを示したフローチャートである。
詳細な説明
以下の説明においては、本発明の各種の側面を説明する。ここでは例示を目的とすることから、本発明の完全な理解に資するため具体的な数、システムならびにコンフィグレーションを示している。しかしながら、当業者であれば、これらの具体的な詳細とは別に本発明を実施し得ることは明らかであろう。他方、周知の特徴については、本発明の不明瞭化を回避するため、省略ないしは簡略化して示している。
本発明の一実施形態は、たとえばPC等のコンピュータ・システムにユーザ入力データ信号を提供するための方法である。リアルタイム・ビデオ・イメージは、PCに接続されたビデオ・カメラによって取り込むか、別のビデオ・データ信号ソースから受け取り、取り込んだビデオ・イメージが透明となってディスプレイ上に表示されるように、PCのスクリーン全体に対してそのレンダリングを行う。ビデオ・データ信号は、通常のフォアグラウンド表示イメージを不明瞭にしない形において通常のアプリケーション・プログラムならびにオペレーティング・システム・ソフトウエアの表示出力データと混合することができる。結果として得られる効果は、ビデオ・カメラがユーザに向けられたとき、ユーザ自身を映したイメージがコンピュータ・スクリーンに映り、それと同時にユーザは、デスクトップのアイコンまたはアプリケーション・プログラム表示といったその他の表示エレメントを見ながら、かつそれと対話することが可能になる。この映されたイメージは透明であることから、他の表示エレメントの表示と干渉することがない。
ここでは、ビデオ・カメラに関連して本発明の実施形態のいくつかを説明しているが、これに関して本発明がそのような形に限定されることはない。別の実施形態においては、ビデオ・データ信号ソースを、たとえばビデオ・カセット・レコーダ(VCR)、テレビジョン放送信号、あるいは以前ストアしたビデオ・データ信号等の任意のビデオ・ソースとすることができる。
本発明のいくつかの実施形態における1つの特徴は、ユーザが、ユーザ自身の映像またはイメージを、それがビデオ・カメラによって取り込まれた後、コンピュータ・スクリーン上で見ることができるとういうものである。このビデオ映像を使用するユーザは、ビデオ・カメラの視野内に存在する現実のオブジェクト(たとえばユーザの手および指等)を物理的に動かすことによって、コンピュータ・システムのグラフィカル・ユーザ・インターフェース(GUI)の、アプリケーション・プログラムおよびオペレーティング・システムの表示エレメントと対話が可能になる。本発明のいくつかの実施形態における入力能力は、現存するアプリケーション・プログラムに対する修正をまったく必要とすることなく与えることができる。本発明の実施形態においては、これらの動きが、アイコンもしくはその他のアプリケーション・プログラム・エレメントの把持または選択といったコンピュータ・システム内のアクション、つまり現在ユーザがマウスまたはその他の選択用デバイスを用いて行っているアクションの割り当てに使用される。ユーザが映されたイメージを観察しながら希望の結果を得るために行うこの物理的な動きのアクティビティは、ユーザにとって非常に自然であり、かつ直感的である。たとえば、ユーザは、鏡に映されたユーザ自身の鏡像を頻繁に見ながら、それをあまり意識せずに、たとえば手を使って物体を操作することがある。それに加えて、ユーザにとって、通常、映された鏡像を見ながら利き腕もしくは逆の腕、または両腕を使用して操作を行うことは容易である。別の実施形態においては、あらかじめ決定された具体的な小道具がコンピュータ内のアクションを割り当てるためのオブジェクトとして使用される。これらの小道具には、能動的または非能動的のものが考えられる。能動的な小道具は、機械的あるいは電気的メカニズムを包含し、たとえば発光ダイオード(LED)ライトを備える。非能動的な小道具には、たとえば色付けしたスティックまたはパドル、布きれ、および色付けしたグローブ等のアイテムになるが、これに関して本発明が限定されることはない。
本発明のいくつかの実施形態は、コンピュータにおけるマウスの使用と完全に置換し得ないと見られるが、コンピュータ・システムにユーザ入力を与える強力かつ新しいパラダイムとなる。特に、本発明によって、現実のオブジェクトを動かしてコンピュータの表示オブジェクトを操作するという自然であり、直接的な方法が提供される。各種タイプのアプリケーション・プログラムは、この入力パラダイムを利用すべく拡張されることになろう。たとえば、コンピュータ・ゲームにおいてビデオ映像を通じたユーザ入力を使用することにより、ユーザ・インタラクションが向上すると考えられる。ユーザがビデオ表示データの選択エリアをポイントするといった動作のあるビデオ・プレゼンテーション・システムは、より使用が容易になる。追加の入力機能を与えるようにテレビ会議アプリケーションを拡張することもできる。PC/テレビジョン(TV)の組み合わせにおいて、特にユーザとディスプレイの間の距離が比較的大きい場合に、この入力能力を使用してもよい。多くのユーザにとって、たとえば子供にとっては、現実のオブジェクトを(たとえばユーザ自身の手を使って)操作し、コンピュータに入力を送ることの方が、通常の入力デバイスを使用するより直感的なものとなる。
一実施形態においては、PCに送られ、そこで処理ならびに表示が行われるビデオ・データ信号に含まれるピクセルの色を解析し、ユーザの手などの現実のオブジェクトの動きを追跡することができる。これは、ユーザの手または指に付けた色つきのドットの使用を介して、あるいはその他のコンピュータ・ビジョン方式を通じて支援することができる。それに代えて、特定のオブジェクト(たとえば親指および残りの指、またはその他の小道具)の上に他と区別し得る色を載せて、本発明の実施形態におけるコンピュータ・ビジョン・コンポーネントが入力イベント発生器として認識されるようにオブジェクトが分離および識別されるのを補助するようにしてもよい。
一実施形態においては、ユーザの人指し指および親指の動きに従ってPCのマウスのカーソルを動かすことができる。ユーザがユーザ自身の親指と人さし指を合わせて「つまむ」形にすると、取り込まれたビデオ・イメージ内において親指と人さし指のイメージが検出され、マウスを降ろすイベントがオペレーティング・システム・ソフトウエアに導かれる。ユーザがつまむ形にした手を開くと、取り込まれたビデオ・イメージ内において親指と人さし指のポジションおよびそれらのイメージが検出され、マウスを上げるイベントが導かれる。別の実施形態において、特定の入力信号およびイベントを表すこのほかの動きを定義することもできる。
図1は、本発明の一実施形態に従ったビデオ映像を示すサンプル表示の一部を示した概要図である。この例においては、ユーザのイメージがビデオ・カメラによって取り込まれ、透明な態様でディスプレイにレンダリングされている。この状態でユーザは、たとえばアプリケーション・プログラム・アイコン等の表示オブジェクトと対話し、システムに入力信号およびイベントを提供する。
本発明のいくつかの実施形態の基礎となる能力は、コンピュータ・ディスプレイ上にある別の表示データ信号のレイヤの最前面に配置される透明な表示データ信号(たとえば、ビデオ・カメラによって伝えられたビデオ・データ信号等)のレイヤを提供することであり、それによってユーザは、両方のレイヤを明確に、かつ実質的に同時に見ることができる。この能力について、まず一般的な用法を説明し、その後、本発明のいくつかの実施形態における入力検出方法を伴う用法を説明する。透明なウインドウを表示する機能は、アプリケーション・プログラムによる使用のためにディスプレイ上に用意された最大スクリーン・エリアを本質的に2倍にする。一実施形態における透明なコンピュータ・グラフィックス・レイヤを生成する方法の1つは、ビデオ・フレーム・バッファからのピクセルと別のビデオ・フレーム・バッファからのピクセルをインターリーブする(またはパターンを交番させる)ことである。この実施形態においては、第1のフレーム・バッファから選択されたピクセルが、色平均されて第2のフレーム・バッファの対応するピクセルと混合されて、空間多重化のみの使用によってもたらされる「市松模様」効果が抑えられる。それに加えてインターリーブの程度が調整可能であり、また色平均に重み付けを行えば、さらに表示されるイメージの透明度をコントロールすることが可能になる。
この実施形態においては、オペレーティング・システム・ソフトウエアによって使用される出力フレーム・バッファが透明機能の提供によって影響されることがなく、またオペレーティング・システム側では透明オペレーションを意識することがない。つまり、本発明の実施形態によって提供される透明効果は、アプリケーション・プログラムに透明効果を及ぼす事ができるようにアプリケーションプログラムを修正して手を加える必要がない。さらに、アプリケーション・プログラムおよびオペレーティング・システムのウインドウに対する入力オペレーションは、透明なフォアグラウンドの効果によって影響されない。
本発明の一実施形態は、電気信号形式のコンピュータ・グラフィックス出力データまたはビデオ・データ用のフレーム・バッファを少なくとも2つ組み合わせることによって動作する。出力、つまり可視フレーム・バッファのピクセルは、2つの入力フレーム・バッファの内容を空間的にインターリーブすることによって生成される。この実施形態におけるインターリーブは、一方のフレーム・バッファのピクセルと他方のフレーム・バッファのピクセルを合成することによって達成される。この結果、2つのイメージの表示が互いに重ね合った錯視がもたらされる。ピクセルのインターリーブを行うとき、第1のフレーム・バッファのピクセルと第2のフレーム・バッファのピクセルを、それらを配置する直前に色平均する。色平均は、出力フレーム・バッファにインターリーブする前、またはその間に、一方のフレーム・バッファのピクセルと他方のフレーム・バッファのそれに対応するピクセルを平均することによってなされる。その結果、コンピュータ・モニタ等のディスプレイ上に、実質的に同時に見ることができる複数のオーバーラップしたイメージが構成される。
図2は、本発明の実施形態に従って、オペレーティング・システム出力グラフィックス・データとともに表示される透明なグラフィックス・データの例を図示した概要図である。オペレーティング・システム出力フレーム・バッファ10は、図3に示したコンピュータ・システムの現在の表示データをストアするために使用されるメモリ・エリアである。オペレーティング・システム出力フレーム・バッファは、オペレーティング・システムが使用可能な任意のメモリ内に割り当てることができる。フレーム・バッファは、ピクセル・データの2次元配列をストアするためのストレージ・ロケーションのセットである。オペレーティング・システム出力フレーム・バッファは、データ信号の生成およびコンピュータ・モニタ(図示せず)上におけるその表示をコントロールするコンピュータ・システムのオペレーティング・システム・ソフトウエアと関連付けすることができる。一実施形態においては、オペレーティング・システム・ソフトウエアをMicrosoft Corporation(マイクロソフト・コーポレーション)のWindows 95(登録商標;ウインドウズ95)またはWindows NT(登録商標:ウインドウズNT)とするが、それ以外の、グラフィカル・ユーザ・インターフェースをサポートするオペレーティング・システム・ソフトウエアを使用してもよい。この例においては、オペレーティング・システム出力フレーム・バッファ10が、図2においてラベル12、14、および16をそれぞれ付して示した3つのオーバーラップするウインドウに対応するアプリケーション・プログラムの表示データ信号を含んでいる。
透明グラフィックス・フレーム・バッファ18は、続いてオペレーティング・システム出力フレーム・バッファの表示データ信号とともに同時に表示する透明グラフィックスの表示データをストアするために使用されるメモリ・エリアである。このメモリ・エリアは、システム内の使用可能な任意のメモリ内に割り当てることができる。透明グラフィックス・フレーム・バッファ18は、ビデオ・カメラまたはその他のビデオ・データ信号ソースから受け取ったビデオ信号のフレームをストアするために使用される。図2に示した例においては、透明の使用を説明するアプリケーション・プログラム・ディスプレイ形態の表示サンプルとして時計20および株式相場表示22等の表示コンポーネントを示しているが、概して任意の表示コンポーネントを本発明の実施形態の使用を介して透明にすることができる。より具体的に述べれば、本発明の実施形態においては、ディスプレイ上の透明イメージのシーケンスとして、取り込んだビデオ・フレームが表示されることになる。
オペレーティング・システム出力フレーム・バッファと透明グラフィックス・フレーム・バッファの表示コンポーネントは、ブロック24において、それぞれのバッファの選択した対応ピクセルを混合し、同時に色混合オペレーションの結果として得られるピクセルと、オペレーティング・システム出力フレーム・バッファのピクセルをインターリーブすることによって合成され、可視表示バッファ28の表示コンポーネントが形成される。可視表示バッファは、図画形式を用いて表すと、オーバーラップする3つのウインドウ12、14、および16と、これらのウインドウを部分的にオーバーレイする透明表示コンポーネントとして現れる時計20および株式相場表示22となる。この例において、透明表示コンポーネントは、残りの表示コンポーネントを部分的にオーバーレイする。しかしながら、透明表示コンポーネントは、ディスプレイ上における1ないしは複数の不透明ウインドウまたは表示コンポーネントの境界内に完全に含めることができることを理解する必要がある。当然のことながら、特定のアプリケーション・プログラムにおいて、また特定の表示コンポーネントを伴う場合に、一方が実質的にもしくは完全に他方の前面に置かれる2つの表示コンポーネントからのデータの表示が、画質の上での問題をユーザにもたらすこともある。また別のアプリケーション・プログラムにおいては、それにもかかわらず、良好に設計された透明表示コンポーネントをオーバーレイできることが有利かつ望ましいこととなる。
以上に加えて本発明のいくつかの実施形態は、選択されたバックグラウンド・ウインドウに対する入力オペレーションにほとんどもしくはまったく影響を与えない透明表示コンポーネントによるバックグラウンドのウインドウのオーバーレイを可能にする。たとえばユーザは、透明表示コンポーネントが部分的にあるいは完全にバックグラウンド・ウインドウにオーバーレイしている状態において、バックグラウンド・ウインドウに表示されているアプリケーション・プログラムの入力ウインドウと対話することができる。基本的に、オペレーティング・システム・ソフトウエアは、透明表示コンポーネントの表示と実質的な干渉を招くことなく、入力ウインドウに対するユーザ入力イベントまたはキーの打鍵(たとえばマウスのエントリまたはテキストのエントリ等)を受け入れる。
本発明のいくつかの実施形態による透明効果を生成する方法は、表示コンテンツの最小混合を使用している。これは、コンピュータ・モニタ上の隣接ピクセル間を区別し得ないという人間の目の特性を利用している(つまり、人間の目は各ピクセルと近傍のピクセルを平均する)。この方法を用いてピクセルのインターリーブを行ったとき、大型コンピュータ・モニタと低い解像度は「市松模様」効果を生む可能性があるので、いくつかの混合が用いられている。一実施形態においては、第1のフレーム・バッファ(オペレーティング・システム出力フレーム・バッファ等)からのピクセルの1/2および、第2のフレーム・バッファ(透明グラフィックス・フレーム・バッファ等)からのピクセルの1/2を使用し、これらを、2つのフレーム・バッファのピクセルを第3の表示バッファ内にインターリーブするとき平均する。ピクセルの一部を平均することによって、透明効果を与えるときに使用される処理パワーが抑えられる。別の実施形態においては、平均されるピクセルのパーセンテージが異なり(たとえば、1/4のピクセル、1/8のピクセル、1/16のピクセル、1/32のピクセルあるいは、任意の正の整数をNで表した1/Nのピクセル)、あるいはこのパーセンテージを動的に変化させることもできる。
図3は、本発明による、ビデオ映像との関連においてユーザ入力を得るために透明表示を生成する方法の実施形態に従ったプログラムに適したサンプル・コンピュータ・システムを示したブロック図である。このサンプル・システム100は、たとえばここに説明する方法に関する処理を実行するために使用される。サンプル・システム100は、Intel Corporation(インテル・コーポレーション)のPENTIUM(登録商標;ペンティアム)、PENTIUM Pro(登録商標;ペンティアム・プロ)、およびPENTIUM II(登録商標;ペンティアムII)マイクロプロセッサをベースにしたコンピュータ・システムを表しているが、その他のシステム(これ以外のマイクロプロセッサを有するパーソナル・コンピュータ(PC)、エンジニアリング・ワークステーション、セットトップ・ボックス等を含む)を使用することもできる。サンプル・システム100は、プロセッサ・バス105を介して相互に接続されるマイクロプロセッサ102およびキャッシュ・メモリ104を備えている。さらにサンプル・システム100は、高性能I/Oバス108および標準I/Oバス118を備える。プロセッサ・バス105と高性能I/Oバス108は、ホスト・ブリッジ106によってブリッジされ、高性能I/Oバス108と標準I/Oバス118は、I/Oバス・ブリッジ110によってブリッジされている。高性能I/Oバス108には、メイン・メモリ112およびビデオ・メモリ114が接続されている。このビデオ・メモリ114には、ビデオ・ディスプレイ116が接続されている。標準I/Oバス118には、大容量ストレージ120、キーボードおよびポインティング・デバイス122が接続されている。一実施形態においては、さらにビデオ・カメラ501が標準I/Oバス118に接続される。
これらのエレメントは、当分野において周知の通常の機能を実行する。特に大容量ストレージ120は、本発明に従ったビデオ映像の使用を通じてユーザ入力を得るための方法の実施形態に関する実行可能インストラクションを長期間にわたるストアするために使用され、メイン・メモリ112は、マイクロプロセッサ102による実行間に、本発明に従ったビデオ映像の使用を通じてユーザ入力を得るための方法の実施形態に関する実行可能インストラクションの短期間ベースのストアに使用される。
図4は、本発明の一実施形態に従って透明グラフィックスをインプリメントするためのソフトウエアならびにハードウエア・スタックを示した概要図である。透明表示オブジェクトを使用するために設計されたアプリケーション・プログラム200は、透明サポート・ソフトウエア202によって提供される関数を呼び出し、透明表示オブジェクトの定義ならびに更新を行う。これに応答して透明サポート202は、この実施形態においては、オペレーティング・システムのグラフィックス・レンダリング・プログラミング・インターフェース(グラフィックスAPI)204を呼び出す。Windows 95(登録商標;ウインドウズ95)オペレーティング・システムの場合であれば、これをグラフィックス・デバイス・インターフェース(GDI)とすることができる。この実施形態においては、透明サポート・ソフトウエア202が、オペレーティング・システムのビデオ・ハードウエア・コントロール・アブストラクション・プログラミング・インターフェース(ビデオ・コントロールAPI)206も呼び出す。Windows 95(登録商標;ウインドウズ95)オペレーティング・システムの場合であれば、これをMicrosoft Corporation(マイクロソフト・コーポレーション)のDirectDraw(商標;ダイレクトドロー)APIとすることができる。オペレーティング・システムによっては、グラフィックスAPI 202およびビデオ・コントロールAPI 206が同一のアプリケーション・プログラミング・インターフェース内に存在することから、それぞれの区別ができないこともある。グラフィックスAPI 204は、要求されたグラフィックスを、図2に示されるように、透明グラフィックス・フレーム・バッファ18にレンダリングするために使用することができる。ビデオ・コントロールAPI 206は、フレーム・バッファの透明度をコントロールし、またすべてのフレーム・バッファのコンテンツにアクセスするために使用することができる。この実施形態においては、ビデオ・カード210と通信するために、グラフィックスAPI 204およびビデオ・コントロールAPI 206がディスプレイ・ドライバ・ソフトウエア208と対話する。このビデオ・カード210は、図3のシステムにおけるビデオ・ディスプレイ116をコントロールする。ビデオ・カードは、表示データを獲得するためにビデオ・メモリ114にアクセスする。透明を使用しないその他のアプリケーション・プログラム212は、グラフィックスAPI 204と対話して表示オブジェクトの生成および更新を行う。
一般的に、ビデオ・メモリ114内にピクセル・データのフレーム・バッファを作ることによって、たとえばコンピュータ・モニタ等のディスプレイ上に表示を行っている。このフレーム・バッファは、ビデオ・コントロールAPI 206によってビデオ・メモリの可視部分として設計することができる。充分なビデオ・メモリが使用可能な場合は、複数のフレーム・バッファを利用し、一度にそれらの1つのみを使用(ビデオ・カード210によって)して現在の可視表示を構築するためのデータ信号を獲得すればよい。周知の二重バッファリング・テクニックにおいては、第1のフレーム・バッファを「可視」バッファとし、ビデオ・カード210は、現在の表示データ信号を獲得するためにそこからデータ信号を読み出し、第2のフレーム・バッファ(または「不可視」バッファ)には新しい表示データが書き込まれる。この実施形態においては、次にビデオ・コントロールAPIが呼び出されてフレーム・バッファの「交代」が起こり、第2のフレーム・バッファが可視バッファに、第1のフレーム・バッファが不可視バッファに設定される。このテクニックを使用することによって、表示データを滑らかに更新し、ユーザに審美的に好ましい表示が提供される。本発明の実施形態は、このコンセプトを拡張し、通常の表示データとともに透明表示データ信号を供給する追加のフレーム・バッファを使用する。
図5は、透明グラフィックスを提供するために使用される複数のフレーム・バッファの実施形態を示した概要図である。ビデオ・メモリに少なくとも1つの専用部分を割り当て、コンピュータ・モニタで一度に見ることができる表示とすることができる。これを「可視表示」と呼んでいる。つまり、可視表示は、ユーザに見せるためにコンピュータ・モニタ上に現在表示されているビデオ・メモリのエリアの表示データからなる。概してこの実施形態においてオペレーティング・システム・ソフトウエアのグラフィックスAPI 204は、オペレーティング・システム出力フレーム・バッファ10にデータ信号を書き込む。ほとんどの現在のシステムにおいては、可視表示用にビデオ・メモリ114内に常駐するオペレーティング・システム出力フレーム・バッファが使用されている。しかしながら、本発明の実施形態においては、可視表示に別のフレーム・バッファが使用されることがある。第1のワーキング・フレーム・バッファ300および第2のワーキング・フレーム・バッファ302は、いずれもビデオ・メモリ114内もしくはその他のアクセス可能メモリ内に常駐し、本発明の実施形態に従って表示データをストアする。この実施形態においては、各フレーム・バッファがピクセル・データ信号の配列をストアする。この実施形態におけるフレーム・バッファのサイズは、システムの現在の表示特性に応じたものとなる。フレーム・バッファ配列は、たとえば、640ピクセル×480ピクセル、800ピクセル×600ピクセル、または1280ピクセル×1024ピクセル、あるいはコンピュータ・モニタおよびオペレーティング・システム・ソフトウエアのセッティングに応じたこれら以外の適切なサイズとなる。それぞれのピクセルは、レッド(R)、グリーン(G)、およびブルー(B)成分を含み、オプションとして不透明度(A)成分を有する。それに代えて、これら以外の、たとえばYUVあるいはYUVA等のカラー・コーディング・スキームを使用してもよい。メイン・メモリ112またはビデオ・メモリ114に常駐する複数の透明グラフィックス・フレーム・バッファ18、19は、この実施形態においては、透明サポート・ソフトウエア202、ビデオ・コントロールAPI 206およびグラフィックスAPI 204によって作られた透明表示データ信号をストアする。透明グラフィックス・フレーム・バッファ18、19は、ワーキング・フレーム・バッファに類似の「二重バッファ」であり、透明表示されるイメージの迅速な更新を提供する。
一実施形態においては、透明グラフィックス・フレーム・バッファ18、19の一方からのデータ信号がオペレーティング・システム出力フレーム・バッファ10からのデータ信号と混合され、インターリーブされ、その後ワーキング・フレーム・バッファの1つにストアされる。別の実施形態においては、この混合が、アルファ・ブレンド用の専用回路の支援の下に達成される。混合され、インターリーブされたデータは、ワーキング・フレーム・バッファの1つが「不可視」状態にあるとき、そのワーキング・フレーム・バッファにストアすることができる(つまり、この実施形態においては、このフレーム・バッファにストアされるデータは、コンピュータ・モニタ上に現在表示されていないデータである)。ワーキング・フレーム・バッファの1つに対して不可視状態で書き込みを行っている間は、他方のワーキング・フレーム・バッファを「可視」状態に置いて現在の表示データのソースとして使用することができる。ワーキング・フレーム・バッファに関する色混合およびインターリーブのオペレーションが完了したとき、不可視ワーキング・フレーム・バッファを可視ワーキング・フレーム・バッファに指定し、他方について状態を反転させる。このワーキング・フレーム・バッファの処理の二重バッファリングは、この実施形態においては1秒当たり少なくとも8〜15回のレートで繰り返され、視覚的に好ましい表示をユーザに提供する。それに加えて、この実施形態における透明グラフィックス・フレーム・バッファの使用も二重バッファとなっている。この実施形態においては、現在修正が行われているフレーム・バッファに対する色混合ができないこと、また、混合が行われているフレーム・バッファを同時に更新できないことから、透明グラフィックス・フレーム・バッファの二重バッファリングが使用される。二重バッファリングを行わないと、表示されたイメージにエラーを生じ、あるいは不必要な処理遅延が招かれることがある。
本発明のいくつかの実施形態においては、透明グラフィックス・フレーム・バッファの1つのピクセルと、オペレーティング・システム出力フレーム・バッファのピクセルのインターリーブを次のようにして達成することができる。すなわち、一実施形態においては、透明グラフィックス・フレーム・バッファのピクセル値と、空間的に対応するオペレーティング・システム出力フレーム・バッファのピクセル値を混合することによって、選択ワーキング・フレーム・バッファ内に1つ置きにピクセルを書き込む。選択ワーキング・フレーム・バッファ内のそれ以外のピクセルは、オペレーティング・システム出力フレーム・バッファからのピクセルを用いて書き込む。別の実施形態においては、オペレーティング・システム出力フレーム・バッファからのピクセルを選択ワーキング・フレーム・バッファにブロック転送し、続いて透明グラフィックス・フレーム・バッファからのピクセルを選択ワーキング・フレーム・バッファのピクセルを用いて空間的に多重化し、色平均する。さらに別の実施形態においては、アルファ・ブレンドを実行するためのビデオ・カード上の回路の補助を受けてこの混合が行われる。ここで、アルファ・ブレンド用の専用回路を使用するときは、インターリーブが必要なくなる点に注意されたい。
図6は、透明グラフィックス・フレーム・バッファの1つとオペレーティング・システム出力フレーム・バッファの間における1つ置きのピクセル混合方法の一実施形態を示した概要図である。選択ワーキング・フレーム・バッファ内の「T+OS混合」として示したピクセルは、選択した透明グラフィックス・フレーム・バッファからのピクセル(値T)と、オペレーティング・システム出力フレーム・バッファからのピクセル(値OS)の色平均による混合からなる。選択ワーキング・フレーム・バッファ内の「OS」ピクセルは、オペレーティング・システム出力フレーム・バッファからコピーした空間的に対応するピクセルを含んでいる。この実施形態においては、2つのフレーム・バッファ内の対応するポジションからの各ピクセルの、各色成分に対して重み付け平均スキームを適用することによって色平均を行っているが、別の実施形態においては、別の色混合テクニックを使用することができる。一実施形態においては、第1のピクセルの成分の値に重み値を乗じ、第2のピクセルの同じ成分の値に別の重み値を乗ずることによって重み付け平均が行われる。2つの重み付けした色成分は、続いて互いに加算し、結果として得られた和を2つの重み値の和を用いて除す。この方法は、アルファ・ブレンドと呼ばれている。この交番パターンを使用することにより、透明効果を生成するために使用される処理を、たとえばフレーム・バッファの全ピクセルを混合する場合に比べると、その半分に抑えることができる。ビデオ・メモリ内におけるピクセル・データの移動は、この実施形態の場合、ドローイングAPIまたはビデオ・コントロールAPIによって提供されるブロック転送オペレーションを用いて実行することができる。
別の実施形態においては、使用する特定のインターリーブ・パターンに応じて、混合ピクセルが選択ワーキング・フレーム・バッファ内のピクセルの1/4、ワーキング・フレーム・バッファ内のピクセルの1/8、あるいは正の整数Nを用いて1/Nと表される他の任意のパーセンテージとなる。さらに別の実施形態においては、インターリーブのパターンが変更される。たとえば、透明グラフィックス・フレーム・バッファからのラインとオペレーティング・システム出力フレーム・バッファからのラインを水平に交番させたインターリーブ・パターンとすることが考えられる。それに代えて、透明グラフィックス・フレーム・バッファからのラインとオペレーティング・システム出力フレーム・バッファからのラインを垂直に交番させたインターリーブ・パターンとすることもできる。市松模様パターンと水平または垂直に交番するラインの組み合わせも使用可能である。当業者であれば、本発明の実施形態において、透明効果の程度の変化とともに各種のインターリーブ・パターンの使用が可能であり、特定のパターンに本発明の範囲が限定されないことを理解されよう。
本発明の別の実施形態においては、インターリーブ・パターンが周期的に、もしくは非周期的に、あるいはあらかじめ決めた方法で変更される。たとえば、前述した各種のインターリーブ・パターンのうちの任意の2つを使用し、一方のインターリーブ・パターンを透明グラフィックス・フレーム・バッファの第1の生成に使用し、他方のインターリーブ・パターンを透明グラフィックス・フレーム・バッファの、それに続く第2の生成に使用するというように交番させる。この処理を繰り返し、それによって空間的な、つまり色混合と、時間的な透明の方法をハイブリッドする。
さらに別の実施形態においては、専用回路を使用して、ソフトウエアによるピクセルの混合の必要性をなくすことができる。
ここで、透明グラフィックス・フレーム・バッファ内の各ピクセルを、複数回にわたって使用し、あるいはまったく使用しないことにより、結果として得られる透明出力において拡大または縮小の効果を達成できることに注意されたい。ピクセルの再使用もしくは不使用の頻度およびそのロケーションは、少なくとも部分的には、希望する拡大または縮小の量に依存する。
図7は、システムを初期化して透明グラフィックスを提供するための実施形態を示したフローチャートである。ブロック400においては、オペレーティング・システムの表示出力コントロール情報を決定する。このコントロール情報は、表示サイズ、色分解能、およびそのほかのデータからなる。続いてこの実施形態の場合は、ブロック402においてビデオ・メモリ内に2つのワーキング・フレーム・バッファを割り当てることになる。これらのオペレーションは、この実施形態の場合であれば、ビデオ・コントロールAPIを呼び出すことによって実行することになる。ブロック404において、ブロック転送オペレーションを実行すれば、通常の状態で可視となっているオペレーティング・システム出力フレーム・バッファから2つのワーキング・フレーム・バッファのうちの選択した1つにデータをコピーすることができる。ここで、この例の場合は、第2のワーキング・フレーム・バッファを最初に選択すると仮定するが、第1のワーキング・フレーム・バッファを最初のワーキング・フレーム・バッファとして選択してもよい。ブロック転送は、この実施形態の場合、ビデオ・コントロールAPIを呼び出すことによって実行することになる。ブロック406においては、ビデオ・コントロールAPIを呼び出すことによってオペレーティング・システム出力フレーム・バッファを「不可視」状態にセットする。この実施形態の場合は、ブロック408において、選択したワーキング・フレーム・バッファ(たとえば第2のワーキング・フレーム・バッファ)を、ビデオ・コントロールAPIを呼び出すことによって可視にしている。別の実施形態においては、1回のビデオ・コントロールAPI呼び出しによってブロック406およびブロック408が実行されることもある。この時点において、ビデオ・カードの現在の表示出力データは、オペレーティング・システム出力フレーム・バッファではなく、選択したワーキング・フレーム・バッファから獲得できるようになる。別の実施形態においては、同一の結果を得るために他のAPIが使用されることもある。
図8は、二重バッファ・コントロール処理の実施形態を示したフローチャートである。スタート・ブロック410の後、この実施形態の場合は、ブロック412においてビデオ・コントロールAPIを呼び出すことによって、ブロック転送オペレーションを実行し、不可視の第1のワーキング・フレーム・バッファにオペレーティング・システム出力フレーム・バッファをコピーしている。ブロック414においては、第1のワーキング・フレーム・バッファと透明グラフィックス・フレーム・バッファのうちの選択した1つのコンテンツを混合しインターリーブし、それを第1のワーキング・フレーム・バッファに書き込むオペレーションが行われる。ブロック416においては、第1のワーキング・フレーム・バッファを可視に、第2のワーキング・フレーム・バッファを不可視にそれぞれ変えて、結果的に、現在の表示出力データ・ソースとして2つのフレーム・バッファを交代させる。ブロック418においては、この実施形態の場合、ビデオ・コントロールAPIを呼び出すことによってブロック転送を実行し、不可視の第2のワーキング・フレーム・バッファにオペレーティング・システム出力フレーム・バッファをコピーする。ブロック420においては、第2のワーキング・フレーム・バッファと透明グラフィックス・フレーム・バッファのうちの選択した1つのコンテンツを混合し、インターリーブし、それを第2のワーキング・フレーム・バッファに書き込むオペレーションが行われる。この選択した透明グラフィックス・フレーム・バッファは、ブロック414においてすでに選択している透明グラフィックス・フレーム・バッファあるいはその他の透明グラフィックス・フレーム・バッファとすることができる。ブロック422においては、第2のワーキング・フレーム・バッファを可視に、第1のワーキング・フレーム・バッファを不可視にそれぞれ変えて、結果的に、現在の表示出力データ・ソースとして2つのフレーム・バッファを交代させる。その後ブロック412に戻り、上記の処理を繰り返すことになる。以上のブロックのそれぞれの間に、オペレーティング・システム・ソフトウエアは、同時にオペレーティング・システム出力フレーム・バッファ内に追加の表示データを書き込むことができる。
ブロック414および420における色混合およびインターリーブのオペレーションの実施形態について図9を参照してさらに詳しく説明する。ブロック426においては、現在の選択している透明グラフィックス・フレーム・バッファの参照ポイントを設定するため、現在不可視になっている(第1または第2の)ワーキング・フレーム・バッファ内のメモリ・ロケーションを決定する(たとえばポイントM 304)。ブロック428においては、現在不可視になっているワーキング・フレーム・バッファからピクセルのデータ信号値を読み出し、現在選択している透明グラフィックス・フレーム・バッファ内の、それと空間的に対応するピクセルを決定する。透明グラフィックス・フレーム・バッファのイメージを拡大し、あるいは縮小することによってワーキング・フレーム・バッファの部分に適合させることがあるため、この対応は、必ずしも1:1とならないことがある。このピクセル対応の決定は、当分野において周知であり、一般的にオペレーティング・システム・ソフトウエアにおける引き延ばしブロック転送(たとえばWindows 95(登録商標;ウインドウズ95)オペレーティング・システムにおけるStretchBlt function)に使用されている。次のブロック430においては、この実施形態の場合、ワーキング・フレーム・バッファからのピクセルと、現在選択している透明グラフィックス・フレーム・バッファからのピクセルの重み付け平均を計算する。個別のピクセル成分の重み付け平均は、色成分ベースによりそれぞれの色成分に対して決定することができる。つまり、レッド成分の平均、ブルー成分の平均、およびグリーン成分の平均がそれぞれ可能である。それぞれの成分に対する重みは、結果として得られるピクセルの透明度を決定するが、所定のピクセルのすべての成分に対して同一の重み値を使用してもよい。ピクセルに関連付けされた重みは、少なくとも部分的に透明度に影響を及ぼす。これらの重みが、各種の混合比を達成するために透明度を使用するアプリケーション・プログラムによって操作されることもある。また、これらの透明度を使用するアプリケーション・プログラムから、ユーザによる直接ないしは間接的に混合比のコントロールを可能にするユーザ・インターフェース・エレメントが提供されることもある。
重み付け平均計算の結果は、ブロック432において、ワーキング・フレーム・バッファ内の処理中の現在のピクセルと同一のロケーションに格納すればよい。ブロック434においては、現在のインターリーブ・パターン(たとえば、2ピクセルごとに1つ、4ピクセルごとに1つ、水平または垂直の1つ置きのライン等)を考慮に入れて、ワーキング・フレーム・バッファ内の、次に処理するロケーションを決定する。ブロック436においては、ワーキング・フレーム・バッファ内に未処理のピクセルがあり、現在選択している透明グラフィックス・フレーム・バッファの処理が必要であるか否かを判断し、それに該当すれば、ブロック428に戻って次のピクセルを用いてこの処理を継続する。それに該当しない場合には、ブロック438において色混合およびインターリーブの処理を終了する。
別の実施形態においては、専用アルファ・ブレンド回路を使用するビデオ・コントロールAPIのブロック転送を通じてピクセルの混合が行われる。
図10は、本発明の実施形態に従ったビデオ映像入力テクニックを提供するアプリケーション・プログラムのコンポーネントを示した概要図である。ビデオ・データ信号500は、図3に示したコンピュータ・システムに接続されたビデオ・カメラ501によって、あるいはその他の任意のビデオ・ソースによって生成することができる。ビデオ・カメラは、標準I/Oバス118に接続され、大容量ストレージ120内もしくはメイン・メモリ112内のストレージにビデオ・データ信号500を提供する。コンピュータ・システム100にビデオ・データ信号が取り込まれると、マイクロプロセッサ102によって実行される、たとえば図10に示したアプリケーション・プログラム502およびフィルタ・グラフ・マネージャ504等のプログラムがそれを処理する。引き続き図10を参照すると、アプリケーション・プログラム502は、ユーザに所望の機能を与えるように設計することができる。最低限この実施形態においては、このアプリケーション・プログラムがビデオ映像の使用を介したユーザ入力機能を提供するように設計されている。このアプリケーション・プログラムは、コンピュータ・システムのプロセッサによって実行されている他のアプリケーション・プログラム(図示せず)およびオペレーティング・システム・ソフトウエア(図示せず)と対話することができる。アプリケーション・プログラム502が、本発明のいずれかの実施形態に従ったビデオ映像の使用を介したユーザ入力による選択機能を提供するように設計されているときには、このアプリケーション・プログラムに、フィルタ・グラフ・マネージャ504、フィルタ初期化506、ハンドル入力イベント508、フィルタ・グラフ510、およびCOMインターフェース512が含まれる。
一実施形態においては、Microsoft Corporation(マイクロソフト・コーポレーション)が提供するActiveMovie(商標;アクティブムービー)アプリケーション・プログラミング・インターフェース(API)(DirectShow(商標;ダイレクトショー)またはDirectMedia(商標;ダイレクトメディア)APIとしても知られている)のフィルタ・グラフ・アーキテクチャの一部としてフィルタ・グラフ510が生成されるものとするが、別の実施形態においては別のAPIが使用されることもあり、これに関して本発明の範囲が拘束されることはない。ActiveMovie(商標;アクティブムービー)は、マルチメディア・データ信号のストリームをはじめ、ユーザによる、各種の周知のデータ・フォーマットを使用してコンピュータ上にエンコードされたディジタル・ビデオならびにサウンドの再生を可能にするアーキテクチャを使用するランタイム環境のソフトウエアをコントロールし、処理するためのソフトウエア・アーキテクチャである。この再生機能は、Microsoft Corporation(マイクロソフト・コーポレーション)のDirectX(商標;ダイレクトX)のAPIセットをサポートするビデオならびにオーディオ・ハードウエア・カードを使用するが、それ以外のAPIを使用することも可能であり、これに関して本発明の範囲は限定されない。ActiveMovie(商標;アクティブムービー)アーキテクチャは、フィルタ・グラフ510と呼ばれるコンフィグレーション内に結合されているフィルタと呼ばれるモジュラ・ソフトウエア・コンポーネントを使用することによって、タイムスタンプ付きのマルチメディア・データ信号のストリームをコントロールし、処理する方法を定義する。
フィルタ・グラフ・マネージャと呼ばれるソフトウエア・オブジェクト504は、フィルタ・グラフ510をアッセンブルする方法、およびフィルタ・グラフを介してデータを移動させる方法をコントロールするためにアプリケーション・プログラム502によってアクセスされる。例として示したフィルタ・グラフ・マネージャは、フィルタ・グラフを生成し、管理する。このフィルタ・グラフは、ビデオ・データ信号を処理するためのカスタム・フィルタを少なくとも1つ含んでいる。フィルタ・グラフ・マネージャ504は、コンポーネント・オブジェクト・モデル(COM)インターフェース512のセットを提供して、フィルタ・グラフとアプリケーション・プログラム502の間の通信を可能にする。アプリケーション・プログラム502は、フィルタ・グラフ・マネージャのCOMインターフェースを呼び出すことによって、マルチメディア・データ・ストリームの処理をコントロールし、あるいはフィルタ・イベントを検索することができる。これに接続されたビデオ・カメラ501から到来するビデオ・データ・ストリームをアプリケーション・プログラム502が処理することから、この実施形態においては、フィルタ・グラフ・マネージャおよびフィルタ・グラフがアプリケーション・プログラム内に統合されている。別の実施形態においては、フィルタ・グラフ・マネージャがアプリケーション・プログラムとは別の独立したプログラムとなることもある。
一実施形態においては、フィルタ・グラフ・アーキテクチャのすべてのコンポーネントをCOMオブジェクトとして実装することができる。これには、データ信号が通過するフィルタ、フィルタ間の接続としての機能あるいはメモリを割り当てるフィルタ・コンポーネントも含まれる。各オブジェクトは、1ないしは複数のインターフェースを実装し、そのそれぞれは、メソッドと呼ばれるあらかじめ定義された関数のセットからなる。概して、アプリケーション・プログラム502は、メソッドを呼び出して、インターフェースに面しているオブジェクトと通信する。たとえば、アプリケーション・プログラムは、フィルタ・グラフ・マネージャ504のオブジェクト上のIMediaControl(アイメディアコントロール)インターフェース上において、マルチメディア・データ・ストリームを開始するRunメソッド等のメソッドを呼び出すことができる。一方、フィルタ・グラフ・マネージャは、フィルタ・グラフ510のフィルタのそれぞれが面しているIFilterインターフェースにRunメソッドを呼び出す。
フィルタ・グラフ510は、各種タイプのフィルタのコレクションからなる。ほとんどのフィルタは、3つのタイプのいずれかに分類することができる。ソース・フィルタは、ディスク上のファイル、サテライト・フード、インターネット・サーバ、あるいはビデオ・カメラ501等の何らかのソースからデータ信号を取り込み、そのデータ信号をフィルタ・グラフに導く。変換フィルタは、データ信号を取り込み、それを処理して別のフィルタに渡す。レンダリング・フィルタは、データ信号のレンダリングを行う。通常、処理されたデータ信号は、コンピュータ・ディスプレイ等のハードウエア・デバイスにレンダリングされるが、データを、メディア入力を受け入れる別のロケーションにレンダリングすることもできる(たとえば、メモリ、ディスク・ファイル等)。
一般にフィルタ・グラフは、フィルタを介した、たとえばビデオ・データ等のマルチメディア・データのストリーミングのために使用される。マルチメディア・データ・ストリームにおいては、フィルタ・グラフ内において、1つのフィルタから下流にある次のフィルタにマルチメディア・データが渡される。フィルタ・グラフを動作させるために、フィルタをあらかじめ決定した順序で接続し、マルチメディア・データ・ストリームを、決定されたその順序で開始および停止することができる。フィルタ・グラフ・マネージャは、フィルタを接続し、マルチメディア・データ・ストリームをコントロールする。マルチメディア・データ・ストリームのコントロールは、マルチメディア・データ・ストリームの開始、ポーズ、もしくは停止、特定の持続時間にわたるデータ・ストリームの再生、またはデータ・ストリーム内の特定ポイントのシークからなる。フィルタ・グラフ・マネージャ504は、アプリケーション・プログラム502によるこれらのアクティビティの指定、およびそれに続き、それらを起動するためのフィルタ上の適切なメソッドの呼び出しを可能にする。またフィルタ・グラフ・マネージャは、フィルタによるポスト・イベント通知を可能にし、アプリケーション・プログラムはそれを受け取ることができる。このようにしてアプリケーション・プログラムは、そのアプリケーション・プログラムがフィルタ・グラフにインストールしたフィルタの、マルチメディア・データがそのフィルタ・グラフを通過した後の状態を引き出すことができる。
初期化の処理の間に、アプリケーション・プログラム502は、フィルタ・グラフ・マネージャ504に対してフィルタ・グラフを記述したグラフ・ファイル(図示せず)のロードを指示する。フィルタ・グラフ・マネージャは、このグラフ・ファイルおよびフィルタ初期化506から受け取ったフィルタ特性コマンドに基づいてフィルタ・グラフ510を生成する。フィルタ特性コマンドは、名前によって特定のフィルタを参照し、そのフィルタ用の入力およびコントロール・パラメータを指定する。ビデオ・データ500がフィルタ・グラフを介してストリーミングされ、指定のフィルタに従って処理されるとき、イベント通知(ウインドウ・メッセージとしても知られる)がフィルタ・グラフからCOMインターフェース512を介してハンドル入力イベント508に送られる。一実施形態においては、この入力イベントを、マウスを降ろすイベント、またはマウスを上げるイベントとして判断することができる。別の実施形態においては、この入力イベントを、フィルタ・グラフによるビデオ・データ・ストリームの処理の間に検出された任意のユーザ入力による選択とすることができる。ハンドル入力イベント508は、イベント通知を受け取ると、アプリケーション・プログラム502のためにその処理を行う。一部の実施形態においては、ハンドル入力イベント508が、希望の機能を実行するためのアプリケーション・プログラム内にある別のコンポーネントに対する呼び出しからなる。
図11は、本発明の一実施形態に従ったフィルタ・グラフを示した概要図である。この実施形態においては、フィルタ・グラフが7つのフィルタ:すなわちビデオ・キャプチャ・フィルタ520、ティー・フィルタ522、オプションの第1ならびに第2の色空間コンバータ・フィルタ524、526、透明化を伴うビデオ・レンダラ・フィルタ528、色解析フィルタ530、およびブロブ検出フィルタ532から構成されるものとするが、これに関して本発明の範囲が限定されることはない。ビデオ・キャプチャ・フィルタ520は、PCが、それに接続されたビデオ・カメラまたはその他のビデオ・ソースから受け取ったビデオ・データ信号の個別のフレームを取り込む。ビデオ・データ信号の各フレームは、ティー・フィルタ522に渡される。ティー・フィルタは、このビデオ・データ信号を実質的に類似の2つのデータ・ストリームに分岐する。一方のデータ・ストリームは、第1の色空間コンバータ・フィルタ524に渡され、他方のデータ・ストリームは、第2の色空間コンバータ・フィルタ526に渡される。第1の色空間コンバータは、ビデオ・データ信号の色空間がシステムの表示色空間と類似になるように第1のデータ・ストリームを変換する。一実施形態においては、ビデオ・データ信号のピクセル・フォーマットがビデオ・カードのピクセル・フォーマット(たとえば、16ビットRGBカラー、または24ビットRGBカラー等)に一致しなければならない。第1の色空間コンバータ・フィルタからの変換済みデータ信号は、透明化を伴うビデオ・レンダラ・フィルタ528に渡される。透明化を伴うビデオ・レンダラ・フィルタ528は、図4〜9を参照して説明を前述した透明化の方法により、ディスプレイ上において第1のデータ・ストリームのレンダリングを行う。またビデオ・データ信号を、各フレームの仮想中心線に関して変換、つまり「裏返し」を行い、シーンの左右におけるオブジェクトがディスプレイの同じ側に現れるようにしてもよい(つまり、シーンが鏡に映ったようにディスプレイ上に現れることになる)。
この実施形態においては、第2の色空間コンバータ・フィルタ526が第2のデータ・ストリームを、第2のデータ・ストリームのそれぞれのピクセルごとに、アルファ値を使用して追加のピクセル情報を保持することができるレッド、グリーン、ブルー、アルファ(RGBA)の色フォーマットに変換する。第2の色空間コンバータ・フィルタからの変換済みデータ信号は、色解析フィルタ530に渡される。この色解析フィルタは、第2のデータ・ストリームのピクセルを解析し、指定のアルファ「A」値を用いて指定色範囲内のピクセルの色値に対するタグ付けを行う。タグ情報が追加された第2のデータ・ストリームは、ブロブ検出フィルタ532に渡される。
ブロブ検出フィルタは、このデータ・ストリームを解析し、指定のアルファ値を伴うピクセルのブロックおよびポスト・イベント通知(たとえばメッセージ)を探し出し、アプリケーション・プログラム502のウインドウをコントロールする。アプリケーション・プログラムは、これらのイベント通知をハンドル入力イベント508に送る。一実施形態においては、ブロブ検出フィルタを、色解析フィルタによってタグ付けされたあらかじめ決定された所定色の、実質的に連続なブロックを探し出すように設定することができる。ブロックは、色のブロブと呼ばれることもある。ここでは、ブロブが、他と区別可能な色を伴う所定の物理的属性を有し、ピクセルのグループとしてディジタル的に表すことができるものとする。ブロブ検出フィルタには、検出したブロブをレポートする指定のウインドウ・ハンドルが通知される。一実施形態においては、ブロブ検出フィルタがビデオ・データ・ストリーム内においてブロブを検出したとき、あらかじめ決定されたパターンのブロブが入力イベントとして判断され、ハンドル入力イベント機能が、そのブロブが設定済みの評価基準またはあらかじめ決定されている評価基準に適合することを検証する。この場合、ビデオ・データ・ストリーム(つまり、現在のビデオ・フレーム)内のブロブのロケーションをハンドル入力イベント508に渡すこともできる。
図11に示した実施形態においては、ブロブ検出フィルタおよび色解析フィルタが別体のフィルタとして図示されているが、別の実施形態においては、これらのフィルタの機能を単一のフィルタに統合するか、あるいはビデオ・レンダラ・フィルタと結合することもできる。当業者であれば、これらのフィルタの各種の組み合わせが使用可能であり、これに関して本発明が限定されないことを理解されよう。
図12は、本発明の一実施形態に従ったフィルタ初期化の処理を示したフローチャートである。概してフィルタ初期化506は、フィルタ・グラフ・マネージャ504に対してフィルタ・グラフ510を生成して初期化し、フィルタ・グラフを通るビデオ・データ信号のフローを開始する指示を与える。ブロック540において、フィルタ初期化は、フィルタ・グラフ・マネージャに指示を与えてフィルタ・グラフを生成する。ブロック542においては、フィルタ・グラフ内の透明化を伴うビデオ・レンダラ・フィルタがロケートされる。フィルタのロケートとは、フィルタの名前に基づいてIFilterCOMインターフェースの検索を行い、続いてそのフィルタを介してコンフィグレーション・インターフェースを獲得することを意味する。次にブロック544において、透明化を伴うビデオ・レンダラ・フィルタ用の初期化パラメータをセットする。たとえば、その後のビデオ・データ信号処理に使用する不透明度の希望レベルをここでセットすることができる。このほかの初期化パラメータとしては、ミラーリングのセッティングおよびインターリーブ・パターンが挙げられる。ブロック546においては、フィルタ・グラフ内の色解析フィルタをロケートする。ブロック548においては、ビデオ・データ・ストリーム内のピクセルの、色解析フィルタによって追跡される色範囲および対応するアルファ値をセットする。たとえば、親指および残りの指による入力イベントを追跡する実施形態においては、親指および残りの指の色範囲およびアルファ値を、指定範囲内の色値を有するビデオ・データ・ストリーム内のピクセルに対するタグ付けが色解析フィルタによって行われるようにセットすることができる。ブロック550においては、フィルタ・グラフ内のブロブ検出フィルタをロケートする。ブロック552においては、コントロール・ウインドウの識別名、アルファ値、および対応するコントロール・メッセージをブロブ検出フィルタ内にセットする。ブロック554においては、フィルタ・グラフを通るビデオ・データ信号のフローを開始することができる。
ビデオ・データ信号がフィルタ・グラフを通って流れると、ウインドウ・メッセージと呼ばれるイベント通知がハンドル入力イベント508によって、ブロブ検出フィルタ532から受け取られる。図13は、本発明の一実施形態に従ったハンドル入力イベントの処理を示したフローチャートである。処理は、ブロック560におけるウインドウ・メッセージ・レディの待機から開始する。ウインドウ・メッセージ・レディ・イベントがない場合には、ハンドル入力イベントは、可能性のある入力イベントを受け取るまで待機状態を継続する。ウインドウ・メッセージを受け取ると、それが可能性のある入力イベントであるか否かをさらに判断する。ブロック562においては、ウインドウ・メッセージを調べて、ブロブ検出フィルタによってブロブ・タイプ1イベントが検出されているか否かを判断する。一実施形態においては、ブロブ・タイプ1を、たとえば人さし指等の、ビデオ・フレーム内に生じている物理的なアーティファクトに関連付けし、ブロブ・タイプ2を、たとえば親指等の、ビデオ・フレーム内に生じている別の物理的なアーティファクトに関連付けしているが、当業者であれば、各種の物理的なアーティファクトならびにオブジェクトおよびそれらに付随する色を入力インジケータとして、各種の実施形態において使用し得ることを認識されよう。この実施形態においては、明らかに区別可能な2つの色をインジケータとして使用するが、別の実施形態においては、任意数の色を使用することもできる。この実施形態の場合は、ブロブ・タイプ1が検出されたときには、ビデオ・データ・ストリームの現在のビデオ・フレーム内におけるブロブ・タイプ1のサイズならびにロケーションを、ブロック564においてタイプ1リストとして示されるデータ構造内に記録する。その後この処理は、可能性のある別の入力イベントを待つ待機を設定する。
ブロック562においてブロブ・タイプ1が検出されなかった場合には、ブロック566に処理が進み、それにおいてウインドウ・メッセージを調べて、ブロブ検出フィルタ532によってブロブ・タイプ2イベントが検出されているか否かを判断する。ブロブ・タイプ2が検出されていれば、ブロック568において、ビデオ・データ・ストリームの現在のビデオ・フレーム内におけるブロブ・タイプ2のサイズならびにロケーションをタイプ2リストとして示されるデータ構造内に記録する。その後この処理は、可能性のある別の入力イベントを待つ待機を設定する。ここでブロブ・タイプ2が検出されなかった場合には、処理がブロック570に進み、それにおいてウインドウ・メッセージを調べて、ブロブ検出フィルタによってフレーム終了インジケータが検出されているか否かを判断する。フレーム終了インジケータが検出されていれば、ブロック572が処理されて、現在のビデオ・フレーム内において有効な入力イベントが検出されているか否かが判断される。ブロック572の後は、ブロック560に処理が進み、それにおいて別のウインドウ・メッセージを待機する。フレーム終了インジケータを検出したときのブロブ・リスト内には、そのフレームの処理の間に検出されたブロブがストアされている。一実施形態においては、タイプ1およびタイプ2リストが、ビデオ・データ・ストリーム内に表現されている可能性のある2つの異なる物理的オブジェクトの発生をストアしている。別の実施形態においては、任意数のリストを使用し、ビデオ・データ・ストリーム内に表現されている対応する数の物理的オブジェクトを追跡することもできる。
フレーム終了インジケータが検出されなかった場合には、ブロック574においてウインドウ・メッセージを調べて、アプリケーション終了メッセージを受け取ったか否かを判断する。アプリケーション終了メッセージを受け取ったときには、ブロック576においてフィルタ・グラフを停止し、ブロック578においてフィルタ・グラフを削除し、さらにブロック580においてアプリケーション・プログラム502を終了することができる。アプリケーション終了メッセージを受け取らなかった場合はブロック560に進み、それにおいて別のウインドウ・メッセージを待機する。
図14は、有効な入力イベントを検出するための処理を示したフローチャートである。有効な入力イベントの検出処理の開始時には、完全なビデオ・フレームの処理がフィルタ・グラフによって完了されており、アプリケーション・プログラム502は、そのビデオ・フレーム内において発生したブロブについての少なくとも2つのリストを有していることになる。一実施形態においては、これら2つのリストをブロブ・タイプ1およびブロブ・タイプ2とし、それぞれをブロブ色領域の空間を表すリストとする。したがって、有効な入力イベントの検出処理は、ブロブ・リストをサーチして互いの間がもっとも近いブロブのペアを探し出すことからなる。つまり、それぞれのペアについて、互いの近接が選択したスレッショルド距離より近いか否かを調べる。そのようなブロブのペアが存在する場合には、このブロブのペアの検出を有効な入力イベントであると判断する。複数のペアが検出された場合には、もっとも近接しているペアをその後の処理に使用する。ブロック600においては、有効な入力の検出として、まずブロブ・タイプ1リストのエンドに到達したか否かを判断する。ブロブ・タイプ1リストのエンドに到達していなければ、ブロック602を実行し、ブロブ・タイプ2リスト内の、そのビデオ・フレーム内において現在のブロブ・タイプ1にもっとも近いブロブを探し出し、そのもっとも近いブロブ・タイプ2のブロブ・タイプ2リスト内におけるインデクスを、ブロブ・タイプ1リストの現在のエントリに記録する。この実施形態においては、近いということを、ビデオ・フレームの2次元平面における2つのブロブのロケーション間の空間的な距離と定義することができる。ブロック604においては、ブロブ・タイプ1リスト内にある次のエントリを次の処理のために選択する。その後、ここで選択した次のブロブ・タイプ1を伴ってブロック600に戻り、処理を継続する。ブロック605においてペアがまったく存在しなければ、ブロブ・タイプ1の現在のエントリに適切なフラグまたはインジケータをセットする。
ブロブ・タイプ1リストのエンドに到達したときには、ブロック606を実行して、ブロブ・タイプ1リスト内のもっとも近いブロブ・タイプ1とブロブ・タイプ2のペアを求める。もっとも近いペアがスレッショルド離隔距離より近ければ、ブロック608からブロック610に進み、検出した入力イベントをコンピュータ・システムのオペレーティング・システム・ソフトウエアに渡す。続いてオペレーティング・システム・ソフトウエアは、この入力イベントを必要に応じて別のアプリケーションに渡すことができる。一実施形態においては、現在のビデオ・フレーム内のブロブのロケーションが、入力イベントをレポートする前にマップされるか、スクリーン座標(たとえば正規化されたマウス座標)に変換される。ブロック610において調べたとき、もっとも近いペアがスレッショルド離隔距離より離れている場合には、ブロック611を実行して、前述とは別の入力イベントをオペレーティング・システム・ソフトウエアに渡す。次に、ブロック612においてタイプ1ブロブ・リストおよびタイプ2ブロブ・リストをリセットする。その後、ブロック614において有効な入力イベントを検出する処理を終了する。
ユーザの親指およびその他の指の動きを検出することによって、入力イベントを取り扱う例について説明したが、当業者であれば、異なる色ならびに動きを持った多数の多様な物理的オブジェクトを含むビデオ・データ・ストリームの取り込みおよび解析を使用して入力イベントを表すことが可能であり、また本発明の範囲がここで示した特定の例に限定されないことを理解されよう。さらに、この実施形態においては、ブロブ情報のストアにリストが使用されている。しかしながら、別の実施形態においては、別のデータ構造が使用され、またデータ構造をサーチしてブロブのペアを検出するための別のテクニックが使用されることも考えられる。
図15は、本発明の一実施形態に従った透明化を伴うビデオ・レンダラの処理スレッドを示したフローチャートである。透明化を伴うビデオ・レンダラの処理は、ブロック700から開始される。ブロック702においては、ビデオ・コントロールAPIオブジェクト(たとえばDirectDraw(商標;ダイレクトドロー)オブジェクト)、3つのビデオ・フレーム・バッファ、および2次スレッドを生成する。ブロック704においては、透明グラフィックス・フレーム・バッファが存在しないか、それらのうちの1ないしは複数がサイズ変更されているとき、新しい透明グラフィックス・フレーム・バッファを作り、第1の透明グラフィックス・フレーム・バッファを現在アクティブのフレーム・バッファとしてマークする。ブロック706においては、現在アクティブの透明グラフィックス・フレーム・バッファに関するグラフィックス・ディスプレイ・インターフェース(GDI)の表示コンテキスト(DC)を生成する。ブロック708においては、ビデオ・レンダラがGDIを使用し、ブロック706において生成した透明DC上にビデオ・データ信号を書き込む。続くブロック710においては、現在非アクティブになっている透明グラフィックス・フレーム・バッファをアクティブとしてマークし、現在アクティブになっている透明グラフィックス・フレーム・バッファを非アクティブとしてマークする。ブロック712においては、透明DCを削除する。ブロック714においては、新しく非アクティブとなった透明グラフィックス・フレーム・バッファが色混合およびインターリーブ・オペレーションに使用可能であることを示すようにシステム・イベントをセットする。ブロック716においてビデオ・レンダラは、ビデオ・データ・ストリーム内に未処理のビデオ・フレームが残っているか否かを判断する。ビデオ・フレームが残っている場合には、ブロック704に戻ってフレームの処理を継続する。未処理のフレームが残っていなければ、ブロック718においてフレーム・バッファを破壊する。ブロック720においては、2次スレッド(前述のブロック702において生成)の終了を待機する。その後、ブロック722においてビデオ・レンダラが終了する。
図16は、本発明の一実施形態に従った透明混合コアの処理スレッドを示したフローチャートである。このスレッドは、図15に示したブロック702において生成される2次スレッドである。2次スレッドは、メインのビデオ・レンダラ処理と独立した処理またはタスクとすることができる。2次スレッドが生成(ブロック740)された後、透明DCは、透明グラフィックス・フレーム・バッファが完成するまで待機する。一実施形態においては、透明グラフィックス・フレーム・バッファにおいて色混合および他のデータ信号とのインターリーブの準備が整うと、それが完成する。この2次スレッドが待機するイベントは、図15に示したブロック714のシステム・イベントとすることができる。ブロック744においては、オペレーティング・システム出力フレーム・バッファのコンテンツを、両方のワーキング・フレーム・バッファにブロック転送する。ブロック746においては、オペレーティング・システム出力フレーム・バッファを不可視、または非アクティブ状態にセットし、ワーキング・フレーム・バッファの一方を可視状態にセットする。これらの2つのオペレーションは、ディスプレイ上にデータ信号を表示するために使用するフレーム・バッファを実質的に「入れ替える」。この時点において、オペレーティング・システム出力フレーム・バッファは、ディスプレイから直接見ることができなくなる。ブロック748においては、2次スレッドが、所定時間(たとえば75ミリ秒)の経過または透明グラフィックス・フレーム・バッファの完成を待機する。
2次スレッドは、所定時間の経過または透明グラフィックス・フレーム・バッファの完成(つまりビデオ・データ信号がロードされる)を待機した後、ブロック750において、不可視のワーキング・フレーム・バッファを用いて非アクティブの透明グラフィックス・フレーム・バッファのコンテンツの混合を行う。この混合は、たとえば図8を参照して前述した方法に従ってなし得るが、専用の混合ハードウエアを使用して混合オペレーションを行うこともできる。ブロック752において2次スレッドは、2つのワーキング・フレーム・バッファを交代させ、その結果、それまでの可視ワーキング・フレーム・バッファが不可視ワーキング・フレーム・バッファになり、不可視ワーキング・フレーム・バッファが可視ワーキング・フレーム・バッファになる。ブロック754においてすべてのフレーム・バッファがまだ存在していると判断される場合は、透明グラフィックス・フレーム・バッファに対して、さらに色混合およびインターリーブ処理を実行するために、ブロック748に戻って処理を継続する。いずれかのフレーム・バッファがすでに存在しなくなっている場合には、ブロック756を実行して透明表示コンテキストのスレッドを終了する。
フィルタ・グラフの色解析フィルタ530の一実施形態における処理を表Iに示す。この処理は、2つの入力、すなわちRGBAフォーマットのビデオのフレーム(続いて色相、彩度および明度(HSV)フォーマットに変換される)および、フレーム内に含まれる個別のピクセルの色値の一致に使用するための色値の範囲を受け付ける。ピクセルは、そのピクセルの色相、彩度および明度が指定の色値の範囲にあるとき、一致すると見なされる。色相が直線ではなく円であることから、一致させる色相の範囲は、ラップのない範囲(たとえば20〜53)もしくはラップのある範囲(たとえば240〜255および0〜20)のいずれにすることもできる。一致させる色の範囲は、ビデオ・カメラ、ビデオ、キャプチャ・ハードウエア、および検出されるオブジェクトの特性に応じて一定とするか、あるいは経験に基づいて決定してもよい(当業者であれば、色の範囲が自動的に決定される自動キャリブレーションについてもここで想定することができよう)。
表I
著作権:1998年Intel Corporation(インテル・コーポレーション)
色解析
入力:RGBAフォーマットのビデオのフレーム;HSVフォーマットの最小一致ピクセルRangeMin;HSVフォーマットの最大一致ピクセルRangeMax。P(H)は色相を表し、RangeMin(H)も同様である;P(S)は彩度を表し、P(V)は明度を表す。
出力:HSVAフォーマットのビデオのフレーム
開始
ループ開始:ビデオ・フレーム内のそれぞれのピクセルPごとに以下の処理を繰り返す
RGBAピクセルをHSVAピクセルに変換
IF文開始:RangeMin(H)<=RangeMax(H)であれば
//通常の範囲(たとえば20〜53)
IF文開始:
(RangeMin(H)<=P(H))かつ(P(H)<=RangeMax(H))かつ
(RangeMin(S)<=P(S))かつ(P(S)<=RangeMax(S))かつ
(RangeMin(V)<=P(V))かつ(P(V)<=RangeMax(V))であれば
ピクセルPはキー・カラーに一致する
IF文終了
該当しない場合:
//色相がRangeMin(H)からRangeMax(H)を通り、
//逆側の範囲までラップする場合。たとえば240〜255および0〜20
IF文開始:
((P(H)<=RangeMax(H))または(RangeMin(H)<=P(H)))かつ
(RangeMin(S)<=P(S))かつ(P(S)<=RangeMax(S))かつ
(RangeMin(V)<=P(V))かつ(P(V)<=RangeMax(V))であれば
ピクセルPはキー・カラーに一致する
IF文終了
ループ終了
終了
ブロック検出フィルタの実施例における処理を表IIに示す。この処理は、垂直に移動するごとに、ビデオ・フレーム内のスキャン・ライン内のピクセルを調べて、希望のキー・カラーに一致する「ラン」と呼ばれる水平に連続したピクセルを探し出す。この処理においては、これらのオペレーションを実行するとき、現在のスキャン・ライン上のランに結合する、別のスキャン・ライン(たとえば直前のスキャン・ライン)のランを探し出し、それらを連結する。現在のスキャン・ラインと意味のある結合を持たないランのセットが見つかった場合には、この処理は、そのセットを、希望するキー・カラーに一致した連続ピクセルのブロブとすべきランのセットであると見なす。この処理は、希望の最小寸法と最大寸法の間にあるすべてのブロブを返す。
表II
著作権:1998年Intel Corporation(インテル・コーポレーション)
ブロブ検出
開始
ループ開始:ビデオ・フレーム内のそれぞれのスキャン・ラインごとに以下の処理を繰り返す
ループ開始:キー・カラーに一致する水平に連続するピクセルのセットごとに以下の処理を繰り返す
このスキャン・ライン上のこれらのピクセルを表すラン・オブジェクトを生成する
このランを含むブロブ・オブジェクトを生成する
ループ開始:直前のラインの、このランと水平にオーバーラップするそれぞれのランごとに以下の処理を繰り返す
IF文開始:
そのランのブロブが現在のスキャン・ラインまでまだ延びていない場合
そのランおよびそれのブロブを現在のブロブに組み込む
該当しない場合
IF文開始:
現在のランがまだブロブに追加されていない場合
そのランを別のランのブロブに組み込む
該当しない場合
ほかのランを無視する
//すでに、現在のスキャン・ライン上のほかのブロブの一部に
//なっている
IF文終了
IF文終了
ループ終了
ループ終了
ループ終了
//現在のスキャン・ラインを終了
//このスキャン・ライン上のランのカタログ作成を完了し、
//それらを適切なブロブに追加する。
//次に、ブロブの終わりを調べる。
ループ開始:現在のスキャン・ラインのブロブに組み込まれていない直前のスキャン・ラインのそれぞれのランごとに以下の処理を繰り返す
IF文開始:
そのランがそのスキャン・ライン上の別のブロブの一部でない場合
IF文開始:
そのランが「仮終了」としてマークされているか、
あるいは現在のスキャン・ラインがイメージの最後のスキャン・ラインである場合
このランを完成ブロブとしてマークする
IF文開始:
このブロブが寸法要件を満たす場合
ブロブの特性を示すメッセージを通知する
IF文終了
該当しない場合
このランを「仮終了」としてマークする
このランを現在のスキャン・ラインのリストに出力する
IF文終了
IF文終了
ループ終了
ビデオ・フレームの最終ラインを処理する
フレーム完了メッセージをターゲット・ウインドウに出力する
終了
以上、例示の実施形態を参照して本発明を説明してきたが、この説明は、限定の意味において解釈されることを意図したものではない。例示の実施形態をはじめ本発明のその他の実施形態における、本発明の属する分野の当業者であれば明白であろう各様の修正は、本発明の精神ならびにその範囲に含まれると見なされる。
この発明の実施形態は次の通りである。
実施形態1 ディスプレイを有し、ビデオ・データ信号ソースに接続されるシステムに入力信号を提供する方法であって:
前記ビデオ・ソースによって生成された、シーンを表すビデオ・データ信号を取り込むステップ;
前記シーンが前記ディスプレイ上において透明に見えるようにそのシーンを前記ディスプレイ上にレンダリングするステップ;
前記シーン内のオブジェクトを検出するために前記ビデオ・データ信号を解析するステップ;および、
前記検出したオブジェクトに応答して前記システム用の入力信号を生成するステップ;
を包含することを特徴とする方法。
実施形態2 前記シーンは、システムのユーザを含み、前記レンダリングしたシーンは、前記ユーザの映したイメージを含むことを特徴とする前記実施形態1記載の方法。
実施形態3 前記検出したオブジェクトは、少なくとも1つの、前記システムのユーザの身体の一部を含むことを特徴とする前記実施形態1記載の方法。
実施形態4 前記検出したオブジェクトは、少なくとも1つの、あらかじめ決定した小道具を含むことを特徴とする前記実施形態1記載の方法。
実施形態5 さらに、前記透明にレンダリングしたシーンに加えて、少なくとも1つの表示オブジェクトを前記ディスプレイ上に表示するステップを含むことを特徴とする前記実施形態1記載の方法。
実施形態6 さらに、前記シーン内における前記検出したオブジェクトの動きを、前記少なくとも1つの表示オブジェクトの選択として解釈するステップを含むことを特徴とする前記実施形態5記載の方法。
実施形態7 前記少なくとも1つの表示オブジェクトはアイコンであることを特徴とする前記実施形態6記載の方法。
実施形態8 前記ビデオ・データ信号の解析は、前記ビデオ・データ信号のピクセルの色値を解析するステップ、および選択した色値を有するピクセルにタグ付けを行うステップを含むことを特徴とする前記実施形態1記載の方法。
実施形態9 さらに、タグ付けしたピクセルのブロックを、検出したオブジェクトとして識別するステップ、および前記検出したオブジェクトが、あらかじめ決定した入力イベントを表すオブジェクトの評価基準に一致するとき、対応する入力信号を生成するステップを含むことを特徴とする前記実施形態8記載の方法。
実施形態10 前記入力信号は、マウスを下げるイベント、マウスを上げるイベント、およびカーソル・ポジションの移動のうちの少なくとも1つであることを特徴とする前記実施形態1記載の方法。
実施形態11 ビデオ・ソースによって生成された、シーンを表すビデオ・データ信号を取り込むための手段;
前記シーンが前記ディスプレイ上において透明に見えるようにそのシーンをディスプレイ上にレンダリングするための手段;
前記ビデオ・データ信号を解析して前記シーン内のオブジェクトを検出するための手段;および、
前記検出したオブジェクトに応答して前記システム用の入力信号を生成するための手段;
を備えることを特徴とするビデオ・データ・ソースおよびディスプレイを有するシステムの装置。
実施形態12 さらに、前記透明にレンダリングしたシーンに加えて、少なくとも1つの表示オブジェクトを前記ディスプレイ上に表示するための手段を備えることを特徴とする前記実施形態11記載の装置。
実施形態13 前記生成するための手段は、前記シーン内における前記検出したオブジェクトの動きを、前記少なくとも1つの表示オブジェクトの選択として解釈する手段を備えることを特徴とする前記実施形態12記載の装置。
実施形態14 前記解析するための手段は、前記ビデオ・データ信号のピクセルの色値を解析するための手段、および選択した色値を有するピクセルにタグ付けを行うための手段を備えることを特徴とする前記実施形態13記載の装置。
実施形態15 さらに、タグ付けしたピクセルのブロックを、検出したオブジェクトとして識別するための手段、および前記検出したオブジェクトが、あらかじめ決定した入力イベントを表すオブジェクトの評価基準に一致するとき、対応する入力信号を生成するための手段を備えることを特徴とする前記実施形態14記載の装置。
実施形態16 ビデオ・ソースによって生成された、シーンを表すビデオ・データ信号を取り込むためのビデオ・キャプチャ回路;
前記シーンが前記ディスプレイ上において透明に見えるようにそのシーンをディスプレイ上にレンダリングするためのビデオ・レンダラ回路;
前記ビデオ・データ信号を解析して前記シーン内のオブジェクトを検出するための色解析回路;および、
前記検出したオブジェクトに応答して前記システム用の入力信号を生成するための入力ハンドラ回路;
を備えることを特徴とするビデオ・データ・ソースおよびディスプレイを有するシステムの装置。
実施形態17 複数のマシン可読インストラクションであって、プロセッサによって実行されたとき、システムに、ビデオ・ソースによって生成されたビデオ・データ信号であってシーンを表すビデオ・データ信号を取り込ませ、前記シーンがディスプレイ上において透明に見えるようにそのシーンを前記ディスプレイ上にレンダリングさせ、前記ビデオ・データ信号を解析させて前記シーン内のオブジェクトを検出させ、かつ前記検出したオブジェクトに応答して前記システム用の入力信号を生成させる複数のマシン可読インストラクションを有するマシン可読メディアからなる製品。
実施形態18 前記マシン可読メディアはさらに、前記シーンを映したイメージからなるシーンがレンダリングされるように、前記ディスプレイ上に前記シーンのイメージをレンダリングさせるインストラクションを含むことを特徴とする前記実施形態17記載の製品。
実施形態19 前記マシン可読メディアはさらに、前記透明にレンダリングしたシーンに加えて、少なくとも1つの表示オブジェクトを前記ディスプレイ上に表示させるインストラクションを含むことを特徴とする前記実施形態17記載の製品。
実施形態20 前記マシン可読メディアはさらに、前記シーン内における前記検出したオブジェクトの動きを、前記少なくとも1つの表示オブジェクトの選択として解釈させるインストラクションを含むことを特徴とする前記実施形態19記載の製品。
実施形態21 前記マシン可読メディアはさらに、前記ビデオ・データ信号のピクセルの色値を解析させ、選択した色値を有するピクセルにタグ付けを行わせるインストラクションを含むことを特徴とする前記実施形態17記載の製品。
実施形態22 前記マシン可読メディアはさらに、タグ付けしたピクセルのブロックを、検出したオブジェクトとして識別させ、前記検出したオブジェクトが、あらかじめ決定した入力イベントを表すオブジェクトの評価基準に一致するとき、対応する入力信号を生成させるインストラクションを含むことを特徴とする前記実施形態21記載の製品。
実施形態23 ビデオ・データ信号ソースおよびディスプレイに接続されたコンピュータ・システム内の、そのコンピュータ・システムに入力データを提供する装置であって:
前記ビデオ・ソースから受け取った、前記ビデオ・ソースによって取り込まれたシーンを表すビデオ・データ信号を処理するフィルタ・グラフであって:
前記シーンが前記ディスプレイ上において透明に見えるようにそのシーンを前記ディスプレイ上にレンダリングするビデオ・レンダラ・フィルタ;
前記ビデオ・データ信号のピクセルの色値を解析して指定範囲内のピクセルの色値にタグ付けする色解析フィルタ;および、
前記色解析フィルタに結合され、ビデオ・データ信号のピクセルの前記タグ付けされた色値を解析し、選択した色値を伴うピクセルのブロックを前記シーン内の検出したオブジェクトとして識別し、可能性のある入力イベントを通知するブロック検出フィルタ;を包含するフィルタ・グラフ;および、
前記通知を解析し、前記検出したオブジェクトが前記コンピュータ・システム用の入力信号を表しているか否かを判断するための入力イベント・ハンドラ;
を備えることを特徴とする装置。
実施形態24 前記フィルタ・グラフはさらに、前記ビデオ・ソースからビデオ・データ信号の個別のフレームを取り込むためのビデオ・キャプチャ・フィルタを備えることを特徴とする前記実施形態23記載の装置。
実施形態25 前記フィルタ・グラフはさらに、前記ビデオ・キャプチャ・フィルタに結合され、前記ビデオ・データ信号を少なくとも2つの、一方は前記ビデオ・レンダラ・フィルタに渡されるデータ・ストリームとし、他方は前記色解析フィルタに渡されるデータ・ストリームとする、実質的に類似のデータ・ストリームに分岐するティー・フィルタを備えることを特徴とする前記実施形態24記載の装置。
実施形態26 前記レンダリングされたシーンは、前記シーンを映したイメージからなることを特徴とする前記実施形態23記載の装置。
実施形態27 さらに、前記フィルタ・グラフと前記入力イベント・ハンドラの間のメッセージ・ベースのインターフェースを備えることを特徴とする前記実施形態23記載の装置。
10:OS出力用のフレームバッファ
18:透明表示用のフレームバッファ
24:色混合コンポーネント
26:インターリーブ・コンポーネント
28:ディスプレイ表示用のバッファ

Claims (4)

  1. 第1のビデオデータ信号を生成する手段と、
    第2のビデオデータ信号を生成する手段と、
    前記第2のビデオデータ信号による第2のイメージがディスプレイ上において前記第1のビデオデータ信号による第1のイメージの上で透明に見えるように、前記第1、第2のイメージのピクセルをインターリービングしてレンダリングする手段と、
    を含む装置。
  2. 請求項1記載の装置において、
    前記レンダリングが、前記第1のイメージの第1のピクセルの色を使用して前記第2のイメージの第2のピクセルの色を調整することを含む装置。
  3. 第1のビデオデータ信号を生成する手段と、
    第2のビデオデータ信号を生成する手段と、
    前記第2のビデオデータ信号による第2のイメージがディスプレイ上において前記第1のビデオデータ信号による第1のイメージの上で透明に見えるように、前記第1、第2のイメージのピクセルをインターリービングしてレンダリングする手段と、
    前記第2のイメージ内のオブジェクトを検出するために前記第2のビデオ・データ信号を解析する手段と、
    前記第2のイメージ内で前記オブジェクトを検出したとき、装置のプログラム用の入力イベントを自動的に生成する手段と
    を含む装置。
  4. 請求項3記載の装置において、
    前記レンダリングが、前記第1のイメージの第1のピクセルの色を使用して前記第2のイメージの第2のピクセルの色を調整することを含む装置。
JP2009113078A 1998-06-11 2009-05-07 コンピュータ・システムにおけるビデオ映像の使用 Pending JP2009181138A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/096,282 US6088018A (en) 1998-06-11 1998-06-11 Method of using video reflection in providing input data to a computer system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000553941A Division JP4523155B2 (ja) 1998-06-11 1999-05-25 コンピュータ・システムに対する入力データの提供におけるビデオ映像の使用方法

Publications (1)

Publication Number Publication Date
JP2009181138A true JP2009181138A (ja) 2009-08-13

Family

ID=22256652

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2000553941A Expired - Fee Related JP4523155B2 (ja) 1998-06-11 1999-05-25 コンピュータ・システムに対する入力データの提供におけるビデオ映像の使用方法
JP2009113078A Pending JP2009181138A (ja) 1998-06-11 2009-05-07 コンピュータ・システムにおけるビデオ映像の使用

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2000553941A Expired - Fee Related JP4523155B2 (ja) 1998-06-11 1999-05-25 コンピュータ・システムに対する入力データの提供におけるビデオ映像の使用方法

Country Status (7)

Country Link
US (1) US6088018A (ja)
EP (1) EP1084489A4 (ja)
JP (2) JP4523155B2 (ja)
KR (1) KR100354554B1 (ja)
AU (1) AU4312999A (ja)
TW (1) TW554329B (ja)
WO (1) WO1999065014A1 (ja)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6370487B1 (en) 1998-04-23 2002-04-09 Micron Technology, Inc. Remote semiconductor microscopy
US6222561B1 (en) * 1998-09-17 2001-04-24 International Business Machines Corporation Render optimization using page alignment techniques
US6353450B1 (en) 1999-02-16 2002-03-05 Intel Corporation Placing and monitoring transparent user interface elements in a live video stream as a method for user input
NO311740B1 (no) * 2000-09-11 2002-01-14 Tormod Njoelstad Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid
US20040046747A1 (en) * 2000-09-26 2004-03-11 Eugenio Bustamante Providing input signals
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US6882891B2 (en) 2000-12-06 2005-04-19 Microsoft Corporation Methods and systems for mixing digital audio signals
US6768499B2 (en) * 2000-12-06 2004-07-27 Microsoft Corporation Methods and systems for processing media content
US7103677B2 (en) * 2000-12-06 2006-09-05 Microsoft Corporation Methods and systems for efficiently processing compressed and uncompressed media content
US6959438B2 (en) 2000-12-06 2005-10-25 Microsoft Corporation Interface and related methods for dynamically generating a filter graph in a development system
US6961943B2 (en) * 2000-12-06 2005-11-01 Microsoft Corporation Multimedia processing system parsing multimedia content from a single source to minimize instances of source files
US7287226B2 (en) * 2000-12-06 2007-10-23 Microsoft Corporation Methods and systems for effecting video transitions represented by bitmaps
US6912717B2 (en) * 2000-12-06 2005-06-28 Microsoft Corporation Methods and systems for implementing dynamic properties on objects that support only static properties
US6954581B2 (en) * 2000-12-06 2005-10-11 Microsoft Corporation Methods and systems for managing multiple inputs and methods and systems for processing media content
US7447754B2 (en) * 2000-12-06 2008-11-04 Microsoft Corporation Methods and systems for processing multi-media editing projects
US6774919B2 (en) * 2000-12-06 2004-08-10 Microsoft Corporation Interface and related methods for reducing source accesses in a development system
US6983466B2 (en) * 2000-12-06 2006-01-03 Microsoft Corporation Multimedia project processing systems and multimedia project processing matrix systems
US6834390B2 (en) * 2000-12-06 2004-12-21 Microsoft Corporation System and related interfaces supporting the processing of media content
US7114161B2 (en) 2000-12-06 2006-09-26 Microsoft Corporation System and related methods for reducing memory requirements of a media processing system
US7114162B2 (en) 2000-12-06 2006-09-26 Microsoft Corporation System and methods for generating and managing filter strings in a filter graph
US7343415B2 (en) 2001-03-29 2008-03-11 3M Innovative Properties Company Display of software notes indicating that content from a content provider site is available for display
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
GB0109720D0 (en) 2001-04-20 2001-06-13 Koninkl Philips Electronics Nv Display apparatus and image encoded for display by such an apparatus
JP3645829B2 (ja) * 2001-05-14 2005-05-11 コナミ株式会社 画像の形成方法及び画像形成用のプログラム
US8364342B2 (en) * 2001-07-31 2013-01-29 Immersion Corporation Control wheel with haptic feedback
US7010794B2 (en) * 2002-01-23 2006-03-07 Microsoft Corporation Methods and systems for predicting events associated with renderable media content samples
US7158675B2 (en) 2002-05-14 2007-01-02 Microsoft Corporation Interfacing with ink
US7343566B1 (en) * 2002-07-10 2008-03-11 Apple Inc. Method and apparatus for displaying a window for a user interface
AU2002952371A0 (en) * 2002-10-31 2002-11-14 Robert Van Der Zijpp Mutli Image to Merged Image Software Process
US7426329B2 (en) 2003-03-06 2008-09-16 Microsoft Corporation Systems and methods for receiving, storing, and rendering digital video, music, and pictures on a personal media player
US20040201595A1 (en) * 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
US7403661B2 (en) * 2004-02-12 2008-07-22 Xerox Corporation Systems and methods for generating high compression image data files having multiple foreground planes
JP4005061B2 (ja) * 2004-06-30 2007-11-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法
EP1645944B1 (en) * 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
DE102004062148A1 (de) * 2004-12-23 2006-07-13 Hella Kgaa Hueck & Co. Anordnung für ein Kraftfahrzeug mit einer Kamera und einer Anzeigevorrichtung zum Erfassen und Anzeigen eines Bildes der Umgebung
WO2006098255A1 (ja) * 2005-03-15 2006-09-21 Shunsuke Nakamura 画像表示方法およびその装置
WO2007000743A2 (en) * 2005-06-28 2007-01-04 Koninklijke Philips Electronics, N.V. In-zoom gesture control for display mirror
US8549442B2 (en) * 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
TWI301590B (en) 2005-12-30 2008-10-01 Ibm Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition
US8004540B1 (en) * 2006-10-10 2011-08-23 Adobe Systems Incorporated Display resolution boundary
US20080150962A1 (en) * 2006-12-20 2008-06-26 Bezryadin Sergey N Image display using a computer system, including, but not limited to, display of a reference image for comparison with a current image in image editing
US7940982B1 (en) * 2007-05-31 2011-05-10 Zoran Corporation Method and apparatus for color space conversion using per-color selection of look-up table density
US8839142B2 (en) 2007-06-08 2014-09-16 Apple Inc. Desktop system object removal
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9001036B2 (en) 2007-12-20 2015-04-07 University Of Central Florida Research Foundation, Inc. Systems and methods of camera-based fingertip tracking
US8199106B2 (en) * 2007-12-20 2012-06-12 University Of Central Florida Research Foundation, Inc. Systems and methods of camera-based fingertip tracking
US8358314B2 (en) * 2008-02-08 2013-01-22 Apple Inc. Method for reducing framebuffer memory accesses
CN101526872B (zh) * 2008-03-05 2013-01-09 上海普芯达电子有限公司 电容式感应屏按钮状态的监测方法和电容式感应系统
US20090251460A1 (en) * 2008-04-04 2009-10-08 Fuji Xerox Co., Ltd. Systems and methods for incorporating reflection of a user and surrounding environment into a graphical user interface
US8125495B2 (en) 2008-04-17 2012-02-28 Microsoft Corporation Displaying user interface elements having transparent effects
US20090295682A1 (en) * 2008-05-30 2009-12-03 Fuji Xerox Co., Ltd. Method for improving sensor data collection using reflecting user interfaces
US9092053B2 (en) 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
US8184143B2 (en) * 2008-06-27 2012-05-22 Sony Mobile Communications Ab Simulated reflective display
CN101364265B (zh) * 2008-09-18 2013-04-24 北京中星微电子有限公司 自动配置电子设备的设备参数的方法及摄像头
US8902280B2 (en) * 2009-04-16 2014-12-02 Hewlett-Packard Development Company, L.P. Communicating visual representations in virtual collaboration systems
US8416262B2 (en) 2009-09-16 2013-04-09 Research In Motion Limited Methods and devices for displaying an overlay on a device display screen
CN101957712A (zh) * 2010-05-26 2011-01-26 宇龙计算机通信科技(深圳)有限公司 一种显示界面背景图片的显示控制方法、系统及移动终端
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
CN101950227B (zh) * 2010-08-27 2012-12-26 宇龙计算机通信科技(深圳)有限公司 一种电容屏的按键区域设置方法及终端
CN102402279B (zh) * 2010-09-17 2016-05-25 腾讯科技(深圳)有限公司 基于手势的人机交互方法及系统
US9292196B2 (en) 2010-10-19 2016-03-22 Apple Inc. Modifying the presentation of clustered application windows in a user interface
US9658732B2 (en) 2010-10-19 2017-05-23 Apple Inc. Changing a virtual workspace based on user interaction with an application window in a user interface
US10740117B2 (en) 2010-10-19 2020-08-11 Apple Inc. Grouping windows into clusters in one or more workspaces in a user interface
US9542202B2 (en) 2010-10-19 2017-01-10 Apple Inc. Displaying and updating workspaces in a user interface
US10152192B2 (en) 2011-02-21 2018-12-11 Apple Inc. Scaling application windows in one or more workspaces in a user interface
TW201237773A (en) * 2011-03-15 2012-09-16 Wistron Corp An electronic system, image adjusting method and computer program product thereof
US8928589B2 (en) 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
CN102510425A (zh) * 2011-10-28 2012-06-20 上海华勤通讯技术有限公司 移动终端和实景显示方法
JP5935529B2 (ja) 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2014016383A (ja) * 2012-07-05 2014-01-30 Toshiba Corp 画像処理装置および画像表示装置
CN103092616A (zh) * 2013-01-14 2013-05-08 深圳市金立通信设备有限公司 一种应用程序背景的显示方法及移动终端
US9672649B2 (en) * 2013-11-04 2017-06-06 At&T Intellectual Property I, Lp System and method for enabling mirror video chat using a wearable display device
ITCO20130068A1 (it) 2013-12-18 2015-06-19 Nu Tech S A S Di De Michele Marco & Co Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico.
US9645641B2 (en) 2014-08-01 2017-05-09 Microsoft Technology Licensing, Llc Reflection-based control activation
US20170344112A1 (en) * 2016-05-31 2017-11-30 Fove, Inc. Gaze detection device
US10942575B2 (en) * 2017-06-07 2021-03-09 Cisco Technology, Inc. 2D pointing indicator analysis
TWI719789B (zh) 2019-12-31 2021-02-21 技嘉科技股份有限公司 電子裝置及利用顯示畫面的熱鍵自動觸發方法
CN112312203B (zh) * 2020-08-25 2023-04-07 北京沃东天骏信息技术有限公司 视频播放方法、装置和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6465627A (en) * 1987-09-07 1989-03-10 Toshiba Corp Multiwindow display system
JPH04116689A (ja) * 1990-09-07 1992-04-17 Nippon Telegr & Teleph Corp <Ntt> 画面共用制御方式
JPH04262414A (ja) * 1991-02-15 1992-09-17 Sony Corp 座標入力装置
JPH09330422A (ja) * 1996-06-07 1997-12-22 Hitachi Ltd 3次元グラフィック表示方法および表示システム
JPH1027082A (ja) * 1996-07-09 1998-01-27 Nec Home Electron Ltd 画像表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0146657B1 (en) * 1983-12-22 1987-04-01 International Business Machines Corporation Raster-scanned cathode ray tube display with cross-hair cursor
EP0154067A1 (en) * 1984-03-07 1985-09-11 International Business Machines Corporation Display apparatus with mixed alphanumeric and graphic image
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5270688A (en) * 1990-12-12 1993-12-14 Apple Computer, Inc. Apparatus for generating a cursor or other overlay which contrasts with the background on a computer output display
US5534917A (en) * 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5283560A (en) * 1991-06-25 1994-02-01 Digital Equipment Corporation Computer system and method for displaying images with superimposed partially transparent menus
SE468963B (sv) * 1991-11-19 1993-04-19 Torbjoern Arvidsson Omstaellningsbart ergonomiskt manoeversystem
JP3244798B2 (ja) * 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
CA2109681C (en) * 1993-03-10 1998-08-25 Donald Edgar Blahut Method and apparatus for the coding and display of overlapping windows with transparency
US5436639A (en) * 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JPH08139994A (ja) * 1994-11-09 1996-05-31 Hitachi Ltd 画像合成システム
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
EP0823683B1 (en) * 1995-04-28 2005-07-06 Matsushita Electric Industrial Co., Ltd. Interface device
US5557759A (en) * 1995-06-07 1996-09-17 International Business Machines Corporation Video processor with non-stalling interrupt service
US5710877A (en) * 1995-12-29 1998-01-20 Xerox Corporation User-directed interaction with an image structure map representation of an image
US5982378A (en) * 1996-08-02 1999-11-09 Spatial Technology Inc. System and method for modeling a three dimensional object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6465627A (en) * 1987-09-07 1989-03-10 Toshiba Corp Multiwindow display system
JPH04116689A (ja) * 1990-09-07 1992-04-17 Nippon Telegr & Teleph Corp <Ntt> 画面共用制御方式
JPH04262414A (ja) * 1991-02-15 1992-09-17 Sony Corp 座標入力装置
JPH09330422A (ja) * 1996-06-07 1997-12-22 Hitachi Ltd 3次元グラフィック表示方法および表示システム
JPH1027082A (ja) * 1996-07-09 1998-01-27 Nec Home Electron Ltd 画像表示装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199900277009; 今野 潤: 'ジェスチャー入力によるマルチモーダルインタラクティブシステムの試作' 情報処理学会研究報告 第95巻 第42号, 19950517, p.65-72, 社団法人情報処理学会 *
JPN6012008841; 今野 潤: 'ジェスチャー入力によるマルチモーダルインタラクティブシステムの試作' 情報処理学会研究報告 第95巻 第42号, 19950517, p.65-72, 社団法人情報処理学会 *

Also Published As

Publication number Publication date
EP1084489A4 (en) 2003-01-02
KR100354554B1 (ko) 2002-09-30
AU4312999A (en) 1999-12-30
US6088018A (en) 2000-07-11
WO1999065014A1 (en) 1999-12-16
JP4523155B2 (ja) 2010-08-11
EP1084489A1 (en) 2001-03-21
JP2002518717A (ja) 2002-06-25
KR20010071454A (ko) 2001-07-28
TW554329B (en) 2003-09-21

Similar Documents

Publication Publication Date Title
JP4523155B2 (ja) コンピュータ・システムに対する入力データの提供におけるビデオ映像の使用方法
US6353450B1 (en) Placing and monitoring transparent user interface elements in a live video stream as a method for user input
EP1960990B1 (en) Voice and video control of interactive electronically simulated environment
Tan et al. WinCuts: manipulating arbitrary window regions for more effective use of screen space
US6570590B1 (en) Application sharing in a frame
US8639812B2 (en) Apparatus and system for managing multiple computers
US7689926B2 (en) Selective window exclusion for captured content
US9524140B2 (en) Apparatus and system for managing multiple computers
RU2491609C2 (ru) Прокрутка изображения виртуального рабочего стола
US8026920B2 (en) Extensible visual effects on active content in user interfaces
US6538676B1 (en) Video token tracking system for overlay of metadata upon video data
US8205169B1 (en) Multiple editor user interface
KR20110134940A (ko) 애플리케이션 공유
US10855481B2 (en) Live ink presence for real-time collaboration
JP2000039947A (ja) 二つ以上の表示ウィンドウを連動させる方法およびコンピュ―タ・システム
CN113082696A (zh) 显示控制方法、装置和电子设备
CN106468996A (zh) 计算机视频桌面的背景视频控制方法及装置
WO2023142964A1 (zh) 页面交互方法、装置、设备以及存储介质
WO2005002198A2 (en) Video playback image processing
RU2566975C2 (ru) Система, способ и компьютерная программа для функционирования множества вычислительных устройств
CN115243093B (zh) 视频弹幕的处理方法、装置、存储介质和电子装置
JP7342501B2 (ja) 表示装置、表示方法、プログラム
US20240094886A1 (en) Applying visual modifiers to objects of interest selected by a pointer from a video feed in a frame buffer via processing circuitry
US20130314424A1 (en) Display System for Electronic Device and Display Module Thereof
CN117193910A (zh) 一种帧动画处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120528

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120628

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120703

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120730

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130514

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130614