JPH09507620A - Observing a captured object from a selected viewpoint - Google Patents

Observing a captured object from a selected viewpoint

Info

Publication number
JPH09507620A
JPH09507620A JP7518668A JP51866895A JPH09507620A JP H09507620 A JPH09507620 A JP H09507620A JP 7518668 A JP7518668 A JP 7518668A JP 51866895 A JP51866895 A JP 51866895A JP H09507620 A JPH09507620 A JP H09507620A
Authority
JP
Japan
Prior art keywords
image
images
taken
viewpoint
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7518668A
Other languages
Japanese (ja)
Inventor
フイスズ,リチャード,シー.
バティスト,ジェラルド,イー.
Original Assignee
フイスズ,リチャード,シー.
バティスト,ジェラルド,イー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フイスズ,リチャード,シー., バティスト,ジェラルド,イー. filed Critical フイスズ,リチャード,シー.
Publication of JPH09507620A publication Critical patent/JPH09507620A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals

Abstract

(57)【要約】 物体(18)は、異なる視点(17)から撮られた物体の複数の影像の系列を発生するために、互いに対する既知の相対位置を有する、複数の間隔を置いた位置(16)から撮影される。これらの影像は、あたかも設定視点のどれとも異なる使用者選択視点(33)から撮られたかのように物体の表示可能個別影像又は影像の系列を構成するように、使用者に表示可能であるか、又は既知の相対位置情報を使用して使用者指令(24)の下にプロセッサ(22)によって操作される。発生された影像又は構成された影像は、撮影された物体上のズームイン及びズームアウト、及び影像の不要部分の除去を容易にするように使用者制御の下に更に処理可能である。 (57) Summary The object (18) has a plurality of spaced positions having a known relative position to each other to generate a sequence of images of the object taken from different viewpoints (17). Photographed from (16). Whether these images can be displayed to the user to constitute a displayable individual image or sequence of images of the object as if they were taken from a user-selected viewpoint (33) different from any of the set viewpoints, Alternatively, it is operated by the processor (22) under user command (24) using known relative position information. The generated or constructed image can be further processed under user control to facilitate zooming in and out on the imaged object and removing unwanted parts of the image.

Description

【発明の詳細な説明】 撮影された物体の選択された視点からの観察 関連出願の相互参照 この出願は、1994年1月10日に出願された先願の同時係属米国特許出願 第08/179,383号の一部継続出願である。 発明の背景 発明の技術分野 本発明は、物体の影像を記録しかつ表示する技術、特に選択された視点からの 表示用のこのような影像の操作に関する。 関連技術の説明 例えば、映画において光学的に撮影された物体(例えば、物品、事象、光景、 又は場所)の観察者は、撮影のときに確立された限られた数の視点からこれらの 物体の連続の像(sequence of image)を観察することに、従 来、制約されてきた。事実、ビデオテープ又は映画フィルム影像として記録され た物体を観察するとき、観察者は、物体が撮影されたとき他人(例えば、監督) によって選択された単一視点のみに、普通、限定される。影像のこのような系列 を相手に、観察者は、彼の望む視点が選択されなかったと云う、及び/又は撮影 された物体の複数の異なる眺めが考慮に入れられていないと云う事実のために、 しばしば、不満を抱く。更に、物体に係わる多数の視点が撮影されかつ利用可能 とされているとき、観察者は、物体に対する或る他の視点が選択されなかったか つ観察に当たって利用可能とされていないと云う事実のために、依然として不満 を抱くかもしれない。 発明の要約 上述の懸念に本発明の方法及び装置は取り組んでおり、本発明では、複数の撮 影デバイスが、複数の異なる視点から物体の連続の像を記録するために、間隔を 取った位置に位置決めされる。レーザ(方向及び距離)追跡デバイスが撮影デバ イスの相対位置を決定し、かつ相対位置決定は記録された影像の系列と同期させ られる。設定(taken)視点の1つから撮影された物体を表示することが、 もし望まれるならば、プロセッサは、常のように、撮影デバイスによって撮られ た通りに、記録された影像を使用者に提示する。加えて、プロセッサは、あたか も観察者選択視点から撮られたかのような表示用に物体の影像の系列又は静止画 像(freeze frame image)を構成するために、撮影デバイス の決定された相対位置に関連してインタフェースを通して提供された観察者入力 に従って、撮られた影像の系列を操作する。プロセッサは、更に、撮影された物 体上のズームイン及びズームアウトを容易にするために、及び表示のために撮影 された物体の不要部分を除去するために使用者制御の下に影像を処理する。 図面の簡単な説明 本発明の方法及び装置のより完全な理解は、次の詳細な説明を参照することに よって、添付図面と関連させられるとき、得られると云える。これらの図面にお いて、 第1図は本発明の影像処理システムのブロック図である。 第2図は本発明の技術によって撮影されるべき物体の周り及び辺りの複数の撮 影デバイスの例証設置を図解する。 第3図は撮影されるべき物体の周り及び辺りの複数の撮影デバイスを取り付け かつ支持する可動構造を示す。 第4図は本発明の方法の第1実施例の流れ図である。 第5図は本発明の方法の第2実施例の流れ図である。 実施例の詳細な説明 第1図には、本発明の影像処理システム10のブロック図が示されている。こ のシステムは、記憶装置14に接続された(ディジタル化光学カメラ、高精細度 フィルムカメラ、及び/又は三次元撮像カメラのような)複数の撮影像装置12 を含む。撮像装置12によって撮像された連続の像は、説明されるような方法で 将来の検索及び処理に備え、記録時間に従って同期して、記憶装置14に別々に 記憶される。このようにして、連続の像は、要望や必要に応じてフィルム、光又 は磁気テープ、光又は磁気ディスク、又は他の適当な記憶媒体に記憶される。連 続の像を記憶するのに使用される記憶装置14は、像の検索にも使用する必要は ないことは、云うまでもない。それゆえ、媒体へ影像データを記憶する機能とそ の後媒体から影像データを検索する機能は、異なる場所で実行されることがある 。更に、これに代えて、連続の像は、説明されるような方法で更に処理のために 、ディジタル化、偏波、異なった帯域幅、又は順次同時混合伝送技術を使用して 、撮像装置12から線路15を通して同時に、別々に、しかも、同時併存的に伝 送される(また、時間記録に従って同期される)ことがある。線路15を通して の影像の伝送は、ここに更に説明するように影像の「ライブ(live)」処理 及び表示に特に有効である。 第2図では、物体18の周りに間隔を置いて選択された位置16に複数の撮像 装置12を設置した例が図示されている。複数の撮像装置12は、複数の異なる 視点(以後、「設定視点」17」と称する)から物体18の一連の像を同時に記 録するために位置16に位置決めされるのが好ましい。 ここに使用されているように、用語「物体」18は、単一物品、人又は物だけ でなく、また光景を形成する物、人又は物の集り、あるいは、特定の地理的位置 又はその位置に起こりつつある事象又は活動を表わすのに、一般に使用される。 撮像された物体18は、それゆえ、限定を伴わず、映画又はテレビジョン作品ば かりでなく、テレビジョン放映されるコンサート又はスポーツ事象のような「活 動的」事象をも含む。 第2図の設置において、5つの撮像装置12は、仮想正方形20の隅の各々に 1つずつかつこの正方形の中心の真上に1つ位置される。他の設置形態として、 必ずしも完全に取り囲んでいないか又はより多いかより少ない数の撮像装置12 を備える(球状形態を含む)形態を取ることも可能である。正方形20の形態は 単なる一使用例に過ぎない。それゆえ、撮像される物体18に対して複数の異な る設定視点17を与える位置16において撮像装置12が互いに間隔を置いてい るならば、撮像装置12は、所要の方法で本発明に従って位置決めすることがで きる。 第1図及び第2図において、撮像装置12よって記録されかつ記憶装置14に よって記憶された物体18の複数の連続の像は、記憶装置14からプロセッサ2 2によって同時に検索可能であるか、又は「活動」動作モードにおいて撮像装置 からプロセッサによって線路15を通して受信可能である。(グラフィック使用 者インタフェースのような)対話デバイス24は、プロセッサに接続され、かつ 使用者が撮像された物体をそこから観察することを望む視点を選択するために使 用者によって動作される。この選択視点は、位置16にある撮像装置12によっ て提供された複数の異なる設定視点17の1つを含んでもよい。対話デバイス2 4を通しての使用者によるこのような選択に応答して、プロセッサ22は、選択 位置16における撮像装置によって撮られた連続の像を獲得し、かつこれらの影 像をモニタ28又は仮想現実型ディスプレイヘルメット30のどちらかを含むデ ィスプレイ26上に表示することになる。これに代えて、デバイス24の作動に 応答して、使用者は「静止画面」モードで観察するために撮られた連続の像のい ずれか1つを選択することができる。 これに代えて、選択視点は、撮像装置12の配置に関連した位置16のどれと も異なる(例えば、これらの位置間のどこかの)選択位置によって規定された視 点を含んでよい。代表的な選択位置は、図2に参照番号32として図示されてい る。物体18に対するこのような視点(以下、「選択視点33」と称する)につ いての対話デバイス24を通して使用者によるこのような選択に応答して、プロ セッサ22は、位置16の各々における撮像装置12によって記録された連続の 像を獲得し、かつファジィ論理処理34の使用を通して、選択位置32に相当す る選択視点33を有する記録された影像の系列から連続の像又は単一静止画像を 形成する。この形成された影像の系列又は静止画像は、また、ディスプレイ26 上で使用者に提示されることになる。このように、本発明によれば、使用者は、 設定視点17に対する位置16に撮像装置12を配置することによっては提供さ れない所にある(位置32の1つにおける)選択視点33から物体18の個々の 影像又は連続の像を、観察することができる。 対話デバイス24の使用を通して、使用者は、複数の撮像装置12によって撮 られた映像に支持される(選択視点33によって規定され幻影(phantom )角を含む)或る数の選択角のいずれかから物体18を観察するように、物体1 8の周りや近辺を「動き」、かつ物体上でズームイン及びズームアウトすること ができる。ここで「支持される」とは、プロセッサ22が選択位置32及び距離 で 連続の像又は静止画像を形成するのに必要で充分かつ適当な影像データが撮像装 置12によって得られなければならないことを意味する。それゆえ、充分なデー タを得るために、高精細度フィルム又はディジタルカメラが使用されることが好 ましい。連続の像又は静止画像を形成するのに不充分なデータしか存在しない状 況においては、プロセッサ22はこのような視点又は距離での使用者による選択 を限定するか、又は現存する影像データから可能な限り最良の解像度と精度で像 を形成することになる。更に認識すべきは、ズームアウト中、位置32から物体 18への距離が増大するに従って、形成された連続の像に要求される精細度がか なり低下すると云うことである。それゆえ、個々の影像又は連続の像を形成する に当たって、より少ない影像データしかプロセッサ22によって必要とされない ことになる。 ズームアウトの時、撮像装置12と物体18との間の当初の距離を通過してズ ームアウトが変化するに従って利用可能な影像データが不足するので、形成され 又は撮られた連続の像又は静止画像が収縮することがある。ズーム影像の処理に 当たってプロセッサ22を助援するために、魚眼レンズを利用する撮像装置12 ′からの影像データが、形成され又は撮られた影像を完全にする(full o ut)ために必要とされる縁取り影像データを提供するように使用されることが ある。このような場合、撮像装置12′によって提供された影像データは、プロ セッサ22によって切り出され、かつ従来の撮像装置12によって提供された連 続の像又は静止画像の周りに付加される。魚眼レンズに関連した影像の湾曲は、 従来の影像処理技術を使用してプロセッサ22によって減少又は除去される。 注意すべきは、複数の撮像装置12に関する多くの設置形態において、1つの 視点17から撮られ又は選択視点33に対して構成された物体18の影像は、他 の位置16における撮像装置のうちの他の1つ、又は或る他の不要物体又は項目 を含むかもしれないことである。例えば、第2図に示された形態において、正方 形20の1つの隅における撮像装置12によって撮られた物体18の連続の像は 、その正方形の対角的に反対の隅における撮像装置を含むことがある。或る物体 18、例えば、スポーツ事象又はその他の「活動的」事象中に撮られたスポーツ スタジアム又はその他の開催場所を考えると、この物体の撮られた影像内の他の 撮 像装置12の存在は、紛らわしくないであろう。しかしながら、映画又はテレビ ジョンショー用のスタジオ内又はロケーションで撮られたシーンのような、他の 物体18に対しては、影像内の撮像装置12の(このデバイスの操作員のような 他の不要物体と連れ立っての)存在は、非常に紛らわしくかつほとんど現実的で ない。したがって、対話デバイス24を通しての使用者の制御の下で、プロセッ サ22は、撮像され又は形成された連続の像又は静止画像のどちらかから不要項 目を除去するために影像減算論理処理36を更に利用する。これに代えて、不要 項目を色コード化し、かつ従来の青マスキング技術を通して除去してもよい。 ファジィ論理処理34を使用して選択視点33から撮られた連続の像を形成す るために、又は物体18上のズームイン及びズームアウトをするために、又は影 像減算論理処理36を通して撮影された物体の不要部分を除去するために、プロ セッサ22によって撮られた影像の或るいくつかの処理は、他の影像についてよ りも多くの時間を費やす。このような遅延は、表示のために出力され形成された 連続の像の連続性を崩壊させることになる。したがって、プロセッサ22は、こ のプロセッサから構成され及び/又は出力された個々の影像を表示するに先立ち 所定時間の遅延にわたり逐次記憶する影像バッファ23を更に含む。時間遅延中 のバッファ23内の影像の記憶によって、計算上さらに後続する影像が先に発生 されかつ出力された影像に追い付くことを可能にする。バッファからの出力が引 き続き遅延する時、選択視点33からの観察のために無停電で順次連続的な方法 で、影像はディスプレイデバイス26によって提示される。影像に関連したなん らか音響があれば、これもバッファ23内で同様に遅延されて、同期出力される 。 ここに論じられたプロセッサ22による連続の像の処理は、撮像装置12の互 いに対する相対位置が知られているとき、容易にかつより敏速に達成される。影 像を撮るデバイス12の相対位置は、インタフェース24を通してプロセッサ2 2に入力されることがある。これに代えて、本発明は、撮像装置12の1つの位 置を含むことがある既知の位置に位置決めされたレーザ追跡デバイス31を更に 含む。レーザ追跡デバイス31は、各撮像装置12に向けられかつこれから反射 されるレーザビーム35を発射する(2つのこのようなビームが第2図に示され ている)。反射ビームは、各撮像装置への距離及び方向(すなわち、相対位置) を決定するために、デバイス31によって処理される。撮像装置12の相対位置 は記憶装置14へ伝送されて、記録された影像と共に記憶されるか、又はこれに 代えて「活動」モードにおいて、プロセッサ22に直接伝送されて、影像形成、 ズーミング及び影像減算処理に使用される。撮像装置12の位置16が固定され ている場合、相対距離情報は一度計算されるだけでよく、かつ物体18の影像を 記録するのに先立ちプロセッサ22へ伝送される。逆に、物体18の撮影中撮像 装置12が相対して運動するときは、相対位置情報は、周期式にデバイス31に よって更新され、かつ記録する時間に従って、記録された影像と同期された記憶 装置14又はプロセッサ22へ伝送される。 第3図を参照するに、ここには位置16における複数の撮像装置12を取り付 けかつ支持する構造39が示されている。構造39は、複数の伸縮アーム41を 含む。自在継手43が、アーム41の各1つの各端に備えられる。各アーム41 上の自在継手43のうちの遠端のものは、撮像装置12の取付けを支持する。自 在継手43のうちの近端のものは、支持架台45に取り付けられる。 構造39は、典型的に、静止物体18の撮影中1つの位置に固定される。しか しながら、非固定物体18に対しては、構造39は、撮影される物体と共に運動 するために(例えば、トラックカート(track cart)、トラック(t ruck)、ヘリコプターを含む、概略的に幻影で示された)乗物43に取り付 けられる。伸縮アーム41及び自在継手43の使用は、物体18に対する複数の 視点を提供する或る数の間隔を置いて配置された位置16のどれか1つに本発明 による複数の撮像装置12を位置決めすることを容易にする。構造39用のアー ム41及び継手39の位置は、物体18及び/又は乗物43の運動中でも複数の 撮像装置12間の実質的に一定の相対位置を維持するようにロックすることがで きる。 第4図を参照するに、ここには本発明の方法の第1実施例の流れ図が示されて いる。物体18の連続の像は、まず、既知の相対位置を有する複数の撮像装置1 2によって捕捉される(ステップ38)。次に、捕捉された影像データが幻影角 及びズーミング能力に関して処理される(ステップ40)。処理されたデータは 、次いで、媒体上に記録されるか(ステップ42)又は活動状態のまま伝送され て (ステップ44)、使用者が選択した選択視点17及び33からの連続の像をそ れぞれ表示するための後続処理を行う。このような表示は、使用者が選択視点及 び距離のような好適観察情報を入力するステップ(ステップ46)を含む。処理 された影像データは、次いで、使用者入力に応答して読まれ(ステップ48)、 かつ連続の像又は静止画像が使用者入力(ステップ49)と撮像装置12の既知 の相対位置とから形成され、かつモニタへ伝送されて観察に供される(ステップ 50)。 第5図を参照するに、本発明の方法の第2実施例の流れ図が示されている。物 体18の影像の系列は、まず、既知の相対位置を有する複数の撮像装置12によ って捕捉される(ステップ52)。影像は、次いで、適当な媒体上に記録される (ステップ54)。この点で、記録された影像の系列が、その後の販売又はリー スのためにパッケージされることがあることが理解できる。それらの影像の使用 に当たって、影像データは、プロセッサ22によって同時にアクセスされ(ステ ップ56)、かつ対話型観察デバイスの使用を通しての使用者好適観察情報入に 従って処理すると共に、撮像装置12の既知の相対位置に従って処理されて(ス テップ58)、観察に供する連続の像又は静止画像を発生又は形成するか(ステ ップ60)、又はこれに代えて、発生された連続の像又は静止画像が記録され( ステップ62)、かつその記録が、その後、観察者に提供されて、後程、アクセ スに供される(ズテップ64)。 本発明は、映画、テレビジョンショー等の作品における監督の従来の役割を置 換したり又は廃止させることを意図しているのではない。このような作品におい て、監督による選択シーン及び事象の設定視点17は、使用者の選択のために撮 像装置12によって与えられた他の設定視点17と共に提供される。加えて、幻 影角からの選択視点33もまた、本発明によって連続の像を処理することにより 観察者に利用可能となる。観察者が監督の選択を観察しようと欲するならば、こ れらの影像が表示される。そうでなければ、観察者は、本発明の方法及び装置を 用いて、影像データによって支持されている観察に対して(撮られた又は形成さ れたどちらかの影像を使用して)どんな他の視点や距離を選択するのも自由であ る。このような観察は、静止画像ばかりでなく、連続の像の観察を含むであろう 。 本発明の1つの直接の用途は、監督にとって多くの設定視点17からのシーン を記録することであろう。記録された設定視点17からの連続の像を見直し、か つ他の選択視点33を有する幻影角からの連続像又は静止画像を発生することに よって、監督は、最終記録を作成するために最適角及び撮像装置位置を選択する ことができる。更に、多くの撮像装置を、一般配給用の作品の異なる版を作成す る最終撮影に使用することができる。更に、本発明のプロセッサは、ショーを行 っている間に、観察者が家庭又は劇場において幻影角に関する他の視点33を選 択するのに利用することができる。本発明の静止画面の特徴は、更に、役割演技 ゲーム(例えば、推理/探偵又は戦闘ゲーム)に参加している際に必要となるよ うな、記録シーンの観察者による注意深い考察を容易にする。 本発明の方法及び装置の好適実施例が添付図面に図示されかつ上述の詳細な説 明において説明されているが、発明は開示された実施例に限定されるものではな く、次の請求の範囲に記載されかつ規定された発明の精神に反することなく極め て多くの再構成、変形、及び置換が可能である。Detailed Description of the Invention                 Observing a captured object from a selected viewpoint Cross-reference of related applications   This application is a co-pending US patent application filed on January 10, 1994 It is a partial continuation application of No. 08 / 179,383. BACKGROUND OF THE INVENTION   TECHNICAL FIELD OF THE INVENTION   The present invention relates to a technique for recording and displaying an image of an object, particularly from a selected viewpoint. It relates to the manipulation of such images for display.   Description of related technology   For example, an object (e.g., item, event, scene, (Or place) observers from the limited number of viewpoints established at the time of shooting. Observing a sequence of images of an object It has been constrained since then. In fact, recorded as a videotape or movie film image When observing an object that has been viewed, the observer may be a stranger (eg, a director) when the object was captured Are usually limited to a single viewpoint selected by. Such a series of images , The observer said that his desired viewpoint was not selected, and / or Due to the fact that multiple different views of the object being taken into account are not taken into account, Often complained. In addition, multiple viewpoints of the object can be captured and used , If the observer has not selected some other perspective on the object? Still complained of due to the fact that it was not made available for observation. May hug you. SUMMARY OF THE INVENTION   The method and apparatus of the present invention address the above concerns and in the present invention, multiple images are captured. A shadow device provides a space for recording a continuous image of an object from multiple different viewpoints. It is positioned at the picked position. Laser (direction and distance) tracking device Determine the relative position of the chair and synchronize the relative position with the sequence of recorded images. Can be Displaying an object shot from one of the set (taken) viewpoints, If desired, the processor will be taken by the imaging device, as usual. The recorded image is presented to the user as described above. In addition, the processor is Also a series of images or still images of an object for display as if they were taken from the viewpoint selected by the observer. Imaging device for constructing a freeze frame image Observer input provided through the interface in relation to the determined relative position of the Manipulate the sequence of images taken according to. The processor is also a Taken to facilitate zooming in and out on the body and for display The image is processed under user control to remove unwanted parts of the imaged object. Brief description of the drawings   For a more complete understanding of the method and apparatus of the present invention, reference is made to the following detailed description. Thus, it can be said to be obtained when associated with the accompanying drawings. In these drawings And   FIG. 1 is a block diagram of the image processing system of the present invention.   FIG. 2 shows multiple shots around and around an object to be shot by the technique of the present invention. Figure 9 illustrates an example installation of a shadow device.   FIG. 3 shows mounting multiple imaging devices around and around the object to be photographed. Also, a movable structure for supporting is shown.   FIG. 4 is a flow chart of the first embodiment of the method of the present invention.   FIG. 5 is a flow chart of a second embodiment of the method of the present invention. Detailed description of the embodiment   A block diagram of the image processing system 10 of the present invention is shown in FIG. This System connected to storage device 14 (digitized optical camera, high definition Multiple imaging devices 12 (such as film cameras and / or 3D imaging cameras) including. A series of images taken by the imager 12 is processed in the manner described. Separately stored in the storage device 14 in synchronization with the recording time in preparation for future retrieval and processing. Remembered. In this way, a continuous image can be produced on film, light or Are stored on magnetic tape, optical or magnetic disks, or other suitable storage media. Communicating The storage device 14 used to store subsequent images does not have to be used for image retrieval as well. It goes without saying that there is nothing. Therefore, it has the function of storing image data on the medium. The ability to retrieve image data from a later medium may be performed in different locations . Further alternatively, the continuous image is processed for further processing in the manner described. , Using digitization, polarization, different bandwidth, or sequential simultaneous mixed transmission technology , From the imaging device 12 through the line 15 simultaneously, separately, and simultaneously simultaneously. It may be sent (and synchronized according to a time record). Through track 15 Image transmission is a "live" process of images as described further herein. And is particularly effective for display.   In FIG. 2, multiple images are taken at selected locations 16 spaced around the object 18. An example of installing the device 12 is shown. The plurality of imaging devices 12 are different from each other. Simultaneously record a series of images of the object 18 from the viewpoint (hereinafter referred to as the "set viewpoint" 17 "). It is preferably positioned at position 16 for recording.   As used herein, the term "object" 18 refers to a single item, person or thing only. A person, a group of people or a group of things that form a scene, or a particular geographical location Or commonly used to describe an event or activity occurring at that location. The imaged object 18 is therefore, without limitation, in a movie or television production. Instead of live performances such as concerts or sports events televised on television. Also includes "dynamic" events.   In the installation shown in FIG. 2, the five image pickup devices 12 are provided at the respective corners of the virtual square 20. One at a time and one just above the center of this square. As another installation form, A greater or lesser number of imaging devices 12 that are not necessarily completely enclosed It is also possible to take a form including (including a spherical form). The shape of the square 20 is It is just one use case. Therefore, a plurality of different objects 18 are to be imaged. The imaging devices 12 are spaced from each other at a position 16 that gives a set viewpoint 17 If so, the imaging device 12 can be positioned according to the invention in any desired manner. Wear.   In FIG. 1 and FIG. 2, recorded by the imaging device 12 and stored in the storage device 14. Thus, a plurality of consecutive images of the stored object 18 are stored from the storage device 14 to the processor 2 Imaging devices that are searchable simultaneously by two or in the "activity" mode of operation Can be received by the processor over line 15. (Use graphic An interactive device 24 (such as a human interface) is connected to the processor and Used to select the viewpoint from which the user wishes to observe the imaged object. Operated by the user. This selected viewpoint is determined by the imaging device 12 at the position 16. It may include one of a plurality of different setting viewpoints 17 provided by the user. Dialogue device 2 In response to such selection by the user through the processor 4, the processor 22 selects Acquire a series of images taken by the imager at position 16 and shadow these The image includes a monitor 28 or a virtual reality display helmet 30 It will be displayed on the display 26. Instead, to activate the device 24 In response, the user has a series of images taken for viewing in "still screen" mode. One of them can be selected.   Alternatively, the selected viewpoint may be any of the positions 16 associated with the placement of the imaging device 12. Are also defined by different selected positions (eg somewhere between these positions) May include dots. A representative selection position is illustrated in FIG. 2 as reference numeral 32. You. Such a viewpoint (hereinafter referred to as “selected viewpoint 33”) for the object 18 In response to such selection by the user through the interactive device 24, The sessa 22 has a series of recordings recorded by the imaging device 12 at each of the positions 16. Through the use of the fuzzy logic process 34 to capture the image and correspond to the selected position 32. A series of images or a single still image from a sequence of recorded images with a selected viewpoint 33 Form. This formed sequence of images or still images is also displayed on the display 26. Will be presented to the user above. Thus, according to the present invention, the user Provided by placing the imaging device 12 at position 16 relative to the set viewpoint 17. From the selected viewpoint 33 (at one of the positions 32) out of the way A shadow image or a series of images can be observed.   Through the use of the interaction device 24, the user can capture images with multiple imaging devices 12. Supported by the selected image (defined by the selected viewpoint 33, phantom (phantom) Object 1 to observe object 18 from any of a number of selected angles). "Move" around and near 8 and zoom in and out on objects Can be. Here, "supported" means that the processor 22 selects the position 32 and the distance. so Sufficient and appropriate image data necessary to form a continuous image or a still image is acquired by the imaging device. It means that it must be obtained by the device 12. Therefore, enough days High definition film or digital cameras are preferably used to obtain Good. Insufficient data exists to form a continuous or still image. In some situations, the processor 22 may select by the user at such a viewpoint or distance. Image with the best resolution and accuracy possible from existing image data. Will be formed. It should be further recognized that during zooming out the object from position 32 As the distance to 18 increases, the required fineness of the formed continuous images increases. It means that it will decrease considerably. It therefore forms an individual image or a series of images Less image data is needed by the processor 22 to hit Will be.   When zoomed out, the original distance between the imaging device 12 and the object 18 is passed and As there is a lack of available image data as the Or, the series of images or still images taken may contract. For processing zoom images Imaging device 12 that utilizes a fisheye lens to assist the processor 22 in hitting The image data from'completes the image formed or taken (full o ut) can be used to provide the edging image data needed for is there. In such cases, the image data provided by the imager 12 'may be The sequence cut out by the sessa 22 and provided by the conventional imaging device 12 is used. Added around a series of images or still images. The image curvature associated with the fisheye lens is Reduced or eliminated by processor 22 using conventional image processing techniques.   Note that in many installation configurations involving multiple imagers 12, one The image of the object 18 taken from the viewpoint 17 or configured for the selected viewpoint 33 is One of the imagers at position 16 of the other, or some other unwanted object or item May include. For example, in the form shown in FIG. A series of images of the object 18 taken by the imager 12 at one corner of the shape 20 is , May include imagers at diagonally opposite corners of the square. An object 18, eg sports taken during sporting events or other "active" events Considering a stadium or other venue, other objects in the captured image of this object Shooting The presence of the imager 12 would not be confusing. However, movies or TV Others, such as scenes taken in the studio or location for John Shaw For the object 18, the imager 12 (such as the operator of this device) in the image Being present (along with other junk objects) is very confusing and almost real. Absent. Therefore, the process is under the control of the user through the interaction device 24. The server 22 is capable of eliminating unnecessary terms from either the captured or formed continuous image or still image. Image subtraction logic 36 is further utilized to remove the eyes. Instead, no need Items may be color coded and removed through conventional blue masking techniques.   Form a series of images taken from a selected viewpoint 33 using fuzzy logic processing 34 In order to zoom in and out on the object 18, or shadows In order to remove unwanted parts of the imaged object through the image subtraction logic process 36, Some processing of the images taken by Sessa 22 may be different for other images. Spend much more time. Such a delay is output and formed for display It will destroy the continuity of the continuous image. Therefore, the processor 22 Prior to displaying the individual images constructed and / or output from the It further includes an image buffer 23 for sequentially storing over a delay of a predetermined time. Delaying time By storing the image in the buffer 23 of the It is possible to catch up with the image that has been output. The output from the buffer is When there is a continuous delay, a continuous method without interruption for observation from the selected viewpoint 33 The image is then presented by the display device 26. What was associated with the image If there is a sound, this is also delayed in the buffer 23 and output in synchronization. .   The processing of successive images by processor 22 discussed herein is mutually exclusive to imager 12. It is easily and more quickly achieved when the relative position to the is known. Shadow The relative position of the imaging device 12 is determined by the processor 2 through the interface 24. May be entered in 2. Instead of this, the present invention relates to one unit of the imaging device 12. A laser tracking device 31 positioned at a known position, which may include Including. The laser tracking device 31 is directed to and reflected from each imager 12. Firing a laser beam 35 (two such beams are shown in FIG. 2). ing). The reflected beam is the distance and direction (ie relative position) to each imager Is processed by the device 31 to determine Relative position of the imaging device 12 Is transmitted to the storage device 14 and stored with the recorded image, or Alternatively, in "activity" mode, it is transmitted directly to the processor 22 for imaging, Used for zooming and image subtraction processing. The position 16 of the imaging device 12 is fixed , The relative distance information only needs to be calculated once and the image of the object 18 is It is transmitted to the processor 22 prior to recording. On the contrary, the image pickup of the object 18 during photographing When the device 12 moves relative to each other, the relative position information is periodically transferred to the device 31. Therefore, the memory updated and synchronized with the recorded image according to the recording time It is transmitted to the device 14 or the processor 22.   Referring to FIG. 3, mounting a plurality of imaging devices 12 at position 16 A support and support structure 39 is shown. The structure 39 includes a plurality of telescopic arms 41. Including. A universal joint 43 is provided at each end of each one of the arms 41. Each arm 41 The far end of the upper universal joint 43 supports the mounting of the imaging device 12. Self The near-end one of the existing joints 43 is attached to the support frame 45.   The structure 39 is typically fixed in one position during the capture of the stationary object 18. Only However, for non-stationary objects 18, the structure 39 moves with the object being imaged. (E.g., track cart, track (t Ruck), including a helicopter, shown schematically in phantom) mounted on a vehicle 43 Be killed. The use of telescopic arm 41 and universal joint 43 allows multiple The invention at any one of a number of spaced positions 16 that provides a viewpoint Facilitates positioning of the plurality of imaging devices 12 according to. Ar for structure 39 The positions of the frame 41 and the joint 39 may be different during movement of the object 18 and / or the vehicle 43. It can be locked to maintain a substantially constant relative position between the imaging devices 12. Wear.   Referring now to FIG. 4, there is shown a flow chart of a first embodiment of the method of the present invention. I have. A continuous image of the object 18 is first obtained by capturing a plurality of image capture devices 1 having known relative positions. 2 (step 38). Next, the captured image data is the phantom angle. And zooming capabilities (step 40). The processed data is , Then recorded on the medium (step 42) or transmitted active hand (Step 44), a continuous image from the selected viewpoints 17 and 33 selected by the user is displayed. Subsequent processing for displaying each is performed. This kind of display can be selected by the user. And inputting preferred observation information such as distance (step 46). processing The imaged image data is then read in response to user input (step 48), A continuous image or a still image is input by the user (step 49) and the imaging device 12 is known. And the relative position of the image and transmitted to the monitor for observation (step 50).   Referring to FIG. 5, there is shown a flow chart of a second embodiment of the method of the present invention. Stuff A series of images of the body 18 is first obtained by a plurality of image pickup devices 12 having known relative positions. Are captured (step 52). The image is then recorded on a suitable medium. (Step 54). At this point, the sequence of recorded images is Understand that it may be packaged for Use of those images Image data is simultaneously accessed by the processor 22 (step 56), and to input user-friendly observation information through the use of an interactive observation device. Therefore, it is processed and processed according to the known relative position of the imaging device 12 ( (Step 58), whether to generate or form a continuous or still image for observation (step 60), or alternatively, a series of images or still images generated are recorded ( Step 62), and the record is then provided to the observer for later access. (Step 64).   The present invention retains the traditional role of directors in films, television shows and other works. It is not intended to be replaced or abolished. Smell like this The setting viewpoint 17 of the scene and event selected by the director is taken for the user's selection. It is provided with another set viewpoint 17 provided by the imaging device 12. In addition, the illusion The selected viewpoint 33 from the shadow angle can also be obtained by processing a continuous image according to the present invention. It will be available to the observer. If the observer wants to observe the director's choice, this The images of these are displayed. Otherwise, the observer may use the method and apparatus of the present invention. Used for the observations supported by the image data (taken or formed. You are free to choose any other viewpoint or distance (using either image You. Such observations would include observations of successive images as well as still images. .   One direct use of the present invention is for directors to view scenes from many perspectives 17. Will be recorded. Review the recorded images from the set viewpoint 17, To generate a continuous image or a still image from an illusion angle with one other selected viewpoint 33 Thus, the director selects the optimal angle and imager position to create the final record. be able to. In addition, many imaging devices produce different versions of works for general distribution. It can be used for the final shooting. In addition, the processor of the present invention runs a show. While viewing, the observer may choose another viewpoint 33 regarding the phantom angle at home or in the theater. It can be used to select. The feature of the still screen of the present invention is that the role acting is further Required when participating in a game (eg detective / detective or combat game) It facilitates careful consideration by the observer of the recorded scene.   A preferred embodiment of the method and apparatus of the present invention is illustrated in the accompanying drawings and described above in detail. Although described in the clear, the invention is not limited to the disclosed embodiments. And without contravening the spirit of the invention described and defined in the following claims. Many reconfigurations, modifications, and substitutions are possible.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FR,GB,GR,IE,IT,LU,M C,NL,PT,SE),CA,JP (72)発明者 バティスト,ジェラルド,イー. アメリカ合衆国22094 バージニア州,レ ストン,ノース ビリッジ ロード 1588────────────────────────────────────────────────── ─── Continuation of front page    (81) Designated countries EP (AT, BE, CH, DE, DK, ES, FR, GB, GR, IE, IT, LU, M C, NL, PT, SE), CA, JP (72) Inventor Batist, Gerald, Yi.             22094 Virginia, United States             Ston, North Bridge Road 1588

Claims (1)

【特許請求の範囲】 1.異なる位置に位置決めされた複数の撮影デバイスによって相当する複数の 異なる撮影視点から撮られた物体の影像の系列を処理する方法であって、 互いに対する複数の撮影デバイスの相対位置を決定するステップ、 複数の撮影視点のどれか以外に物体の観察用選択視点を入力するステップ、及 び 物体の撮られた影像の系列と撮影デバイスの決定された相対位置とから、あた かも入力選択視点から撮られたかのように物体の構成された個別静止画面影像又 は影像の系列を構成するステップ を含む方法。 2.請求の範囲第1項記載の方法であって、 物体からの選択観察距離を入力するステップ、及び あたかも選択観察距離から撮られたかのように物体上でズームイン又はズーム アウトするために撮られた又は構成された影像の系列を処理するステップ を更に含む方法。 3.請求の範囲第1項記載の方法において、物体の撮られた影像の系列が不要 物体影像を含み、前記方法であって、不要物体影像を減算するために撮られた又 は構成された影像を処理するステップを更に含む方法。 4.請求の範囲第1項記載の方法であって、撮られた影像の系列に決定された 相対位置を同期させるステップを更に含む方法。 5.請求の範囲第1項記載の方法であって、後続の検索と処理とのために撮ら れた影像の系列と撮影デバイスの決定された相対位置とを記憶するステップを更 に含む方法。 6.請求の範囲第1項記載の方法において、撮影デバイスの位置決め用位置が 物体の撮影中変化し、前記方法であって、 互いに対する複数の撮影デバイスの相対位置を周期的に再決定するステップで あって、撮影デバイスの位置が変化するに従って前記決定された相対位置が変化 する、前記再決定するステップ、及び 撮られた影像の系列に決定されたかつ変化する相対位置を同期させかつ関連さ せるステップ を更に含む方法。 7.影像処理用装置であって、 異なる撮影視点から物体の影像の系列を撮るために異なる位置に位置決めされ た複数の撮影デバイス、 互いに対する複数の撮影デバイスの相対位置を決定する手段、 複数の撮影視点のどれか以外に物体の観察用視点を選択する入力デバイス、及 び 撮影デバイスと、決定する手段と、入力デバイスとに接続され、かつ物体の撮 られた影像の系列と撮影デバイスの決定された相対位置とから、あたかも選択視 点から撮られたかのように物体の構成された個別静止画面影像又は影像の系列を 構成する手段を含むプロセッサ を含む装置。 8.請求の範囲第7項記載の装置において、決定する手段が、撮影デバイスの 決定された相対位置の手動入力用にプロセッサに接続された使用者インタフェー スを含む、装置。 9.請求の範囲第7項記載の装置において、決定する手段が、複数の撮影デバ イスの各1つへの距離と方向とを決定しかつ互いに対する撮影デバイスの相対位 置を識別するために、複数の撮影デバイスの各1つに向けてレーザビームを投射 するレーザ追跡デバイスを含む、装置。 10. 請求の範囲第7項記載の装置において、入力デバイスが物体の観察のた めに物体からの距離の選択を更に可能にし、プロセッサの含む構成する手段があ たかも選択観察距離から撮られたかのように物体上でズームイン又はズームアウ トをするために撮られ又は構成された影像を処理する手段を更に含む、装置。 11. 請求の範囲第7項記載の装置において、物体の撮られた影像の系列が不 要物体影像を含み、プロセッサが、不要物体影像を減算するように撮られた又は 構成された影像を処理する手段を更に含む、装置。 12. 請求の範囲第7項記載の装置において、複数の撮影デバイスの決定され た相対位置が撮られた影像の系列に同期させられる、装置。 13. 請求の範囲第7項記載の装置であって、プロセッサによる後続の検索と 処理とのために撮られた影像の系列と撮影デバイスの決定された相対位置とを記 憶する手段を更に含む装置。 14. 請求の範囲第7項記載の装置において、撮影デバイスの位置が物体の撮 影中変化し、決定する手段が、互いに対する複数の撮影デバイスの相対位置を周 期的に再決定する手段を更に含み、前記決定された変化する相対位置が撮られた 影像の系列に同期させられかつ関連させられる、装置。 15. 請求の範囲第7項記載の装置において、物体が運動する物体を含み、前 記装置であって、撮影中運動する物体と連れ立って複数の撮影デバイスを運動さ せる一方、互いに対する撮影デバイスの相対位置を実質的に一定に維持する手段 を更に含む装置。 16. 請求の範囲第15項記載の装置において、運動させる手段が 可動支持架台、 複数の伸縮アームであって、各アームが可動支持架台に各アームの近端で枢動 的に取り付けられる前記アーム、及び 複数の伸縮アームの各々の遠端に複数の撮影デバイスの1つを枢動的に取り付 ける手段 を含む、装置。 17. 請求の範囲第7項記載の装置において、撮影デバイスがディジタイジン グカメラを含む、装置。 18. 請求の範囲第7項記載の装置において、撮影デバイスが三次元撮影カメ ラを含む、装置。 19. 影像処理用装置であって、 異なるカメラ視点から物体の影像の系列を撮るために異なる位置に位置決めさ れた複数のカメラ、 互いに対するカメラの相対位置を決定するレーザ追跡デバイス、 カメラの視点のどれか以外に物体の観察用視点を選択する入力デバイス、及び 物体の撮られた影像の系列とカメラの決定された相対位置とから、あたかも選 択視点から撮られたかのように物体の構成された個別静止画面影像、影像の系列 を構成するためにカメラと、レーザ追跡デバイスと、入力デバイスとに接続され たファジィ論理プロセッサ を含む装置。 20. 請求の範囲第19項記載の装置において、入力デバイスが物体からの距 離の選択を更に可能にし、前記装置であって、あたかも選択観察距離から撮られ たかのように物体上でズームイン又はズームアウトをするために撮られ又は構成 された影像の系列を処理するズーミングプロセッサを更に含む装置。 21. 請求の範囲第19項記載の装置において、物体の撮られた影像の系列が 不要物体影像を含み、前記装置であって、不要物体影像を減算するように撮られ た又は構成された影像を処理する影像減算プロセッサを更に含む装置。 22. 請求の範囲第19項記載の装置であって、後続の検索と処理とのために 撮影デバイスの決定された相対位置に同期させられた撮られた影像の系列を記憶 する手段を更に含む装置。 23. 観察者が決定した視点から物体を観察する方法であって、 影像データを発生するために複数の異なる観察位置から物体を可視的に記録す るステップ、 記録された観察位置のどれとも異なる観察者の選択観察位置を入力するステッ プ、 影像データから、選択観察位置から撮られた物体の影像を構成するために、選 択観察位置に従って前記発生された影像データを処理するステップ、及び 構成された影像を表示するステップ を含む方法。 24. 請求の範囲第23項記載の方法であって、処理するステップが物体のズ ームイン及びズームアウト観察のために前記構成された影像を処理することを含 む、方法。 25. 観察者が決定した視点から物体を観察する方法であって、 複数のカメラの各々によって異なるカメラ視点から撮られた物体の影像に関す る情報を記憶するステップ、 プロセッサに前記記憶された情報を送るステップ、 カメラ視点のどれも以外に物体に対する視点を選択するステップ、 情報から、前記選択視点から撮られた物体の影像を構成するために、前記情報 を処理するステップ、及び 前記構成された影像を観察するステップ を含む方法。 26. 観察者が決定した視点から物体を観察する装置であって、 異なるカメラ視点から撮られた物体の影像を記録する複数のカメラ、 カメラ視点のどれとも異なる物体に対する視点を選択する手段、 選択された異なる視点から撮られた物体の影像を構成するために前記記録され た影像を処理する手段、及び 構成された影像を観察する又は構成された影像を記録する手段 を含む装置。 27. 観察者が決定した視点から物体を観察する装置であって、 第1視点から物体の影像データ得る第1カメラ手段、 第2視点から物体の影像データ得る第2カメラ手段、 第3視点から物体の影像データ得る第3カメラ手段、 第1、第2、及び第3視点と異なる物体を観察する視点を選択するために観察 者入力を受けることのできる観察者対話手段、及び 選択視点から撮られた物体の影像を構成するようにカメラからの影像データを 処理するために前記観察者対話手段に応答する手段 を含む装置。 28. 請求の範囲第27項記載の装置において、前記処理手段が物体のズーム イン及びズームアウト観察のために構成された影像を処理する手段を更に含む、 装置。 29. 観察者が決定した視点から物体を観察する装置であって、 異なるカメラ視点から撮られた物体の影像を記録する複数のカメラ、 記録の時間に従って同期させられた記録された影像を同時に伝送するデバイス 、 カメラ視点のどれとも異なる選択視点から撮られた物体の影像を構成するため に前記同時に伝送された影像を処理するコンピュータプロセッサ、 構成された影像に対する視点を選択するために前記コンピュータプロセッサに 接続された観察者対話デバイス、及び 構成された影像を観察する又は構成された影像を記録するデバイス を含む装置。 30. 請求の範囲第23項記載の方法において、物体の影像データが物体の影 像の不要部分のデータを含み、前記方法であって、影像から不要部分を除去する ように影像データから不要部分に関連したデータを減算するステップを更に含む 方法。 31. 請求の範囲第25項記載の方法において、物体の影像データが物体の影 像の不要部分のデータを含み、前記方法であって、影像から不要部分を除去する ように影像データから不要部分に関連したデータを減算するステップを更に含む 方法。 32. 請求の範囲第26項記載の装置において、物体の影像データが物体の影 像の不要部分のデータを含み、かつ処理する手段が影像から不要部分を除去する ように影像データから不要部分に関連したデータを減算する手段を含む、装置。 33. 請求の範囲第27項記載の装置において、物体の影像データが物体の影 像の不要部分のデータを含み、かつ処理する手段が影像から不要部分を除去する ように影像データから不要部分に関連したデータを減算する手段を含む、装置。 34. 請求の範囲第29項記載の装置において、物体の影像データが物体の影 像の不要部分のデータを含み、かつコンピュータプロセッサが影像から不要部分 を除去するように影像データから不要部分に関連したデータを減算する手段を含 む、装置。 35. 請求の範囲第24項記載の方法において、処理するステップが、ズーム アウトするとき魚眼影像データで以て、構成された影像の周りを完全にすること を含む、方法。[Claims]   1. Corresponding multiple imaging devices positioned at different positions A method of processing a sequence of imagery of an object taken from different perspectives,   Determining relative positions of the plurality of imaging devices with respect to each other,   The step of inputting a selection viewpoint for observing an object other than one of the plurality of shooting viewpoints, and And   From the sequence of images taken of the object and the determined relative position of the imaging device, An individual still screen image or object composed of objects as if they were taken from the input selection viewpoint. Is the step of constructing the sequence of images Including the method.   2. A method according to claim 1, wherein   Inputting a selective viewing distance from the object, and   Zoom in or zoom on the object as if taken from the selected viewing distance Processing a sequence of images taken or constructed for output The method further comprising:   3. A method according to claim 1, wherein a sequence of imaged images of the object is unnecessary. An object image, the method comprising the steps of: The method further comprises processing the constructed image.   4. A method according to claim 1, wherein the sequence of images taken is determined. The method further comprising the step of synchronizing relative positions.   5. The method of claim 1, wherein the method is taken for subsequent retrieval and processing. The step of storing the sequence of captured images and the determined relative position of the imaging device. Method included in.   6. The method according to claim 1, wherein the positioning position of the imaging device is The method changes during shooting of an object, the method comprising:   In the step of periodically re-determining the relative position of multiple imaging devices with respect to each other Therefore, the determined relative position changes as the position of the photographing device changes. And said re-determining step, and   Synchronize and relate the determined and changing relative positions to the sequence of images taken. Step The method further comprising:   7. An image processing device,   Positioned at different positions to take a series of images of an object from different perspectives Multiple shooting devices,   Means for determining the relative position of multiple imaging devices with respect to each other,   An input device that selects a viewpoint for observing an object other than one of a plurality of shooting viewpoints, and And   Connected to the imaging device, the determining means and the input device, From the sequence of images taken and the determined relative position of the imaging device, it is as if selective viewing An individual still screen image or a sequence of images composed of an object as if taken from a point. Processor including means for configuring Equipment including.   8. The apparatus according to claim 7, wherein the means for determining is a photographing device. A user interface connected to the processor for manual entry of the determined relative position Device, including   9. The apparatus according to claim 7, wherein the means for determining is a plurality of imaging devices. Determine the distance and direction to each one of the chairs and the relative position of the imaging device with respect to each other Projects a laser beam to each one of multiple imaging devices to identify the device Apparatus, including a laser tracking device to perform.   Ten. The apparatus according to claim 7, wherein the input device is used for observing an object. In order to further select the distance from the object, Zoom in or out on the object as if taken from the selected viewing distance. The apparatus further comprising means for processing the image taken or constructed to render the image.   11. The apparatus according to claim 7, wherein the sequence of images taken of the object is The object image is taken and the processor is taken to subtract the unwanted object image or The apparatus further comprising means for processing the constructed image.   12. The apparatus according to claim 7, wherein a plurality of photographing devices are determined. A device whose relative position is synchronized to the sequence of images taken.   13. The apparatus of claim 7, further comprising a processor for subsequent retrieval and Note the sequence of images taken for processing and the determined relative position of the imaging device. An apparatus further comprising a memory.   14. The apparatus according to claim 7, wherein the position of the photographing device is for photographing an object. The means of changing and determining in the shadow determine the relative position of multiple imaging devices with respect to each other. Means for periodically redetermining, wherein the determined varying relative position is captured A device that is synchronized and associated with a sequence of images.   15. The apparatus of claim 7, wherein the object comprises a moving object, A device for moving a plurality of photographing devices together with an object that moves during photographing. While maintaining the relative position of the imaging devices relative to each other substantially constant A device further comprising:   16. A device according to claim 15 wherein the means for moving is   Movable support stand,   Multiple telescopic arms, each arm pivoting on a movable support platform at the near end of each arm Physically attached, and   Pivotally attach one of multiple imaging devices to each distal end of multiple telescopic arms Means to kick An apparatus, including:   17. The apparatus according to claim 7, wherein the photographing device is digitizing Device, including a video camera.   18. The apparatus according to claim 7, wherein the photographing device is a three-dimensional photographing camera. A device that includes LA.   19. An image processing device,   Positioned at different positions in order to take a sequence of images of the object from different camera perspectives. Multiple cameras,   A laser tracking device that determines the relative position of the cameras with respect to each other,   An input device for selecting a viewpoint for observing an object other than one of the viewpoints of the camera, and   As if selected from the sequence of images taken of the object and the determined relative position of the camera. A series of individual still screen images and images in which an object is composed as if it was taken from an alternative viewpoint Connected to the camera, laser tracking device, and input device to configure Fuzzy logic processor Equipment including.   20. 20. The apparatus according to claim 19, wherein the input device is a distance from the object. Further enabling selection of separation, the device being as if taken from a selected viewing distance. Taken or composed to zoom in or out on the object as if it were The apparatus further comprising a zooming processor for processing the sequence of the imaged images.   twenty one. 20. Apparatus according to claim 19, wherein the sequence of images taken of the object is A device including an unwanted object image, the device being imaged to subtract the unwanted object image The apparatus further comprising an image subtraction processor for processing the composed or constructed image.   twenty two. 20. A device as claimed in claim 19 for subsequent retrieval and processing. Stores a series of captured images synchronized to a determined relative position of the imaging device An apparatus further comprising:   twenty three. A method of observing an object from a viewpoint determined by an observer,   Visually record objects from multiple different viewing positions to generate image data Step,   A step for inputting the selected observation position of the observer that is different from any of the recorded observation positions. ,   From the image data, to create an image of the object taken from the selected observation position, Processing the generated image data according to an alternative viewing position, and   Steps for displaying the composed image Including the method.   twenty four. The method according to claim 23, wherein the processing step comprises Processing the constructed image for a zoom-in and zoom-out observation. Hmm, how.   twenty five. A method of observing an object from a viewpoint determined by an observer,   It relates to the image of an object taken from different camera viewpoints by each of multiple cameras. Storing information that   Sending the stored information to a processor,   Selecting a viewpoint for the object other than any of the camera viewpoints,   From the information, the information is used to construct an image of the object taken from the selected viewpoint. Processing step, and   Observing the constructed image Including the method.   26. A device for observing an object from a viewpoint determined by an observer,   Multiple cameras that record images of objects taken from different camera perspectives,   Means for selecting a viewpoint for an object that is different from any of the camera viewpoints,   The recordings are made to construct images of objects taken from different selected viewpoints. Means for processing the captured image, and   Means for observing the composed image or recording the composed image Equipment including.   27. A device for observing an object from a viewpoint determined by an observer,   First camera means for obtaining image data of the object from the first viewpoint,   Second camera means for obtaining image data of the object from the second viewpoint,   Third camera means for obtaining image data of the object from the third viewpoint,   Observe to select a viewpoint to observe an object different from the first, second, and third viewpoints Observer interaction means capable of receiving human input, and   The image data from the camera is used to construct the image of the object taken from the selected viewpoint. Means responsive to the observer interaction means for processing Equipment including.   28. 28. The apparatus according to claim 27, wherein the processing means zooms an object. Further comprising means for processing images configured for in and zoom out observations, apparatus.   29. A device for observing an object from a viewpoint determined by an observer,   Multiple cameras that record images of objects taken from different camera perspectives,   Device for simultaneously transmitting recorded images synchronized according to the time of recording ,   To construct an image of an object taken from a selected viewpoint that is different from any of the camera viewpoints A computer processor for processing the simultaneously transmitted images,   To the computer processor to select a viewpoint for the constructed image A connected observer interaction device, and   Device for observing or recording a composed image Equipment including.   30. The method according to claim 23, wherein the image data of the object is the shadow of the object. A method for including data of an unnecessary portion of an image, the method including: removing an unnecessary portion from an image Further includes subtracting data associated with the unwanted portion from the image data, such as Method.   31. The method according to claim 25, wherein the image data of the object is the shadow of the object. A method for including data of an unnecessary portion of an image, the method including: removing an unnecessary portion from an image Further includes subtracting data associated with the unwanted portion from the image data, such as Method.   32. 27. The apparatus according to claim 26, wherein the image data of the object is the shadow of the object. A means for including and processing data for the unwanted part of the image removes the unwanted part from the image. Apparatus including means for subtracting data associated with unwanted portions from image data.   33. 28. The apparatus according to claim 27, wherein the image data of the object is the shadow of the object. A means for including and processing data for the unwanted part of the image removes the unwanted part from the image. Apparatus including means for subtracting data associated with unwanted portions from image data.   34. 30. The apparatus according to claim 29, wherein the image data of the object is the shadow of the object. The image processor contains data for unwanted parts of the image, and the computer processor is Means for subtracting data associated with unwanted parts from the image data so as to remove Mu, the device.   35. 25. The method of claim 24, wherein the processing step comprises zooming. When out, complete around the constructed image with fisheye image data Including, methods.
JP7518668A 1994-01-10 1995-01-09 Observing a captured object from a selected viewpoint Pending JPH09507620A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US17938394A 1994-01-10 1994-01-10
US08/179,383 1994-01-10
US36689094A 1994-12-30 1994-12-30
US08/366,890 1994-12-30
PCT/US1995/000303 WO1995019093A1 (en) 1994-01-10 1995-01-09 Viewing imaged objects from selected points of view

Publications (1)

Publication Number Publication Date
JPH09507620A true JPH09507620A (en) 1997-07-29

Family

ID=26875277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7518668A Pending JPH09507620A (en) 1994-01-10 1995-01-09 Observing a captured object from a selected viewpoint

Country Status (4)

Country Link
EP (1) EP0742987A4 (en)
JP (1) JPH09507620A (en)
CA (1) CA2179809A1 (en)
WO (1) WO1995019093A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238367A (en) * 1996-02-29 1997-09-09 Matsushita Electric Ind Co Ltd Television signal transmission method, television signal transmitter, television signal reception method, television signal receiver, television signal transmission/ reception method and television signal transmitter-receiver
US6034739A (en) * 1997-06-09 2000-03-07 Evans & Sutherland Computer Corporation System for establishing a three-dimensional garbage matte which enables simplified adjusting of spatial relationships between physical and virtual scene elements
GB9719694D0 (en) 1997-09-16 1997-11-19 Canon Kk Image processing apparatus
EP0930585B1 (en) * 1998-01-14 2004-03-31 Canon Kabushiki Kaisha Image processing apparatus
GB2378341B (en) 2001-07-31 2005-08-24 Hewlett Packard Co Improvements in and relating to dislaying digital images
WO2007071291A1 (en) * 2005-12-22 2007-06-28 Robert Bosch Gmbh Arrangement for video surveillance
CA3223125A1 (en) 2022-03-29 2023-10-05 Illumina, Inc. Chromenoquinoline dyes and uses in sequencing

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4797942A (en) * 1987-03-02 1989-01-10 General Electric Pyramid processor for building large-area, high-resolution image by parts
DE3941144C2 (en) * 1989-12-13 1994-01-13 Zeiss Carl Fa Coordinate measuring device for the contactless measurement of an object
US5187571A (en) * 1991-02-01 1993-02-16 Bell Communications Research, Inc. Television system for displaying multiple views of a remote location
US5200818A (en) * 1991-03-22 1993-04-06 Inbal Neta Video imaging system with interactive windowing capability
JPH0527906A (en) * 1991-07-24 1993-02-05 Matsushita Electric Ind Co Ltd Graphic selector

Also Published As

Publication number Publication date
EP0742987A4 (en) 1998-01-07
WO1995019093A1 (en) 1995-07-13
EP0742987A1 (en) 1996-11-20
CA2179809A1 (en) 1996-08-20

Similar Documents

Publication Publication Date Title
JP3290993B2 (en) Method and apparatus for creating a spherical image
US5686957A (en) Teleconferencing imaging system with automatic camera steering
US7193645B1 (en) Video system and method of operating a video system
JP4153146B2 (en) Image control method for camera array and camera array
USRE44087E1 (en) Presenting panoramic images with geometric transformation
US6522325B1 (en) Navigable telepresence method and system utilizing an array of cameras
US6084979A (en) Method for creating virtual reality
AU761950B2 (en) A navigable telepresence method and system utilizing an array of cameras
US20020190991A1 (en) 3-D instant replay system and method
US20040027451A1 (en) Immersive imaging system
JP2001008232A (en) Omnidirectional video output method and apparatus
JP2002514875A (en) Panoramic movie that simulates movement in multidimensional space
WO2003036565A2 (en) System and method for obtaining video of multiple moving fixation points within a dynamic scene
JPH11510342A (en) Image division, image formation and processing apparatus and method using camera without moving parts
WO1995007590A1 (en) Time-varying image processor and display device
JP3352475B2 (en) Image display device
EP1224798A2 (en) Method and system for comparing multiple images utilizing a navigable array of cameras
JPH09507620A (en) Observing a captured object from a selected viewpoint
US20160127617A1 (en) System for tracking the position of the shooting camera for shooting video films
WO2002087218A2 (en) Navigable camera array and viewer therefore
JP4126835B2 (en) Image synthesizer
KR102650406B1 (en) Apparatus and method for providing video service for monitoring distant scene
JP2000152216A (en) Video output system
JP2019071650A (en) Control device, control method, and program
JP2000182058A (en) Three-dimensional motion input method and three- dimensional motion input system