JP2000020728A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2000020728A
JP2000020728A JP11008481A JP848199A JP2000020728A JP 2000020728 A JP2000020728 A JP 2000020728A JP 11008481 A JP11008481 A JP 11008481A JP 848199 A JP848199 A JP 848199A JP 2000020728 A JP2000020728 A JP 2000020728A
Authority
JP
Japan
Prior art keywords
image data
image
camera
representation
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11008481A
Other languages
Japanese (ja)
Inventor
Simon Rowe
ロウ サイモン
Allan Davison
ディビソン アラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB9800777.6A external-priority patent/GB9800777D0/en
Priority claimed from GBGB9800762.8A external-priority patent/GB9800762D0/en
Priority claimed from GBGB9800778.4A external-priority patent/GB9800778D0/en
Priority claimed from GBGB9800779.2A external-priority patent/GB9800779D0/en
Priority claimed from GBGB9800764.4A external-priority patent/GB9800764D0/en
Priority claimed from GBGB9800767.7A external-priority patent/GB9800767D0/en
Priority claimed from GBGB9800761.0A external-priority patent/GB9800761D0/en
Priority claimed from GBGB9800765.1A external-priority patent/GB9800765D0/en
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2000020728A publication Critical patent/JP2000020728A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Abstract

PROBLEM TO BE SOLVED: To generate and display simulation images from the arbitrary line of a sight direction by generating object expression in a three-dimensional computer model according to image data from first and second cameras. SOLUTION: An image with the movement of an object along a background is recorded by video cameras 12a and 12b. A CPU 4 projects those objects to a 3D world space (three-dimensional computer model), generates the expression (model) of each object in the three-dimensional work space and stores two sets of time stamped 3D object data in a memory 6. The CPU 4 renders those object data to a frame buffer 16, and combines the rendered image data to generate images which are not viewed discontinuously by a user. Then, the sequence of the simulation moving images is displayed from a desired visual field direction to the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ビデオ画像のよう
な動画像を使用して、三次元コンピュータモデルのオブ
ジェクト表現を生成する、三次元コンピュータモデリン
グシステムで使用するための画像処理装置及び方法に関
する。
The present invention relates to an image processing apparatus and method for use in a three-dimensional computer modeling system for generating an object representation of a three-dimensional computer model using a moving image such as a video image. .

【0002】[0002]

【従来の技術】現在、ビデオデータ又は他の動画像デー
タから生成される画像の内容は、そのデータをキャプチ
ャしたカメラの視野特性によって決定される。特に、観
察者がどの位置からオブジェクトを見るかは、シーンに
関してカメラの視野位置と視線方向によって判定され
る。
2. Description of the Related Art At present, the content of an image generated from video data or other moving image data is determined by the visual field characteristics of a camera that has captured the data. In particular, from which position the observer views the object is determined by the camera's field of view position and gaze direction with respect to the scene.

【0003】この制約を解決する方法の1つとして、ビ
デオデータを使用して、シーンの動的三次元コンピュー
タモデルを生成し、それに基づき、所望の任意の視線方
向からのシミュレート画像を生成し、ユーザに対して表
示する対話型システムが示唆されている。本発明は、そ
のような対話型システムにおいて使用するための装置又
は方法を提供することを目的とする。
One way to overcome this limitation is to use video data to generate a dynamic three-dimensional computer model of the scene, based on which a simulated image from any desired gaze direction is generated. An interactive system for displaying to a user has been suggested. The present invention aims to provide an apparatus or a method for use in such an interactive system.

【0004】[0004]

【課題を解決するための手段】本発明によれば、シーン
の中のオブジェクトの異なる視野を有するカメラからの
画像データを処理して、1つのオブジェクトについて識
別された画像データが1以上のオブジェクトと実際に関
連しているか否かを判定する画像処理装置又は方法が提
供される。
According to the present invention, image data from cameras having different fields of view of objects in a scene is processed so that the image data identified for one object is associated with one or more objects. An image processing apparatus or method for determining whether or not it is actually related is provided.

【0005】また、本発明は、画像データを処理して、
オブジェクトに関する画像データを識別し、異なるカメ
ラからの画像データを使用して、識別されたデータを処
理し、識別された画像データを複数のオブジェクトの表
現に使用するために分割する画像処理装置又は方法を提
供する。
Further, the present invention processes image data,
Image processing apparatus or method for identifying image data for an object, processing the identified data using image data from different cameras, and dividing the identified image data for use in representing a plurality of objects I will provide a.

【0006】本発明によれば、シーンの中のオブジェク
トに関する画像データ及びそのオブジェクトの陰影に関
する画像データを、オブジェクトの異なる視野を有する
少なくとも2台のカメラからの画像データを使用して識
別する画像処理装置又は方法が提供される。
According to the present invention, image processing for identifying image data for an object in a scene and image data for a shadow of the object using image data from at least two cameras having different views of the object. An apparatus or method is provided.

【0007】更に、本発明は、第1のカメラからのオブ
ジェクト及びその陰影の画像データと、第2のカメラか
らのオブジェクト及びその陰影の画像データとを共通の
モデリング空間に変換し、変換されたデータに基づいて
オブジェクトに関する画像データの一部及びその陰影に
関する画像データの一部を識別する画像処理装置及び方
法を提供する。
Further, the present invention converts the image data of the object and its shadow from the first camera and the image data of the object and its shadow from the second camera into a common modeling space, and converts the data. An image processing apparatus and method for identifying a part of image data related to an object and a part of image data related to a shadow thereof based on data are provided.

【0008】本発明によれば、シーンの中のオブジェク
トに関わる画像データを処理して、地表上のオブジェク
トのフットプリントに基づいてオブジェクトのモデルを
規定する画像処理装置又は方法が提供される。
According to the present invention, there is provided an image processing apparatus or method for processing image data relating to an object in a scene and defining a model of the object based on a footprint of the object on the ground.

【0009】また、本発明は、シーンの中のオブジェク
トの異なる視野を有するカメラからの画像データを処理
して、オブジェクトの地表プロファイルを判定し、その
地表プロファイルに従って三次元モデルでオブジェクト
を表現する画像処理装置又は方法を提供する。
Further, the present invention processes image data from a camera having a different field of view of an object in a scene to determine a ground surface profile of the object, and an image representing the object in a three-dimensional model according to the ground surface profile. A processing device or method is provided.

【0010】本発明によれば、第1及び第2のレンダリ
ング技法を実行し、第1の技法では、所定の視線方向か
らのモデルを示す画像を規定するデータを生成するため
に、三次元コンピュータモデルをレンダリングし、第2
の技法では、モデル中のオブジェクトの位置の概略画像
を表すためにデータを生成するような画像処理装置又は
方法が提供される。
In accordance with the present invention, a first and second rendering techniques are performed, in which a three-dimensional computer is used to generate data defining an image representing a model from a predetermined viewing direction. Render the model and the second
Provides an image processing apparatus or method that generates data to represent a schematic image of the location of an object in a model.

【0011】更に、本発明は、選択した視線方向が所定
の角度範囲内にある場合を除いて、選択した視線方向に
関して三次元コンピュータモデルをレンダリングし、選
択した視線方向が所定の角度範囲内にある場合には、モ
デル中のオブジェクトの位置を概略的に表すデータを生
成し、ユーザに対して出力する画像処理装置又は方法を
提供する。
Further, the present invention renders a three-dimensional computer model with respect to the selected line-of-sight direction, unless the selected line-of-sight direction is within a predetermined angle range, and renders the selected line-of-sight direction within the predetermined angle range. In some cases, an image processing apparatus or method is provided that generates data that schematically represents the position of an object in a model and outputs the data to a user.

【0012】これらの特徴は、例えばコンピュータモデ
ルにおける1つ又は複数の垂直平面を使用して、オブジ
ェクトを上面なしでモデリングするときに有効である。
そのような場合、オブジェクトを見下ろさない限り、オ
ブジェクトのリアルな画像が得られないからである。ま
た、上記の特徴は、上面が提供されるか否かによらず1
つ又は複数の垂直平面でオブジェクトをモデリングする
場合にも有効である。それは、平面のエッジをオンにし
て見たときに、オブジェクトのリアルな画像が得られな
いと考えられるからである。
These features are useful when modeling objects without a top surface, for example using one or more vertical planes in a computer model.
In such a case, a realistic image of the object cannot be obtained unless the object is looked down on. Also, the features described above are independent of whether a top surface is provided or not.
It is also effective when modeling an object on one or more vertical planes. This is because it is considered that a realistic image of the object cannot be obtained when the plane edge is turned on and viewed.

【0013】本発明によれば、シーンにおけるオブジェ
クトの画像データを処理して、その画像データから識別
されたオブジェクトの表面平面に従ってオブジェクトの
三次元モデルを生成する画像処理装置又は方法が提供さ
れる。
According to the present invention, there is provided an image processing apparatus or method for processing image data of an object in a scene and generating a three-dimensional model of the object according to a surface plane of the object identified from the image data.

【0014】また、本発明は、オブジェクトの異なる視
野を有する少なくとも2台のカメラからの画像データを
処理して、特徴点が位置しているオブジェクトの平坦な
面を識別し、識別された平面に従って三次元方式でオブ
ジェクトを表現する画像処理装置又は方法が提供され
る。
The present invention also processes image data from at least two cameras having different fields of view of the object to identify a flat surface of the object where the feature points are located, and according to the identified plane. An image processing apparatus or method for representing an object in a three-dimensional manner is provided.

【0015】本発明によれば、三次元コンピュータモデ
ルを選択された視線方向にレンダリングし、選択された
視線方向に関するモデルの正確度を示す情報を生成する
画像処理装置又は方法が提供される。
According to the present invention, there is provided an image processing apparatus or method for rendering a three-dimensional computer model in a selected gaze direction and generating information indicating the accuracy of the model with respect to the selected gaze direction.

【0016】本発明によれば、オブジェクトの異なる視
野を有する少なくとも2台のカメラからの画像データを
受信し、オブジェクトを三次元コンピュータモデルにお
いてモデリングし、選択された視線方向に応じてそのモ
デルをレンダリングする画像処理装置又は方法が提供さ
れる。その選択は選択した視線方向、各カメラの視野パ
ラメータ、及び画像データの画質に影響を及ぼすパラメ
ータを使用して処理のためにどの画像データを使用すべ
きかを判定するために、異なるカメラに関わる画像デー
タの間で行われる。
According to the present invention, image data from at least two cameras having different fields of view of an object are received, the object is modeled in a three-dimensional computer model, and the model is rendered according to the selected viewing direction. An image processing apparatus or method is provided. The selection uses the selected line-of-sight direction, the viewing parameters of each camera, and the parameters that affect the image quality of the image data, to determine which image data to use for processing, the images associated with the different cameras. Done between data.

【0017】本発明によれば、2台以上のカメラから利
用できる画像データを使用して画像のシーケンスに関し
て三次元コンピュータモデルをレンダリングするとき、
視線方向を変更する場合に、観察者に対して画像が不連
続に見えるか否かを判定するテストを実行し、判定され
た不連続に対応するために画像データを生成する画像処
理装置又は方法が提供される。
According to the present invention, when rendering a three-dimensional computer model for a sequence of images using image data available from two or more cameras,
An image processing apparatus or method for performing a test to determine whether an image looks discontinuous to an observer when changing a line of sight direction and generating image data to correspond to the determined discontinuity Is provided.

【0018】[0018]

【発明の実施の形態】以下、図面を参照しながら本発明
に係る実施形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0019】[第1の実施形態]図1は、第1の実施形
態における画像処理装置の全般的構成を示すブロック図
である。この装置には、中央処理装置(CPU)4を具
備するコンピュータ2が設けられており、CPU4はC
PU4により実行されるべき動作を規定するプログラム
を記憶し、且つCPU4により処理されるオブジェクト
及び画像データを格納するように動作可能であるメモリ
6に接続されている。
[First Embodiment] FIG. 1 is a block diagram showing the general configuration of an image processing apparatus according to the first embodiment. This device includes a computer 2 having a central processing unit (CPU) 4.
It is connected to a memory 6 that stores a program that defines the operations to be performed by the PU 4 and is operable to store objects and image data processed by the CPU 4.

【0020】メモリ6に結合するディスクドライブ8
は、フロッピーディスク10などの着脱自在データ記憶
媒体を受け入れると共に、記憶されているデータをメモ
リ6へ転送するように動作可能である。中央処理装置4
に対する動作命令は、ディスクドライブ8を使用して着
脱自在データ記憶媒体からメモリ6に入力されれば良
い。
Disk drive 8 coupled to memory 6
Is operable to accept a removable data storage medium such as a floppy disk 10 and to transfer stored data to the memory 6. Central processing unit 4
May be input from the removable data storage medium to the memory 6 using the disk drive 8.

【0021】CPU4により処理されるべき画像データ
は、ディスクドライブ8を使用して着脱自在データ記憶
媒体からコンピュータ2に入力されても良い。その代わ
りに、又はそれに加えて、複数台のカメラ(図1にはビ
デオカメラ12a及び12bとして概略的に示されてい
る)からメモリ6に処理すべき画像データを直接入力し
ても良い。この実施形態においては、カメラはデジタル
画像データ出力端子を有する。メモリ6に入力する前に
画像データをカメラ12a及び12bに格納しておいても
良く、或いは、データがカメラにより収集されている間
にリアルタイムに画像データをメモリ6へ転送しても良
い。また、デジタルカメラ12a及び12bではなく、デ
ジタル方式ではないビデオカメラから画像データを入力
することもできる。その場合、カメラが撮影した画像を
デジタル化し、それに基づいてメモリ6に入力すべきデ
ジタル画像データを生成するために、ディジタイザ(図
示せず)を使用する。また、画像データを格納する局所
データベース又は遠隔データベースから接続部(図示せ
ず)を介して画像データをメモリ6にダウンロードして
も良い。
Image data to be processed by the CPU 4 may be input to the computer 2 from a removable data storage medium using the disk drive 8. Alternatively or additionally, image data to be processed may be directly input to the memory 6 from a plurality of cameras (shown schematically as video cameras 12a and 12b in FIG. 1). In this embodiment, the camera has a digital image data output terminal. The image data may be stored in the cameras 12a and 12b before being input to the memory 6, or the image data may be transferred to the memory 6 in real time while the data is being collected by the camera. Also, image data can be input from a non-digital video camera instead of the digital cameras 12a and 12b. In that case, a digitizer (not shown) is used to digitize the image captured by the camera and generate digital image data to be input to the memory 6 based on the digitized image. Further, the image data may be downloaded from a local database or a remote database storing the image data to the memory 6 via a connection unit (not shown).

【0022】CPU4の入力ポートには、ユーザ命令入
力装置14が結合されており、この装置は、例えばキー
ボード及び/又はマウス、トラッカーボールなどの位置
感知入力装置である。
Connected to the input port of the CPU 4 is a user command input device 14, which is, for example, a keyboard and / or a position sensitive input device such as a mouse, tracker ball or the like.

【0023】またCPU4にはフレームバッファ16も
結合されている。この実施形態では、フレームバッファ
16は、例えば画像の画素に対して1つ(又は複数)の
記憶場所を設けることにより、中央処理装置4により生
成される画像に関連する画像データを格納するように構
成されている3つのフレームバッファから構成されてい
る。画素毎にフレームバッファに格納される値は、画像
中のその画素の色又は強度を規定する。
A frame buffer 16 is also connected to the CPU 4. In this embodiment, the frame buffer 16 stores image data associated with an image generated by the central processing unit 4, for example by providing one (or more) storage locations for pixels of the image. It comprises three frame buffers. The value stored in the frame buffer for each pixel defines the color or intensity of that pixel in the image.

【0024】フレームバッファ16に結合される表示装
置18は、フレームバッファ16に格納されている画像
データを従来の方式により表示する。またフレームバッ
ファ16には、ビデオテープレコーダ(VTR)20も
しくは紙プリンタ又は35mmフィルムレコーダなどの他
の画像記録装置も結合されている。
A display device 18 coupled to the frame buffer 16 displays image data stored in the frame buffer 16 in a conventional manner. The frame buffer 16 is also connected to another image recording device such as a video tape recorder (VTR) 20 or a paper printer or a 35 mm film recorder.

【0025】大きなデータ記憶容量を有する、ハードデ
ィスクドライブなどの大容量記憶装置がメモリ6に(典
型的にはCPU4を介して)結合されると共に、フレー
ムバッファ16にも結合されている。大容量記憶装置2
2は、中央処理装置4により処理されたデータをメモリ
6から受信するか、表示装置18に表示すべきデータを
フレームバッファ16から受信することができる。CP
U4により処理されたデータは、データをディスクドラ
イブ8を介して着脱自在記憶装置に格納するか、信号の
ようなデータを、例えばインターネットなどの通信リン
クを介して受信側装置へ伝送することにより、コンピュ
ータ2から出力されても良い。
A mass storage device, such as a hard disk drive, having a large data storage capacity is coupled to the memory 6 (typically via the CPU 4) and to the frame buffer 16. Mass storage device 2
2 can receive the data processed by the central processing unit 4 from the memory 6 or the data to be displayed on the display device 18 from the frame buffer 16. CP
The data processed by U4 may be stored in a removable storage device via the disk drive 8 or by transmitting data such as a signal to a receiving device via a communication link such as the Internet, for example. It may be output from the computer 2.

【0026】CPU4と、メモリ6と、フレームバッフ
ァ16と、表示装置18と、大容量記憶装置22とは、
パーソナルコンピュータ(PC)などの市販の完全システ
ムの一部を形成していても良い。
The CPU 4, the memory 6, the frame buffer 16, the display device 18, and the mass storage device 22
It may form part of a complete commercial system such as a personal computer (PC).

【0027】本発明の一実施形態としてコンピュータ2
に動作を実行させるための動作命令は、フロッピーディ
スク10又は別のデータ記憶媒体に格納されたプログラ
ムの形態で市販の製品として供給されても良いが、受信
側コンピュータ2が本発明を具現化する装置に再構成さ
れるように、例えばデータリンク(図示せず)を介して
信号としてコンピュータ2へ伝送されても良い。動作命
令は、ユーザ入力装置14を介して入力されてもよい。
As one embodiment of the present invention, the computer 2
May be supplied as a commercial product in the form of a program stored on the floppy disk 10 or another data storage medium, but the receiving computer 2 embodies the present invention. It may be transmitted as a signal to the computer 2 via a data link (not shown), for example, to be reconfigured into a device. The operation command may be input via the user input device 14.

【0028】図2に、実施形態においてCPU4により
処理すべき画像データの収集の状態を概略的に示す。
FIG. 2 schematically shows a state of collecting image data to be processed by the CPU 4 in the embodiment.

【0029】例として、図2は2人の人50,52が横
断中である横断歩道36に向かって道路34上を走行し
ている2台の自動車30,32を示している。道路34
及び横断歩道36と、その上で動いている自動車30,
32及び人50,52の動きは2台のビデオカメラ12
a及び12bにより記録されている。本実施形態では、ビ
デオカメラは固定された視野位置に取り付けられ、その
視線方向は一定であり、ズーム(変倍)の設定も一定で
ある。カメラ12a及び12bは、それらの視野が自動車
30,32及び人50,52が動いている道路34及び
横断歩道36の少なくとも一部と重なり合うように配置
されている。
By way of example, FIG. 2 shows two automobiles 30, 32 traveling on a road 34 toward a pedestrian crossing 36 where two people 50, 52 are crossing. Road 34
And the pedestrian crossing 36 and the car 30 running on it,
32 and the movement of the people 50 and 52 are two video cameras 12
a and 12b. In the present embodiment, the video camera is mounted at a fixed visual field position, the direction of the line of sight is constant, and the setting of zoom (magnification) is also constant. The cameras 12a and 12b are positioned so that their fields of view overlap at least a portion of the road 34 and pedestrian crossing 36 where the cars 30, 32 and the people 50, 52 are moving.

【0030】図3に、本実施形態で実行される画像処理
動作を示す。図3では、同じステップではあるが、ビデ
オカメラ12aからのデータと、ビデオカメラ12bから
のデータとについて別個に実行される処理ステップを、
処理されるビデオデータに応じて同じ図中符号の後に
「a」又や「b」の文字(それぞれ、カメラ12a又はカ
メラ12bを表す)を付けて識別している。
FIG. 3 shows an image processing operation executed in this embodiment. In FIG. 3, the same steps, but processing steps that are performed separately for data from video camera 12a and for data from video camera 12b,
Depending on the video data to be processed, the same reference numerals in the figure are followed by letters "a" or "b" (representing camera 12a or camera 12b, respectively) for identification.

【0031】図3に関して説明する。ステップS2で
は、オブジェクトが動く背景である静止背景(即ち、動
かない部分)の三次元コンピュータモデルをユーザが生
成する。即ち、図2に示した例で言えば、道路34、横
断歩道36及びその周囲の部分をモデリングすることに
なる。これは、例えば背景を別個のオブジェクトとして
モデリングするための市販のモデリングパッケージを使
用するか、又は画像からの背景のモデリングを容易にす
るためのEOS Systems Inc.社製のフォトモデラなどの
モデリングパッケージを使用して、従来通りの方式で実
行される。
Referring to FIG. In step S2, the user generates a three-dimensional computer model of a stationary background (ie, a portion that does not move), which is a background where the object moves. That is, in the example shown in FIG. 2, the road 34, the pedestrian crossing 36, and the surrounding area are modeled. This uses commercially available modeling packages for modeling the background as a separate object, for example, or EOS Systems Inc. to facilitate the modeling of the background from images. It is performed in a conventional manner using a modeling package such as a photo modeler manufactured by the company.

【0032】ステップS3a及びS3bでは、各カメラの
背景シーンに関わる画像パラメータを設定する。
In steps S3a and S3b, image parameters relating to the background scene of each camera are set.

【0033】図4に、図3に示すステップS3a及びS
3bで実行される処理ステップを示す。この処理は各カ
メラで同一であるので、カメラ12aに関わる処理のみ
を説明する。
FIG. 4 shows steps S3a and S3 shown in FIG.
3b shows the processing steps performed in 3b. Since this process is the same for each camera, only the process related to the camera 12a will be described.

【0034】図4において、ステップS22では、静止
背景の複数の基準画像をカメラ12aを使用して記録す
る。本実施形態においては、10フレームのビデオを記
録する。複数の基準画像は、以下更に説明するように、
背景の照明条件の時間に伴う変化、雑音、及び「静止」
背景の中の望ましくない動き(例えば、樹木の枝葉の動
きなどによって起こることがありうる)を考慮に入れる
ために記録される。
In FIG. 4, in step S22, a plurality of reference images of a still background are recorded using the camera 12a. In the present embodiment, 10 frames of video are recorded. The plurality of reference images, as described further below,
Background lighting conditions change over time, noise, and "stillness"
It is recorded to take into account unwanted movements in the background (such as may be caused by movements of tree foliage, etc.).

【0035】ステップS24では、画像空間(即ち、カ
メラ12aにより記録された画像)と、三次元(3D)
世界空間(即ち、ステップS2で三次元コンピュータモ
デルが生成されたときの空間)との間の変換を計算す
る。
In step S24, the image space (that is, the image recorded by the camera 12a) and the three-dimensional (3D)
Calculate the transformation to and from the world space (ie, the space when the three-dimensional computer model was generated in step S2).

【0036】この変換は、画像空間のグラウンド平面
(オブジェクトが動いている平面)と、3D世界空間
(3Dコンピュータモデル)のグラウンド平面との間の
マッピングを規定する。本実施形態では、カメラの絶対
位置、即ち観察中であるシーンに対するカメラの位置が
前もって判定されておらず、またカメラの撮像パラメー
タ(焦点距離、電荷結合素子の大きさ、ズーム設定な
で)も同様に前もって判定されていないので、この変換
を計算するのである。変換によって、後述するように、
画像空間内のオブジェクトの位置と範囲に基づいてオブ
ジェクトの表現を3Dコンピュータモデルで信頼性高
く、効率的に生成することが可能になる。
This transformation defines the mapping between the ground plane in image space (the plane on which the object is moving) and the ground plane in 3D world space (3D computer model). In the present embodiment, the absolute position of the camera, that is, the position of the camera with respect to the scene being observed is not determined in advance, and the imaging parameters (focal length, charge-coupled device size, zoom setting, etc.) of the camera are also not determined. Similarly, since it has not been determined in advance, this transformation is calculated. By the conversion, as described later,
The representation of the object based on the position and range of the object in the image space can be reliably and efficiently generated by the 3D computer model.

【0037】ステップS24での変換を計算するため
に、ユーザに対してステップS22で記録した背景の画
像の1つを表示装置18に表示し、ユーザが、CPU4
によるプロンプティングに際して、シーン中のオブジェ
クトが動いている平面に位置し、且つカメラ12a及び
カメラ12bの双方の視野の中に位置している平面にあ
る画像中の複数の点(本実施形態では、4つの点)を指
定する。即ち、図2に示す例でいえば、横断歩道のマー
クにより規定される四隅の点38,40,42及び44
(これらの点は、自動車30,32と人50,52が動
く路面34の上に位置している)を指定すれば良い。ス
テップS2で生成される三次元コンピュータモデルの中
の、ビデオ画像で識別された点に対応する点もユーザに
より規定される。例えば、ユーザに対して所定の視線方
向に関する三次元コンピュータモデルの視野を表示装置
18に表示し、ユーザが入力装置14を使用して対応す
る点を指定すれば良い。
In order to calculate the conversion in step S24, one of the background images recorded in step S22 is displayed to the user on the display device 18 so that the user
In the prompting by, a plurality of points (in the present embodiment, in the present embodiment, in the image located on the plane in which the object in the scene is moving and located in the field of view of both the cameras 12a and 12b) 4 points). That is, in the example shown in FIG. 2, the points 38, 40, 42 and 44 at the four corners defined by the marks of the crosswalk.
(These points are located on the road surface 34 on which the cars 30, 32 and the people 50, 52 move). A point corresponding to the point identified in the video image in the three-dimensional computer model generated in step S2 is also defined by the user. For example, the field of view of the three-dimensional computer model with respect to a predetermined gaze direction may be displayed on the display device 18 for the user, and the user may use the input device 14 to specify a corresponding point.

【0038】ビデオ画像で指定された点の位置と、三次
元コンピュータモデルで指定された対応する点の位置と
を使用して、CPU4が画像空間と3D世界空間との変
換を、例えば次の式を使用して従来通りに計算する。
Using the positions of the points specified in the video image and the positions of the corresponding points specified in the three-dimensional computer model, the CPU 4 performs conversion between the image space and the 3D world space using, for example, the following equation. Calculate as before using

【0039】[0039]

【数1】 (Equation 1)

【0040】式中、n=1…4;Xn,Ynは世界空間
の中の点であり、xn,ynは画像空間の中の点であ
り、A−Hは次の式により求められる。
Where n = 1... 4; Xn, Yn are points in the world space, xn, yn are points in the image space, and AH is obtained by the following equation.

【0041】[0041]

【数2】 (Equation 2)

【0042】これは、画像空間のグラウンド平面と、3
Dコンピュータモデル(3D世界空間)のグラウンド平
面との間の変換を規定する。
This corresponds to the ground plane of the image space, 3
Defines the conversion between the D computer model (3D world space) and the ground plane.

【0043】ステップS3bでカメラ12bについてステ
ップS24を実行するとき、カメラ12bにより記録さ
れた画像から選択される4つの基準点と、三次元コンピ
ュータモデルの4つの基準点を、ステップS24でカメ
ラ12aについて選択したのと同じ基準点になるように
選択する。このようにしてカメラ12aとカメラ12bと
の3D世界空間のスケールを同じにする。
When executing step S24 for the camera 12b in step S3b, the four reference points selected from the image recorded by the camera 12b and the four reference points of the three-dimensional computer model are determined in step S24 for the camera 12a. Select so that it is the same reference point as you selected. In this way, the camera 12a and the camera 12b have the same scale in the 3D world space.

【0044】ステップS26では、CPU4は静止背景
に関わる基準画像画素パラメータを計算する。これは、
ステップS22で記録された複数の画像から画素ごとに
平均グレイレベルμを計算することにより実行される。
即ち、10フレームごとの対応する画素についてグレイ
レベルを考慮し、その平均を求める処理である。判定さ
れた平均の分散σも計算する。次に、各画素のグレイレ
ベルの「ウィンドウ」をμ±(2σ+F)として設定す
る。尚、式中、Fはビデオカメラ12aの利得、雑音な
どの変数を考慮に入れるために設定される誤差係数であ
る。本実施形態では、グレイスケールレベルの総数は2
56であり、誤差係数Fは5グレイスケールレベルに設
定される。
In step S26, the CPU 4 calculates a reference image pixel parameter relating to a still background. this is,
This is performed by calculating the average gray level μ for each pixel from the plurality of images recorded in step S22.
In other words, this is a process of calculating the average of the gray levels of the corresponding pixels in every 10 frames while considering the gray levels. The variance σ of the determined average is also calculated. Next, the gray level “window” of each pixel is set as μ ± (2σ + F). In the equation, F is an error coefficient set to take variables such as gain and noise of the video camera 12a into consideration. In the present embodiment, the total number of gray scale levels is 2
56, and the error coefficient F is set to 5 gray scale levels.

【0045】ステップS26で画素ごとに設定された
「ウィンドウ」は、画素が静止背景の画像の一部を形成
する場合にとるべきグレイスケール値の広がりを表す
(背景の一部を形成する画素のグレイスケール値が照明
の変化及び雑音に起因する誤差に応じてのみ変化するよ
うに、ビデオカメラ12aの視野位置と視野方向は一定
である)。後述するように、これらの「ウィンドウ」は
背景の一部ではない(従って、カメラ12aにより記録
された画素値を規定されたウィンドウの外へ移動させ
る)オブジェクトを識別するために使用される。
The "window" set for each pixel in step S26 represents the spread of the gray scale value to be taken when the pixel forms a part of the image of the still background (the pixel forming the part of the background). The viewing position and viewing direction of the video camera 12a are constant so that the grayscale value changes only in response to illumination changes and errors due to noise.) As will be described below, these "windows" are used to identify objects that are not part of the background (thus moving pixel values recorded by camera 12a out of the defined window).

【0046】再び図3に戻り、ステップS4a及びS4b
では、「アクション」の画像、即ち、背景に沿ってオブ
ジェクトの動き(例えば、路面34上の自動車30,3
2の動きや、横断歩道36における人50,52の動
き)がある画像をビデオカメラ12a及びビデオカメラ
12bにより記録する。カメラ12a及び12bにより記
録されたビデオフレームは、この後の処理の中で時間的
に対応するフレームを使用できるようにするために、タ
イムスタンプを付される。
Returning again to FIG. 3, steps S4a and S4b
Then, an image of the "action", that is, the movement of the object along the background (for example, the automobiles 30, 3 on the road surface 34)
2 and the images of the people 50 and 52 on the crosswalk 36) are recorded by the video cameras 12a and 12b. Video frames recorded by cameras 12a and 12b are time-stamped so that temporally corresponding frames can be used in subsequent processing.

【0047】ステップS6a及びS6bでは、CPU4は
時間同期画像、即ち、ステップS4aにおいてカメラ1
2aにより記録された画像と、ステップS4bにおいてカ
メラ12bにより同時に記録された画像とに関わる画像
データを処理し、画像の中の、「静止背景」の一部では
ないオブジェクト、即ち、背景に沿って動いているオブ
ジェクト又は背景に対して静止しているオブジェクトを
識別する。次に、CPU4はこれらのオブジェクトをス
テップS2で規定された共通世界空間(三次元コンピュ
ータモデル)へ投影する。
In steps S6a and S6b, the CPU 4 sets the time synchronous image, that is, the camera 1 in step S4a.
The image data relating to the image recorded by 2a and the image simultaneously recorded by the camera 12b in step S4b are processed, and objects in the image that are not part of the "still background", that is, along the background Identify objects that are moving or stationary with respect to the background. Next, the CPU 4 projects these objects onto the common world space (three-dimensional computer model) defined in step S2.

【0048】図5に、ステップS6a及びステップS6b
でCPU4により実行される処理動作を示す。この処理
はどちらのカメラでも同じであるので、カメラ12aの
処理についてのみ説明する。
FIG. 5 shows steps S6a and S6b.
Shows a processing operation executed by the CPU 4. Since this process is the same for both cameras, only the process of the camera 12a will be described.

【0049】図5において、ステップS30では、CP
U4は処理すべき画像データ中の各画素のグレイレベル
を先にステップS26で画像中の対応する画素について
設定したグレイスケール「ウィンドウ」と比較する。そ
の画素について予め規定されていたウィンドウから外れ
るグレイレベルを有する画素があれば、その画素は「前
景」画素、即ち、背景に沿って動いている又は静止して
いるオブジェクトの一部を形成する画素であると潜在的
に考えられる。従って、ステップS30では、CPU4
はどの画素が予め計算された対応するウィンドウから外
れたグレイスケールレベルを有するかについての記録を
保持する。
In FIG. 5, in step S30, the CP
U4 compares the gray level of each pixel in the image data to be processed with the gray scale "window" previously set for the corresponding pixel in the image in step S26. If any pixel has a gray level that deviates from a predefined window for that pixel, that pixel is a "foreground" pixel, i.e., a pixel that forms part of an object moving or stationary along the background Is potentially considered to be Therefore, in step S30, the CPU 4
Keeps a record of which pixels have grayscale levels outside the corresponding pre-computed window.

【0050】ステップS32では、CPU4は画像デー
タを処理して雑音を除去する。このような雑音は、例え
ばビデオカメラ12aが電荷結合素子(CCD)カメラ
である場合の量子効果、カメラ12aからのデータを圧
縮するために使用されるデータ圧縮技法、CPU4によ
る処理などに備えてビデオデータのフレームをキャプチ
ャするために使用されるフレームグラバーなどのいくつ
かの原因によって画像データに導入されることもあり、
或いは、動いているオブジェクトの境界の付近で画像デ
ータ中に起こることが多い雑音である場合もある。
In step S32, the CPU 4 processes the image data to remove noise. Such noise may include, for example, quantum effects when the video camera 12a is a charge coupled device (CCD) camera, data compression techniques used to compress data from the camera 12a, processing by the CPU 4, etc. It can also be introduced into image data by a number of sources, such as a frame grabber used to capture frames of data,
Alternatively, the noise may often occur in the image data near the boundary of the moving object.

【0051】図6に、図5のステップS32で雑音を除
去するために画像データを処理するときにCPU4によ
り実行される動作を示す。
FIG. 6 shows an operation performed by the CPU 4 when processing image data to remove noise in step S32 of FIG.

【0052】図6において、ステップS50では、CP
U4は、例えばR.M.Haralick及びL.G.Shapiroによる「C
omputer and Robot Vision Volume 2」(Addison-Wesley
Publishing Company,1993年,ISBN 0-201-56943-4(v.
2),P583)の中で説明されているような従来の方式によ
り、画像データに「シュリンキング」マスクを適用す
る。この操作は、画像データに3×3画素マスクを適用
し、マスクにより規定された9個一組の画素群それぞれ
における「前景」画素(ステップS30で識別された)
の数と、「背景」画素の数とをカウントすることから成
る。マスクの中の大半の画素が背景画素であれば(先に
前景画素であると識別されていた画素であっても)、中
心の画素を背景画素であると規定する。マスクの中の画
素の大半が前景画素である場合には変更しない。画像デ
ータ全体にシュリンキングマスクが適用され終わるま
で、この動作を繰り返す。
In FIG. 6, at step S50, the CP
U4 is, for example, a "C" by RMHaralick and LGShapiro.
omputer and Robot Vision Volume 2 '' (Addison-Wesley
Publishing Company, 1993, ISBN 0-201-56943-4 (v.
2) Apply a "shrinking" mask to the image data in a conventional manner as described in P583). This operation applies a 3 × 3 pixel mask to the image data and “foreground” pixels in each of a set of nine pixels defined by the mask (identified in step S30)
And the number of "background" pixels. If most of the pixels in the mask are background pixels (even those previously identified as foreground pixels), the center pixel is defined as a background pixel. If most of the pixels in the mask are foreground pixels, do not change. This operation is repeated until the shrinking mask is applied to the entire image data.

【0053】ステップS52では、CPU4は、例えば
R.M.Haralick及びL.G.Shapiroによる「Computer and Ro
bot Vision Volume 2」(Addison-Wesley Publishing Co
mpany,1993年,ISBN 0-201-56943-4(v.2),P583)の中に
説明されているような従来の方式で画像データに「成長
マスク」を適用する。この操作は、マスクの中の大半の
画素が前景画素であれば(先に背景画素であると識別さ
れた画素であっても)、中心の画素を前景画素であると
規定し、マスクの中の大半の画素が背景画素である場合
には、変更を行わないという点を除いて、ステップS5
0と同じように実行される。ステップS52は、ステッ
プS50でシュリンキングマスク動作により誤って背景
画素として設定された画素を前景画素に戻す効果を有す
る。
In step S52, the CPU 4
Computer and Ro by RMHaralick and LGShapiro
bot Vision Volume 2 '' (Addison-Wesley Publishing Co
mpany, 1993, ISBN 0-201-56943-4 (v.2), P583), applying a "growth mask" to the image data in a conventional manner. If most of the pixels in the mask are foreground pixels (even those previously identified as background pixels), this operation defines the center pixel as the foreground pixel and If most of the pixels are background pixels, step S5 is performed except that no change is made.
Performed in the same way as 0. Step S52 has an effect of returning a pixel erroneously set as a background pixel to a foreground pixel by the shrinking mask operation in step S50.

【0054】再び図5に戻り、ステップS34では、C
PU4はデータを処理して前景画素のクラスタを識別す
る。これは、画像データを操作して前景画素を識別し、
次に、対話方式で隣接する画素を考慮して、接続する全
ての前景画素を識別することにより、従来の、同じ特性
を有する画素のクラスタを識別する方法で実行される。
Referring again to FIG. 5, in step S34, C
PU4 processes the data to identify clusters of foreground pixels. It operates on image data to identify foreground pixels,
It is then performed in a conventional way to identify clusters of pixels having the same characteristics by interactively considering neighboring pixels and identifying all connected foreground pixels.

【0055】ステップS36では、CPU4はステップ
S34で識別された前景画素の次のクラスタ(これはス
テップS36が最初に実行される最初のクラスタであ
る)を考慮し、クラスタの中の画素の数が“30”より
多いか否かを判定する。
In step S36, the CPU 4 considers the next cluster of the foreground pixels identified in step S34 (this is the first cluster in which step S36 is executed first), and determines the number of pixels in the cluster. It is determined whether it is more than “30”.

【0056】画素の数が30以下であれば、クラスタは
画像全体(本実施形態では768×512画素)に対し
て相対的に小さな部分を形成していることになるので、
クラスタは雑音を表すと考える。この場合、それ以上ク
ラスタを処理することはない。これに対して、クラスタ
中の画素の数が“30”を超えていれば、クラスタは前
景オブジェクトを表すと考え、更に処理を実行する。
If the number of pixels is 30 or less, the cluster forms a relatively small portion with respect to the entire image (768 × 512 pixels in this embodiment).
Think of clusters as representing noise. In this case, there is no further processing of the cluster. On the other hand, if the number of pixels in the cluster exceeds “30”, it is considered that the cluster represents a foreground object, and further processing is performed.

【0057】ステップS38では、CPU4は画素のク
ラスタの広がりの範囲を判定する。本実施形態では、C
PU4は画像の辺と平行な辺を有する二次元画像の中の
クラスタの外接長方形を判定することにより、この動作
を実行する。
In step S38, the CPU 4 determines the extent of the spread of the pixel cluster. In the present embodiment, C
The PU 4 performs this operation by determining a circumscribed rectangle of a cluster in the two-dimensional image having sides parallel to the sides of the image.

【0058】ステップS40では、CPU4はステップ
S38で判定した外接長方形をステップS2でコンピュ
ータモデルを形成したときの三次元世界空間へステップ
S24で計算した変換を使用して投影する。これによ
り、三次元コンピュータモデルの、ビデオ画像中のオブ
ジェクトの位置により判定される位置に、単一の平面が
生成される。本実施形態においては、三次元コンピュー
タモデル中の平面は垂直であると規定され(観察すべき
シーンの中のオブジェクトは対応する実世界面、即ち図
2の例では路面34の上を動いていると想定しているの
で)、平面の基部は3Dモデルの中の、ステップS24
でユーザにより選択された点により規定される面の上に
ある。
In step S40, the CPU 4 projects the circumscribed rectangle determined in step S38 onto the three-dimensional world space when the computer model was formed in step S2, using the conversion calculated in step S24. This creates a single plane at the position of the three-dimensional computer model determined by the position of the object in the video image. In the present embodiment, the plane in the three-dimensional computer model is defined as vertical (the object in the scene to be observed is moving on the corresponding real world surface, that is, on the road surface 34 in the example of FIG. 2). ), The base of the plane is the step S24 in the 3D model.
Above the plane defined by the point selected by the user.

【0059】図7に、図5のステップS40で外接平面
を変換するときにCPU4によって実行される動作を示
す。
FIG. 7 shows an operation executed by the CPU 4 when converting the circumscribed plane in step S40 of FIG.

【0060】図7において、ステップS62では、CP
U4は、先にステップS24で計算した変換を使用して
座標を変換することにより、外接長方形の基部の2つの
角を画像空間から三次元世界空間へ投影する。外接長方
形の基部のそれぞれの角は、先にステップS24で選択
した点により規定される面の上に位置するコンピュータ
モデルの三次元世界空間の中の1つの点に変換される。
In FIG. 7, at step S62, the CP
U4 projects the two corners of the base of the circumscribed rectangle from image space to three-dimensional world space by transforming the coordinates using the transform previously calculated in step S24. Each corner of the base of the circumscribed rectangle is transformed into one point in the three-dimensional world space of the computer model located on the plane defined by the point previously selected in step S24.

【0061】ステップS64では、CPU4は、ステッ
プS62で変換した角の相互距離を判定することによ
り、三次元世界空間における外接長方形の幅を計算す
る。
In step S64, the CPU 4 calculates the width of the circumscribed rectangle in the three-dimensional world space by determining the mutual distance between the corners converted in step S62.

【0062】ステップS66では、CPU4は、画像空
間における外接長方形の幅と高さの比及びステップS6
4で計算した三次元世界空間における幅を使用して、三
次元世界空間における外接長方形の高さを計算する(即
ち、画像空間と三次元世界空間で外接長方形の縦横比は
同一に保持される)。
In step S66, the CPU 4 determines the ratio between the width and the height of the circumscribed rectangle in the image space and the step S6.
The height of the circumscribed rectangle in the three-dimensional world space is calculated using the width in the three-dimensional world space calculated in 4 (that is, the aspect ratio of the circumscribed rectangle in the image space and the three-dimensional world space is kept the same). ).

【0063】図5に戻り、ステップS42では、CPU
4は、ビデオ画像の中の外接長方形から取り出される外
接長方形に関わるテクスチャデータ並びに「前景マス
ク」、即ち外接長方形の中のどの画素が前景画素に対応
しているかを識別するマスクと共に、先にステップS4
0で計算した三次元世界空間における外接長方形の位置
と大きさを格納する。取り出されたテクスチャデータ
は、3D世界空間における外接長方形に関わるテクスチ
ャマップを有効に提供する。
Returning to FIG. 5, in step S42, the CPU
4 together with texture data relating to the circumscribed rectangle extracted from the circumscribed rectangle in the video image and a "foreground mask", i.e., a mask for identifying which pixel in the circumscribed rectangle corresponds to the foreground pixel, S4
The position and size of the circumscribed rectangle in the three-dimensional world space calculated by 0 are stored. The extracted texture data effectively provides a texture map for a circumscribed rectangle in the 3D world space.

【0064】ステップS44では、CPU4は、ステッ
プS34で識別された前景画素のクラスタで、まだ処理
されていない別のクラスタが存在するか否かを判定す
る。考慮すべきビデオフレームの全ての前景画素のクラ
スタが先に説明したように処理され終わるまで、ステッ
プS36からS44を繰り返す。処理が終了した段階
で、カメラ12aが撮影したオブジェクトの三次元コン
ピュータモデルの生成は終わる。モデルの中では、動い
ている各オブジェクトの位置を表すために1つの平坦な
面(外接長方形)が配置されており、それらの動くオブ
ジェクトに関するテクスチャ画像データが格納されてい
る。従って、このデータはカメラ12aからの単一の二
次元画像(ビデオフレーム)の三次元コンピュータモデ
ルに相当する(カメラ12bにより記録された画像デー
タの時間的に対応するフレームの対応する三次元コンピ
ュータモデルは、ステップS6bで生成される)。
In step S44, the CPU 4 determines whether there is another unprocessed cluster among the clusters of the foreground pixels identified in step S34. Steps S36 to S44 are repeated until all clusters of foreground pixels of the video frame to be considered have been processed as described above. When the processing is completed, the generation of the three-dimensional computer model of the object captured by the camera 12a ends. In the model, one flat surface (circumscribed rectangle) is arranged to represent the position of each moving object, and texture image data on those moving objects is stored. Thus, this data corresponds to a three-dimensional computer model of a single two-dimensional image (video frame) from camera 12a (the corresponding three-dimensional computer model of a temporally corresponding frame of image data recorded by camera 12b). Is generated in step S6b).

【0065】図3に戻り、ステップS8では、CPU4
は、ステップS6a及びS6bで生成された三次元コンピ
ュータモデルを処理して、三次元コンピュータモデルの
中の、最初のビデオ画像の陰影に相当するオブジェクト
の部分を識別する。次に、各オブジェクトと関連する陰
影をコンピュータモデル中の別個のオブジェクトとして
格納する。以下、この処理を説明する。
Returning to FIG. 3, in step S8, the CPU 4
Processes the three-dimensional computer model generated in steps S6a and S6b to identify the portion of the object in the three-dimensional computer model that corresponds to the shadow of the first video image. Next, the shadow associated with each object is stored as a separate object in the computer model. Hereinafter, this process will be described.

【0066】先に説明したように、本実施形態では、ビ
デオ画像で識別される各々の前景オブジェクトはその最
も低い点で実世界の地表に接しているものと想定し、そ
のオブジェクトの対応する平坦な外接長方形は基部を3
Dモデル中の地表面に位置させる状態で3D世界空間の
中に配置される。しかし、陰影は画像中のオブジェクト
に付随しており、オブジェクトと共に動くため、前述の
ステップS6a及びS6bを実行するとき、オブジェクト
が作る陰影はオブジェクトの一部として識別される。従
って、外接長方形は陰影とオブジェクトの双方を包含し
ており、そのため、ビデオ画像の中で陰影がオブジェク
トの下方にある場合には、外接長方形の基部は陰影の最
低点によって判定される。この状況においては、オブジ
ェクトは三次元モデルの中で陰影の上に有効に立つこと
になる。従って、ステップS8においてCPU4により
実行される処理はこの問題に対処するものである。
As described above, in the present embodiment, it is assumed that each foreground object identified in the video image is at its lowest point in contact with the real world surface, and the corresponding flat surface of that object is Circumscribed rectangle has 3 bases
It is placed in the 3D world space while being located on the ground surface in the D model. However, since the shadow is attached to the object in the image and moves with the object, the shadow created by the object is identified as a part of the object when performing the above steps S6a and S6b. Thus, the circumscribed rectangle contains both the shadow and the object, so if the shadow is below the object in the video image, the base of the circumscribed rectangle is determined by the lowest point of the shadow. In this situation, the object will effectively stand on the shadow in the three-dimensional model. Therefore, the processing executed by the CPU 4 in step S8 addresses this problem.

【0067】図8に、図3のステップS8で陰影処理を
実行するときにCPU4により実行される処理動作を示
す。
FIG. 8 shows a processing operation executed by the CPU 4 when the shadow processing is executed in step S8 in FIG.

【0068】図8において、ステップS100では、C
PU4は次の対の対応するオブジェクト(これはステッ
プS100が初めて実行されるときの最初の対である)
に関わる画像データの各画素を画像空間から3D世界空
間へ変換する。即ち、CPU4はカメラ12aにより記
録されたオブジェクトに関する、ステップS42(図
5)で格納された画像データの各画素をカメラ12aの
画像空間から3D世界空間へマッピングし、且つカメラ
12bにより対応する時間フレームに記録された対応す
るオブジェクトに関して格納された画像データの各画素
をカメラ12bの画像空間から3D世界空間へマッピン
グする。本実施形態では、対応するオブジェクトは3D
世界空間における外接長方形の基部の角の座標から識別
される。即ち、所定のオブジェクトは対応するオブジェ
クトの角座標から所定の距離の中にある角座標を有し、
画像データの画素のマッピングは先にステップS24で
カメラごとに規定された変換を使用して実行される。
In FIG. 8, in step S100, C
PU4 is the next pair of corresponding objects (this is the first pair when step S100 is executed for the first time)
Is converted from the image space to the 3D world space. That is, the CPU 4 maps each pixel of the image data stored in step S42 (FIG. 5) relating to the object recorded by the camera 12a from the image space of the camera 12a to the 3D world space, and the corresponding time frame by the camera 12b. Is mapped from the image space of the camera 12b to the 3D world space, for each pixel of the image data stored for the corresponding object recorded in. In the present embodiment, the corresponding object is 3D
It is identified from the coordinates of the corners of the base of the circumscribed rectangle in world space. That is, the predetermined object has angular coordinates that are within a predetermined distance from the angular coordinates of the corresponding object,
The mapping of the pixels of the image data is first performed in step S24 using the conversion specified for each camera.

【0069】各カメラの画像空間と、ステップS24で
計算したコンピュータモデルの3D世界座標との間のマ
ッピングは、実世界の地表平面(図2の例では路面)の
上にある点に関してのみ有効である。このため、ステッ
プS100でこの変換を適用した後、一方のカメラによ
り記録されたオブジェクトの陰影に関わる変換後の画像
データは、他方のカメラにより記録された同じオブジェ
クトの陰影に関わる変換後の画像データと3D世界空間
の中で整列する。これは、陰影が実世界の地表平面の上
に位置しているからである。これに対し、オブジェクト
自体は実世界の地表平面上にはなく、従って、異なるカ
メラに関して変換後の画像データは3D世界空間で整列
しない(この画像データは、マッピング変換を適用した
ときに「不正確に」3D世界空間へマッピングされてし
まっている)。
The mapping between the image space of each camera and the 3D world coordinates of the computer model calculated in step S24 is effective only for points on the ground plane of the real world (road surface in the example of FIG. 2). is there. Therefore, after applying this transformation in step S100, the transformed image data related to the shadow of the object recorded by one camera is converted to the transformed image data related to the shade of the same object recorded by the other camera. And 3D world space. This is because the shadow is located on the ground plane of the real world. In contrast, the object itself is not on the real world ground plane, so the transformed image data for different cameras will not be aligned in 3D world space (this image data will be "inaccurate when applying the mapping transformation" To 3D world space).

【0070】従って、ステップS100でも、CPU4
は対応するオブジェクトに関わる変換後の画像データを
比較する。本実施形態では、比較は、従来のように、例
えば、R.M.Haralick及びL.G.Shapiroによる「Computer
and Robot Vision Volume 2」(Addison-Wesley Publish
ing Company,1993年,ISBN 0-201-56943-4(v.2)の16章に
記載されている方法に基づき、変換後の画素値を画素ご
とに比較し、画素のグレイスケール値(及び/又は色
値)が互いに所定の量の範囲内(本実施形態では、あわ
せて256レベルのうち10グレイレベル)にあれば、
画素を同一であると識別することにより実行される。C
PU4は、オブジェクトデータの整列部分(陰影)と、
非整列部分(オブジェクト)との境界を規定するデータ
を後の処理に備えて格納する(この境界は、地表におけ
るオブジェクトの「フットプリント(足跡)」、即ちオ
ブジェクトが地表に接している点の輪郭を有効に表す。
Therefore, even in step S100, the CPU 4
Compares the converted image data related to the corresponding object. In the present embodiment, the comparison is performed in a conventional manner, for example, by “Computer” by RMHaralick and LGShapiro.
and Robot Vision Volume 2 '' (Addison-Wesley Publish
ing Company, 1993, based on the method described in Chapter 16 of ISBN 0-201-56943-4 (v.2), the pixel values after conversion are compared pixel by pixel, and the gray scale value (and And / or color values) are within a predetermined amount range (10 gray levels out of a total of 256 levels in this embodiment),
It does this by identifying the pixels as identical. C
PU4 includes an alignment part (shading) of the object data,
Data defining the boundary with the unaligned portion (object) is stored for later processing (this boundary is the “footprint” of the object on the ground, ie, the outline of the point where the object touches the ground). Is effectively represented.

【0071】ステップS102では、CPU4は、ステ
ップS100で整列していると識別された対応するオブ
ジェクトの部分を取り出す。先述した通り、この部分は
オブジェクトの陰影に相当し、CPU4により、カメラ
ごとに3Dモデルの地表平面上の別個のオブジェクトと
して格納される。
In step S102, the CPU 4 takes out the corresponding object portion identified as being aligned in step S100. As described above, this portion corresponds to the shadow of the object, and is stored by the CPU 4 as a separate object on the ground plane of the 3D model for each camera.

【0072】ステップS104では、CPU4は、ステ
ップS100で非整列であると識別された、カメラ12
aにより記録された画像データを、カメラ12bにより
記録された対応するオブジェクトからの変換後の画像デ
ータと共に考慮する。CPU4は、カメラ12aの画像
空間におけるこの画像データの外接長方形を判定する
(このステップは図5のステップS38に相当するが、
今回は陰影を除いたオブジェクトに関する)。
In step S104, the CPU 4 determines whether the camera 12 has been identified as being out of alignment in step S100.
Consider the image data recorded by a with the converted image data from the corresponding object recorded by camera 12b. The CPU 4 determines a circumscribed rectangle of this image data in the image space of the camera 12a (this step corresponds to step S38 in FIG. 5,
This time about objects without shading).

【0073】ステップS106では、CPU4は、ステ
ップS104で判定した新たな外接長方形を第1のカメ
ラの画像空間から3D世界空間へ投影する。このステッ
プは図5のステップS40に相当し、ステップS40と
同様に実行される。
In step S106, the CPU 4 projects the new circumscribed rectangle determined in step S104 from the image space of the first camera to the 3D world space. This step corresponds to step S40 in FIG. 5, and is executed in the same manner as step S40.

【0074】ステップS108では、CPU4は、画像
データ及び関連する「前景マスク」と共に、変換後の外
接長方形の位置とサイズを第1のカメラの3Dモデルに
関わるオブジェクトデータとして格納する(このステッ
プは図5のステップS42に相当する)。
In step S108, the CPU 4 stores the position and size of the converted circumscribed rectangle as object data relating to the 3D model of the first camera, together with the image data and the related "foreground mask" (this step is shown in FIG. 5 corresponds to step S42).

【0075】ステップS102で格納された(陰影に関
わる)オブジェクトデータと、ステップS108で格納
された(陰影を除いたオブジェクトに関わる)オブジェ
クトデータは、先にステップS42でオブジェクト及び
その陰影に関して格納された複合オブジェクトデータと
置き換えられる。
The object data (related to the shadow) stored in step S102 and the object data stored (related to the object excluding the shadow) stored in step S108 are previously stored in step S42 for the object and its shadow. Replaced by composite object data.

【0076】ステップS110からS114では、CP
U4は第2のカメラ(カメラ12b)に関してステップ
S104からS108を繰り返す。この場合も同様に、
陰影とオブジェクトとに関してステップS110とS1
14で別個のオブジェクトとして格納されたデータは、
第2のカメラに関して先にステップS42で格納された
合成データと置き換えられる。
In steps S110 to S114, the CP
U4 repeats steps S104 to S108 for the second camera (camera 12b). In this case as well,
Steps S110 and S1 for shadows and objects
The data stored as a separate object at 14
The second camera is replaced with the synthesized data previously stored in step S42.

【0077】ステップS116では、CPU4は、世界
空間に処理すべき対応するオブジェクトの対がまだ存在
しているか否かを判定する。先に説明したように、対応
する全てのオブジェクトを処理し終わるまで、ステップ
S100からS116を繰り返す。
In step S116, the CPU 4 determines whether or not there is still a corresponding object pair to be processed in the world space. As described above, steps S100 to S116 are repeated until all corresponding objects have been processed.

【0078】再び図3に戻り、ステップS10では、C
PU4は異なるカメラに関するオブジェクトデータを処
理して、別個に表現すべき2つのオブジェクトから構成
されているオブジェクトが実際に存在するか否かを判定
すると共に、適切な修正を実行する。この処理は陰影で
はなく、オブジェクトに対して実行される。
Referring back to FIG. 3, in step S10, C
The PU 4 processes object data relating to different cameras, determines whether or not an object composed of two objects to be separately represented actually exists, and performs an appropriate correction. This process is performed on objects, not shadows.

【0079】一例として、図9aに、カメラ12aの3
D世界空間で2つのオブジェクトを1つのオブジェクト
として表現してしまう可能性のある人50,52と、カ
メラ12及び12bの1つの構成を概略的に示す。
As an example, FIG.
1 schematically shows persons 50 and 52 who may represent two objects as one object in the D world space, and one configuration of cameras 12 and 12b.

【0080】図9aの例では、カメラ12の視野方向
は、人50が人52のすぐ後ろにいるように設定されて
いる。この状況においては、図9bに示すように、人5
0,52は、二人がこの整列状態を維持した特定の時点
で、カメラ12aにより記録される画像の中では1つの
オブジェクトとして現れる。従って、ステップS6a
で、CPU4は二人の人に関わる画像データを単一の前
景オブジェクトとして識別し、この画像データを取り囲
む外接長方形を規定し、その外接長方形をカメラ12a
の3D世界空間へ投影する。これに対して、図9cに示
すように、図9aに示した例の人の配置についてカメラ
12bにより記録された画像データは、二人の人を明確
に別個のオブジェクトとして示している。そこで、ステ
ップS6bで、CPU4は二人の人を別個の前景オブジ
ェクトとして識別し、別の外接長方形を規定し、別々の
外接長方形をカメラ12bの3D世界空間へ投影する。
In the example of FIG. 9A, the viewing direction of the camera 12 is set such that the person 50 is immediately behind the person 52. In this situation, as shown in FIG.
0 and 52 appear as one object in the image recorded by the camera 12a at a specific point in time when the two maintain this alignment. Therefore, step S6a
The CPU 4 identifies the image data relating to the two people as a single foreground object, defines a circumscribed rectangle surrounding this image data, and defines the circumscribed rectangle as the camera 12a.
3D world space. In contrast, as shown in FIG. 9c, the image data recorded by the camera 12b for the person arrangement of the example shown in FIG. 9a clearly shows the two persons as separate objects. Thus, in step S6b, the CPU 4 identifies the two persons as separate foreground objects, defines another circumscribed rectangle, and projects the separate circumscribed rectangles into the 3D world space of the camera 12b.

【0081】図10に、図3のステップS10でCPU
4により実行される処理動作を示す。
FIG. 10 shows that the CPU in step S10 of FIG.
4 shows the processing operation executed by

【0082】図10において、ステップS200では、
CPU4はカメラ12aからの次のオブジェクト(これ
はステップS200で最初に実行される第1のオブジェ
クトである)の外接長方形の3D世界空間における高さ
と、カメラ12bからの対応するオブジェクトの外接長
方形の3D世界空間における高さとを比較する。本実施
形態では、対応するオブジェクトは3D世界空間におけ
る各外接長方形の基部の角の座標を使用して識別される
が、それは、それらの座標が対応するオブジェクトに関
して所定の距離の中にあるからである。
In FIG. 10, in step S200,
The CPU 4 determines the height in 3D world space of the circumscribed rectangle of the next object from the camera 12a (this is the first object executed first in step S200) and the 3D of the circumscribed rectangle of the corresponding object from the camera 12b. Compare with height in world space. In this embodiment, the corresponding objects are identified using the coordinates of the corners of the base of each circumscribed rectangle in 3D world space, since their coordinates are within a predetermined distance with respect to the corresponding objects. is there.

【0083】ステップS202では、CPU4は外接長
方形の高さが同じであるか、または所定の誤差限界(本
実施形態では10%)の中にあるかを判定する。ステッ
プS24(図4)において、各カメラの画像空間から3
D世界空間へのマッピングを判定するために同じ基準点
を選択しており、また各カメラは一定のズーム設定を有
するので、各カメラのオブジェクトデータは同じスケー
ルを有する。そのため、図11に示すように、カメラ1
2aの画像データから生成され、二人の人50,52か
ら成る複合オブジェクトを表現する外接長方形100は
3D世界空間において、カメラ12bの画像データから
生成され、人52を表現する外接長方形102より大き
い高さを有する。従って、ステップS202でそれらの
外接長方形の高さが同じであると判定されたならば、各
外接長方形は単一のオブジェクトを表現するものと判定
し、処理はステップS214へ進む。これに対して、高
さが同じではないと判定された場合には、CPU4は、
最も背の高い外接長方形が複数の構成オブジェクトに分
割すべき複合オブジェクトを表現していると判定し、処
理はステップS204へ進む。
In step S202, the CPU 4 determines whether the heights of the circumscribed rectangles are the same or within a predetermined error limit (10% in this embodiment). In step S24 (FIG. 4), 3
Since the same reference point has been selected to determine the mapping to D world space, and since each camera has a constant zoom setting, the object data for each camera has the same scale. Therefore, as shown in FIG.
The circumscribed rectangle 100 generated from the image data of 2a and representing the composite object composed of the two persons 50 and 52 is larger than the circumscribed rectangle 102 generated from the image data of the camera 12b and representing the person 52 in the 3D world space. Have a height. Therefore, if it is determined in step S202 that the circumscribed rectangles have the same height, it is determined that each circumscribed rectangle represents a single object, and the process proceeds to step S214. On the other hand, when it is determined that the heights are not the same, the CPU 4
It is determined that the tallest circumscribed rectangle represents the composite object to be divided into a plurality of constituent objects, and the process proceeds to step S204.

【0084】ステップS204では、CPU4は最も背
の高い外接長方形を対応するオブジェクトの外接長方形
102と同じ高さを有する底部(図11の106)と、
元の背の高い外接長方形100の残り部分からなる最上
部(図11の108)とに分割する。底部106とそれ
に関連する画像データは、複合オブジェクトの中で他方
のオブジェクト(人50)の前方にある1つのオブジェ
クト(人52)を表現しているので、単一のオブジェク
トとして格納される。そこで、CPU4は以下に説明す
るように、後方のオブジェクト(即ち、カメラ12aか
ら最も遠いオブジェクト)を3Dモデルの中の正しい位
置で表現するために、ステップS206からS212の
処理を実行する。
In step S204, the CPU 4 sets the tallest circumscribed rectangle to the bottom (106 in FIG. 11) having the same height as the circumscribed rectangle 102 of the corresponding object.
The original tall circumscribed rectangle 100 is divided into the uppermost part (108 in FIG. 11) composed of the remaining part. Since the bottom portion 106 and the image data related thereto represent one object (person 52) in front of the other object (person 50) in the composite object, they are stored as a single object. Therefore, as described below, the CPU 4 executes the processing of steps S206 to S212 in order to represent the rear object (that is, the object farthest from the camera 12a) at the correct position in the 3D model.

【0085】ステップS206では、CPU4は正しい
高さの外接長方形(図11の102)を生成した方のカ
メラの全ての外接長方形の基部の角を世界空間からステ
ップS204で分割した背の高い外接長方形(図11の
100)を生成したカメラ(カメラ12a)の画像空間
へ投影する。この変換は、背の高い外接長方形を生成し
たカメラ(カメラ12a)について図4のステップS2
4で計算したのとは逆の変換を使用して実行される。
In step S206, the CPU 4 divides the corners of the bases of all the circumscribed rectangles of the camera that has generated the circumscribed rectangle (102 in FIG. 11) of the correct height from the world space in step S204, and divides them in step S204. (100 in FIG. 11) is projected onto the image space of the camera (camera 12a) that has generated it. This conversion is performed for the camera (camera 12a) that generated the tall circumscribed rectangle in step S2 in FIG.
Performed using the inverse of the transformation calculated in 4.

【0086】ステップS208では、CPU4は、ステ
ップS206で投影した外接長方形の基部のうちどれが
複合オブジェクトを記録したカメラの画像空間において
複合オブジェクトの画像データを包囲する「大きすぎ
る」外接長方形と重なり合うかを識別する。本実施形態
では、これは、投影された基部の角の座標を大きすぎる
外接長方形の四隅の座標と比較することにより実行され
る(ステップS208及びS210においては、基部が
複合オブジェクトのうち後方のオブジェクトを包囲する
外接長方形に属している場合、投影された基部の少なく
とも一部は「大きすぎる」外接長方形の背後に位置して
いるので、外接長方形の基部の頂点の座標を投影し、比
較するだけで良い)。
In step S208, the CPU 4 determines which of the bases of the circumscribed rectangle projected in step S206 overlaps with the "too large" circumscribed rectangle surrounding the image data of the composite object in the image space of the camera where the composite object is recorded. Identify. In the present embodiment, this is performed by comparing the coordinates of the corners of the projected base with the coordinates of the four corners of the circumscribed rectangle that is too large (in steps S208 and S210, the base is If you belong to a circumscribed rectangle that encloses at least a portion of the projected base is located behind the `` too large '' circumscribed rectangle, just project the coordinates of the vertices of the base of the circumscribed rectangle and compare Is good).

【0087】ステップS210では、大きすぎる外接長
方形を生成したカメラ(カメラ12a)について先にス
テップS24で計算した変換を使用して、ステップS2
08で識別した外接長方形の基部を元の3D世界空間に
投影する。この再投影された外接長方形の基部は、複合
画像のうち後方のオブジェクトに関して3D世界空間に
おける正しい位置を表す。従って、CPU4は、ステッ
プS204で背の高い外接長方形から分割された外接長
方形の最上部108の基部が再投影された基部に沿って
走り、且つ再投影された基部の中心が3D世界空間にお
いて同じ位置を占めるように、最上部108を再位置決
めする。
In step S210, the camera (camera 12a) that has generated the circumscribed rectangle that is too large is converted to the image in step S2 using the conversion previously calculated in step S24.
The base of the circumscribed rectangle identified at 08 is projected into the original 3D world space. The base of the reprojected circumscribed rectangle represents the correct position in 3D world space with respect to the back object in the composite image. Accordingly, the CPU 4 runs along the reprojected base of the top of the circumscribed rectangle 108 divided from the tall circumscribed rectangle in step S204, and the center of the reprojected base is the same in the 3D world space. Reposition top 108 to occupy position.

【0088】ステップS212では、CPU4は、当初
の大きすぎる外接長方形を生成したカメラ(カメラ12
a)に関わるオブジェクトデータにおける別個のオブジ
ェクトとして、再位置決めされた最上部をステップS2
04で識別した画像データと共に格納する。
In step S212, the CPU 4 generates the initially large circumscribed rectangle of the camera (camera 12).
As a separate object in the object data relating to a), the repositioned top part is set in step S2.
04 together with the image data identified.

【0089】ステップS200からS212を実行した
後、CPU4は複合オブジェクトをその構成オブジェク
トに分離し、それらを関連するカメラに関わるオブジェ
クトデータ中の別個のオブジェクトとして格納する動作
を完了する。
After executing steps S200 to S212, CPU 4 completes the operation of separating the composite objects into their constituent objects and storing them as separate objects in the object data relating to the associated camera.

【0090】この処理は、3Dコンピュータモデルから
再生されるごく少数の画像フレームに渡ってしか続かな
いとしても、非常に目立つことが分かっているオブジェ
クトの高さの急激な変化を防止するという意味で有効で
ある。
This process is intended to prevent a sudden change in the height of an object that has been found to be very noticeable, even if it lasts only a few image frames reproduced from the 3D computer model. It is valid.

【0091】再び図9bに戻り、画像データの中で人5
0の全体ではないが、その一部が人52の上にきている
ことが分かる。従って、ステップS204で外接長方形
100の最上部108を分離すると、人50の一部のみ
に関わる画像データが分離される。そこで、ステップS
206からS212は複合オブジェクトの中でカメラか
ら最も遠いオブジェクト(人50)に関わる画像データ
が実際のオブジェクトの最上部に対応しているだけであ
るような表現を生成する。更に、ステップS204で、
カメラに最も近いオブジェクト(人52)について長方
形100の底部106に保持した画像データは、実際に
は、カメラから最も遠いオブジェクトに対応する画像デ
ータ(これが外接長方形の底部に位置している場合)を
含んでいると考えられる。しかし、この「不正確な」表
現は、三次元コンピュータモデルから生成される画像に
おいては相対的に目立たないことがわかっている。これ
は、特に、複合オブジェクトが相対的に少数のビデオフ
レームにわたってしか存在していない(オブジェクトの
整列状態はシーンの中で変化して行く)からである。
Referring back to FIG. 9B, the person 5
It can be seen that not all of the zeros, but some of them are over the person 52. Therefore, when the uppermost part 108 of the circumscribed rectangle 100 is separated in step S204, image data relating to only a part of the person 50 is separated. Therefore, step S
Steps 206 to S212 generate an expression such that the image data relating to the object (person 50) farthest from the camera in the composite object only corresponds to the top of the actual object. Further, in step S204,
The image data held at the bottom 106 of the rectangle 100 for the object (person 52) closest to the camera is actually the image data corresponding to the object farthest from the camera (when this is located at the bottom of the circumscribed rectangle). It is thought to contain. However, this "inaccurate" representation has been found to be relatively inconspicuous in images generated from the three-dimensional computer model. This is especially because composite objects only exist over a relatively small number of video frames (the alignment of the objects changes in the scene).

【0092】図10のステップS214では、CPU4
は、第1のカメラに関して3D世界空間の中の別のオブ
ジェクトが存在するか否かを判定する。そのような全て
のオブジェクトが先に説明したように処理され終わるま
で、ステップS200からS214を繰り返す。
In step S214 in FIG.
Determines whether there is another object in 3D world space for the first camera. Steps S200 to S214 are repeated until all such objects have been processed as described above.

【0093】再び図3に戻り、ステップS11a及びS
11bでは、CPU4は3D世界空間における各オブジ
ェクトの表現(モデル)を生成する。即ち、ステップS
11aでは、CPU4はステップS6aで識別した各前
景オブジェクトの第1のカメラに関するオブジェクトデ
ータにおける表現を生成する。同様に、ステップS11
bでは、CPU4は第2のカメラの3Dオブジェクトデ
ータに関わる3Dモデルを生成する。尚、ステップS1
1a/S11bでは、CPUモデルはオブジェクトであ
り、その陰影ではない。これは、陰影が既にステップS
8(図3)で正確にモデリングされているからである。
Returning again to FIG. 3, steps S11a and S11a
In 11b, the CPU 4 generates a representation (model) of each object in the 3D world space. That is, step S
In 11a, the CPU 4 generates a representation in the object data relating to the first camera of each foreground object identified in step S6a. Similarly, step S11
In b, the CPU 4 generates a 3D model related to the 3D object data of the second camera. Step S1
In 1a / S11b, the CPU model is an object, not its shadow. This is because the shading is already in step S
8 (FIG. 3) is accurately modeled.

【0094】図12に、ステップS11a及びS11b
でCPU4により実行される処理動作を示す。この処理
は各カメラで同一であるので、ステップS11aで実行
されるカメラ12aに関わる処理のみを説明する。
FIG. 12 shows steps S11a and S11b.
Shows a processing operation executed by the CPU 4. Since this process is the same for each camera, only the process related to the camera 12a executed in step S11a will be described.

【0095】図12において、ステップS230では、
CPU4は、先にステップS100(図8)で格納され
た、カメラ12aのオブジェクトデータにおける次のオ
ブジェクトの地表プロファイル(「フットプリント」)
(即ち、このオブジェクトの地表上の接触プロファイル
であり、オブジェクトが3D世界空間において地表平面
と接する点を表す)を規定するデータを読み取る。次
に、CPU4は、例えばR.M.Haralick及びL.G.Shapiro
の「Computer and Robot Vision Version 1」(Addison-
Wesley Publishing Company,1992年,ISBN 0-201-10877-
1(v.1)の11.4節に記載されている方法に基づいて、画
素ごとの勾配値を計算するために外接画素に画素マスク
を適用し、次に「t−統計」試験を適用するなど、従来
の方式で境界の形状に複数の直線を当てはめることによ
り、「フットプリント」を近似する。ステップS230
は、自動車32の地表プロファイルを表現する地表境界
形状150の例について図13a及び図13bに示され
ている(図13aに示す例の境界形状はほぼまっすぐな
線を既に含んでいるが、湾曲したフットプリントを近似
しても良い)。
In FIG. 12, in step S230,
The CPU 4 determines the ground profile (“footprint”) of the next object in the object data of the camera 12a, which is stored in step S100 (FIG. 8) earlier.
(I.e., the contact profile of the object on the ground, representing the point at which the object touches the ground plane in 3D world space) is read. Next, the CPU 4 executes, for example, RMHaralick and LGShapiro
`` Computer and Robot Vision Version 1 '' (Addison-
Wesley Publishing Company, 1992, ISBN 0-201-10877-
Apply a pixel mask to the circumscribing pixels to calculate the pixel-by-pixel gradient value, then apply the "t-statistic" test, based on the method described in Section 11.4 of 1 (v.1), etc. The "footprint" is approximated by fitting a plurality of straight lines to the shape of the boundary in a conventional manner. Step S230
13a and 13b show examples of a ground boundary shape 150 representing the ground profile of the vehicle 32 (the boundary shape in the example shown in FIG. 13a already contains a substantially straight line, but is curved. Footprint may be approximated).

【0096】ステップS232では、CPU4は、ステ
ップS230で規定したフットプリント近似160を使
用して、3D世界空間でオブジェクトを表現するための
モデルを規定する。本実施形態では、CPU4は3D世
界空間の中で複数の平坦な面170,172(本実施形
態では、長方形)を規定し、各長方形の基部はステップ
S230で規定した直線の1つに対応し、垂直の辺はそ
れぞれ3D世界空間の中で、先に3D世界空間における
オブジェクトの表現として使用された単一の外接長方形
の高さ(図5のステップS42で格納され、その後、図
3のステップS8及び/又はステップS10で必要に応
じて修正された)に対応する高さを有する。ステップS
232は図13cに示されている。
In step S232, the CPU 4 uses the footprint approximation 160 defined in step S230 to define a model for expressing an object in the 3D world space. In the present embodiment, the CPU 4 defines a plurality of flat surfaces 170 and 172 (in the present embodiment, rectangles) in the 3D world space, and the base of each rectangle corresponds to one of the straight lines defined in step S230. , The vertical side is the height of the single circumscribed rectangle previously used as a representation of the object in the 3D world space in the 3D world space (stored in step S42 of FIG. 5 and then the step of FIG. 3) S8 and / or modified as needed in step S10). Step S
232 is shown in FIG. 13c.

【0097】ステップS234では、CPU4は、ステ
ップS232で規定した各長方形を3D世界空間からカ
メラ12aの画像空間へマッピングする。これは、先に
カメラ12aについてステップS24(図4)で計算し
た変換の逆を各長方形の基部の角の座標に適用し、カメ
ラ12aの画像空間における変換後の長方形の縦横比
(即ち、高さと幅の比)が3D世界空間における長方形
の縦横比と同じであると仮定することにより、画像空間
における変換後の長方形の高さを判定できるようにする
ことによって実行される。
In step S234, the CPU 4 maps each rectangle defined in step S232 from the 3D world space to the image space of the camera 12a. This applies the inverse of the transform previously calculated in step S24 (FIG. 4) for camera 12a to the coordinates of the corners of the base of each rectangle, and the aspect ratio of the transformed rectangle in the image space of camera 12a (ie, high Is performed by allowing the height of the transformed rectangle in image space to be determined by assuming that the aspect ratio of the rectangle in 3D world space is the same as the aspect ratio of the rectangle in 3D world space.

【0098】ステップS236では、CPU4は、カメ
ラ12aの画像空間の変換後の長方形の各々の中に位置
する画素データを取り出す。
In step S236, the CPU 4 extracts pixel data located in each of the converted rectangles in the image space of the camera 12a.

【0099】ステップS238では、CPU4は、カメ
ラ12aのオブジェクトデータとして、3D世界空間に
おける平坦な面の位置とサイズ(ステップS232で規
定した)、各長方形と関連する画像データ(ステップS
236で規定した)及び(先にステップS42で格納し
たデータに基づく)画像データの前景マスクを格納す
る。
In step S238, the CPU 4 determines the position and size of the flat surface in the 3D world space (defined in step S232) and the image data associated with each rectangle (step S232) as the object data of the camera 12a.
236) and the foreground mask of the image data (based on the data previously stored in step S42).

【0100】ステップS240では、CPU4は、カメ
ラ12aに関してモデリングすべき別のオブジェクトが
存在するか否かを判定する。全てのオブジェクトが先に
説明したようにモデリングされ終わるまで、ステップS
230からS240を繰り返す。
In step S240, CPU 4 determines whether there is another object to be modeled for camera 12a. Step S until all objects have been modeled as described above.
Steps S230 to S240 are repeated.

【0101】再び図3に戻り、ステップS12a及びS
12bでは、CPU4はステップS11a/S11bで生
成したオブジェクトデータをカメラごとのタイムスタン
プ済み3Dオブジェクトデータとして格納する。
Returning to FIG. 3, steps S12a and S12a are executed again.
In step 12b, the CPU 4 stores the object data generated in steps S11a / S11b as time-stamped 3D object data for each camera.

【0102】ステップS14では、CPU4は、カメラ
12a及び12bにより記録された画像で、まだ処理され
ていない画像が残っているか否かを判定する。そのよう
な全ての画像が先に説明した方式で処理され終わるま
で、ステップS6a/S6b,S8,S10,S11a/S11
b,S12a/S12b及びS14を繰り返す。処理が終了し
た段階で、カメラ12a及び12bの各々に対して一組
ずつ、二組のタイムスタンプ済み3Dオブジェクトデー
タがメモリ6に格納されることになる。
In step S14, the CPU 4 determines whether or not an unprocessed image remains among the images recorded by the cameras 12a and 12b. Steps S6a / S6b, S8, S10, S11a / S11 until all such images have been processed in the manner described above.
b, S12a / S12b and S14 are repeated. When the processing is completed, two sets of the time-stamped 3D object data are stored in the memory 6, one set for each of the cameras 12 a and 12 b.

【0103】ステップS16では、CPU4は、ユーザ
に対し、ユーザが選択した所望の視点で画像を表示装置
18に表示する。このステップにおいてCPU4により
表示される画像は、先に生成されていた三次元モデルオ
ブジェクトデータを使用して生成されたシミュレートビ
デオ画像である。
In step S16, the CPU 4 displays an image on the display device 18 for the user at a desired viewpoint selected by the user. The image displayed by the CPU 4 in this step is a simulated video image generated using the previously generated three-dimensional model object data.

【0104】図14に、ステップS16で画像を表示す
るときにCPU4により実行される処理動作を示す。
FIG. 14 shows a processing operation executed by the CPU 4 when displaying an image in step S16.

【0105】図14において、ステップS296では、
オブジェクトを観察すべき方向をユーザが入力装置14
を使用して規定する。
In FIG. 14, in step S296,
The user specifies the direction in which the object should be observed by the input device 14.
Stipulated using.

【0106】ステップS298では、CPU4は、ユー
ザにより選択された視野方向がオブジェクトを見下ろす
所定の垂直視野方向の角度の中にあるか否かを判定す
る。本実施形態では、CPU4は選択された視野方向が
垂線から±15°の中にあるか否かを判定する。このス
テップでユーザが垂直軸を有し、且つ15°の半角を有
するような円錐の中に入る視野方向を選択したと判定さ
れれば、処理はステップS300へ進み、CPU4は地
表平面上の全てのオブジェクトの位置を概略的に表現す
るデータをフレームバッファ16にレンダリングする。
本実施形態では、これは、所定のカメラ(例えば、カメ
ラ12a)に関わるオブジェクトデータを使用し、地表
平面上の、選択したカメラに関するオブジェクトデータ
中のオブジェクトの位置から判定される各オブジェクト
の位置に対応する位置に指示される十字記号などの図形
又は他の目に見える標識と共に、ステップS2で生成し
た共通3Dモデルを使用して静止背景シーンの垂直視野
をレンダリングすることにより実行される。
In step S298, the CPU 4 determines whether or not the view direction selected by the user is within a predetermined angle of the vertical view direction overlooking the object. In the present embodiment, the CPU 4 determines whether or not the selected viewing direction is within ± 15 ° from the perpendicular. If it is determined in this step that the user has selected a viewing direction that falls within a cone having a vertical axis and a half-angle of 15 °, the process proceeds to step S300, where the CPU 4 determines all the directions on the ground plane. Is rendered in the frame buffer 16 to roughly represent the position of the object.
In the present embodiment, this uses object data relating to a predetermined camera (for example, camera 12a), and sets the position of each object on the ground plane determined from the position of the object in the object data relating to the selected camera. This is performed by rendering the vertical field of view of the stationary background scene using the common 3D model generated in step S2, with a graphic or other visible sign, such as a cross indicated at the corresponding position.

【0107】ステップS298及びS300は、ユーザ
に全てのオブジェクトの位置を示す航空図を与える処理
から成る。このような航空図はいくつかの状況において
有用であろう。例えば、記録されたビデオデータが事故
又は犯罪に関連するものであった場合、警察ではステッ
プS298及びS300で生成した画像データを利用し
て、異なる時点における自動車及び/又は人々の相対的
位置を判定するための証拠を集めることができる。また
同様に、オブジェクトが団体競技に参加している人々で
ある場合にも、ステップS298及びS300で生成し
た画像データを選手の相対的位置などを分析するために
トレーニングの目的で使用できる。
Steps S298 and S300 comprise a process for giving the user an aerial chart showing the positions of all objects. Such an aerial chart may be useful in some situations. For example, if the recorded video data is related to an accident or a crime, the police will use the image data generated in steps S298 and S300 to determine the relative positions of cars and / or people at different times. You can gather evidence to do it. Similarly, if the object is a person participating in a team competition, the image data generated in steps S298 and S300 can be used for training purposes in order to analyze the relative positions of the players.

【0108】ステップS298でユーザが選択した視野
方向が所定の角度範囲にないと判定された場合には、C
PU4は、以下に説明するように、選択された視野方向
からユーザに対しオブジェクトのリアルな画像をレンダ
リングするための処理を実行する。
If it is determined in step S298 that the viewing direction selected by the user is not within the predetermined angle range, C
The PU 4 executes a process for rendering a real image of the object to the user from the selected viewing direction, as described below.

【0109】ステップS302では、CPU4は、ユー
ザに対して表示すべき画像データを生成するために、カ
メラ12aの画像データから生成したオブジェクトデー
タ(ステップS12aで格納されている)を使用すべき
か、又はカメラ12bの画像データから生成したオブジ
ェクトデータ(ステップS12bで格納されている)を
使用すべきかを判定する。
In step S302, CPU 4 should use the object data (stored in step S12a) generated from the image data of camera 12a to generate image data to be displayed to the user, or It is determined whether to use the object data (stored in step S12b) generated from the image data of the camera 12b.

【0110】図15に、ステップS302でオブジェク
トデータを選択するときにCPU4により実行される動
作を示す。
FIG. 15 shows an operation executed by the CPU 4 when selecting object data in step S302.

【0111】図15において、ステップS400では、
CPU4はステップS296でユーザにより選択された
視野方向をカメラ12aの視野方向(光軸)及びカメラ
12bの視野方向と比較し、ユーザが選択した視野方向
により近い視野方向を有するカメラを識別する。
In FIG. 15, in step S400,
The CPU 4 compares the viewing direction selected by the user in step S296 with the viewing direction (optical axis) of the camera 12a and the viewing direction of the camera 12b, and identifies a camera having a viewing direction closer to the viewing direction selected by the user.

【0112】ステップS402では、CPU4は、ステ
ップS400で識別されなかったカメラ(即ち、ユーザ
が選択した視野方向からより遠い視野方向を有するカメ
ラ)の視野方向がユーザにより選択された視野方向の所
定の角度範囲(円錐)の中に入っているか否かを判定す
る。本実施形態においては、CPU4は軸が選択された
視野方向の±30°以内にあるか否かを判定する。カメ
ラの軸がこの所定の角度を外れていれば、ユーザにより
選択された視野方向に関してこのカメラにより生成され
る画像の画質はステップS400で識別されたカメラに
より生成される画像と比較して著しく劣ることに成るで
あろう。従って、この場合には、処理はステップS42
8へ進み、CPU4はユーザが選択した視野方向により
近い視野方向を有するカメラからのオブジェクトデータ
を選択する。
In step S402, the CPU 4 sets the view direction of the camera not identified in step S400 (that is, the camera having a view direction farther from the view direction selected by the user) to the predetermined view direction of the view direction selected by the user. It is determined whether or not it is within the angle range (cone). In the present embodiment, the CPU 4 determines whether the axis is within ± 30 ° of the selected viewing direction. If the axis of the camera deviates from this predetermined angle, the image quality of the image generated by the camera for the viewing direction selected by the user is significantly inferior to the image generated by the camera identified in step S400. Will be. Accordingly, in this case, the processing is performed in step S42.
Proceeding to 8, the CPU 4 selects object data from a camera having a viewing direction closer to the viewing direction selected by the user.

【0113】これに対して、ステップS402で他方の
カメラの視野方向が所定の角度の範囲内にあると判定さ
れた場合には、ユーザが選択した視野方向からより遠い
視野方向を有するカメラに関わるオブジェクトデータ
は、実際には、状況によって選択された視野方向の画像
より良い画質を示すこともある。従って、この場合、C
PU4は、ステップS400で識別された、ユーザが選
択した視野方向により近い視野方向を有するカメラのデ
ータを使用するよりも、ユーザが選択した視野方向から
より遠い視野方向を有するカメラを使用するほうがより
良い画質を得られるか否かを判定するために、ステップ
S404からS426で更にテストを実行する。
On the other hand, if it is determined in step S402 that the viewing direction of the other camera is within the range of the predetermined angle, the camera relating to the camera having a viewing direction farther from the viewing direction selected by the user is involved. The object data may actually show better image quality than the image in the viewing direction selected depending on the situation. Therefore, in this case, C
PU4 uses a camera having a viewing direction that is farther from the user-selected viewing direction than using the camera data identified in step S400 that has a viewing direction closer to the user-selected viewing direction. In order to determine whether or not good image quality can be obtained, a further test is performed in steps S404 to S426.

【0114】ステップS404からS414では、CP
U4は、以下に説明するように、カメラの三次元オブジ
ェクトデータから再生される画像の画質に影響を及ぼす
カメラ12a及び12bの特性を比較する。
At steps S404 to S414, the CP
U4 compares the characteristics of cameras 12a and 12b which affect the image quality of the image reproduced from the camera's three-dimensional object data, as described below.

【0115】ステップS404では、CPU4は、カメ
ラ12aからコンピュータ2へ画像データを転送するた
めに使用される方法と、カメラ12bからコンピュータ
2へ画像データを転送するために使用される方法とを比
較する。この情報は、処理に先立ってユーザにより入力
されても良く、或いは、カメラから画像データと共に伝
送されても良い。
In step S404, CPU 4 compares the method used to transfer image data from camera 12a to computer 2 with the method used to transfer image data from camera 12b to computer 2. . This information may be input by the user prior to processing, or may be transmitted from the camera along with the image data.

【0116】ステップS406では、CPU4は転送方
法が同じであるか否かを判定する。同じでなければ、ス
テップS408で、CPU4は、画質が高い方のカメラ
(即ち、通常、画像データに導入される誤差の数が小さ
い方の転送方法)からのオブジェクトデータを選択す
る。本実施形態では、無線送信により画像データを転送
する場合と比べて、ケーブル及び/又は記録媒体を介し
て画像データを転送する(例えば、画像データをカメラ
の内部記録媒体に記録した後、それをコンピュータ2へ
転送する)ほうが、導入される誤差は少なくなると考え
られる。従って、一方のカメラが無線送信でデータを転
送している場合には、ステップS408で、CPU4は
他方のカメラからのオブジェクトデータを選択する。
In step S406, the CPU 4 determines whether the transfer method is the same. If they are not the same, in step S408, the CPU 4 selects the object data from the camera with the higher image quality (that is, the transfer method with the smaller number of errors usually introduced into the image data). In the present embodiment, the image data is transferred via a cable and / or a recording medium (for example, after the image data is recorded on the internal recording medium of the camera, the image data is It is conceivable that the error introduced is smaller when the data is transferred to the computer 2). Therefore, when one camera is transferring data by wireless transmission, the CPU 4 selects object data from the other camera in step S408.

【0117】これに対して、ステップS406で画像デ
ータ転送方法が同じであると判定された場合には、処理
はステップS410へ進み、CPU4はカメラの分解能
を比較する。本実施形態では、これはカメラからの画像
中の画素の数を比較することにより実行される。
On the other hand, if it is determined in step S406 that the image data transfer methods are the same, the process proceeds to step S410, where the CPU 4 compares the resolutions of the cameras. In the present embodiment, this is performed by comparing the number of pixels in the image from the camera.

【0118】ステップS412では、CPU4はカメラ
の分解能が同じであるか否かを判定する。分解能が同じ
でなければ、処理はステップS414へ進み、CPU4
は分解能が高い方の(画素の数が多い方の)カメラから
のオブジェクトデータを選択する。
In step S412, the CPU 4 determines whether or not the resolutions of the cameras are the same. If the resolutions are not the same, the process proceeds to step S414,
Selects object data from the camera with the higher resolution (the one with the larger number of pixels).

【0119】これに対して、ステップS412でカメラ
が同じ分解能を有すると判定された場合には、CPU4
はカメラにより生成された画像データの特性を比較す
る。即ち、処理はステップS416へ進み、CPU4は
カメラ12a及び12bにより生成された画像の安定性
を比較する。本実施形態では、これは、カメラの「手振
れ」の量に従って各カメラにより計算され、画像データ
と共に伝送される光学的画像安定性パラメータを比較す
ることにより実行される。
On the other hand, if it is determined in step S412 that the cameras have the same resolution,
Compares the characteristics of the image data generated by the camera. That is, the process proceeds to step S416, and the CPU 4 compares the stability of the images generated by the cameras 12a and 12b. In the present embodiment, this is performed by comparing the optical image stability parameters calculated by each camera according to the amount of camera shake and transmitted with the image data.

【0120】ステップS418では、CPU4はステッ
プS416で比較した安定性が同じであるか否かを判定
する。安定性が同じでなければ、ステップS420で、
CPU4は画像安定性がより高いカメラからのオブジェ
クトデータを選択する。
In step S418, the CPU 4 determines whether the stability compared in step S416 is the same. If the stability is not the same, in step S420,
The CPU 4 selects object data from a camera having higher image stability.

【0121】これに対して、ステップS418で画像安
定性が同じであると判定された場合には、処理はステッ
プS422へ進み、CPU4は各カメラからのオブジェ
クトデータの中の閉塞オブジェクトの数を比較する。本
実施形態では、これは、ステップS10で処理を実行し
たときに分割された各組のオブジェクトデータについて
外接長方形の数を比較することにより実行される(分割
された外接長方形は、それぞれ、閉塞を表す)。
On the other hand, if it is determined in step S418 that the image stability is the same, the process proceeds to step S422, where the CPU 4 compares the number of closed objects in the object data from each camera. I do. In the present embodiment, this is performed by comparing the number of circumscribed rectangles for each set of object data divided when the processing is executed in step S10 (the divided circumscribed rectangles are respectively closed or closed. Represent).

【0122】ステップS424では、CPU4は、閉塞
オブジェクトの数がそれぞれのカメラで同じであるか否
かを判定する。数が同じであれば、ステップS426
で、CPU4は閉塞の数が最も少ないカメラからのオブ
ジェクトデータを選択する。
At step S424, CPU 4 determines whether or not the number of closed objects is the same for each camera. If the numbers are the same, step S426
Then, the CPU 4 selects object data from the camera with the least number of blockages.

【0123】これに対して、ステップS424で閉塞オ
ブジェクトの数が同じであると判定された場合には、処
理はステップS428へ進み、CPU4はユーザにより
選択された視野方向により近い視野方向を有するカメラ
からのオブジェクトデータを選択する。このデータは、
ステップS406,S412,S418及びS424で
CPU4が画質に影響を及ぼす固有のカメラ特性及び画
像データ特性が双方のカメラについて同一であると判定
しており、従って、ユーザが選択した視野方向により近
く配置されたカメラからのオブジェクトデータを使用し
て最良の画質が生成されると判定しているために選択さ
れる。
On the other hand, if it is determined in step S424 that the number of obstructed objects is the same, the process proceeds to step S428, in which the CPU 4 determines whether the camera having a viewing direction closer to the viewing direction selected by the user. Select object data from. This data is
In steps S406, S412, S418, and S424, the CPU 4 determines that the intrinsic camera characteristics and the image data characteristics that affect the image quality are the same for both cameras, and therefore, are arranged closer to the viewing direction selected by the user. Is selected because it has been determined that the best image quality will be generated using object data from the failed camera.

【0124】再び図14に戻り、ステップS304で、
CPU4は選択したオブジェクトデータをフレームバッ
ファ16にレンダリングする。
Returning to FIG. 14, in step S304,
The CPU 4 renders the selected object data on the frame buffer 16.

【0125】図16に、ステップS304でオブジェク
トデータをレンダリングするときにCPU4により実行
される動作を示す。
FIG. 16 shows an operation executed by the CPU 4 when rendering object data in step S304.

【0126】図16において、ステップS500では、
ステップS302で選択したオブジェクトデータの3D
世界空間をステップS296(図14)で選択した視野
位置及び視野方向に応じて視野空間へ変換する。この変
換は、通常はモデリング空間全体を覆う大きさをもたな
い特定の視野を識別する。従って、ステップS502で
は、CPU4は視野の外に出る面又はその一部を除去す
るためのクリッピングプロセスを実行する。
Referring to FIG. 16, in step S500,
3D of the object data selected in step S302
The world space is converted to the visual field space according to the visual field position and the visual field direction selected in step S296 (FIG. 14). This transformation identifies a particular field of view that is not large enough to typically cover the entire modeling space. Therefore, in step S502, the CPU 4 executes a clipping process for removing a surface or a part thereof out of the field of view.

【0127】この段階に至るまで、CPU4により処理
されるオブジェクトデータは三次元座標場所を規定して
いる。ステップS504では、3Dコンピュータモデル
を構成する三角形の面の頂点を投影して、二次元画像を
規定する。
Up to this stage, the object data processed by the CPU 4 defines a three-dimensional coordinate location. In step S504, the vertices of a triangular surface forming the 3D computer model are projected to define a two-dimensional image.

【0128】画像を二次元に投影した後、「正面に向い
ている」三角形の面、即ち、観察者の方に向いている面
と、観察者には見えない「後ろ向きの」面とを識別する
必要がある。そこで、ステップS506では、後ろ向き
の面を識別し、従来の方法により選び出す。従って、ス
テップS506の後では、頂点は目に見える多角形の三
角形の面を識別する2つの次元で規定される。
After projecting the image in two dimensions, a triangular surface “facing the front”, ie, a surface facing the observer, and a “rearward” surface not visible to the observer are identified. There is a need to. Therefore, in step S506, the face facing backward is identified and selected by a conventional method. Thus, after step S506, the vertices are defined in two dimensions that identify the surface of the visible polygonal triangle.

【0129】ステップS508では、面を規定する二次
元データをCPU4により走査変換して画素値を生成す
る。このステップにおいては、画像中の背景を表現する
面をレンダリングすると共に、陰影(別個のオブジェク
トとして格納されている)をレンダリングし、各オブジ
ェクトをモデリングするためにステップS11a又はス
テップS11bで規定した面をも、先にそれらの面に関
して格納されていたビデオテクスチャデータと共にレン
ダリングする。面の中の前景画素のみが格納されている
テクスチャデータと共にレンダリングされ、それらの画
素は格納されている「前景マスク」によって規定され
る。その他の画素は背景テクスチャデータと共にレンダ
リングされる。ステップS508で生成される描画デー
タはシミュレートビデオフレームを表現し、その中で、
背景はステップS2で生成したコンピュータモデルから
生成され、各オブジェクトはステップS11a/S11
bで規定したモデルにより表現されており、その上にビ
デオ画像から取り出したオブジェクトの画像データが投
影されている。
In step S508, the CPU 4 scan-converts the two-dimensional data defining the plane to generate pixel values. In this step, in addition to rendering the surface representing the background in the image, the shadow (stored as a separate object) is rendered, and the surface defined in step S11a or S11b is used to model each object. Also render with the video texture data previously stored for those surfaces. Only the foreground pixels in the plane are rendered with the stored texture data, and those pixels are defined by the stored "foreground mask". Other pixels are rendered with the background texture data. The drawing data generated in step S508 represents a simulated video frame, in which
The background is generated from the computer model generated in step S2, and each object is generated in steps S11a / S11.
The image data is represented by a model defined by b, and image data of an object extracted from a video image is projected thereon.

【0130】ステップS510では、ステップS508
で生成した画素値を面ごとにフレームバッファ16に書
き込むことにより、二次元画像全体のデータを生成す
る。
In step S510, step S508
The data of the entire two-dimensional image is generated by writing the pixel values generated in step 2 into the frame buffer 16 for each plane.

【0131】再び図14に戻り、ステップS306で
は、CPU4は、処理中の現在データフレームについて
ユーザに対し表示すべき画像及び先のデータフレームか
らユーザに対し表示すべき画像が異なるカメラから取り
出されたものであるか否かを判定する。即ち、CPU4
は、ユーザが見るべき画像のシーケンスの中でカメラの
変更があったか否かを判定するのである。本実施形態で
は、CPU4は、現在フレームについてステップS30
2で選択したオブジェクトデータが先のフレームについ
てステップS302で選択したオブジェクトデータとは
異なるカメラから取り出されたか否かを判定することに
より、この変更が起こったか否かを判定する。
Returning to FIG. 14, in step S306, the CPU 4 extracts an image to be displayed to the user for the current data frame being processed and an image to be displayed to the user from the previous data frame from different cameras. It is determined whether or not it is. That is, CPU4
Determines whether the camera has changed in the sequence of images that the user should see. In the present embodiment, the CPU 4 determines in step S30 for the current frame.
It is determined whether or not this change has occurred by determining whether or not the object data selected in step 2 has been extracted from a camera different from the object data selected in step S302 for the previous frame.

【0132】ステップS306でカメラの変更が起こっ
たと判定されたならば、ステップS308で、CPU4
は現在フレームに関わる他方のカメラのオブジェクトデ
ータをフレームバッファ16にレンダリングする。これ
は、ステップS304におけるレンダリング(先に図1
6を参照して説明した)と同様に実行されるが、ステッ
プS304でレンダリングしたデータへの重ね書きを防
止するため、データは異なるフレームバッファ16に書
き込まれる。
If it is determined in step S306 that a camera change has occurred, then in step S308, the CPU 4
Renders the object data of the other camera related to the current frame in the frame buffer 16. This is the rendering in step S304 (see FIG.
6 described above), but the data is written to a different frame buffer 16 to prevent overwriting on the data rendered in step S304.

【0133】ステップS310では、CPU4はステッ
プS304でレンダリングした画像データをステップS
308でレンダリングした画像データと比較する。この
比較は画像の類似性を判定するために実行され、例えば
R.M.Haralick及びL.G.Shapiroの「Computer and Robot
Vision Volume 2」(Addison-Wesley Publishing Compan
y,1993年,ISBN 0-201-56943-4(v.2),P293-378ページ)
に記載されているような従来の技法を使用して実行され
る。
In step S310, the CPU 4 outputs the image data rendered in step S304 to step S310.
Compare with the image data rendered in 308. This comparison is performed to determine the similarity of the images, for example,
Computer and Robot by RMHaralick and LGShapiro
Vision Volume 2 '' (Addison-Wesley Publishing Compan
y, 1993, ISBN 0-201-56943-4 (v.2), pp. 293-378)
Performed using conventional techniques such as those described in US Pat.

【0134】ステップS312では、CPU4は、ステ
ップS304でレンダリングしたが総データを表示した
場合に、ユーザが画像中に「途切れ」を見るか否か(即
ち、画像が不連続に見えるか否か)を判定する。このよ
うな途切れ(不連続性)は、本実施形態では、ステップ
S11a/S11bでオブジェクトごとに生成したモデル
が近似されたものであり、また3D世界空間における各
モデルの位置が完全な正確さをもって判定されてはおら
ず、各カメラのオブジェクトデータに対して異なってい
るために起こると考えられる。本実施形態においては、
CPU4は、所定の数(例えば、20%)を超える画素
がステップS310で実行される類似性テストに不合格
となったか否かを判定することにより、画像が不連続に
なるか否かを判定する。
In step S312, the CPU 4 determines whether or not the user sees "interruption" in the image when rendering in step S304 but displaying the total data (ie, whether or not the image looks discontinuous). Is determined. In the present embodiment, such a discontinuity (discontinuity) is an approximation of the model generated for each object in steps S11a / S11b, and the position of each model in the 3D world space is completely accurate. It is considered that this is caused because the judgment is not made and the object data of each camera is different. In the present embodiment,
The CPU 4 determines whether or not the image becomes discontinuous by determining whether or not pixels exceeding a predetermined number (for example, 20%) have failed the similarity test performed in step S310. I do.

【0135】ステップS312で連続する画像が不連続
に見えると判定されたならば、ステップS314で、C
PU4はステップS304でレンダリングした画像デー
タと、ステップS308でレンダリングした画像データ
とを組み合わせて、ユーザには不連続に見えない画像を
生成する。本実施形態では、画像の組み合わせは、例え
ば、George Wolbergの「Digital Image Warping」(IEEE
Computer Society Press,ISBN 0-8189-8944-7,P222-24
0ページ)に記載されているような従来のモルフィング
技法を使用して実行される。
If it is determined in step S312 that a continuous image looks discontinuous, then in step S314, C
The PU 4 combines the image data rendered in step S304 and the image data rendered in step S308 to generate an image that does not appear discontinuous for the user. In the present embodiment, the combination of images is, for example, George Wolberg's "Digital Image Warping" (IEEE
Computer Society Press, ISBN 0-8189-8944-7, P222-24
(Page 0) using conventional morphing techniques.

【0136】ステップS316では、CPU4は、この
後のユーザに対する表示のために、ステップS304又
はS314で生成した画像データに関わる画質情報を判
定する。即ち、本実施形態では、CPU4は表示すべき
画像の基準を表す次のような情報、即ち、画像の信頼性
(正確さ)の程度を表す値を判定する。この情報は、ユ
ーザがコンピュータモデルを使用して実世界で何が起こ
ったかを判定しようとしているような状況では有用であ
る(例えば、警察官が犯罪のビデオ記録画像を使用して
コンピュータモデルを生成し、そのコンピュータモデル
を使用して、様々な方向から犯罪を見ることにより、証
拠を集めるような場合)。コンピュータモデルから生成
される各々の画像はシミュレートが像であるので、この
ステップで判定される正確さの値は画像の信頼性を示す
値である。本実施形態では、CPU4は100%(ユー
ザが選択した視野方向がオブジェクトデータを生成した
カメラの軸と同じであるとき)から0%(視野方向がカ
メラの軸から30°外れているとき)までの値を割り当
てる。0°から±30°の外れ角度に対して、CPU4
により割り当てられるパーセンテージ値は100%から
0%まで変化する。30°を超える外れ角度の場合に
は、CPU4は0%の値を割り当てる。更に、本実施形
態では、ステップS314で画像データを組み合わせる
ことにより生成された画像をユーザに対し表示すべき場
合に、CPU4は割り当てられるパーセンテージ値を1
0%減らす(0%を最低限界とする)。
In step S316, the CPU 4 determines the image quality information relating to the image data generated in step S304 or S314 for display to the user thereafter. That is, in the present embodiment, the CPU 4 determines the following information indicating the reference of the image to be displayed, that is, a value indicating the degree of reliability (accuracy) of the image. This information is useful in situations where a user is trying to use a computer model to determine what happened in the real world (e.g., a police officer uses a video recording of a crime to generate a computer model). And use the computer model to gather evidence by looking at crime from various directions). Since each image generated from the computer model is a simulated image, the accuracy value determined in this step is a value indicating the reliability of the image. In the present embodiment, the CPU 4 ranges from 100% (when the viewing direction selected by the user is the same as the axis of the camera that generated the object data) to 0% (when the viewing direction deviates from the camera axis by 30 °). Assign the value of CPU4 for a departure angle from 0 ° to ± 30 °
Varies from 100% to 0%. In the case of a departure angle exceeding 30 °, the CPU 4 assigns a value of 0%. Further, in the present embodiment, when the image generated by combining the image data in step S314 is to be displayed to the user, the CPU 4 sets the assigned percentage value to 1
Reduce by 0% (0% is the minimum limit).

【0137】また、CPU4は画質の値を向上させるた
めに視野方向をどのようにして変更できるかを示すため
に、ユーザに対し表示すべき矢印のような図形又は他の
目に見える標識を更に生成する。
The CPU 4 may further add a graphic such as an arrow or other visible sign to be displayed to the user to show how the viewing direction can be changed to improve the image quality value. Generate.

【0138】ステップS318では、CPU4はステッ
プS304又はS314でレンダリングした画素値と、
ステップS316で生成した画質情報とを規定する信号
を生成する。この信号は、表示装置18でオブジェクト
の画像を生成するために使用され、及び/又は、例えば
ビデオテープレコーダ20のビデオーテープに記録され
る。表示又は記録のために、信号を遠隔受信機へ送信し
ても良い。マスタ記録から更に記録を行っても良いこと
はもちろんである。画質情報が常にオブジェクトと共に
画像中に見えるように画質情報を画素値の中に組み合わ
せても良く、或いは、ユーザからの命令に応じて画素情
報を選択的に表示、消去しても良い。
In step S318, the CPU 4 determines the pixel value rendered in step S304 or S314,
A signal that defines the image quality information generated in step S316 is generated. This signal is used to generate an image of the object on the display device 18 and / or is recorded, for example, on a video tape of a video tape recorder 20. The signal may be sent to a remote receiver for display or recording. It goes without saying that recording may be performed further from the master recording. The image quality information may be combined with the pixel value so that the image quality information is always visible in the image together with the object, or the pixel information may be selectively displayed and deleted according to a command from the user.

【0139】ステップS320では、CPU4は、先に
ステップS6a及びS6bで作成した三次元オブジェク
トデータのタイムスタンプ済み「フレーム」で、まだユ
ーザに対し表示されていない別のフレームが存在するか
否かを判定する。このようなオブジェクトデータの全て
のフレームが先に説明したように表示され終わるまでス
テップS296からS320を繰り返すことにより、ユ
ーザに対し所望の視野方向からシミュレート動画像のシ
ーケンスを表示する。当然、ユーザは表示中にいつでも
視野方向を変更できる。本実施形態では、第1のフレー
ムに続くフレームについてステップS306を実行する
とき、組み合わせ画像データ(ステップS314で生成
される)から画像データの先のフレームが生成されてい
た場合に、CPU4はカメラの変更が起こったと判定す
る。この場合、ステップS308で、CPU4は現在フ
レームの組み合わせ画像をフレームバッファにレンダリ
ングする(即ち、第1のカメラからの現在フレームに関
するオブジェクトデータを使用して生成された画像を第
2のカメラからの現在フレームに関するオブジェクトデ
ータを使用して生成された画像と組み合わせることによ
り生成される画像)。次に、ステップS310では、C
PU4は選択されたカメラに関してステップS304で
レンダリングした画像データをステップS308でレン
ダリングした組み合わせ画像データと比較する。ステッ
プS306で,先のフレームがステップS300で生成
したオブジェクト位置の概略図であった場合、CPU4
はカメラ変更がなかったと判定する(位置の概略図とリ
アルな画像とを切り替えるとき、ユーザは画像の「途切
れ」が見えると予期すると考えられるため)。
In step S320, the CPU 4 determines whether or not there is another time-stamped “frame” of the three-dimensional object data created in steps S6a and S6b, which is not yet displayed to the user. judge. By repeating steps S296 to S320 until all the frames of such object data are displayed as described above, the sequence of the simulated moving image is displayed to the user from a desired visual field direction. Of course, the user can change the viewing direction at any time during the display. In the present embodiment, when step S306 is performed on a frame subsequent to the first frame, if the previous frame of the image data has been generated from the combined image data (generated in step S314), the CPU 4 Determine that a change has occurred. In this case, in step S308, the CPU 4 renders the combined image of the current frame into the frame buffer (that is, the CPU 4 renders the image generated using the object data on the current frame from the first camera into the current image from the second camera). An image generated by combining with an image generated using object data regarding a frame). Next, in step S310, C
The PU 4 compares the image data rendered in step S304 for the selected camera with the combined image data rendered in step S308. If the previous frame is a schematic diagram of the object position generated in step S300 in step S306, the CPU 4
Determines that there has been no camera change (because the user would expect to see a “break” in the image when switching between a schematic view of the position and a real image).

【0140】[第2の実施形態]次に、本発明の第2の
実施形態を説明する。
[Second Embodiment] Next, a second embodiment of the present invention will be described.

【0141】本実施形態は、3D世界空間でオブジェク
トをモデリングするためにステップS11a/S11b
でCPU4により実行される処理動作を除いて第1の実
施形態と同じである。
In the present embodiment, steps S11a / S11b are used to model an object in the 3D world space.
Are the same as those of the first embodiment except for the processing operations executed by the CPU 4.

【0142】第2の実施形態では、3D世界空間におけ
るオブジェクトのモデリングは(第1の実施形態のよう
にステップS11aとS11bで別個に実行されるので
はなく)各カメラで一体に実行される。
In the second embodiment, the modeling of the object in the 3D world space is executed integrally by each camera (instead of being executed separately in steps S11a and S11b as in the first embodiment).

【0143】図17に、3D世界空間においてオブジェ
クトをモデリングするためにCPU4により実行される
処理動作を示す。第1の実施形態の場合と同様に、それ
らの動作は陰影(既に図3のステップS8でモデリング
されている)ではなく、オブジェクトをモデリングする
ために実行される。
FIG. 17 shows a processing operation executed by the CPU 4 to model an object in the 3D world space. As in the first embodiment, these operations are performed to model the object rather than the shadows (already modeled in step S8 of FIG. 3).

【0144】図17において、ステップS250では、
CPU4は処理すべき次のオブジェクトを考慮し、オブ
ジェクト上の点が位置している各カメラの画像空間内の
平面を識別する。
Referring to FIG. 17, in step S250,
The CPU 4 considers the next object to be processed and identifies the plane in image space of each camera where the point on the object is located.

【0145】図18に、ステップS250でCPU4に
より実行される処理動作を示す。
FIG. 18 shows the processing operation executed by CPU 4 in step S250.

【0146】図18において、ステップS264では、
CPU4は各カメラにより記録されたオブジェクトの画
像データを比較して、その中で一致する点を識別する。
CPU4は、第1のカメラに関わるオブジェクトデータ
の中のオブジェクトの外接長方形の基部の角の座標を第
2のカメラからのオブジェクトデータの中のオブジェク
トの外接長方形の基部の角の座標と比較して、第2のカ
メラに関わるオブジェクトデータの外接長方形のうち、
3D世界空間において第1のカメラに関わるオブジェク
トデータにおける外接長方形の基部の角から所定の距離
の中に位置する基部の角を有する外接長方形はどれであ
るかを判定することにより、どの画像データを比較すべ
きかを識別する。次に、CPU4は第1のカメラのオブ
ジェクトデータ中の外接長方形に関して先に格納されて
いた画像データ(図3のステップS6a,その後、必要
に応じてステップS8又はS10で修正を行う)と、第
2のカメラのオブジェクトデータ中の対応するオブジェ
クトの外接長方形に関して先に格納されていた画像デー
タ(図3のステップS6b、その後、必要に応じてステ
ップS8又はS10で修正を行う)とを比較する。本実
施形態では、CPU4は、第1のカメラからの画像デー
タで識別された頂点を第2のカメラの画像データで識別
された頂点と比較することによりこの比較を実行する。
Referring to FIG. 18, in step S264,
The CPU 4 compares the image data of the object recorded by each camera and identifies a coincident point in the image data.
The CPU 4 compares the coordinates of the corner of the base of the circumscribed rectangle of the object in the object data related to the first camera with the coordinates of the corner of the base of the circumscribed rectangle of the object in the object data from the second camera. , Of the circumscribed rectangle of the object data related to the second camera,
By determining which circumscribed rectangle having a base corner located within a predetermined distance from the base corner of the circumscribed rectangle in the object data relating to the first camera in the 3D world space, Identify what should be compared. Next, the CPU 4 stores the previously stored image data (step S6a in FIG. 3, and then makes corrections in step S8 or S10 as necessary) with respect to the circumscribed rectangle in the object data of the first camera. The circumscribed rectangle of the corresponding object in the object data of the second camera is compared with the previously stored image data (step S6b in FIG. 3 and then, if necessary, modified in step S8 or S10). In this embodiment, the CPU 4 performs this comparison by comparing the vertex identified in the image data from the first camera with the vertex identified in the image data of the second camera.

【0147】図19に、ステップS264でCPU4に
より実行される処理動作を示す。
FIG. 19 shows the processing executed by the CPU 4 in step S264.

【0148】図19において、ステップS282では、
CPU4は第1のカメラからのオブジェクトの画像デー
タの中の画素ごとに、その画素の「辺」と「角」を示す
値を計算する。これは、例えば、画像データに従来の画
素マスクを適用し、各画素が考慮されるようにマスクを
移動させることにより実行される。このような技法は、
R.M.Haralick及びL.G.Shapiroの「Computer and Robot
Vision Volume 1」(Addison-Wesley Publishing Compan
y,1992年,ISBN 0-201-10877-1(v.1))に記載されてい
る。ステップS284では、所定の閾値を超える「辺」
と「角」の値を有する画素を従来のように第1のカメラ
の画像データ中の有力な角として識別する。
Referring to FIG. 19, in step S282,
The CPU 4 calculates, for each pixel in the image data of the object from the first camera, a value indicating the “side” and “corner” of the pixel. This is done, for example, by applying a conventional pixel mask to the image data and moving the mask such that each pixel is taken into account. Such techniques are:
Computer and Robot by RMHaralick and LGShapiro
Vision Volume 1 '' (Addison-Wesley Publishing Compan
y, 1992, ISBN 0-201-10877-1 (v.1)). In step S284, “side” exceeding a predetermined threshold
And the pixel having the value of “corner” is identified as a possible corner in the image data of the first camera as in the related art.

【0149】ステップS286では、CPU4は、先に
ステップS282で第1のカメラからの画像データにつ
いて実行した動作を第2のカメラからの画像データにつ
いて実行し、ステップS288で、先にステップS28
4で実行したのと同じ技法を使用して、第2のカメラか
らの画像データの中の有力な角を同様に識別する。
In step S286, the CPU 4 executes the operation previously performed on the image data from the first camera in step S282 on the image data from the second camera. In step S288, the CPU 4 executes the operation in step S28.
Using the same technique as performed in step 4, identify the likely corners in the image data from the second camera as well.

【0150】ステップS290では、CPU4は、ステ
ップS284で第1のカメラからの画像データ中で識別
した各々の有力な角をステップS288で第2のカメラ
からの画像データ中で識別した各々の有力な角と比較し
て、第1及び第2のカメラからの画像データの中の角に
ついて類似度を生成する。本実施形態では、これは、例
えば、A.W.Guenの「Adaptive Least Squares Correlati
on: A Powerful ImageMatching Technique」(Photogram
metry Remote Sensing and Cartographyに掲載、1985
年,P175-187)に記載されているような適応最小二乗相
関技法を使用して実行される。
In step S290, the CPU 4 determines each influential corner identified in the image data from the first camera in step S284 as each influential angle identified in the image data from the second camera in step S288. A similarity is generated for a corner in the image data from the first and second cameras as compared to the corner. In the present embodiment, this is, for example, the AWGuen “Adaptive Least Squares Correlati
on: A Powerful ImageMatching Technique '' (Photogram
Published in metry Remote Sensing and Cartography, 1985
, Pp. 175-187).

【0151】ステップS292では、CPU4は一致す
る頂点を識別し、格納する。これは、以下に説明するよ
うに、「緩和」技法を使用して実行される。ステップS
290は第1のカメラからの画像データ中の各々の有力
な角と、第2のカメラからの画像データ中の複数の有力
な角との間の類似度を生成する。ステップS292で
は、CPU4は、例えば第1のカメラからの画像データ
中の全ての有力な角を列に並べ、第2のカメラからの画
像データ中の全ての有力な角を行に並べ、各々の角の対
に関する類似度を表のほぼ交差点に求めることにより、
それらの値を表アレイに有効に配列する。このようにす
ると、表アレイの行は第1のカメラからの画像データ中
の所定の頂点と、第2のカメラからの画像データ中の各
頂点との間の類似度を規定する。同様に、アレイの列は
第2のカメラからの画像データ中の所定の頂点と、第1
のカメラからの画像データ中の各頂点との間の類似度を
規定する。次に、CPU4は第1の行の値を考慮し、そ
の行で最も高い類似度値を選択し、この値がそれが位置
している列の中でも最も高い値であるか否かを判定す
る。その値が行、列共に最高の値であるならば、それは
第2のカメラからの画像データ中の頂点が第1のカメラ
からの画像データ中の点に対して最良の一致点であり、
且つ第1のカメラからの画像データ中の頂点が第2のカ
メラからの画像データ中の点に対して最良の一致点であ
ることを示す。この場合、CPU4は(その後の処理に
おいてそれらの値が考慮されないように)行と列の全て
の値をゼロに設定し、最高の類似度値が所定の閾値(本
実施形態では0.1)を超えるか否かを判定する。類似
度値が粋値を超えている場合、CPU4は第1のカメラ
からの画像データ中の頂点及び第2のカメラからの画像
データ中の対応する頂点を一致点として格納する。類似
度値が所定の閾値を超えない場合には、それらの点が互
いに最良の一致点であるにもかかわらず、類似性の程度
が点を一致点として格納するには不十分であると判定す
る。
In step S292, the CPU 4 identifies a matching vertex and stores it. This is performed using "relaxation" techniques, as described below. Step S
290 generates a similarity between each dominant corner in the image data from the first camera and a plurality of dominant corners in the image data from the second camera. In step S292, for example, the CPU 4 arranges all possible corners in the image data from the first camera in a column, and arranges all possible corners in the image data from the second camera in a row. By finding the similarity for a pair of angles at the intersection of the table,
The values are effectively arranged in a table array. In this manner, the rows of the table array define the similarity between a given vertex in the image data from the first camera and each vertex in the image data from the second camera. Similarly, the columns of the array correspond to predetermined vertices in the image data from the second camera and the first vertices.
Stipulates the similarity between each vertex in the image data from the camera. Next, the CPU 4 considers the value of the first row, selects the highest similarity value in that row, and determines whether this value is the highest value in the column where it is located. . If the value is the highest value in both the row and column, it is the vertex in the image data from the second camera that is the best match for the point in the image data from the first camera;
In addition, the vertex in the image data from the first camera is the best matching point with the point in the image data from the second camera. In this case, the CPU 4 sets all the values of the rows and columns to zero (so that those values are not considered in the subsequent processing), and the highest similarity value becomes a predetermined threshold (0.1 in this embodiment). Is determined. If the similarity value exceeds the smart value, the CPU 4 stores the vertex in the image data from the first camera and the corresponding vertex in the image data from the second camera as coincidence points. If the similarity value does not exceed a predetermined threshold, it is determined that the degree of similarity is not enough to store the point as a match point, even though those points are the best match points with each other. I do.

【0152】次に、CPU4は、全ての行を考慮し終わ
るまで、表アレイの行ごとにこの処理を繰り返す。1つ
の行の最高の類似度がそれが位置している列の最高の尺
度ではないと判定されたならば、CPU4は先へ進み、
次の行を考慮する。
Next, the CPU 4 repeats this process for each row of the table array until all rows have been considered. If it is determined that the highest similarity of one row is not the highest measure of the column in which it is located, CPU 4 proceeds and proceeds
Consider the following line:

【0153】全ての行を先に考慮したときに一致点が識
別された場合、CPU4は表の各行を再び考慮して、上
記の処理を繰り返す。CPU4は、繰り返しの中で一致
点が識別されなくなるまでこのような反復処理を実行し
続ける。
If a match is identified when all rows are considered first, the CPU 4 repeats the above process, again considering each row of the table. The CPU 4 continues to execute such an iterative process until no matching point is identified in the repetition.

【0154】再び図18に戻り、ステップS266で、
CPU4はステップS264で識別された次の4対の一
致点を考慮する。
Referring back to FIG. 18, in step S266,
The CPU 4 considers the next four pairs of coincidence points identified in step S264.

【0155】ステップS267で、CPU4は、第1の
カメラの画像空間の4つの点が1つの平面の上に位置し
ているか否か及び第2のカメラの画像空間の対応する一
致した4つの点も1つの平面の上に位置しているか否か
を判定する。何れか一組の4点が平面上にない場合、ス
テップS266で選択した点をそれ以上考慮せず、処理
はステップS276へ進む。これに対し、双方の組の4
点がそれぞれの画像空間で平面上にある場合には、処理
はステップS268へ進む。
In step S267, the CPU 4 determines whether or not the four points in the image space of the first camera are located on one plane and the corresponding four points in the image space of the second camera. Is also determined on one plane. If any one set of four points is not on the plane, the process proceeds to step S276 without further considering the point selected in step S266. In contrast, both sets of 4
If the points are on a plane in each image space, the process proceeds to step S268.

【0156】ステップS268及びS267で、各画像
空間の点を介して平面を常に確実に規定できるようにす
るために最低限必要な数である3対ではなく、4対の一
致点を使用することにより、「偽」平面(即ち、オブジ
ェクトの面に対応しない平面)を考慮する回数は減り、
それにより、処理要求も低減される。ステップS268
では、CPU4は、第1のカメラの画像空間内の、ステ
ップS266で考慮した4つの点を含む平面と、第2の
カメラの画像空間内の、対応する一致した4点を含む平
面との間の変換を計算する。この変換は、例えば、次の
式を使用して、従来通りに計算される。
In steps S268 and S267, four pairs of coincidence points are used instead of the minimum number of three pairs required to ensure that a plane can always be defined via points in each image space. Reduces the number of times to consider “false” planes (ie, planes that do not correspond to the plane of the object),
Thereby, processing requirements are also reduced. Step S268
Then, the CPU 4 determines between the plane including the four points considered in step S266 in the image space of the first camera and the plane including the corresponding four coincident points in the image space of the second camera. Calculate the transformation of This transformation is conventionally calculated, for example, using the following equation:

【0157】[0157]

【数3】 (Equation 3)

【0158】式中、n=1....4、x2n,y2n
は第2のカメラの画像空間内の点、x1n、y1nは第
1のカメラの画像空間内の点、J,K,L,M,N,
P,Q,Rは次の式により求められる。
In the formula, n = 1. . . . 4, x2n, y2n
Are points in the image space of the second camera, x1n, y1n are points in the image space of the first camera, J, K, L, M, N,
P, Q, and R are obtained by the following equations.

【0159】[0159]

【数4】 (Equation 4)

【0160】ステップS270では、CPU4は残る一
致点の対(即ち、ステップS268で変換を計算すると
きに使用されなかった一致点の対)ごとにステップS2
68で計算した変換を試験する。即ち、CPU4は残る
対の点の一対ずつ考慮し、点の座標を使用して(ステッ
プS268で計算した変換が点の座標に対して成り立つ
か否かを判定することにより)、計算した変換がそれら
の点について有効であるか否かを判定する。
In step S270, the CPU 4 proceeds to step S2 for each pair of remaining matching points (that is, the pair of matching points not used when calculating the conversion in step S268).
Test the conversion calculated at 68. That is, the CPU 4 considers each of the remaining pairs of points, and uses the coordinates of the points (by determining whether or not the conversion calculated in step S268 is valid for the coordinates of the points) to convert the calculated conversion. It is determined whether or not these points are valid.

【0161】ステップS272では、CPU4は、変換
が成り立つと判定された点の対の数が所定の数(本実施
形態では8)より多いか否かを判定する。所定の数より
多い数の点の対に対して変換が有効であると判定された
ならば、CPU4は第1のカメラ及び第2のカメラから
の画像データの中にオブジェクトの平面を識別したと判
定する。従って、処理はステップS274へ進み、CP
U4は第1のカメラの画像データ及び第2のカメラの画
像データの中の平面を規定するデータを、その平面上に
位置する識別された点の座標と共に格納する。
In step S272, the CPU 4 determines whether or not the number of pairs of points determined to satisfy the conversion is larger than a predetermined number (eight in this embodiment). If it is determined that the transformation is valid for more than a predetermined number of pairs of points, the CPU 4 has identified the plane of the object in the image data from the first camera and the second camera. judge. Accordingly, the process proceeds to step S274, where the CP
U4 stores data defining a plane in the image data of the first camera and the image data of the second camera, together with the coordinates of an identified point located on the plane.

【0162】これに対して、ステップS272でステッ
プS268において計算した変換が所定の数の対の点に
対して有効でないと判定された場合には、CPU4は変
換を計算するためにステップS268で使用した点が非
現実平面、即ち、実際にオブジェクトの面の一部を形成
しない平面に位置していると判定する。従って、平面は
無視される。
On the other hand, if it is determined in step S272 that the conversion calculated in step S268 is not valid for a predetermined number of pairs of points, the CPU 4 uses the conversion in step S268 to calculate the conversion. It is determined that the point is located on an unreal plane, that is, a plane that does not actually form a part of the surface of the object. Therefore, the plane is ignored.

【0163】ステップS276では、CPU4は更に別
の4対の一致点が存在するか否かを判定する。まだ考慮
されていない残る一致点の対の数が4未満になるまで、
ステップS266からS276を繰り返す。
In step S276, the CPU 4 determines whether or not there are four further pairs of coincidence points. Until the number of remaining matching point pairs not yet considered is less than 4,
Steps S266 to S276 are repeated.

【0164】再び図17に戻り、ステップS252で
は、CPU4はステップS250で識別した平面の境界
を計算し、適切なカメラの画像データからそれらの平面
に関わる画像データを取り出す。CPU4は、全ての面
についてステップS274(図18)で格納した点を考
慮し、2つ以上の平面に位置し、平面間の境界上に位置
する点である点を識別することにより、それらの動作を
実行する。ステップS264(図18)で第1のカメラ
及び第2のカメラからの画像データで一致する点は頂点
であるので、CPU4により実行される処理はこのよう
な境界点を生成するようになっている。
Referring back to FIG. 17, in step S252, the CPU 4 calculates the boundaries of the planes identified in step S250, and extracts image data relating to those planes from image data of an appropriate camera. The CPU 4 considers the points stored in step S274 (FIG. 18) for all the planes, and identifies those points that are located on two or more planes and that are located on the boundary between the planes. Perform the action. Since the point that matches in the image data from the first camera and the second camera in step S264 (FIG. 18) is the vertex, the processing executed by the CPU 4 generates such a boundary point. .

【0165】平面間の境界に位置する点を識別したなら
ば、CPU4は、境界ごとに識別された点(これらは同
じ2つの面に位置する点である)を結ぶことにより境界
を規定する。直線によって結ぶことができない点が3つ
以上ある場合には、CPU4は、従来の「最小二乗」方
法を使用して点の間に直線を引くことにより、境界を規
定する。次に、CPU4は規定した境界の交点を判定す
ることにより、画像空間における平坦な面を規定する
(ある平面の一部が規定した境界によりその境界を規定
されない場合、広がりは、例えば、ステップS42で先
に格納した「前景マスク」により判定されたのと同様
に、オブジェクトの外接長方形全体の中のオブジェクト
の識別画素データにより規定される)。有限の広がりを
持つ平坦な面を規定するために各カメラの画像空間にお
ける各平面の境界を規定した後、CPU4は各々の平坦
な面の中にある画素データを取り出し、格納する。
After identifying the points located on the boundary between the planes, the CPU 4 defines the boundary by connecting the points identified for each boundary (these points are located on the same two surfaces). If there are three or more points that cannot be connected by a straight line, CPU 4 defines the boundary by drawing a straight line between the points using the conventional "least squares" method. Next, the CPU 4 determines the intersection of the defined boundaries to define a flat surface in the image space (if the boundary is not defined by a defined boundary of a part of a certain plane, the spread is determined, for example, in step S42). (Specified by the identification pixel data of the object within the entire circumscribed rectangle of the object in the same manner as determined by the “foreground mask” stored earlier in (2)). After defining the boundaries of each plane in the image space of each camera in order to define a flat surface having a finite extent, the CPU 4 extracts and stores the pixel data in each flat surface.

【0166】ステップS254では、CPU4はカメラ
の画像空間で規定した面を使用して、カメラごとに3D
世界空間でオブジェクトをモデリングする。これを実行
するために、CPU4はカメラごとに3D世界空間にお
ける平面モデルの位置を計算し、カメラの画像空間で規
定した平面モデルをそのカメラの3D世界空間へ変換す
る。即ち、本実施形態では、CPU4は、先にステップ
S24で計算した第1のカメラの画像空間から3D世界
空間への変換を、ステップS252で第1のカメラの画
像データにおいて識別した各平面の基部の角の座標に適
用する。同様に、CPU4は、先にステップS24で計
算した第2のカメラの画像空間と3D世界空間との間の
変換を、ステップS252で判定した第2のカメラの画
像データにおける各平面の基部の角の座標に適用する。
先にステップS24で計算した変換は画像空間及び3D
世界空間の地表平面上に位置する点についても有効であ
るので、第1のカメラの画像空間及び第2のカメラの画
像空間から変換されたとき、地表平面に接する平面に関
わる頂点は3D世界空間内で(ある許容距離の範囲内
で)整列するが、地表平面に接していない他の平面の頂
点は整列しない。従って、CPU4はどの頂点が整列す
るかを識別し、整列する点に関して、各カメラの3D世
界空間に、適切なカメラの画像空間における平坦な面と
同じ縦横比を有する平坦な垂直面(即ち、地表上に頂点
を有する対応する平坦な面)を配置する。次に、CPU
4は、カメラごとに、3D世界空間の中に、ステップS
252で適切なカメラについて画像空間で識別した面と
同じ交点及び縦横比を有する平坦な面を規定する。
In step S254, the CPU 4 uses the surface defined in the image space of the camera to generate a 3D image for each camera.
Model objects in world space. To execute this, the CPU 4 calculates the position of the plane model in the 3D world space for each camera, and converts the plane model defined in the image space of the camera into the 3D world space of the camera. That is, in the present embodiment, the CPU 4 converts the conversion from the image space of the first camera to the 3D world space previously calculated in step S24 to the base of each plane identified in the image data of the first camera in step S252. Apply to the coordinates of the corner of. Similarly, the CPU 4 converts the conversion between the image space of the second camera and the 3D world space previously calculated in step S24 into the corner of the base of each plane in the image data of the second camera determined in step S252. Apply to coordinates.
The transformation previously calculated in step S24 is based on image space and 3D
Since the points located on the ground plane of the world space are also effective, when converted from the image space of the first camera and the image space of the second camera, the vertices relating to the plane tangent to the ground plane are 3D world space. (Within a certain allowable distance), but the vertices of other planes not touching the ground plane do not align. Thus, CPU 4 identifies which vertices are aligned, and in terms of the aligned points, the 3D world space of each camera has a flat vertical plane (ie, a flat vertical plane with the same aspect ratio as the flat plane in the appropriate camera image space). Place a corresponding flat surface with vertices on the ground). Next, CPU
4 is a step S in the 3D world space for each camera.
At 252, a flat surface having the same intersection and aspect ratio as the surface identified in image space for the appropriate camera is defined.

【0167】ステップS256では、CPU4は、カメ
ラごとのオブジェクトデータとして、3D世界空間内の
平坦な面を規定するデータ、面ごとに取り出された画像
データ、及び面ごとの前景「マスク」を格納する。
In step S256, the CPU 4 stores, as object data for each camera, data defining a flat surface in the 3D world space, image data extracted for each surface, and a foreground "mask" for each surface. .

【0168】ステップS258では、CPU4はモデリ
ングすべき別のオブジェクトが存在するか否かを判定す
る。全てのオブジェクトが先に説明したようにモデリン
グされ終わるまで、ステップS250からS258を繰
り返す。
At step S258, CPU 4 determines whether or not another object to be modeled exists. Steps S250 to S258 are repeated until all objects have been modeled as described above.

【0169】本実施形態におけるレンダリングのステッ
プは第1の実施形態におけるステップと同様に実行さ
れ、ステップS256で格納した画像データを適切な面
にレンダリングする。
The rendering step in this embodiment is executed in the same manner as in the first embodiment, and renders the image data stored in step S256 on an appropriate surface.

【0170】第2の実施形態に関して説明した3D世界
空間におけるオブジェクトのモデリングは、図2の例の
自動車30,32などのように、多数の平面から構成さ
れるオブジェクトに対して特に有効であり、本実施形態
で実行される処理動作は、第1の実施形態におけるモデ
リング動作より正確にオブジェクトの最上面をモデリン
グする。
The modeling of an object in the 3D world space described with respect to the second embodiment is particularly effective for an object composed of many planes, such as the cars 30 and 32 in the example of FIG. The processing operation executed in the present embodiment models the top surface of the object more accurately than the modeling operation in the first embodiment.

【0171】[第3の実施形態]第1の実施形態では、
ステップS11a/11bで3D世界空間内でオブジェ
クトをモデリングするために実行される処理動作は、モ
デリングすべきオブジェクトが広い領域にわたって地表
と接している場合(例えば、図2の例の自動車30,3
2)に特に有効である。第2の実施形態においては、モ
デリング技法はオブジェクトが多数の平面から構成され
ている場合に特に有効である。
[Third Embodiment] In the first embodiment,
The processing operation executed to model the object in the 3D world space in steps S11a / 11b is performed when the object to be modeled is in contact with the ground over a wide area (for example, the vehicles 30, 3 in the example of FIG. 2).
This is particularly effective in 2). In the second embodiment, the modeling technique is particularly effective when the object is composed of many planes.

【0172】しかし、全てのオブジェクトがこれらの特
性を備えているとは限らず(例えば、図2の例の人5
0,52)、このようなオブジェクトを第1の実施形態
又は第2の実施形態の技法によってモデリングすること
は可能であるが、それらの技法には不要な処理動作も含
まれていることがある。
However, not all objects have these characteristics (for example, person 5 in the example of FIG. 2).
0,52), such objects can be modeled by the techniques of the first or second embodiment, but those techniques may also include unnecessary processing operations. .

【0173】第3の実施形態は、3D世界空間でオブジ
ェクトをモデリングするためにステップS11a/S1
1bで実行される処理動作を除いて第1の実施形態と同
じである。
In the third embodiment, steps S11a / S1 are used to model an object in a 3D world space.
This is the same as the first embodiment except for the processing operation executed in 1b.

【0174】第3の実施形態では、CPU4はステップ
S11a/11bにおいて、ステップS6a及びS6b
で生成され、その後、ステップS8及びS10で修正さ
れた3D世界空間内の垂直面を使用してオブジェクトを
モデリングする。従って、各オブジェクトは各カメラの
3D世界空間内の単一の垂直面(カメラごとに1つの平
面)としてモデリングされる。先の場合と同様に、ステ
ップS11a/S11bでは陰影はモデリングされな
い。
In the third embodiment, the CPU 4 determines in steps S6a and S6b in step S11a / 11b.
, And then model the object using the vertical plane in 3D world space modified in steps S8 and S10. Thus, each object is modeled as a single vertical plane (one plane per camera) in the 3D world space of each camera. As in the previous case, no shadow is modeled in steps S11a / S11b.

【0175】先に説明した実施形態に関しては、様々な
変形が可能である。
Various modifications can be made to the embodiment described above.

【0176】再び図3に戻り、上記の実施例において
は、ステップS6a及びS6b(前景オブジェクトを識
別し、且つそこからオブジェクトデータを生成するため
に画像データを処理する)は、ステップS4a及びS4
bで全ての画像を記録した後に実行される。同様に、
(画像を表示する)ステップS16は、ステップS4,
S6a/S6b,S8,S10,S11a/S11b,
S12a/S12b及びS14が完了した後に実行され
る。しかしながら、これらのステップはユーザに対し所
望の視野方向からのリアルタイム表示を可能にするよう
に実行されても良い。即ち、ビデオカメラにより次のフ
レームのデータが記録されている間に、1つのビデオデ
ータのフレームについてステップS6a/S6b,S
8,S10,S11a/S11b,S12a/S12
b、S14及びS16を実行することは可能である。こ
のリアルタイム動作は、ステップS6a/S6b,S
8,S10及びS11a/S11bの処理要求がCPU
4に対して特に煩わしいものではなく、1つのビデオフ
レームの記録と次のビデオフレームの記録との間の時間
である1/30秒で実行できると考えられるために可能
である。
Returning to FIG. 3 again, in the above embodiment, steps S6a and S6b (process the image data to identify foreground objects and generate object data therefrom) consist of steps S4a and S4.
Executed after all images are recorded in b. Similarly,
Step S16 (displaying an image) includes steps S4 and S4.
S6a / S6b, S8, S10, S11a / S11b,
This is executed after S12a / S12b and S14 are completed. However, these steps may be performed to allow a user to display in real time from a desired viewing direction. That is, while the data of the next frame is recorded by the video camera, steps S6a / S6b, S6
8, S10, S11a / S11b, S12a / S12
It is possible to execute b, S14 and S16. This real-time operation is performed in steps S6a / S6b, S
8, S10 and S11a / S11b are processed by the CPU
4 is not particularly troublesome, and is possible because it can be executed in 1/30 second, which is the time between the recording of one video frame and the recording of the next video frame.

【0177】上記の実施形態では、ステップS6a/S
6bにおいて、グレイスケール値に基づいて前景オブジ
ェクトを識別する。しかし、それに加えて又はその代わ
りに、色値及び/又は赤外線値のウィンドウを設定し、
それらの画像特性を使用して前景オブジェクトを識別す
ることも可能である。
In the above embodiment, steps S6a / S
At 6b, foreground objects are identified based on the grayscale values. However, in addition to or instead of setting a window of color values and / or infrared values,
It is also possible to identify foreground objects using their image characteristics.

【0178】上記の実施形態においては、ステップS8
で、対応する前景オブジェクトに関わる画像データをス
テップS2で規定した3Dコンピュータモデルの地表平
面へマッピング(変換)し、変換後のデータを比較し
て、整列部分(陰影)と非整列部分(オブジェクト)と
の境界を識別することにより、陰影を識別する。その
後、第1の実施形態では、識別された境界(地表「フッ
トプリント」)を使用してオブジェクトをモデリングす
る(ステップS11a/S11b)。しかし、マッピン
グと比較を3Dコンピュータモデルの地表平面で実行す
る必要はない。即ち、陰影を識別し、オブジェクトのモ
デリングのために、各々のカメラの画像データの地表平
面からモデリング空間内の表面へのマッピングを規定す
る変換を適用することにより対応する前景オブジェクト
に関わる画像データを任意のモデリング空間内の1つの
面へマッピングし、変換後のデータを比較することによ
って、地表「フットプリント」を判定しても良い。そこ
で、結果に従って、オブジェクト及びその陰影のモデル
(表現)が3Dコンピュータモデルで生成される。
In the above embodiment, step S8
Then, the image data relating to the corresponding foreground object is mapped (converted) to the ground plane of the 3D computer model defined in step S2, the converted data is compared, and the aligned part (shadow) and the non-aligned part (object) are compared. The shadow is identified by identifying the boundary with. Then, in the first embodiment, the object is modeled using the identified boundary (the ground surface “footprint”) (steps S11a / S11b). However, the mapping and comparison need not be performed on the ground plane of the 3D computer model. That is, the image data relating to the corresponding foreground object is identified by applying a transformation that identifies the shadow and applies a mapping that defines the mapping of the image data of each camera from the ground plane to a surface in modeling space for object modeling. The ground surface “footprint” may be determined by mapping to one surface in an arbitrary modeling space and comparing the converted data. Then, according to the result, a model (expression) of the object and its shadow is generated by a 3D computer model.

【0179】同様に、ステップS10では、オブジェク
トが複合オブジェクトであるか否かを判定するために3
Dコンピュータモデルにおける対応するオブジェクトの
外接長方形の高さを比較する代わりに、外接長方形を各
カメラの画像データから何らかの共通モデリング空間へ
変換し、そのモデリング空間で高さを比較しても良い。
Similarly, in step S10, 3 is set to determine whether the object is a composite object.
Instead of comparing the heights of the circumscribed rectangles of the corresponding objects in the D computer model, the circumscribed rectangles may be converted from the image data of each camera into some common modeling space, and the heights may be compared in the modeling space.

【0180】上記の実施形態においては、CPU4は、
ユーザが垂直線に近い視野方向を選択した場合にオブジ
ェクトの位置の航空表現を表示するために、ステップS
298及びS300(図14)で処理を実行する。オブ
ジェクトの色を判定し、且つこの色を位置の航空表現の
中で指示するために、3D世界空間内のオブジェクトご
とにオブジェクトデータとして格納されている画像(ビ
デオ画素)データに対して更に処理を実行することは可
能であろう。このような処理は、オブジェクトが団体競
技に参加している人々である場合に特に有用であるとい
えるであろう。この場合、各選手がどちらのチームに所
属しているかを示すために、オブジェクトデータから各
選手の頭の部分の色を識別し、航空図に目に見える表示
を提示することができるであろう。更に、ステップS2
98及びS300でCPU4により実行される処理動作
をユーザが選択的にオン、オフできるように装置を構成
しても良い。即ち、ユーザはどの視野方向についても航
空図を示さず、その代わりに、選択した視野方向からの
オブジェクトのリアルな図を常にレンダリングすること
をCPU4に命令できる。このオン/オフ機能は、オブ
ジェクトの最上部をモデリングする場合、例えば第2の
実施形態で有用であろう。
In the above embodiment, the CPU 4
In order to display an aerial representation of the position of the object when the user selects a viewing direction close to the vertical, step S
The processing is executed in 298 and S300 (FIG. 14). Further processing is performed on image (video pixel) data stored as object data for each object in the 3D world space in order to determine the color of the object and indicate this color in the aerial representation of the position. It would be possible to do so. Such a process may be particularly useful where the objects are people participating in team sports. In this case, it would be possible to identify the color of each player's head from the object data and show a visual indication on the aerial chart to indicate which team each player belongs to. . Further, step S2
The apparatus may be configured such that the user can selectively turn on and off the processing operations executed by the CPU 4 in 98 and S300. That is, the user does not show an aerial view in any view direction, but instead can instruct the CPU 4 to always render a realistic view of the object from the selected view direction. This on / off function may be useful when modeling the top of an object, for example, in the second embodiment.

【0181】上記の実施形態では、ステップS302
(図14)で画像データのフレームを生成するためにど
の組のオブジェクトデータを使用すべきかを選択すると
きに、CPU4は、固有のカメラ特性と、カメラとプロ
セッサとの間の画像データ転送方法、カメラの分解能、
画像の安定性、画像中の閉塞オブジェクトの数の順(図
15)で画質に影響を及ぼす画像データの誤差特性とを
優先する。しかし、異なる優先順位を使用することは可
能である。また、先に挙げたカメラと画像データの特性
の全てを使用する必要はない。例えば、(それぞれ、ス
テップS404〜S408,S410〜S414,S4
16〜S420及びS422〜S426により規定され
ている)4つの試験の1つ又は2つ以上を省略すること
が可能である。更に、その他のカメラ特性(各カメラか
ら画像データと共に伝送されるシャッタ速度など、より
好適な照明条件が得られるので、シャッタ速度が速い方
のカメラを選択する)や、画像がカラーであるか又は白
黒であるかを示す画像データ特性(白黒画像データを生
成するカメラより優先して、カラー画像データを生成す
るカメラを選択する)を考慮しても良い。
In the above embodiment, step S302
When selecting which set of object data to use to generate a frame of image data in FIG. 14, the CPU 4 determines the unique camera characteristics, the method of image data transfer between the camera and the processor, Camera resolution,
Priority is given to image stability and image data error characteristics that affect image quality in the order of the number of blocked objects in the image (FIG. 15). However, it is possible to use different priorities. Also, it is not necessary to use all of the characteristics of the camera and image data described above. For example, (Steps S404 to S408, S410 to S414, and S4, respectively,
It is possible to omit one or more of the four tests (defined by 16-S420 and S422-S426). Further, other camera characteristics (a more suitable illumination condition such as a shutter speed transmitted together with image data from each camera can be obtained, so that a camera with a faster shutter speed is selected), and whether the image is color or Image data characteristics indicating whether the image is black and white (a camera that generates color image data is selected in preference to a camera that generates black and white image data) may be considered.

【0182】上記の実施形態では、ステップS11a/
S11bで各カメラからの画像データを使用して各オブ
ジェクトをモデリングした後にユーザに表示する画像を
生成するのに使用されるデータを選択するステップS3
02が実行される。しかし、ユーザが視野方向を既に規
定していたならば、ステップS11a/S11bでオブ
ジェクトをモデリングする前にデータを選択するステッ
プS302が実行されても良い。即ち、例えば、先に説
明したようにカメラを選択し、次に、選択したカメラか
らの画像データを使用して3Dコンピュータモデルでオ
ブジェクトをモデリングすることになる。このような処
理は(画像に使用されないモデルを生成しないため)、
オブジェクトの不必要なモデリングを防止し、それによ
り、処理時間を節約できる。
In the above embodiment, step S11a /
Step S3: selecting data used to generate an image to be displayed to a user after modeling each object using image data from each camera in S11b
02 is executed. However, if the user has already defined the viewing direction, step S302 of selecting data may be executed before modeling the object in steps S11a / S11b. That is, for example, a camera is selected as described above, and then an object is modeled with a 3D computer model using image data from the selected camera. Such processing (because it does not generate models that are not used for images)
Prevent unnecessary modeling of objects, thereby saving processing time.

【0183】カメラごとに個別にオブジェクトをモデリ
ングする場合でも、画像を生成するのに使用されるデー
タを選択するステップS302が実行されても良い(即
ち、ステップS8及びS10を省略する)。
Even when an object is individually modeled for each camera, step S302 for selecting data used for generating an image may be executed (that is, steps S8 and S10 are omitted).

【0184】上記の実施形態では、ステップS310に
おいて、CPU4はレンダリングされた画像を差分技法
を利用して比較する。しかし、Daniel Huttenlocher他
の「Tracking Non-Rigid Objects in Complex Scenes」
(Proc.4th International Conference on Computer Vis
ion,1993年,ベルリン,IEEE Computer Society Press IS
BN 0-8186-3870-2)に記載されているようなハウスドル
フ距離などの他の技法を使用しても良い。同様に、ステ
ップS314で他の画像組み合わせ技法(平均化など)
を使用しても良い。
In the above embodiment, in step S310, the CPU 4 compares the rendered images using a difference technique. However, Daniel Huttenlocher et al. `` Tracking Non-Rigid Objects in Complex Scenes ''
(Proc. 4th International Conference on Computer Vis
ion, 1993, Berlin, IEEE Computer Society Press IS
Other techniques may be used, such as the Hausdorff distance as described in BN 0-8186-3870-2). Similarly, in step S314, another image combination technique (such as averaging) is used.
May be used.

【0185】上記の実施形態では、ステップS304か
らS314(図14)はフレーム全体の画像データに関
して実行される。しかし、個別に見てオブジェクトが不
連続に見えるか否かを判定するために、画像データをオ
ブジェクトごとに比較するようにこれらのステップを実
行することも可能である。この結果、生成される画像デ
ータのフレームは異なるカメラからの画像データから構
成されることになる(異なるオブジェクトが異なるカメ
ラからの画像データを使用できる)。
In the above embodiment, steps S304 to S314 (FIG. 14) are executed for the image data of the entire frame. However, it is also possible to perform these steps so that the image data is compared for each object to determine whether the objects appear discontinuous when viewed individually. As a result, the frame of the generated image data is composed of image data from different cameras (different objects can use image data from different cameras).

【0186】上記の実施形態では、ステップS416に
おいて、カメラ又はそのスタンドに取り付けられたセン
サからのデータを使用して画像の安定性を判定する。そ
の代わりに、受信した画像データ自体を処理することに
より、画像の安定性を判定しても良い。例えば、オプテ
ィカルフロー技法を使用して、又はS.Mann及びR.W.Pica
rdの「Virtual Bellows: Constructing High Quality S
tills From Video」(MIT Media Laboratory Perceptual
Computing Section Technical Report No.259,Proc. F
irst IEEE Int. Conf. on Image Proc.,Austin TX,1994
年11月)に記載されているような技法を使用して画像デ
ータを処理しても良い。
In the above embodiment, in step S416, the stability of an image is determined using data from a camera or a sensor attached to its stand. Instead, the stability of the image may be determined by processing the received image data itself. For example, using optical flow techniques or S. Mann and RWPica
rd's `` Virtual Bellows: Constructing High Quality S
tills From Video '' (MIT Media Laboratory Perceptual
Computing Section Technical Report No.259, Proc. F
irst IEEE Int. Conf. on Image Proc., Austin TX, 1994
Image data may be processed using techniques such as those described in US Pat.

【0187】上記の実施形態では、2台のカメラを使用
して、入力画像データを生成する。しかし、上記の実施
形態で実行される処理動作をより多くのカメラに対して
も同様に実行できる。実際、カメラの台数が多くなれ
ば、いくつかの処理動作の助けになるであろう。例え
ば、ステップS8(図3)でCPU4により実行される
陰影処理を改善できる。これは、カメラが2台しかない
場合、一方のカメラはオブジェクトの陰影を完全には捉
え切れず、そのため、ステップS102(図8)で取り
出され、格納される3D世界空間における整列画像デー
タ部分が完全な陰影に対応しなくなることがある。カメ
ラの台数が増えれば、少なくとも2台のカメラで完全な
陰影の画像を取り込む可能性も増すので、この問題は緩
和されると思われる。そこで、必要に応じて、取り出さ
れた完全な陰影を完全な陰影が画像データに実際には現
れなかったカメラに属する画像データに追加することも
できるであろう。
In the above embodiment, input image data is generated using two cameras. However, the processing operations performed in the above embodiment can be similarly performed for more cameras. In fact, a larger number of cameras will help some processing operations. For example, the shading process executed by the CPU 4 in step S8 (FIG. 3) can be improved. This is because, when there are only two cameras, one of the cameras cannot completely capture the shadow of the object, and thus the aligned image data portion in the 3D world space that is extracted and stored in step S102 (FIG. 8) is May not support full shading. Increasing the number of cameras increases the likelihood of capturing a completely shaded image with at least two cameras, so this problem may be alleviated. Thus, if necessary, the extracted complete shadow could be added to the image data belonging to the camera where the complete shadow did not actually appear in the image data.

【0188】上記の実施形態では、カメラの視野方向は
固定されている。しかし、視野方向を変えても良く、記
録される画像データのフレームごとに各カメラの視野方
向を規定する情報を提供するために、カメラ又はスタン
ドに従来の方向センサや角度センサを配置しても良い。
その場合、例えば、Simon Rowe及びAndrew Blakeの「St
atistical Background Models for Tracking with a Ca
mera」(British Machine Vision Conference 1995)に
記載されているような従来の方式により、画像データを
固定仮想画像平面へ投影するために、処理を実行するこ
とになる。
In the above embodiment, the viewing direction of the camera is fixed. However, the view direction may be changed, and a conventional direction sensor or angle sensor may be arranged on the camera or the stand to provide information defining the view direction of each camera for each frame of image data to be recorded. good.
In that case, for example, Simon Rowe and Andrew Blake's "St
atistical Background Models for Tracking with a Ca
In order to project image data onto a fixed virtual image plane, processing will be performed in a conventional manner as described in "mera" (British Machine Vision Conference 1995).

【0189】上記の実施形態では、背景のみについて記
録された複数の画像に基づいて各画素の値を一組の値と
比較することにより、画像中の前景オブジェクトを識別
する(ステップS3a/S3b,S4a/S4b及びS6a
/S6b)。しかし、前景オブジェクトを識別するため
に従来のオプティカルフロー技法を使用しても良い。そ
のようなオプティカルフロー技法は、例えばカメラの視
野方向が変化するときに使用できる。
In the above embodiment, the foreground object in the image is identified by comparing the value of each pixel with a set of values based on a plurality of images recorded only for the background (steps S3a / S3b, S4a / S4b and S6a
/ S6b). However, conventional optical flow techniques may be used to identify foreground objects. Such optical flow techniques can be used, for example, when the viewing direction of a camera changes.

【0190】上記の実施形態では、各カメラのズーム
(変倍)は一定である。しかし、ズームを変化させても
良い。この場合、例えばステップS24(図4)で計算
されるカメラの画像空間と3D世界空間との間の変換を
ズーム設定ごとに同じ4つの基準点について計算するこ
とになるであろう。この計算は、ステップS4a/S4b
における画像データのフレームの記録に先立って実行で
き、フレームごとのカメラのズーム設定をカメラからコ
ンピュータに伝送することにより、1つのフレームの画
像データに対して正しい変換を選択することができる。
或いは、カメラのズーム設定が変化するのにつれて、リ
アルタイムで変換を計算しても良い(その場合、校正に
使用される4つの基準点は、常にカメラの視野の中に見
えるように選択され、また変換を計算するために使用す
べき画像データからCPU4がそれらの点を識別できる
ようにするために、従来の画像認識技法により4つの点
を容易に認識できるように選択されると考えられる)。
In the above embodiment, the zoom (magnification) of each camera is constant. However, the zoom may be changed. In this case, for example, the transformation between the camera image space and the 3D world space calculated in step S24 (FIG. 4) would be calculated for the same four reference points for each zoom setting. This calculation is performed in steps S4a / S4b.
Can be executed prior to the recording of the frame of the image data, and by transmitting the zoom setting of the camera for each frame from the camera to the computer, the correct conversion can be selected for the image data of one frame.
Alternatively, the transformation may be calculated in real time as the camera's zoom setting changes (where the four reference points used for calibration are selected to always be visible in the camera's field of view, and It is assumed that the four points are selected to be easily recognizable by conventional image recognition techniques so that CPU 4 can identify those points from the image data to be used to calculate the transform).

【0191】ステップS316(図14)でユーザへの
表示のためにCPU4により判定される情報は、入力ビ
デオ画像データを生成するために1台のカメラを使用す
る実施形態において提供されても良い。このような実施
形態においては、2台以上のカメラからの画像データを
必要とする処理動作(ステップS8の陰影処理及びステ
ップS10の複合オブジェクト処理など)は実行され
ず、先の第3の実施形態と同じように前景オブジェクト
をモデリング(ステップS11a)できる。
The information determined by the CPU 4 for display to the user in step S316 (FIG. 14) may be provided in an embodiment where one camera is used to generate the input video image data. In such an embodiment, processing operations (such as shading processing in step S8 and complex object processing in step S10) that require image data from two or more cameras are not executed, and the third embodiment described above. Similarly, the foreground object can be modeled (step S11a).

【0192】また同様に、上記の実施形態において、ユ
ーザが選択した視野方向が垂直線に近いときにオブジェ
クト位置の航空表現を表示するためにステップS298
及びS300(図14)でCPU4により実行される処
理動作を、1台のカメラを使用して入力画像データを生
成する実施形態で実行しても良い。
Similarly, in the above embodiment, step S298 is performed to display the aerial representation of the object position when the viewing direction selected by the user is close to the vertical line.
The processing operation executed by the CPU 4 in S300 (FIG. 14) may be executed in an embodiment in which input image data is generated using one camera.

【0193】上記の実施形態では、CPU4とメモリ6
は、表示装置18並びにカメラ12a及び12bとは別
のコンピュータの一部分を形成している。しかし、カメ
ラや表示装置に適切なプロセッサ及びメモリを設けるこ
とにより、先の実施形態で説明した処理を1台又は複数
台のカメラ、或いは表示装置の中で実行することは可能
である。
In the above embodiment, the CPU 4 and the memory 6
Forms part of a computer separate from the display device 18 and the cameras 12a and 12b. However, by providing an appropriate processor and memory in the camera or the display device, the processing described in the above embodiment can be executed in one or more cameras or display devices.

【0194】先の第1の実施形態では、ステップS11
a/S11b(図3)において、CPU4は、オブジェ
クトの地表「フットプリント」に直線を当てはめ、それ
らの直線を基部として有する平坦な垂直面を規定するこ
とにより、3D世界空間におけるオブジェクトに対して
使用すべきモデルを規定する。加えて、CPU4は平坦
な垂直面の上の辺を結合することにより、オブジェクト
の最上部を規定するための処理を実行しても良い。更
に、CPU4は地表「フットプリント」を使用して、異
なる方法で3Dモデルを規定しても良い。例えば、CP
U4はスプライン曲線(Bezier曲線など)を使用して地
表「フットプリント」を表現しても良く、規定されたス
プライン曲線に対応する水平横断面を有する3D世界空
間内の垂直曲面としてオブジェクトを表現しても良い。
In the first embodiment, step S11 is performed.
In a / S11b (FIG. 3), the CPU 4 applies straight lines to the ground "footprint" of the object and defines a flat vertical plane having those straight lines as a base, thereby using the object in 3D world space. Specify the model to be used. In addition, the CPU 4 may execute a process for defining the uppermost part of the object by combining the upper sides of the flat vertical surface. Further, the CPU 4 may use the ground surface “footprint” to define the 3D model in different ways. For example, CP
U4 may use a spline curve (such as a Bezier curve) to represent the ground "footprint", representing the object as a vertical surface in 3D world space with a horizontal cross section corresponding to the defined spline curve. May be.

【0195】先の第2の実施形態においては、ステップ
S254(図17)で、CPU4は、カメラの画像空間
で地表と接すると判定された平面ごとに、カメラの3D
世界空間内の平面を規定している。しかし、3D世界空
間でオブジェクトのモデルを規定できるようにするため
には(3D世界空間の1つの平面の位置はモデル中の全
ての平面の位置を固定するので)、画像空間で地表に接
する唯1つの面に関して3D世界空間内の平面を規定す
るだけで十分である。
In the second embodiment, in step S254 (FIG. 17), the CPU 4 determines the 3D image of the camera for each plane determined to be in contact with the ground in the image space of the camera.
It defines a plane in world space. However, in order to be able to define a model of an object in 3D world space (since the position of one plane in 3D world space fixes the position of all planes in the model), only the object that touches the ground in image space. It is sufficient to define a plane in 3D world space with respect to one plane.

【0196】先の第2の実施形態では、ステップS26
4(図18)において、CPU4は画像データ中の頂点
を識別し、比較している。これに加えて、又はその代わ
りに、画像データの色値又は強度値の最小点、最大点又
は鞍点を識別し、比較しても良い。例えば、Haralick及
びShapiroの「Computer and Robot Vision Volume 1」
(Addison-Wesley Publishing Company, ISBN 0-210-108
77-1(v.1))の第8章に記載されているような点を検出
する技法を採用しても良い。先に説明したように、検出
した点を適応最小二乗相関によって照合すれば良い。
In the second embodiment, step S26 is performed.
In FIG. 4 (FIG. 18), the CPU 4 identifies and compares the vertices in the image data. Additionally or alternatively, the minimum, maximum, or saddle point of the color or intensity values of the image data may be identified and compared. For example, Haralick and Shapiro's "Computer and Robot Vision Volume 1"
(Addison-Wesley Publishing Company, ISBN 0-210-108
77-1 (v.1)), a technique for detecting points as described in Chapter 8 may be employed. As described above, the detected points may be collated by the adaptive least squares correlation.

【0197】上記の実施形態においては、ステップS2
4(図4)で、未知のカメラ位置及びカメラパラメータ
について、画像空間から世界空間へ地表平面をマッピン
グする変換を計算している。しかし、1台又は複数台の
カメラを観察すべきシーンに対して既知の関係に、既知
のカメラパラメータをもって配置し、異なる変換を使用
できるようにすることも可能である。
In the above embodiment, step S2
In FIG. 4 (FIG. 4), for the unknown camera position and camera parameters, a transformation that maps the ground plane from image space to world space is calculated. However, it is also possible to arrange one or more cameras in a known relationship to the scene to be observed, with known camera parameters, so that different transformations can be used.

【0198】上記の実施形態では、ステップS296か
らS300(図14)において、ユーザが選択した視野
方向を判定し、この方向が垂直線から所定の角度の範囲
内にあれば、オブジェクトの位置の概略画像を表示する
ための処理を実行する。これに加えて、又はその代わり
に、視野方向がオブジェクトのモデルを構成している平
坦な垂直面と平行であるか又はその垂直面に関して所定
の角度の範囲内にあるかを判定し、そうであれば、先の
ステップS300と同様に何らかの方法でオブジェクト
の位置の概略画像を表示すべく画像データをレンダリン
グするために処理を実行しても良い。これは、第3の実
施形態の場合のように、1つの平坦な垂直面を使用して
オブジェクトをモデリングするときに特に有利である。
なぜならば、このようにすれば、平坦な面がエッジオン
であるような視野方向である場合にオブジェクト自体が
真正画像に現れず、従って、ユーザにとってオブジェク
ト位置の概略図が更に有用になると思われるからであ
る。視野方向がオブジェクトの平坦な面に対して所定の
角度範囲内にあるか否かを判定することにより、オブジ
ェクトをトップエッジオンで観察すべきであるケースを
識別でき、従って、先のステップS298の、垂直方向
に関して固定された所定の角度範囲に対して視野方向を
判定する試験に代わって、この試験を使用できることは
言うまでもない。
In the above embodiment, in steps S296 to S300 (FIG. 14), the direction of the field of view selected by the user is determined, and if this direction is within a range of a predetermined angle from the vertical line, the outline of the position of the object is determined. Execute processing for displaying an image. Additionally or alternatively, determine whether the viewing direction is parallel to or within a predetermined angle with respect to the flat vertical plane that makes up the model of the object, and so on. If so, a process may be executed to render image data to display a schematic image of the position of the object by some method as in step S300. This is particularly advantageous when modeling objects using one flat vertical plane, as in the third embodiment.
This is because, in this case, the object itself does not appear in the true image when the flat surface is in the viewing direction such that the edge is on, and therefore, it is considered that the schematic view of the object position becomes more useful to the user. It is. By determining whether the view direction is within a predetermined angle range with respect to the flat surface of the object, it is possible to identify a case where the object is to be observed with the top edge on, and therefore, in the previous step S298, It goes without saying that this test can be used in place of the test for determining the direction of the view for a given fixed angle range with respect to the vertical direction.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施形態の構成要素を概略的に示す図である。FIG. 1 is a diagram schematically showing components of an embodiment.

【図2】実施形態における動的環境からのビデオデータ
の収集を概略的に示す図である。
FIG. 2 schematically illustrates collection of video data from a dynamic environment in an embodiment.

【図3A】動画像を規定する信号を処理し、三次元コン
ピュータモデルを生成し、所望の視野方向からユーザに
対し画像を表示するために、実施形態において実行され
る処理動作をトップレベルで示す図である。
FIG. 3A illustrates, at a top level, processing operations performed in embodiments to process signals defining a moving image, generate a three-dimensional computer model, and display an image to a user from a desired viewing direction. FIG.

【図3B】動画像を規定する信号を処理し、三次元コン
ピュータモデルを生成し、所望の視野方向からユーザに
対し画像を表示するために、実施形態において実行され
る処理動作をトップレベルで示す図である。
3A and 3B illustrate, at a top level, processing operations performed in embodiments to process signals defining a moving image, generate a three-dimensional computer model, and display an image to a user from a desired viewing direction. FIG.

【図4】図3に示すステップS3a又はステップS3bで
実行される処理動作を示す図である。
FIG. 4 is a diagram showing a processing operation executed in step S3a or step S3b shown in FIG.

【図5】図3に示すステップS6a又はステップS6bで
実行される処理動作を示す図である。
FIG. 5 is a diagram showing a processing operation executed in step S6a or step S6b shown in FIG.

【図6】図5に示すステップS32で実行される処理動
作を示す図である。
FIG. 6 is a diagram showing a processing operation executed in step S32 shown in FIG. 5;

【図7】図5に示すステップS40(及び図8に示すス
テップS106及びS112)で実行される処理動作を
示す図である。
7 is a diagram showing a processing operation executed in step S40 shown in FIG. 5 (and steps S106 and S112 shown in FIG. 8).

【図8】図3に示すステップS8で実行される処理動作
を示す図である。
FIG. 8 is a diagram showing a processing operation executed in step S8 shown in FIG. 3;

【図9】オブジェクトとカメラの配置例及び図示した配
置において各カメラにより記録される画像を概略的に示
す図である。
FIG. 9 is a diagram schematically illustrating an example of an arrangement of an object and a camera and an image recorded by each camera in the illustrated arrangement.

【図10】図3に示すステップS10で実行される処理
動作を示す図である。
FIG. 10 is a diagram showing a processing operation executed in step S10 shown in FIG. 3;

【図11】図9に示すオブジェクトとカメラの配置に関
して生成される3D世界空間における外接長方形を概略
的に示す図である。
11 is a diagram schematically illustrating a circumscribed rectangle in a 3D world space generated with respect to the arrangement of the object and the camera illustrated in FIG. 9;

【図12】図3に示すステップS11a又はステップS
11bで第1の実施形態において実行される処理動作を
示す図である。
FIG. 12 shows a step S11a or a step S shown in FIG.
FIG. 11b is a diagram showing a processing operation executed in the first embodiment at 11b.

【図13】図12に示すステップS230及びS232
に従ったオブジェクトのモデルの形成を概略的に示す図
である。
FIG. 13 shows steps S230 and S232 shown in FIG.
FIG. 3 schematically illustrates the formation of a model of an object according to FIG.

【図14A】図3に示すステップS16で実行される処
理動作を示す図である。
FIG. 14A is a diagram showing a processing operation executed in step S16 shown in FIG. 3;

【図14B】図3に示すステップS16で実行される処
理動作を示す図である。
FIG. 14B is a diagram showing a processing operation executed in step S16 shown in FIG. 3;

【図15A】図14に示すステップS302で実行され
る処理動作を示す図である。
FIG. 15A is a diagram showing a processing operation executed in step S302 shown in FIG. 14;

【図15B】図14に示すステップS302で実行され
る処理動作を示す図である。
FIG. 15B is a diagram showing a processing operation executed in step S302 shown in FIG. 14;

【図16】図14に示すステップS304又はステップ
S308で実行される処理動作を示す図である。
FIG. 16 is a diagram showing a processing operation executed in step S304 or step S308 shown in FIG.

【図17】図3に示すステップS11a又はステップS
11bで第2の実施形態において実行される処理動作を
示す図である。
FIG. 17 shows step S11a or step S11 shown in FIG.
FIG. 11b is a diagram showing a processing operation executed in the second embodiment in 11b.

【図18】図17に示すステップS250で第2の実施
形態において実行される処理動作を示す図である。
FIG. 18 is a diagram showing a processing operation executed in the second embodiment in step S250 shown in FIG.

【図19】図18に示すステップS264で第2の実施
形態において実行される処理動作を示す図である。
FIG. 19 is a diagram showing a processing operation executed in the second embodiment in step S264 shown in FIG. 18;

【符号の説明】[Explanation of symbols]

2 コンピュータ 4 中央処理装置(CPU) 6 メモリ 12a,12b カメラ 14 ユーザ命令入力装置 16 フレームバッファ 18 表示装置 20 ビデオテープレコーダ 22 大容量記憶装置 2 Computer 4 Central processing unit (CPU) 6 Memory 12a, 12b Camera 14 User command input device 16 Frame buffer 18 Display device 20 Video tape recorder 22 Mass storage device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 13/02 G06F 15/72 450A (31)優先権主張番号 98007610 (32)優先日 平成10年1月14日(1998.1.14) (33)優先権主張国 イギリス(GB) (31)優先権主張番号 98007677 (32)優先日 平成10年1月14日(1998.1.14) (33)優先権主張国 イギリス(GB) (31)優先権主張番号 98007651 (32)優先日 平成10年1月14日(1998.1.14) (33)優先権主張国 イギリス(GB) (31)優先権主張番号 98007644 (32)優先日 平成10年1月14日(1998.1.14) (33)優先権主張国 イギリス(GB) (31)優先権主張番号 98007628 (32)優先日 平成10年1月14日(1998.1.14) (33)優先権主張国 イギリス(GB) (72)発明者 アラン ディビソン イギリス国 ジーユー2 5ワイジェイ サリー, ギルドフォード, サリー リ サーチ パーク, オッカム ロード, オッカム コート 1 キヤノン リサー チ センター ヨーロッパ リミテッド内──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme court ゛ (Reference) H04N 13/02 G06F 15/72 450A (31) Priority claim number 98076610 (32) Priority date January 1998 14th (1998.1.14) (33) Priority claim country United Kingdom (GB) (31) Priority claim number 98800677 (32) Priority date January 14, 1998 (1998.1.14) (33) Priority country United Kingdom (GB) (31) Priority claim number 9807651 (32) Priority date January 14, 1998 (Jan. 14, 1998) (33) Priority claim country United Kingdom (GB) (31) Priority Claim number 98076644 (32) Priority date January 14, 1998 (Jan. 14, 1998) (33) Priority claiming country United Kingdom (GB) (31) Priority claim number 98076628 (32) Priority date 1998 January 14 (1 998.1.14) (33) Priority Country United Kingdom (GB) (72) Inventor Alan Divison BIG2 GU2 5 YJ Surrey, Guildford, Surrey Research Park, Occam Road, Occam Court 1 Canon Research Center Within Europe Limited

Claims (236)

【特許請求の範囲】[Claims] 【請求項1】 シーンの中で動いている複数のオブジェ
クトの、それぞれのカメラから得られる複数の画像のシ
ーケンスを規定する画像データを処理して、三次元コン
ピュータモデルにおけるオブジェクトの表現を規定する
信号を生成する画像処理方法において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 各オブジェクトに対して第1のカメラからの識別された
画像データを処理し、第1のカメラからのオブジェクト
の画像データに応じた高さを有するモデリング空間にお
けるオブジェクト表現を規定する工程と、 各オブジェクトに対して第2のカメラからの識別された
画像データを処理し、第2のカメラからのオブジェクト
の画像データに応じた高さを有するモデリング空間にお
けるオブジェクト表現を規定する工程と、 第1のカメラからの画像データに従って生成された各オ
ブジェクトの表現の高さを第2のカメラからの画像デー
タに従って生成された対応するオブジェクトの表現の高
さと比較する工程と、 高さ比較に従って三次元コンピュータモデルにおけるオ
ブジェクト表現を生成する工程とを有することを特徴と
する画像処理方法。
1. A method for processing image data defining a sequence of a plurality of images obtained from respective cameras of a plurality of objects moving in a scene to define a representation of the object in a three-dimensional computer model. An image processing method for processing image data from a first camera to identify image data for an object in a scene; and processing image data from a second camera to Identifying image data for the objects; processing the identified image data from the first camera for each object; and in a modeling space having a height corresponding to the image data of the objects from the first camera. Defining an object representation, and identifying each object from a second camera Processing the captured image data to define an object representation in a modeling space having a height corresponding to the image data of the object from the second camera; and each object generated according to the image data from the first camera. Comparing the height of the representation of the object with the height of the representation of the corresponding object generated according to the image data from the second camera; and generating the object representation in the three-dimensional computer model according to the height comparison. An image processing method characterized by the following.
【請求項2】 前記第1のカメラからの画像データ及び
第2のカメラからの画像データを使用してオブジェクト
表現が規定されるモデリング空間は、三次元コンピュー
タモデルであることを特徴とする請求項1記載の画像処
理方法。
2. A modeling space in which an object representation is defined using the image data from the first camera and the image data from the second camera is a three-dimensional computer model. 2. The image processing method according to 1.
【請求項3】 三次元コンピュータモデルにおいてオブ
ジェクト表現を生成する工程は、対応する表現の高さが
お互いの所定量の中にない場合に、より高い表現を修正
することを特徴とする請求項2記載の画像処理方法。
3. The method according to claim 2, wherein the step of generating the object representation in the three-dimensional computer model modifies the higher representation if the height of the corresponding representation is not within a predetermined amount of each other. The image processing method described in the above.
【請求項4】 対応する表現の高さがお互いの所定量の
中にない場合、より低い表現の高さに基づいた高さを有
する表現を得ることにより高い表現を修正することを特
徴とする請求項3記載の画像処理方法。
4. If the height of the corresponding expression is not within a predetermined amount of each other, the higher expression is modified by obtaining an expression having a height based on the height of the lower expression. The image processing method according to claim 3.
【請求項5】 対応する表現の高さがお互いの所定量の
中にない場合、より高い表現を規定する元になった画像
データの一部を使用して三次元モデルにおいて別の表現
を規定することを特徴とする請求項3又は請求項4記載
の画像処理方法。
5. If the height of the corresponding representation is not within a predetermined amount of each other, define another representation in the three-dimensional model using part of the image data from which the higher representation is defined. The image processing method according to claim 3, wherein the image processing is performed.
【請求項6】 対応する表現の高さがお互いの所定量の
中にない場合、より高い表現をより低い表現の高さに対
応する高さを有する第1の部分と、より高い表現の残り
の部分を有する第2の部分とに分割し、三次元モデルに
おいて第2の部分を再位置決めすることにより別の表現
を規定することを特徴とする請求項5記載の画像処理方
法。
6. The first part having a height corresponding to the height of the lower representation and the remainder of the higher representation if the height of the corresponding representation is not within a predetermined amount of each other. 6. The image processing method according to claim 5, wherein the image is divided into a second part having a second part and another expression is defined by repositioning the second part in the three-dimensional model.
【請求項7】 より低い表現を生成したカメラからの画
像データに基づいて規定された表現に従って第2の部分
を再位置決めすることを特徴とする請求項6記載の画像
処理方法。
7. The image processing method according to claim 6, wherein the second portion is repositioned according to a defined expression based on image data from a camera that has generated a lower expression.
【請求項8】 より低い表現を生成したカメラからの画
像データに基づいて規定された表現のうちどれがより高
い表現を生成したカメラの画像空間においてより高い表
現を規定するために使用された画像データと重なり合う
かを識別し、 三次元モデルにおける識別された表現の位置に従って第
2の部分を再位置決めすることにより、第2の部分を再
位置決めすることを特徴とする請求項7記載の画像処理
方法。
8. The image used to define a higher representation in the image space of the camera that generated the higher representation, wherein any of the defined representations based on image data from the camera that generated the lower representation. 8. The image processing method according to claim 7, wherein the second part is repositioned by identifying whether the second part overlaps with the data and repositioning the second part according to the position of the identified representation in the three-dimensional model. Method.
【請求項9】 より低い表現を生成したカメラからの画
像データに基づいて規定された各表現の少なくとも一部
を三次元モデルからより高い表現を生成したカメラの画
像空間にマッピングし、 投影されたどの表現がより高い表現を生成したカメラの
画像空間におけるより高い表現に関わる画像データと重
なり合うかを判定し、 より高い表現を生成したカメラの画像空間に投影したと
きに、より高い表現に関わる画像データと重なり合った
表現の三次元モデルにおける位置に従って第2の部分を
再位置決めすることにより、第2の部分を再位置決めす
ることを特徴とする請求項8記載の画像処理方法。
9. A method of mapping at least a portion of each of the defined expressions based on image data from the camera that generated the lower expression into the image space of the camera that generated the higher expression from the three-dimensional model. Determine which representations overlap image data related to higher representations in the image space of the camera that generated the higher representations, and projected the higher representations to the image space of the camera that generated the higher representations, and 9. The image processing method according to claim 8, wherein the second part is repositioned by repositioning the second part according to the position in the three-dimensional model of the representation overlapping with the data.
【請求項10】 第2の部分の基部の中心がより高い表
現に関わる画像データと重なり合った表現の基部の中心
と同じ位置にあるように、第2の部分を再位置決めする
ことを特徴とする請求項9記載の画像処理方法。
10. The repositioning of the second portion so that the center of the base of the second portion is at the same position as the center of the base of the expression overlapping the image data related to the higher expression. The image processing method according to claim 9.
【請求項11】 各オブジェクト表現は、基部がモデリ
ング空間の所定の面にあり、且つオブジェクトに関わる
画像データと外接する多角形に従って決まる位置と大き
さを有する平坦な面として規定されることを特徴とする
請求項1乃至請求項10の何れかに記載の画像処理方
法。
11. Each object representation is defined as a flat surface having a base located on a predetermined surface of the modeling space and having a position and a size determined according to a polygon circumscribing image data related to the object. The image processing method according to claim 1.
【請求項12】 多角形は長方形であることを特徴とす
る請求項11記載の画像処理方法。
12. The image processing method according to claim 11, wherein the polygon is a rectangle.
【請求項13】 長方形の辺は画像の辺と平行であるこ
とを特徴とする請求項12記載の画像処理方法。
13. The image processing method according to claim 12, wherein sides of the rectangle are parallel to sides of the image.
【請求項14】 平坦な面の幅は画像データにおける外
接多角形の幅によって判定され、平坦な面の高さは画像
データにおける外接多角形の縦横比を使用して計算され
ることを特徴とする請求項11乃至請求項13の何れか
に記載の画像処理方法。
14. The flat surface width is determined by the width of a circumscribed polygon in the image data, and the height of the flat surface is calculated using the aspect ratio of the circumscribed polygon in the image data. An image processing method according to any one of claims 11 to 13.
【請求項15】 平坦な面は垂直平面の中にあることを
特徴とする請求項11乃至請求項14の何れかに記載の
画像処理方法。
15. The image processing method according to claim 11, wherein the flat surface is in a vertical plane.
【請求項16】 更に、処理された画像データに基づく
テクスチャデータが各オブジェクトの表現へとレンダリ
ングされる三次元コンピュータモデルの画像をレンダリ
ングすることにより画像データを生成する工程を有する
ことを特徴とする請求項1乃至請求項15の何れかに記
載の画像処理方法。
16. The method of claim 1, further comprising the step of generating image data by rendering an image of a three-dimensional computer model in which texture data based on the processed image data is rendered into a representation of each object. The image processing method according to claim 1.
【請求項17】 更に、画像データを搬送する信号を生
成する工程を有することを特徴とする請求項16記載の
画像処理方法。
17. The image processing method according to claim 16, further comprising a step of generating a signal for carrying image data.
【請求項18】 更に、信号を記録する工程を有するこ
とを特徴とする請求項17記載の画像処理方法。
18. The image processing method according to claim 17, further comprising the step of recording a signal.
【請求項19】 更に、生成された画像データを使用し
てオブジェクトの画像を表示する工程を有することを特
徴とする請求項16乃至請求項18の何れかに記載の画
像処理方法。
19. The image processing method according to claim 16, further comprising the step of displaying an image of the object using the generated image data.
【請求項20】 更に、画像データの記録を直接又は間
接的に作成する工程を有することを特徴とする請求項1
6乃至請求項19の何れかに記載の画像処理方法。
20. The method according to claim 1, further comprising the step of directly or indirectly creating a record of the image data.
The image processing method according to any one of claims 6 to 19.
【請求項21】 第1及び第2のカメラからの画像デー
タを処理して、それぞれのオブジェクトに関する画像デ
ータを識別し、識別された画像データを使用してモデリ
ング空間における各オブジェクトの高さを判定し、第1
のカメラからの画像データを使用して判定されたオブジ
ェクトの高さを第2のカメラからの画像データを使用し
て判定されたオブジェクトの高さと比較して、識別され
た画像データの中に1以上のオブジェクトに関する画像
データがあれば判定することを特徴とする画像処理方
法。
21. Process image data from the first and second cameras to identify image data for each object, and use the identified image data to determine the height of each object in a modeling space. And the first
The height of the object determined using the image data from the second camera is compared with the height of the object determined using the image data from the second camera. An image processing method characterized by determining if there is image data related to the above object.
【請求項22】 シーン中のオブジェクトの第1のカメ
ラからの画像データを処理して、それぞれのオブジェク
トに関する画像データを識別し、シーン中のオブジェク
トの第2のカメラからの画像データを処理して、第1の
カメラの画像データから判定された各オブジェクトのサ
イズパラメータを第2のカメラの画像データから判定さ
れた対応するサイズパラメータと比較することにより、
第1のカメラからの識別された画像データの何れかが1
以上のオブジェクトに関係するかを判定することを特徴
とする画像処理方法。
22. Processing the image data of the objects in the scene from the first camera to identify image data for each object and processing the image data of the objects in the scene from the second camera. By comparing the size parameter of each object determined from the image data of the first camera with the corresponding size parameter determined from the image data of the second camera,
If any of the identified image data from the first camera is 1
An image processing method characterized in that it is determined whether or not the object is related to the object.
【請求項23】 シーンの中で動いている複数のオブジ
ェクトの、それぞれのカメラから得られる複数の画像の
シーケンスを規定する画像データを処理して、三次元コ
ンピュータモデルにおけるオブジェクトの表現を規定す
る信号を生成する画像処理装置において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 各オブジェクトに対して第1のカメラからの識別された
画像データを処理し、第1のカメラからのオブジェクト
の画像データに応じた高さを有するモデリング空間にお
けるオブジェクト表現を規定する手段と、 各オブジェクトに対して第2のカメラからの識別された
画像データを処理し、第2のカメラからのオブジェクト
の画像データに応じた高さを有するモデリング空間にお
けるオブジェクト表現を規定する手段と、 第1のカメラからの画像データに従って生成された各オ
ブジェクトの表現の高さを第2のカメラからの画像デー
タに従って生成された対応するオブジェクトの表現の高
さと比較する手段と、 高さ比較に従って三次元コンピュータモデルにおけるオ
ブジェクト表現を生成する手段とを有することを特徴と
する画像処理装置。
23. A signal for processing image data defining a sequence of a plurality of images obtained from respective cameras of a plurality of objects moving in a scene to define a representation of the object in a three-dimensional computer model. Means for processing image data from the first camera to identify image data relating to objects in the scene; and processing image data from the second camera to generate Means for identifying image data for the object, processing the identified image data from the first camera for each object, and in a modeling space having a height corresponding to the image data of the object from the first camera. Means for defining the object representation, and knowledge from the second camera for each object. Means for processing the generated image data and defining an object representation in a modeling space having a height corresponding to the image data of the object from the second camera; and each object generated according to the image data from the first camera. Means for comparing the height of the representation of the object with the height of the representation of the corresponding object generated according to the image data from the second camera; and means for generating the object representation in the three-dimensional computer model according to the height comparison An image processing apparatus characterized by the above-mentioned.
【請求項24】 前記第1のカメラからの画像データ及
び第2のカメラからの画像データを使用してオブジェク
ト表現が規定されるモデリング空間は、三次元コンピュ
ータモデルであることを特徴とする請求項23記載の画
像処理装置。
24. The modeling space in which an object representation is defined using the image data from the first camera and the image data from the second camera is a three-dimensional computer model. 23. The image processing device according to 23.
【請求項25】 三次元コンピュータモデルにおいてオ
ブジェクト表現を生成する手段は、対応する表現の高さ
がお互いの所定量の中にない場合に、より高い表現を修
正するように構成されることを特徴とする請求項24記
載の画像処理装置。
25. The means for generating an object representation in a three-dimensional computer model is configured to modify a higher representation if the height of the corresponding representation is not within a predetermined amount of each other. The image processing apparatus according to claim 24, wherein
【請求項26】 対応する表現の高さがお互いの所定量
の中にない場合、より低い表現の高さに基づく高さを有
する表現を得ることにより高い表現を修正するように処
理を実行すべく構成されることを特徴とする請求項25
記載の画像処理装置。
26. If the heights of the corresponding expressions are not within a predetermined amount of each other, processing is performed to modify the higher expressions by obtaining an expression having a height based on the lower expression height. 26. The system of claim 25, wherein
The image processing apparatus according to any one of the preceding claims.
【請求項27】 対応する表現の高さが互いに所定の量
の中にない場合、より高い表現を規定する元になった画
像データの一部を使用して三次元モデルにおいて別の表
現を規定するように処理を実行すべく構成されることを
特徴とする請求項25又は請求項26記載の画像処理装
置。
27. If the heights of the corresponding representations are not within a predetermined amount of each other, define another representation in the three-dimensional model using a part of the image data from which the higher representation is defined. 27. The image processing apparatus according to claim 25, wherein the image processing apparatus is configured to execute a process to perform the processing.
【請求項28】 対応する表現の高さがお互いの所定量
の中にない場合、より高い表現をより低い表現の高さに
対応する高さを有する第1の部分と、より高い表現の残
りの部分を有する第2の部分とに分割し、三次元モデル
において第2の部分を再位置決めすることにより別の表
現を規定するように処理を実行すべく構成されることを
特徴とする請求項27記載の画像処理装置。
28. A first portion having a height corresponding to a lower representation height and a remainder of a higher representation if the corresponding representation heights are not within a predetermined amount of each other. And processing is performed to define another representation by repositioning the second part in the three-dimensional model with a second part having a second part. 28. The image processing device according to 27.
【請求項29】 より低い表現を生成したカメラからの
画像データに基づいて規定される表現に従って第2の部
分を再位置決めするように処理を実行すべく構成される
ことを特徴とする請求項28記載の画像処理装置。
29. The apparatus of claim 28, wherein the processing is performed to reposition the second portion according to a representation defined based on image data from the camera that generated the lower representation. The image processing apparatus according to any one of the preceding claims.
【請求項30】 より低い表現を生成したカメラからの
画像データに基づいて規定された表現のうちどれがより
高い表現を生成したカメラの画像空間においてより高い
表現を規定するために使用された画像データと重なり合
うかを識別し、 三次元モデルにおける識別された表現の位置に従って第
2の部分を再位置決めすることにより、第2の部分を再
位置決めすることを特徴とする請求項29記載の画像処
理装置。
30. An image used to define a higher representation in the image space of the camera that generated the higher representation, wherein any of the defined representations based on image data from the camera that generated the lower representation. 30. The image processing of claim 29, further comprising: repositioning the second portion by identifying whether it overlaps the data and repositioning the second portion according to the position of the identified representation in the three-dimensional model. apparatus.
【請求項31】 より低い表現を生成したカメラからの
画像データに基づいて規定された各表現の少なくとも一
部を三次元モデルからより高い表現を生成したカメラの
画像空間にマッピングし、 投影されたどの表現がより高い表現を生成したカメラの
画像空間におけるより高い表現に関わる画像データと重
なり合うかを判定し、 より高い表現を生成したカメラの画像空間に投影された
ときに、より高い表現に関わる画像データと重なり合っ
た表現の三次元モデルにおける位置に従って第2の部分
を再位置決めすることにより、第2の部分を再位置決め
することを特徴とする請求項30記載の画像処理装置。
31. Mapping at least a portion of each of the defined expressions based on image data from the camera that generated the lower expression into the image space of the camera that generated the higher expression from the three-dimensional model. Determine which representations overlap image data related to higher representations in the image space of the camera that generated the higher representations, and when projected into the image space of the camera that generated the higher representations, 31. The image processing apparatus according to claim 30, wherein the second part is repositioned by repositioning the second part according to the position in the three-dimensional model of the representation overlapping with the image data.
【請求項32】 第2の部分の基部の中心がより高い表
現に関わる画像データと重なり合った表現の基部の中心
と同じ位置であるように処理を実行すべく構成されるこ
とを特徴とする請求項31記載の画像処理装置。
32. The method according to claim 30, wherein the processing is performed such that the center of the base of the second portion is at the same position as the center of the base of the expression overlapping with the image data relating to the higher expression. Item 32. The image processing apparatus according to Item 31,
【請求項33】 各オブジェクト表現がモデリング空間
の中の所定の面上にベースを有し、且つそのオブジェク
トに関わる画像データと外接する多角形に従って決まる
位置と大きさを有する平坦な面として規定されるように
処理を実行すべく構成されることを特徴とする請求項2
3乃至請求項32の何れかに記載の画像処理装置。
33. Each object representation is defined as a flat surface having a base on a predetermined surface in the modeling space, and having a position and a size determined according to a polygon circumscribing image data related to the object. 3. The processing according to claim 2, wherein
The image processing device according to any one of claims 3 to 32.
【請求項34】 多角形は長方形であることを特徴とす
る請求項33記載の画像処理装置。
34. The image processing apparatus according to claim 33, wherein the polygon is a rectangle.
【請求項35】 多角形の辺は画像の辺と平行であるこ
とを特徴とする請求項34記載の画像処理装置。
35. The image processing apparatus according to claim 34, wherein sides of the polygon are parallel to sides of the image.
【請求項36】 平坦な面の幅が画像データにおける外
接多角形の幅によって判定され、平坦な面の高さは画像
データにおける外接多角形の縦横比を使用して計算され
るように処理を実行すべく構成されることを特徴とする
請求項33乃至請求項35の何れかに記載の画像処理装
置。
36. A process wherein the width of the flat surface is determined by the width of the circumscribed polygon in the image data, and the height of the flat surface is calculated using the aspect ratio of the circumscribed polygon in the image data. The image processing apparatus according to any one of claims 33 to 35, wherein the image processing apparatus is configured to execute the processing.
【請求項37】 平坦な面が垂直平面にあるように処理
を実行すべく構成されることを特徴とする請求項33乃
至請求項36の何れかに記載の画像処理装置。
37. The image processing apparatus according to claim 33, wherein the processing is performed so that the flat surface is on a vertical plane.
【請求項38】 更に、処理された画像データに基づく
テクスチャデータが各オブジェクトの表現へとレンダリ
ングされる三次元コンピュータモデルの画像をレンダリ
ングすることにより画像データを生成する手段を有する
ことを特徴とする請求項23乃至請求項37の何れかに
記載の画像処理装置。
38. The image processing apparatus further comprises means for generating image data by rendering an image of a three-dimensional computer model in which texture data based on the processed image data is rendered into a representation of each object. An image processing apparatus according to any one of claims 23 to 37.
【請求項39】 更に、生成された画像データを使用し
てオブジェクトの画像を表示する手段を有することを特
徴とする請求項38記載の画像処理装置。
39. The image processing apparatus according to claim 38, further comprising means for displaying an image of the object using the generated image data.
【請求項40】 第1及び第2のカメラからの画像デー
タを処理して、それぞれのオブジェクトに関する画像デ
ータを識別し、識別された画像データを使用してモデリ
ング空間における各オブジェクトの高さを判定し、第1
のカメラからの画像データを使用して判定されたオブジ
ェクトの高さを第2のカメラからの画像データを使用し
て判定されたオブジェクトの高さと比較して、識別され
た画像データの中に1以上のオブジェクトに関する画像
データがあれば判定するように動作可能である画像処理
装置。
40. Process image data from the first and second cameras to identify image data for each object, and use the identified image data to determine a height of each object in a modeling space. And the first
The height of the object determined using the image data from the second camera is compared with the height of the object determined using the image data from the second camera. An image processing apparatus operable to determine if there is image data on the above object.
【請求項41】 シーン中のオブジェクトの第1のカメ
ラからの画像データを処理して、それぞれのオブジェク
トに関する画像データを識別し、シーン中のオブジェク
トの第2のカメラからの画像データを処理して、第1の
カメラの画像データから判定された各オブジェクトのサ
イズパラメータを第2のカメラの画像データから判定さ
れた対応するサイズパラメータと比較することにより、
第1のカメラからの識別された画像データの何れかが1
以上のオブジェクトに関係するかを判定するように動作
可能である画像処理装置。
41. Process image data of an object in a scene from a first camera to identify image data for each object and process image data of an object in a scene from a second camera. By comparing the size parameter of each object determined from the image data of the first camera with the corresponding size parameter determined from the image data of the second camera,
If any of the identified image data from the first camera is 1
An image processing apparatus operable to determine whether or not the object is related to the object.
【請求項42】 プログラム可能な処理装置に請求項1
乃至請求項22の何れかに記載の方法を実行させるため
の命令を格納する記憶媒体。
42. A programmable processing device comprising:
23. A storage medium for storing instructions for executing the method according to claim 22.
【請求項43】 プログラム可能な処理装置に請求項1
乃至請求項22の何れかに記載の方法を実行させるため
の命令を搬送する信号。
43. A programmable processing device comprising:
A signal carrying instructions for performing a method according to any of claims 22 to 23.
【請求項44】 シーンの中で動いているオブジェクト
の、それぞれのカメラからの複数の画像のシーケンスを
規定する画像データを処理して、三次元コンピュータモ
デルにおけるオブジェクトの表現を規定する信号を生成
する画像処理方法において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 第1のカメラの画像データの空間における地表平面から
モデリング空間の面へのマッピングを規定する変換を第
1のカメラからの識別された画像データに適用する工程
と、 第2のカメラの画像データの空間における地表平面から
モデリング空間の面へのマッピングを規定する変換を第
2のカメラからの識別された画像データに適用する工程
と、 モデリング空間の面上で第1及び第2のカメラからの変
換された画像データを比較する工程と、 比較の結果に従って画像データのどの部分が陰影を表現
するかを判定する工程と、 三次元モデルで少なくともオブジェクトの表現を生成す
る工程とを有することを特徴とする画像処理方法。
44. Processing image data defining a sequence of a plurality of images from respective cameras of an object moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model. An image processing method comprising: processing image data from a first camera to identify image data for an object in a scene; and processing image data from a second camera to generate an image for an object in a scene. Identifying the data; applying a transform to the identified image data from the first camera, the transform defining a mapping from a ground plane in the space of the image data of the first camera to a surface in the modeling space; Defines the mapping from the ground plane to the surface of the modeling space in the space of the image data of the second camera Applying the transformed image data to the identified image data from the second camera; comparing the transformed image data from the first and second cameras on a plane of the modeling space; An image processing method comprising: determining which part of image data represents a shadow; and generating at least an object representation using a three-dimensional model.
【請求項45】 更に、三次元モデルで陰影の表現を生
成する工程を有することを特徴とする請求項44記載の
画像処理方法。
45. The image processing method according to claim 44, further comprising the step of generating a shade expression using a three-dimensional model.
【請求項46】 モデリング空間の面は三次元モデルに
おける地表平面であることを特徴とする請求項44又は
45記載の画像処理方法。
46. The image processing method according to claim 44, wherein the surface of the modeling space is a ground plane in a three-dimensional model.
【請求項47】 変換後の画像データの整列部分が陰影
を表現することを判定することを特徴とする請求項44
乃至請求項46の何れかに記載の画像処理方法。
47. A method according to claim 44, wherein it is determined that the aligned part of the converted image data represents a shadow.
47. The image processing method according to claim 46.
【請求項48】 更に、処理された画像データに基づく
テクスチャデータがオブジェクトの表現へとレンダリン
グされる三次元コンピュータモデルの画像をレンダリン
グすることにより画像データを生成する工程を有するこ
とを特徴とする請求項44乃至請求項47の何れかに記
載の画像処理方法。
48. The method of claim 48, further comprising the step of generating image data by rendering an image of a three-dimensional computer model in which texture data based on the processed image data is rendered into a representation of the object. 48. The image processing method according to claim 44.
【請求項49】 表現へとレンダリングされる画像デー
タは比較の結果に従って判定されることを特徴とする請
求項48記載の画像処理方法。
49. The method according to claim 48, wherein the image data rendered into the representation is determined according to the result of the comparison.
【請求項50】 更に、画像データを搬送する信号を生
成する工程を有することを特徴とする請求項48又は4
9記載の画像処理方法。
50. The method according to claim 48, further comprising the step of generating a signal for carrying the image data.
9. The image processing method according to 9.
【請求項51】 更に、信号を記録する工程を有するこ
とを特徴とする請求項50記載の画像処理方法。
51. The image processing method according to claim 50, further comprising a step of recording a signal.
【請求項52】 更に、生成された画像データを使用し
てオブジェクトの画像を表示する工程を有することを特
徴とする請求項48乃至請求項51の何れかに記載の画
像処理方法。
52. The image processing method according to claim 48, further comprising a step of displaying an image of the object using the generated image data.
【請求項53】 更に、画像データの記録を直接又は間
接的に作成する工程を有することを特徴とする請求項4
8乃至請求項52の何れかに記載の画像処理方法。
53. The method according to claim 4, further comprising a step of directly or indirectly creating a record of the image data.
The image processing method according to any one of claims 8 to 52.
【請求項54】 複数のカメラからのオブジェクトの画
像を処理することにより、三次元コンピュータモデルで
オブジェクトのモデルを生成する画像処理方法におい
て、第1のカメラからの画像データを処理して、オブジ
ェクト及びその陰影に関する画像データを共に識別し、
第2のカメラからの画像データを使用して、第1のカメ
ラからの、陰影に関する識別された画像データと、第1
のカメラからの、オブジェクトに関する識別された画像
データとを判定することを特徴とする画像処理方法。
54. An image processing method for generating a model of an object by a three-dimensional computer model by processing images of the object from a plurality of cameras, wherein the image data from the first camera is processed to Identify the image data for the shadow together,
Using the image data from the second camera, the identified image data for the shadow from the first camera and the first
An image processing method for determining object image data from an object camera.
【請求項55】 三次元コンピュータモデルでオブジェ
クトのモデルを生成する画像処理方法において、 オブジェクト及びその陰影の1つの画像データを面へマ
ッピングする変換を、オブジェクト及びその陰影に関す
る第1のカメラからの画像データに適用し、 オブジェクト及びその陰影の1つの画像データを面へマ
ッピングする変換を、オブジェクト及びその陰影に関す
る第2のカメラからの画像データに適用し、 変換された画像データの一部に従ってオブジェクトをモ
デリングすることを特徴とする画像処理方法。
55. An image processing method for generating a model of an object using a three-dimensional computer model, the method comprising: mapping one image data of an object and its shadow onto a plane; Applying a transformation to the data and mapping one image data of the object and its shadow to a surface to image data from the second camera for the object and its shadow, and transforming the object according to a portion of the transformed image data. An image processing method characterized by modeling.
【請求項56】 シーンの中で動いているオブジェクト
の、それぞれのカメラからの複数の画像のシーケンスを
規定する画像データを処理して、三次元コンピュータモ
デルにおけるオブジェクトの表現を規定する信号を生成
する画像処理装置において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 第1のカメラの画像データの空間における地表平面から
モデリング空間の面へのマッピングを規定する変換を第
1のカメラからの識別された画像データに適用する手段
と、 第2のカメラの画像データの空間における地表平面から
モデリング空間の面へのマッピングを規定する変換を第
2のカメラからの識別された画像データに適用する手段
と、 モデリング空間の面上で第1及び第2のカメラからの変
換された画像データを比較する手段と、 比較の結果に従って画像データのどの部分が陰影を表現
するかを判定する手段と、 三次元モデルで少なくともオブジェクトの表現を生成す
る手段とを有することを特徴とする画像処理装置。
56. Process image data defining a sequence of a plurality of images from respective cameras of an object moving in a scene to generate signals defining a representation of the object in a three-dimensional computer model. An image processing apparatus for processing image data from a first camera to identify image data relating to an object in a scene; and processing image data from a second camera to generate an image relating to an object in a scene. Means for identifying data; means for applying a transform defining a mapping from a ground plane to a surface in modeling space in the space of image data of the first camera to the identified image data from the first camera; Defines the mapping from the ground plane to the surface of the modeling space in the space of the image data of the second camera Means for applying a transformation to the identified image data from the second camera, means for comparing the transformed image data from the first and second cameras on a plane of the modeling space, and according to the result of the comparison. An image processing apparatus comprising: means for determining which part of image data represents a shadow; and means for generating at least an object representation using a three-dimensional model.
【請求項57】 更に、三次元モデルで陰影の表現を生
成する手段を有することを特徴とする請求項56記載の
画像処理装置。
57. The image processing apparatus according to claim 56, further comprising means for generating a shade expression using a three-dimensional model.
【請求項58】 モデリング空間の面は三次元モデルに
おける地表平面であることを特徴とする請求項56又は
57記載の画像処理装置。
58. The image processing apparatus according to claim 56, wherein the surface of the modeling space is a ground plane in a three-dimensional model.
【請求項59】 変換後の画像データの整列部分が陰影
を表現することを判定するように構成されることを特徴
とする請求項56乃至請求項58の何れかに記載の画像
処理装置。
59. The image processing apparatus according to claim 56, wherein it is configured to determine that an aligned portion of the converted image data represents a shadow.
【請求項60】 更に、処理された画像データに基づく
テクスチャデータがオブジェクトの表現へとレンダリン
グされる三次元コンピュータモデルの画像をレンダリン
グすることにより画像データを生成する手段を有するこ
とを特徴とする請求項56乃至請求項59の何れかに記
載の画像処理装置。
60. The apparatus of claim 60 further comprising means for generating image data by rendering an image of a three-dimensional computer model in which texture data based on the processed image data is rendered into an object representation. The image processing device according to any one of claims 56 to 59.
【請求項61】 表現へとレンダリングされる画像デー
タは比較の結果に従って判定されることを特徴とする請
求項60記載の画像処理装置。
61. The apparatus according to claim 60, wherein the image data rendered into the representation is determined according to the result of the comparison.
【請求項62】 更に、生成された画像データを使用し
てオブジェクトの画像を表示する手段を有することを特
徴とする請求項60又は61記載の画像処理装置。
62. The image processing apparatus according to claim 60, further comprising means for displaying an image of the object using the generated image data.
【請求項63】 複数のカメラからのオブジェクトの画
像を処理することにより、三次元コンピュータモデルで
オブジェクトのモデルを生成する画像処理装置におい
て、第1のカメラからの画像データを処理して、オブジ
ェクト及びその陰影に関する画像データを共に識別する
ように動作可能であり、且つ第2のカメラからの画像デ
ータを使用して、第1のカメラからの、陰影に関連する
識別された画像データと、第1のカメラからの、オブジ
ェクトに関する識別された画像データとを判定するよう
に動作可能であることを特徴とする画像処理装置。
63. An image processing apparatus for generating a model of an object by a three-dimensional computer model by processing images of the object from a plurality of cameras, wherein the image data from the first camera is processed to Operable to identify image data for the shadow together, and using the image data from the second camera to identify the image data associated with the shadow from the first camera; An image processing apparatus operable to determine identified image data from the camera of the object.
【請求項64】 三次元コンピュータモデルでオブジェ
クトのモデルを生成する画像処理装置において、 オブジェクト及びその陰影の1つの画像データを面へマ
ッピングする変換を、オブジェクト及びその陰影に関す
る第1のカメラからの画像データに適用する手段と、 オブジェクト及びその陰影の1つの画像データを面へマ
ッピングする変換を、オブジェクト及びその陰影に関す
る第2のカメラからの画像データに適用する手段と、 変換された画像データの一部に従ってオブジェクトをモ
デリングする手段とを有することを特徴とする画像処理
装置。
64. An image processing apparatus for generating a model of an object by using a three-dimensional computer model, wherein a transformation for mapping one image data of the object and its shadow to a surface is performed by using an image from the first camera regarding the object and its shadow. Means for applying a transformation mapping one image data of the object and its shading to a surface to image data from the second camera relating to the object and its shading; Means for modeling an object according to a section.
【請求項65】 プログラム可能処理装置に請求項44
乃至請求項55の何れかに記載の方法を実行させるため
の命令を格納する記憶媒体。
65. The programmable processing device according to claim 44.
A storage medium storing instructions for executing the method according to any one of claims 55 to 55.
【請求項66】 プログラム可能処理装置に請求項44
乃至請求項55の何れか1項に記載の方法を実行させる
ための命令を搬送する信号。
66. The programmable processing device according to claim 44.
56. A signal carrying instructions for performing the method of any one of claims 55.
【請求項67】 シーンの中で動いているオブジェクト
の、それぞれのカメラからの複数の画像のシーケンスを
規定する画像データを処理して、三次元コンピュータモ
デルにおけるオブジェクトの表現を規定する信号を生成
する画像処理方法において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 識別された第1のカメラからの画像データ及び識別され
た第2のカメラからの画像データを処理して、地表にお
けるオブジェクトのフットプリントを判定する工程と、 判定されたフットプリントに従って三次元コンピュータ
モデルでオブジェクトのモデルを規定する工程とを有す
ることを特徴とする画像処理方法。
67. Processing image data defining a sequence of multiple images from respective cameras of an object moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model. An image processing method comprising: processing image data from a first camera to identify image data for an object in a scene; and processing image data from a second camera to generate an image for an object in a scene. Identifying the data; processing the identified image data from the first camera and the identified image data from the second camera to determine a footprint of the object on the surface of the earth. Defining the model of the object in the three-dimensional computer model according to the footprint An image processing method characterized in that it comprises a.
【請求項68】 識別された画像データを処理して、地
表におけるオブジェクトのフットプリントを判定する工
程は、 第1のカメラの画像データにおける地表平面からモデリ
ング空間の面へのマッピングを規定する変換を第1のカ
メラからの識別された画像データに適用する工程と、 第2のカメラの画像データにおける地表平面からモデリ
ング空間の面へのマッピングを規定する変換を第2のカ
メラからの識別された画像データに適用する工程と、 モデリング空間の面上で変換された画像データを比較す
る工程とを有することを特徴とする請求項67記載の画
像処理方法。
68. Processing the identified image data to determine a footprint of the object on the ground surface comprises transforming a ground plane to a modeling space surface in the first camera image data. Applying the identified image data from the first camera to the identified image data from the second camera; and transforming the image data of the second camera defining a mapping from a ground plane to a surface in modeling space. 68. The image processing method according to claim 67, further comprising: a step of applying to the data; and a step of comparing the image data converted on a plane of the modeling space.
【請求項69】 モデリング空間の面は三次元コンピュ
ータモデルにおける地表平面であることを特徴とする請
求項68記載の画像処理方法。
69. The image processing method according to claim 68, wherein the surface of the modeling space is a ground plane in a three-dimensional computer model.
【請求項70】 地表における画像の輪郭は、モデリン
グ空間の面における変換された画像データの整列部分及
び非整列部分に従って判定されることを特徴とする請求
項68又は69記載の画像処理方法。
70. The image processing method according to claim 68, wherein the contour of the image on the ground is determined according to the aligned part and the non-aligned part of the converted image data in the plane of the modeling space.
【請求項71】 オブジェクトのモデルを規定する工程
は、複数の平坦な垂直面を使用してモデルを規定するこ
とを特徴とする請求項67乃至請求項70の何れかに記
載の画像処理方法。
71. The image processing method according to claim 67, wherein the step of defining a model of the object uses a plurality of flat vertical planes to define the model.
【請求項72】 平坦な垂直面は、その基部がほぼ地表
上のオブジェクトの輪郭と一致するように規定されるこ
とを特徴とする請求項71記載の画像処理方法。
72. The image processing method according to claim 71, wherein the flat vertical surface is defined such that its base substantially matches the contour of the object on the ground surface.
【請求項73】 各々の平坦な面は長方形であることを
特徴とする請求項71又は72記載の画像処理方法。
73. The image processing method according to claim 71, wherein each flat surface is rectangular.
【請求項74】 各々の平坦な面は、第1のカメラから
識別された画像データ又は第2のカメラから識別された
画像データに従って判定される高さにより規定されるこ
とを特徴とする請求項71乃至請求項73の何れかに記
載の画像処理方法。
74. Each of the flat surfaces is defined by a height determined according to image data identified from the first camera or image data identified from the second camera. 74. The image processing method according to claim 71.
【請求項75】 各々の平坦な面の高さは、第1のカメ
ラ又は第2のカメラから識別されたオブジェクトに関連
する画像データの一部又は全てと外接する長方形に従っ
て規定されることを特徴とする請求項74記載の画像処
理方法。
75. The height of each flat surface is defined according to a rectangle circumscribing some or all of the image data associated with the object identified from the first camera or the second camera. The image processing method according to claim 74, wherein
【請求項76】 各々の平坦な面は同じ高さを有するよ
うに規定されることを特徴とする請求項74又は75記
載の画像処理方法。
76. The image processing method according to claim 74, wherein each flat surface is defined to have the same height.
【請求項77】 更に、垂直の平坦な面の上縁部に従っ
てオブジェクトのモデルの最上部を生成する工程を有す
ることを特徴とする請求項71乃至請求項76の何れか
に記載の画像処理方法。
77. The image processing method according to claim 71, further comprising a step of generating an uppermost part of the model of the object according to an upper edge of the vertical flat surface. .
【請求項78】 更に、少なくとも1台のカメラからの
識別された画像データに基づくテクスチャデータがモデ
ルへとレンダリングされるモデル化オブジェクトの画像
をレンダリングすることにより画像データを生成する工
程を有することを特徴とする請求項67乃至請求項77
の何れかに記載の画像処理方法。
78. The method further comprises generating image data by rendering an image of a modeled object, wherein texture data based on the identified image data from at least one camera is rendered into a model. Claims 67-77.
The image processing method according to any one of the above.
【請求項79】 各々の平坦な面は第1のカメラ又は第
2のカメラの画像データへマッピングされ、且つマッピ
ングされた各々の面により包囲される画像データはモデ
ル中の平坦な面へレンダリングされることを特徴とする
請求項78記載の画像処理方法。
79. Each flat surface is mapped to image data of a first camera or a second camera, and the image data encompassed by each mapped surface is rendered to a flat surface in the model. 79. The image processing method according to claim 78, wherein:
【請求項80】 更に、画像データを搬送する信号を生
成する工程を有することを特徴とする請求項78又は7
9記載の画像処理方法。
80. The method according to claim 78, further comprising the step of generating a signal for carrying the image data.
9. The image processing method according to 9.
【請求項81】 更に、信号を記録する工程を有するこ
とを特徴とする請求項80記載の画像処理方法。
81. The image processing method according to claim 80, further comprising a step of recording a signal.
【請求項82】 更に、生成された画像データを使用し
てオブジェクトの画像を表示する工程を有することを特
徴とする請求項78乃至請求項81の何れかに記載の画
像処理方法。
82. The image processing method according to claim 78, further comprising the step of displaying an image of the object using the generated image data.
【請求項83】 更に、画像データの記録を直接又は間
接的に作成する工程を有することを特徴とする請求項7
8乃至請求項82の何れかに記載の画像処理方法。
83. The method according to claim 7, further comprising the step of directly or indirectly creating a record of the image data.
The image processing method according to any one of claims 8 to 82.
【請求項84】 複数台のカメラからのオブジェクトの
画像を処理することにより三次元コンピュータモデルで
オブジェクトのモデルを生成する画像処理方法におい
て、第1のカメラからの画像データを処理して、オブジ
ェクトに関する画像データを識別し、第2のカメラから
の画像データを使用して、識別された第1のカメラから
の画像データのどの部分が地表上又は地表付近のオブジ
ェクトの部分に関係するかを判定し、該判定に従ってオ
ブジェクトをコンピュータモデルで表現する画像処理方
法。
84. An image processing method for generating a model of an object by a three-dimensional computer model by processing images of the object from a plurality of cameras, wherein the image data from the first camera is processed and Identify the image data and use the image data from the second camera to determine which portion of the identified image data from the first camera relates to a portion of the object on or near the ground. And an image processing method for expressing an object in a computer model according to the determination.
【請求項85】 シーンの中で動いているオブジェクト
の、それぞれのカメラからの複数の画像のシーケンスを
規定する画像データを処理して、三次元コンピュータモ
デルにおけるオブジェクトの表現を規定する信号を生成
する画像処理装置において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 識別された第1のカメラからの画像データ及び識別され
た第2のカメラからの画像データを処理して、地表上に
おけるオブジェクトのフットプリントを判定する手段
と、 判定されたフットプリントに従って三次元コンピュータ
モデルでオブジェクトのモデルを規定する手段とを有す
ることを特徴とする画像処理装置。
85. Processing image data defining a sequence of multiple images from respective cameras of an object moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model. An image processing apparatus for processing image data from a first camera to identify image data relating to an object in a scene; and processing image data from a second camera to generate an image relating to an object in a scene. Means for identifying the data; and means for processing the identified image data from the first camera and the identified image data from the second camera to determine a footprint of the object on the ground. Of defining the model of an object in a three-dimensional computer model according to the footprint The image processing apparatus characterized by having and.
【請求項86】 識別された画像データを処理して、地
表上におけるオブジェクトのフットプリントを判定する
手段は、 第1のカメラの画像データにおける地表平面からモデリ
ング空間の面へのマッピングを規定する変換を第1のカ
メラからの識別された画像データに適用する手段と、 第2のカメラの画像データにおける地表平面からモデリ
ング空間の面へのマッピングを規定する変換を第2のカ
メラからの識別された画像データに適用する手段と、 モデリング空間の面上で変換された画像データを比較す
る手段とを有することを特徴とする請求項85記載の画
像処理装置。
86. The means for processing the identified image data to determine a footprint of the object on the ground comprises: a transformation defining a mapping from a ground plane to a surface of the modeling space in the image data of the first camera. Means for applying the mapping to the identified image data from the first camera; and a transform defining a mapping from a ground plane to a surface in modeling space in the image data of the second camera. 86. The image processing apparatus according to claim 85, further comprising: means for applying to image data; and means for comparing image data converted on a plane of a modeling space.
【請求項87】 モデリング空間の面は、三次元コンピ
ュータモデルにおける地表平面であることを特徴とする
請求項86記載の画像処理装置。
87. The image processing apparatus according to claim 86, wherein the surface of the modeling space is a ground plane in a three-dimensional computer model.
【請求項88】 モデリング空間の面における変換され
た画像データの整列部分及び非整列部分に従って地表上
の画像の輪郭を判定するように構成されることを特徴と
する請求項86又は87記載の画像処理装置。
88. An image according to claim 86 or 87, characterized in that the contour of the image on the ground is determined according to the aligned and non-aligned parts of the transformed image data in the plane of the modeling space. Processing equipment.
【請求項89】 オブジェクトのモデルを規定する手段
は、複数の平坦な垂直面を使用してモデルを規定する手
段を有することを特徴とする請求項85乃至請求項88
の何れかに記載の画像処理装置。
89. The apparatus of claim 85, wherein the means for defining a model of the object comprises means for defining the model using a plurality of flat vertical planes.
The image processing device according to any one of the above.
【請求項90】 平坦な垂直面の基部が地表上のオブジ
ェクトの輪郭とほぼ一致するように平坦な垂直面を規定
するように処理を実行すべく構成されることを特徴とす
る請求項89記載の画像処理装置。
90. The method of claim 89, wherein the processing is performed to define a flat vertical surface such that a base of the flat vertical surface substantially matches the contour of the object on the ground. Image processing device.
【請求項91】 各々の平坦な面は長方形であることを
特徴とする請求項89又は90記載の画像処理装置。
91. An image processing apparatus according to claim 89, wherein each flat surface is rectangular.
【請求項92】 各々の平坦な面が第1のカメラから識
別された画像データ又は第2のカメラから識別された画
像データに従って判定される高さにより規定されるよう
に処理を実行すべく構成されることを特徴とする請求項
89乃至請求項91の何れかに記載の画像処理装置。
92. An arrangement configured to perform processing such that each flat surface is defined by a height determined according to image data identified from the first camera or image data identified from the second camera. The image processing apparatus according to any one of claims 89 to 91, wherein the processing is performed.
【請求項93】 各々の平坦な面の高さが第1のカメラ
又は第2のカメラから識別されたオブジェクトに関連す
る画像データの一部又は全てと外接する長方形に従って
規定されるように処理を実行すべく構成されることを特
徴とする請求項92記載の画像処理装置。
93. Processing is performed such that the height of each flat surface is defined according to a rectangle circumscribing some or all of the image data associated with the object identified from the first camera or the second camera. The image processing apparatus according to claim 92, configured to execute.
【請求項94】 各々の平坦な面は同じ高さを有するよ
うに規定されることを特徴とする請求項92又は93記
載の画像処理装置。
94. An image processing apparatus according to claim 92, wherein each flat surface is defined to have the same height.
【請求項95】 更に、平坦な垂直面の上縁部に従って
オブジェクトのモデルの最上部を生成する手段を有する
ことを特徴とする請求項89乃至請求項94の何れかに
記載の画像処理装置。
95. The image processing apparatus according to claim 89, further comprising means for generating an uppermost part of the model of the object according to an upper edge of the flat vertical plane.
【請求項96】 更に、識別された少なくとも1台のカ
メラからの画像データに基づくテクスチャデータがモデ
ルへとレンダリングされるモデル化オブジェクトの画像
をレンダリングすることにより画像データを生成する手
段を有することを特徴とする請求項85乃至請求項95
の何れかに記載の画像処理装置。
96. The apparatus further comprises means for generating image data by rendering an image of a modeled object in which texture data based on the image data from the identified at least one camera is rendered into a model. Claims 85 to 95
The image processing device according to any one of the above.
【請求項97】 各々の平坦な面が第1のカメラ又は第
2のカメラの画像データへとマッピングされ、且つ各々
のマッピングされた面により包囲される画像データはモ
デル中の平坦な面へレンダリングされるように処理を実
行すべく構成されることを特徴とする請求項96記載の
画像処理装置。
97. Each flat surface is mapped to image data of a first camera or a second camera, and the image data surrounded by each mapped surface is rendered to a flat surface in a model. 97. The image processing apparatus according to claim 96, wherein the image processing apparatus is configured to execute a process so as to be performed.
【請求項98】 更に、生成された画像データを使用し
てオブジェクトの画像を表示する手段を有することを特
徴とする請求項96又は97記載の画像処理装置。
98. The image processing apparatus according to claim 96, further comprising means for displaying an image of the object using the generated image data.
【請求項99】 複数台のカメラからのオブジェクトの
画像を処理することにより三次元コンピュータモデルで
オブジェクトのモデルを生成する画像処理装置におい
て、第1のカメラからの画像データを処理して、オブジ
ェクトに関する画像データを識別し、第2のカメラから
の画像データを使用して、識別された第1のカメラから
の画像データのどの部分に関係するかを判定し、該判定
に従ってコンピュータモデルでオブジェクトを表現する
ように動作可能であることを特徴とする画像処理装置。
99. An image processing apparatus for generating a model of an object by a three-dimensional computer model by processing images of the object from a plurality of cameras. Identifying the image data, using the image data from the second camera to determine which portion of the identified image data from the first camera relates, and representing the object in a computer model according to the determination. An image processing apparatus operable to perform
【請求項100】 プログラム可能処理装置に請求項6
7乃至請求項84の何れかに記載の方法を実行させるた
めの命令を格納する記憶媒体。
100. The programmable processing device according to claim 6,
A storage medium storing instructions for executing the method according to any one of claims 7 to 84.
【請求項101】 プログラム可能処理装置に請求項6
7乃至請求項84の何れかに記載の方法を実行させるた
めの命令を搬送する信号。
101. A programmable processing device comprising:
A signal carrying instructions for performing a method according to any of claims 7 to 84.
【請求項102】 シーンの中で動いている複数のオブ
ジェクトの画像のシーケンスを規定する画像データを処
理して、三次元コンピュータモデルにおけるオブジェク
トの表現を規定する信号を生成し、且つユーザが選択し
た視野方向に応じて三次元コンピュータモデルの画像を
レンダリングすることにより画像データを生成する画像
処理方法において、 画像データを処理して、シーン中の各々のオブジェクト
に関する画像データを識別する工程と、 識別された画像データに従って三次元コンピュータモデ
ルにおける各オブジェクトの表現を規定する工程と、 ユーザが選択した視野方向に応じて三次元コンピュータ
モデルの画像をレンダリングすることにより画像データ
を生成する工程とを有し、 ユーザが選択した視野方向が所定の視野方向範囲の中に
あるときは、識別された画像データに基づくテクスチャ
データをオブジェクト表現へレンダリングし、ユーザが
選択した視野方向が所定の視野方向範囲の中にない場合
には、シーン中のオブジェクトの位置の概略をレンダリ
ングすることを特徴とする画像処理方法。
102. Processing image data defining a sequence of images of a plurality of objects moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model, and selecting a signal selected by a user. An image processing method for generating image data by rendering an image of a three-dimensional computer model according to a viewing direction, wherein the image data is processed to identify image data for each object in a scene. Defining the representation of each object in the three-dimensional computer model according to the image data, and generating image data by rendering an image of the three-dimensional computer model according to the viewing direction selected by the user, The viewing direction selected by the user is the predetermined viewing direction If within the range, render the texture data based on the identified image data into an object representation; if the viewing direction selected by the user is not within the predetermined viewing direction range, the position of the object in the scene An image processing method characterized by rendering an outline of the image processing.
【請求項103】 各オブジェクトの表現は複数の平坦
な垂直面のみから構成されることを特徴とする請求項1
02記載の画像処理方法。
103. The object of claim 1, wherein the representation of each object comprises only a plurality of flat vertical surfaces.
02. The image processing method described in 02.
【請求項104】 各オブジェクトの表現は1つの平坦
な垂直面から構成されることを特徴とする請求項102
記載の画像処理方法。
104. The representation of each object is comprised of one flat vertical plane.
The image processing method described in the above.
【請求項105】 所定の視野方向範囲はコンピュータ
モデルにおける固定された方向に対する範囲であること
を特徴とする請求項102乃至請求項104の何れかに
記載の画像処理方法。
105. The image processing method according to claim 102, wherein the predetermined viewing direction range is a range for a fixed direction in the computer model.
【請求項106】 所定の視野方向範囲はコンピュータ
モデルにおける垂直方向に対する範囲であることを特徴
とする請求項105記載の画像処理方法。
106. The image processing method according to claim 105, wherein the predetermined viewing direction range is a range in a vertical direction in the computer model.
【請求項107】 所定の視野方向範囲はオブジェクト
の表現に対する範囲である請求項102乃至請求項10
4の何れかに記載の画像処理方法。
107. The predetermined range in the viewing direction is a range for expressing an object.
5. The image processing method according to any one of 4.
【請求項108】 オブジェクトの表現は少なくとも1
つの平坦な垂直面から構成され、所定の視野方向範囲は
平坦な面に対する範囲であることを特徴とする請求項1
07記載の画像処理方法。
108. The representation of the object is at least one
2. The method according to claim 1, wherein the predetermined vertical direction range is a range with respect to the flat surface.
07. The image processing method according to item 07.
【請求項109】 所定の視野方向からオブジェクトの
位置の概略をレンダリングすることを特徴とする請求項
102乃至請求項108の何れかに記載の画像処理方
法。
The image processing method according to any one of claims 102 to 108, wherein an approximate position of the object is rendered from a predetermined viewing direction.
【請求項110】 垂直下向きの視野方向から概略をレ
ンダリングすることを特徴とする請求項109記載の画
像処理方法。
110. The image processing method according to claim 109, wherein an outline is rendered from a vertically downward viewing direction.
【請求項111】 更に、画像データを処理して、オブ
ジェクトごとに少なくとも1つの色を判定する工程と、
オブジェクトの位置の概略の上に判定された色を指示す
るために画像データを生成する工程とを有することを特
徴とする請求項102乃至請求項110の何れかに記載
の画像処理方法。
111. Processing the image data to determine at least one color for each object;
120. The image processing method according to claim 102, further comprising the step of: generating image data for indicating the determined color on the outline of the position of the object.
【請求項112】 更に、画像データを搬送する信号を
生成する工程を有することを特徴とする請求項102乃
至請求項111の何れかに記載の画像処理方法。
112. The image processing method according to claim 102, further comprising a step of generating a signal for carrying image data.
【請求項113】 更に、信号を記録する工程を有する
ことを特徴とする請求項112記載の画像処理方法。
113. The image processing method according to claim 112, further comprising the step of recording a signal.
【請求項114】 更に、生成された画像データを使用
してオブジェクトの画像を表示する工程を有することを
特徴とする請求項102乃至請求項113の何れかに記
載の画像処理方法。
114. The image processing method according to claim 102, further comprising the step of displaying an image of an object using the generated image data.
【請求項115】 更に、画像データの記録を直接又は
間接的に作成する工程を有することを特徴とする請求項
102乃至請求項114の何れかに記載の画像処理方
法。
115. The image processing method according to claim 102, further comprising the step of directly or indirectly creating a record of image data.
【請求項116】 オブジェクトに関わる表現と、それ
に関連し、少なくとも1台のカメラにより記録された画
像データから取り出されるテクスチャデータとから構成
される三次元コンピュータモデルの、ユーザが選択した
視野方向に従った画像をレンダリングする画像処理方法
において、 ユーザが選択した視野方向が所定の視野方向範囲の中に
あるとき、ユーザが選択した視野方向に応じてオブジェ
クトの表現へテクスチャデータをレンダリングする工程
と、 ユーザが選択した視野方向が所定の視野方向範囲の中に
ないときには、オブジェクトの位置の概略をレンダリン
グする工程とを有することを特徴とする画像処理方法。
116. A three-dimensional computer model comprising a representation relating to an object and associated texture data extracted from image data recorded by at least one camera, according to a viewing direction selected by a user. An image processing method for rendering the selected image, wherein when the view direction selected by the user is within a predetermined view direction range, rendering texture data to an expression of an object according to the view direction selected by the user; Rendering the outline of the position of the object when the selected viewing direction is not within the predetermined viewing direction range.
【請求項117】 シーンの中の複数のオブジェクトの
三次元コンピュータモデルを規定するオブジェクトデー
タを処理して、オブジェクト及びシーンの画像の画像デ
ータを生成する画像処理方法において、 第1のユーザ入力に応じて、選択された視野方向に応じ
てオブジェクト及びシーンをレンダリングし、 第2のユーザ入力に応じて、シーン中のオブジェクトの
位置が表現される画像に関して画像データをレンダリン
グすることを特徴とする画像処理方法。
117. An image processing method for processing object data defining a three-dimensional computer model of a plurality of objects in a scene to generate image data of an image of the object and the scene, wherein the image processing method is responsive to a first user input. And rendering the object and the scene according to the selected viewing direction, and rendering the image data with respect to an image representing the position of the object in the scene according to a second user input. Method.
【請求項118】 シーンの中で動いている複数のオブ
ジェクトの画像のシーケンスを規定する画像データを処
理して、三次元コンピュータモデルにおけるオブジェク
トの表現を規定する信号を生成し、且つユーザが選択し
た視野方向に応じて三次元コンピュータモデルの画像を
レンダリングすることにより画像データを生成する画像
処理装置において、 画像データを処理して、シーン中の各々のオブジェクト
に関する画像データを識別する手段と、 識別された画像データに従って三次元コンピュータモデ
ルにおける各オブジェクトの表現を規定する手段と、 ユーザが選択した視野方向に応じて三次元コンピュータ
モデルの画像をレンダリングすることにより画像データ
を生成する手段とを有し、 ユーザが選択した視野方向が所定の視野方向範囲の中に
あるとき、識別された画像データに基づくテクスチャデ
ータをオブジェクト表現へレンダリングし、ユーザが選
択した視野方向が所定の視野方向範囲の中にない場合に
は、シーン中のオブジェクトの位置の概略をレンダリン
グするように動作可能であることを特徴とする画像処理
装置。
118. Processing image data defining a sequence of images of a plurality of objects moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model, and selecting a signal selected by a user. An image processing apparatus for generating image data by rendering an image of a three-dimensional computer model according to a direction of view, wherein the image processing unit processes the image data to identify image data relating to each object in the scene. Means for defining the representation of each object in the three-dimensional computer model according to the image data, and means for generating image data by rendering an image of the three-dimensional computer model according to the viewing direction selected by the user, The viewing direction selected by the user is the predetermined viewing direction When within the range, the texture data based on the identified image data is rendered into an object representation, and if the user selected viewing direction is not within the predetermined viewing direction range, the position of the object in the scene is determined. An image processing device operable to render an overview.
【請求項119】 各オブジェクトの表現が複数の平坦
な垂直面のみから構成されるように処理を実行すべく動
作可能であることを特徴とする請求項118記載の画像
処理装置。
119. The image processing apparatus according to claim 118, wherein the image processing apparatus is operable to execute a process such that a representation of each object is composed of only a plurality of flat vertical planes.
【請求項120】 各オブジェクトの表現が1つの平坦
な垂直面から構成されるように処理を実行すべく動作可
能であることを特徴とする請求項118記載の画像処理
装置。
120. The apparatus according to claim 118, operable to perform processing such that a representation of each object is comprised of one flat vertical plane.
【請求項121】 所定の視野方向範囲がコンピュータ
モデルにおける固定された方向に対する範囲であるよう
に処理を実行すべく動作可能であることを特徴とする請
求項118乃至請求項120の何れかに記載の画像処理
装置。
121. An apparatus according to any of claims 118 to 120, operable to execute a process such that the predetermined viewing direction range is a range for a fixed direction in the computer model. Image processing device.
【請求項122】 所定の視野方向範囲がコンピュータ
モデルにおける垂直方向に対する範囲であるように処理
を実行すべく動作可能であることを特徴とする請求項1
21記載の画像処理装置。
122. The apparatus of claim 1 operable to perform the processing such that the predetermined range of the viewing direction is a range for a vertical direction in the computer model.
22. The image processing device according to 21.
【請求項123】 所定の視野方向がオブジェクトの表
現に対する範囲であるように処理を実行すべく動作可能
であることを特徴とする請求項118乃至請求項120
の何れかに記載の画像処理装置。
123. An apparatus according to claims 118 to 120, operable to execute processing such that the predetermined viewing direction is a range for the representation of the object.
The image processing device according to any one of the above.
【請求項124】 オブジェクトの表現が少なくとも1
つの平坦な垂直面から構成され、且つ所定の視野方向範
囲は平坦な面に対する範囲であるように処理を実行すべ
く動作可能であることを特徴とする請求項123記載の
画像処理装置。
124. The representation of the object is at least one
124. The image processing apparatus according to claim 123, wherein the image processing apparatus is constituted by two flat vertical planes, and is operable to execute the processing such that the predetermined viewing direction range is a range for the flat plane.
【請求項125】 オブジェクト位置の概略が所定の視
野方向からレンダリングされるように処理を実行すべく
動作可能であることを特徴とする請求項118乃至請求
項124の何れかに記載の画像処理装置。
125. The image processing apparatus according to claim 118, wherein the image processing apparatus is operable to execute a process so that an outline of the object position is rendered from a predetermined viewing direction. .
【請求項126】 概略が垂直下向きの視野方向からレ
ンダリングされるように処理を実行すべく動作可能であ
ることを特徴とする請求項125記載の画像処理装置。
126. An image processing apparatus according to claim 125, operable to perform processing such that the outline is rendered from a vertically downward viewing direction.
【請求項127】 更に、画像データを処理して、オブ
ジェクトごとに少なくとも1つの色を判定する手段と、
オブジェクト位置の概略の上に判定された色を指示する
ために画像データを生成する手段とを有することを特徴
とする請求項118乃至請求項126の何れかに記載の
画像処理装置。
127. A means for processing the image data to determine at least one color for each object;
The image processing apparatus according to any one of claims 118 to 126, further comprising: means for generating image data for indicating the determined color on the outline of the object position.
【請求項128】 更に、生成された画像データを使用
してオブジェクトの画像を表示する手段を有することを
特徴とする請求項118乃至請求項127の何れかに記
載の画像処理装置。
The image processing apparatus according to any one of claims 118 to 127, further comprising means for displaying an image of the object using the generated image data.
【請求項129】 オブジェクトに関わる表現と、それ
に関連し、少なくとも1台のカメラにより記録された画
像データから取り出されるテクスチャデータとから構成
される三次元コンピュータモデルの、ユーザが選択した
視野方向に従った画像をレンダリングする画像処理装置
において、 ユーザが選択した視野方向が所定の視野方向範囲の中に
あるとき、ユーザが選択した視野方向に応じてオブジェ
クトの表現へテクスチャデータをレンダリングする手段
と、 ユーザが選択した視野方向が所定の視野方向範囲の中に
ない場合には、オブジェクトの位置の概略をレンダリン
グする手段とを有することを特徴とする画像処理装置。
129. A three-dimensional computer model comprising a representation relating to an object and associated texture data extracted from image data recorded by at least one camera, according to a viewing direction selected by a user. Means for rendering texture data to an object representation in accordance with the viewing direction selected by the user when the viewing direction selected by the user is within a predetermined viewing direction range. Means for rendering an outline of the position of the object when the selected viewing direction is not within a predetermined viewing direction range.
【請求項130】 シーンの中の複数のオブジェクトの
三次元コンピュータモデルを規定するオブジェクトデー
タを処理して、第1及び第2の技法を使用してオブジェ
クトの画像に関する画像データを生成するように動作可
能である画像処理装置において、 第1の技法で、ある視野方向に応じてオブジェクト及び
シーンをレンダリングし、 第2の技法で、シーン中のオブジェクトの位置が表現さ
れる概略画像に関して画像データをレンダリングするこ
とを特徴とする画像処理装置。
130. Operate to process object data defining a three-dimensional computer model of a plurality of objects in a scene to generate image data for an image of the object using first and second techniques. In a possible image processing device, a first technique renders objects and scenes according to certain viewing directions, and a second technique renders image data with respect to a schematic image in which the positions of the objects in the scene are represented. An image processing apparatus comprising:
【請求項131】 プログラム可能処理装置に請求項1
02乃至請求項117の何れかに記載の方法を実行させ
るための命令を格納する記憶媒体。
131. The programmable processing device according to claim 1,
A storage medium storing instructions for executing the method according to any one of claims 02 to 117.
【請求項132】 プログラム可能処理装置に請求項1
02乃至請求項117の何れかに記載の方法を実行させ
るための命令を搬送する信号。
132. A programmable processing device comprising:
118. A signal carrying instructions for performing a method according to any of claims 02 to 117.
【請求項133】 シーンの中で動いているオブジェク
トの、それぞれのカメラから得られる複数の画像のシー
ケンスを規定する画像データを処理して、三次元コンピ
ュータモデルにおけるオブジェクトの表現を規定する信
号を生成する画像処理方法において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する工程と、 識別された第1のカメラからの画像データ及び識別され
た第2のカメラからの画像データを処理して、識別され
た第1のカメラからの画像データの特徴点を識別された
第2のカメラからの画像データの特徴点と照合し、且つ
一致した特徴点が位置している平坦な面を識別すること
により、オブジェクト上の点が位置している平坦な面を
識別する工程と、 識別された平坦な面に従って三次元コンピュータモデル
でオブジェクトのモデルを規定する工程とを有すること
を特徴とする画像処理方法。
133. Processing image data defining a sequence of a plurality of images obtained from respective cameras of an object moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model. An image processing method for processing image data from a first camera to identify image data for an object in a scene; and processing image data from a second camera for processing an image data for an object in a scene. Identifying the image data; and processing the identified image data from the first camera and the identified image data from the second camera to obtain feature points of the identified image data from the first camera. Is compared with the feature point of the image data from the identified second camera, and the flat surface on which the matched feature point is located Identifying a flat surface on which a point on the object is located, and defining a model of the object with a three-dimensional computer model according to the identified flat surface. Image processing method.
【請求項134】 識別された第1のカメラからの画像
データの頂点を識別された第2のカメラからの画像デー
タの頂点と照合することを特徴とする請求項133記載
の画像処理方法。
134. The image processing method according to claim 133, wherein the vertex of the image data from the identified first camera is compared with the vertex of the image data from the identified second camera.
【請求項135】 平坦な面は、一致した特徴点が位置
している平面を識別し、且つ1以上の平面に位置してい
る一致した特徴点の境界を判定することにより識別され
ることを特徴とする請求項133又は134記載の画像
処理方法。
135. A flat surface is identified by identifying the plane on which the matched feature points are located and determining the boundaries of the matched feature points located on one or more planes. 135. The image processing method according to claim 133 or 134.
【請求項136】 各平面は、識別された第1のカメラ
からの画像データの少なくとも所定の数の特徴点が位置
している平面を識別し、識別された第2のカメラからの
画像データの一致した特徴点が位置している平面を識別
し、第1のカメラからの画像データの平面と第2のカメ
ラからの画像データの平面との変換を計算し、他の複数
対の一致した特徴点を使用して変換をテストすることに
より識別されることを特徴とする請求項135記載の画
像処理方法。
136. Each plane identifies a plane on which at least a predetermined number of feature points of the identified image data from the first camera is located, and the image data from the identified second camera is identified. Identify the plane on which the matched feature points are located, calculate the transformation between the plane of the image data from the first camera and the plane of the image data from the second camera, and calculate other pairs of matched features. 136. The method of claim 135, wherein the points are identified by testing the transformation using points.
【請求項137】 所定の数は4であることを特徴とす
る請求項136記載の画像処理方法。
137. The image processing method according to claim 136, wherein the predetermined number is four.
【請求項138】 オブジェクトのモデルを規定する工
程は、三次元コンピュータモデルで平坦な面のモデルを
形成する工程を有し、モデル中の各々の平坦な面は少な
くとも1台のカメラからの画像データで識別された平坦
な面に対応することを特徴とする請求項133乃至請求
項137の何れかに記載の画像処理方法。
138. The step of defining a model of the object comprises forming a model of a flat surface with a three-dimensional computer model, wherein each flat surface in the model comprises image data from at least one camera. The image processing method according to any one of claims 133 to 137, wherein the image processing method corresponds to a flat surface identified by:
【請求項139】 オブジェクトのモデルを規定する工
程は、カメラの画像データの中の地表と接する平坦な面
を識別し、地表に接する識別された平坦な面に従って三
次元コンピュータモデルで平坦な垂直面を規定し、三次
元コンピュータモデルの平坦な面と画像データとが同じ
縦横比を有するように、カメラの画像データの他の平坦
な面ごとに三次元コンピュータモデルで別の平坦な面を
規定する工程を有することを特徴とする請求項138記
載の画像処理方法。
139. The step of defining a model of the object includes identifying a flat surface in contact with the ground surface in the image data of the camera, and a flat vertical surface in the three-dimensional computer model according to the identified flat surface in contact with the ground surface. And defining another flat surface in the three-dimensional computer model for each other flat surface of the camera image data, such that the flat surface of the three-dimensional computer model and the image data have the same aspect ratio. 139. The image processing method according to claim 138, further comprising a step.
【請求項140】 所定のカメラの画像データの中の地
表に接する平坦な面は、 第1のカメラの画像データにおける地表平面からモデリ
ング空間の面へのマッピングを規定する変換を第1のカ
メラからの画像データにおける平坦な面の基部頂点に適
用し、 第2のカメラの画像データにおける地表平面からモデリ
ング空間の面へのマッピングを規定する変換を第2のカ
メラからの画像データにおける平坦な面の基部頂点に適
用し、 変換された頂点を比較して、どの頂点が互いの所定距離
の中に位置しているかを判定することにより識別される
ことを特徴とする請求項139記載の画像処理方法。
140. A plane that is in contact with the ground in the image data of the predetermined camera is converted from a ground plane to a surface of the modeling space in the image data of the first camera by a conversion from the first camera. A transformation that defines the mapping from the ground plane to the surface of the modeling space in the image data of the second camera by applying to the base vertex of the flat surface in the image data of the second camera. 139. The image processing method of claim 139, wherein the method is applied to a base vertex and is identified by comparing the transformed vertices to determine which vertices are within a predetermined distance of each other. .
【請求項141】 モデリング空間の面は三次元コンピ
ュータモデルにおける地表平面であることを特徴とする
請求項140記載の画像処理方法。
141. The image processing method according to claim 140, wherein the surface of the modeling space is a ground plane in a three-dimensional computer model.
【請求項142】 三次元コンピュータモデルで規定さ
れる平坦な垂直面は、他方のカメラからの対応する変換
後の頂点から所定の距離の中に位置している所定のカメ
ラからの変換後の頂点により規定される基部と、変換後
の頂点が属している所定のカメラの画像データにおける
平坦な面の縦横比に対応する縦横比により規定されるこ
とを特徴とする請求項141記載の画像処理方法。
142. A flat vertical surface defined by the three-dimensional computer model is a converted vertex from a given camera located a predetermined distance from a corresponding converted vertex from the other camera. 142. The image processing method according to claim 141, wherein the image data is defined by an aspect ratio corresponding to an aspect ratio of a flat surface in image data of a predetermined camera to which a vertex after conversion belongs and a base defined by: .
【請求項143】 更に、識別された少なくとも1台の
カメラからの画像データに基づくテクスチャデータがモ
デルへとレンダリングされるモデル化オブジェクトの画
像をレンダリングすることにより画像データを生成する
工程を有することを特徴とする請求項133乃至請求項
142の何れかに記載の画像処理方法。
143. The method further comprising generating image data by rendering an image of a modeled object, wherein texture data based on the image data from the identified at least one camera is rendered into a model. The image processing method according to any one of claims 133 to 142.
【請求項144】 各々の平坦な面により包囲された画
像データをオブジェクトモデルの対応する平坦な面へレ
ンダリングすることを特徴とする請求項143記載の画
像処理方法。
144. The image processing method according to claim 143, wherein image data surrounded by each flat surface is rendered on a corresponding flat surface of the object model.
【請求項145】 更に、画像データを搬送する信号を
生成する工程を有することを特徴とする請求項143又
は144記載の画像処理方法。
145. The image processing method according to claim 143, further comprising the step of generating a signal for carrying image data.
【請求項146】 更に、信号を記録する工程を有する
ことを特徴とする請求項145記載の画像処理方法。
146. The image processing method according to claim 145, further comprising the step of recording a signal.
【請求項147】 更に、生成された画像データを使用
してオブジェクトの画像を表示する工程を有することを
特徴とする請求項143乃至請求項146の何れかに記
載の画像処理方法。
147. The image processing method according to claim 143, further comprising the step of displaying an image of the object using the generated image data.
【請求項148】 更に、画像データの記録を直接又は
間接的に作成する工程を有することを特徴とする請求項
143乃至請求項147の何れかに記載の画像処理方
法。
148. The image processing method according to claim 143, further comprising a step of directly or indirectly creating a record of image data.
【請求項149】 複数台のカメラからのオブジェクト
の画像を処理することにより三次元コンピュータモデル
でオブジェクトのモデルを生成する画像処理方法におい
て、第1のカメラ及び第2のカメラからの画像データを
処理して、第1のカメラからの画像データの特徴点を第
2のカメラからの画像データの特徴点と照合し、該結果
としての一致を使用して、オブジェクトを構成している
平坦な面を判定し、該判断に従ってコンピュータモデル
でオブジェクトを表現することを特徴とする画像処理方
法。
149. An image processing method for generating a model of an object by a three-dimensional computer model by processing images of the object from a plurality of cameras, wherein image data from the first camera and the second camera are processed. Then, the feature points of the image data from the first camera are compared with the feature points of the image data from the second camera, and using the resulting match, the flat surface forming the object is identified. An image processing method comprising: judging and expressing an object by a computer model according to the judgment.
【請求項150】 シーンの中で動いているオブジェク
トの、それぞれのカメラから得られる複数の画像のシー
ケンスを規定する画像データを処理して、三次元コンピ
ュータモデルにおけるオブジェクトの表現を規定する信
号を生成する画像処理装置において、 第1のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 第2のカメラからの画像データを処理して、シーン中の
オブジェクトに関する画像データを識別する手段と、 識別された第1のカメラからの画像データ及び識別され
た第2のカメラからの画像データを処理して、オブジェ
クト上の点が位置している平坦な面を識別する手段であ
って、識別された第1のカメラからの画像データの中の
特徴点を識別された第2のカメラからの画像データの中
の特徴点と照合する手段と、一致した特徴点が位置して
いる平坦な面を識別する手段とを含む手段と、 識別された平坦な面に従って三次元コンピュータモデル
でオブジェクトのモデルを規定する手段とを有すること
を特徴とする画像処理装置。
150. Processing image data defining a sequence of a plurality of images obtained from respective cameras of an object moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model. Means for processing image data from a first camera to identify image data relating to an object in a scene; and processing image data from a second camera to process image data relating to an object in a scene. Means for identifying image data; and processing of the identified image data from the first camera and the identified image data from the second camera to identify a flat surface on which a point on the object is located. Means for identifying feature points in image data from the identified first camera from the identified second camera. Means for matching feature points in the image data; means for identifying a flat surface on which the matched feature points are located; An image processing apparatus comprising: means for defining
【請求項151】 識別された第1のカメラからの画像
データの頂点が識別された第2のカメラからの画像デー
タの頂点と照合されるように処理を実行すべく動作可能
であることを特徴とする請求項150記載の画像処理装
置。
151. An apparatus operable to perform processing such that a vertex of image data from the identified first camera is matched with a vertex of image data from the identified second camera. The image processing apparatus according to claim 150, wherein:
【請求項152】 一致した特徴点が位置している平面
を識別し、1以上の平面に位置している一致した特徴点
を使用して平面の境界を判定することにより、平坦な面
を識別するように処理を実行すべく動作可能であること
を特徴とする請求項150又は151記載の画像処理装
置。
152. A flat surface is identified by identifying the plane on which the matched feature points are located and determining the boundaries of the planes using the matched feature points located on one or more planes. The image processing apparatus according to claim 150, wherein the image processing apparatus is operable to execute a process to perform the processing.
【請求項153】 識別された第1のカメラからの画像
データの中の少なくとも所定の数の特徴点が位置してい
る平面を識別し、識別された第2のカメラからの画像デ
ータの中の一致した特徴点が位置している平面を識別
し、第1のカメラからの画像データにおける平面と、第
2のカメラからの画像データにおける平面との変換を計
算し、他の一致した複数対の特徴点を使用して変換をテ
ストすることにより、各々の平面を識別するように処理
を実行すべく動作可能であることを特徴とする請求項1
52記載の画像処理装置。
153. A plane on which at least a predetermined number of feature points are located in the image data from the identified first camera, and a plane in the image data from the identified second camera is identified. Identify the plane on which the matched feature points are located, calculate the transformation between the plane in the image data from the first camera and the plane in the image data from the second camera, and calculate the other matched pairs. The method of claim 1 operable to perform a process to identify each plane by testing the transformation using the feature points.
52. The image processing device according to 52.
【請求項154】 所定の数は4であることを特徴とす
る請求項153記載の画像処理装置。
154. The image processing apparatus according to claim 153, wherein the predetermined number is four.
【請求項155】 オブジェクトのモデルを規定する手
段は、三次元コンピュータモデルで平坦な面のモデルを
形成する手段を有し、モデル中の各々の平坦な面は少な
くとも1台のカメラからの画像データで識別された平坦
な面に対応することを特徴とする請求項150乃至請求
項154の何れかに記載の画像処理装置。
155. The means for defining a model of the object comprises means for forming a model of a flat surface in a three-dimensional computer model, wherein each flat surface in the model comprises image data from at least one camera. The image processing apparatus according to any one of claims 150 to 154, wherein the image processing apparatus corresponds to a flat surface identified by:
【請求項156】 オブジェクトのモデルを規定する手
段は、カメラの画像データの中の地表に接する平坦な面
を識別する手段と、地表に接する識別された平坦な面に
従って三次元コンピュータモデルで平坦な垂直面を規定
する手段と、三次元コンピュータモデルにおける平坦な
面と画像データとが同じ縦横比を有するように、カメラ
の画像データにおける別の平坦な面ごとに三次元コンピ
ュータモデルで別の平坦な面を規定する手段とを有する
ことを特徴とする請求項155記載の画像処理装置。
156. The means for defining a model of the object comprises: means for identifying a flat surface in contact with the ground in camera image data; and means for flattening the three-dimensional computer model in accordance with the identified flat surface in contact with the ground. Means for defining a vertical plane and another flat surface in the three-dimensional computer model for each other flat surface in the camera image data such that the flat surface and the image data in the three-dimensional computer model have the same aspect ratio. 155. The image processing apparatus according to claim 155, further comprising: means for defining a surface.
【請求項157】 所定のカメラの画像データの中の地
表に接する平坦な面は、 第1のカメラの画像データにおける地表平面からモデリ
ング空間における面へのマッピングを規定する変換を第
1のカメラからの画像データにおける平坦な面の基部頂
点に適用し、 第2のカメラの画像データにおける地表平面からモデリ
ング空間における面へのマッピングを規定する変換を第
2のカメラからの画像データにおける平坦な面の基部頂
点に適用し、 変換された頂点を比較して、どの頂点が互いに所定の距
離の中に入っているかを判定することにより識別される
ように処理を実行すべく動作可能であることを特徴とす
る請求項156記載の画像処理装置。
157. A flat surface in contact with the ground surface in the image data of the predetermined camera is converted from a ground plane in the image data of the first camera to a surface in the modeling space by a conversion from the first camera. A transformation that defines the mapping from the ground plane to the surface in modeling space in the image data of the second camera by applying to the base vertex of the flat surface in the image data of Applying to the base vertex, operable to perform the processing as identified by comparing the transformed vertices and determining which vertices are within a predetermined distance of each other. 157. The image processing apparatus according to claim 156, wherein
【請求項158】 モデリング空間における面は三次元
コンピュータモデルにおける地表平面であることを特徴
とする請求項157記載の画像処理装置。
158. The image processing device according to claim 157, wherein the surface in the modeling space is a ground plane in a three-dimensional computer model.
【請求項159】 三次元コンピュータモデルで規定さ
れる平坦な垂直面は、他方のカメラからの対応する変換
後の頂点から所定の距離の中に位置している所定のカメ
ラからの変換後の頂点により規定される基部と、変換後
の頂点が属している所定のカメラの画像データにおける
平坦な面の縦横比に対応する縦横比により規定されるよ
うに処理を実行すべく動作可能であることを特徴とする
請求項158記載の画像処理装置。
159. The flat vertical plane defined by the three-dimensional computer model is a transformed vertex from a given camera located within a given distance from a corresponding transformed vertex from the other camera. , And that the vertices are operable to perform processing as defined by the aspect ratio corresponding to the aspect ratio of the flat surface in the image data of the predetermined camera to which the transformed vertex belongs. 158. The image processing apparatus according to claim 158, wherein
【請求項160】 更に、識別された少なくとも1台の
カメラからの画像データに基づくテクスチャデータがモ
デルへとレンダリングされるモデル化オブジェクトの画
像をレンダリングすることにより画像データを生成する
手段を有することを特徴とする請求項150乃至請求項
159の何れかに記載の画像処理装置。
160. The apparatus further comprises means for generating image data by rendering an image of a modeled object wherein texture data based on the image data from the at least one identified camera is rendered into a model. 160. The image processing device according to claim 150, wherein:
【請求項161】 各々の平坦な面により包囲される画
像データがオブジェクトモデルの対応する平坦な面へレ
ンダリングされるように処理を実行すべく動作可能であ
ることを特徴とする請求項160記載の画像処理装置。
161. The apparatus of claim 160, operable to perform processing such that image data surrounded by each flat surface is rendered to a corresponding flat surface of the object model. Image processing device.
【請求項162】 更に、生成された画像データを使用
してオブジェクトの画像を表示する手段を有することを
特徴とする請求項160又は161記載の画像処理装
置。
162. The image processing apparatus according to claim 160, further comprising means for displaying an image of the object using the generated image data.
【請求項163】 複数台のカメラからのオブジェクト
の画像を処理することにより三次元コンピュータモデル
でオブジェクトのモデルを生成する画像処理装置におい
て、第1のカメラ及び第2のカメラからの画像データを
処理して、第1のカメラからの画像データにおける特徴
点を第2のカメラからの画像データにおける特徴点と照
合し、該結果としての整合を使用して、オブジェクトを
構成する平坦な面を判定し、且つ該判定に従ってコンピ
ュータモデルでオブジェクトを表現するように動作可能
であることを特徴とする画像処理装置。
163. An image processing apparatus for generating an object model by a three-dimensional computer model by processing images of an object from a plurality of cameras, wherein the image data from the first camera and the second camera is processed. Then, the feature points in the image data from the first camera are compared with the feature points in the image data from the second camera, and the resulting matching is used to determine a flat surface constituting the object. An image processing apparatus operable to represent an object by a computer model according to the determination.
【請求項164】 プログラム可能処理装置に請求項1
33乃至請求項149の何れかに記載の方法を実行させ
るための命令を格納する記憶媒体。
164. A programmable processing device comprising:
150. A storage medium storing instructions for executing the method according to any one of claims 33 to 149.
【請求項165】 プログラム可能処理装置に請求項1
33乃至請求項149の何れかに記載の方法を実行させ
るための命令を搬送する信号。
165. The programmable processor according to claim 1,
150. A signal carrying instructions for performing a method according to any of claims 33 to 149.
【請求項166】 シーンの中で動いている少なくとも
1つのオブジェクトの画像のシーケンスを規定する画像
データを処理して、三次元コンピュータモデルにおける
各オブジェクトの表現を規定する信号を生成し、且つユ
ーザが選択した視野方向に応じて三次元コンピュータモ
デルの画像をレンダリングすることにより画像データを
生成する画像処理方法において、 画像データを処理して、シーン中の各々のオブジェクト
に関する画像データを識別する工程と、 識別された画像データに従って三次元コンピュータモデ
ルにおける各オブジェクトの表現を規定する工程と、 識別された画像データに基づくテクスチャデータがオブ
ジェクト表現へレンダリングされるようにユーザが選択
した視野方向に応じて三次元コンピュータモデルの画像
をレンダリングすることにより画像データを生成する工
程と、 ユーザが選択した視野方向に応じて判定される画像デー
タの画質を示す画像データの画質情報を生成する工程と
を有することを特徴とする画像処理方法。
166. Processing image data defining a sequence of images of at least one object moving in the scene to generate signals defining a representation of each object in the three-dimensional computer model, and An image processing method for generating image data by rendering an image of a three-dimensional computer model according to a selected viewing direction, wherein the image data is processed to identify image data for each object in a scene; Defining a representation of each object in the three-dimensional computer model according to the identified image data; and three-dimensionally in response to a viewing direction selected by a user such that texture data based on the identified image data is rendered into the object representation. Computer model images An image processing method comprising the steps of: generating image data by rendering; and generating image quality information of image data indicating image quality of image data determined according to a viewing direction selected by a user. .
【請求項167】 画像データの画質情報を生成する工
程は、ユーザが選択した視野方向と、入力画像データを
記録したときの視野方向とが成す角度に従って画像デー
タの信頼性を示す情報を生成する工程を含むことを特徴
とする請求項166記載の画像処理方法。
167. The step of generating image quality information of image data generates information indicating reliability of image data according to an angle formed between a viewing direction selected by a user and a viewing direction when input image data is recorded. 166. The image processing method according to claim 166, comprising a step.
【請求項168】 信頼性を示す情報は、画質と、ユー
ザが選択した視野方向と入力画像データを記録したとき
の視野方向との角度差との直線的関係に従って生成され
ることを特徴とする請求項167記載の画像処理方法。
168. The information indicating reliability is generated according to a linear relationship between an image quality and an angle difference between a viewing direction selected by a user and a viewing direction when input image data is recorded. The image processing method according to claim 167.
【請求項169】 更に、生成される信頼性を向上させ
るために、視野方向をいかにして変更するかを指示する
情報を生成する工程を有することを特徴とする請求項1
67又は168記載の画像処理方法。
169. The method according to claim 1, further comprising the step of generating information for instructing how to change the viewing direction in order to improve the reliability of the generated information.
67. The image processing method according to 67 or 168.
【請求項170】 第1のカメラにより記録される画像
のシーケンス及び第2のカメラにより記録される画像の
シーケンスに関わる画像データを、 画像データを処理する工程で、シーン中の各々のオブジ
ェクトに関連する第1のカメラからの画像データを識別
すると共に、シーン中の各々のオブジェクトに関連する
第2のカメラからの画像データを識別し、 各オブジェクトの表現を規定する工程で、識別された第
1のカメラからの画像データに従って各オブジェクトの
第1の表現を規定すると共に、識別された第2のカメラ
からの画像データに従って各オブジェクトの第2の表現
を規定し、 画像データを生成する工程で、識別された少なくとも1
台のカメラからの画像データに基づくテクスチャデータ
をオブジェクト表現へとレンダリングするようにして処
理することを特徴とする請求項166乃至請求項169
の何れかに記載の画像処理方法。
170. Image data relating to a sequence of images recorded by the first camera and a sequence of images recorded by the second camera is associated with each object in the scene by processing the image data. Identifying image data from a second camera associated with each object in the scene, and defining a representation of each object, as well as identifying image data from the first camera. Defining a first representation of each object according to image data from the second camera, and defining a second representation of each object according to image data from the identified second camera, generating image data; At least one identified
166. The image processing apparatus according to claim 166, wherein texture data based on image data from one camera is rendered into an object representation.
The image processing method according to any one of the above.
【請求項171】 各オブジェクトの表現を規定する工
程では、各オブジェクトを平坦な面として表現すること
を特徴とする請求項166乃至請求項170の何れかに
記載の画像処理方法。
171. The image processing method according to claim 166, wherein in the step of defining the expression of each object, each object is expressed as a flat surface.
【請求項172】 画質情報は生成される画像データの
中の画素データとして生成されることを特徴とする請求
項166乃至請求項171の何れかに記載の画像処理方
法。
172. The image processing method according to claim 166, wherein the image quality information is generated as pixel data in the generated image data.
【請求項173】 更に、画像データ及び画質情報を搬
送する信号を生成する工程を有することを特徴とする請
求項166乃至請求項172の何れかに記載の画像処理
方法。
173. The image processing method according to any one of claims 166 to 172, further comprising the step of generating a signal carrying image data and image quality information.
【請求項174】 更に、信号を記録する工程を有する
ことを特徴とする請求項173記載の画像処理方法。
174. The image processing method according to claim 173, further comprising the step of recording a signal.
【請求項175】 更に、生成された画像データを使用
して画像を表示し、且つ画質情報を表示する工程を有す
ることを特徴とする請求項166乃至請求項174の何
れかに記載の画像処理方法。
175. The image processing according to any one of claims 166 to 174, further comprising a step of displaying an image using the generated image data and displaying image quality information. Method.
【請求項176】 更に、画像データ及び画質情報の記
録を直接又は間接的に作成する工程を有することを特徴
とする請求項166乃至請求項175の何れかに記載の
画像処理方法。
176. The image processing method according to claim 166, further comprising a step of directly or indirectly creating a record of image data and image quality information.
【請求項177】 少なくとも1つのオブジェクトに関
わる表現と、それに関連し、少なくとも1台のカメラに
より記録される画像データから取り出されるテクスチャ
データとから構成される三次元コンピュータモデルの、
ユーザが選択した視野方向に従った画像をレンダリング
する画像処理方法において、 テクスチャデータが書く表現へレンダリングされるよう
に、ユーザが選択した視野方向に応じて三次元コンピュ
ータモデルの画像をレンダリングすることにより画像デ
ータを生成する工程と、 ユーザが選択した視野方向に応じて判定される画像デー
タの画質を示す画像データの画質情報を生成する工程と
を有することを特徴とする画像処理方法。
177. A three-dimensional computer model comprising a representation relating to at least one object and associated texture data derived from image data recorded by at least one camera.
In an image processing method for rendering an image according to a view direction selected by a user, by rendering an image of a three-dimensional computer model according to the view direction selected by the user, such that the texture data is rendered to a representation to be written. An image processing method, comprising: generating image data; and generating image quality information of image data indicating image quality of image data determined according to a viewing direction selected by a user.
【請求項178】 シーンの中の少なくとも1つのオブ
ジェクトの三次元コンピュータモデルを規定するオブジ
ェクトデータをカメラにより記録される画像データを使
用して、ユーザが選択した視野方向に応じてレンダリン
グして、各オブジェクトをレンダリングし、且つユーザ
に対し出力するために、生成された画像データの質を表
す標識を生成することを特徴とする画像処理方法。
178. Object data defining a three-dimensional computer model of at least one object in the scene is rendered according to a user-selected viewing direction using image data recorded by the camera. An image processing method, comprising: generating an indicator indicating the quality of generated image data for rendering an object and outputting the object to a user.
【請求項179】 シーンの中で動いている少なくとも
1つのオブジェクトの画像のシーケンスを規定する画像
データを処理して、三次元コンピュータモデルにおける
各オブジェクトの表現を規定する信号を生成し、且つユ
ーザが選択した視野方向に応じて三次元コンピュータモ
デルの画像をレンダリングすることにより画像データを
生成する画像処理装置において、 画像データを処理して、シーン中の各々のオブジェクト
に関する画像データを識別する手段と、 識別された画像データに従って三次元コンピュータモデ
ルにおける各オブジェクトの表現を規定する手段と、 識別された画像データに基づくテクスチャデータがオブ
ジェクト表現へとレンダリングされるように、ユーザが
選択した視野方向に応じて三次元コンピュータモデルの
画像をレンダリングすることにより画像データを生成す
る手段と、ユーザが選択した視野方向に応じて判定され
る画像データの画質を示す画像データの画質情報を生成
する手段とを有することを特徴とする画像処理装置。
179. Processing image data defining a sequence of images of at least one object moving in the scene to generate signals defining a representation of each object in the three-dimensional computer model, and An image processing apparatus that generates image data by rendering an image of a three-dimensional computer model according to a selected viewing direction, a unit that processes the image data and identifies image data regarding each object in a scene. Means for defining a representation of each object in the three-dimensional computer model according to the identified image data; and, in accordance with a viewing direction selected by the user, such that texture data based on the identified image data is rendered into an object representation. 3D computer model drawing An image, comprising: means for generating image data by rendering an image; and means for generating image data image quality information indicating image quality of the image data determined according to a viewing direction selected by a user. Processing equipment.
【請求項180】 画像の画質情報を生成する手段は、
ユーザが選択した視野方向と、入力画像データを記録し
たときの視野方向とが成す角度に従って画像データの信
頼性を示す情報を生成する手段を有することを特徴とす
る請求項179記載の画像処理装置。
180. A means for generating image quality information of an image,
179. The image processing apparatus according to claim 179, further comprising: means for generating information indicating the reliability of the image data according to an angle formed by the viewing direction selected by the user and the viewing direction when the input image data is recorded. .
【請求項181】 信頼性を示す情報が画質と、ユーザ
が選択した視野方向と入力画像データを記録したときの
視野方向との角度差との直線的関係に従って生成される
ように処理を実行すべく動作可能であることを特徴とす
る請求項180記載の画像処理装置。
181. A process is performed so that information indicating reliability is generated in accordance with a linear relationship between image quality and an angle difference between a viewing direction selected by a user and a viewing direction when input image data is recorded. 181. The image processing apparatus according to claim 180, wherein the apparatus is operable to operate.
【請求項182】 更に、生成される信頼性を向上させ
るために、いかにして視野方向を変更するかを指示する
情報を生成する手段を有することを特徴とする請求項1
80又は181記載の画像処理装置。
182. The apparatus according to claim 1, further comprising means for generating information for instructing how to change the viewing direction in order to improve the generated reliability.
181. The image processing apparatus according to 80 or 181.
【請求項183】 第1のカメラにより記録される画像
のシーケンス及び第2のカメラにより記録される画像の
シーケンスに関わる画像データを処理するように動作可
能であり、 画像データを処理する手段は、シーン中の各々のオブジ
ェクトに関連する第1のカメラからの画像データを識別
し、且つシーン中の各々のオブジェクトに関連する第2
のカメラからの画像データを識別するように動作可能で
あり、 各オブジェクトの表現を規定する手段は、識別された第
1のカメラからの画像データに従って各オブジェクトの
第1の表現を規定し、且つ識別された第2のカメラから
の画像データに従って各オブジェクトの第2の表現を規
定するように動作可能であり、 画像データを生成する手段は、識別された少なくとも1
台のカメラからの画像データに基づくテクスチャデータ
をオブジェクト表現へレンダリングするように動作可能
であることを特徴とする請求項179乃至請求項182
の何れかに記載の画像処理装置。
183. An apparatus operable to process image data associated with a sequence of images recorded by a first camera and a sequence of images recorded by a second camera, wherein the means for processing the image data comprises: Identifying image data from the first camera associated with each object in the scene, and identifying a second image associated with each object in the scene.
Operable to identify image data from the first camera, the means for defining a representation of each object, defining a first representation of each object according to the identified image data from the first camera, and Operable to define a second representation of each object according to image data from the identified second camera, the means for generating image data comprises:
179. The method of claim 179, further comprising operable to render texture data based on image data from one camera into an object representation.
The image processing device according to any one of the above.
【請求項184】 各オブジェクトの表現を規定する手
段は、各オブジェクトを平坦な面として表現するように
構成されることを特徴とする請求項179乃至請求項1
83の何れかに記載の画像処理装置。
184. The method according to claim 179, wherein the means for defining the representation of each object is configured to represent each object as a flat surface.
83. The image processing apparatus according to any one of 83s.
【請求項185】 画質情報が生成される画像データの
中の画素データとして生成されるように処理を実行すべ
く動作可能であることを特徴とする請求項179乃至請
求項184の何れかに記載の画像処理装置。
185. An apparatus according to any of claims 179 to 184, wherein the apparatus is operable to execute processing such that image quality information is generated as pixel data in the generated image data. Image processing device.
【請求項186】 更に、生成される画像データを使用
して画像を表示し、且つ画質情報を表示する手段を有す
ることを特徴とする請求項179乃至請求項185の何
れかに記載の画像処理装置。
186. The image processing apparatus according to any one of claims 179 to 185, further comprising means for displaying an image using the generated image data and displaying image quality information. apparatus.
【請求項187】 少なくとも1つのオブジェクトに関
わる表現と、それに関連し、少なくとも1台のカメラに
より記録される画像データから取り出されるテクスチャ
データとから構成される三次元コンピュータモデルの、
ユーザが選択した視野方向に従った画像をレンダリング
する画像処理装置において、 テクスチャデータが各表現へレンダリングされるよう
に、ユーザが選択した視野方向に応じて三次元コンピュ
ータモデルの画像をレンダリングすることにより、画像
データを生成する手段と、 ユーザが選択した視野方向に応じて判定される画像デー
タの画質を示す画像データの画質情報を生成する手段と
を有することを特徴とする画像処理装置。
187. A three-dimensional computer model comprising a representation relating to at least one object and associated texture data derived from image data recorded by at least one camera.
In an image processing device that renders an image according to a viewing direction selected by a user, by rendering an image of a three-dimensional computer model according to a viewing direction selected by a user, such that texture data is rendered into each expression. An image processing apparatus, comprising: means for generating image data; and means for generating image quality information of image data indicating image quality of image data determined according to a viewing direction selected by a user.
【請求項188】 カメラにより記録される画像データ
を使用して、ユーザが選択した視野方向に応じてシーン
中の少なくとも1つのオブジェクトの三次元コンピュー
タモデルを規定するオブジェクトデータをレンダリング
するように動作可能であり、且つユーザに対し出力する
ために、生成される画像データの画質の標識を生成する
ように動作可能であることを特徴とする画像処理装置。
188. The image data recorded by the camera is operable to render object data defining a three-dimensional computer model of at least one object in the scene according to a viewing direction selected by a user. And an operable to generate an image quality indicator of the generated image data for output to a user.
【請求項189】 プログラム可能処理装置に請求項1
66乃至請求項178の何れかに記載の方法を実行させ
るための命令を格納する記憶媒体。
189. The programmable processing device according to claim 1
178. A storage medium storing instructions for performing the method of any of claims 66-178.
【請求項190】 プログラム可能処理装置に請求項1
66乃至請求項178の何れかに記載の方法を実行させ
るための命令を搬送する信号。
190. A programmable processing device comprising:
178. A signal carrying instructions for performing a method according to any of claims 66 to 178.
【請求項191】 シーンの中で動いている少なくとも
1つのオブジェクトの、それぞれのカメラからの複数の
画像のシーケンスを規定する画像データを処理して、三
次元コンピュータモデルにおける各オブジェクトの表現
を規定する信号を生成し、且つユーザが選択した視野方
向に応じて三次元コンピュータモデルの画像をレンダリ
ングすることにより画像データを生成する画像処理方法
において、 少なくとも1台のカメラからの入力画像データを処理し
て、三次元コンピュータモデルにおける各オブジェクト
の少なくとも1つの表現を規定する工程と、 入力画像データに基づくテクスチャデータが各オブジェ
クトの表現へレンダリングされるように、ユーザが選択
した視野方向に応じて三次元コンピュータモデルの画像
をレンダリングすることにより画像データを生成する工
程とを有し、 レンダリングされる各オブジェクトの表現は、ユーザが
選択した視野方向、カメラそれぞれの視野方向、及び画
像データの画質に影響を及ぼす少なくとも1つのカメラ
特性に従って判定されることを特徴とする画像処理方
法。
191. Image data defining a sequence of multiple images from respective cameras of at least one object moving in a scene to define a representation of each object in a three-dimensional computer model. An image processing method for generating image signals by generating a signal and rendering an image of a three-dimensional computer model according to a viewing direction selected by a user, comprising: processing input image data from at least one camera; Defining at least one representation of each object in the three-dimensional computer model; and a three-dimensional computer according to a viewing direction selected by the user such that texture data based on the input image data is rendered into a representation of each object. Render an image of the model Generating image data, wherein the representation of each object to be rendered is in accordance with a viewing direction selected by the user, a viewing direction of each camera, and at least one camera characteristic that affects image quality of the image data. An image processing method characterized by being determined.
【請求項192】 レンダリングされる各オブジェクト
の表現は、ユーザが選択した視野方向と、カメラそれぞ
れの視野方向と、各々のカメラから画像データを転送す
る方法、各々のカメラの分解能、各々のカメラのシャッ
タ速度、各々のカメラからの画像データの安定性及び各
々のカメラからの画像データがカラーであるか又は白黒
であるかのうち少なくとも1つとに従って判定されるこ
とを特徴とする請求項191記載の画像処理方法。
192. The representation of each object to be rendered includes: a viewing direction selected by the user, a viewing direction of each camera, a method of transferring image data from each camera, a resolution of each camera, and a resolution of each camera. 192. The method of claim 191, wherein the determination is made according to at least one of a shutter speed, stability of image data from each camera, and whether image data from each camera is color or black and white. Image processing method.
【請求項193】 ユーザが選択する視野方向は、オブ
ジェクト表現を規定する工程に先立って入力され、各オ
ブジェクトの表現は、ユーザが選択した視野方向、カメ
ラそれぞれの視野方向、及び画像データの画質に影響を
及ぼす少なくとも1つのカメラ特性に従って選択される
1台のカメラからの画像データを使用して規定されるこ
とを特徴とする請求項191又は192記載の画像処理
方法。
193. The view direction selected by the user is input prior to the step of defining the object representation, and the representation of each object is determined by the view direction selected by the user, the view direction of each camera, and the image quality of the image data. 192. The image processing method according to claim 191 or 192, wherein the image processing method is defined using image data from one camera selected according to at least one camera characteristic to influence.
【請求項194】 第1のカメラからの画像データを処
理して、三次元コンピュータモデルにおける第1の表現
を規定し、第2のカメラからの画像データを処理して、
三次元コンピュータモデルにおける各オブジェクトの第
2の表現を規定し、ユーザが選択した視野方向、第1及
び第2のカメラの視野方向、及び画像データの画質に影
響を及ぼす少なくとも1つのカメラ特性に従ってレンダ
リングするために、第1の表現又は第2の表現を選択す
ることを特徴とする請求項191又は192記載の画像
処理方法。
194. processing the image data from the first camera to define a first representation in the three-dimensional computer model, processing the image data from the second camera,
A second representation of each object in the three-dimensional computer model is defined and rendered according to a user-selected viewing direction, viewing directions of the first and second cameras, and at least one camera characteristic that affects image data image quality. 192. The image processing method according to claim 191 or 192, wherein the first expression or the second expression is selected to perform the operation.
【請求項195】 レンダリングのために各オブジェク
トの表現を判定するために、画質に影響を及ぼす複数の
カメラ特性を考慮することを特徴とする請求項191乃
至請求項194の何れかに記載の画像処理方法。
195. An image according to any of claims 191 to 194, wherein a plurality of camera characteristics affecting image quality are taken into account to determine the representation of each object for rendering. Processing method.
【請求項196】 画質に影響を及ぼすカメラ特性を所
定の順序で考慮し、且つ各々のカメラ特性の値を比較
し、レンダリングすべき表現の判定は、所定のカメラに
ついて所定量を超えて異なっている特性がテストによっ
て識別されたときに実行されることを特徴とする請求項
195記載の画像処理方法。
196. Camera characteristics that affect image quality are considered in a predetermined order, and the values of each camera characteristic are compared, and the determination of an expression to be rendered differs by more than a predetermined amount for a predetermined camera. 195. The image processing method according to claim 195, wherein the method is executed when a certain characteristic is identified by a test.
【請求項197】 更に、画像データを搬送する信号を
生成する工程を有することを特徴とする請求項191乃
至請求項196の何れかに記載の画像処理方法。
197. The image processing method according to any one of claims 191 to 196, further comprising a step of generating a signal for carrying image data.
【請求項198】 更に、信号を記録する工程を有する
ことを特徴とする請求項197記載の画像処理方法。
198. The image processing method according to claim 197, further comprising the step of recording a signal.
【請求項199】 更に、生成された画像データを使用
してオブジェクトの画像を表示する工程を有することを
特徴とする請求項191乃至請求項198の何れかに記
載の画像処理方法。
199. The image processing method according to any one of claims 191 to 198, further comprising the step of displaying an image of the object using the generated image data.
【請求項200】 更に、画像データの記録を直接又は
間接的に作成する工程を有することを特徴とする請求項
191乃至請求項199の何れかに記載の画像処理方
法。
200. The image processing method according to claim 19, further comprising the step of directly or indirectly creating a record of image data.
【請求項201】 それぞれが異なるカメラから得られ
る各々の画像のシーケンスからの画像データを処理し
て、三次元コンピュータモデルにおける少なくとも1つ
のオブジェクトの表現を規定し、且つユーザが選択した
視野方向、各カメラの視野方向及び画像データの画質に
関連する少なくとも1つのカメラパラメータに従ってレ
ンダリングのために各オブジェクトの表現を選択するこ
とを特徴とする画像処理方法。
201. Process image data from each sequence of images, each obtained from a different camera, to define a representation of at least one object in the three-dimensional computer model, and to select a user-selected viewing direction, An image processing method comprising: selecting a representation of each object for rendering according to at least one camera parameter related to a camera viewing direction and image quality of image data.
【請求項202】 三次元コンピュータモデルにおける
少なくとも1つのオブジェクトの画像をレンダリングす
べき方向である、ユーザが選択した視野方向を使用し
て、それぞれが対応するカメラにより記録される複数の
画像を規定する画像データの中から、三次元コンピュー
タモデルにおけるオブジェクトを規定するために使用さ
れるべき画像データを選択し、その選択は、各カメラの
視野方向及び画像データの画質に関連する少なくとも1
つのカメラパラメータと共に、ユーザが選択した視野方
向に応じて実行されることを特徴とする画像処理方法。
202. A plurality of images, each recorded by a corresponding camera, are defined using a user-selected viewing direction that is a direction in which to render an image of at least one object in the three-dimensional computer model. From among the image data, image data to be used to define an object in the three-dimensional computer model is selected, wherein the selection is at least one related to the viewing direction of each camera and the image quality of the image data.
An image processing method characterized by being executed according to a view direction selected by a user together with two camera parameters.
【請求項203】 シーンの中で動いている少なくとも
1つのオブジェクトの、それぞれのカメラから得られる
複数の画像のシーケンスを規定する画像データを処理し
て、三次元コンピュータモデルにおける各オブジェクト
の表現を規定する信号を生成し、且つユーザが選択した
視野方向に応じて三次元コンピュータモデルの画像をレ
ンダリングすることにより画像データを生成する画像処
理装置において、 少なくとも1台のカメラからの入力画像データを処理し
て、三次元コンピュータモデルにおける各オブジェクト
の少なくとも1つの表現を規定する手段と、 入力画像データに基づくテクスチャデータが各オブジェ
クトの表現へとレンダリングされるように、ユーザが選
択した視野方向に応じて三次元コンピュータモデルの画
像をレンダリングすることにより画像データを生成する
手段とを有し、 レンダリングされる各オブジェクトの表現がユーザが選
択した視野方向、カメラそれぞれの視野方向、及び画像
データの画質に影響を及ぼす少なくとも1つのカメラ特
性に従って判定されるように処理を実行すべく動作可能
であることを特徴とする画像処理装置。
203. Process image data defining a sequence of a plurality of images obtained from respective cameras of at least one object moving in the scene to define a representation of each object in a three-dimensional computer model. An image processing apparatus for generating image data by generating a signal to be processed and rendering an image of a three-dimensional computer model according to a viewing direction selected by a user, wherein input image data from at least one camera is processed. Means for defining at least one representation of each object in the three-dimensional computer model; and tertiary according to the viewing direction selected by the user such that texture data based on the input image data is rendered into a representation of each object. Render image of original computer model Means for generating image data by performing image processing, wherein the representation of each object to be rendered influences a view direction selected by a user, a view direction of each camera, and an image quality of the image data. An image processing apparatus operable to execute processing as determined according to the following.
【請求項204】 レンダリングされる各オブジェクト
の表現が、ユーザが選択した視野方向と、カメラそれぞ
れの視野方向と、各々のカメラからの画像データを転送
する方法、各々のカメラの分解能、各々のカメラのシャ
ッタ速度、各々のカメラの画像データの安定性、及び各
々のカメラからの画像データがカラーであるか又は白黒
であるかの少なくとも1つとに従って判定されるように
処理を実行すべく動作可能であることを特徴とする請求
項203記載の画像処理装置。
204. A representation of each object to be rendered is a view direction selected by a user, a view direction of each camera, a method of transferring image data from each camera, a resolution of each camera, each camera. Operable to perform a process such that the image data from each camera is determined in accordance with at least one of a shutter speed, image data stability of each camera, and color or black and white. 203. The image processing apparatus according to claim 203, wherein:
【請求項205】 ユーザが選択する視野方向がオブジ
ェクト表現を規定するのに先立って入力されたとき、1
台のカメラからの画像データを使用して各オブジェクト
の1つの表現が規定され、その1台のカメラは、ユーザ
が選択した視野方向、カメラそれぞれの視野方向、及び
画像データの画質に影響を及ぼす少なくとも1つのカメ
ラ特性に従って選択されるように処理を実行すべく動作
可能であることを特徴とする請求項203又は204記
載の画像処理装置。
205. When the viewing direction selected by the user is input prior to defining the object representation, 1
One representation of each object is defined using the image data from the one camera, the one camera affecting the user-selected viewing direction, the respective viewing directions of the cameras, and the quality of the image data. 210. The image processing apparatus according to claim 203 or 204, operable to perform a process as selected according to at least one camera characteristic.
【請求項206】 第1のカメラからの画像データを処
理して、三次元コンピュータモデルにおける各オブジェ
クトの第1の表現を規定し、第2のカメラからの画像デ
ータを処理して、三次元コンピュータモデルにおける各
オブジェクトの第2の表現を規定し、ユーザが選択した
視野方向、第1及び第2のカメラの視野方向、及び画像
データの画質に影響を及ぼす少なくとも1つのカメラ特
性に従ってレンダリングのために第1の表現又は第2の
表現の何れかを選択するように処理を実行すべく動作可
能であることを特徴とする請求項203又は204記載
の画像処理装置。
206. Process the image data from the first camera to define a first representation of each object in the three-dimensional computer model, process the image data from the second camera, A second representation of each object in the model is defined for rendering according to a user-selected viewing direction, viewing directions of the first and second cameras, and at least one camera characteristic that affects image quality of the image data. The image processing apparatus according to claim 203, wherein the image processing apparatus is operable to execute a process to select either the first expression or the second expression.
【請求項207】 レンダリングのために各オブジェク
トの表現を判定するために、画質に影響を及ぼす複数の
カメラ特性が考慮されるように処理を実行すべく動作可
能であることを特徴とする請求項203乃至請求項20
6の何れかに記載の画像処理装置。
207. The apparatus of claim operable to perform processing such that a plurality of camera characteristics that affect image quality are taken into account to determine a representation of each object for rendering. 203 to claim 20
7. The image processing apparatus according to any one of 6.
【請求項208】 画質に影響を及ぼすカメラ特性を所
定の順序で考慮し、且つ各々のカメラ特性の値を比較
し、レンダリングすべき表現の判定は、所定のカメラに
ついて所定量を超えて異なっている特性が試験によって
識別されたときに実行されるように処理を実行すべく動
作可能であることを特徴とする請求項207記載の画像
処理装置。
208. Camera characteristics that affect image quality are considered in a predetermined order, and the values of each camera characteristic are compared, and the determination of an expression to be rendered differs by more than a predetermined amount for a predetermined camera. 207. The image processing apparatus of claim 207, operable to perform processing to be performed when a characteristic that is present is identified by a test.
【請求項209】 更に、生成された画像データを使用
してオブジェクトの画像を表示する手段を有することを
特徴とする請求項203乃至請求項208の何れかに記
載の画像処理装置。
209. The image processing apparatus according to claim 203, further comprising means for displaying an image of an object using the generated image data.
【請求項210】 それぞれが異なるカメラから得られ
る各々の画像のシーケンスからの画像データを処理し
て、三次元コンピュータモデルにおける少なくとも1つ
のオブジェクトの表現を規定し、且つユーザが選択した
視野方向、各カメラの視野方向及び画像データの画質に
関連する少なくとも1つのカメラパラメータに従ってレ
ンダリングのために各オブジェクトの表現を選択するよ
うに処理を実行すべく動作可能であることを特徴とする
画像処理装置。
210. Processing image data from each sequence of images, each obtained from a different camera, to define a representation of at least one object in the three-dimensional computer model, and to select a user-selected viewing direction, An image processing apparatus operable to perform processing to select a representation of each object for rendering according to at least one camera parameter related to a camera viewing direction and image quality of image data.
【請求項211】 三次元コンピュータモデルにおける
少なくとも1つのオブジェクトの画像をレンダリングす
べき方向である、ユーザが選択した視野方向を使用し
て、それぞれ1台のカメラにより記録されるオブジェク
トの複数の画像を規定する画像データの中から、三次元
コンピュータモデルにおけるオブジェクトを規定するた
めに使用されるべき画像データを選択し、その選択は、
各カメラの視野方向及び画像データの画質に関連する少
なくとも1つのカメラパラメータと共に、ユーザが選択
した視野方向に応じて実行されるように動作可能である
ことを特徴とする画像処理装置。
211. A plurality of images of an object, each recorded by a single camera, using a user-selected viewing direction that is a direction in which to render an image of at least one object in a three-dimensional computer model. From the defining image data, select the image data to be used to define the object in the three-dimensional computer model, the selection comprising:
An image processing apparatus operable to be executed according to a view direction selected by a user, together with at least one camera parameter related to a view direction of each camera and image quality of image data.
【請求項212】 プログラム可能処理装置に請求項1
91乃至請求項202の何れかに記載の方法を実行させ
るための命令を格納する記憶媒体。
212. A programmable processing device comprising:
A storage medium storing instructions for executing the method according to any one of claims 91 to 202.
【請求項213】 プログラム可能処理装置に請求項1
91乃至請求項202の何れかに記載の方法を実行させ
るための命令を搬送する信号。
213. The programmable processing device according to claim 1,
A signal carrying instructions for performing a method according to any of claims 91 to 202.
【請求項214】 シーンの中で動いているオブジェク
トの、それぞれのカメラから得られる複数の画像シーケ
ンスを規定する画像データを処理して、三次元コンピュ
ータモデルにおけるオブジェクトの表現を規定する信号
を生成し、且つ第1及び第2のユーザが選択した視野方
向に応じて三次元コンピュータモデルの画像をレンダリ
ングすることにより、オブジェクトの画像のシーケンス
の中の第1及び第2の画像に関わる画像データを生成す
る画像処理方法において、 画像データを処理して、三次元コンピュータモデルにお
けるオブジェクトの少なくとも1つの表現を規定する工
程と、 第1のユーザ選択視野方向に応じて少なくとも第1のカ
メラからの画像データに基づくテクスチャデータをオブ
ジェクトの表現へレンダリングすることにより、シーケ
ンス中の第1の画像で使用するための画像データを生成
する工程と、 第2のユーザ選択視野方向に応じて第2のカメラからの
画像データに基づくテクスチャデータをオブジェクトの
表現へレンダリングすることにより、シーケンス中の第
2の画像で使用するための画像データを生成する工程
と、 シーケンス中の第2の画像におけるオブジェクトの画像
データが所定の画像データに対し所定の量を超えて異な
っているか否かをテストすることにより、生成された画
像データから表示されるオブジェクトの第1の画像と第
2の画像が不連続になるか否かをテストする工程と、 第2の画像におけるオブジェクトの画像データが所定の
量を超えて異なっている場合、第2の画像におけるオブ
ジェクトの修正画像データを生成する工程とを有するこ
とを特徴とする画像処理方法。
214. Processing image data defining a plurality of image sequences obtained from respective cameras of an object moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model. And generating image data relating to the first and second images in the sequence of images of the object by rendering the images of the three-dimensional computer model according to the viewing directions selected by the first and second users. Processing the image data to define at least one representation of the object in the three-dimensional computer model; and converting the image data from at least the first camera according to a first user-selected viewing direction. Rendering based texture data into object representations Generating image data for use in a first image in a sequence, and rendering texture data based on image data from a second camera into a representation of an object according to a second user-selected viewing direction. Generating image data for use in a second image in the sequence, wherein the image data of the object in the second image in the sequence differs from the predetermined image data by more than a predetermined amount. Testing whether the first image and the second image of the object displayed from the generated image data are discontinuous by testing whether the object in the second image Generating modified image data of an object in the second image if the image data of the second image differs by more than a predetermined amount An image processing method characterized in that it comprises a.
【請求項215】 画像データを処理する工程で、第1
のカメラからの画像データを処理して、三次元コンピュ
ータモデルにおけるオブジェクトの第1の表現を生成
し、且つ第2のカメラからの画像データを処理して、三
次元コンピュータモデルにおけるオブジェクトの第2の
表現を生成し、 第1の画像におけるオブジェクトの画像データは第1の
表現をレンダリングすることにより生成され、 第2の画像におけるオブジェクトの画像データは第2の
表現をレンダリングすることにより生成されることを特
徴とする請求項214記載の画像処理方法。
215. A process for processing image data, comprising the steps of:
Processing image data from the first camera to generate a first representation of the object in the three-dimensional computer model, and processing image data from the second camera to generate a second representation of the object in the three-dimensional computer model. Generating a representation, wherein image data of the object in the first image is generated by rendering the first representation, and image data of the object in the second image is generated by rendering the second representation. The image processing method according to claim 214, wherein:
【請求項216】 第2のユーザが選択した視野方向に
応じて第1のカメラからの画像データに基づくテクスチ
ャデータをオブジェクトの第1の表現へレンダリングす
ることにより、シーケンス中の第2の画像におけるオブ
ジェクトの別の画像データを生成し、 第2のカメラからの画像データを使用して生成された第
2の画像におけるオブジェクトの画像データを第1のカ
メラからの画像データを使用して生成された第2の画像
におけるオブジェクトの画像データと比較することを特
徴とする請求項215記載の画像処理方法。
216. Rendering texture data based on image data from the first camera into a first representation of an object in response to a direction of view selected by a second user, so that the second image in the sequence is Another image data of the object is generated, and the image data of the object in the second image generated using the image data from the second camera is generated using the image data from the first camera. 215. The image processing method according to claim 215, wherein the comparison is performed with image data of an object in the second image.
【請求項217】 修正画像データを生成する工程で、
修正画像データは、第2のカメラからの画像データを使
用して生成された第2の画像におけるオブジェクトの画
像データ及び第1のカメラからの画像データを使用して
生成された第2の画像におけるオブジェクトの画像デー
タに従って生成されることを特徴とする請求項216記
載の画像処理方法。
217. In the step of generating corrected image data,
The modified image data is used to generate the image data of the object in the second image generated using the image data from the second camera and the image data of the object in the second image generated using the image data from the first camera. The image processing method according to claim 216, wherein the image processing method is generated according to image data of the object.
【請求項218】 第1の画像に関わる画像データを生
成する工程は、第1のユーザが選択した視野方向に応じ
て三次元コンピュータモデルをレンダリングする工程を
有し、 第2の画像に関わる画像デーを生成する工程は、第2の
ユーザが選択した視野方向に応じて三次元コンピュータ
モデルをレンダリングする工程を有し、 テストする工程は、第2の画像に関わるレンダリングさ
れた画像データを所定の画像データと比較する工程を有
することを特徴とする請求項214乃至請求項217の
何れかに記載の画像処理方法。
218. The step of generating image data related to the first image includes the step of rendering a three-dimensional computer model according to a viewing direction selected by the first user, and the method related to the image related to the second image. Generating the data comprises rendering a three-dimensional computer model in response to a viewing direction selected by a second user; and testing comprises rendering rendered image data relating to the second image to a predetermined image. 228. The image processing method according to claim 214, further comprising a step of comparing the image data with image data.
【請求項219】 更に、修正画像データを搬送する信
号を生成する工程を有することを特徴とする請求項21
4乃至請求項218の何れかに記載の画像処理方法。
219. The apparatus according to claim 21, further comprising the step of generating a signal for carrying the corrected image data.
The image processing method according to any one of claims 4 to 218.
【請求項220】 更に、信号を記録する工程を有する
ことを特徴とする請求項219記載の画像処理方法。
220. The image processing method according to claim 219, further comprising a step of recording a signal.
【請求項221】 更に、修正画像データを使用してオ
ブジェクトの画像を表示する工程を有することを特徴と
する請求項214乃至請求項220の何れかに記載の画
像処理方法。
221. The image processing method according to any one of claims 214 to 220, further comprising the step of displaying an image of the object using the modified image data.
【請求項222】 更に、修正画像データの記録を直接
又は間接的に作成する工程を有することを特徴とする請
求項214乃至請求項221の何れかに記載の画像処理
方法。
222. The image processing method according to claim 214, further comprising the step of directly or indirectly creating a record of the modified image data.
【請求項223】 少なくとも1つのオブジェクトに関
わる表現と、それに関連し、第1のカメラにより記録さ
れる画像データから取り出されるテクスチャデータ及び
第2のカメラにより記録される画像データから取り出さ
れるテクスチャデータを有するテクスチャデータとから
構成される三次元コンピュータモデルを第1及び第2の
ユーザが選択した視野方向のそれぞれに応じてレンダリ
ングすることにより、画像のシーケンスの中の第1及び
第2の画像に関わる画像データを生成する画像処理方法
において、 第1のユーザが選択した視野方向に応じて少なくとも第
1のカメラからの画像データに基づくテクスチャデータ
を各オブジェクトの表現へレンダリングすることによ
り、シーケンス中の第1の画像で使用するための画像デ
ータを生成する工程と、 第2のユーザが選択した視野方向に応じて第2のカメラ
からの画像データに基づくテクスチャデータを各オブジ
ェクトの表現へレンダリングすることにより、シーケン
ス中の第2の画像で使用するための画像データを生成す
る工程と、 シーケンス中の第2の画像におけるオブジェクトの画像
データが所定の画像データに対し所定の量を超えて異な
っているか否かをテストすることにより、生成された画
像データから表示されるオブジェクトの第1の画像と第
2の画像とが不連続になるか否かをテストする工程と、 第2の画像におけるオブジェクトの画像データが所定の
量を超えて異なっている場合、第2の画像におけるオブ
ジェクトの修正画像データを生成する工程とを有するこ
とを特徴とする画像処理方法。
223. A representation relating to at least one object and associated texture data extracted from image data recorded by a first camera and texture data extracted from image data recorded by a second camera. Rendering the three-dimensional computer model composed of the texture data having the first and second users in accordance with the respective viewing directions selected by the first and second users, thereby relating to the first and second images in the sequence of images. An image processing method for generating image data, comprising: rendering texture data based on image data from at least a first camera into a representation of each object in accordance with a viewing direction selected by a first user; Generate image data for use in one image And rendering the texture data based on the image data from the second camera into a representation of each object according to the viewing direction selected by the second user for use in the second image in the sequence. Generating image data of the second image in the sequence by testing whether the image data of the object in the second image differs from the predetermined image data by more than a predetermined amount. Testing whether the first image and the second image of the object displayed from are discontinuous, and if the image data of the object in the second image differs by more than a predetermined amount Generating corrected image data of an object in the second image.
【請求項224】 オブジェクトの少なくとも1つの表
現を含む三次元コンピュータモデルを一度目に処理し
て、第1のカメラにより記録される画像データを表現の
ためのテクスチャデータの基礎として使用してレンダリ
ングすることにより、画像のシーケンスの中の第1の画
像に関わる画像データを生成し、三次元コンピュータモ
デルを再度処理して、第2のカメラにより記録される画
像データを表現のためのテクスチャデータの基礎として
使用してレンダリングすることにより、シーケンス中の
次の画像に関わる画像データを生成すると共に、画像デ
ータ比較テストにより、シーケンス中の画像のオブジェ
クトが不連続に見えることが指示された場合、次の画像
におけるオブジェクトに関して修正画像データを生成す
ることを特徴とする画像処理方法。
224. A three-dimensional computer model including at least one representation of the object is processed a first time and rendered using image data recorded by the first camera as a basis for texture data for the representation. Thereby generating image data for the first image in the sequence of images, processing the three-dimensional computer model again, and providing a basis for texture data for representing the image data recorded by the second camera. Generates image data for the next image in the sequence by rendering as, and if the image data comparison test indicates that the objects in the image in the sequence appear to be discontinuous, then Generating modified image data for an object in the image. Image processing method.
【請求項225】 複数台のカメラからの画像データを
使用して三次元コンピュータモデルでオブジェクトの表
現をレンダリングすることにより、シーケンス中の連続
する画像に関わる画像データを生成する画像処理方法に
おいて、連続する画像の中でオブジェクトの画像が不連
続に見えるか否かを判定するために、画像データに関す
るテストを実行し、且つ不連続性を減少させるために画
像データを処理することを特徴とする画像処理方法。
225. An image processing method for generating image data related to successive images in a sequence by rendering a representation of an object in a three-dimensional computer model using image data from a plurality of cameras. Performing a test on the image data to determine whether the image of the object appears discontinuous in the image to be processed, and processing the image data to reduce the discontinuity. Processing method.
【請求項226】 シーンの中で動いているオブジェク
トの、それぞれのカメラから得られる複数の画像シーケ
ンスを規定する画像データを処理して、三次元コンピュ
ータモデルにおけるオブジェクトの表現を規定する信号
を生成し、且つ第1及び第2のユーザ選択視野方向に応
じて三次元コンピュータモデルの画像をレンダリングす
ることにより、画像のシーケンスの中の第1及び第2の
画像に関わる画像データを生成する画像処理装置におい
て、 画像データを処理して、三次元コンピュータモデルにお
けるオブジェクトの少なくとも1つの表現を規定する手
段と、 第1のユーザ選択視野方向に応じて少なくとも第1のカ
メラからの画像データに基づくテクスチャデータをオブ
ジェクトの表現へレンダリングすることにより、シーケ
ンス中の第1の画像で使用するための画像データを生成
する手段と、 第2のユーザ選択視野方向に応じて第2のカメラからの
画像データに基づくテクスチャデータをオブジェクトの
表現へレンダリングすることにより、シーケンス中の第
2の画像で使用するための画像データを生成する手段
と、 シーケンス中の第2の画像におけるオブジェクトの画像
データが所定の画像データに対して所定の量を超えて異
なっているか否かをテストすることにより、生成された
画像データから表示されるオブジェクトの第1の画像と
第2の画像とが不連続になるか否かをテストする手段
と、 第2の画像におけるオブジェクトの画像データが所定の
量を超えて異なっている場合、第2の画像におけるオブ
ジェクトの修正画像データを生成する手段とを有するこ
とを特徴とする画像処理装置。
226. Processing image data defining a plurality of image sequences obtained from respective cameras of an object moving in a scene to generate a signal defining a representation of the object in a three-dimensional computer model. And an image processing apparatus for rendering image data of a three-dimensional computer model according to first and second user-selected viewing directions, thereby generating image data relating to the first and second images in the sequence of images. Means for processing image data to define at least one representation of an object in a three-dimensional computer model; and generating texture data based on image data from at least a first camera according to a first user-selected viewing direction. During the sequence by rendering to a representation of the object Means for generating image data for use in the first image; and rendering the texture data based on the image data from the second camera into a representation of the object in response to the second user-selected viewing direction, thereby providing a sequence. Means for generating image data for use in the second image in the sequence; and whether the image data of the object in the second image in the sequence differs from the predetermined image data by more than a predetermined amount. Means for testing whether the first image and the second image of the object displayed from the generated image data become discontinuous, and image data of the object in the second image Means for generating modified image data of the object in the second image if the values differ by more than a predetermined amount. The image processing apparatus according to symptoms.
【請求項227】 画像データを処理する手段は、第1
のカメラからの画像データを処理して、三次元コンピュ
ータモデルにおけるオブジェクトの第1の表現を生成
し、且つ第2のカメラからの画像データを処理して、三
次元コンピュータモデルにおけるオブジェクトの第2の
表現を生成するように動作可能であり、 第1の表現をレンダリングすることにより、第1の画像
におけるオブジェクトの画像データが生成され、 第2の表現をレンダリングすることにより、第2の画像
におけるオブジェクトの画像データが生成されるように
処理を実行するように構成されることを特徴とする請求
項226記載の画像処理装置。
227. The means for processing image data comprises:
Processing image data from the first camera to generate a first representation of the object in the three-dimensional computer model, and processing image data from the second camera to generate a second representation of the object in the three-dimensional computer model. Operable to generate a representation, wherein rendering the first representation generates image data of the object in the first image, and rendering the second representation causes the object in the second image to be rendered. 226. The image processing apparatus according to claim 226, wherein the image processing apparatus is configured to execute a process so as to generate the image data.
【請求項228】 テストする手段は、 第2のユーザ選択視野方向に応じて第1のカメラからの
画像データに基づくテクスチャデータをオブジェクトの
第1の表現へレンダリングすることにより、シーケンス
中の第2の画像におけるオブジェクトの別の画像データ
が生成され、 第2のカメラからの画像データを使用して生成された第
2の画像におけるオブジェクトの画像データが第1のカ
メラからの画像データを使用して生成された第2の画像
におけるオブジェクトの画像データと比較されるように
処理を実行すべく動作可能であることを特徴とする請求
項227記載の画像処理装置。
228. The means for testing comprises: rendering texture data based on image data from the first camera into a first representation of the object in response to a second user-selected viewing direction, thereby providing a second representation in the sequence. Image data of the object in the second image is generated using the image data from the first camera, and the image data of the object in the second image generated using the image data from the second camera is generated using the image data from the first camera. 228. The image processing apparatus according to claim 227, wherein the image processing apparatus is operable to execute processing so as to be compared with image data of an object in the generated second image.
【請求項229】 修正画像データを生成する手段は、
第2のカメラからの画像データを使用して生成された第
2の画像におけるオブジェクトの画像データ及び第1の
カメラからの画像データを使用して生成された第2の画
像におけるオブジェクトの画像データに従って生成され
るように処理を実行すべく構成されることを特徴とする
請求項228記載の画像処理装置。
229. The means for generating modified image data includes:
According to the image data of the object in the second image generated using the image data from the second camera and the image data of the object in the second image generated using the image data from the first camera. 229. The apparatus according to claim 228, wherein the apparatus is configured to perform processing to be generated.
【請求項230】 第1の画像に関わる画像データを生
成する手段は、第1のユーザ選択視野方向に応じて三次
元コンピュータモデルをレンダリングする手段を有し、 第2の画像に関わる画像データを生成する手段は、第2
のユーザ選択視野方向に応じて三次元コンピュータモデ
ルをレンダリングする手段を有し、 テストする手段は、第2の画像に関わるレンダリングさ
れた画像データを所定の画像データと比較する手段を有
することを特徴とする請求項226乃至請求項229の
何れかに記載の画像処理装置。
230. The means for generating image data relating to the first image includes means for rendering a three-dimensional computer model in accordance with a first user-selected viewing direction, and the means for generating image data relating to the second image. The means for generating the second
Means for rendering a three-dimensional computer model according to the user-selected viewing direction, wherein the means for testing comprises means for comparing rendered image data associated with the second image with predetermined image data. 229. The image processing device according to claim 226.
【請求項231】 更に、修正画像データを使用してオ
ブジェクトの画像を表示する手段を有することを特徴と
する請求項226乃至請求項230の何れかに記載の画
像処理装置。
231. The image processing apparatus according to claim 226, further comprising means for displaying an image of the object using the modified image data.
【請求項232】 少なくとも1つのオブジェクトに関
わる表現と、それに関連し、第1のカメラにより記録さ
れる画像データから取り出されるテクスチャデータ及び
第2のカメラにより記録される画像データから取り出さ
れるテクスチャデータを有するテクスチャデータとから
構成される三次元コンピュータモデルを第1及び第2の
ユーザ選択視野方向に応じてレンダリングすることによ
り、画像のシーケンスの中の第1及び第2の画像に関わ
る画像データを生成する画像処理装置において、 第1のユーザ選択視野方向に応じて少なくとも第1のカ
メラからの画像データに基づくテクスチャデータを各オ
ブジェクトの表現へレンダリングすることにより、シー
ケンス中の第1の画像で使用するための画像データを生
成する手段と、 第2のユーザ選択視野方向に応じて第2のカメラからの
画像データに基づくテクスチャデータを各オブジェクト
の表現へレンダリングすることにより、シーケンス中の
第2の画像で使用するための画像データを生成する手段
と、 シーケンス中の第2の画像におけるオブジェクトの画像
データが所定の画像データに対して所定の量を超えて異
なっているか否かをテストすることにより、生成された
画像データから表示されるオブジェクトの第1の画像と
第2の画像とが不連続になるか否かをテストする手段
と、 第2の画像におけるオブジェクトの画像データが所定の
量を超えて異なっている場合、第2の画像におけるオブ
ジェクトの修正画像データを生成する手段とを有するこ
とを特徴とする画像処理装置。
232. A representation relating to at least one object and associated texture data extracted from image data recorded by a first camera and texture data extracted from image data recorded by a second camera. Rendering image data related to the first and second images in the sequence of images by rendering a three-dimensional computer model composed of the texture data having the first and second user-selected viewing directions. An image processing device that renders texture data based on at least image data from a first camera into a representation of each object in accordance with a first user-selected viewing direction, for use in a first image in a sequence. Means for generating image data for Means for generating image data for use in the second image in the sequence by rendering texture data based on image data from the second camera into a representation of each object according to the selected viewing direction; By testing whether the image data of the object in the second image in the sequence differs from the predetermined image data by more than a predetermined amount, the first of the objects displayed from the generated image data is tested. Means for testing whether or not the image of the second image and the second image are discontinuous; and if the image data of the object in the second image differs by more than a predetermined amount, Means for generating corrected image data.
【請求項233】 オブジェクトの少なくとも1つの表
現を含む三次元コンピュータモデルを処理して、一度目
に第1のカメラにより記録される画像データを表現のた
めのテクスチャデータの基礎として使用してレンダリン
グすることにより、画像のシーケンスの中の第1の画像
に関わる画像データを生成し、二度目に第2のカメラに
より記録される画像データを表現のためのテクスチャデ
ータの基礎として使用してレンダリングすることによ
り、シーケンス中の次の画像に関わる画像データを生成
するように動作可能であると共に、画像データ比較テス
トがシーケンス中の画像におけるオブジェクトが不連続
に見えることが指示された場合、次の画像におけるオブ
ジェクトに関して修正画像データを生成するように動作
可能であることを特徴とする画像処理装置。
233. A three-dimensional computer model including at least one representation of the object is processed and rendered using image data recorded by a first camera at a first time as a basis for texture data for the representation. Thereby generating image data for a first image in a sequence of images and rendering using image data recorded by a second camera as a basis for texture data for a second time. Is operable to generate image data for the next image in the sequence, and if the image data comparison test indicates that objects in the images in the sequence appear to be discontinuous, the next image Operable to generate modified image data for the object Image processing apparatus.
【請求項234】 複数台のカメラからの画像データを
使用して三次元コンピュータモデルでオブジェクトの表
現をレンダリングすることにより、シーケンス中の連続
する画像に関わる画像データを生成する方法のための画
像処理装置において、連続する画像の中でオブジェクト
の画像が不連続に見えるかを判定するために画像データ
に関してテストを実行し、且つ不連続性を減少させるた
めに画像データを処理するように動作可能であることを
特徴とする画像処理装置。
234. Image processing for a method of generating image data for successive images in a sequence by rendering a representation of an object in a three-dimensional computer model using image data from multiple cameras. The apparatus is operable to perform a test on the image data to determine whether an image of the object appears discontinuous in a sequence of images, and to process the image data to reduce the discontinuity. An image processing apparatus, comprising:
【請求項235】 プログラム可能処理装置に請求項2
14乃至請求項225の何れかに記載の方法を実行させ
るための命令を格納する記憶媒体。
235. A programmable processing device, comprising:
220. A storage medium storing instructions for executing the method according to any one of claims 14 to 225.
【請求項236】 プログラム可能処理装置に請求項2
14乃至請求項225の何れかに記載の方法を実行させ
るための命令を搬送する信号。
236. The programmable processor according to claim 2
226. A signal carrying instructions for performing a method according to any of claims 14 to 225.
JP11008481A 1998-01-14 1999-01-14 Image processor and image processing method Withdrawn JP2000020728A (en)

Applications Claiming Priority (16)

Application Number Priority Date Filing Date Title
GBGB9800777.6A GB9800777D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GBGB9800762.8A GB9800762D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GB98007644 1998-01-14
GBGB9800778.4A GB9800778D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GB98007651 1998-01-14
GB98007610 1998-01-14
GB98007677 1998-01-14
GB98007792 1998-01-14
GBGB9800779.2A GB9800779D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GB98007784 1998-01-14
GBGB9800764.4A GB9800764D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GBGB9800767.7A GB9800767D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GB98007776 1998-01-14
GBGB9800761.0A GB9800761D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GBGB9800765.1A GB9800765D0 (en) 1998-01-14 1998-01-14 Image processing apparatus
GB98007628 1998-01-14

Publications (1)

Publication Number Publication Date
JP2000020728A true JP2000020728A (en) 2000-01-21

Family

ID=27571334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11008481A Withdrawn JP2000020728A (en) 1998-01-14 1999-01-14 Image processor and image processing method

Country Status (4)

Country Link
US (1) US6914599B1 (en)
EP (1) EP0930585B1 (en)
JP (1) JP2000020728A (en)
DE (1) DE69915901T2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100372177B1 (en) * 2000-04-26 2003-02-14 이승현 Method for converting 2 dimension image contents into 3 dimension image contents
JP2006507722A (en) * 2002-10-22 2006-03-02 アートゥールワークス Surface tracking in 3D scenes using natural visual features of the surface
CN102005059A (en) * 2009-08-26 2011-04-06 索尼公司 Image processing apparatus, image processing method, and program
WO2014042228A1 (en) * 2012-09-12 2014-03-20 株式会社東芝 Ultrasound diagnostic apparatus, image processing apparatus, and method
WO2015141324A1 (en) * 2014-03-20 2015-09-24 富士フイルム株式会社 Image processing device, method, and program
JP2022095791A (en) * 2021-01-26 2022-06-28 キヤノン株式会社 Information processing device, generation method, and program
US11750792B2 (en) 2016-05-25 2023-09-05 Canon Kabushiki Kaisha Information processing apparatus, image generation method, control method, and storage medium

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2377576B (en) * 2001-07-12 2005-06-01 Vision Works Ltd D Modelling of three dimensional shapes
GB2383915B (en) * 2001-11-23 2005-09-28 Canon Kk Method and apparatus for generating models of individuals
US7715591B2 (en) * 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
US7583275B2 (en) * 2002-10-15 2009-09-01 University Of Southern California Modeling and video projection for augmented virtual environments
US7162075B2 (en) * 2003-03-10 2007-01-09 Cranial Technologies, Inc. Three-dimensional image capture system
US8326084B1 (en) * 2003-11-05 2012-12-04 Cognex Technology And Investment Corporation System and method of auto-exposure control for image acquisition hardware using three dimensional information
US7542034B2 (en) * 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US7561732B1 (en) * 2005-02-04 2009-07-14 Hrl Laboratories, Llc Method and apparatus for three-dimensional shape estimation using constrained disparity propagation
US8253736B2 (en) * 2007-01-29 2012-08-28 Microsoft Corporation Reducing occlusions in oblique views
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
JP5109803B2 (en) * 2007-06-06 2012-12-26 ソニー株式会社 Image processing apparatus, image processing method, and image processing program
WO2011077623A1 (en) * 2009-12-24 2011-06-30 株式会社ソニー・コンピュータエンタテインメント Image processing device, image data generation device, image processing method, image data generation method, and data structure of image file
CN102231806B (en) * 2011-06-13 2013-01-30 山东大学 Video-based dual-parameter inner pipeline wall panorama modeling and generation method
JP5841418B2 (en) * 2011-12-01 2016-01-13 キヤノン株式会社 Information processing apparatus, information processing method, and program
US9852542B1 (en) * 2012-04-13 2017-12-26 Google Llc Methods and apparatus related to georeferenced pose of 3D models
WO2014135695A1 (en) 2013-03-08 2014-09-12 3Shape A/S Visualising a 3d dental restoration on a 2d image
US9607245B2 (en) * 2014-12-02 2017-03-28 Xerox Corporation Adapted vocabularies for matching image signatures with fisher vectors
CN108781251A (en) * 2016-03-15 2018-11-09 株式会社理光 Image processing apparatus, image processing method and image processing system
CN108564557B (en) * 2018-05-31 2020-08-25 京东方科技集团股份有限公司 Image correction method and device
US10412361B1 (en) 2018-07-16 2019-09-10 Nvidia Corporation Generated stereoscopic video using zenith and nadir view perspectives
CN109147037B (en) * 2018-08-16 2020-09-18 Oppo广东移动通信有限公司 Special effect processing method and device based on three-dimensional model and electronic equipment
US11798273B2 (en) * 2021-03-12 2023-10-24 Lawrence Livermore National Security, Llc Model-based image change quantification

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
GB8720331D0 (en) * 1987-08-28 1987-10-07 Caplin Cybernetics Corp Control system
JP3104909B2 (en) 1989-12-05 2000-10-30 ソニー株式会社 Image processing device
JPH0437313A (en) * 1989-12-06 1992-02-07 Texas Instr Inc <Ti> Logical state detection sence circuit device and detection method
WO1991019265A1 (en) * 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
US5182641A (en) * 1991-06-17 1993-01-26 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Composite video and graphics display for camera viewing systems in robotics and teleoperation
US5341467A (en) 1991-12-30 1994-08-23 Xerox Corporation Method and apparatus for generating and displaying freeform strokes of varying or constant width using adaptive forward differencing
DE69330513D1 (en) 1992-03-20 2001-09-06 Commw Scient Ind Res Org OBJECT MONITORING SYSTEM
US5307175A (en) * 1992-03-27 1994-04-26 Xerox Corporation Optical image defocus correction
US5363297A (en) 1992-06-05 1994-11-08 Larson Noble G Automated camera-based tracking system for sports contests
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
DE69423338T2 (en) * 1993-09-06 2001-02-15 Ouyo Keisoku Kenkyusho Tokio T PROCESSING AND DISPLAY DEVICE FOR TIME VARIABLE IMAGES
FR2710434B1 (en) 1993-09-20 1995-11-10 Daver Gil Device for real-time acquisition of data relating to people on the move.
EP0742987A4 (en) * 1994-01-10 1998-01-07 Richard C Fuisz Viewing imaged objects from selected points of view
US5511153A (en) * 1994-01-18 1996-04-23 Massachusetts Institute Of Technology Method and apparatus for three-dimensional, textured models from plural video images
JP3638637B2 (en) 1994-06-17 2005-04-13 株式会社ナムコ Polygon data conversion device and three-dimensional simulator device
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
EP0727760A3 (en) * 1995-02-17 1997-01-29 Ibm Produce size recognition system
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5911035A (en) * 1995-04-12 1999-06-08 Tsao; Thomas Method and apparatus for determining binocular affine disparity and affine invariant distance between two image patterns
US5671086A (en) 1995-04-18 1997-09-23 The Regents, University Of California Method and apparatus for accurately manipulating an object during microelectrophoresis
US6542155B1 (en) * 1995-04-27 2003-04-01 Kabushiki Kaisha Sega Enterprises Picture processing device, picture processing method, and game device and storage medium using the same
US5587752A (en) * 1995-06-05 1996-12-24 Eastman Kodak Company Camera, system and method for producing composite photographic image
US5877779A (en) * 1995-07-06 1999-03-02 Sun Microsystems, Inc. Method and apparatus for efficient rendering of three-dimensional scenes
FR2741225A1 (en) * 1995-11-13 1997-05-16 Production Multimedia Apm Atel VIRTUAL CAMERA CONSOLE
US6268862B1 (en) * 1996-03-08 2001-07-31 Canon Kabushiki Kaisha Three dimensional virtual space generation by fusing images
US6124862A (en) 1997-06-13 2000-09-26 Anivision, Inc. Method and apparatus for generating virtual views of sporting events
US6025847A (en) * 1997-12-23 2000-02-15 Auto Desk, Inc. Three dimensional modeling system with visual feedback

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100372177B1 (en) * 2000-04-26 2003-02-14 이승현 Method for converting 2 dimension image contents into 3 dimension image contents
JP2006507722A (en) * 2002-10-22 2006-03-02 アートゥールワークス Surface tracking in 3D scenes using natural visual features of the surface
US7987079B2 (en) 2002-10-22 2011-07-26 Artoolworks, Inc. Tracking a surface in a 3-dimensional scene using natural visual features of the surface
CN102005059A (en) * 2009-08-26 2011-04-06 索尼公司 Image processing apparatus, image processing method, and program
US9734621B2 (en) 2012-09-12 2017-08-15 Toshiba Medical Systems Corporation Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
WO2014042228A1 (en) * 2012-09-12 2014-03-20 株式会社東芝 Ultrasound diagnostic apparatus, image processing apparatus, and method
JP2014054378A (en) * 2012-09-12 2014-03-27 Toshiba Corp Ultrasonic diagnostic apparatus, image processor and program
WO2015141324A1 (en) * 2014-03-20 2015-09-24 富士フイルム株式会社 Image processing device, method, and program
JP6027705B2 (en) * 2014-03-20 2016-11-16 富士フイルム株式会社 Image processing apparatus, method, and program thereof
US9818180B2 (en) 2014-03-20 2017-11-14 Fujifilm Corporation Image processing device, method, and program
US11750792B2 (en) 2016-05-25 2023-09-05 Canon Kabushiki Kaisha Information processing apparatus, image generation method, control method, and storage medium
JP2022095791A (en) * 2021-01-26 2022-06-28 キヤノン株式会社 Information processing device, generation method, and program
JP7297969B2 (en) 2021-01-26 2023-06-26 キヤノン株式会社 Information processing device, program, generation method, and system

Also Published As

Publication number Publication date
DE69915901D1 (en) 2004-05-06
EP0930585B1 (en) 2004-03-31
DE69915901T2 (en) 2004-09-02
US6914599B1 (en) 2005-07-05
EP0930585A1 (en) 1999-07-21

Similar Documents

Publication Publication Date Title
JP2000020728A (en) Image processor and image processing method
US11727626B2 (en) Damage detection from multi-view visual data
CN110568447B (en) Visual positioning method, device and computer readable medium
JP6560480B2 (en) Image processing system, image processing method, and program
CN110033475B (en) Aerial photograph moving object detection and elimination method based on high-resolution texture generation
JPH0877356A (en) Method and device for processing three-dimensional multi-view image
US20210312702A1 (en) Damage detection from multi-view visual data
JPH05501184A (en) Method and apparatus for changing the content of continuous images
KR20110059506A (en) System and method for obtaining camera parameters from multiple images and computer program products thereof
CN113518996A (en) Damage detection from multiview visual data
US20210225038A1 (en) Visual object history
CN112954292B (en) Digital museum navigation system and method based on augmented reality
WO2012015563A1 (en) Video summarization using video frames from different perspectives
JP4217305B2 (en) Image processing device
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
Böhm Multi-image fusion for occlusion-free façade texturing
CN115131407B (en) Robot target tracking method, device and equipment oriented to digital simulation environment
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
JP7411771B1 (en) Vehicle speed detection device, vehicle speed detection method and program
US11972556B2 (en) Mobile multi-camera multi-view capture
JP2001175860A (en) Device, method, and recording medium for three- dimensional body recognition including feedback process
CN115147262A (en) Image generation method and device
KR20230126034A (en) Apparatus and methods for generating an image supporting 3d rendering using artificial intelligence
CN115049539A (en) Image generation method and device
CN117593421A (en) Electronic marking method and device for offline display object

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060404