JP3526897B2 - Image display device - Google Patents

Image display device

Info

Publication number
JP3526897B2
JP3526897B2 JP32872193A JP32872193A JP3526897B2 JP 3526897 B2 JP3526897 B2 JP 3526897B2 JP 32872193 A JP32872193 A JP 32872193A JP 32872193 A JP32872193 A JP 32872193A JP 3526897 B2 JP3526897 B2 JP 3526897B2
Authority
JP
Japan
Prior art keywords
image
observer
screen
image display
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32872193A
Other languages
Japanese (ja)
Other versions
JPH07184115A (en
Inventor
亨 中村
茂純 桑島
Original Assignee
株式会社応用計測研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社応用計測研究所 filed Critical 株式会社応用計測研究所
Priority to JP32872193A priority Critical patent/JP3526897B2/en
Priority to PCT/JP1994/001462 priority patent/WO1995007590A1/en
Priority to EP94925627A priority patent/EP0669758B1/en
Priority to DE69423338T priority patent/DE69423338T2/en
Publication of JPH07184115A publication Critical patent/JPH07184115A/en
Application granted granted Critical
Publication of JP3526897B2 publication Critical patent/JP3526897B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、移動物体を撮像し、そ
の画像に特殊効果を加えて編集する装置に利用する。ま
た、移動する観察者に対してその観察者から見える仮想
物体を投影等で表示させる装置に利用する。本発明は、
例えばスポーツなどで選手を撮影する場合に、編集した
あとで加えられる仮想物体を被写体であるその選手にも
撮影しながら認識できるようにする場合に利用する。ま
た、映画等の特殊効果で編集される画像を撮影する場合
に編集で加えられる仮想物体をみながら被写体の俳優が
演技する場合に利用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used in an apparatus for capturing an image of a moving object and adding a special effect to the image for editing. Further, it is used for a device for displaying a virtual object seen by a moving observer by projection or the like. The present invention is
For example, when shooting a player in sports or the like, this is used when a virtual object added after editing can be recognized by the player who is the subject while shooting. Also, when shooting an image edited by a special effect such as a movie, it is used when an actor of a subject acts while watching a virtual object added by editing.

【0002】[0002]

【従来の技術】出願人は3次元空間座標(以下3次元情
報という)を計測しながら移動物体を撮影し、その対象
物体の画像と3次元情報および時間とを同時に取り扱っ
て特殊画像編集を行い、別の時空間に存在する仮想の撮
像手段(以下仮想カメラという)から撮影した画像を生
成する技術を提案した(特願平5−221363、特願
平5−309473、出願時に未公開)。この技術で
は、別の時空間での記録や時空間の画像とを表示して比
較することができる。
2. Description of the Related Art The applicant photographs a moving object while measuring three-dimensional spatial coordinates (hereinafter referred to as three-dimensional information), and simultaneously handles an image of the target object, three-dimensional information, and time to perform special image editing. , A technology for generating an image taken by a virtual imaging means (hereinafter referred to as a virtual camera) existing in another space-time (Japanese Patent Application No. 5-221363, Japanese Patent Application No. 5-309473, unpublished at the time of application). With this technique, it is possible to display and compare a record in another space-time and an image in the space-time.

【0003】[0003]

【発明が解決しようとする課題】しかし、スポーツの練
習では、ライバル選手や比較すべき記録の選手と比較す
る場合に、画像による編集で、複数の選手を比較しなが
ら見ることは可能であるが、実際に動いている選手自身
は、比較すべき選手が隣にいるわけではないため、選手
自身が比較しながら競技を行うことはできず、実際に並
んで競技をしているという実感がない問題がある。
However, in sports practice, it is possible to compare a plurality of players by image editing when comparing with a rival player or a record player to be compared. , The athletes who are actually moving are not able to compete while the athletes to compare are not next to each other, and there is no real feeling that they are actually lining up. There's a problem.

【0004】また、競技中にペース調整を行う場合でも
撮影している間は被写体となっている選手自身が判断す
るしかなかった。
Further, even when the pace is adjusted during the competition, the athlete who is the subject has to make a judgment while photographing.

【0005】同様にテレビや映画等の特殊効果を使って
映像を作り出す場合に、俳優はなにもないスタジオで、
編集したあとに加えられるものを想像しながら演技しな
ければならなかった。
Similarly, in the case of producing images using special effects such as television and movies, the actor is in a studio without anything,
I had to act by imagining what would be added after editing.

【0006】上述の場合被写体の対象物体である選手や
俳優に、編集後に加えられる仮想物体を認識させるため
には、バーチャルリアリティの技術を用いればその画像
の中に入ることができるが、そのためにはその画像を表
示するゴーグル等の特殊な装置を装着することが必要で
あった。
In the above case, in order to allow the player or actor who is the object object of the subject to recognize the virtual object added after the editing, the virtual reality technique can be used to enter the image. Had to wear a special device such as goggles for displaying the image.

【0007】本発明の目的は、このような特殊な装置を
被写体に装着することなしに、被写体である観察者に編
集後に加えられる仮想物体を認識しながら動作させるこ
とができる画像表示装置を提供することにある。
An object of the present invention is to provide an image display device which allows an observer who is a subject to operate while recognizing a virtual object added after editing without mounting such a special device on the subject. To do.

【0008】また本発明の他の目的は、実際に撮影され
た他人の動画像を観察者から見える形で表示し、観察者
自身がその他人の画像を見ていわば並んで競争するなど
の動作をすることができ、観察者自身に臨場感を与える
ことができる画像表示装置を提供することにある。
Another object of the present invention is to display an actually photographed moving image of another person in a form visible to an observer, so that the observer can compete side by side by looking at the image of another person. It is an object of the present invention to provide an image display device that is capable of providing the viewer with a sense of reality.

【0009】また本発明の他の目的は、観察者の3次元
位置から見える画像を表示することで観察者そのものが
その仮想の画像内に入り込んで自然な演技や動作を行う
ことが可能な画像表示装置を提供することにある。
Another object of the present invention is to display an image viewed from the observer's three-dimensional position so that the observer can enter into the virtual image and perform a natural acting or action. It is to provide a display device.

【0010】[0010]

【課題を解決するための手段】本発明の第一の観点は、
観察者に対して観察者から見える画像を表示する画像表
示装置に係るもので、観察者の3次元情報を計測する計
測手段と、この計測された観察者の3次元情報に基づい
てこの観察者の視点位置から見える画像に等価な画像を
生成する画像生成手段と、この生成した画像を前記観察
者とは別の位置にある前記画像表示手段で表示したとき
に前記観察者の視点位置から見える画像に変換する画像
変換手段とを備えたことを特徴とする。
The first aspect of the present invention is to:
The present invention relates to an image display device for displaying an image seen by an observer to an observer, and measuring means for measuring the three-dimensional information of the observer, and the observer based on the measured three-dimensional information of the observer. Image generation means for generating an image equivalent to the image seen from the viewpoint position of the observer, and the generated image can be seen from the viewpoint position of the observer when displayed by the image display means at a position different from the observer. Image conversion means for converting into an image is provided.

【0011】本発明の第二の観点は、実写画像を用いて
これを観察者に表示する画像表示装置に係るもので、1
または複数の移動物体を撮像してその3次元情報ととも
に出力する撮像手段と、この移動物体の画像を当該移動
物体が移動する空間内の一つの変換面に投影された画像
を前記撮像手段とは異なる空間位置または異なる時間軸
に存在する仮想の撮像手段で撮像された画像と等価な画
像に変換する画像変換手段と、この画像変換された移動
物体の画像を表示する画像表示手段とを備えた画像表示
装置において、前記画像表示手段は、移動する観察者に
対して前記移動物体の画像を表示する画像表示手段であ
り、前記観察者の3次元情報を計測する計測手段を備
え、前記画像変換手段は、前記計測手段で計測した観察
者の3次元情報に基づいて、その観察者に対して表示す
る前記移動物体の画像がその観察者から見える画像と等
価な画像に変換する第一変換手段と、この変換された画
像を観察者とは別の位置にある投影手段から投影される
画像が前記観察者から見える画像と等価となる画像に変
換する第二変換手段とを含むことを特徴とする。
A second aspect of the present invention relates to an image display device for displaying a photographed image to an observer using a photographed image.
Alternatively, the image pickup means for picking up an image of a plurality of moving objects and outputting the three-dimensional information together with the three-dimensional information, and the image pickup means for an image obtained by projecting an image of the moving object on one conversion surface in the space in which the moving object moves. Image conversion means for converting into an image equivalent to an image taken by virtual imaging means existing at different spatial positions or different time axes, and image display means for displaying the image-converted image of the moving object In the image display device, the image display means is an image display means for displaying an image of the moving object to a moving observer, and includes a measuring means for measuring three-dimensional information of the observer, and the image conversion is performed. The means converts the image of the moving object displayed to the observer into an image equivalent to the image seen by the observer, based on the three-dimensional information of the observer measured by the measuring means. One conversion means and second conversion means for converting the converted image into an image in which the image projected from the projection means at a position different from the observer is equivalent to the image seen by the observer. Is characterized by.

【0012】なお、観察者の3次元情報を計測する計測
手段は、観察者を撮像してその観察者の3次元情報を計
測する装置であることができる。
The measuring means for measuring the three-dimensional information of the observer can be a device for taking an image of the observer and measuring the three-dimensional information of the observer.

【0013】また、画像表示手段は、雲台を備えた1ま
たは複数のプロジェクタおよびそのプロジェクタの投影
するスクリーンで構成することができる。
Further, the image display means can be composed of one or a plurality of projectors provided with a platform and a screen projected by the projectors.

【0014】また、画像表示手段は、1または複数のデ
ィスプレイ装置であることもできる。
The image display means may be one or a plurality of display devices.

【0015】また、複数のプロジェクタは観察者の位置
にしたがって切換られることができる。
Further, the plurality of projectors can be switched according to the position of the observer.

【0016】また、画像表示手段は、移動可能なスクリ
ーンを含み、このスクリーンの3次元情報を計測する計
測手段を備え、画像変換手段はこの計測手段で計測した
スクリーンの3次元情報に基づいて表示される画像変換
が行うことができる。
Further, the image display means includes a movable screen and is provided with a measuring means for measuring the three-dimensional information of this screen, and the image converting means displays based on the three-dimensional information of the screen measured by this measuring means. Image conversion can be performed.

【0017】また、観察者の3次元情報に基づいて、音
響効果音を発生する手段を設けることができる。
Further, it is possible to provide means for generating a sound effect sound based on the three-dimensional information of the observer.

【0018】また、前記観察者に対して表示する画像
は、1または複数の対象物体を撮像した画像であること
ができる。
The image displayed to the observer may be an image of one or a plurality of target objects.

【0019】さらに、前記観察者に対して表示する画像
は、コンピュータグラフィクスによって生成された画像
であることができる。
Further, the image displayed to the observer may be an image generated by computer graphics.

【0020】[0020]

【作用】移動する対象物体の3次元情報を計測し、その
画像とともに出力し、この3次元情報に基づいて任意の
時空間に存在する仮想カメラの画像に変換することがで
きる。この仮想カメラを移動する観察者の目であるとし
た場合、その観察者の3次元情報がわかれば、仮想カメ
ラの3次元情報が決まるため、今度は、仮想カメラの画
像をスクリーン等を変換面として投影器の画像に変換す
るという逆の手順で、その観察者(仮想カメラ)から見
えるはずの移動物体の画像を対象物体を撮影した画像か
ら生成して撮影とは逆に投影あるいは表示することがで
きる。本発明は先に出願人が提案した仮想カメラの技術
を応用して、さらに移動する観察者から見える画像をそ
の観察者の3次元情報に基づいて他の時空間の画像から
生成して表示するものである。
It is possible to measure three-dimensional information of a moving target object, output it together with the image, and convert it into an image of a virtual camera existing in an arbitrary space-time based on this three-dimensional information. If it is the eyes of an observer who moves this virtual camera, if the observer's three-dimensional information is known, the virtual camera's three-dimensional information is determined. As the reverse procedure of converting to the image of the projector, the image of the moving object that should be seen by the observer (virtual camera) is generated from the image of the target object and projected or displayed in the reverse of the shooting. You can The present invention applies the technology of the virtual camera previously proposed by the applicant to generate and display an image viewed by a moving observer from other spatiotemporal images based on the three-dimensional information of the observer. It is a thing.

【0021】まず、移動物体を撮像するときには、対象
物体の位置を計測するために高精度雲台と高精度ズーム
レンズ付きカメラを用いることにより、そのカメラの向
きと撮影された画像を用いて対象物体の3次元情報を求
めている。この雲台とレンズを用いることで、カメラの
代わりに動画投影器(たとえばビデオプロジェクタ)を
付ければ、カメラで撮影したのとはまったく逆に撮影し
た画像を投影することができる。また編集操作において
仮想カメラの画像を得るためには仮想的な変換面に画像
を投影し、再撮影するのと同様な変換をリアルタイムで
行うことができた。
First, when a moving object is imaged, a high-precision pan head and a camera with a high-precision zoom lens are used to measure the position of the target object, and the direction of the camera and the captured image are used to target the object. We are looking for 3D information about an object. By using this platform and lens, if a moving image projector (for example, a video projector) is attached instead of the camera, it is possible to project an image taken by the camera exactly opposite to that taken by the camera. Further, in order to obtain the image of the virtual camera in the editing operation, the same conversion as that of projecting the image on the virtual conversion surface and re-shooting could be performed in real time.

【0022】これらの技術を用い、空間内にあるスクリ
ーンの位置とプロジェクタヘッドの位置と投影する画像
の仮想物体の空間内の位置が分かれば空間内のスクリー
ンに、観察者の方向から見たときに仮想物体が見えるよ
うな画像に変換して実際に投影することができる。この
投影された画像はリアルタイムで求められる3次元情報
で計算されてリアルタイムで変換され、動画像として投
影されるから観察者からみると仮想物体も動いているよ
うに見える。
Using these techniques, if the position of the screen and the position of the projector head in the space and the position of the virtual object of the image to be projected in the space are known, the screen in the space can be seen from the direction of the observer. It can be converted into an image in which a virtual object can be seen and can be actually projected. The projected image is calculated with the three-dimensional information obtained in real time, converted in real time, and projected as a moving image, so that the observer sees that the virtual object is also moving.

【0023】このような編集操作と投影等の表示によ
り、観察者に対して臨場感を与えることができる。
By such an editing operation and a display such as projection, it is possible to give the observer a sense of realism.

【0024】[0024]

【実施例】【Example】

(第一実施例)図1は、本発明の原理を説明するための
図で、図2はこの図1を上の方から見たときの位置関係
を示すものである。
(First Embodiment) FIG. 1 is a diagram for explaining the principle of the present invention, and FIG. 2 shows the positional relationship when this FIG. 1 is viewed from above.

【0025】符号1は観察者であり、この観察者1から
見た仮想物体3の間にスクリーン2が配置され、このス
クリーン2に投影器の投影中心6から投影像5を投影す
る。こうすると、観察者1からみると、スクリーン2に
投影された仮想物体の投影像4により仮想物体3を認識
できる。
Reference numeral 1 is an observer, and a screen 2 is arranged between virtual objects 3 viewed from the observer 1, and a projection image 5 is projected on the screen 2 from a projection center 6 of the projector. This allows the observer 1 to recognize the virtual object 3 from the projected image 4 of the virtual object projected on the screen 2.

【0026】投影する画像は、観察者1の3次元情報、
スクリーン2の位置および投影器(プロジェクタ)の投
影中心6の位置ならびに仮想物体の3次元情報が分かれ
ば変換パラメータが決定できる。
The image to be projected is the three-dimensional information of the observer 1,
If the position of the screen 2 and the position of the projection center 6 of the projector (projector) and the three-dimensional information of the virtual object are known, the conversion parameter can be determined.

【0027】本発明の第一の観点の特徴は、観察者の視
点位置に対応する画像を表示する画像表示手段としてス
クリーンおよびプロジェクタを備えた画像表示装置にお
いて、観察者1の3次元情報を計測する計測手段と、こ
の計測された観察者1の3次元情報に基づいてこの観察
者の視点位置から見える画像に等価な画像を生成する画
像生成手段と、この生成した画像を前記観察者とは別の
位置にある前記画像表示手段で表示したときに前記観察
者の視点位置から見える画像に変換する画像変換手段と
を備えたことを特徴とする。
The feature of the first aspect of the present invention is to measure the three-dimensional information of the observer 1 in an image display device equipped with a screen and a projector as an image display means for displaying an image corresponding to the observer's viewpoint position. Measuring means, an image generating means for generating an image equivalent to an image seen from the observer's viewpoint position based on the measured three-dimensional information of the observer 1, and the generated image for the observer. Image conversion means for converting into an image viewed from the viewpoint of the observer when displayed by the image display means at another position.

【0028】図3は、この投影される画像変換の原理を
説明するためのものである。まず、別の時空間で仮想物
体を撮影した場合、カメラヘッド(MH)22でその3
次元情報とともに仮想物体(移動する対象物体)を撮影
する。これを観察者1の視点を仮想カメラとして画像変
換を行う。この画像変換については、先願に係る特願平
5−221363あるいは特願平5−309473にお
いて説明している。この先願に係る仮想カメラの空間位
置等については任意に設定できたが、本実施例の場合、
観察者1の動きに依存しており、観察者1の視点を仮想
カメラの視点として扱う。この場合、観察者1について
はその視点を決めるために、別途3次元情報計測装置が
設けられており、例えば仮想物体を撮影したと同じ高精
度雲台およびズームレンズ等を用いたカメラヘッドによ
りその3次元情報が計測されている。
FIG. 3 is for explaining the principle of this projected image conversion. First, when a virtual object is photographed in another space-time, the camera head (MH) 22
A virtual object (moving target object) is photographed together with dimensional information. Image conversion is performed using the viewpoint of the observer 1 as a virtual camera. This image conversion has been described in Japanese Patent Application No. 5-221363 or Japanese Patent Application No. 5-309473. Although the spatial position of the virtual camera according to this prior application could be arbitrarily set, in the case of the present embodiment,
It depends on the movement of the observer 1, and the viewpoint of the observer 1 is treated as the viewpoint of the virtual camera. In this case, the observer 1 is additionally provided with a three-dimensional information measuring device in order to determine its viewpoint. For example, the observer 1 uses a camera head that uses the same high-precision pan head and zoom lens as the one that captured the virtual object. Three-dimensional information is being measured.

【0029】この観測者1を仮想カメラとすると、カメ
ラヘッド22で対象物体21を撮影した画像を観察者1
から見たときの画像になるように変換面23を用いて変
換する。この画像変換は先願に係る特願平5−2213
63あるいは特願平5−309473において説明して
いる。この変換によって、対象物体21の観察者から見
たときの画像が得られる。次にこの得られた画像を観察
者1を中心としてスクリーン2に投影することでスクリ
ーン2上の画像4が得られる。次にこの得られた画像4
をプロジェクタの投影中心6を使って投影像5に変換す
る。この場合スクリーン2が観察者1で撮影した画像を
プロジェクタの投影像5に変換する第二の変換面にな
る。
When this observer 1 is a virtual camera, an image obtained by photographing the target object 21 with the camera head 22 is taken by the observer 1
Conversion is performed using the conversion surface 23 so as to obtain an image when viewed from above. This image conversion is performed in Japanese Patent Application No. 5-2213 related to the prior application.
63 or Japanese Patent Application No. 5-309473. By this conversion, an image of the target object 21 as viewed by an observer is obtained. Next, by projecting the obtained image on the screen 2 with the observer 1 as the center, an image 4 on the screen 2 is obtained. Next, this obtained image 4
Is converted into a projected image 5 using the projection center 6 of the projector. In this case, the screen 2 serves as a second conversion surface for converting the image captured by the observer 1 into the projection image 5 of the projector.

【0030】このように3段階の画像の変換を行うこと
で、プロジェクタで投影すべき投影像5を得ることがで
きる。実際の変形では、面から面への投影の変形の繰り
返しであり、その画像変換は変換マトリクスによる座標
変換であり、その原理は特願平5−309473で詳し
く説明されている。この画像の変換はフィールド単位で
行うことで動画としてスクリーン2に投影することがで
きる。
By performing image conversion in three stages in this way, a projected image 5 to be projected by the projector can be obtained. In the actual deformation, the deformation of projection from surface to surface is repeated, and the image conversion is coordinate conversion by a conversion matrix, the principle of which is described in detail in Japanese Patent Application No. 5-309473. This image conversion can be projected on the screen 2 as a moving image by performing it in units of fields.

【0031】なお、仮想物体3をコンピュータグラフィ
クスで生成した場合、観察者1から仮想物体3をみたと
きのスクリーン上の画像4は、計算によりかなり正確に
求めることができるため、その像を作り出すような投影
像5と、プロジェクタの3次元データ(姿勢と画角)は
スクリーンを変換面とする1回の変換で行うことができ
る。
When the virtual object 3 is generated by computer graphics, the image 4 on the screen when the virtual object 3 is viewed from the observer 1 can be calculated quite accurately by calculation. The projection image 5 and the three-dimensional data (posture and angle of view) of the projector can be converted by one conversion using the screen as the conversion surface.

【0032】一方プロジェクタは3次元情報計測に使用
できる精度でその姿勢を制御できる雲台に搭載されてお
り、さらに画角もまた正確に制御可能である。投影像は
たとえばビデオプロジェクタのようにブラウン管式の投
影方式や液晶プロジェクタなどを使うことでカメラと同
様にフィールド単位で像を更新することができる。この
ようなプロジェクタを用いれば3次元情報とその変換パ
ラメータをフィールド単位で求めることでスクリーン2
上に動画として投影することができる。
On the other hand, the projector is mounted on a camera platform whose posture can be controlled with an accuracy that can be used for three-dimensional information measurement, and the angle of view can also be accurately controlled. The projected image can be updated on a field-by-field basis like a camera by using a cathode ray tube type projection system such as a video projector or a liquid crystal projector. If such a projector is used, the screen 2 can be obtained by obtaining the three-dimensional information and its conversion parameters in field units.
It can be projected as a movie on top.

【0033】観察者(選手)の位置は、選手を撮影する
カメラヘッドによって求められる。また仮想物体はコン
ピュータグラフィクスで合成するにしても、また3次元
情報計測を行うカメラヘッドを用いて撮影した画像を用
いるとしても、画像とともに必ず3次元情報が付随して
いる。したがって、スクリーン2の3次元空間での位置
と姿勢、およびプロジェクタの位置などのパラメータが
わかれば投影する画像の変換計算ができる。スクリーン
2の位置、プロジェクタのパラメータの求め方について
は後述する。
The position of the observer (player) is determined by the camera head that photographs the player. In addition, even if a virtual object is composed by computer graphics or an image taken by using a camera head that measures three-dimensional information is used, the three-dimensional information is always attached to the image. Therefore, if the parameters such as the position and orientation of the screen 2 in the three-dimensional space and the position of the projector are known, the conversion calculation of the projected image can be performed. How to obtain the position of the screen 2 and the parameters of the projector will be described later.

【0034】観察者である選手はまた被写体でもある。
選手を計測カメラヘッドで撮影することで得られた画像
は、先に提案した動画像処理装置と同様に編集される。
この時に仮想物体の情報も加えられる。この様子を図
4、図5、図6に示す。
The athlete, the observer, is also the subject.
The image obtained by photographing the player with the measurement camera head is edited in the same manner as the previously proposed moving image processing apparatus.
At this time, information on the virtual object is also added. This state is shown in FIGS. 4, 5, and 6.

【0035】図4ないし図6は直線のコースにスクリー
ン42が設けられ、観察者である選手41が走り、その
選手から見える比較対象の仮想の選手像をプロジェクタ
から投影し、この選手41をカメラヘッドMH1、MH
2で撮影する。撮影は図4のように行なわれる。選手4
1はスクリーン42にそって走る。選手はそのとき2台
の計測カメラヘッドMH1、MH2によって追尾され、
3次元位置の計測と画像の撮影が行なわれる。一方スク
リーン42にはプロジェクタヘッドPHから仮想物体で
ある別の選手の像が投影される。この像の投影位置、大
きさあるいは像そのものは計測されている選手41の位
置によって計算され、選手41から見たときに、仮想物
体が想定した位置に見えるように投影される。計測カメ
ラヘッドによって撮影された選手の画像は図5のように
基本的に対象物体としての選手だけの像である。しか
し、編集された画像は図6のように選手だけでなく仮想
物体である別の選手の像が加えられる。また必要に応じ
て背景を加えることもできる。この編集操作もまた選手
の3次元データ、仮想物体の3次元データに基づいて行
なわれる。仮想物体である別の選手のスクリーン上の像
は、選手の位置をもとにして計算されるから、もしその
仮想物体が移動しないものであっても観察者の選手が移
動すれば投影される像の位置、形は変化する。これによ
って選手から見るとスクリーンに投影されているにも係
わらず、仮想物体の位置がスクリーンの位置ではなく、
設定した仮想物体の位置にあるように感じられる。した
がってスクリーンと選手の位置関係は、選手が投影され
たスクリーン像を見ることができる場所であればどこで
も良い。
In FIGS. 4 to 6, a screen 42 is provided on a straight course, a player 41 who is an observer runs, a virtual player image of a comparison target seen by the player is projected from a projector, and the player 41 is taken by a camera. Head MH1, MH
Shoot at 2. The shooting is performed as shown in FIG. Player 4
1 runs along the screen 42. The athlete is then tracked by the two measurement camera heads MH1 and MH2,
Three-dimensional position measurement and image capturing are performed. On the other hand, an image of another player, which is a virtual object, is projected on the screen 42 from the projector head PH. The projected position, size, or the image itself of this image is calculated by the position of the player 41 being measured, and when viewed from the player 41, the virtual object is projected so as to appear at the assumed position. The image of the player captured by the measurement camera head is basically an image of only the player as the target object, as shown in FIG. However, the edited image includes not only the image of the player as shown in FIG. 6, but also the image of another player that is a virtual object. Also, a background can be added if necessary. This editing operation is also performed based on the three-dimensional data of the player and the three-dimensional data of the virtual object. The image of another player on the screen, which is a virtual object, is calculated based on the player's position, so even if the virtual object does not move, it will be projected if the observer player moves. The position and shape of the image change. As a result, the position of the virtual object is not the position of the screen, even though it is projected on the screen when seen from the player,
It feels like you are at the position of the virtual object you set. Therefore, the positional relationship between the screen and the player may be anywhere as long as the player can see the projected screen image.

【0036】このような図4に示す選手41の動作に対
応して仮想物体をスクリーン42に投影する画像表示装
置のブロック図を図7に示す。
FIG. 7 shows a block diagram of an image display device for projecting a virtual object on the screen 42 corresponding to the movement of the player 41 shown in FIG.

【0037】この画像表示装置のブロック図において、
カメラヘッド71、72、3次元演算ユニット73、画
像編集ユニット74の構成およびこの画像編集ユニット
74に与える背景画像を持つ背景データベース75およ
び仮想カメラのデータを与える仮想カメラコントローラ
76に係る構成は、先願にかかる特願平5−30947
3の構成と同じである。
In the block diagram of this image display device,
The configurations of the camera heads 71 and 72, the three-dimensional operation unit 73, the image editing unit 74, and the background database 75 having the background image given to the image editing unit 74 and the configuration of the virtual camera controller 76 giving the data of the virtual camera are described above. Japanese Patent Application 5-30947
The configuration is the same as that of 3.

【0038】この図7における特徴とする点は、図面の
下方部分に示される仮想物体を投影するための仮想物体
の画像およびその3次元情報をもつ仮想物体データベー
ス77、スクリーンの3次元情報をもつスクリーンデー
タベース78、仮想物体画像にプロジェクタの変換パラ
メータにより画像変換を行う画像変換ユニット80、観
察者および仮想物体の3次元情報に基づいてプロジェク
タヘッドの制御を行うプロジェクタコントローラ79、
このプロジェクタコントローラ79の制御出力により変
換された仮想物体の画像をスクリーンに投影するプロジ
ェクタヘッド81とを備えたことにある。このプロジェ
クタヘッド81は、プロジェクタ82、レンズ83、プ
ロジェクタ82を載置する雲台を制御する雲台モータ8
4、高精度のズーム機能の付いたレンズ83を制御する
レンズモータ85、この雲台モータ84、レンズモータ
85をサーボ制御するサーボ回路86を含む。
Characteristic points in FIG. 7 have a virtual object database 77 having an image of the virtual object for projecting the virtual object shown in the lower part of the drawing and its three-dimensional information, and three-dimensional information of the screen. A screen database 78, an image conversion unit 80 for converting an image of a virtual object image by a conversion parameter of the projector, a projector controller 79 for controlling a projector head based on three-dimensional information of an observer and a virtual object,
The projector head 81 projects the image of the virtual object converted by the control output of the projector controller 79 onto the screen. The projector head 81 includes a projector 82, a lens 83, and a platform motor 8 for controlling a platform on which the projector 82 is mounted.
4. A lens motor 85 for controlling the lens 83 having a high-precision zoom function, a pan head motor 84, and a servo circuit 86 for servo-controlling the lens motor 85 are included.

【0039】また、この画像表示装置は、音響効果を与
えることができ、サウンドデータベース87と、観察者
の3次元情報および仮想物体の3次元情報により出力す
る音響を制御するサウンド制御パラメータを出力するサ
ウンドコントローラ88と、このサウンド制御パラメー
タに基づいて出力する効果音を生成するディジタルシグ
ナルプロセッサ(DSP)89と、このDSP89の出
力を増幅して出力するアンプ90およびスピーカ91を
備えている。
Further, this image display device can give a sound effect, and outputs a sound database 87 and sound control parameters for controlling the sound to be outputted according to the three-dimensional information of the observer and the three-dimensional information of the virtual object. A sound controller 88, a digital signal processor (DSP) 89 that generates a sound effect to be output based on the sound control parameter, an amplifier 90 that amplifies and outputs the output of the DSP 89, and a speaker 91 are provided.

【0040】その動作を説明する。The operation will be described.

【0041】選手41の3次元位置は計測カメラヘッド
71、72と3次元演算ユニット73で計算される。こ
の例では選手の3次元位置の計測に計測ヘッドを2台つ
かったが、対象物体の性質によっては拘束平面を使って
1台でもよく、また3台以上としてもよい。3次元デー
タの計測とともに画像の撮影も行なわれる。撮影された
画像と3次元データは画像編集ユニット74で編集され
る。この編集操作については先願の特願平5−3094
73での画像編集ユニットでの画像編集における画像変
換で説明したので、ここでは省略する。
The three-dimensional position of the player 41 is calculated by the measurement camera heads 71 and 72 and the three-dimensional calculation unit 73. In this example, two measuring heads are used to measure the three-dimensional position of the player, but depending on the property of the target object, one may be used by using the constraining plane, or three or more may be used. An image is taken along with the measurement of the three-dimensional data. The captured image and three-dimensional data are edited by the image editing unit 74. Regarding this editing operation, Japanese Patent Application No. 5-3094
Since the image conversion in the image editing in the image editing unit at 73 has been described, it is omitted here.

【0042】また、選手41の3次元データは仮想物体
の計算にも使われる。仮想物体の画像および3次元デー
タは仮想物体データベース77をアクセスすることで得
られる。このデータは適当な物理モデルとコンピュータ
グラフィクスで作っても良いが、この例では別の選手の
計測データを使っている。この仮想物体データベース7
7は、たとえばスタートの合図からの経過時間を指定す
ることで仮想物体の3次元データで画像を取りだせるよ
うになっている。また仮想物体を投影するスクリーンの
3次元データはあらかじめ測定しておきスクリーンデー
タとしてスクリーンデータベース78に記録されてい
る。スクリーンを固定とした場合は、このデータは固定
値のテーブルとなるが、スクリーンもまた移動する場合
は、仮想物体データベースと同様たとえばスタート合図
からの経過時間をもとにスクリーンの3次元データが得
られるようになっている。
The three-dimensional data of the player 41 is also used to calculate a virtual object. The image of the virtual object and the three-dimensional data are obtained by accessing the virtual object database 77. This data may be created with an appropriate physics model and computer graphics, but in this example we use data from another player. This virtual object database 7
7, the image can be taken out by three-dimensional data of the virtual object by designating the elapsed time from the start signal, for example. The three-dimensional data of the screen on which the virtual object is projected is measured in advance and recorded in the screen database 78 as screen data. When the screen is fixed, this data becomes a table of fixed values, but when the screen also moves, like the virtual object database, for example, three-dimensional data of the screen is obtained based on the elapsed time from the start signal. It is designed to be used.

【0043】プロジェクタコントローラ79はこれらを
もとに、投影位置を計算しプロジェクタヘッド81をコ
ントロールする。画像の変換パラメータを求め画像変換
ユニット80を制御して仮想物体データベース77から
の画像を変換し、プロジェクタ82で投影する。この計
算を行なうときに問題となるのが、時間的なずれであ
る。選手の3次元位置は通常、数フィールド遅れで得ら
れる。また投影する画像のデータベースアクセスや、画
像変換や投影でも数フィールドの遅れが生じる。その時
間が問題とならないような遅い動きもあるが通常の人間
の動きであってもずれを感じる。そのため、制御にはフ
ィードフォワードの要素が必要になる。まず、仮想物体
のデータベースアクセスは、スタート合図からの時間で
行なわれるから、実際のスタート合図に先行して行なう
ことができる。さらに選手の3次元データは、選手の動
きを予測して先行して計算する。選手の動きの予測は、
図4の例のような単に走るだけの場合は簡単であるが、
複雑な動きの場合は物理モデルを考えるなどの工夫が必
要になる場合がある。また、特殊なカメラと特殊なビデ
オプロジェクタをつかってフィールド周期を高速にする
ことで遅れの時間を減らすことができる。この場合、仮
想物体データは、基本的に絶対時刻で3次元データは管
理されているからフィールド周期が異なっていても計算
は支障なくできるが、仮想物体データも高速フィールド
周期の方が画像の点で望ましい。
Based on these, the projector controller 79 calculates the projection position and controls the projector head 81. The conversion parameter of the image is obtained, the image conversion unit 80 is controlled to convert the image from the virtual object database 77, and the image is projected by the projector 82. A problem with this calculation is the time lag. A player's 3D position is usually obtained a few fields behind. In addition, there is a delay of several fields in the database access of the projected image, the image conversion and the projection. There are slow movements where the time is not a problem, but even normal human movements feel a shift. Therefore, a feedforward element is required for control. First, since the virtual object database is accessed in the time from the start signal, it can be performed prior to the actual start signal. Furthermore, the player's three-dimensional data is calculated in advance by predicting the player's movement. The prediction of player movement is
It's easy to just run like the example in Figure 4, but
In the case of complicated movements, it may be necessary to devise a physical model. Also, the delay time can be reduced by using a special camera and a special video projector to increase the field period. In this case, since virtual object data is basically managed in absolute time and three-dimensional data is managed, calculation can be performed without a problem even if the field cycle is different, but the virtual object data also has a higher image point at a high-speed field cycle. Is desirable.

【0044】プロジェクタヘッド81は、基本的に計測
カメラヘッドのカメラをビデオプロジェクタに取り替え
たものである。像を投影するビデオプロジェクタ(プロ
ジェクタ82)は、超高輝度CRTを使ったものや、液
晶シャッタを使ったものなどがあるが、フィールド周期
で投影する画像を更新でき、必要な輝度が得られれば基
本的に方式に制約はないが、動特性を良くすることを考
えると重量が軽く、振動に強い方式のものが良い。
The projector head 81 basically replaces the camera of the measurement camera head with a video projector. Video projectors (projectors 82) that project images include those that use an ultra-high brightness CRT and those that use a liquid crystal shutter, but if the image to be projected can be updated in the field cycle and the required brightness is obtained. Basically, there are no restrictions on the method, but in order to improve the dynamic characteristics, a method that is light in weight and strong against vibration is preferable.

【0045】ビデオプロジェクタの画像はレンズ83に
よってスクリーンへ投影される。このレンズは、画角を
正確にコントロールする必要がある。ビデオプロジェク
タ自体の解像度が十分にあり、また輝度も十分にあれば
レンズを画角は必要とされる最大の画角に固定してもよ
い。その場合でも画角は正確に求める必要があり、また
リモートコントロールで画角を制御できたほうが便利で
ある。カラー画像を投影する場合には、複数のビデオプ
ロジェクタと複数のレンズを組み合わせてもよい。その
ときは色ズレが生じないようにレンズの特性を良く合わ
せておくことが必要である。この例では液晶プロジェク
タを使うことで色の混合はプロジェクタ内部の光学系を
使い、投影レンズは1つとしている。レンズのコントロ
ールは、画角以外にフォーカスがあるが、スクリーンの
3次元データとプロジェクタヘッドの3次元データがわ
かっているからスクリーンとの距離は計算で求められ
る。この値をもとにレンズモータ85でレンズ83は駆
動される。スクリーンとプロジェクタに角度がつくと画
像の中で距離が異なってしまうため、写界深度の大き
な光学系にしたほうが良い。
The image of the video projector is projected on the screen by the lens 83. This lens requires precise control of the angle of view. If the resolution of the video projector itself is sufficient and the brightness is sufficient, the lens may be fixed to the maximum required angle of view. Even in that case, the angle of view must be accurately calculated, and it is more convenient to be able to control the angle of view by remote control. When projecting a color image, a plurality of video projectors and a plurality of lenses may be combined. In that case, it is necessary to match the characteristics of the lenses well so that color misregistration does not occur. In this example, a liquid crystal projector is used to mix colors by using an optical system inside the projector and one projection lens. The lens control has a focus in addition to the angle of view, but since the three-dimensional data of the screen and the three-dimensional data of the projector head are known, the distance to the screen can be calculated. The lens 83 is driven by the lens motor 85 based on this value. Since the take an angle to the screen and the projector would distances are different in the image, it is better to have a large optical system of depth of field.

【0046】これらのプロジェクタ82とレンズ83は
精密に角度をコントロールできる雲台に乗っている。画
像の回転については画像変換で行なうとすればこの雲台
は2自由度あればよく、計測ヘッドと同様なものがつか
える。この例では、動特性と精度を考慮しダイレクトド
ライブモータを2つ使った雲台としている。この雲台と
プロジェクタはプロジェクタコントローラ79からの指
示にしたがって指定された姿勢になるようにサーボ系が
組まれている。十分な動特性がある場合、コントローラ
79の指示と実際の雲台の姿勢の間にはずれがないが、
通常はずれがある。精度をあげるためにはこれを考慮
し、画像変換パラメータなどの計算には、コントローラ
79の指示値ではなくプロジェクタヘッド81の実際の
姿勢の値を使う必要がある。またプロジェクタ82の解
像度が十分にある場合、必要な画角よりも広めの画角と
することで、仮想物体の像のスクリーン上の動きをプロ
ジェクタヘッドの動きだけでなく投影する画像の中での
動きで置き換えることもできる。このようにすることで
プロジェクタヘッド81に要求される動特性を緩和する
ことができる。
These projector 82 and lens 83 are mounted on a pan head whose angle can be precisely controlled. As for the rotation of the image, if the image conversion is performed, this platform needs only to have two degrees of freedom, and the same head as the measuring head can be used. In this example, a pan head using two direct drive motors is used in consideration of dynamic characteristics and accuracy. The platform and the projector are assembled with a servo system so as to have a designated posture in accordance with an instruction from the projector controller 79. If there is sufficient dynamic characteristics, there is no difference between the instruction from the controller 79 and the actual posture of the platform,
There is usually a gap. In order to improve the accuracy, it is necessary to consider this and use the actual posture value of the projector head 81 instead of the instruction value of the controller 79 for the calculation of the image conversion parameters and the like. Further, when the resolution of the projector 82 is sufficient, by setting the angle of view wider than the required angle of view, the movement of the image of the virtual object on the screen is not limited to the movement of the projector head, but also in the projected image. It can also be replaced by movement. By doing so, the dynamic characteristics required for the projector head 81 can be relaxed.

【0047】以上のような系をつかえば被写体である選
手に仮想物体を認識させることができるが、さらに臨場
感を高めるためこの例では音響効果を加えている。音響
効果は臨場感を高めるだけでなく、たとえばスタート合
図としてのスターターの声とかピストルの音など選手に
とって重要である。この例ではそれに加えて臨場感を出
すようになっている。実際の音をサンプリングしたり電
気的に合成したりした効果音のもとになるそれぞれの音
はサウンドデータベース87に蓄えられている。これに
はスターターの声や、会場の歓声などが含まれる。また
その選手を応援する声など選手に固有のデータも含める
ことができる。選手の3次元位置がわかるからゴールに
近づくと歓声が大きくなるなどの制御ができる。この制
御をおこなうのがサウンドコントローラ88である。選
手の3次元データと仮想物体である別の選手の3次元デ
ータをもとに追い抜きなどがわかるからその場合に選手
の応援の声を加えたり、歓声の音量を変化させたりす
る。このような操作を行なうのはデジタルシグナルプロ
セッサ(DSP)89である。このDSP89には複数
のアンプ90と複数のスピーカ91が接続されていて、
音量、音質コントロールのほかに、複数のスピーカーを
使った音場のコントロールが可能となっている。音場の
コントロールでスピーカの位置と独立に音の方向などを
コントロールできる。選手の移動に伴ない、音の方向を
コントロールすることで応援席の前の通過や、別の選手
の追い抜きでの選手の息遣い音の移動などをリアルに再
現できる。また選手の近くにはスクリーンがあるが音場
コントロールをすることでスクリーンによる音の反射の
影響を減らし、スクリーンの存在感をすこしでも減らす
ことにも役立てることができる。
By using the above system, the player, who is the subject, can recognize the virtual object, but in this example, the acoustic effect is added in order to further enhance the sense of reality. Sound effects not only enhance the sense of presence, but are also important for athletes, such as the starter's voice as a starting signal or the sound of a pistol. In this example, in addition to that, a sense of presence is added. Each sound that is a source of a sound effect obtained by sampling an actual sound or electrically synthesizing the sound is stored in the sound database 87. This includes the voice of the starter and the cheers of the venue. It is also possible to include data specific to a player, such as the voice of cheering for that player. Since the player can see the 3D position of the player, he / she can control that the cheer becomes louder as he approaches the goal. The sound controller 88 performs this control. Based on the three-dimensional data of the player and the three-dimensional data of another player, which is a virtual object, it is possible to know the overtaking and so on. In that case, the voice of cheering the player is added or the volume of cheering is changed. The digital signal processor (DSP) 89 performs such an operation. A plurality of amplifiers 90 and a plurality of speakers 91 are connected to the DSP 89,
In addition to volume and sound quality control, it is possible to control the sound field using multiple speakers. By controlling the sound field, the direction of sound can be controlled independently of the position of the speaker. By controlling the direction of the sound as the player moves, it is possible to realistically reproduce the passage in front of the cheering seat and the movement of the player's breathing sound when overtaking another player. Also, although there is a screen near the player, controlling the sound field can reduce the influence of sound reflection by the screen, and can be useful for reducing the presence of the screen even slightly.

【0048】本システムでは観察者である選手が被写体
で常にその位置が測定されているから、その位置に応じ
て周囲の状態を変化させることができる。したがって画
像や音以外にも観察者が認識できる刺激たとえば風のな
がれや、床を傾けたりして加速度を変化させたり、温度
や照明などを観察者の位置に応じて変化させることで、
さらに臨場感を盛り上げられる。
In this system, the position of the player, who is the observer, is always measured on the subject, so that the surrounding conditions can be changed according to the position. Therefore, in addition to images and sounds, stimuli that can be recognized by the observer, such as the flow of wind, tilting the floor to change the acceleration, and changing the temperature and lighting according to the observer's position,
Furthermore, the presence can be heightened.

【0049】(第2実施例)仮想物体が複数の場合、プ
ロジェクタヘッドを仮想物体の数だけ並べる方法もある
が、観察者から見て同じような方向に見える仮想物体
は、プロジェクタヘッドが投影する画像の変換処理で加
え合わせることができる。それぞれの仮想物体は3次元
データをもとに画像の変換を行なう。また同時にそれぞ
れの仮想物体の3次元データがあるから観察者から見た
ときの前後関係は計算できる。計算された前後関係に応
じて変換された画像を重ね合わせることで、複数の対象
物体を1つのプロジェクタの像とすることができる。複
数の仮想物体がある場合、図8のように仮想物体が静止
していたとしても、観察者の移動に伴なって重なり具合
が変化する。図8では3つの仮想物体を投影している。
この図でスクリーン2とプロジェクタヘッド93は静止
している。仮想物体94、95、96がこの図のような
位置関係にあるものとしてスクリーン2に投影される。
観察者1は図示されてはいないが、計測ヘッドによって
3次元データを計測されている。そして投影される画像
は観察者1の3次元データに基づいて合成されるのはい
うまでもない。観察者1がAの位置にいた場合、スクリ
ーンに投影される画像は図9Aのようになる。仮想物体
95は仮想物体94に隠れて見えない。また仮想物体と
観察者の距離が遠いため全体は小さい。観察者がBの位
置に移動するとスクリーンの画像は図9Bのようにな
る。Aの位置では隠れていた仮想物体95が見えてく
る。さらに観察者がCの位置に移動すると画像は図9C
のようになる。今度は仮想物体96が隠れ、観察者との
距離が近くなって大きくなる。これらは観察者の位置を
もとに仮想物体のスクリーン上の画像を作り出したもの
であるから、平面画像である。しかし観察者にとってみ
れば自分の位置がかわると見え方が変化するため、立体
的な感じをうける。ちょうど部屋の中を歩き回ったとき
に窓からみえる外の景色が見る位置で変化するのと同じ
感じをうける。
(Second Embodiment) When there are a plurality of virtual objects, there is a method of arranging as many projector heads as there are virtual objects. However, virtual objects that are viewed in the same direction by an observer are projected by the projector head. They can be added together by image conversion processing. The image of each virtual object is converted based on the three-dimensional data. At the same time, since there is three-dimensional data of each virtual object, the front-rear relationship when viewed from the observer can be calculated. By superimposing the images converted according to the calculated context, a plurality of target objects can be taken as one projector image. When there are a plurality of virtual objects, the degree of overlap changes with the movement of the observer even if the virtual objects are stationary as shown in FIG. In FIG. 8, three virtual objects are projected.
In this figure, the screen 2 and the projector head 93 are stationary. The virtual objects 94, 95, 96 are projected on the screen 2 as having a positional relationship as shown in this figure.
Although not shown, the observer 1 measures the three-dimensional data with the measuring head. Needless to say, the projected image is synthesized based on the three-dimensional data of the observer 1. When the observer 1 is in the position A, the image projected on the screen is as shown in FIG. 9A. The virtual object 95 cannot be seen because it is hidden by the virtual object 94. In addition, the distance between the virtual object and the observer is large, so the whole is small. When the observer moves to the position B, the screen image becomes as shown in FIG. 9B. At the position A, the hidden virtual object 95 becomes visible. Further, when the observer moves to the position of C, the image is shown in FIG. 9C.
become that way. This time, the virtual object 96 is hidden, and the distance to the observer becomes shorter and the virtual object 96 becomes larger. These are plane images because they create an image of the virtual object on the screen based on the position of the observer. However, for the observer, the appearance changes when the user's position changes, giving the viewer a three-dimensional feeling. Just as you walk around in the room, you get the same feeling as the outside view seen through the window changes depending on the viewing position.

【0050】図8では、投影される画像はスクリーンの
一部分であったが、十分な解像度のプロジェクタで広い
画角で投影したり複数のプロジェクタを使うことで広い
範囲に投影することができるようになる。それによって
多くの仮想物体を配置することが可能となる。仮想物体
には移動物体および景色のような静止している物体の両
方がつかえる。これによってスクリーン全面の画像が観
察者の位置で変化させることができる。さらに観察者の
移動範囲をスクリーンで囲むことで、観察者からみた周
りの環境すべてを画像で合成できる。
In FIG. 8, the projected image is a part of the screen, but it is possible to project it in a wide range by projecting with a projector having a sufficient resolution at a wide angle of view or by using a plurality of projectors. Become. This allows many virtual objects to be placed. Virtual objects can include both moving objects and stationary objects such as landscapes. This allows the image on the entire screen to be changed at the position of the observer. Furthermore, by enclosing the moving range of the observer with a screen, it is possible to combine all the surrounding environments seen by the observer with an image.

【0051】また計測カメラヘッドの視野を観察者全身
が写るようにして、手や足の関節や頭などにマーカをつ
けたりすることで、観察者の位置だけでなく姿勢や、指
の方向、頭の向きなどの3次元データも同時に得られ
る。この場合隠れたりすることがあるから計測カメラヘ
ッドは複数の方向から撮影することが必要となるときも
ある。このようにして観察者の位置と姿勢などをリアル
タイムで計測することができるからゴーグルや、データ
スーツのような特殊な装置を装着することなしにバーチ
ャルリアリティを実現できる。
By making the field of view of the measuring camera head visible to the whole body of the observer and attaching markers to the joints of the hands and feet, the head, etc., not only the position of the observer but also the posture, the direction of the fingers, the head, etc. Three-dimensional data such as the orientation of can be obtained at the same time. In this case, the measurement camera head may need to shoot from a plurality of directions because it may be hidden. In this way, the position and orientation of the observer can be measured in real time, so that virtual reality can be realized without wearing goggles or a special device such as a data suit.

【0052】(第3実施例)観察者の移動に合わせて、
スクリーンに投影した仮想物体の像を移動させる場合、
観察者とスクリーンとプロジェクタヘッドの関係によっ
ては影ができる可能性がある。図10のような配置の場
合プロジェクタヘッド102から投影すると、観察者1
の影が投影像に写ってしまうことになる。図4や図8よ
うにスクリーン2の背面から投影すれば影はできない
が、広い場所を必要とする。また図11のようにプロジ
ェクタヘッドを平行移動すれば比較的場所は取らない
が、画像変換に必要な精度で位置がわかる平行移動機構
が大規模で複雑になる。また観察者1はその位置を1つ
あるいは複数の計測カメラヘッド103で測定されるこ
とが必要である。したがってスペースを有効に使うため
には、計測カメラヘッドとプロジェクタヘッドをスクリ
ーンの同じ側に配置できる必要がある。
(Third Embodiment) As the observer moves,
When moving the image of the virtual object projected on the screen,
A shadow may be formed depending on the relationship between the observer, the screen and the projector head. In the case of the arrangement shown in FIG. 10, when the image is projected from the projector head 102, the observer 1
Will be reflected in the projected image. A shadow cannot be formed by projecting from the back surface of the screen 2 as shown in FIGS. 4 and 8, but it requires a large space. Further, if the projector head is moved in parallel as shown in FIG. 11, a relatively small space is required, but the parallel movement mechanism that can detect the position with the accuracy required for image conversion becomes large-scale and complicated. Further, the observer 1 needs to measure the position with one or a plurality of measurement camera heads 103. Therefore, in order to use the space effectively, it is necessary to arrange the measurement camera head and the projector head on the same side of the screen.

【0053】この実施例ではプロジェクタヘッドを複数
使い、1つのスクリーン画像を投影する。プロジェクタ
を動かす場合、その位置と姿勢をフィールド周期で画像
変換に必要な精度で知る必要がある。図11のような平
行移動タイプでも位置と姿勢がわかるようになっていれ
ばつかえるが装置の規模が大きくなってしまう。この例
では図12のように回転軸を2つ持っている極座標タイ
プのプロジェクタヘッドを使う。ビデオプロジェクタ1
21は、ティルト軸モータ123とパン軸モータ124
の2つのモータで向きを変えられる。計測カメラヘッド
に比べてビデオプロジェクタは重いためベース125は
かなりしっかりと固定する必要がある。この例ではビデ
オプロジェクタ自体を回転させるが、ミラーなどを使え
ば回転部分は軽くすることもできる。またこの例では2
つの回転軸の交点に投影レンズ122の光軸がくるよう
になっているが、ずれていてもそのズレが回転によって
変化しなければ、画像変換の計算の時にズレを考慮する
ことで補正できる。
In this embodiment, a plurality of projector heads are used to project one screen image. When moving the projector, it is necessary to know its position and orientation with the accuracy required for image conversion in the field cycle. Even the parallel movement type as shown in FIG. 11 can be used if the position and orientation can be understood, but the scale of the apparatus becomes large. In this example, a polar coordinate type projector head having two rotation axes as shown in FIG. 12 is used. Video projector 1
21 is a tilt shaft motor 123 and a pan shaft motor 124.
You can change the direction with two motors. Since the video projector is heavier than the measurement camera head, it is necessary to fix the base 125 fairly firmly. In this example, the video projector itself is rotated, but the rotating portion can be lightened by using a mirror or the like. Also in this example 2
Although the optical axis of the projection lens 122 comes to the intersection of the two rotation axes, if the deviation does not change due to rotation even if it is deviated, it can be corrected by considering the deviation when calculating the image conversion.

【0054】図10ではこのような2つの極座標タイプ
のプロジェクタヘッド101、102を使っている。い
まプロジェクタヘッド102から投影すると観察者の影
ができてしまうが、プロジェクタヘッド101は影にな
らずに像を投影できる。このように複数のプロジェクタ
ヘッドをつかえば観察者の位置によらずに常に仮想物体
の像を投影することができる。
In FIG. 10, such two polar coordinate type projector heads 101 and 102 are used. Now, when the projector head 102 is projected, a shadow of an observer is formed, but the projector head 101 can project an image without forming a shadow. In this way, by using a plurality of projector heads, it is possible to always project the image of the virtual object regardless of the position of the observer.

【0055】複数のプロジェクタヘッドをつかった場
合、切り替えが必要になってくる。観察者の位置をふく
め投影に必要な3次元データはすべて測定されているか
ら、どういう状態で投影に邪魔になるかは計算できる。
この例では、観察者が影を作るため観察者の位置と投影
位置の関係によってプロジェクタヘッドを切り替えれば
良い。また建物の柱などが邪魔になる場合はプロジェク
タヘッドの角度によって切り替えることができる。もっ
とも単純なのは切り替え条件が成立した時点でフィール
ド単位で片方のプロジェクタヘッドの画像からもう一方
のプロジェクタヘッドの画像へ切り替えてしまう方法で
ある。それぞれのプロジェクタヘッドはビデオプロジェ
クタであるからフィールド単位で画像を出したり、止め
たりすることには何の問題もなく切り替えは容易にでき
る。それに対して投影位置および画角を決定するのはメ
カニカルな機構であるため動きに制約がある。したがっ
て像を投影していないほうのプロジェクタヘッドであっ
ても切り替え時点で投影位置、画角が一致するようにメ
カの制御は切り替え前後で一定時間は連続して動かす必
要がある。切り替え条件を対象物体の3次元データをも
とに決める場合、どうしても誤差やノイズの影響があ
る。対象物体の移動速度が小さい場合や、3次元計測の
ノイズが多い場合などは複数の画像切り替えを繰り返
し、見た目に良くない場合がある。そのときは、切り替
え条件にヒステリシスを持たせると良い。例えばあるプ
ロジェクタヘッドの画像から別のプロジェクタヘッドの
画像に切り替える条件とその逆に切り替える条件に幅を
もたせ、途中でばたばたと切り替わるのをふせぐ。
When a plurality of projector heads are used, switching becomes necessary. Since all three-dimensional data necessary for projection including the position of the observer have been measured, it is possible to calculate in what state the projection is obstructed.
In this example, since the observer creates a shadow, the projector head may be switched depending on the relationship between the observer's position and the projection position. Also, when the pillars of the building are in the way, they can be switched depending on the angle of the projector head. The simplest method is to switch from the image of one projector head to the image of the other projector head on a field-by-field basis when the switching condition is satisfied. Since each projector head is a video projector, there is no problem in outputting or stopping an image in field units, and switching can be easily performed. On the other hand, since it is a mechanical mechanism that determines the projection position and the angle of view, there are restrictions on the movement. Therefore, even for the projector head that is not projecting an image, the mechanical control needs to be continuously moved for a certain period of time before and after switching so that the projection position and the field angle match at the time of switching. When the switching condition is determined based on the three-dimensional data of the target object, there are inevitable effects of error and noise. When the moving speed of the target object is low, or when there is a lot of noise in the three-dimensional measurement, a plurality of image switching may be repeated and the appearance may not be good. In that case, it is advisable to add hysteresis to the switching conditions. For example, a condition for switching from an image of a certain projector head to an image of another projector head and a condition for switching the image from the other projector head are given a range to prevent switching from flapping in the middle.

【0056】切り替えを行なうプロジェクタヘッドどう
しが離れている場合は、図13のように投影範囲の形は
大きく異なる。投影位置はおなじでも右の方向からの投
影では範囲は131のような形になるのに対して、左の
方向からの投影では132のようになる。プロジェクタ
の画面いっぱいに映像がある場合、この投影範囲の形が
切り替えの瞬間大きく変化して不自然になる。そのため
切り替えが行なわれる場合、仮想物体の像としてつかえ
るのはこれらの共通領域である133の領域に限られ
る。なお、切り替えに伴なう画像の変化が許される場合
はこの限りではない。
When the projector heads for switching are separated from each other, the shape of the projection range greatly differs as shown in FIG. Even if the projection position is the same, the range is 131 when projected from the right direction, and 132 when projected from the left direction. When there is an image on the full screen of the projector, the shape of this projection range changes greatly at the moment of switching, which makes it unnatural. Therefore, when switching is performed, only the common area 133, which is the common area, can be used as the image of the virtual object. Note that this is not the case when a change in the image due to switching is permitted.

【0057】投影位置、画角に誤差が少なく、投影され
る像が共通領域に入っている場合で、解像度に十分な余
裕があり、色バランスが十分にとれている場合は、フィ
ールド単位で完全に切り替えてしまっても像の変化は小
さく不自然ではない。しかし投影位置、画角はメカニカ
ルに決めるためサーボの遅れなどでぴったりと一致させ
るのはむずかしく、さらに解像度に余裕があることは少
なく、色もばらつくため投影される画像に違いが出てし
まう。そのときに完全に切り替えると不自然さが出る場
合がある。その場合は完全に切り替える前に2つの画像
から合成した中間的な画像をつかって柔らかく切り替え
る。たとえば画像の編集で良く行なわれるクロスフェー
ドのような感じで切り替える。つまり切り替えの間は一
時的に複数のプロジェクタからの像が混じって投影され
ることになる。そしてそれぞれのプロジェクタの輝度を
変化させることでなめらかに切り替える。
When there are few errors in the projection position and the angle of view, the projected image is in the common area, and there is sufficient margin in resolution and color balance is sufficient, it is possible to complete in field units. Even if you switch to, the change in the image is small and not unnatural. However, since the projection position and angle of view are mechanically determined, it is difficult to match them exactly due to servo delays, etc., and there is little margin in resolution, and the projected images differ due to color variations. At that time, if you switch completely, it may be unnatural. In that case, before completely switching, an intermediate image composed of two images is used to switch softly. For example, switching is performed with a feeling like a crossfade that is often performed in image editing. That is, images from a plurality of projectors are temporarily mixed and projected during the switching. Then, the brightness of each projector is changed to switch smoothly.

【0058】ところで、切り替え条件とかさなる条件の
ところを短時間で通過してしまえば問題はないが、ちょ
うど中間的な値の部分が長時間かかる場合は、切り替え
の方向を考えて、空間的な位置では切り替え条件の途中
であっても、一定時間でその切り替えを終了させてしま
うことが必要になる。図10のように観察者の選手が走
る場合、ゴール位置近くや、とくに選手が静止するスタ
ート位置では投影される画像は高画質が要求されるのに
対して、走っている途中は選手は動いているから投影さ
れる画質はそれほど良くなくても気にならない。このよ
うに観察者の位置や、動き、姿勢などで要求される仮想
物体の像の画質は異なる。図10では、そのためゴール
とスタート位置では最高の画質が得られるように2つの
プロジェクタヘッドは、それぞれゴールとスタート位置
近くでスクリーンとプロジェクタの光軸が垂直に近くな
るように配置されている。また、切り替えは選手が走っ
ている途中で行なえるような配置にしている。
By the way, there is no problem if the switching condition and the other condition are passed in a short time. However, when the intermediate value portion takes a long time, the switching direction is considered and the spatial condition is considered. At the position, even if the switching condition is in the middle, it is necessary to finish the switching within a certain time. When an observer player runs as shown in FIG. 10, the projected image is required to have high image quality near the goal position, particularly at the start position where the player stands still, while the player moves while running. Therefore, it doesn't matter if the projected image quality is not so good. In this way, the image quality of the image of the virtual object required by the position, movement, and posture of the observer differs. In FIG. 10, therefore, the two projector heads are arranged so that the optical axes of the screen and the projector are close to vertical near the goal and start positions, respectively, so that the best image quality is obtained at the goal and start positions. In addition, the switching is arranged so that the athletes can perform it while running.

【0059】(第4実施例)今までの例ではスクリーン
は観察者の横の固定された平面だけを扱っていたが、投
影される画像の変換に必要な3次元データが得られれ
ば、平面である必要はなく、また静止している必要もな
い。また投影された画像が観察者に見ることができれ
ば、半透明で後ろが透けて見えても問題はないし、水
や、煙、水中の泡など固体である必要もない。
(Fourth Embodiment) In the examples so far, the screen handles only a fixed plane beside the observer, but if three-dimensional data necessary for conversion of the projected image can be obtained, the plane can be treated. Need not be, and need not be stationary. Also, if the projected image can be seen by the observer, there is no problem if it is translucent and the back can be seen through, and it need not be solid such as water, smoke, and bubbles in water.

【0060】図14は楕円形のトラックを選手が走る場
合で、スクリーンは半透明で、曲面である。また図15
は床をスクリーンとした例である。水泳などではプール
の底をスクリーンとして水中への投影もできる。またペ
ースがわかれば良い程度の画質を問わない投影であれば
水面の泡などに投影することもできる。図16のように
観察者を囲むようなスクリーンを通常の材料で作ると、
観察者を計測カメラヘッドが捕らえられなくなってしま
う。しかし計測カメラヘッドは可視光を使う必要はな
く、たとえば近赤外線をつかった計測カメラヘッドを使
うことができる。スクリーンを近赤外線は透過し、可視
光は乱反射するようにすればこのようなスクリーンの配
置であっても観察者を計測することができる。
FIG. 14 shows a case where a player runs on an elliptical track, and the screen is semitransparent and has a curved surface. Also in FIG.
Is an example where the floor is a screen. For swimming, the bottom of the pool can be used as a screen for underwater projection. In addition, if the projection does not matter the image quality as long as the pace is known, it can be projected on bubbles on the water surface. If you make a screen that surrounds the observer with a normal material as shown in Fig. 16,
The observer cannot capture the measurement camera head. However, the measurement camera head does not need to use visible light, and for example, a measurement camera head using near infrared rays can be used. If near-infrared rays are transmitted through the screen and visible light is diffusely reflected, an observer can be measured even with such a screen arrangement.

【0061】スクリーンの位置と姿勢など3次元データ
を計測すると、スクリーンを動かしても画像の変換がで
きる。スクリーンはある程度の大きさが必要だから動か
す場合指定された位置へ必要な精度でもっていくのは非
常に難しい。しかし、必要なのはその位置にもっていく
ことでなくスクリーンの3次元データであるから、移動
機構はそれほど精度がなくても良い。図17にそのよう
な例を示す。スクリーンは自走車にのっているため精度
はそれほどでないが、観察者とともにスクリーン自体も
計測カメラヘッドMH1〜MH4によって3次元データ
を計測されている。スクリーンの隅にはマーカが取り付
けられ位置とともにその姿勢も計測される。これによっ
て画像変換に必要な精度を確保する。なおこのようなス
クリーンを動かす場合、平面スクリーンだと空気の抵抗
が大きいため、網状のものがよい。そのとき必要な画質
によって網目の細かさや、開口率をえらぶ。
By measuring three-dimensional data such as the position and orientation of the screen, the image can be converted even if the screen is moved. Since the screen needs a certain size, it is very difficult to bring the required accuracy to the specified position when moving it. However, it is not necessary to move to that position, but the three-dimensional data of the screen, so the movement mechanism does not need to be so precise. FIG. 17 shows such an example. Although the screen is mounted on a self-propelled vehicle, the accuracy is not so great, but the three-dimensional data is measured by the measurement camera heads MH1 to MH4 together with the observer. A marker is attached to the corner of the screen to measure the position and the posture thereof. This ensures the accuracy required for image conversion. When moving such a screen, a flat screen is preferable because the resistance of air is large. At that time, the fineness of the mesh and the aperture ratio are selected according to the required image quality.

【0062】図18は、スクリーンを観察者といっしょ
に動かす例である。スクリーンにはその姿勢がわかるよ
うなマーカが取り付けられる。この図ではスクリーンと
観察者の顔の向きが一致するようになっているがスクリ
ーンの姿勢と観察者の顔の向きは一致する必要はない。
それぞれ独立に計測してしまえば良いから、スクリーン
をしっかりと固定せずぶらぶらしていても良い。ただし
この場合、スクリーンの姿勢と観察者の顔の動きはかな
り早く、3次元データを計測する計測カメラのフィール
ド周期は通常のTVカメラの1/60秒では遅すぎるた
め特殊なカメラが必要になる場合がある。
FIG. 18 shows an example in which the screen is moved together with the observer. A marker is attached to the screen so that its posture can be seen. In this figure, the orientation of the screen and the face of the observer match, but the orientation of the screen and the orientation of the face of the observer do not have to match.
Since it is sufficient to measure each independently, you may hang around without fixing the screen firmly. However, in this case, the posture of the screen and the movement of the observer's face are fairly fast, and the field cycle of the measurement camera for measuring the three-dimensional data is too slow, which is 1/60 seconds of a normal TV camera, so a special camera is required. There are cases.

【0063】(第5実施例)いままでの例では、計測カ
メラヘッドとプロジェクタヘッドの位置や回転軸、レン
ズパラメータなどはわかっているものとしていたが、こ
れらのパラメータは画像変換や3次元データ計測の精度
に非常に大きく影響する。計測カメラヘッドとプロジェ
クタヘッドを新たに設置したときはもちろんなんらかの
はずみで位置がずれたりした場合はそれらのパラメータ
を求めなければならない。それぞれのヘッドについての
パラメータは設計値や、工場での測定ができた場合で
も、ヘッドを現地に設置した場合、ヘッド相互の位置関
係は現地で求めなければならない。そこでそれらを求め
る方法について簡単に説明する。パラメータを求めるに
は、実際に動作させ、あらかじめ設定してあるリファレ
ンスと比較してキャリブレーションを行うことで求め
る。
(Fifth Embodiment) In the above examples, the positions of the measurement camera head and the projector head, the rotation axis, the lens parameters, etc. are known, but these parameters are used for image conversion and three-dimensional data measurement. Greatly affects the accuracy of. When the measurement camera head and the projector head are newly installed, and if their positions are displaced due to some kind of momentum, those parameters must be obtained. Even if the parameters for each head are designed values or can be measured at the factory, if the heads are installed locally, the positional relationship between the heads must be found locally. Therefore, a method for obtaining them will be briefly described. In order to obtain the parameters, the parameters are actually operated and compared with a preset reference to perform calibration.

【0064】まず、計測カメラヘッドのパラメータを求
める。レンズの画角や、フォーカス、絞りのデータにつ
いてはあらかじめジグ(jig)をつかって測定しておく。
図19のように形と大きさのわかっているキャリブレー
ション用の立体をおき、観察者の移動範囲、計測カメラ
ヘッドの計測範囲などを考慮して空間に決めた座標軸で
の立体の位置と姿勢を計測カメラヘッドコントローラに
入力する。一番最初は、計測カメラヘッド181をオペ
レータがマニュアルで操作してこの立体を計測カメラの
視野に入れる。その場合フォーカスもマニュアルで操作
するのは大変であるから、カメラが撮影した画像をもと
にたとえば視野中心の高周波成分が最大となるようなア
ルゴリズムでオートフォーカスコントロールをすること
ができる。これはオペレータの負担を軽減するととも
に、かなり概略ではあるが距離の情報も得られる。キャ
リブレーションに使用する空間座標は、点数を理論的に
必要な点数よりも増やすことで統計処理を用いることに
より精度を上げることができる。次にレンズパラメータ
は固定のまま自動的に計測カメラヘッドの各軸が回転す
る。キャリブレーション立体は静止しているが撮影され
た画像の中ではヘッドの回転に伴なって動いて見える。
これからヘッド自身の回転軸の空間的な位置を求めるこ
とができる。回転角度については回転軸についているエ
ンコーダの繰り返し精度が十分にあるためとくにキャリ
ブレーションは行なう必要はない。これらの操作は複数
の計測カメラヘッドがある場合同時に行なうことができ
る。精度をあげるため、レンズの画角を変えて同様な操
作を行なったり、キャリブレーション立体の位置を変え
たり、複数の計測カメラヘッドがある場合、おたがいに
計測カメラヘッドを撮影してマーカの動きから回転軸を
決定したりする。
First, the parameters of the measurement camera head are obtained. The angle of view of the lens, focus, and aperture data should be measured in advance using a jig.
As shown in FIG. 19, a calibration solid whose shape and size are known is placed, and the position and orientation of the solid on a coordinate axis determined in space considering the range of movement of the observer and the measurement range of the measurement camera head. To the measurement camera head controller. First, the operator manually operates the measurement camera head 181 to bring this solid into the field of view of the measurement camera. In that case, it is difficult to operate the focus manually, so that the autofocus control can be performed based on the image captured by the camera, for example, by an algorithm that maximizes the high-frequency component in the center of the visual field. This alleviates the burden on the operator and also provides distance information, although it is quite rough. The spatial coordinates used for calibration can be improved in accuracy by using statistical processing by increasing the number of points beyond the theoretically required number of points. Next, each axis of the measurement camera head automatically rotates while the lens parameters are fixed. The calibration volume is stationary, but it appears to move as the head rotates in the captured image.
From this, the spatial position of the rotation axis of the head itself can be obtained. Regarding the rotation angle, there is no need to calibrate because the encoder attached to the rotation axis has sufficient repeatability. These operations can be performed simultaneously when there are multiple measurement camera heads. To improve accuracy, perform the same operation by changing the angle of view of the lens, change the position of the calibration solid, and if there are multiple measurement camera heads, take a picture of each measurement camera head and rotate from the movement of the marker. Determine the axis.

【0065】次に固定スクリーンの場合、スクリーンの
3次元データを測定する。図20のように固定スクリー
ンでは、どうしてもスクリーンが大きくなってしまい、
平面といったような目的とする空間立体からずれてしま
う。図20ではスクリーン191を平面にしたいが歪み
が出ている。このためその形を特定できるように多くの
測定ポイント192を決めて計測カメラヘッドで測定す
る。この例の場合12点を測定し、5枚の平面と近似し
ている。計測ポイントには精度良く計るためマーカをつ
けるのが良い。そのときこの図20のように全部の点に
マーカをあらかじめつけておくこともできる。そのとき
はマーカの色を変えたりすれば自動的にマーカの区別が
できる。また、人間がマーカを持って歩き、測定したい
点にあてるようにすると、自動追尾機能をつかえるから
連続的な3次元データも計測できる。
Next, in the case of a fixed screen, the three-dimensional data of the screen is measured. With a fixed screen as shown in FIG. 20, the screen inevitably becomes large,
It deviates from the desired spatial solid such as a plane. In FIG. 20, it is desired to make the screen 191 flat, but distortion occurs. Therefore, many measurement points 192 are determined so that the shape can be specified, and measurement is performed by the measurement camera head. In the case of this example, 12 points are measured and it is approximated to 5 planes. It is good to attach a marker to the measurement point in order to measure it accurately. At that time, markers can be attached to all points in advance as shown in FIG. In that case, the markers can be automatically distinguished by changing the color of the markers. Also, if a human walks with a marker and touches it at a point to be measured, the automatic tracking function can be used, so that continuous three-dimensional data can be measured.

【0066】次に、プロジェクタヘッドのパラメータを
求める。計測カメラヘッドのときと同様に画角やフォー
カスなどレンズパラメータは前もって測定しておく。
Next, the parameters of the projector head are obtained. As with the measurement camera head, the lens parameters such as the angle of view and focus are measured in advance.

【0067】図21のように、プロジェクタヘッド自体
を計測カメラヘッドが撮影できる位置関係にある場合
は、プロジェクタヘッドにつけた複数のマーカ201の
位置と動きからプロジェクタヘッドの空間的位置と回転
軸を求めることもできる。プロジェクタヘッドを撮影で
きない場合やできても角度が良くなくて精度がでないな
どの場合は、プロジェクタヘッドからスクリーンに投影
した像を測定することでプロジェクタヘッドの位置を計
算する。このときフォーカスを決めるのには、投影され
た像のフォーカスが合うように調整するか、プロジェク
タヘッドとスクリーンの距離を距離計で計って決める。
像を人間が観察しながらリモコンでフォーカスを合わせ
る方法もあるが、計測カメラヘッドがその像を撮影し、
画像処理でフォーカスが合っているかどうかを検出しな
がらプロジェクタヘッドのフォーカスをコントロールす
ることもできる。そのときに投影される像は画像処理に
適したパターンとなる。
As shown in FIG. 21, when the projector head itself is in a positional relationship in which the measurement camera head can photograph, the spatial position and rotation axis of the projector head are obtained from the positions and movements of the plurality of markers 201 attached to the projector head. You can also If the projector head cannot be photographed, or if it is possible that the angle is not good and the accuracy is poor, the position of the projector head is calculated by measuring the image projected from the projector head onto the screen. At this time, the focus is determined by adjusting so that the projected image is in focus, or by measuring the distance between the projector head and the screen with a rangefinder.
There is also a method of focusing with a remote control while a human observes the image, but the measurement camera head shoots the image,
It is also possible to control the focus of the projector head while detecting whether or not it is in focus by image processing. The image projected at that time has a pattern suitable for image processing.

【0068】フォーカスがきまると、つぎにわかってい
るパターンを投影する。たとえば図21に示されている
のはさいころの目のような5つの丸の像(符号202)
である。この丸はそれぞれ色が違い、計測カメラヘッド
で撮影した場合自動的に区別できるようになっている。
また区別のためには時間的にずらしながらそれに同期し
て撮影してもよい。投影された像の空間的位置(スクリ
ーン面上の位置)とそのときのプロジェクタヘッドの画
角と、投影したパターンの形がわかっているからプロジ
ェクタヘッドの位置が計算できる。しかし、これは計測
カメラヘッドのときとは違って間接的であり、精度はよ
くない。そのため投影パターンを変化させたり、画角を
変化させたりしながら、数多くデータをとり統計処理を
する必要がある。次に計測カメラヘッドのときと同様、
回転軸を回して同様な操作を繰り返す。回転角度はエン
コーダの精度が十分にあり計測の必要はない。プロジェ
クタヘッドのパラメータの決定は精度をあげるためには
統計処理が必要不可欠になる。そのため計測カメラヘッ
ドと協調動作の自動化をおこなってオペレータの作業を
軽減する。
When the focus is determined, the next known pattern is projected. For example, FIG. 21 shows an image of five circles (reference numeral 202) like a dice.
Is. These circles have different colors, and they can be automatically distinguished when taken by the measurement camera head.
For distinction, the images may be taken in synchronism with a time shift. Since the spatial position of the projected image (position on the screen surface), the angle of view of the projector head at that time, and the shape of the projected pattern are known, the position of the projector head can be calculated. However, unlike the measurement camera head, this is indirect and not accurate. Therefore, it is necessary to collect a lot of data and perform statistical processing while changing the projection pattern and changing the angle of view. Next, as with the measurement camera head,
Turn the rotary shaft and repeat the same operation. The rotation angle does not need to be measured because the encoder has sufficient accuracy. Statistical processing is indispensable in determining the parameters of the projector head in order to improve accuracy. Therefore, the operation of the operator is reduced by automating the cooperative operation with the measuring camera head.

【0069】(第6実施例)このシステムを複数用意し
て、図22のように通信回線で結ぶことで、選手が移動
しなくても、ちょうどテレビ会議のように、競争するこ
とができる。
(Sixth Embodiment) By preparing a plurality of this systems and connecting them by a communication line as shown in FIG. 22, it is possible to compete just like a video conference even if a player does not move.

【0070】この時に一番問題となるのが、時間的な遅
れである。通信回線の遅れもふくめ最小にする必要があ
る。とくに衛星回線は遅れがどうしても大きくなるため
地上回線が望ましい。競技によっては水泳のように比較
的移動速度が遅いものでは、選手の位置情報のおくれは
目立ちにくいが、画像では動きがおそいわけではないか
ら目立ちやすい。
At this time, the most serious problem is a time delay. It is necessary to minimize the delay of communication lines. Especially for satellite lines, terrestrial lines are desirable because the delay will inevitably increase. Depending on the competition, when the player's movement speed is relatively slow, such as swimming, the player's position information is not noticeable, but the movement is not slow in the image, so it is noticeable.

【0071】実際に走っている観察者は細かいところは
気づかないから、多少遅れがあってもわからないが、仮
想カメラの画像を編集するときは一旦記録するなどして
遅れを考慮した処理が必要である。
Since the observer who is actually running does not notice the details, even if there is a slight delay, he / she cannot understand it. However, when the image of the virtual camera is edited, it is necessary to record it once and take into account the delay. is there.

【0072】(第7実施例)図23のように、映画やテ
レビの特殊効果を使う場合の撮影では、俳優はないもの
を相手に演技しなければならなかったが、このシステム
を使うことで、仮想物体を認識できるためより正確な演
技ができるようになる。
(Seventh Embodiment) As shown in FIG. 23, when shooting a special effect of a movie or a television, it was necessary to act against an actor who had no actor. , It becomes possible to perform more accurate acting because it can recognize virtual objects.

【0073】このときに投影する画像は、基本的に俳優
の演技の目標であるから、スクリーンはバックでも床で
も良い。また映像の編集でクロマキーなどで俳優を映像
から抜き出すときの邪魔にならないような投影をする必
要がある。たとえば、クロマキーの場合は、ブルーバッ
クの色に対して、撮影用のカメラでみたときに近い色
相、近い彩度で、輝度だけが変化しているようにモノク
ロの画像を投影する必要がある。また、画像も仮想物体
をそのままの形で投影する以外に、輪郭だけとか必要と
なるポイントがわかる範囲で減らすことで、映像にあた
える影響を少なくできる。
Since the image projected at this time is basically the target of the actor's performance, the screen may be the back or the floor. In addition, it is necessary to perform projection so that it does not get in the way of extracting the actor from the video with a chroma key when editing the video. For example, in the case of a chroma key, it is necessary to project a monochrome image in which the hue and the saturation are similar to those of a blue background when viewed with a camera for shooting, and only the luminance is changed. Further, in addition to projecting the virtual object as it is in the image, the influence on the image can be reduced by reducing only the contour or the range in which the necessary points are known.

【0074】複数の俳優が演技する場合には、シーンに
応じてどの俳優にとっての画像とするかを切り替えたり
することもできる。スクリーンの位置に仮想物体がある
場合を除いて基本的に観察者の位置に応じて投影する場
所、形を変化させるから正確にはどの俳優にとっての仮
想物体かを考慮する必要がある。投影する画像を単純化
し、本当に目標程度にあつかえば、観察者の位置のズレ
は投影位置のズレだけですみ、スクリーンあるいはスク
リーンのかわりとなるセットをうまく工夫することで複
数の俳優にとって1つの投影ですますことができる。
When a plurality of actors perform, it is possible to switch to which actor the image should be taken according to the scene. Except when there is a virtual object at the position of the screen, basically it is necessary to consider which actor the virtual object is for because it changes the projection location and shape according to the observer's position. If the image to be projected is simplified and if it really matches the target level, the position of the observer can be displaced only by the position of the projection, and by carefully devising the screen or a set instead of the screen It can be projected.

【0075】もし複数の俳優が離れていてさらに正確に
演技する必要がある場合、仮想物体の数に関係なく俳優
の数だけ投影画像を必要とする。色をかえても撮影され
る映像に影響がないときは色分けしたりしてそれぞれの
俳優は、それを相手に演技する自分にとっての仮想物体
を区別する。色がつかえない場合、投影する画像に印と
なるパターンをつけたりして区別できるようにする。
If multiple actors are distant and need to perform more accurately, then as many projection images as actors are needed regardless of the number of virtual objects. When changing the color does not affect the captured image, the actors distinguish by using different colors to distinguish virtual objects that act against them. If the colors cannot be used, a pattern is used as a mark on the projected image so that they can be distinguished.

【0076】(第8実施例)いままでの例では投影した
画像は平面的なものとして観察者にはみえてしまう。観
察者が特殊な眼鏡やゴーグルなどをつけられる場合は、
図24のように投影画像を立体画像とすることでさらに
臨場感をもりあげられる。また、図25に示すように左
右の目に別の画像を見せるシステムをつかって、複数の
観察者にそれぞれ別の画像を提供できれば、複数観察者
のシステムとすることもできる。このゴーグルはたとえ
ば液晶シャッタをつかって時間的に分割して画像をより
分けたり、色を使ってより分けたりすることで、両目に
違う画像を見せることができる装置である。これにより
観察者と自由に動きながら仮想の立体像を見ることがで
きる。
(Eighth Embodiment) In the above examples, the projected image appears to the observer as a planar image. If the observer can wear special glasses or goggles,
By making the projected image a stereoscopic image as shown in FIG. 24, the sense of reality can be further enhanced. Further, as shown in FIG. 25, if a system for showing different images to the left and right eyes can be used and different images can be provided to a plurality of observers, a system for a plurality of observers can be used. This goggle is a device that allows different images to be displayed to both eyes by, for example, using a liquid crystal shutter to temporally divide the image and further divide the image by color. As a result, a virtual stereoscopic image can be viewed while freely moving with the observer.

【0077】同様に複数の観察者に対しても別の画像を
見せることができる。複数の観察者の場合は当然それぞ
れの観察者の位置を計測しなければならないが、複数の
観察者が機械的な結合たとえば乗り物に乗っているなど
でそれぞれの位置を求めることができれば測定する対象
の数を減らせる。
Similarly, different images can be shown to a plurality of observers. Of course, in the case of multiple observers, the position of each observer must be measured, but if multiple observers can obtain their respective positions by mechanical coupling, such as riding on a vehicle, the object to be measured. Can reduce the number of.

【0078】この図24および図25の例では、立体メ
ガネを付けた観察者を計測する計測カメラヘッドが図示
されていないが、上述の実施例のように、観察者の位置
および姿勢は図示されていない計測カメラヘッドによっ
て計測されており、その計測された3次元情報に基づい
て投影される仮想物体の立体像が変換されている。
In the examples of FIGS. 24 and 25, the measurement camera head for measuring the observer wearing the stereoscopic glasses is not shown, but the position and orientation of the observer are shown as in the above-described embodiments. The three-dimensional image of the virtual object that is being measured is converted based on the measured three-dimensional information.

【0079】(第9実施例)観察者に提供する画像のサ
イズが比較的小さくても良い場合などは、スクリーンに
投影するのではなくCRTや、液晶、プラズマディスプ
レイなどに表示することで明かるくきれいな画像が得ら
れる。また複数台の表示装置を組み合わせれば、つなぎ
目があるものの大きな画像を提供することもできる。例
えば図26では6個のCRTを組み合わせた表示装置を
構成したもので、観察者の位置から見たときの画像をそ
れぞれのCRTに表示する。この図26ではテーブルの
上に壷が乗っているような表示をしている。仮想物体と
しては壷と、テーブルでテーブルは実際にこの表示装置
が乗っているものと同じ大きさ、位置関係にしてある。
観察者の3次元情報は別の計測装置によって計測されて
おり、その観察者の観察位置から見える画像に変換され
たCRTに表示されているため、観察者の位置計測範囲
で観察者が動き回ってもその位置から見たように表示で
きるから、裏側へ回れば壷の裏が見える。またテーブル
の下へ潜れば下から見た壷を見ることができる。CRT
のつなぎ目をうまく処理すればあたかも展示ケースの中
の壷を見るときと同じ感じが得られる。
(Ninth Embodiment) When the size of the image provided to the observer may be relatively small, it is clear by displaying it on a CRT, a liquid crystal, a plasma display or the like instead of projecting it on the screen. A beautiful image can be obtained. Also, by combining a plurality of display devices, it is possible to provide a large image with a joint. For example, in FIG. 26, a display device in which six CRTs are combined is configured, and an image viewed from the position of the observer is displayed on each CRT. In FIG. 26, it is displayed that a jar is on the table. The urn is a virtual object, and the table has the same size and positional relationship as the table on which the display is actually mounted.
The 3D information of the observer is measured by another measuring device, and is displayed on the CRT converted into an image that can be seen from the observer's observation position. Therefore, the observer moves around within the observer's position measurement range. Can be displayed as seen from that position, so if you turn to the back side, you can see the back of the jar. If you dive under the table, you can see the jar seen from below. CRT
If you handle the joints well, you can get the same feeling as when you look at the jar in the display case.

【0080】また図27は可動式の平面ディスプレイを
使った場合である。このディスプレイは、観察者からみ
てもっとも高画質となるように向きが観察者の位置に応
じて自動的に変わる。また当然表示されている画像も観
察者からみたように変換されている。この図では仮想物
体として自動車のフロントサスペンションを表示してい
る。このような複雑な立体では、いろいろな角度から見
ないとなかなか全体がわからないが、観察者は、仮想物
体の見たい部分が見えるように移動しながら観察するこ
とができる。表示装置の可動範囲と観察者の位置計測範
囲があれば後ろに回り込むことも下に潜り込むこともで
きる。また必要に応じて仮想物体の倍率を変化させるこ
ともできるし、動画表示であるから、この場合のような
動くものであれば動かした画像を表示できるためホログ
ラムでは実現できない表現が可能である。
FIG. 27 shows a case where a movable flat display is used. The orientation of the display automatically changes according to the position of the observer so that the display has the highest image quality. Also, the displayed image is naturally converted as seen from the observer. In this figure, the front suspension of an automobile is displayed as a virtual object. In such a complicated three-dimensional object, it is difficult to see the whole image unless it is seen from various angles, but the observer can observe while observing the desired portion of the virtual object. If there is a movable range of the display device and an observer's position measurement range, it is possible to go around behind or dive down. Further, the magnification of the virtual object can be changed as required, and since it is a moving image display, a moving image like this case can display a moved image, so that an expression that cannot be realized by a hologram is possible.

【0081】あるいはCRTが多数並べられたマルチデ
ィスプレイ装置の前で、観察者が動く場合にも観察者の
位置、姿勢等の3次元情報は計測されているため、表示
されている仮想画像をその観察者が見える仮想画像に変
換してこの多数のCRT装置全体で表示させることがで
きる。
Alternatively, in the case where the observer moves in front of a multi-display device in which a large number of CRTs are arranged, three-dimensional information such as the observer's position and posture is measured, so that the displayed virtual image is It can be converted into a virtual image that can be viewed by an observer and displayed on the entire CRT device.

【0082】また、観察者がゴーグルや立体眼鏡を装着
できる場合や、立体表示できる表示器をつかえば、表示
自体も両眼視による立体とすることができる。
Further, when the observer can wear goggles or stereoscopic glasses, or if a display capable of stereoscopic display is used, the display itself can be stereoscopic by binocular vision.

【0083】また表示装置が自動で動かなくても表示装
置の姿勢と位置がわかるように図28のようにたとえば
マーカをつけ、観察者も位置と姿勢がわかるようにマー
カをつけると同様なシステムが構成できる。これを例え
ば3次元CADの出力に使ったりすることができる。あ
る立体を表示していてその横や後ろが見たい場合は観察
者と共に表示装置を手で回すことで横や後ろが見えるよ
うになる。従来のCADでは表示されている物体の姿勢
を変える場合は、キーボードなどで指示を与えなければ
ならず、なれないと欲しい角度でみることが難しかった
が、このようにすると見たい方向へ自分が動いて、画面
が見えるようにCRTを回せばそれでその角度からの画
像がみえるためまったく熟練を必要としないシステムと
なる。
A system similar to the one shown in FIG. 28 in which a marker is attached so that the posture and position of the display device can be recognized even if the display device does not move automatically, and a marker is attached so that the observer can also understand the position and posture. Can be configured. This can be used for output of three-dimensional CAD, for example. When you want to see the side or the back of a solid object, you can see the side or the back by turning the display device by hand with the observer. In conventional CAD, when changing the posture of the displayed object, it was difficult to see it at the desired angle unless it was necessary to give instructions using a keyboard, etc. However, if you do this, you will be in the direction you want to see. If the CRT is turned so that the screen can be moved and the screen can be seen, the image from that angle can be seen, so the system does not require any skill.

【0084】[0084]

【発明の効果】このように本発明は構成されているため
次の効果がある。
Since the present invention is constructed as described above, it has the following effects.

【0085】(1)観察者の動きに対応して自身からみ
た対象物体の動きを見ながら動作することができるた
め、スポーツの場合には競争者との関係を認識しながら
自然に動作することができる。
(1) Since it is possible to operate while seeing the movement of the target object seen from itself in response to the movement of the observer, in the case of sports, the movement should be natural while recognizing the relationship with the competitor. You can

【0086】(2)被写体となる観察者が演技者である
場合、組み合わされる画像を見ながら動作することがで
きるため、自然な演技を行うことができる。
(2) When the observer as the subject is a performer, the observer can move while looking at the combined images, so that a natural performance can be performed.

【0087】(3)観察者は実際に撮影された実物の画
像を見ながらその場にいて動作する感覚をもつことがで
きるため、臨場感をもつことができる。
(3) The observer can have a sense of reality because he / she can feel as if he / she was in the spot and operated while looking at the image of the actual photographed object.

【0088】(4)観察者の位置、姿勢等に応じた音響
効果により臨場感をさらに高めることができる。
(4) The sense of presence can be further enhanced by the acoustic effect according to the position, posture, etc. of the observer.

【0089】(5)遠隔の地で同時に行われる競技で
も、その競技者と並んで同時に競技している感覚を選手
に与えることができる。
(5) It is possible to give a player the feeling that he or she is playing at the same time alongside the competitor even in a competition that is conducted simultaneously in a remote place.

【0090】(6)時間および空間的に違ったところで
行われた比較対象の競技者と一緒に競技する感覚を選手
に与えることができる。
(6) It is possible to give a player a feeling of competing with a competitor to be compared, which is performed at different time and space.

【0091】(7)観察者の動作に合わせて仮想画像を
投影できるため、観察者の認識できる程度に応じた画像
を生成することができる。
(7) Since the virtual image can be projected in accordance with the observer's motion, it is possible to generate an image according to the degree that the observer can recognize.

【0092】(8)観察者の見る位置を計測してその見
る位置から見える画像を表示装置に表示することができ
るため、一つの物を表示しても、その観察方向に応じた
表示を行うことができる。
(8) Since the viewing position of the observer can be measured and the image viewed from the viewing position can be displayed on the display device, even if one object is displayed, the display according to the viewing direction is performed. be able to.

【0093】(9)投影されるスクリーンも移動するこ
とができるため、観察者が複雑な動きをする場合であっ
ても、それに応じた画像を観察者に対して表示すること
ができる。
(9) Since the projected screen can also be moved, even if the observer makes a complicated movement, an image corresponding thereto can be displayed to the observer.

【0094】(10)立体視を行う装置を観察者が装着
し、その立体画像を投影あるいは表示することで、観察
者が立体画像を認識しながら動作することができる。
(10) The observer can wear the device for performing stereoscopic vision and project or display the stereoscopic image so that the observer can operate while recognizing the stereoscopic image.

【0095】(11)観察者の見る位置に合わせて最適
な画像を切り替えて表示することができるため、観察者
にとって自然な画像を表示することができる。
(11) Since the optimum image can be switched and displayed according to the position viewed by the observer, a natural image for the observer can be displayed.

【0096】(12)観察者に対して表示する仮想の画
像をコンピュータグラフィクスで生成することにより、
表示すべき画像が演算により正確に求められるので、画
像生成演算とプロジェクタで投影する画像に変換する画
像変換とを演算のみで行うことができる。
(12) By using computer graphics to generate a virtual image to be displayed to the observer,
Since the image to be displayed is accurately obtained by calculation, the image generation calculation and the image conversion for converting into the image projected by the projector can be performed only by calculation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理的な観察者とプロジェクタと投影
された画像との関係を示す図。
FIG. 1 is a diagram showing a relationship between an observer, a projector, and a projected image, which is a principle of the present invention.

【図2】図1を上方からみた図。FIG. 2 is a view of FIG. 1 seen from above.

【図3】撮影した画像を観察者からみた画像に変換し、
それをスクリーンに投影する原理を説明する図。
[Figure 3] Convert the captured image into an image viewed by an observer,
The figure explaining the principle which projects it on a screen.

【図4】走る観察者と並んで仮想物体をスクリーンに表
示する第1実施例を説明する図。
FIG. 4 is a diagram illustrating a first embodiment in which a virtual object is displayed on a screen along with a running observer.

【図5】観察者を撮影した画像を示す図。FIG. 5 is a diagram showing an image of a viewer.

【図6】観察者と並んで仮想の移動物体および背景が表
示された画像を示す図。
FIG. 6 is a diagram showing an image in which a virtual moving object and a background are displayed alongside an observer.

【図7】本発明実施例の画像表示装置のブロック図を示
す図。
FIG. 7 is a diagram showing a block diagram of an image display device according to an embodiment of the present invention.

【図8】第2実施例の複数の仮想物体が重なって観察者
に見える様子を説明する図。
FIG. 8 is a diagram illustrating a state in which a plurality of virtual objects according to the second embodiment are overlapped and viewed by an observer.

【図9】第2実施例の観察者に見える投影画像の例を示
す図。
FIG. 9 is a diagram showing an example of a projected image seen by an observer of the second embodiment.

【図10】第3実施例の観察者の動きに応じて複数のプ
ロジェクタを用いて仮想物体を投影する例を示す図。
FIG. 10 is a diagram showing an example of projecting a virtual object using a plurality of projectors according to the movement of the observer in the third embodiment.

【図11】第3実施例の観察者の動きに応じてプロジェ
クタを移動させて仮想物体を投影する例を示す図。
FIG. 11 is a diagram showing an example of projecting a virtual object by moving the projector according to the movement of the observer in the third embodiment.

【図12】本発明の実施例に用いるプロジェクタヘッド
の外観を示す図。
FIG. 12 is a diagram showing an outer appearance of a projector head used in an embodiment of the present invention.

【図13】第3実施例で二つのプロジェクタで投影した
ときに生ずる投影領域を示す図。
FIG. 13 is a diagram showing a projection area generated when two projectors project images in the third embodiment.

【図14】第4実施例の観察者の移動する楕円のコース
に沿ってスクリーンを設けて仮想物体を投影する例を示
す図。
FIG. 14 is a diagram showing an example of projecting a virtual object by providing a screen along a course of an ellipse that the observer moves in the fourth embodiment.

【図15】第4実施例の観察者の移動する平面をスクリ
ーンにして仮想物体を投影する例を示す図。
FIG. 15 is a diagram showing an example of projecting a virtual object with the plane on which the observer moves according to the fourth embodiment as a screen.

【図16】第4実施例の観察者を囲んでスクリーンを設
け、スクリーンを通して観察者を計測しながらスクリー
ンに仮想物体を投影する例を示す図。
FIG. 16 is a diagram showing an example in which a screen is provided so as to surround the observer of the fourth embodiment, and a virtual object is projected on the screen while measuring the observer through the screen.

【図17】第4実施例のスクリーンに移動機構が設けら
れ、移動するスクリーンに仮想物体を投影する例を示す
図。
FIG. 17 is a diagram showing an example in which a moving mechanism is provided on the screen of the fourth embodiment and a virtual object is projected on the moving screen.

【図18】第4実施例の観察者とともにスクリーンが移
動し、この移動するスクリーンに仮想物体を投影する例
を示す図。
FIG. 18 is a diagram showing an example in which the screen moves with the observer of the fourth embodiment and a virtual object is projected on the moving screen.

【図19】第5実施例の計測カメラヘッドのキャリブレ
ーションを説明する図。
FIG. 19 is a diagram for explaining the calibration of the measurement camera head of the fifth embodiment.

【図20】第5実施例の計測カメラヘッドにより固定ス
クリーンの3次元情報を計測する例を示す図。
FIG. 20 is a diagram showing an example in which three-dimensional information of a fixed screen is measured by the measurement camera head of the fifth embodiment.

【図21】第5実施例のプロジェクタヘッドの調整をす
る様子を示す図。
FIG. 21 is a diagram showing how the projector head of the fifth embodiment is adjusted.

【図22】第6実施例の空間的に遠隔地にある観察者同
士を同時に表示させるシステムを示す図。
FIG. 22 is a diagram showing a system for simultaneously displaying viewers at spatially remote locations according to a sixth embodiment.

【図23】第7実施例の演技者の近傍に仮想物体を投影
して演技者を撮影する例を示す図。
FIG. 23 is a diagram showing an example of projecting a virtual object in the vicinity of the performer of the seventh embodiment to photograph the performer.

【図24】第8実施例の観察者が立体メガネを装着する
場合の例を示す図。
FIG. 24 is a diagram showing an example in which the observer of the eighth embodiment wears stereoscopic glasses.

【図25】第8実施例の複数の観察者がゴーグルを装着
する場合の例を示す図。
FIG. 25 is a diagram showing an example in which a plurality of observers of the eighth embodiment wear goggles.

【図26】第9実施例の複数のCRT装置を組み合わせ
て仮想物体を表示した例を示す図。
FIG. 26 is a diagram showing an example in which a virtual object is displayed by combining a plurality of CRT devices of the ninth embodiment.

【図27】第9実施例の可動式の平面ディスプレイに仮
想物体を表示した例を示す図。
FIG. 27 is a view showing an example in which a virtual object is displayed on the movable flat display according to the ninth embodiment.

【図28】第9実施例の回転式CRT装置に仮想物体を
表示した例を示す図。
FIG. 28 is a diagram showing an example in which a virtual object is displayed on the rotary CRT device of the ninth embodiment.

【符号の説明】[Explanation of symbols]

1 観察者 2 スクリーン 3 仮想物体 4 仮想物体の画像 5 投影像 6 投影中心 21 対象物体 23 変換面 41 選手 42 スクリーン 71、72 計測カメラヘッド 73 3次元演算ユニット 74 画像編集ユニット 75 背景データベース 76 仮想カメラコントローラ 77 仮想物体データベース 78 スクリーンデータベース 79 プロジェクタコントローラ 80 画像変換ユニット 81 プロジェクタヘッド 82 プロジェクタ 83 レンズ 84 雲台モータ 85 レンズモータ 86 サーボ回路 87 サウンドデータベース 88 サウンドコントローラ 89 ディジタルシグナルプロセッサ 90 アンプ 91 スピーカ 93 プロジェクタヘッド 94〜96 仮想物体 101、102 プロジェクタヘッド 103 計測カメラヘッド 121 ビデオプロジェクタ 122 投影レンズ 123 ティルト軸モータ 124 パン軸モータ 125 ベース 131、132、133 投影領域 181 計測カメラヘッド 191 スクリーン 192 測定ポイント 201 マーカ 1 observer 2 screen 3 virtual objects Image of 4 virtual objects 5 projected image 6 Projection center 21 target object 23 Conversion surface 41 players 42 screen 71, 72 Measurement camera head 73 Three-dimensional operation unit 74 Image editing unit 75 background database 76 Virtual camera controller 77 Virtual Object Database 78 screen database 79 Projector controller 80 Image conversion unit 81 Projector head 82 Projector 83 lens 84 Pan head motor 85 lens motor 86 Servo circuit 87 Sound Database 88 sound controller 89 Digital Signal Processor 90 amp 91 speaker 93 Projector head 94-96 virtual objects 101, 102 Projector head 103 Measuring camera head 121 video projector 122 Projection lens 123 tilt axis motor 124 Pan axis motor 125 base 131, 132, 133 Projection area 181 Measuring camera head 191 screen 192 measurement points 201 marker

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI H04N 7/18 H04N 7/18 U (56)参考文献 特開 平6−28452(JP,A) 特開 平5−225313(JP,A) 特開 昭63−121388(JP,A) 特開 昭63−276092(JP,A) 特開 平1−120596(JP,A) 特開 平5−165921(JP,A) 特開 平5−241539(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/262 - 5/28 G06T 1/00 G06T 17/40 H04N 1/38 - 1/393 H04N 13/00 - 17/06 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI H04N 7/18 H04N 7/18 U (56) Reference JP-A-6-28452 (JP, A) JP-A-5-225313 ( JP, JP-A-63-121388 (JP, A) JP-A-63-276092 (JP, A) JP-A-1-120596 (JP, A) JP-A-5-165921 (JP, A) Flat 5-241539 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 5/262-5/28 G06T 1/00 G06T 17/40 H04N 1/38-1/393 H04N 13/00-17/06

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 1または複数の移動物体を撮像してその
位置の3次元情報とともに出力する撮像手段と、 この移動物体の画像を当該移動物体が移動する空間内の
一つの変換面に投影された画像を前記撮像手段とは異な
る空間位置または異なる時間軸に存在する仮想の撮像手
段で撮像された画像と等価な画像に変換する画像変換手
段と、 この画像変換された移動物体の画像を表示する画像表示
手段とを備えた画像表示装置において、 前記画像表示手段は、移動する観察者に対して前記移動
物体の画像を表示する画像表示手段であり、 前記観察者の位置の3次元情報を計測する計測手段を備
え、 前記画像変換手段は、前記計測手段で計測した観察者の
位置の3次元情報に基づいて、その観察者に対して表示
する前記移動物体の画像がその観察者から見える画像と
等価な画像に変換する第一変換手段と、 この変換された画像を観察者とは別の位置にある投影手
段から投影される画像が前記観察者から見える画像と等
価となる画像に変換する第二変換手段とを含む ことを特
徴とする画像表示装置。
1. An image of one or a plurality of moving objects is captured.
An image pickup means for outputting together with the three-dimensional information of the position, and an image of this moving object in a space where the moving object moves.
The image projected on one conversion surface is different from the image pickup means.
Virtual imaging hands existing in different spatial positions or different time axes
An image converter that converts an image equivalent to the image captured by the column
An image display that displays the image of the moving object that has been converted into a step
And a means for moving the observer to the moving observer.
Image display means for displaying an image of an object, and a measuring means for measuring three-dimensional information of the position of the observer is provided.
Well, the image conversion means is for the observer measured by the measuring means.
Displayed to the observer based on the three-dimensional position information
And the image of the moving object that the observer can see
First conversion means for converting the image into an equivalent image and a projection hand at a position different from the observer for the converted image.
The image projected from the step is the same as the image seen by the observer, etc.
An image display device , comprising: a second conversion means for converting the image into a valuable image.
【請求項2】 観察者の位置の3次元情報を計測する計
測手段は、観察者を撮像してその観察者の位置の3次元
情報を計測する装置である請求項1記載の画像表示装
置。
2. A meter for measuring three-dimensional information of the position of an observer.
The measuring means captures an image of the observer and three-dimensionally displays the position of the observer.
The image display device according to claim 1, which is a device for measuring information .
【請求項3】 画像表示手段は、雲台を備えた1または
複数のプロジェクタおよびそのプロジェクタの投影する
スクリーンで構成された請求項1または2記載の画像表
示装置。
3. The image display means is equipped with a pan head 1 or
Projectors with multiple projectors
The image display device according to claim 1, wherein the image display device comprises a screen .
【請求項4】 画像表示手段は、1または複数のディス
プレイ装置である請求項1または項のいずれか記載の
画像表示装置。
4. The image display means comprises one or a plurality of disks.
The image display apparatus according to claim 1 or 2 wherein a play apparatus.
【請求項5】 複数のプロジェクタは観察者の位置にし
たがって切換られる請求項3記載の画像表示装置。
5. A plurality of projectors are placed at a position of an observer.
The image display device according to claim 3 , wherein the image display device is switched accordingly .
【請求項6】 画像表示手段は、移動可能なスクリーン
を含み、このスクリーンの位置の3次元情報を計測する
計測手段を備え、画像変換手段は、この計測手段で計測
したスクリーンの3次元情報に基づいて表示される画像
変換を行う手段を含む請求項1ないし3または5のいず
れか記載の画像表示装置。
6. The image display means is a movable screen.
Including, and measures the three-dimensional information of the position of this screen
The measuring means is provided, and the image converting means measures with this measuring means.
Image displayed based on the 3D information of the screen
Any of claims 1 to 3 or 5 including means for performing a conversion
The image display apparatus according to any Re.
【請求項7】 観察者の位置の3次元情報に基づいて、
音響効果音を発生し観察者がその位置で聞くであろう音
場を合成する手段が設けられた請求項1ないし6のいず
れか記載の画像表示装置。
7. Based on three-dimensional information of the position of the observer,
Sound that produces sound effects that an observer would hear at that location
7. The image display device according to claim 1, further comprising means for synthesizing a field .
【請求項8】 前記観察者に対して表示する画像は、1
または複数の対象物体を撮像した画像である請求項1な
いし7のいずれか記載の画像表示装置。
8. The image displayed to the observer is 1
The image display device according to any one of claims 1 to 7, which is an image obtained by capturing a plurality of target objects .
【請求項9】 前記観察者に対して表示する画像は、
ンピュータグラフィクスによって生成された画像である
請求項1ないし8のいずれか記載の画像表示装置。
9. An image to be displayed to the observer, co
The image display device according to claim 1, wherein the image display device is an image generated by computer graphics .
JP32872193A 1993-09-06 1993-12-24 Image display device Expired - Fee Related JP3526897B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP32872193A JP3526897B2 (en) 1993-12-24 1993-12-24 Image display device
PCT/JP1994/001462 WO1995007590A1 (en) 1993-09-06 1994-09-05 Time-varying image processor and display device
EP94925627A EP0669758B1 (en) 1993-09-06 1994-09-05 Time-varying image processor and display device
DE69423338T DE69423338T2 (en) 1993-09-06 1994-09-05 PROCESSING AND DISPLAY DEVICE FOR TIME VARIABLE IMAGES

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32872193A JP3526897B2 (en) 1993-12-24 1993-12-24 Image display device

Publications (2)

Publication Number Publication Date
JPH07184115A JPH07184115A (en) 1995-07-21
JP3526897B2 true JP3526897B2 (en) 2004-05-17

Family

ID=18213443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32872193A Expired - Fee Related JP3526897B2 (en) 1993-09-06 1993-12-24 Image display device

Country Status (1)

Country Link
JP (1) JP3526897B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3091529A1 (en) 2015-05-07 2016-11-09 Ricoh Company, Ltd. Digital signage system

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0998345A (en) * 1995-10-02 1997-04-08 Dainippon Printing Co Ltd Image display device
JP4173079B2 (en) * 1995-11-07 2008-10-29 有限会社創造庵 Video system
JPH1185117A (en) * 1997-09-05 1999-03-30 Namco Ltd Picture generating device
JP3880561B2 (en) * 2002-09-05 2007-02-14 株式会社ソニー・コンピュータエンタテインメント Display system
JP4734824B2 (en) * 2003-07-25 2011-07-27 セイコーエプソン株式会社 projector
JP2005157135A (en) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> Information display method, system and program
JP2005338249A (en) * 2004-05-25 2005-12-08 Seiko Epson Corp Display device, display method, and display system
JP4609004B2 (en) * 2004-08-31 2011-01-12 富士通株式会社 Entering horse display device
JP2006349921A (en) * 2005-06-15 2006-12-28 Mitsubishi Electric Corp Image display device
US8179435B2 (en) 2005-09-28 2012-05-15 Nissan Motor Co., Ltd. Vehicle surroundings image providing system and method
JP4696825B2 (en) * 2005-10-07 2011-06-08 日産自動車株式会社 Blind spot image display device for vehicles
JP4998156B2 (en) * 2007-08-30 2012-08-15 ソニー株式会社 Information presenting system, information presenting apparatus, information presenting method, program, and recording medium recording the program
KR102049456B1 (en) 2013-04-05 2019-11-27 삼성전자주식회사 Method and apparatus for formating light field image
JP6153050B1 (en) 2016-06-08 2017-06-28 パナソニックIpマネジメント株式会社 Projection system
CN107836112B (en) * 2016-06-08 2019-03-12 松下知识产权经营株式会社 Optical projection system
EP3621299A4 (en) * 2017-05-01 2020-04-01 Sony Corporation Information processing device, information processing method, and program
US11943425B2 (en) 2018-12-07 2024-03-26 Sony Group Corporation Display device
JP7123222B1 (en) * 2021-06-18 2022-08-22 ヤフー株式会社 Display control device, display control method and display control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3091529A1 (en) 2015-05-07 2016-11-09 Ricoh Company, Ltd. Digital signage system
US10248241B2 (en) 2015-05-07 2019-04-02 Ricoh Company, Ltd. Digital signage system

Also Published As

Publication number Publication date
JPH07184115A (en) 1995-07-21

Similar Documents

Publication Publication Date Title
JP3526897B2 (en) Image display device
WO2021238804A1 (en) Mixed reality virtual preview photographing system
EP0669758B1 (en) Time-varying image processor and display device
US6624853B1 (en) Method and system for creating video programs with interaction of an actor with objects of a virtual space and the objects to one another
KR100990416B1 (en) Display apparatus, image processing apparatus and image processing method, imaging apparatus, and recording medium
CN105264436B (en) System and method for controlling equipment related with picture catching
JP2612256B2 (en) A method for giving the observer three-dimensional sensation from two-dimensional display
RU98105829A (en) METHOD AND SYSTEM FOR CREATING VIDEO PROGRAMS
JP4700476B2 (en) Multi-view video composition device and multi-view video composition system
US20020075295A1 (en) Telepresence using panoramic imaging and directional sound
JP2016062486A (en) Image generation device and image generation method
WO2002011431A1 (en) Video system and method of operating a video system
US6836286B1 (en) Method and apparatus for producing images in a virtual space, and image pickup system for use therein
WO2009035199A1 (en) Virtual studio posture correction machine
KR20140100525A (en) System for filming a video movie
WO2001028309A2 (en) Method and system for comparing multiple images utilizing a navigable array of cameras
JP2019145059A (en) Information processing unit, information processing system, information processing method and program
JP2007501950A (en) 3D image display device
JPH06105231A (en) Picture synthesis device
JPH07162744A (en) Moving image processor
EP0592652A1 (en) Improved integral virtual reality and/or image recording, projection-visualization-listening system
JP2005323310A (en) Visual field sharing instrument, visual field movement input unit, picture image display device, photographing scope projection method, control method of visual field movement input unit, control method of picture image display device, program of visual field sharing device. and program of both visual field movement input device and picture image dispaly device
JP2008079917A (en) Training system
CN212231547U (en) Mixed reality virtual preview shooting system
JPH03226198A (en) Stereoscopic picture display device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040218

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110227

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees