JP2006129472A - Image processing apparatus and image processing method, and program - Google Patents
Image processing apparatus and image processing method, and program Download PDFInfo
- Publication number
- JP2006129472A JP2006129472A JP2005294475A JP2005294475A JP2006129472A JP 2006129472 A JP2006129472 A JP 2006129472A JP 2005294475 A JP2005294475 A JP 2005294475A JP 2005294475 A JP2005294475 A JP 2005294475A JP 2006129472 A JP2006129472 A JP 2006129472A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- image
- user
- unit
- omnidirectional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、ユーザが自身の位置関係を容易に把握することができるようにする画像処理装置および画像処理方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to an image processing apparatus, an image processing method, and a program that allow a user to easily grasp their positional relationship.
ユーザに臨場感のある画像を提示する従来の表示装置としては、例えば、没入型スクリーンを用いた表示装置がある。没入型スクリーンを用いた表示装置では、ユーザがある仮想空間にいるとした場合に、その視覚に映る画像(以下、適宜、没入画像)が表示されることから、ユーザは、その没入画像を視聴することにより、自分がその没入画像によって提供される仮想空間に実際にいるかのような臨場感を享受することができる。 As a conventional display device that presents a realistic image to a user, for example, there is a display device using an immersive screen. In a display device using an immersive screen, when the user is in a certain virtual space, an image that is visible to the user (hereinafter referred to as an immersive image) is displayed, so the user can view the immersive image. By doing so, it is possible to enjoy a sense of realism as if they were actually in the virtual space provided by the immersive image.
ところで、没入型スクリーンを用いた表示装置では、上述したように、ユーザが仮想空間にいるとした場合にその視覚に映る画像が表示されるため、ユーザ自身が、没入画像によって提供される仮想空間において、相対的にどの位置にいるのかが把握しにくいことがあった。 By the way, in the display device using the immersive screen, as described above, when the user is in the virtual space, an image that is visually reflected is displayed, so that the user himself / herself is provided with the immersive image. However, it is sometimes difficult to grasp the relative position.
一方、例えば、いわゆるテレビゲームにおけるカーレースゲームなどでは、ユーザが操作する自動車を、ある視点から見た鳥瞰画像が表示されるようになっている。この場合、ユーザは、自身が操作する自動車の位置を容易に把握することができ、さらに、自動車の操作も容易に行うことができる。 On the other hand, for example, in a car racing game in a so-called video game, a bird's-eye view of a car operated by a user viewed from a certain viewpoint is displayed. In this case, the user can easily grasp the position of the automobile operated by the user, and can easily operate the automobile.
しかしながら、鳥瞰画像が表示される場合には、没入画像が表示される場合に比較して、没入感や臨場感が損なわれる。 However, when the bird's-eye view image is displayed, the immersive feeling and the realistic sensation are impaired as compared with the case where the immersive image is displayed.
本発明は、このような状況に鑑みてなされたものであり、ユーザが自身の位置関係を把握しやすく、かつ臨場感のある画像の表示をすることができるようにするものである。 The present invention has been made in view of such a situation, and makes it easy for a user to grasp his / her positional relationship and to display a realistic image.
本発明の画像処理装置は、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択手段と、ユーザの視点と表示手段の形状とに基づき、視点画像を、発光画像に変換する視点画像変換手段とを備えることを特徴とする。 The image processing apparatus according to the present invention includes: an image selection unit that selects a viewpoint image when a predetermined subject is viewed from a user's viewpoint based on the user's viewpoint from images captured from a plurality of positions; And a viewpoint image converting means for converting a viewpoint image into a light-emitting image based on the viewpoint of the user and the shape of the display means.
本発明の画像処理方法は、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、ユーザの視点と表示手段の形状とに基づき、視点画像を、発光画像に変換する視点画像変換ステップとを備えることを特徴とする。 The image processing method of the present invention includes an image selection step of selecting a viewpoint image when a predetermined subject is viewed from the user's viewpoint based on the user's viewpoint from images captured from each of a plurality of positions; A viewpoint image conversion step of converting a viewpoint image into a light-emitting image based on the viewpoint of the user and the shape of the display means is provided.
本発明のプログラムは、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、ユーザの視点と表示手段の形状とに基づき、視点画像を、発光画像に変換する視点画像変換ステップとを備えることを特徴とする。 The program of the present invention includes an image selection step of selecting a viewpoint image when a predetermined subject is viewed from the user's viewpoint based on the user's viewpoint from images captured from each of a plurality of positions; A viewpoint image conversion step of converting the viewpoint image into a light emission image based on the viewpoint and the shape of the display means is provided.
本発明の画像処理装置および画像処理方法、並びにプログラムにおいては、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像が選択され、ユーザの視点と表示手段の形状とに基づき、視点画像が、発光画像に変換される。 In the image processing device, the image processing method, and the program according to the present invention, a viewpoint image when a predetermined subject is viewed from the user's viewpoint based on the user's viewpoint from images captured from a plurality of positions. Is selected, and the viewpoint image is converted into a light-emitting image based on the viewpoint of the user and the shape of the display means.
以上のように、本発明によれば、ユーザが自身の位置関係を容易に把握することが可能となる。 As described above, according to the present invention, the user can easily grasp his / her positional relationship.
図1は、本発明を適用した撮像/表示システム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは問わない)の一実施の形態の構成例を示している。 FIG. 1 shows an imaging / display system to which the present invention is applied (a system is a logical collection of a plurality of devices, regardless of whether or not each component device is in the same housing). 2 shows an example of the configuration of an embodiment.
撮像システム1は、被写体と、その被写体の全方位の画像を撮像し、その結果得られる画像データを、例えば、光ディスクや、磁気ディスク、磁気テープ、半導体メモリその他の記録媒体3に記録し、あるいは、例えば、電話回線、衛星回線、CATV(Cable Television)網、インターネットその他の伝送媒体4を介して送信する。
The
表示システム2は、記録媒体3から画像データを再生し、あるいは、伝送媒体4を介して送信されてくる画像データを受信して表示する。
The
図2は、図1の撮像システム1の構成例を示している。
FIG. 2 shows a configuration example of the
広角撮像部11は、被写体の周囲を広角で撮像する広角カメラ(ビデオカメラ)で構成され、その広角カメラによって撮像される広角画像データ(動画データ)を、マルチプレクサ13に供給する。ここで、広角撮像部11を構成する広角カメラとしては、例えば、後述するように、被写体の全方位を撮像する全方位カメラを採用することができ、従って、広角画像部11から出力される広角画像データは、被写体の周囲の景色などの画像である。
The wide-
囲い込み撮像部12は、被写体の水平方向や垂直方向の周囲を囲むように、多数配置された複数のカメラ(ビデオカメラ)で構成され、その複数のカメラによって撮像される画像データ(動画データ)を、マルチプレクサ13に供給する。ここで、囲い込み撮像部12では、複数の位置に配置されたカメラそれぞれから、そのカメラの位置(カメラ位置)から被写体を撮像した画像データが出力されるが、この複数の位置から撮像された被写体の画像データを、以下、適宜、まとめて、囲い込み画像データという。
The
マルチプレクサ13は、広角撮像部11から供給される広角画像データと、囲い込み撮像部12から供給される囲い込み画像データとを多重化し、その結果得られる多重化画像データを、記録/送信部14に供給する。
The
ここで、マルチプレクサ13は、広角画像データと囲い込み画像データの同一フレームどうしを対応付けて多重化する。また、マルチプレクサ13は、囲い込み画像データである複数のカメラ位置から撮像された画像データの各フレームに、そのカメラ位置を対応付けて多重化するようにもなっている。なお、囲い込み撮像部12を構成する各カメラのカメラ位置は、あらかじめ分かっているものとする。また、カメラ位置としては、例えば、被写体のある位置を原点とする3次元座標系上での位置を表す座標などを採用することができる。
Here, the
記録/送信部14は、マルチプレクサ13から供給される多重化画像データを、記録媒体3(図1)に記録し、あるいは伝送媒体4を介して送信する。
The recording /
次に、図3は、図2の広角撮像部11の構成例を示している。
Next, FIG. 3 shows a configuration example of the wide-
広角撮像部11は、全方位カメラ21で構成されている。全方位カメラ21は、理想的には、光軸に垂直な面から撮像方向側の、図3に示すような半球状の面を通って全方位カメラ21に入射する光線を受光し、その光線に対応する画像データを出力する。
The wide-
ここで、全方位カメラ21としては、例えば、魚眼レンズ付きのカメラや、双曲面ミラー付きのカメラなどを採用することができる。なお、本実施の形態では、全方位カメラ21として、魚眼レンズ付きのカメラを採用することとする。 Here, as the omnidirectional camera 21, for example, a camera with a fisheye lens, a camera with a hyperboloidal mirror, or the like can be adopted. In the present embodiment, a camera with a fisheye lens is adopted as the omnidirectional camera 21.
全方位カメラ21は、被写体の周囲の全方位の風景等を撮像することができるように設置されている。従って、例えば、被写体が、競技場で行われているサッカーの試合であるとすると、全方位カメラ21は、例えば、競技場の中央に設置され、これにより、全方位カメラ21では、サッカーの試合を観戦している観客がいるスタンドの風景が撮像される。 The omnidirectional camera 21 is installed so as to capture an omnidirectional landscape around the subject. Therefore, for example, if the subject is a soccer game being performed at a stadium, the omnidirectional camera 21 is installed, for example, in the center of the stadium. The scene of the stand where the spectators are watching is imaged.
次に、図4は、図2の囲い込み撮像部12の構成例を示している。
Next, FIG. 4 shows a configuration example of the
囲い込み撮像部12は、被写体の周囲に、その被写体を囲い込むように配置された多数の囲い込みカメラ22k(k=1,2,・・・)で構成され、これにより、囲い込み撮像部12では、多数の視点から見た被写体の画像が撮像される。従って、被写体が、例えば、上述したように、競技場で行われているサッカーの試合であるとすると、囲い込み撮像部12を構成する多数の囲い込みカメラ22kは、競技場に設けられたサッカーフィールドを囲むように配置され、これにより、囲い込みカメラ22kでは、サッカーフィールド上でのサッカーの試合の模様が撮像される。
The
なお、囲い込みカメラ22kは、ある水平面内の、被写体の経度方向(水平方向)にのみ配置しても良いし、被写体の経度及び緯度のあらゆる方向(水平、垂直方向)に配置しても良い。囲い込みカメラ22kを、ある水平面内の、被写体の経度方向にのみ配置する場合には、後述する左右パララックス方式しか採用し得なくなるが、囲い込みカメラ22kを、被写体の経度及び緯度のあらゆる方向に配置する場合には、後述する左右パララックス方式と上下左右パララックス方式のいずれをも採用することが可能となる。 The enclosure camera 22 k may be arranged only in the longitude direction (horizontal direction) of the subject in a certain horizontal plane, or may be arranged in any direction (horizontal or vertical direction) of the longitude and latitude of the subject. . When the enclosure camera 22 k is arranged only in the longitude direction of the subject within a certain horizontal plane, only the left and right parallax methods described later can be adopted. However, the enclosure camera 22 k can be arranged in any direction of the longitude and latitude of the subject. In this case, it is possible to employ either the left / right parallax method or the upper / lower / left / right parallax method described later.
次に、図5は、全方位カメラ21(図3)と囲い込みカメラ22k(図4)の配置関係を示している。 Next, FIG. 5 shows an arrangement relationship between the omnidirectional camera 21 (FIG. 3) and the enclosure camera 22 k (FIG. 4).
囲い込みカメラ22kは、例えば、被写体を囲む半球の球面上に、等経度かつ等緯度間隔で配置され、その囲い込みカメラ22kの位置(カメラ位置)を視点として、被写体を撮像する。 The enclosure camera 22 k is, for example, arranged on the spherical surface of a hemisphere surrounding the subject at equal longitude and equal latitude intervals, and images the subject with the position (camera position) of the enclosure camera 22 k as a viewpoint.
全方位カメラ21は、例えば、囲い込みカメラ22kが配置された半球の中心に配置され、被写体の周囲の全方位、即ち、囲い込みカメラ22kが配置された半球の中心から、その半球の球面上の各点の方向を撮像する。 The omnidirectional camera 21 is arranged, for example, at the center of the hemisphere where the enclosure camera 22 k is arranged, and from the omnidirectional area around the subject, that is, from the center of the hemisphere where the enclosure camera 22 k is arranged, on the spherical surface of the hemisphere. The direction of each point is imaged.
ここで、図5の実施の形態では、全方位カメラ21は、その光軸が、囲い込みカメラ22kが配置された半球の北極方向(緯度が90度の方向)を向くように配置されている。また、囲い込みカメラ22kは、その光軸が、囲い込みカメラ22kが配置された半球の中心方向を向くように配置されている。 Here, in the embodiment of FIG. 5, the omnidirectional camera 21 is arranged such that its optical axis faces the north polar direction (latitude is 90 degrees) of the hemisphere in which the enclosing camera 22 k is arranged. . Further, enclosure camera 22 k, the optical axis is disposed toward the center direction of the hemisphere enclosure camera 22 k is arranged.
なお、全方位カメラ21および囲い込みカメラ22kの配置方法は、図5に示した配置に限定されるものではない。 The arrangement method of the omnidirectional camera 21 and the surrounding-camera 22 k is not limited to the arrangement shown in FIG.
図2に示した撮像システム1では、広角撮像部11において、全方位カメラ21(図3)が、被写体の全方位の画像を撮像し、その結果得られる全方位画像データ(広角画像データ)を、マルチプレクサ13に供給する。同時に、囲い込み撮像部12において、囲い込みカメラ22k(図4)が、そのカメラ位置から見た被写体の画像を撮像し、その結果得られる囲い込み画像データを、マルチプレクサ13に供給する。
In the
マルチプレクサ13は、広角撮像部11から供給される全方位画像データと、囲い込み撮像部12から供給される囲い込み画像データとを多重化し、その多重化の結果得られる多重化画像データを、記録/送信部14に供給する。
The
記録/送信部14は、マルチプレクサ13から供給される多重化画像データを、記録媒体3(図1)に記録し、あるいは、伝送媒体4を介して送信する。
The recording /
従って、撮像システム1では、被写体が、例えば、競技場で行われているサッカーの試合である場合には、サッカーの試合を観戦している観客がいるスタンドの風景や大きく蹴り上げられたサッカーボールなどが、全方位画像データとして撮像されるとともに、そのサッカーの試合のグランドやプレーをしている選手などを多数の視点から見た画像が、囲い込み画像データとして撮像される。
Therefore, in the
次に、図6は、図1の表示システム2の構成例を示している。
Next, FIG. 6 shows a configuration example of the
再生/受信部31は、記録媒体3(図1)から多重化画像データを再生し、あるいは、伝送媒体4(図1)を介して送信されてくる多重化画像データを受信し、その多重化画像データを、デマルチプレクサ32に供給する。
The reproduction /
デマルチプレクサ32は、再生/受信部31から供給される多重化画像データを、フレームごとの全方位画像データと囲い込み画像データとに分離し、全方位画像データを、広角画像処理部33に供給するとともに、囲い込み画像データを、囲い込み画像処理部35に供給する。
The
広角画像処理部33は、デマルチプレクサ32から供給される全方位画像データを処理し、その処理の結果得られる画像データを、広角画像表示部34に供給する。
The wide-angle
広角画像表示部34は、広角画像処理部33から供給される画像データを表示することにより、ユーザに没入感を提供する没入画像を表示する。
The wide-angle
囲い込み画像処理部35は、デマルチプレクサ32から供給される囲い込み画像データを、視点検出部37から供給されるユーザの視点に応じて処理し、そのユーザの視点から被写体を見たときの画像データを生成して、囲い込み画像表示部36に供給する。
The enclosure
囲い込み画像表示部36は、囲い込み画像処理部35から供給される画像データを表示することにより、ユーザの視点などの所定の視点から被写体を見たときの鳥瞰画像を表示する。
The enclosure
視点検出部37は、ユーザの視点を検出し、囲い込み画像処理部35に供給する。ここで、視点検出部37としては、例えば、ポヒマス(Polhemus)社の3次元位置センサとしての磁気センサなどを採用することができる。この場合、磁気センサである視点検出部37は、例えば、ユーザの頭部に装着される。また、視点検出部37としては、例えば、ジョイスティックやトラックボールなどの、視点(の変化)を入力することのできる手段を採用することも可能である。即ち、視点検出部37は、実際のユーザの視点を検知する手段である必要はなく、仮想的なユーザの視点を入力することができる手段であってもよい。
The
次に、図7は、図6の広角画像表示部34の構成例を示している。
Next, FIG. 7 shows a configuration example of the wide-angle
広角画像表示部34は、外側用全方位プロジェクタ41と外側ドームスクリーン42で構成されている。
The wide-angle
外側用全方位プロジェクタ41は、広角に光線を発することができるプロジェクタで、例えば、一般的なプロジェクタと、そのプロジェクタが発する光線を広角なものとする光学系としての魚眼レンズなどから構成される。 The outer omnidirectional projector 41 is a projector capable of emitting light rays at a wide angle, and includes, for example, a general projector and a fish-eye lens as an optical system that widens the light rays emitted from the projector.
外側ドームスクリーン42は、例えば、半球ドーム形状をしており、ユーザを囲むように配置されている。また、外側ドームスクリーン42としての半球ドームは、その半球ドームの中に、複数のユーザが入っても、ある程度動き回れる程度の大きさとなっており、その直径が、例えば5m程度とされている。
The
外側ドームスクリーン42の内側(または外側)の面には、例えば、光を散乱する塗料が塗布されている。そして、外側ドームスクリーン42の内部には、その内側の面に向かって光線が発光されるように、外側用全方位プロジェクタ41が配置されている。
For example, a coating material that scatters light is applied to the inner (or outer) surface of the
即ち、外側用全方位プロジェクタ41は、例えば、その光学中心が、外側ドームスクリーン42としての半球ドームの中心に一致し、その光軸が水平面と直交するように配置されている。そして、外側用全方位プロジェクタ41は、広角画像処理部33から供給される画像データに対応する光線を、魚眼レンズを介して発することにより、その光線を、半球ドームである外側ドームスクリーン42の内側の面全体に向かって射出する。
That is, the outer omnidirectional projector 41 is disposed such that, for example, its optical center coincides with the center of the hemispheric dome as the
外側用全方位プロジェクタ41が発する光線は、半球ドームである外側ドームスクリーン42の内側の面上の各点で受光されて散乱される。これにより、ユーザを覆う外側ドームスクリーン42の内側の面においては、外側用全方位プロジェクタ41が発する光線に対応する没入画像、即ち、撮像システム1で撮像された被写体の全方位の画像が表示される。
Light rays emitted from the outer omnidirectional projector 41 are received and scattered at each point on the inner surface of the
なお、外側ドームスクリーン42の形状は、ユーザを囲むような形状であれば、半球ドーム形状に限定されるものではなく、その他、円筒形などを採用することが可能である。
The shape of the
次に、図8は、図6の囲い込み画像表示部36の構成例を示している。
Next, FIG. 8 shows a configuration example of the enclosed
囲い込み画像表示部35は、内側用全方位プロジェクタ43と内側ドームスクリーン44で構成されている。
The enclosed
内側用全方位プロジェクタ43は、図7の外側用全方位プロジェクタ41と同様に、広角に光線を発することができるプロジェクタで、例えば、一般的なプロジェクタと、そのプロジェクタが発する光線を広角なものとする光学系としての魚眼レンズなどから構成される。 The inner omnidirectional projector 43 is a projector that can emit a light beam at a wide angle similarly to the outer omnidirectional projector 41 of FIG. 7. For example, a general projector and a light beam emitted from the projector have a wide angle. It consists of a fisheye lens as an optical system.
内側ドームスクリーン44は、例えば、半球ドーム形状をしており、その内側(または外側)の面には、例えば、光を散乱する塗料が塗布されている。そして、内側ドームスクリーン44の内部には、その内側の面に向かって光線が発光されるように、内側用全方位プロジェクタ43が配置されている。
The
即ち、内側用全方位プロジェクタ43は、例えば、その光学中心が、内側ドームスクリーン44としての半球ドームの中心に一致し、その光軸が水平面と直交するように配置されている。そして、内側用全方位プロジェクタ43は、広角画像処理部33から供給される画像データに対応する光線を、魚眼レンズを介して発することにより、その光線を、半球ドームである内側ドームスクリーン44の内側の面全体に向かって射出する。
That is, for example, the inner omnidirectional projector 43 is arranged such that its optical center coincides with the center of the hemispheric dome as the
内側用全方位プロジェクタ43が発する光線は、半球ドームである内側ドームスクリーン44の内側の面上の各点で受光されて散乱される。内側ドームスクリーン44自体は、透明な部材で構成されており、その内側の面において、内側用全方位プロジェクタ43が発する光線が散乱されることにより、その外側の面には、内側用全方位プロジェクタ43が発する光線に対応する鳥瞰画像、即ち、撮像システム1で撮像された被写体をある視点から見た画像が、いわゆる背面投影される形で表示される。
Light rays emitted from the inner omnidirectional projector 43 are received and scattered at each point on the inner surface of the
なお、ここでは、内側ドームスクリーン44の形状を、図7の外側ドームスクリーン42の形状と相似の形状である半球ドームとしたが、内側ドームスクリーン44の形状は、外側ドームスクリーン42の形状と相似である必要はない。即ち、内側ドームスクリーン44の形状は、外側ドームスクリーン42の形状とは独立に、例えば、円筒形や、多角柱形状などとすることが可能である。
Here, the shape of the
次に、図9は、外側ドームスクリーン42(図7)と内側ドームスクリーン44の配置関係を示している。
Next, FIG. 9 shows the positional relationship between the outer dome screen 42 (FIG. 7) and the
上述したように、外側ドームスクリーン42は、ユーザを囲むように配置される。そして、内側ドームスクリーン44は、外側ドームスクリーン42の内側に配置される。
As described above, the
従って、外側ドームスクリーン42の内側で、かつ内側ドームスクリーン44の外側にいるユーザは、外側ドームスクリーン42の内側の面に表示される没入画像と、内側ドームスクリーン44の外側の面に表示される鳥瞰画像とを同時に視聴することができる。その結果、ユーザは、没入画像によって提供される没入感を享受することができるとともに、鳥瞰画像によって自身の位置を容易に把握することができる。
Therefore, a user inside the
即ち、外側ドームスクリーン42の内側の面には、例えば、サッカーの競技場のスタンドの風景等の没入画像が表示され、内側ドームスクリーン44の外側の面には、ユーザの視点から、サッカーフィールドを見たときの試合の様子が表示されるので、ユーザは、実際に、サッカーの競技場で、サッカーの試合を観戦しているかのような臨場感を味わうことができる。
That is, for example, an immersive image such as a scene of a soccer stadium stand is displayed on the inner surface of the
次に、図10に示すように、外側ドームスクリーン42の内部には、一人だけでなく、複数人のユーザが入ることができ、従って、表示システム2によれば、複数のユーザが、外側ドームスクリーン42に表示される没入画像と、内側ドームスクリーン44に表示される鳥瞰画像とを、同時に視聴することができる。
Next, as shown in FIG. 10, not only one person but also a plurality of users can enter the inside of the
そして、例えば、いま、図11に示すように、外側ドームスクリーン42の内部に、二人のユーザAとBが存在し、そのユーザAとBが、異なる位置にいる場合には、内側ドームスクリーン44では、ユーザAに対しては、そのユーザAの視点から被写体を見たときの鳥瞰画像が表示され、ユーザBに対しては、そのユーザAの視点から被写体を見たときの鳥瞰画像が表示される。
Then, for example, as shown in FIG. 11, when there are two users A and B inside the
即ち、表示システム2では、内側ドームスクリーン44において、ユーザに対して、そのユーザの視点から被写体を見たときの鳥瞰画像が表示される。
That is, in the
従って、ユーザは、その視点から被写体を見たときの画像(鳥瞰画像)を視聴することができ、その視点を選択する自由を有する。 Therefore, the user can view an image (bird's-eye view image) when viewing the subject from the viewpoint, and has the freedom to select the viewpoint.
ここで、ユーザが選択しうる視点の位置は、例えば、図12に示すように、外側ドームスクリーン42内部の、ある高さの水平面内の位置に限定することもできるし、そのような限定をせずに、例えば、図13に示すように、外側ドームスクリーン42内部の任意の位置とすることもできる。なお、図12のように、視点を、ある水平面内の位置に限定する方式は、ユーザが視点を左右方向にのみ移動することができるので、左右パララックス(parallax)方式ということができる。また、図13のように、視点を、任意の位置とすることができる方式は、ユーザが視点を上下左右の任意の方向に移動することができるので、上下左右パララックス方式ということができる。
Here, the position of the viewpoint that can be selected by the user can be limited to a position in a horizontal plane at a certain height inside the
次に、図14は、図6の広角画像処理部33の構成例を示している。
Next, FIG. 14 shows a configuration example of the wide-angle
デマルチプレクサ32(図6)が出力するフレームごとの全方位画像データは、フレームメモリ51に供給され、フレームメモリ51は、デマルチプレクサ32から供給される全方位画像データをフレーム単位で記憶し、その記憶した全方位画像データをフレーム単位で読み出して、広角画像変換部52に供給する。なお、フレームメモリ51は、複数のメモリバンクを有しており、バンク切り替えを行うことで、全方位画像データの記憶と読み出しを同時に行うことができるようになっている。
The omnidirectional image data for each frame output from the demultiplexer 32 (FIG. 6) is supplied to the
広角画像変換部52は、コントローラ56の制御の下、フレームメモリ51から供給される全方位画像データを、緯度方向と経度方向で規定される平面上の長方形状の緯度経度画像データに変換し、画角補正部53に供給する。
The wide-angle
画角補正部53は、コントローラ56の制御の下、広角画像変換部52から供給される緯度経度画像データを、広角画像表示部34(図7)の外側用全方位プロジェクタ41の光学特性に基づいて補正し、その補正後の緯度経度画像データを、緯度経度画像変換部54に供給する。
The angle-of-
緯度経度画像変換部54は、コントローラ56の制御の下、画角補正部53から供給される緯度経度画像データを、全方位画像データに変換し、フレームメモリ55に供給する。
The latitude / longitude
フレームメモリ55は、緯度経度画像変換部54から供給される全方位画像データをフレーム単位で記憶し、その記憶した全方位画像データをフレーム単位で読み出して、広角画像表示部34(図7)の外側用全方位プロジェクタ41に供給する。なお、フレームメモリ55も、フレームメモリ51と同様に、複数のメモリバンクを有しており、バンク切り替えを行うことで、全方位画像データの記憶と読み出しを同時に行うことができるようになっている。
The
コントローラ56は、フレームメモリ51における全方位画像データの記憶状況に基づいて、広角画像変換部52、画角補正部53、および緯度経度画像変換部54を制御する。
The
次に、図15乃至図17を参照して、図14の広角画像変換部52、画角補正部53、および緯度経度画像変換部54の処理について説明する。
Next, processing of the wide-angle
広角画像変換部52には、フレームメモリ51に記憶された全方位画像データ、即ち、図3の広角撮像部11を構成する全方位カメラ21で撮像された全方位画像データが供給される。
The omnidirectional image data stored in the
いま、図15に示すように、全方位カメラ21の光軸をz軸とするとともに、全方位カメラ21の撮像面(受光面)をxy平面とする3次元座標系を、広角画像撮像座標系と呼ぶこととして、この広角画像撮像系において、全方位カメラ21に入射する光線と、全方位カメラ21がその光線を受光することにより撮像する全方位画像データとの関係を考える。 Now, as shown in FIG. 15, a three-dimensional coordinate system in which the optical axis of the omnidirectional camera 21 is the z axis and the imaging surface (light receiving surface) of the omnidirectional camera 21 is the xy plane is a wide angle image imaging coordinate system. In this wide-angle image capturing system, the relationship between the light beam incident on the omnidirectional camera 21 and the omnidirectional image data captured by the omnidirectional camera 21 receiving the light beam is considered.
全方位カメラ21に入射する光線Lは、その魚眼レンズで屈折し、全方位カメラ21の撮像面に入射する。即ち、魚眼レンズは、光線Lを、広角画像撮像座標系のz軸と光線Lとを含む平面内において屈折し、xy平面に入射させる。従って、全方位カメラ21では、例えば、円形状、または図16に斜線を付して示すような、いわばドーナツ形状の画像データが、全方位画像データとして撮像される。 The light beam L incident on the omnidirectional camera 21 is refracted by the fisheye lens and is incident on the imaging surface of the omnidirectional camera 21. That is, the fisheye lens refracts the light beam L in a plane including the z-axis and the light beam L of the wide-angle image imaging coordinate system and makes the light beam L incident on the xy plane. Therefore, in the omnidirectional camera 21, for example, image data of a circular shape or a donut shape as shown by hatching in FIG. 16 is captured as omnidirectional image data.
ここで、広角画像撮像座標系において、図15に示すように、xy平面上でx軸となす角度を、経度θというとともに、z軸となす角度を、緯度φということとして、経度がθで、緯度がφの方向を、方向(θ,φ)と表すこととすると、全方位カメラ21に対して、方向(θ,φ)から入射する光線Lは、全方位カメラ21の魚眼レンズにおいて、緯度φに応じて屈折する。 Here, in the wide-angle imaging coordinate system, as shown in FIG. 15, the angle with the x-axis on the xy plane is called longitude θ, and the angle with the z-axis is called latitude φ, and the longitude is θ. Assuming that the direction of latitude φ is the direction (θ, φ), the light ray L incident on the omnidirectional camera 21 from the direction (θ, φ) Refracts according to φ.
従って、方向(θ,φ)から入射する光線Lを、光線L(θ,φ)と表すとともに、その光線L(θ,φ)が射影されるxy平面上の点を、Q(x,y)と表すこととすると、経度θと緯度φは、点Qのx座標とy座標を用いて、次式で表される。 Therefore, the light ray L incident from the direction (θ, φ) is expressed as a light ray L (θ, φ), and a point on the xy plane where the light ray L (θ, φ) is projected is represented by Q (x, y). ), The longitude θ and the latitude φ are expressed by the following equations using the x and y coordinates of the point Q.
但し、式(2)において、関数f1()は、全方位カメラ21の魚眼レンズの光学特性によって決まる関数である。なお、関数f1()の逆関数を、f1 -1()と表すと、式(2)は、√(x2+y2)=f1 -1(θ)と表すことができる。逆関数f1 -1(θ)は魚眼レンズの光学特性を表すが、この逆関数f1 -1(θ)が、[魚眼レンズの焦点距離]×θで表される魚眼レンズは、等距離射影(equidistance projection)方式と呼ばれる。 However, in equation (2), the function f 1 () is a function determined by the optical characteristics of the fisheye lens of the omnidirectional camera 21. Incidentally, the inverse function of the function f 1 (), expressed as f 1 -1 (), Equation (2) is, √ (x 2 + y 2 ) = f 1 - can be represented as 1 (theta). Inverse function f 1 -1 (θ) represents an optical property of a fisheye lens, the inverse function f 1 -1 (θ) is, fisheye lens represented by [the focal length of the fisheye lens] × theta is equidistant projection (Equidistance projection) method.
式(1)と(2)から、全方位カメラ21で撮像される全方位画像上のある点Q(x,y)は、その点に入射する光線L(θ,φ)の方向を表す経度θと緯度φで表現することができる。 From Equations (1) and (2), a certain point Q (x, y) on the omnidirectional image captured by the omnidirectional camera 21 is a longitude representing the direction of the light beam L (θ, φ) incident on the point. It can be expressed by θ and latitude φ.
即ち、点Q(x,y)と原点Oとを結ぶ直線と、x軸とがなす角度は、光線Lの経度θに等しい。また、点Q(x,y)と原点Oとの距離√(x2+y2)は、光線Lの緯度φに依存する。そして、経度θと緯度φとは、独立した値である。 That is, the angle formed by the straight line connecting the point Q (x, y) and the origin O and the x axis is equal to the longitude θ of the light ray L. The distance √ (x 2 + y 2 ) between the point Q (x, y) and the origin O depends on the latitude φ of the light ray L. The longitude θ and the latitude φ are independent values.
従って、例えば、経度θを横軸とするとともに、経度φを縦軸とする2次元座標系としての緯度経度座標系を考えると、全方位画像データを構成する画素Q(x,y)は、緯度経度座標系上の点Q’(θ,φ)に射影することができる。 Therefore, for example, when considering a latitude / longitude coordinate system as a two-dimensional coordinate system having the longitude θ as the horizontal axis and the longitude φ as the vertical axis, the pixel Q (x, y) constituting the omnidirectional image data is Projection can be performed on the point Q ′ (θ, φ) on the latitude-longitude coordinate system.
全方位画像データを、緯度経度座標系に射影することにより、図17に示すように、ドーナツ形状の全方位画像データは、経度θと緯度φで規定される長方形状の画像データ、即ち、緯度経度画像データに変換される。 By projecting the omnidirectional image data to the latitude-longitude coordinate system, as shown in FIG. 17, the donut-shaped omnidirectional image data is rectangular image data defined by longitude θ and latitude φ, that is, latitude. Converted to longitude image data.
図14の広角画像変換部52は、以上のように、全方位画像データを緯度経度画像データに変換する。
As described above, the wide-angle
次に、全方位画像を撮像する広角撮像部11(図3)の全方位カメラ21の魚眼レンズの光学特性と、全方位画像に対応する光線を発する広角画像表示部34(図7)の外側用全方位プロジェクタ41の魚眼レンズの光学特性とが同一であるとした場合、外側用全方位プロジェクタ41に、全方位カメラ21で得られた全方位画像データをそのまま供給すれば、外側用全方位プロジェクタ41からは、全方位カメラ21に入射する光線と向きだけが逆向きの光線が射出されるから、外側用全方位プロジェクタ41からの光線を受光する外側ドームスクリーン42(図7)では、理論的には、全方位カメラ21で撮像された風景等と同一の画像が表示される。 Next, the optical characteristics of the fisheye lens of the omnidirectional camera 21 of the wide-angle imaging unit 11 (FIG. 3) that captures the omnidirectional image and the outside of the wide-angle image display unit 34 (FIG. 7) that emits light rays corresponding to the omnidirectional image. If the optical characteristics of the fisheye lens of the omnidirectional projector 41 are the same, the omnidirectional image data obtained by the omnidirectional camera 21 can be supplied to the outer omnidirectional projector 41 as it is. Since a light beam having a direction opposite to that of the light beam incident on the omnidirectional camera 21 is emitted from the outer dome screen 42 (FIG. 7) for receiving the light beam from the outer omnidirectional projector 41, theoretically Displays the same image as the landscape imaged by the omnidirectional camera 21.
しかしながら、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性が同一であるとは限らず、異なる場合がある。 However, the optical characteristics of the fisheye lenses of the omnidirectional camera 21 (FIG. 3) and the outer omnidirectional projector 41 (FIG. 7) are not necessarily the same and may be different.
ここで、全方位カメラ21に入射する光線L(θ,φ)が到達する撮像面上の点Q(x,y)と、経度θおよび緯度φとの間には、式(1)および(2)に示した関係がある。 Here, between the point Q (x, y) on the imaging surface where the light beam L (θ, φ) incident on the omnidirectional camera 21 arrives, and the longitude θ and the latitude φ, equations (1) and (1) There is a relationship shown in 2).
そして、式(1)で表される経度θは、魚眼レンズの光学特性に影響を受けないが、式(2)で表される緯度φは、関数f1()を用いて求められ、この関数f1()の逆関数関数f1 -1()は、上述したように、魚眼レンズの光学特性を表すから、魚眼レンズの光学特性に影響を受ける。 The longitude θ expressed by the equation (1) is not affected by the optical characteristics of the fisheye lens, but the latitude φ expressed by the equation (2) is obtained using the function f 1 (). f 1 () inverse function function f 1 -1 of (), as described above, since representing optical characteristics of the fish-eye lens affected by the optical characteristics of the fish-eye lens.
従って、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性が異なる場合に、外側ドームスクリーン42(図7)で表示される画像を、全方位カメラ21で撮像された風景等と同一の画像とするには、全方位カメラ21で撮像された全方位画像データの緯度φ方向の補正が必要となる。
Therefore, when the optical characteristics of the fish-eye lens of the omnidirectional camera 21 (FIG. 3) and the omnidirectional projector 41 (FIG. 7) are different, the image displayed on the outer dome screen 42 (FIG. 7) is displayed. In order to obtain the same image as the landscape imaged in
全方位画像データの緯度φ方向は、図17に示した緯度経度画像データの縦軸方向となるから、図14の画角補正部53は、広角画像変換部52から供給される緯度経度画像データの縦軸方向である緯度φを、例えば次式によって、緯度φ’に補正する。
Since the latitude φ direction of the omnidirectional image data is the vertical axis direction of the latitude / longitude image data shown in FIG. 17, the angle-of-
但し、式(3)において、αは、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性によって決まる値である。 However, in Expression (3), α is a value determined by the optical characteristics of the fish-eye lens of the omnidirectional camera 21 (FIG. 3) and the outer omnidirectional projector 41 (FIG. 7).
従って、広角画像変換部52から供給される緯度経度画像データを構成する画素を、Q’(θ,φ)と表すと、画角補正部53では、画素Q’(θ,φ)が、画素Q’(θ,φ’)に補正される。
Therefore, if the pixel constituting the latitude / longitude image data supplied from the wide-angle
なお、緯度φは、図17に示したように、緯度経度画像データの縦軸方向を表すから、緯度経度画像データの縦方向の画角に相当する。従って、緯度φの補正は、緯度経度画像データの縦方向の画角を小さくまたは広くすることに相当する。 Note that, as shown in FIG. 17, the latitude φ represents the vertical axis direction of the latitude / longitude image data, and therefore corresponds to the vertical angle of view of the latitude / longitude image data. Therefore, the correction of the latitude φ corresponds to reducing or increasing the vertical field angle of the latitude and longitude image data.
長方形状の緯度経度画像データを、そのまま、外側用全方位プロジェクタ41(図7)に供給しても、外側ドームスクリーン42には、全方位カメラ21(図3)で撮像された全方位画像が表示されないため、図14の緯度経度画像変換部54は、画角補正部53で緯度φの補正が行われた緯度経度画像データを、再び、図16に示したようなドーナツ形状(あるいは円形状)の全方位画像データに変換する。緯度経度画像変換部54で得られる全方位画像データは、その緯度φ方向のスケールが、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性に基づいて補正されており、この全方位画像データを、外側用全方位プロジェクタ41(図7)に供給することで、外側ドームスクリーン42では、全方位カメラ21(図3)で撮像された全方位画像が表示されることになる。
Even if rectangular latitude and longitude image data is supplied to the outer omnidirectional projector 41 (FIG. 7) as it is, the omnidirectional image captured by the omnidirectional camera 21 (FIG. 3) is displayed on the
次に、図18のフローチャートを参照して、図14の広角画像処理部33で行われる処理(広角画像処理)について説明する。
Next, processing (wide-angle image processing) performed by the wide-angle
コントローラ56は、フレームメモリ51を監視しており、フレームメモリ51が全方位画像データの記憶を開始すると、広角画像処理を開始する。
The
即ち、広角画像処理では、まず最初に、ステップS1において、コントローラ56が、フレーム数をカウントする変数iに、初期値としての、例えば1をセットし、ステップS2に進む。ステップS2では、フレームメモリ51が、そこに記憶された第iフレームの全方位画像データを読み出し、広角画像変換部52に供給して、ステップS3に進む。
That is, in the wide-angle image processing, first, in step S1, the
ステップS3では、広角画像変換部52が、フレームメモリ51から供給される全方位画像データを構成する各画素Q(x,y)について、式(1)により、経度θを求め、ステップS4に進む。ステップS4では、広角画像変換部52が、フレームメモリ51から供給される全方位画像データを構成する各画素Q(x,y)について、式(2)により、緯度φを求め、ステップS5に進む。
In step S3, the wide-angle
ステップS5では、広角画像変換部52が、フレームメモリ51から供給される全方位画像データを構成する各画素Q(x,y)を、その画素Q(x,y)について求められた経度θと緯度φで表される緯度経度座標系上の点(θ,φ)に配置することによって、図17に示したように、ドーナツ形状の全方位画像データを、長方形状の緯度経度画像データに変換する。
In step S5, the wide-angle
広角画像変換部52は、ステップS5において、以上のようにして緯度経度画像データを求めると、その緯度経度画像データを、画角補正部53に供給して、ステップS6に進む。
When the wide-angle
ステップS6では、画角補正部53が、広角画像変換部52から供給される緯度経度画像データの緯度φ方向を、式(3)にしたがって、緯度φ’に補正し、その補正後の緯度φ’と、経度θで表される緯度経度画像データを、緯度経度画像変換部54に供給して、ステップS7に進む。
In step S6, the angle-of-
ステップS7では、緯度経度画像変換部54が、画角補正部53から供給される緯度経度画像データを構成する各画素Q’(θ,φ’)について、広角画像撮像座標系のxy平面上のx座標を、式(4)にしたがって求め、ステップS8に進む。
In step S <b> 7, the latitude / longitude
ステップS8では、緯度経度画像変換部54が、画角補正部53から供給される緯度経度画像データを構成する各画素Q’(θ,φ’)について、広角画像撮像座標系のxy平面上のy座標を、式(5)にしたがって求め、ステップS9に進む。
In step S8, the latitude / longitude
ここで、式(4)および(5)における関数f2(φ’)は、外側用全方位プロジェクタ41(図7)の光学特性を表す関数(外側用全方位プロジェクタ41の魚眼レンズの射影方式によって決まる関数)である。なお、式(1)と(2)を、xとyそれぞれについて解くことにより、式(4)および(5)と同様の式を得ることができる。 Here, the function f 2 (φ ′) in the equations (4) and (5) is a function representing the optical characteristics of the outer omnidirectional projector 41 (FIG. 7) (depending on the projection method of the fisheye lens of the outer omnidirectional projector 41). Function). By solving equations (1) and (2) for x and y, equations similar to equations (4) and (5) can be obtained.
ステップS9では、緯度経度画像変換部54が、画角補正部53から供給される緯度経度画像データを構成する各画素Q’(θ,φ’)を、その画素Q’(θ,φ’)について求められたx座標とy座標で表される広角画像撮像座標系のxy平面上の点(x,y)に配置することによって、長方形状の緯度経度画像データを、ドーナツ形状の全方位画像データに変換し、この全方位画像データが、外側用全方位プロジェクタ41(図7)に発光させる画像データである発光全方位画像データとして、フレームメモリ55に供給されて記憶される。
In step S <b> 9, the latitude / longitude
以上のようにして、フレームメモリ55に記憶された発光全方位画像データは、順次読み出され、広角画像表示部34(図6)に供給される。そして、広角画像表示部34では、その外側用全方位プロジェクタ41(図7)が、発光全方位画像データに対応する光線を発し、この光線が、外側ドームスクリーン42(図7)で受光されることで、外側ドームスクリーン42では、全方位カメラ21(図3)で撮像された被写体の全方位の風景の画像が、没入画像として表示される。
As described above, the light emission omnidirectional image data stored in the
その後、ステップS10に進み、コントローラ51は、フレームメモリ51を参照することにより、第iフレームが、最後のフレームであるか否かを判定する。ステップS10において、第iフレームが最後のフレームでないと判定された場合、即ち、フレームメモリ51に、第iフレームより後のフレームの全方位画像データが記憶されている場合、ステップS11に進み、コントローラ56は、変数iを1だけインクリメントして、ステップS2に戻り、以下、同様の処理が繰り返される。
Thereafter, the process proceeds to step S10, and the
また、ステップS10において、第iフレームが最後のフレームであると判定された場合、即ち、フレームメモリ51に、第iフレームより後のフレームの全方位画像データが記憶されていない場合、広角画像処理を終了する。
If it is determined in step S10 that the i-th frame is the last frame, that is, if the omnidirectional image data of the frame after the i-th frame is not stored in the
なお、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の光学特性が同一である場合には、デマルチプレクサ32(図6)が出力する全方位画像データは、図14の広角画像処理部33をスルーして、そのまま、発光全方位画像データとして、広角画像表示部34に供給することが可能である。
If the optical characteristics of the omnidirectional camera 21 (FIG. 3) and the omnidirectional projector 41 (FIG. 7) are the same, the omnidirectional image data output from the demultiplexer 32 (FIG. 6) is as shown in FIG. The wide-angle
次に、図6の囲い込み画像処理部35の処理の概要について説明する。
Next, an outline of the processing of the enclosed
囲い込み画像表示部36(図6)では、上述したように、その内側ドームスクリーン44(図8)において、ユーザに対し、そのユーザの視点から被写体を見た画像が表示される。また、複数のユーザが存在する場合には、内側ドームスクリーン44(図8)において、複数のユーザそれぞれに対し、そのユーザの視点から被写体を見た画像が表示される。 In the enclosed image display unit 36 (FIG. 6), as described above, on the inner dome screen 44 (FIG. 8), an image of the subject viewed from the user's viewpoint is displayed to the user. Further, when there are a plurality of users, on the inner dome screen 44 (FIG. 8), an image of the subject viewed from the user's viewpoint is displayed for each of the plurality of users.
従って、内側ドームスクリーン44では、図19に示すように、その内側ドームスクリーン44が仮に透明であり、かつ、その内側ドームスクリーン44の内部に、囲い込み撮像部12(図2)で撮像対象となった被写体が仮に存在するとした場合に、各ユーザの視覚に映る被写体と画像と同一の画像が表示される。
Therefore, in the
即ち、図19の実施の形態では、二人のユーザAとBが存在するが、内側ドームスクリーン44では、その中心とユーザAの視点とを結ぶ直線と交わる部分に、ユーザAの視点から被写体を見たときの画像が表示される。さらに、内側ドームスクリーン44では、その中心とユーザBの視点とを結ぶ直線と交わる部分に、ユーザBの視点から被写体を見たときの画像が表示される。
That is, in the embodiment of FIG. 19, there are two users A and B, but on the
このため、図8の囲い込み表示部36では、例えば、図20に示すように、内側用全方位プロジェクタ43が、図示せぬ液晶パネルなどの表示面に、各ユーザの視点から見た被写体の画像(以下、適宜、視点画像という)を表示して、その視点画像に対応する光線を、魚眼レンズを介して発し、これにより、内側ドームスクリーン44において、各ユーザの視点から見た被写体の画像が、各ユーザに表示される。
For this reason, in the
そこで、図6の囲い込み画像処理部35は、デマルチプレクサ32から供給される囲い込み画像データを用い、視点検出部37から供給される各視点について、その視点から被写体を見たときの画像(視点画像)を生成し、さらに、各視点についての視点画像を、その視点に応じた位置に配置することにより、内側用全方位プロジェクタ43(図8)に発光させる光線に対応する発光画像、即ち、内側用全方位プロジェクタ43の表示面に表示させる発光画像(以下、表示用画像ともいう)を生成する。
Therefore, the enclosed
ところで、例えば、図21に示すように、ユーザAとBが離れており、従って、ユーザAとBの視点も離れている場合は、内側ドームスクリーン44において、ユーザAとBそれぞれに対して、その視点から見た被写体の画像(視点画像)を表示しても、ユーザAは、そのユーザAの視点についての視点画像だけを見ることができ、ユーザBも、そのユーザBの視点についての視点画像だけを見ることができる。 By the way, as shown in FIG. 21, for example, when the users A and B are separated from each other, and the viewpoints of the users A and B are also separated, Even when an image of the subject viewed from the viewpoint (viewpoint image) is displayed, the user A can see only the viewpoint image for the viewpoint of the user A, and the user B can also view the viewpoint for the viewpoint of the user B. Only the image can be seen.
即ち、ユーザAには、ユーザBの視点についての視点画像は見えず、あるいは、見えても、ユーザAの視点についての視点画像の視聴を妨げない程度にしか見えない。ユーザBについても、同様に、ユーザAの視点についての視点画像は見えず、あるいは、見えても、ユーザBの視点についての視点画像の視聴を妨げない程度にしか見えない。 That is, the user A cannot see the viewpoint image regarding the viewpoint of the user B, or even if it can be viewed, it can only be viewed to the extent that the viewing of the viewpoint image regarding the viewpoint of the user A is not hindered. Similarly, the viewpoint image of the viewpoint of the user A is not visible for the user B, or even if it is visible, the viewpoint image for the viewpoint of the user B is not disturbed.
一方、例えば、図22に示すように、ユーザAとBが近い位置にいる場合には、視点どうしも近くなり、内側ドームスクリーン44に表示されるユーザAとBそれぞれについての視点画像どうしが重なることがある。また、内側ドームスクリーン44に表示されるユーザAとBそれぞれについての視点画像どうしが重ならない場合であっても、ユーザAとBそれぞれについての視点画像が、内側ドームスクリーン44において近い位置に表示されるため、ユーザBの視点についての視点画像が、ユーザAの視点についての視点画像の、ユーザAによる視聴を妨げるとともに、ユーザAの視点についての視点画像が、ユーザBの視点についての視点画像の、ユーザBによる視聴を妨げることになる。
On the other hand, for example, as shown in FIG. 22, when the users A and B are close to each other, the viewpoints are close to each other, and the viewpoint images for the users A and B displayed on the
そこで、囲い込み画像処理部35は、ユーザAとBの視点どうしの距離が短い場合には、そのユーザAとBの視点の両方から近い位置に、ユーザAとBに共通の視点を設定し、その視点から被写体を見た画像(視点画像)を生成する。この場合、内側ドームスクリーン44では、図22に示すように、ユーザAとBの両方に対して、共通の視点から被写体を見た画像が表示されることとなり、ユーザAとBによる画像の視聴が妨げられることを防止することができる。
Therefore, when the distance between the viewpoints of the users A and B is short, the enclosed
図23は、以上のような処理(囲い込み画像処理)を行う、図6の囲い込み画像処理部35の構成例を示している。
FIG. 23 shows a configuration example of the enclosed
視点バッファ61には、視点検出部37(図6)が出力するユーザの視点が供給されるようになっており、視点バッファ61は、視点検出部37から供給される視点を記憶する。なお、複数のユーザが存在する場合には、図6の視点検出部37は、その複数のユーザの視点を検出し、視点バッファ61に供給する。この場合、視点バッファ61は、視点検出部37から供給される複数のユーザの視点すべてを記憶する。
The
視点処理部62は、視点バッファ61に記憶されたユーザの視点を読み出し、その視点について所定の処理を必要に応じて施しながら、視点記憶部63に供給する。視点記憶部63は、視点処理部62から供給される視点を記憶する。視点方向算出部64は、視点記憶部63に記憶された視点の方向(視点方向)を求め、視点画像変換部67に供給する。
The
フレームメモリ65は、デマルチプレクサ32(図6)から供給される囲い込み画像データをフレーム単位で記憶し、その記憶した囲い込み画像データを読み出して、画像選択部66に供給する。なお、フレームメモリ65も、図14のフレームメモリ51と同様に構成されており、これにより、フレームメモリ65では、囲い込み画像データの記憶と読み出しとを同時に行うことができるようになっている。
The
画像選択部66は、視点記憶部63に記憶された視点についての視点画像を生成するのに必要な画像データを、フレームメモリ65から供給される囲い込み画像データの中から選択する。即ち、囲い込み画像データは、図4に示したように、複数のカメラ位置に配置された複数の囲い込みカメラ221,222,223,・・・で撮像された画像データの集合であり、いま、この囲い込み画像データを構成する囲い込みカメラ22kで撮像された画像データを、カメラ画像データというものとすると、画像選択部66は、視点記憶部63に記憶された視点に基づき、囲い込み画像データからカメラ画像データを選択する。
The
そして、画像選択部66は、視点記憶部63に記憶された視点に基づいて囲い込み画像データから選択したカメラ画像データを、そのまま、あるいは処理し、その視点についての視点画像データとして、視点画像変換部67に供給する。
Then, the
視点画像変換部67は、視点方向算出部64から供給される視点方向と、内側ドームスクリーン44(図8)の形状とに基づき、画像選択部66から供給される視点画像データを用いて、内側用全方位プロジェクタ43(図8)の表示面に表示させる表示用画像データを生成し、フレームメモリ68に供給する。
The viewpoint
なお、以上の画像選択部66と視点画像変換部67によって、ユーザの視点と、内側ドームスクリーン44(図8)の形状とに基づき、囲い込み画像データから表示用画像データを生成する表示用画像生成部70が構成されている。
The above-described
フレームメモリ68は、視点画像変換部67から供給される表示用画像データを記憶し、その記憶した表示用画像データを、内側用全方位プロジェクタ43(図8)に供給する。ここで、フレームメモリ68も、図14のフレームメモリ51と同様に構成されており、これにより、フレームメモリ68では、表示用画像データの記憶と読み出しとを同時に行うことができるようになっている。
The
コントローラ69は、フレームメモリ65における囲い込み画像データの記憶状況を参照しながら、視点処理部62、視点方向算出部64、画像選択部66、および視点画像変換部67を制御する。
The
次に、図24を参照して、図23の視点方向算出部64の処理について説明する。
Next, processing of the viewpoint
視点方向算出部64は、視点記憶部63に記憶された視点の方向(視点方向)を表す経度と緯度を求める。
The viewpoint
即ち、いま、内側用全方位プロジェクタ43の光軸をz軸とするとともに、内側用全方位プロジェクタ43の表示面をxy平面とする3次元座標系を、囲い込み画像表示座標系と呼ぶこととすると、視点方向算出部64は、囲い込み画像表示座標系において、ある位置にある視点V(x,y,z)を、原点Oから見た方向を、視点方向として求める。
That is, a three-dimensional coordinate system in which the optical axis of the inner omnidirectional projector 43 is the z axis and the display surface of the inner omnidirectional projector 43 is the xy plane is now referred to as an enclosed image display coordinate system. The viewpoint
そこで、いま、囲い込み画像表示座標系において、図24に示すように、xy平面上でx軸となす角度を、経度θというとともに、z軸となす角度を、緯度φということとして、経度がθで、緯度がφの方向を、方向(θ,φ)と表すこととすると、視点V(x,y,z)の視点方向(θ,φ)を表す経度θと緯度φは、それぞれ次式で求めることができる。 Therefore, in the enclosed image display coordinate system, as shown in FIG. 24, the angle formed with the x axis on the xy plane is referred to as longitude θ, and the angle formed with the z axis is referred to as latitude φ, and the longitude is θ. If the direction of latitude φ is represented as direction (θ, φ), longitude θ and latitude φ representing the viewpoint direction (θ, φ) of viewpoint V (x, y, z) are respectively expressed by the following equations: Can be obtained.
視点方向算出部64は、式(6)および(7)によって、視点方向(θ,φ)を求め、視点画像変換部67に供給する。
The viewpoint
次に、図25乃至図27を参照して、図23の表示用画像生成部70の処理について説明する。
Next, processing of the display
内側ドームスクリーン44(図8)において、ユーザに対し、そのユーザの視点から被写体を見た視点画像を表示するには、単純には、例えば、図25に示すように、ユーザの視点の視点方向(θ,φ)と内側ドームスクリーン44との交点Uを中心とする、内側ドームスクリーン44上の所定の範囲に、その視点方向(θ,φ)から撮像したカメラ画像データを、視点画像として表示すればよい。
To display a viewpoint image in which the subject is viewed from the user's viewpoint on the inner dome screen 44 (FIG. 8), simply display the viewpoint direction of the user's viewpoint as shown in FIG. 25, for example. Camera image data captured from the viewpoint direction (θ, φ) is displayed as a viewpoint image in a predetermined range on the
従って、いま、視点方向(θ,φ)から撮像したカメラ画像データである視点画像を、視点画像(θ,φ)と表すとともに、ユーザの視点の視点方向(θ,φ)と内側ドームスクリーン44との交点Uを中心とする、内側ドームスクリーン44上の所定の範囲を、表示エリア(θ,φ)と表すこととすると、視点画像(θ,φ)を、表示エリア(θ,φ)に表示させることができるように、視点画像(θ,φ)を、内側用全方位プロジェクタ43(図8)の表示面に表示させる表示用画像上の位置に書き込む必要がある。
Accordingly, a viewpoint image that is camera image data captured from the viewpoint direction (θ, φ) is now represented as a viewpoint image (θ, φ), and the viewpoint direction (θ, φ) of the user's viewpoint and the
そこで、図23の表示用画像生成部70では、画像選択部66において、視点記憶部63に記憶された視点の視点方向(θ,φ)から撮像したカメラ画像データとしての視点画像(θ,φ)を選択し、視点画像変換部67において、その視点画像(θ,φ)を、表示エリア(θ,φ)に表示させることができるように、表示用画像に配置する。
23, the viewpoint image (θ, φ) as camera image data captured from the viewpoint direction (θ, φ) of the viewpoint stored in the
いま、例えば、内側用全方位プロジェクタ43の表示面をxy平面とする2次元座標系を、表示面座標系と呼ぶこととして、図26に示すように、そのx座標とy座標を、xs座標とys座標と表す。また、視点画像(θ,φ)をxy平面とする2次元座標系を、視点画像座標系と呼ぶこととする。なお、図26に示すように、表示面座標系の原点Osは、内側用全方位プロジェクタ43の光軸と表示面との交点にとり、視点画像座標系の原点Oは、長方形状の視点画像(θ,φ)の中心(長方形状の視点画像(θ,φ)の対角線どうしの交点)にとることとする。 Now, for example, a two-dimensional coordinate system for the display surface of the inner omnidirectional projector 43 and the xy plane, as it is referred to as a display surface coordinate system, as shown in FIG. 26, the x and y coordinates, x s representing the coordinates and y s coordinates. A two-dimensional coordinate system in which the viewpoint image (θ, φ) is the xy plane is referred to as a viewpoint image coordinate system. As shown in FIG. 26, the origin O s of the display surface coordinate system is the intersection of the optical axis of the inner omnidirectional projector 43 and the display surface, and the origin O of the viewpoint image coordinate system is a rectangular viewpoint image. It is assumed that the center is (θ, φ) (the intersection of diagonal lines of the rectangular viewpoint image (θ, φ)).
視点画像(θ,φ)を、表示エリア(θ,φ)に表示させるには、第1に、図26に示すように、視点画像(θ,φ)を、表示面座標系の原点Osから、緯度φに対応する距離g(φ)だけ離れた位置に配置する必要がある。さらに、視点画像(θ,φ)を、表示エリア(θ,φ)に表示させるには、第2に、図27に示すように、視点画像(θ,φ)を、反時計回りに、角度π/2+θだけ回転する必要がある。 In order to display the viewpoint image (θ, φ) in the display area (θ, φ), first, as shown in FIG. 26, the viewpoint image (θ, φ) is set to the origin O s of the display surface coordinate system. Therefore, it is necessary to arrange at a position separated by a distance g (φ) corresponding to the latitude φ. Further, in order to display the viewpoint image (θ, φ) in the display area (θ, φ), secondly, as shown in FIG. 27, the viewpoint image (θ, φ) is rotated counterclockwise at an angle. It is necessary to rotate by π / 2 + θ.
そこで、視点画像変換部67は、まず、式(8)にしたがい、視覚画像(θ,φ)の視点画像座標系の原点Oの、表示面座標系における座標O(xsO,ysO)を求める。
Accordingly, the viewpoint
ここで、式(8)において、関数g(φ)は、内側用全方位プロジェクタ43(図8)の光学特性を表す関数(内用全方位プロジェクタ43の魚眼レンズの射影方式によって決まる関数)である。 Here, in the equation (8), the function g (φ) is a function representing the optical characteristics of the inner omnidirectional projector 43 (FIG. 8) (a function determined by the projection method of the fisheye lens of the inner omnidirectional projector 43). .
さらに、視点画像変換部67は、視覚画像(θ,φ)を構成する画素Qの、視点画像座標系における座標を、Q(xQ,yQ)と表すとともに、表示面座標系における座標を、Q(xsQ,ysQ)と表すこととすると、式(9)にしたがい、視覚画像(θ,φ)を構成する画素Qの、表示面座標系における座標Q(xsQ,ysQ)を求める。
Further, the viewpoint
そして、視点画像変換部67は、視覚画像(θ,φ)を構成する各画素Q(xQ,yQ)の画素値を、式(9)で表される座標(xsQ,ysQ)に対応するフレームメモリ68上の位置に書き込むことで、視覚画像(θ,φ)を、表示用画像に変換する。
Then, the viewpoint
次に、図28および図29のフローチャートを参照して、図23の囲い込み画像処理部35の処理(囲い込み画像処理)について説明する。
Next, the processing (enclosed image processing) of the enclosed
コントローラ69は、フレームメモリ65を監視しており、フレームメモリ65が囲い込み画像データの記憶を開始すると、囲い込み画像処理を開始する。
The
即ち、囲い込み画像処理では、まず最初に、ステップS21において、コントローラ69は、フレーム数をカウントする変数iに、初期値としての、例えば1をセットし、ステップS22に進む。
That is, in the enclosed image processing, first, in step S21, the
なお、ステップS21において変数iに1をセットする処理と、後述するステップS53の変数iをインクリメントする処理とは、上述した図18のステップS1において変数iに1をセットする処理と、ステップS11において変数iをインクリメントする処理と、それぞれ同期して行われる。即ち、広角画像処理部33における広角画像処理と、囲い込み画像処理部35における囲い込み画像処理とは、同一フレームを対象として、同期して行われる。これにより、広角画像表示部34と囲い込み画像表示部36では、同一フレームの没入画像と鳥瞰画像が同期して表示される。
The process of setting 1 to the variable i in step S21 and the process of incrementing the variable i of step S53 described later are the process of setting 1 to the variable i in step S1 of FIG. This is performed in synchronization with the process of incrementing the variable i. That is, the wide-angle image processing in the wide-angle
ステップS22では、コントローラ69が、ユーザ数をカウントする変数nに、初期値としての、例えば1をセットし、ステップS23に進む。ステップS23では、視点処理部62が、視点バッファ61からユーザ#nの視点を読み出し、視点記憶部63に登録する。
In step S22, the
即ち、視点検出部37(図6)は、外側スクリーンドーム42(図7)内にいるユーザすべての視点を、例えばフレーム周期で検出し、その検出した最新の視点によって、視点バッファ61の記憶内容を更新するようになっており、ステップS23では、視点処理部62は、第iフレームのタイミングにおいて視点バッファ61に記憶されているユーザ#nの視点を読み出し、視点記憶部63に登録する。なお、ユーザ#nの視点は、例えば、そのユーザ#nを表すID(Identification)とともに、視点記憶部63に記憶するようにすることができる。
That is, the viewpoint detection unit 37 (FIG. 6) detects the viewpoints of all the users in the outer screen dome 42 (FIG. 7), for example, in the frame period, and the stored contents of the
視点処理部62が、ユーザ#nの視点を、視点記憶部63に登録した後は、ステップS24に進み、コントローラ69は、変数nが、外側スクリーンドーム42(図7)内にいるユーザの総数Nに等しいかどうかを判定する。ステップS23において、変数nがNに等しくないと判定された場合、ステップS25に進み、コントローラ69は、変数nを1だけインクリメントして、ステップS23に戻り、以下、同様の処理を繰り返す。
After the
また、ステップS24において、変数nがNに等しいと判定された場合、即ち、視点記憶部63に、外側スクリーンドーム42(図7)内にいるユーザすべての視点が記憶された場合、ステップS26に進み、コントローラ69は、視点選択部66で処理の対象とする視点の総数を表す変数Mに、初期値としての、外側スクリーンドーム42(図7)内にいるユーザの総数Nをセットし、ステップS27に進む。
If it is determined in step S24 that the variable n is equal to N, that is, if the viewpoints of all the users in the outer screen dome 42 (FIG. 7) are stored in the
ステップS27では、コントローラ69は、視点をカウントする変数mに、初期値としての、例えば1をセットするとともに、後述する近距離視点の有無を表すフラグflagに、初期値としての、近距離視点がないことを表す、例えば0をセットし、ステップS28に進む。
In step S27, the
ステップS28では、視点処理部62が、視点記憶部63に記憶されたM個の視点のうちのm番目の視点について、他のM−1個の視点それぞれとの間の距離(視点間距離)を求め、その視点間距離が、所定の閾値TH1以下(または未満)の視点を、m番目の視点についての近距離視点として検出する。そして、ステップS29に進み、視点処理部62は、m番目の視点についての近距離視点が存在するかどうかを判定する。
In step S <b> 28, the
ステップS29において、m番目の視点についての近距離視点がないと判定された場合、即ち、m番目の視点との視点間距離が閾値TH1以下の視点が、視点記憶部63に記憶(登録)されていない場合、ステップS30乃至S34をスキップして、ステップS35に進む。
If it is determined in step S29 that there is no short-distance viewpoint for the m-th viewpoint, that is, viewpoints whose inter-viewpoint distance from the m-th viewpoint is equal to or less than the threshold TH1 are stored (registered) in the
また、ステップS29において、m番目の視点についての近距離視点があると判定された場合、即ち、m番目の視点との視点間距離が閾値TH1以下の視点(近距離視点)が、視点記憶部63に記憶(登録)されている場合、ステップS30に進み、コントローラ69は、フラグflagに、近距離視点があることを表す、例えば1をセットし、ステップS31に進む。
If it is determined in step S29 that there is a short-distance viewpoint for the m-th viewpoint, that is, a viewpoint (short-distance viewpoint) whose inter-viewpoint distance from the m-th viewpoint is equal to or less than a threshold TH1 is a viewpoint storage unit. If it is stored (registered) in 63, the process proceeds to step S30, and the
ここで、ステップS30の処理は、フラグflagに、既に1がセットされている場合は、スキップすることができる。 Here, the process of step S30 can be skipped when 1 is already set in the flag flag.
ステップS31では、視点処理部62は、視点記憶部63に記憶された視点のうち、m番目の視点についての近距離視点とされたものの数を検出し、さらに、その近距離視点とm番目の視点の重心を検出する。
In step S31, the
そして、ステップS32に進み、視点処理部62は、視点記憶部63におけるm番目の視点として、ステップS31で求めた重心を、上書きする形で登録し(書き込み)、ステップS33に進む。ステップS33では、視点処理部62が、視点記憶部63に記憶された視点のうち、m番目の視点についての近距離視点とされたものを削除し、ステップS34に進む。
In step S32, the
ステップS34では、コントローラ69が、視点選択部66で処理の対象とする視点の総数を表す変数Mから、ステップS31で検出された近距離視点の数を減算し、その減算値を、変数Mに新たにセットして、ステップS35に進む。即ち、ステップS33では、視点記憶部63に記憶された視点のうちの近距離視点が削除されるため、ステップS34では、その削除された近距離視点の数だけ、変数Mの値が小さくされる。
In step S34, the
従って、図28において点線で囲んであるステップS28乃至S34の処理によれば、m番目の視点との距離が近い1以上の視点が検出され、その1以上の視点とm番目の視点が、それらの視点の重心の位置に統合される。 Therefore, according to the processing of steps S28 to S34 surrounded by a dotted line in FIG. 28, one or more viewpoints close to the mth viewpoint are detected, and these one or more viewpoints and the mth viewpoint are It is integrated into the position of the center of gravity of the viewpoint.
ステップS35では、コントローラ69が、変数mが、変数M、即ち、視点記憶部63に記憶されている視点の数Mに等しいかどうかを判定する。ステップS35において、変数mが変数Mに等しくないと判定された場合、ステップS36に進み、コントローラ69は、変数mを1だけインクリメントして、ステップS28に戻り、以下、同様の処理が繰り返される。
In step S <b> 35, the
また、ステップS35において、変数mが変数Mに等しいと判定された場合、ステップS37に進み、コントローラ69が、フラグflagが1に等しいかどうかを判定する。ステップS37において、フラグflagが1に等しいと判定された場合、即ち、視点記憶部63に記憶されている視点の中に、前回行われたステップS28乃至S36のループ処理において統合された視点が存在し、まだ視点を統合することができるかもしれない場合、ステップS27に戻り、以下、同様の処理が繰り返される。
When it is determined in step S35 that the variable m is equal to the variable M, the process proceeds to step S37, and the
一方、ステップS37において、フラグflagが1に等しくないと判定された場合、即ち、フラグflagが、ステップS27でセットされた0のままであり、視点記憶部63に記憶されている視点の中に、他の視点との距離が閾値TH1以下となるものが存在しない場合、図29のステップS41に進む。
On the other hand, if it is determined in step S37 that the flag flag is not equal to 1, that is, the flag flag remains 0 set in step S27, and is in the viewpoint stored in the
ステップS41では、コントローラ69が、視点をカウントする変数mに、初期値としての、例えば1をセットし、ステップS42に進む。ステップS42では、画像選択部66が、視点記憶部66に記憶されたm番目の視点と、囲い込み撮像部12を構成する各囲い込みカメラ22kのカメラ視点との距離を、カメラ距離として算出する。
In step S41, the
ここで、囲い込みカメラ22kのカメラ視点とは、囲い込み画像データに多重化されているカメラ位置を、所定の正規化係数βで正規化(除算)したものである。正規化係数βとしては、例えば、囲い込み画像表示座標系においてユーザが取り得る最も遠い視点と原点との距離を、被写体から最も遠い囲い込みカメラ22kと被写体との距離で除算した値などを採用することができる。 Here, the camera viewpoint of the enclosure camera 22 k is obtained by normalizing (dividing) the camera position multiplexed in the enclosure image data by a predetermined normalization coefficient β. As the normalization coefficient β, for example, a value obtained by dividing the distance between the farthest viewpoint that can be taken by the user in the enclosed image display coordinate system and the origin by the distance between the enclosed camera 22 k farthest from the subject and the subject is used. be able to.
ステップS42の処理後は、ステップS43に進み、画像選択部66は、ステップS42でm番目の視点について求められたカメラ距離のうちの最小値Dminを、最小カメラ距離として求め、ステップS44に進む。ステップS44では、画像選択部66が、m番目の視点についての最小カメラ距離Dminが所定の閾値TH2以下(または未満)であるかどうかを判定する。
After the processing of step S42, the process proceeds to step S43, and the
ステップS44において、m番目の視点についての最小カメラ距離Dminが所定の閾値TH2以下であると判定された場合、即ち、m番目の視点と、最小カメラ距離Dminを与えるカメラ視点とが近く、従って、そのカメラ視点を、m番目の視点とみなすことができる場合、ステップS45に進み、画像選択部66は、フレームメモリ65に記憶された囲い込み画像データの中から、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像を、m番目の視点についての視点画像として選択し、視点画像変換部67に供給して、ステップS49に進む。
If it is determined in step S44 that the minimum camera distance Dmin for the mth viewpoint is equal to or smaller than the predetermined threshold TH2, that is, the mth viewpoint and the camera viewpoint that gives the minimum camera distance Dmin are close to each other. Accordingly, when the camera viewpoint can be regarded as the m-th viewpoint, the process proceeds to step S45, and the
また、ステップS44において、m番目の視点についての最小カメラ距離Dminが所定の閾値TH2以下でないと判定された場合、即ち、m番目の視点と、最小カメラ距離Dminを与えるカメラ視点とが近いとはいえず、従って、そのカメラ視点を、m番目の視点とみなすことができない場合、ステップS47に進み、画像選択部66は、m番目の視点について求められたカメラ距離のうちの2番目に小さいものを、第2のカメラ距離D2として検出し、フレームメモリ65に記憶された囲い込み画像データの中から、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像と、第2のカメラ距離D2を与えるカメラ視点の囲い込みカメラ22k'で撮像された第iフレームのカメラ画像の2つのカメラ画像を選択する。さらに、ステップS47では、画像選択部66が、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像と、第2のカメラ距離D2を与えるカメラ視点の囲い込みカメラ22k'で撮像された第iフレームのカメラ画像とを、第2のカメラ距離D2と最小カメラ距離Dminとの比D2:Dminで合成し、合成画像を生成する。
If it is determined in step S44 that the minimum camera distance Dmin for the mth viewpoint is not less than or equal to the predetermined threshold TH2, that is, the mth viewpoint is close to the camera viewpoint that gives the minimum camera distance Dmin. However, if the camera viewpoint cannot be regarded as the m-th viewpoint, the process proceeds to step S47, and the
即ち、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像を構成するc番目の画素を、pcで表すとともに、第2のカメラ距離D2を与えるカメラ視点の囲い込みカメラ22k'で撮像された第iフレームのカメラ画像を構成するc番目の画素を、qcで表すとすると、画像選択部66は、画素pcとqcを、式(D2×pc+Dmin×qc)/(D2+Dmin)にしたがって合成して合成画素を生成し、そのような合成画素で構成される合成画像を生成する。
That is, the c th pixel constituting the camera image of the i-th frame captured by the minimum camera distance D min enclosure camera 22 k of the camera viewpoint giving, with represented by p c, gives the second camera distance D 2 Assuming that the c-th pixel constituting the camera image of the i-th frame captured by the camera 22 k ′ captured by the camera viewpoint is represented by q c , the
なお、ここでは、2つのカメラ画像を用いて合成画像を生成するようにしたが、合成画像は、その他、3以上のカメラ画像を用いて生成することが可能である。 Here, the composite image is generated using two camera images, but the composite image can be generated using three or more other camera images.
その後、ステップS48に進み、画像選択部66は、ステップS47で生成した合成画像を、m番目の視点についての視点画像として選択し、視点画像変換部67に供給して、ステップS49に進む。
Thereafter, the process proceeds to step S48, and the
ステップS49では、m番目の視点についての視点画像が、表示用画像に変換される。 In step S49, the viewpoint image for the mth viewpoint is converted into a display image.
即ち、ステップS49では、視点方向算出部64が、視点記憶部63に記憶されたm番目の視点の視点方向(θ,φ)を算出し、視点画像変換部67に供給する。視点画像変換部67は、視点方向算出部64から供給されるm番目の視点の視点方向(θ,φ)に基づき、画像選択部66から供給されるm番目の視点についての視点画像の各画素を配置すべき、表示用画像の位置を、式(8)および(9)によって算出する。そして、視点画像変換部67は、そのようにして求めた表示用画像の位置に対応するフレームメモリ68上の位置(アドレス)に、m番目の視点についての視点画像の画素を配置し(書き込み)、ステップS50に進む。
That is, in step S 49, the viewpoint
ここで、以上のようにしてフレームメモリ68に書き込まれた表示用画像に対応する光線が、内側用全方位プロジェクタ43から発光されることにより、内側ドームスクリーン44には、m番目の視点から見た場合に、その視点から被写体を見たときの画像が表示される。
Here, the light corresponding to the display image written in the
ステップS50では、コントローラ69が、変数mが、視点記憶部63に記憶された視点の総数Mに等しいかどうかを判定する。ステップS50において、変数mがMに等しくないと判定された場合、ステップS51に進み、コントローラ69は、変数mを1だけインクリメントして、ステップS42に戻り、以下、同様の処理を繰り返す。
In step S <b> 50, the
また、ステップS50において、変数mがMに等しいと判定された場合、即ち、視点記憶部63に記憶されたすべての視点についての視点画像が、表示用画像に変換され、フレームメモリ68に書き込まれた場合、内側用全方位プロジェクタ43(図8)は、そのフレームメモリ68に記憶された表示用画像を、第iフレームの画像として、その画像に対応する光線を発光する。これにより、内側ドームスクリーン44では、1乃至M番目の視点それぞれから見た場合に、その視点から被写体を見たときの鳥瞰画像が、各視点に対応する位置に表示される。
If it is determined in step S50 that the variable m is equal to M, that is, viewpoint images for all viewpoints stored in the
その後、ステップS52に進み、コントローラ69は、フレームメモリ65を参照することにより、第iフレームが、最後のフレームであるか否かを判定する。ステップS52において、第iフレームが最後のフレームでないと判定された場合、即ち、フレームメモリ65に、第iフレームより後のフレームの囲い込み画像データが記憶されている場合、ステップS53に進み、コントローラ69は、変数iを1だけインクリメントして、図28のステップS22に戻り、以下、同様の処理が繰り返される。
Thereafter, the process proceeds to step S52, and the
また、ステップS52において、第iフレームが最後のフレームであると判定された場合、即ち、フレームメモリ65に、第iフレームより後のフレームの囲い込み画像データが記憶されていない場合、囲い込み画像処理を終了する。
If it is determined in step S52 that the i-th frame is the last frame, that is, if no frame image data of a frame after the i-th frame is stored in the
以上のように、表示システム2では、外側ドームスクリーン42の内側の面に第iフレームの没入画像が表示されるとともに、内側ドームスクリーン44の外側の面に第iフレームの鳥瞰画像が表示されるので、ユーザは、没入画像によって提供される没入感を享受することができるとともに、鳥瞰画像によって自身の位置を容易に把握することができる。
As described above, in the
従って、図1の撮像/表示システムを、例えば、スポーツ番組の撮像および表示に用いた場合には、撮像システム1の囲い込みカメラ22k(図4)を、そのスポーツが行われるスタジアムを取り囲むように多数連続的に配置するとともに、全方位カメラ21(図3)をスタジアムの中央に配置して撮像を行うことで、表示システム2において、臨場感あふれる画像表示が可能となる。
Therefore, when the imaging / display system of FIG. 1 is used for imaging and displaying a sports program, for example, the enclosing camera 22 k (FIG. 4) of the
また、表示システム2の内側ドームスクリーン44では、ユーザの視点に応じた鳥瞰画像が、ユーザの視点に応じた位置に表示されるので、ユーザに提示される鳥瞰画像は、ユーザが視点を移動することにより変化する。従って、ユーザは、いわゆるのぞき込みが可能となり、ある視点からは隠れていた被写体の画像を、視点を移動することで見ることができるようになる。さらに、複数のユーザに対して、各ユーザの視点から被写体を見た鳥瞰画像を提示することが可能となる。
In addition, since the bird's-eye view image corresponding to the user's viewpoint is displayed on the
また、表示システム2によれば、例えば、外側ドームスクリーン42(図7)に、遠くにいる魚や動物等を表示し、内側ドームスクリーン44(図8)に、近くにいる魚や動物等を表示することで、水族館や動物園などの自然観察型施設を仮想的に実現することができる。
Further, according to the
さらに、表示システム2においては、実際に撮像された画像ではなく、コンピュータグラフィックスなどの人為的に作られた画像を表示することが可能である。即ち、表示システム2においては、コンピュータグラフィックスとして作られた宇宙空間の画像や、分子などのミクロの構造の画像などを表示することが可能である。この場合、通常は視認することができない構造を、ユーザが直感的に把握することができるインタフェースの提供が可能となる。
Further, in the
また、表示システム2は、例えば、いわゆるテレビゲームの画像表示にも適用可能である。
The
次に、図6の広角画像処理部33や囲い込み画像処理部35による一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
Next, a series of processing by the wide-angle
そこで、図30は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。 Therefore, FIG. 30 illustrates a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
The program can be recorded in advance in a
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体111に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。 Alternatively, the program is stored temporarily on a removable recording medium 111 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored permanently (recorded). Such a removable recording medium 111 can be provided as so-called package software.
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部108で受信し、内蔵するハードディスク105にインストールすることができる。
The program is installed in the computer from the removable recording medium 111 as described above, or transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite, LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet, and the computer can receive the program transferred in this way by the
コンピュータは、CPU(Central Processing Unit)102を内蔵している。CPU102には、バス101を介して、入出力インタフェース110が接続されており、CPU102は、入出力インタフェース110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、また、CPU102は、ハードディスク105に格納されているプログラム、衛星若しくはネットワークから転送され、通信部108で受信されてハードディスク105にインストールされたプログラム、またはドライブ109に装着されたリムーバブル記録媒体111から読み出されてハードディスク105にインストールされたプログラムを、RAM(Random Access Memory)104にロードして実行する。これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
The computer includes a CPU (Central Processing Unit) 102. An input /
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。 Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
なお、表示システム2では、記録媒体3(図1)に記録された画像を、いわばオフラインで表示することも可能であるし、伝送媒体4を介して伝送されてくる画像を、リアルタイムで表示することも可能である。
In the
また、上述したように、内側用全方位プロジェクタ43(図8)において、表示用画像に対応する光線を発し、その光線を、内側ドームスクリーン44(図8)に背面投影することで、視点画像を表示する場合には、その視点画像において左右が反転する。この内側ドームスクリーン44に表示される視点画像の左右の反転を防止するためには、例えば、視点画像の元となるカメラ画像の左右をあらかじめ反転しておく必要があるが、この反転処理は、例えば、囲い込み画像処理部35の画像選択部66(図23)に行わせることが可能である。あるいは、このカメラ画像の左右の反転は、例えば、撮像システム1の囲い込みカメラ22k(図4)においてカメラ画像を撮像する際に、光学的に行うようにすることも可能である。
Further, as described above, the inner omnidirectional projector 43 (FIG. 8) emits a light beam corresponding to the display image, and the light beam is projected back onto the inner dome screen 44 (FIG. 8). Is displayed, the left and right are reversed in the viewpoint image. In order to prevent the left-right reversal of the viewpoint image displayed on the
さらに、本実施の形態では、内側用全方位プロジェクタ43(図8)において、表示用画像に対応する光線を発し、その光線を、内側ドームスクリーン44(図8)に背面投影することで、視点画像を表示するようにしたが、この場合、表示用画像を、内側ドームスクリーン44(図8)の形状を考慮して生成する必要がある。即ち、視点画像は、長方形状であるため、その長方形状の視点画像を、表示用画像の所定の位置に配置し、その表示用画像に対応する光線を、内側用全方位プロジェクタ43から発することにより、内側ドームスクリーン44において視点画像を表示する場合には、長方形状の視点画像が、半球状の内側ドームスクリーン44の球面に射影されるため、内側ドームスクリーン44に表示された視点画像は歪むことになる。従って、視点画像変換部67(図23)では、内側ドームスクリーン44において視点画像が歪みのない長方形状に表示されるように、内側ドームスクリーン44の形状に基づき、表示用画像に配置する視点画像を変換する必要がある。
Furthermore, in the present embodiment, the inner omnidirectional projector 43 (FIG. 8) emits a light beam corresponding to the display image, and the light beam is projected back onto the inner dome screen 44 (FIG. 8). In this case, it is necessary to generate a display image in consideration of the shape of the inner dome screen 44 (FIG. 8). That is, since the viewpoint image has a rectangular shape, the rectangular viewpoint image is arranged at a predetermined position of the display image, and the light corresponding to the display image is emitted from the inner omnidirectional projector 43. Thus, when the viewpoint image is displayed on the
但し、本実施の形態では、内側ドームスクリーン44(図8)の半径がある程度大きく、視点画像が表示される範囲は、平面とみなすことができるものとされている。この場合には、内側ドームスクリーン44の形状に基づく、表示用画像に配置する視点画像の変換は、してもしなくてもよい。
However, in the present embodiment, the radius of the inner dome screen 44 (FIG. 8) is large to some extent, and the range in which the viewpoint image is displayed can be regarded as a plane. In this case, conversion of the viewpoint image arranged in the display image based on the shape of the
また、本実施の形態では、撮像システム1において、囲い込み撮像部12(図2)を1つしか設けなかったが、囲い込み撮像部12は、複数設けることが可能である。この場合、複数の囲い込み撮像部12において、空間的または時間的に隔てられた複数の被写体を撮像し、表示システム2において、その複数の被写体の画像をスーパインポーズした画像をカメラ画像として処理を行うようにすることが可能である。
In the present embodiment, only one enclosure imaging unit 12 (FIG. 2) is provided in the
さらに、図6の広角画像処理部33、囲い込み画像処理部35、および視点検出部37は、表示システム1に設けるのではなく、撮像システム1(図2)に設けることが可能である。
Furthermore, the wide-angle
1 撮像システム, 2 表示システム, 3 記録媒体, 4 伝送媒体, 11 広角撮像部, 12 囲い込み撮像部, 13 マルチプレクサ, 14 記録/送信部, 21 全方位カメラ, 22k 囲い込みカメラ, 31 再生/受信部, 32 デマルチプレクサ, 33 広角画像処理部, 34 広角画像表示部, 35 囲い込み画像処理部, 36 囲い込み画像表示部, 37 視点検出部, 41 外側用全方位プロジェクタ, 42 外側ドームスクリーン, 43 内側用全方位プロジェクタ, 44 内側ドームスクリーン, 51 フレームメモリ, 52 広角画像変換部, 53 画角補正部, 54 緯度経度画像変換部, 55 フレームメモリ, 56 コントローラ, 61 視点バッファ, 62 視点処理部, 63 視点記憶部, 64 視点方向算出部, 65 フレームメモリ, 66 画像選択部, 67 視点画像変換部, 68 フレームメモリ, 69 コントローラ, 70 表示用画像生成部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体
DESCRIPTION OF
Claims (10)
前記複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択手段と、
前記ユーザの視点と前記表示手段の形状とに基づき、前記視点画像を、前記発光画像に変換する視点画像変換手段と
を備えることを特徴とする画像処理装置。 In an image processing device that generates a light emission image corresponding to a light beam emitted from a light emitting unit that emits a light beam toward a display unit that displays an image by processing images picked up from a plurality of positions.
Image selecting means for selecting a viewpoint image when a predetermined subject is viewed from the user's viewpoint based on the user's viewpoint from images captured from each of the plurality of positions;
An image processing apparatus comprising: viewpoint image conversion means for converting the viewpoint image into the light-emitting image based on the viewpoint of the user and the shape of the display means.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a viewpoint detection unit that detects a viewpoint of the user.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising the plurality of imaging units.
前記視点画像変換手段は、前記複数のユーザの視点それぞれについての視点画像を変換して、1つの前記発光画像を生成し、
前記表示手段は、前記発光手段が発する光線に対応する前記発光画像を表示することにより、前記複数のユーザの視点それぞれから所定の被写体を見たときの画像を表示する
ことを特徴とする請求項1に記載の画像処理装置。 The image selection means selects the viewpoint image for each of a plurality of user viewpoints,
The viewpoint image conversion means converts the viewpoint image for each of the viewpoints of the plurality of users to generate one emission image,
The display means displays an image when a predetermined subject is viewed from each of the viewpoints of the plurality of users by displaying the light emission image corresponding to the light beam emitted by the light emission means. The image processing apparatus according to 1.
前記画像選択手段は、前記複数の撮像手段それぞれで撮像された画像の中から、前記複数のユーザの視点それぞれについての前記視点画像を選択し、その視点画像から、前記1つの視点についての前記視点画像を生成し、
前記視点画像変換手段は、前記1つの視点についての前記視点画像を、前記発光画像に変換する
ことを特徴とする請求項1に記載の画像処理装置。 And further comprising an integration means for integrating the viewpoints of a plurality of users into one viewpoint,
The image selecting unit selects the viewpoint image for each of the viewpoints of the plurality of users from images captured by the plurality of imaging units, and the viewpoint for the one viewpoint is selected from the viewpoint images. Generate an image,
The image processing apparatus according to claim 1, wherein the viewpoint image conversion unit converts the viewpoint image for the one viewpoint into the light emission image.
ことを特徴とする請求項5に記載の画像処理装置。 The image selection unit weights and adds the viewpoint images for the viewpoints of the plurality of users according to the distance between each of the viewpoints of the plurality of users and the one viewpoint. The image processing apparatus according to claim 5, wherein the viewpoint image is generated.
ことを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the integration unit integrates the viewpoints of a plurality of users into a position of the center of gravity of the viewpoints of the plurality of users.
前記統合手段は、前記視点距離が所定の距離以下の前記複数のユーザの視点を、1つの視点に統合する
ことを特徴とする請求項5に記載の画像処理装置。 A viewpoint distance calculating means for calculating a viewpoint distance between the viewpoints of the plurality of users;
The image processing apparatus according to claim 5, wherein the integration unit integrates the viewpoints of the plurality of users whose viewpoint distance is equal to or less than a predetermined distance into one viewpoint.
前記複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、
前記ユーザの視点と前記表示手段の形状とに基づき、前記視点画像を、前記発光画像に変換する視点画像変換ステップと
を備えることを特徴とする画像処理方法。 In an image processing method for generating a light emission image corresponding to a light beam to be emitted to a light emitting unit that emits a light beam toward a display unit that displays an image by processing images picked up from a plurality of positions,
An image selection step of selecting a viewpoint image when a predetermined subject is viewed from the user's viewpoint based on the user's viewpoint from images captured from each of the plurality of positions;
An image processing method comprising: a viewpoint image conversion step of converting the viewpoint image into the light-emitting image based on the viewpoint of the user and the shape of the display means.
前記複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、
前記ユーザの視点と前記表示手段の形状とに基づき、前記視点画像を、前記発光画像に変換する視点画像変換ステップと
を備えることを特徴とするプログラム。 In a program for causing a computer to perform image processing for generating a light emission image corresponding to a light beam emitted from a light emitting unit that emits a light beam toward a display unit that displays an image by processing images picked up from a plurality of positions ,
An image selection step of selecting a viewpoint image when a predetermined subject is viewed from the user's viewpoint based on the user's viewpoint from images captured from each of the plurality of positions;
A program comprising: a viewpoint image conversion step of converting the viewpoint image into the light-emitting image based on the viewpoint of the user and the shape of the display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005294475A JP4148252B2 (en) | 2005-10-07 | 2005-10-07 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005294475A JP4148252B2 (en) | 2005-10-07 | 2005-10-07 | Image processing apparatus, image processing method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002291819A Division JP3744002B2 (en) | 2002-10-04 | 2002-10-04 | Display device, imaging device, and imaging / display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006129472A true JP2006129472A (en) | 2006-05-18 |
JP4148252B2 JP4148252B2 (en) | 2008-09-10 |
Family
ID=36723594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005294475A Expired - Fee Related JP4148252B2 (en) | 2005-10-07 | 2005-10-07 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4148252B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017146579A (en) * | 2016-02-15 | 2017-08-24 | 国立大学法人東京芸術大学 | Video system and video method |
US10780990B2 (en) | 2016-10-14 | 2020-09-22 | Panasonic Intellectual Property Management Co., Ltd. | Projection system, projection method, flying object system, and flying object |
-
2005
- 2005-10-07 JP JP2005294475A patent/JP4148252B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017146579A (en) * | 2016-02-15 | 2017-08-24 | 国立大学法人東京芸術大学 | Video system and video method |
US10780990B2 (en) | 2016-10-14 | 2020-09-22 | Panasonic Intellectual Property Management Co., Ltd. | Projection system, projection method, flying object system, and flying object |
Also Published As
Publication number | Publication date |
---|---|
JP4148252B2 (en) | 2008-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3744002B2 (en) | Display device, imaging device, and imaging / display system | |
JP6725038B2 (en) | Information processing apparatus and method, display control apparatus and method, program, and information processing system | |
US10827167B2 (en) | Systems and methods for dynamically adjusting a synthetic view of a scene for showing the scene from a virtual camera perspective | |
US10572000B2 (en) | Mixed reality viewer system and method | |
US9918118B2 (en) | Apparatus and method for playback of audio-visual recordings | |
US9597590B2 (en) | Methods and apparatus for accessing peripheral content | |
CN107636534A (en) | General sphere catching method | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
US6836286B1 (en) | Method and apparatus for producing images in a virtual space, and image pickup system for use therein | |
KR101709310B1 (en) | System and method for displaying 3 dimensional virtual reality video for cylindrical screen | |
US20150156481A1 (en) | Heads up display (hud) sensor system | |
KR20200115631A (en) | Multi-viewing virtual reality user interface | |
JP4148252B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017208808A (en) | Method of providing virtual space, program, and recording medium | |
JP6487512B2 (en) | Head mounted display and image generation method | |
JP6875029B1 (en) | Method, program, information processing device | |
JP7365132B2 (en) | Information processing device, display method and computer program | |
WO2023248832A1 (en) | Remote viewing system and on-site imaging system | |
WO2022220306A1 (en) | Video display system, information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080124 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080407 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080603 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080616 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130704 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |