JP2011010126A - Image processing apparatus, and image processing method - Google Patents
Image processing apparatus, and image processing method Download PDFInfo
- Publication number
- JP2011010126A JP2011010126A JP2009152868A JP2009152868A JP2011010126A JP 2011010126 A JP2011010126 A JP 2011010126A JP 2009152868 A JP2009152868 A JP 2009152868A JP 2009152868 A JP2009152868 A JP 2009152868A JP 2011010126 A JP2011010126 A JP 2011010126A
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- hmd
- mixed reality
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、画像表示技術に関するものである。 The present invention relates to an image display technique.
あたかも現実世界の中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができる複合現実感技術、いわゆるMR(Mixed Reality)技術が広く知られている。MR技術は、現実空間の画像と、三次元モデリングされたComputer Graphics(CG)によって生成された仮想空間の画像と、を重畳し、それぞれの画像の位置合わせを行って表示する事で実現される。 Mixed reality technology, so-called MR (Mixed Reality) technology, that makes it appear as if an object (virtual object) drawn in CG exists in the real world is widely known. MR technology is realized by superimposing a real-space image and a virtual-space image generated by computer graphics (CG) modeled three-dimensionally and aligning and displaying each image. .
この技術を用いた複合現実感提示システムは、以下の各装置から構成される。現実世界を撮像する現実画像撮像装置(例えば、ビデオカメラ)、現実世界の撮像位置から見たような仮想空間画像を生成し、それぞれの画像を合成して複合現実空間画像を生成する画像処理装置、複合現実空間画像を表示する画像表示装置、である。画像処理装置は、一般にPC(パーソナルコンピュータ)やワークステーションなどに代表されるものである。 A mixed reality presentation system using this technology is composed of the following devices. Real image capturing apparatus (for example, video camera) that captures the real world, and an image processing apparatus that generates a virtual space image as viewed from an imaging position in the real world and generates a mixed reality space image by combining the images. An image display device for displaying a mixed reality space image. The image processing apparatus is typically represented by a PC (personal computer), a workstation, or the like.
上記の複合現実感提示システムの1つに、ビデオシースルー型ヘッドマウントディスプレイ(Head-Mounted Display: HMD = 頭部装着型表示装置)を使用したシステムが知られている。このシステムは、HMD装着者の瞳位置からの視線と撮像方向を略一致させた撮像部により被写体を撮像し、その撮像画像を用いて生成した複合現実空間画像を立体画像としてHMD装着者に提供する。 As one of the mixed reality presentation systems described above, a system using a video see-through head mounted display (HMD = head mounted display device) is known. In this system, an object is imaged by an imaging unit in which the line of sight from the pupil position of the HMD wearer and the shooting direction are substantially matched, and a mixed reality space image generated using the taken image is provided to the HMD wearer as a stereoscopic image. To do.
ここで、ビデオシースルー型HMDの内部構成について図10を用いて説明する。図10において101は現実世界を撮像する撮像部、102は画像を表示する表示部である。15は外光の光束を撮像素子へ導き、撮像部101へ結像させる為のレンズから構成される撮像光学系であり、16は表示部102に表示された画像を、HMD装着者の瞳17に導く為の表示光学系(自由曲面プリズム)である。
Here, the internal configuration of the video see-through HMD will be described with reference to FIG. In FIG. 10,
係る構成により、HMD装着者の瞳位置からの視線方向と略一致させた現実空間の撮像を撮像部101が行い、かつ表示部102に表示された画像をHMD装着者の瞳17に結像させ、HMD装着者に対して複合現実空間画像を提示する。
With such a configuration, the
複合現実空間画像を表示する表示装置として、通常のモニタでなく、上記のように装着者の瞳位置からの視線とカメラの撮像方向とを略一致させたHMDを用いる事で、装着者が向いている方向の画像をHMDに映し出す事ができる。更に、装着者がその方向を向いたときのCG画像の表示が行えるため、HMD装着者の複合現実空間への没入感を高める事が可能となる。 As a display device that displays a mixed reality space image, the wearer is suitable by using an HMD in which the line of sight from the wearer's pupil position substantially matches the imaging direction of the camera as described above, instead of a normal monitor. It is possible to project an image in the direction of the image on the HMD. Furthermore, since a CG image can be displayed when the wearer is facing the direction, it is possible to enhance the immersive feeling of the HMD wearer in the mixed reality space.
次に、HMDを用いた複合現実感システムの基本構成について図11を用いて説明する。係るシステムは、以下の各装置から構成される。 Next, a basic configuration of the mixed reality system using the HMD will be described with reference to FIG. Such a system includes the following devices.
・ 複合現実空間画像を表示するHMD10
・ HMD10を制御するHMDコントローラ11
・ HMD10が撮像した現実空間画像に仮想空間画像を重畳して複合現実空間画像を生成する画像処理装置20
・ HMD装着者以外が複合現実感体験を共有する為の表示装置30
図11に示した構成では、HMD10とHMDコントローラ11とは別個のハードウェアとしているが、HMDコントローラ11をHMD10に内蔵させることで、それぞれを一体化させても良い。
-HMD10 displaying mixed reality space image
-HMD
An
-
In the configuration shown in FIG. 11, the HMD 10 and the
複合現実感提示システムは、HMD10の撮像部の視点位置が変わってもCG画像と現実空間画像とを正しい位置関係で表示し、そのためにHMD10は、視点位置や視線方向を検出するための視線位置姿勢検出機構(例えば、位置姿勢センサ)を備えている。
The mixed reality presentation system displays the CG image and the real space image in a correct positional relationship even when the viewpoint position of the imaging unit of the
画像処理装置20は、三次元モデリングされた仮想物体を、現実空間と同じスケールの仮想空間に置き、不図示の位置姿勢検出部によって検出された視点位置や視線方向から観察されたものとしてこの仮想物体をレンダリングし、CG画像を生成する。このようにして生成されたCG画像と現実空間画像とを重畳する事で、撮像部がどの視点位置や視線方向から観察した場合でも、現実空間の中に正しく仮想物体が置かれているような複合現実空間画像を生成し、提示することができる。係る構成により、HMD装着者は、HMD10を通じて現実空間画像と仮想空間画像(CG画像)とが重畳された複合現実感の世界を体験することができるようになる。
The
また、HMD装着者が見ている画像と同じ画像(HMD装着者の視点から見た画像)を、外部の表示装置30へ出力が可能な、外部出力インターフェースを有する構成のHMDコントローラ11がある。
In addition, there is an
外部出力インターフェースを有するHMDコントローラ11は、画像処理装置20からHMD10に対して出力される左目用画像若しくは右目用画像の何れか一方を、セレクタを用いて外部出力インターフェースへも出力する。係る構成により、HMD装着者以外の観衆に対して、HMD装着者が観察している画像を表示装置30を通じて提供することができるので、HMD装着者が体験している複合現実感を、複数の観衆にも同時に理解及び共有させる事が可能となる。
The
しかしながら、上記の観衆用の表示装置30に画像出力が可能なHMD10では、複合現実感体験者が上記複合現実感体験終了後にHMD10を専用の置き場所やフックなどに戻した際も、表示装置30は表示を続けることになる。この状況では、HMD10に取り付けられている撮像部は意味の無い画像を撮像し続ける為、表示装置30にも無意味な(観衆にとって意味の無い)画像が表示されてしまい、展示の効果が薄れるといった問題があった。
However, in the HMD 10 capable of outputting an image to the
これに対し、HMD10が使用されているか否かをHMD10の位置姿勢情報に基づいて判断する使用状態判定技術を用い、観衆用の表示装置30に表示させる画像を切り替える表示制御方法が提案されている(特許文献1)。係る表示制御方法では、HMD10の使用時には、HMD10に入力される複合現実空間画像を表示装置30に表示し、HMD10を使用していない時には、使用されていない旨やメッセージを伝える代替画像を表示装置30に表示する。これにより、展示の効果を高める事が可能となる。
On the other hand, a display control method for switching an image to be displayed on the
また、HMD10は一般的に、オーバーラップ部分を持つ左右1対のステレオ画像を表示するが、表示装置30には上記ステレオ画像のうち左目用画像若しくは右目用画像のいずれかしか表示できない。その為、HMD装着者と表示装置30の表示を見ている観衆とでは観察領域が異なってしまい、両者の観察画像が一致しないという問題があった。
The HMD 10 generally displays a pair of left and right stereo images having overlapping portions, but the
この問題に対し、オーバーラップ部分を持つ左右1対のステレオ画像から2次元画像を生成する事で、HMD装着者とHMD装着者以外の観衆とで観察する画像領域が一致し、複合現実空間画像の共有感をより一層高める事が可能となる(特許文献2)。 To solve this problem, by generating a two-dimensional image from a pair of left and right stereo images having overlapping portions, the image areas observed by the HMD wearer and the audience other than the HMD wearer match, and a mixed reality space image It is possible to further increase the feeling of sharing (Patent Document 2).
複合現実感の提示は、画像処理装置20が有する不図示の操作画面上で、複合現実感提示アプリケーションの起動を指示し、動作させる事で行われる。このアプリケーションが操作画面の全域を占有して動作する事で、HMD10の表示部に複合現実空間画像を表示している。複合現実感の提示を中断し、複合現実感提示アプリケーション及びHMD10の諸設定、また画像処理装置20の諸操作を行う場合には、画像処理装置20の操作画面を表示する必要がある。その為、表示装置30を有する複合現実感提示システムでは、本来であれば、表示装置30と画像処理装置20の操作用表示装置の、少なくとも2台の表示装置が必要である。しかし、表示装置30を、画像処理装置20を操作する為の表示装置として兼ねて用いる事で、システムに要する表示装置を1つ少なく構成する事ができる。
The presentation of the mixed reality is performed by instructing the activation of the mixed reality presentation application on the operation screen (not shown) of the
次に、HMD10の装着者が複合現実感を体験している場合に、表示装置30にHMD10が有する表示部に表示されている複合現実感画像を表示している様子について、図12を用いて説明する。図12(a)において1201L、1201Rはそれぞれ、HMD10に備わっている左目用の表示部、右目用の表示部であり、それぞれの表示部には、現実物体としての机200、CGとしての仮想物体201,202,203が表示されている。係る表示により、現実物体としての机200上にあたかも各仮想物体201,202,203が配置されているかのような表示を可能にする。図12(b)、(c)はそれぞれ、左目用の表示部1201Lに表示している画像を表示している表示装置30の表示画面、右目用の表示部1201Rに表示している画像を表示している表示装置30の表示画面、を示している。
Next, when the wearer of the HMD 10 experiences mixed reality, the display of the mixed reality image displayed on the display unit of the
一方、画像処理装置20の諸操作を行う場合に、表示装置30に表示する操作画面について、図13を用いて説明する。図13(a)に示す如く、左目用の表示部1201L、右目用の表示部1201Rに跨って、画像処理装置20上で起動しているウィンドウ210,211が表示されている。図13(b)、(c)はそれぞれ、左目用の表示部1201Lに表示している画像を表示している表示装置30の表示画面、右目用の表示部1201Rに表示している画像を表示している表示装置30の表示画面、を示している。
On the other hand, an operation screen displayed on the
ここで、図12と図13を用いて、画像処理装置20の操作に煩雑さが生じる事を説明する。複合現実感を体験している場合は、図12(a)に示す如く、右目用の表示部1201R、左目用の表示部1201Lには、HMD10の位置姿勢に応じた複合現実感画像が表示されている。一方、図12(b)、(c)に示す如く、表示装置30には、右目用の表示部1201R、左目用の表示部1201Lの何れか一方に表示されている複合現実感画像がHMDコントローラ11により選択されて表示されている。これにより、HMD10の装着者の複合現実感体験をHMD装着者以外の観衆も共有できるような表示が為されている。
Here, it will be described with reference to FIGS. 12 and 13 that the operation of the
一方、画像処理装置20の諸操作を行う場合、図13(a)に示す如く、画像処理装置20の操作画面は、右目用の表示部1201Rの表示画面、左目用の表示部1201Lの表示画面の両方の表示画面の全域に渡る。表示装置30には、左目用の表示部1201L、右目用の表示部1201Rの何れかに表示されている画像しか表示できない為、図13(b)、(c)に示す如く、操作画面の左側若しくは右側の半分のみしか表示されないことになる。従って、表示装置30の表示画面を見る操作者は、操作画面全体を一度に見ることはできなかった。
On the other hand, when various operations of the
表示装置30には、画像処理装置20の操作画面の片側半分しか表示されない為、もう片方の操作画面内での操作を行う為には、表示装置30への出力をHMDコントローラ11で切り替える必要があった。従来のHMD10とHMDコントローラ11とでは、上記のような画像処理装置20の操作が煩わしいという問題は解決できていない。
Since only one half of the operation screen of the
操作画面は、HMD10に対して出力される右目用画像、左目用画像の両画像の全域に渡る為、表示装置30に対して右目用画像、左目用画像の何れか一方のみを出力するのでは、表示装置30には操作画面の左側若しくは右側のみしか表示されない。もう一方の画面を表示する為には、セレクタの出力を切り替える必要があり、同時に全操作画面を見る事ができず画像処理装置20の操作が煩わしかった。
Since the operation screen covers the entire area of both the right-eye image and the left-eye image output to the
本発明は以上の問題に鑑みてなされたものであり、HMDとHMD以外の表示装置とに画像表示を行う場合、状況に応じてこの表示装置に表示する画像を切り替える為の技術を提供することを目的とする。 The present invention has been made in view of the above problems, and provides a technique for switching an image to be displayed on a display device according to a situation when an image is displayed on an HMD and a display device other than the HMD. With the goal.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、右目用画像、左目用画像を外部の装置から取得する取得手段と、前記右目用画像を右目用の表示部に表示させると共に、前記左目用画像を左目用の表示部に表示させる手段と、前記左目用画像と前記右目用画像とを左右に水平に並べて結合することで1枚のパノラマ画像を生成する生成手段と、前記右目用画像、前記左目用画像、前記パノラマ画像、のうち何れか1つを選択し、選択した画像を外部の表示装置に送信する送信手段とを備えることを特徴とする。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, an acquisition unit that acquires an image for the right eye and an image for the left eye from an external device, a unit that displays the image for the right eye on the display unit for the right eye, and a unit that displays the image for the left eye on the display unit for the left eye Generating means for generating a single panoramic image by combining the left-eye image and the right-eye image side by side horizontally, and any of the right-eye image, the left-eye image, and the panoramic image Transmission means for selecting one of the images and transmitting the selected image to an external display device.
本発明の構成によれば、HMDとHMD以外の表示装置とに画像表示を行う場合、状況に応じてこの表示装置に表示する画像を切り替えることができる。 According to the configuration of the present invention, when an image is displayed on the HMD and a display device other than the HMD, an image to be displayed on the display device can be switched depending on the situation.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態に係る複合現実感提示システムは、現実空間画像と仮想空間画像との合成画像である複合現実空間画像をHMDに出力すると共に、HMD装着者以外に対して設けられた表示装置にも出力する。そして係る構成において、複合現実感提示システムは状況に応じて、表示装置に出力する画像を切り替える。以下に、本実施形態に係る複合現実感提示システムについてより詳細に説明する。なお、以下の説明で用いる図面に登場する参照番号において、L、Rが付されている参照番号はそれぞれ、左目用、右目用に対する構成要素を指し示す。
[First Embodiment]
The mixed reality presentation system according to the present embodiment outputs a mixed reality space image, which is a composite image of a real space image and a virtual space image, to the HMD, and also to a display device provided for a person other than the HMD wearer. Output. In such a configuration, the mixed reality presentation system switches the image to be output to the display device according to the situation. Hereinafter, the mixed reality presentation system according to the present embodiment will be described in more detail. In addition, in the reference numbers appearing in the drawings used in the following description, the reference numbers to which L and R are attached indicate components for the left eye and the right eye, respectively.
先ず、本実施形態に係る複合現実感提示システムの機能構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係る複合現実感提示システムは、頭部装着型表示装置としてのビデオシースルー型のHMD800、PC(パーソナルコンピュータ)に代表される画像処理装置900、CRTや液晶画面等に代表される表示装置30、を有する。
First, a functional configuration example of the mixed reality presentation system according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the mixed reality presentation system according to the present embodiment includes a video see-through
先ず、HMD800について説明する。撮像部101L、101Rはそれぞれ、HMD800を頭部に装着するユーザの左目、右目に対して提供する現実空間画像を撮像するためのもので、例えば、ビデオカメラなど、動画像を撮像するカメラである。撮像部101L、101Rは現実空間の動画像を撮像すると、撮像した動画像を構成する各フレームの画像(現実空間画像)を順次、後段の撮像画像送信部150に送出する。なお、以下では、撮像部101Lが撮像した撮像画像を「左目用の現実空間画像(撮像画像)」、撮像部101Rが撮像した撮像画像を「右目用の現実空間画像(撮像画像)」と呼称する場合がある。
First, the
撮像画像送信部150は、撮像部101L、101Rから受けたそれぞれの撮像画像(左目用の現実空間画像、右目用の現実空間画像)を、画像処理装置900に送信する。HMD800と画像処理装置900との間は、有線/無線の何れで通信しても良い。センサ部103は、自身の位置姿勢を、HMD800の位置姿勢として計測し、係る計測によって得られた位置姿勢情報を、画像処理装置900に送信する。
The captured
複合現実感画像受信部151は、画像処理装置900(外部の装置)から送信される左目用画像、右目用画像を受信し、それぞれを表示部102L、102Rに送出すると共に、画像制御部105にも送出する。右目用画像は、画像処理装置900側で後述する処理により生成される右目用の複合現実空間画像、若しくは画像処理装置900における動作画面のうち表示部102Rに表示する領域の画面情報である。同様に、左目用画像は、画像処理装置900側で後述する処理により生成される左目用の複合現実空間画像、若しくは画像処理装置900における動作画面のうち表示部102Lに表示する領域の画面情報である。
The mixed reality
表示部102L、102Rはそれぞれ、ユーザの左目、右目のそれぞれに画像を提示するためのもので、ユーザがHMD800を自身の頭部に装着した時に、このユーザの左目、右目の目前に位置するように、HMD800に取り付けられている。表示部102L、102Rはそれぞれ、複合現実感画像受信部151が受信した左目用画像、右目用画像を表示する。これにより、ユーザの右目、左目の目前にはそれぞれ、右目用画像、左目用画像が表示されることになる。
The
指示部106は、スイッチ等、複数種の指示を選択的に入力するためにHMD800に取り付けられたもので、ユーザが指示部106を用いて入力した操作指示は、この指示部106から画像制御部105に入力される。なお、指示部106は、HMD800に取り付けずに、HMD800とは別個の装置としても良い。
The
画像制御部105は、指示部106からの指示入力に応じて以下に示す3つの画像のうち何れか1つをオブジェクト合成部107への出力対象として選択する。
In response to an instruction input from the
・ 表示部102L、102Rのぞれぞれに表示されている画像(左目用画像、右目用画像)を左右に水平方向に並べて結合して得られる1枚のパノラマ画像
・ 左目用画像
・ 右目用画像
そして画像制御部105は、選択した画像をオブジェクト合成部107に送出する。オブジェクト合成部107は、画像制御部105から受けた画像に対して、HMD800の使用に係る情報等の所定のオブジェクトを合成し、合成後の画像を表示装置画像送信部152に送出する。もちろん、このオブジェクトの合成については、ユーザ指示や様々な状況などに応じて適宜行えば良く、常に行わなくても良い。表示装置画像送信部152は、オブジェクト合成部107から受けた画像に基づく画像信号を、表示装置30に送出する。
A single panoramic image obtained by combining the images (left-eye image and right-eye image) displayed on each of the
制御部100は、HMD800を構成する上述の各部の動作制御を行うためのもので、CPUなどの実行制御部、RAMやROMなどのメモリ部、等により構成されている。実行制御部は、このメモリ部に格納された(若しくは格納されている)コンピュータプログラムやデータを用いて、HMD800を構成する各部の動作制御を行う。
The
次に、画像処理装置900について説明する。撮像画像受信部153は、HMD800側の撮像画像送信部150から送信された右目用の現実空間画像、左目用の現実空間画像を受信し、受信したそれぞれの画像を後段の撮像画像特徴検出部120に送出する。
Next, the
撮像画像特徴検出部120は、右目用の現実空間画像、左目用の現実空間画像について次の処理を行う。即ち、現実空間画像から特徴点(例えば人為的マーカや自然特徴等の特徴量)を検出する。そして撮像画像特徴検出部120は、右目用の現実空間画像、左目用の現実空間画像と共に、それぞれの現実空間画像から検出した特徴点に係る情報(現実空間画像中の特徴点の位置やサイズ、種別等を示す情報)を、複合現実感画像生成部122に送出する。
The captured image
位置姿勢検出部121は、HMD800側のセンサ部103から送信された位置姿勢情報を受信すると、この受信した位置姿勢情報を後段の複合現実感画像生成部122に送出する。
When the position and
複合現実感画像生成部122は、撮像画像特徴検出部120から受けた特徴点に係る情報と、位置姿勢検出部121から受けた位置姿勢情報とを用いて、この位置姿勢情報を補正し、より精度の高い位置姿勢情報を生成する。係る技術については周知の技術であるので、これについての説明は省略する。なお、ここで求める位置姿勢情報は、左目用の位置姿勢情報と、右目用の位置姿勢情報とがあり、それぞれは、センサ部103と撮像部101L、101Rのそれぞれとの位置姿勢関係を、補正後の位置姿勢情報に加えれば求めることができる。これについても周知の技術であるので、これについての説明は省略する。
The mixed reality
そして複合現実感画像生成部122は、このようにして補正した位置姿勢情報を用いて、この位置姿勢情報が示す位置姿勢を有する視点から見た仮想空間の画像を生成する。より詳しくは、右目用の位置姿勢情報を用いて、この位置姿勢情報が示す位置姿勢を有する視点(右目)から見た仮想空間の画像を、右目用の仮想空間画像として生成する。また、左目用の位置姿勢情報を用いて、この位置姿勢情報が示す位置姿勢を有する視点(左目)から見た仮想空間の画像を、左目用の仮想空間画像として生成する。もちろん、この仮想空間中には、予め様々な仮想物体が配置されているものとする。
The mixed reality
そして複合現実感画像生成部122は、撮像画像特徴検出部120から受けた右目用の現実空間画像と、生成した右目用の仮想空間画像とを合成し、右目用の複合現実空間画像を生成する。また複合現実感画像生成部122は、撮像画像特徴検出部120から受けた左目用の現実空間画像と、生成した左目用の仮想空間画像とを合成し、左目用の複合現実空間画像を生成する。なお、現実空間画像と仮想空間画像とを合成して複合現実空間画像を生成するための技術については様々なものがあり、本実施形態では何れの技術を用いても良い。
The mixed reality
そして複合現実感画像生成部122は、このようにして生成した左目用の複合現実空間画像、右目用の複合現実空間画像を、複合現実感画像送信部154に送出する。複合現実感画像送信部154は、複合現実感画像生成部122から受けた右目用の複合現実空間画像、左目用の複合現実空間画像を、それぞれ右目用画像、左目用画像としてHMD800に対して送出する。
Then, the mixed reality
なお、複合現実感画像生成部122が複合現実空間画像を生成せずに右目用、左目用の現実空間画像を複合現実感画像送信部154に送出し、複合現実感画像送信部154がそれぞれの現実空間画像をHMD800に送出することもある。これは画像処理装置900側の設定の切替等によって実現するものである。以下の説明において、画像処理装置900からHMD800に複合現実空間画像を送信する処理は、画像処理装置900からHMD800に現実空間画像を送信する処理をも指し示しているものとする。
Note that the mixed reality
ここで、画像処理装置900が実行していた複合現実感提示アプリケーション(複合現実感画像の生成、送信を行うアプリケーション)を終了したり、システムの設定画面(操作画面)に移行したとする。この場合、画像処理装置900(複合現実感画像送信部154)からは、この時の動作画面の画面情報がHMD800に対して送信されることになる。この画面情報は上述の通り、表示部102Rに表示する領域、表示部102Lに表示する領域、から成り、表示部102L、102Rのそれぞれの表示画面の両画面全体に渡って表示されるものである。
Here, it is assumed that the mixed reality presentation application (application for generating and transmitting a mixed reality image) executed by the
何れにせよ、画像処理装置900からHMD800に対して送信される情報は、表示部102L、102Rのそれぞれに表示する画像情報(左目用画像、右目用画像)であり、その画像情報は、複合現実感画像であったり、画面情報であったりする。
In any case, information transmitted from the
以上説明したHMD800、画像処理装置900により、HMD800を頭部に装着したユーザは、自身の動きに応じた複合現実空間画像を観察することができる。なお、本実施形態では、1台の画像処理装置900で、右目用画像、左目用画像を生成する。しかし、右目用画像を生成するための画像処理装置と、左目用画像を生成するための画像処理装置と、を画像処理装置900の代わりに用いても良い。その場合、HMD800には、この2台の画像処理装置が接続されることになり、それぞれの画像処理装置は、生成した画像をHMD800に送信することになる。
With the
次に、表示装置30について説明する。表示装置30は、CRTや液晶画面などにより構成されており、HMD800を装着していない他のユーザが観察可能なように配置されたもので、HMD800から送信された画像信号に基づく画像を表示する。即ち、表示装置30は、HMD800を装着していない観衆に対して設けられたものである。ここにHMD800の表示部102L及び又は表示部102Rに表示される画像と同じ画像を表示する事で、観衆はHMD装着者が見ている画像と同じ画像を見る事ができ、HMD装着者の複合現実感体験を共有することができる。なお、表示装置30は、HMD800の装着者以外の観衆への画像提供のために用いられると共に、画像処理装置900が生成する画面情報を表示するためにも用いられる。
Next, the
次に、表示装置30への出力対象画像を決定し、決定した画像をこの表示装置30に出力するためにHMD800が行う処理について、図2を用いて説明する。なお、図2には、係る処理以外については触れていない。然るに、以下では、表示装置30に画像を出力するために行う処理以外については触れていない。
Next, processing performed by the
ユーザは、表示装置30に出力する画像を切り替えたい場合、指示部106を操作し、ON(HMD観察画像表示)、OFF(操作画面表示)の何れかに設定する。ユーザは、表示部102L、102Rに複合現実感画像が表示されていることを確認した場合には、この複合現実空間画像を表示装置30にも表示させるべく、指示部106を用いてONに設定する。一方、ユーザは、表示部102L、102Rに操作画面などの画面情報が表示されていることを確認した場合には、この画面情報を表示装置30にも表示させるべく、指示部106を用いてOFFに設定する。
When the user wants to switch the image to be output to the
ユーザが指示部106を操作してON、OFFの何れかを設定すると、ステップS500において指示部106は、ユーザによる選択指示(ON、OFFの何れかを示す)を、画像制御部105に送出する。
When the user operates the
ステップS501では、画像制御部105は、指示部106からの選択指示が、ON、OFFの何れを示しているのかを判断する。係る判断の結果、選択指示がONを示している場合には処理をステップS502に進め、OFFを示している場合には処理をステップS507に進める。ステップS502では、画像制御部105は、次の何れかを表示装置30への出力対象画像とする。
In step S501, the
・ 複合現実感画像受信部151から受けた右目用画像と左目用画像とで重複する部分をオーバーラップさせて結合することで生成される1枚のパノラマ画像
・ 右目用画像、左目用画像の何れか一方
何れを表示装置30への出力対象画像とするかは、指示部106や他の装置からの入力指示に基づいて決定しても良いし、予め決めておき、設定データとしてHMD800が有する不図示のメモリに登録しておいても良い。
A single panoramic image generated by overlapping and combining overlapping portions of the right-eye image and the left-eye image received from the mixed reality
そして、パノラマ画像を表示装置30への出力対象画像とする場合は処理をステップS506に進め、右目用画像、左目用画像の何れか一方を表示装置30への出力対象画像とする場合は処理をステップS503に進める。
If the panoramic image is to be output to the
ステップS506では画像制御部105は、複合現実感画像受信部151から受けた右目用画像と左目用画像とで重複する部分(重複している画像部分)をオーバーラップさせて結合することで1枚のパノラマ画像を生成する。本ステップにおける処理、即ち、左右1対のステレオ画像からオーバーラップ部を重ねる合成画像生成手法による2次元画像生成処理については周知の技術であるので、これについての説明は省略する。
In step S <b> 506, the
一方、ステップS503では、画像制御部105は、右目用画像、左目用画像のうち、指示された若しくは予め決められた一方を、表示装置30への出力対象画像として選択する。
On the other hand, in step S <b> 503, the
一方、ステップS507では、画像制御部105は、左目用画像と右目用画像とを左右に水平方向に並べて、オーバーラップ無しに結合することで1枚のパノラマ画像を生成する。係るパノラマ画像の生成では、画像の水平方向及び垂直方向共に画素を間引く、或いは補間して、それぞれの画像を水平方向に並べて不図示の画像メモリに書き込む事で、1枚のパノラマ画像を生成する。もちろん、パノラマ画像の生成方法はこれに限定するものではない。
On the other hand, in step S507, the
次に、ステップS504では、画像制御部105は、ステップS506,S503,S507の何れかで得られた「表示装置30への出力対象画像」の解像度を表示装置30が表示可能な解像度に変更する等、様々な画像調整処理を行う。
Next, in step S504, the
次に、ステップS505では、画像制御部105は、ステップS504において画像調整が成された画像を、オブジェクト合成部107に入力する。オブジェクト合成部107は、この画像に対して上述のオブジェクトを合成する。そしてオブジェクト合成部107は、係る合成により得られた画像の画像信号を、表示装置30に対して出力する。
In step S <b> 505, the
次に、表示装置30における表示例について、図3を用いて説明する。図3(a)には、表示装置30に、右目用画像としての右目用の複合現実感画像、左目用画像としての左目用の複合現実空間画像、の何れかを表示する場合における、表示部102L、102R、表示装置30における表示例が示されている。
Next, a display example on the
表示部102L、102Rには、それぞれ左目用の複合現実空間画像35、右目用の複合現実感画像36が表示されている。左目用の複合現実空間画像35、右目用の複合現実感画像36には何れも、現実物体としての机200、仮想物体201,202,203、領域620が含まれている。領域620は、オブジェクト合成部107が合成したオブジェクトの領域であり、HMD800の使用に係る情報、例えばHMD800の使用を開始してからの連続使用時間情報を表示するための領域である。領域620の表示位置、表示サイズ、表示タイミング等は予めHMD800に設定しておいても良いし、ユーザ指示などに応じてオブジェクト合成部107が適宜変更しても良い。然るにこの場合、表示装置30には、右目用の複合現実感画像36、左目用の複合現実空間画像35、の何れか一方が表示されることになる。
The
一方、図3(b)には、表示部102L、102Rのそれぞれに表示されている複合現実空間画像で重複する部分をオーバーラップさせて結合すること1枚のパノラマ画像を生成する処理について示している。表示部102L、102Rにはそれぞれ、左目用の複合現実空間画像37、右目用の複合現実感画像38が表示されており、何れの画像にも現実物体600,601,602,603が含まれてはいるが、それぞれの画像には互いに重複している部分がある。
On the other hand, FIG. 3B shows a process of generating a single panoramic image by overlapping and combining overlapping portions in the mixed reality space images displayed on the
視野の差、或いは撮像対象の移動により、オーバーラップ領域が完全に一致しない画像に対する合成画像作成装置が、特開平10-178564号公報などに開示されている。画像制御部105は、係る技術と同等の手法により、左目用の複合現実空間画像37と右目用の複合現実感画像38とから、1枚のパノラマ画像611を生成する。そしてこのパノラマ画像611に対してオブジェクトの合成、表示装置30の画面サイズに対する画像サイズ調整処理、等を施すことで、最終的に表示装置30に対して送出する画像130を生成する。
Japanese Patent Application Laid-Open No. 10-178564 discloses a composite image creation apparatus for an image in which an overlap region does not completely match due to a difference in field of view or a movement of an imaging target. The
なお、本実施形態では、領域620の位置、大きさ、時間、タイミングを予めHMD800に設定するが、位置、大きさを固定とし、オブジェクト合成部107に設けられたスイッチ等により表示の有無を切り替えるようにしても良い。また、領域620内に表示する情報としては他にも、HMD800若しくは本システムの製品ロゴ又は展示会ロゴなどであってもよい。
In the present embodiment, the position, size, time, and timing of the
次に、表示部102Lの表示画面、表示部102Rの表示画面の両画面に渡って表示される画面情報を、表示装置30に表示する場合について、図4を用いて説明する。表示部102L、102Rの両画面に渡って画面情報(操作画面)が表示されており、表示部102Lの画面内には操作画面の左半分の画像領域480が表示されており、表示部102Rの画面内には操作画面の右半分の画像領域490が表示されている。210と211はそれぞれ、画像処理装置900上で起動している複合現実感アプリケーションウィンドウとその他ウィンドウを示している。複合現実感アプリケーションは、操作画面全域に渡っての複合現実感提示動作中ではなく、諸設定を行う為のウィンドウ画面表示状態となっている。
Next, a case where screen information displayed on both the display screen of the
ユーザが指示部106を用いてOFFを設定すると、画像制御部105は画像領域480(左目用画像)と画像領域490(右目用画像)とを左右に並べて結合することで、1枚のパノラマ画像701を生成する。
When the user sets OFF using the
図4の3段目の左側には、パノラマ画像701のアスペクト比を保持した場合の表示装置30における表示例を示している。図4の3段目の右側には、パノラマ画像701のアスペクト比を保持していない場合の表示装置30における表示例を示している。図4の4段目には、パノラマ画像701の解像度を変更せず、パノラマ画像701全体のうち表示装置30が表示可能な一部領域を表示した場合における表示例を示している。表示領域の設定に関しては、HMD800で設定しても良いし、周辺機器により設定しても良い。このように、パノラマ画像701の表示方法については適宜切り替えても良い。
The left side of the third row in FIG. 4 shows a display example on the
領域710Lには、指示部106によりOFFが設定される直前の左目用画像が表示され、領域710Rには、指示部106によりOFFが設定される直前の右目用画像が表示される。もちろん、同様の内容を示す情報であれば、他の情報を代わりに表示しても良い。
In the
従来、表示装置に画像処理装置の操作画像を表示する時に、表示装置には左目画像と右目画像のどちらか一つしか表示できなかった為、表示装置には画像処理装置の操作画像の片側しか表示されず、画像処理装置の操作が煩わしかった。しかし、本実施形態によれば、表示装置には画像処理装置の操作画像全体が表示できる為、操作性が向上する。 Conventionally, when displaying the operation image of the image processing device on the display device, only one of the left-eye image and the right-eye image can be displayed on the display device. It was not displayed, and the operation of the image processing apparatus was troublesome. However, according to the present embodiment, since the entire operation image of the image processing apparatus can be displayed on the display device, the operability is improved.
[第2の実施形態]
本実施形態では、指示部106の代わりに使用状態判定部108を用いて、オブジェクト合成部107に送出する画像を切り替える。然るに、本実施形態に係るシステムは図5に示す如く、指示部106の代わりに使用状態判定部108を用いている以外は、第1の実施形態と同じである。
[Second Embodiment]
In this embodiment, the use
図5を用いて、本実施形態に係るシステムについて説明する。使用状態判定部108は、撮像部101L、101Rのうち少なくとも一方により撮像された現実空間画像を用いて、画像中の特徴点の位置の変化を検出し、その検出結果に基づいて、HMD801が現在使用されているか否かを判断する。そしてHMD801が現在使用されていると判断した場合にはHMD観察画像表示を行うものと判断し、使用されていないと判断した場合には操作画面表示を行うものと判断する。以降については第1の実施形態と同様である。
The system according to the present embodiment will be described with reference to FIG. The use
次に、表示装置30への出力対象画像を決定し、決定した画像をこの表示装置30に出力するためにHMD801が行う処理について、図6を用いて説明する。なお、図6には、係る処理以外については触れていない。然るに、以下では、表示装置30に画像を出力するために行う処理以外については触れていない。
Next, processing performed by the
HMD801を起動すると制御部100は先ずステップS900において、HMDステータスの初期化処理、即ち、HMDステータスを「不使用」に設定する。ここで、HMDステータスとは、HMD801が使用されているか否かを示す変数である。
When the
次に、ステップS901では、使用状態判定部108は、撮像部101L、101Rの何れか一方により撮像された現実空間画像を用いて、HMD801が現在使用されているか否かを判断する。なお、係る判断は、撮像部101L、101Rの両方による現実空間画像を用いても良く、その場合、両方の画像に対して同じ判定結果が出たときのみその判定結果を採用するものとする。
Next, in step S901, the use
そして使用状態判定部108は、判定した結果を、HMDステータスに反映させる。即ち、HMD801が使用されていると判断した場合にはHMDステータスを「使用中」に変更するし、HMD801が使用されていないと判断した場合にはHMDステータスを「不使用」に更新する。ステップS901における処理の詳細については、図7を用いて後述する。なお、HMDの使用開始時、若しくは使用中断時以外は、HMDステータスの変更はない。
Then, the use
次に、ステップS902において使用状態判定部108は、ステップS901における処理でHMDステータスが変更されたか否かを判断する。係る判断の結果、変更されている場合には処理はステップS903に進み、変更されていない場合には処理はステップS904に進む。
Next, in step S902, the use
ステップS903において使用状態判定部108は、変更されたHMDステータスが「使用中」であるのか「不使用」であるのかを判断する。係る判断の結果、「使用中」である場合には処理はステップS502に進み、「不使用」である場合には処理はステップS507に進む。ここでは説明上、新たに表示装置30に画像を出力しない限り、表示装置30の表示状態は変わらないものとする。そしてシステムの終了指示が入力されたり、システムの終了条件が満たされたりしない限りは、処理はステップS904を介してステップS901に戻る。
In step S <b> 903, the use
次に、上記ステップS901におけるHMD801の使用状態判定処理の詳細について、図7を用いて説明する。本実施形態では、HMD801が使用されているか否かを判断するために、複合現実感提示の際の位置合わせに用いられる現実空間画像内の特徴点(特徴量)、特に人為的特徴であるマーカを使用する。然るに、本実施形態では、撮像部101L,101Rによる撮像空間内には、複数個のマーカが配されているものとする。もちろん、特徴点は、人為的に配されたマーカに限定するものではなく、現実物体の角や辺など、自然特徴を用いても良い。
Next, details of the use state determination process of the
先ずステップS1000において使用状態判定部108は、撮像部101L,101Rのうち少なくとも一方により撮像された現実空間画像を取得する。次にステップS1001では使用状態判定部108は、ステップS1000において取得した現実空間画像から、マーカを検出する。
First, in step S1000, the use
次に、ステップS1002では使用状態判定部108は、ステップS1001で1以上のマーカを検出したか否かを判断する。係る判断の結果、1以上のマーカを検出した場合には、処理はステップS1003に進み、マーカを検出することができなかった場合には、処理はステップS1008に進む。
Next, in step S1002, the use
ステップS1008では使用状態判定部108は、前回マーカを検出してから所定時間(例えば3秒)が経過したか否かを判断する。即ち、過去のフレームにおいて最後にマーカを検出してから所定時間以上経過したか否かを判断する。時間の計時は、使用状態判定部108が行っても良いし、制御部100が行っても良い。
In step S1008, the use
係る判断の結果、マーカ未検出状態が所定時間以上続いた場合には処理はステップS1009に進み、マーカ未検出状態がまだ所定時間以上続いていない場合には、HMDステータスは変更されることなく、ステップS901における処理は完了する。 As a result of the determination, if the marker undetected state continues for a predetermined time or more, the process proceeds to step S1009. If the marker undetected state does not continue for the predetermined time or longer, the HMD status is not changed. The process in step S901 is completed.
ステップS1009では使用状態判定部108は、HMDステータスを「不使用」に変更し、その後、ステップS901における処理を完了する。一方、ステップS1003では使用状態判定部108は、ステップS1001で検出したマーカの位置(代表位置)を求める。代表位置としては、マーカの中心座標位置を用いる。
In step S1009, the use
次にステップS1004では使用状態判定部108は、現フレームにおける着目マーカの代表位置が、1つ前のフレームにおける着目マーカの代表位置を中心とする閾値エリア内に位置しているか否かを判断する処理を、検出した全てのマーカについて行う。換言すれば、1つ前のフレームにおける着目マーカの代表位置と、現フレームにおける着目マーカの代表位置との差分(距離)が閾値以下であるか否かを判断する処理を、検出した全てのマーカについて行う。係る判断の結果、全てのマーカ若しくは所定数以上のマーカについて差分が閾値よりも大きい場合には処理はステップS1010に進み、差分が閾値以下である場合には処理はステップS1005に進む。
In step S <b> 1004, the use
ステップS1005で使用状態判定部108は、全てのマーカ若しくは所定数以上のマーカについて、現フレーム中の代表位置が直前フレーム中の代表位置を中心とする閾値エリア内に連続して位置している時間が所定時間(例えば3秒)以上か否かを判断する。換言すれば、全てのマーカ若しくは所定数以上のマーカについて、上記差分が閾値以下であると連続して判断された時間が所定時間以上であるか否かを判断する。係る判断の結果、上記差分が閾値以下であると連続して判断された時間が所定時間以上である場合には処理はステップS1009に進み、上記差分が閾値以下であると連続して判断された時間が所定時間よりも短い場合には処理はステップS1006に進む。
In step S <b> 1005, the use
ステップS1006で使用状態判定部108は、ステップS1001で検出したそれぞれのマーカについて、閾値エリアの位置、サイズを示す閾値エリア情報(移動閾値領域)を求める。そしてステップS1007において使用状態判定部108は、それぞれのマーカについて求めた閾値エリア情報を、次のフレームで用いるために保持する。
In step S1006, the use
ステップS1010で使用状態判定部108は、全てのマーカ若しくは所定数以上のマーカについて、現フレーム中の代表位置が直前フレーム中の代表位置を中心とする閾値エリア外に連続して位置している時間が所定時間(例えば2秒)以上か否かを判断する。係る判断の結果、連続して位置している時間が所定時間以上である場合には処理はステップS1011に進み、連続して位置している時間が所定時間よりも短い場合には処理はステップS1006に進む。ステップS1011では使用状態判定部108は、HMDステータスを「使用中」に更新する。
In step S1010, the use
なお本実施形態では、フレーム間での画像内の動きをマーカの代表位置の変化に基づいて求めたが、マーカを用いることに限定するものではなく、フレーム間で画素単位の画素値(輝度値等)比較処理を行うことでフレーム間の動き量を求めるようにしても良い。 In this embodiment, the movement in the image between frames is obtained based on the change in the representative position of the marker. However, the present invention is not limited to the use of the marker. Etc.) The amount of motion between frames may be obtained by performing comparison processing.
また、本実施形態では、マーカの代表位置として、マーカの中心位置を用いたが、これに限定するものではなく、マーカの角の位置や、マーカの中心点と所定の点との組み合わせを代表位置としてもよい。 In this embodiment, the center position of the marker is used as the representative position of the marker. However, the present invention is not limited to this, and the position of the marker corner or a combination of the center point of the marker and a predetermined point is representative. It is good also as a position.
また、本実施形態では、使用状態判定部108は現実空間画像を用いたHMD使用状態判定処理を行っているが、特開2004-258123号公報で開示されている手法と同様に、HMD801の位置姿勢情報を用いたHMD使用状態判定処理を行っても良い。また他にも、この位置姿勢情報の変動量が予め設定した範囲内に収まる場合にはHMD801は不使用と判断し、超える場合にはHMD801は使用中と判断してもよい。
In the present embodiment, the use
また、ユーザがHMD801を専用のホルダやフックに保持させたことを、HMD801の位置姿勢情報を用いた方法などによって検知し、保持させている場合はHMD801の使用状態は「不使用」、保持させていない場合には「使用中」と判断しても良い。
In addition, when the user holds the
以上の説明により、本実施形態によれば、HMD801の使用状態に基づいて表示装置30への出力画像を切り替えるので、HMD801を使用する際の一連の条件に基づき、自動的に表示装置30における表示画像を使用方法に合わせて切り替える事ができる。
As described above, according to the present embodiment, since the output image to the
[第3の実施形態]
本実施形態では、HMDの連続使用によるHMD装着者の疲労を抑止するため、HMDの連続使用時間に基づいて、複合現実空間画像の提示を制御する。複合現実空間画像の提示制御としては、HMDの連続使用時間が所定時間以上経過したら、複合現実感画像の提示を中断し、操作画面等、複合現実空間画像以外の画像を提示する。
[Third Embodiment]
In this embodiment, in order to suppress fatigue of the HMD wearer due to continuous use of the HMD, presentation of the mixed reality space image is controlled based on the continuous use time of the HMD. As the presentation control of the mixed reality space image, when the continuous use time of the HMD elapses for a predetermined time or more, the presentation of the mixed reality image is interrupted and an image other than the mixed reality space image such as an operation screen is presented.
図8を用いて、本実施形態に係るシステムについて説明する。タイマ109は、HMD802の連続使用時間を計時しており、制御部100は、タイマ109が計時している時間を監視している。なお、HMD802の連続使用時間の取得方法には様々な方法がある。例えば、第2の実施形態のように、HMDステータスが連続して「使用中」である時間を連続使用時間としても良いし、画像処理装置901から複合現実空間画像を連続して送信している時間を連続使用時間としても良い。
The system according to the present embodiment will be described with reference to FIG. The
制御部100は、タイマ109により計時された時間の長さが所定の時間以上となった場合には、画像処理装置901側からの複合現実空間画像の送信を停止させるための指示(停止指示)を、制御信号送信部155を介して画像処理装置901に送信する。更に制御部100は、タイマ109により計時された時間の長さが所定の時間以上となった場合には、その旨をHMDオブジェクト合成部110に通知する。
The
制御信号受信部156は、HMD802から停止指示を受信すると、複合現実感画像生成部122に対して複合現実空間画像の代わりに画面情報を送信させる。HMDオブジェクト合成部110は、複合現実感画像受信部151から受けた左目用画像、右目用画像をそれぞれ、表示部102L、102Rに送出する。ここでHMDオブジェクト合成部110は、制御部100から「連続使用時間の長さが所定の時間以上」である旨を通知された場合には、左目用画像、右目用画像の少なくとも一方に、まもなくHMD体験を終了する及び休憩を促す旨のオブジェクトを重畳する。
When receiving a stop instruction from the
本実施形態で、制御信号送信部155と制御信号受信部156を介して要求を行う。しかし、撮像画像送信部150と撮像画像受信部153を介して撮像画像を中断することにより、画像処理装置901側におけるいわゆるオフライン検出によって判定する実施形態の場合も、同様な効果がある。
In the present embodiment, a request is made via the control
次に、HMD802の動作について説明する。HMD802は通常は、画像処理装置901から送信された左目用の複合現実空間画像、右目用の複合現実空間画像をそれぞれ、表示部102L、102Rに表示するための処理を行っている。係る処理については上記の実施形態でも説明したとおりである。そして係る処理と並行して図9のフローチャートに従った処理を、別のスレッドで実行している。
Next, the operation of the
先ず、ステップS1200では、制御部100は、タイマ109による計時時間を監視し、HMD802の連続使用時間が所定時間以上であるか否かを判断する。係る判断の結果、HMD802の連続使用時間が所定時間以上である場合には処理はステップS1201に進み、HMD802の連続使用時間が所定時間未満である場合には処理はステップS1200に戻る。
First, in step S1200, the
ステップS1201では、制御部100は、タイマ109により計時された時間の長さが所定の時間以上となった旨をHMDオブジェクト合成部110に通知する。これを受けて、HMDオブジェクト合成部110は、複合現実感画像受信部151から受けた左目用画像、右目用画像の少なくとも一方に、まもなくHMD体験を終了する及び休憩を促す旨のオブジェクトを重畳する。そしてその後、HMDオブジェクト合成部110は、左目用画像、右目用画像をそれぞれ表示部102L、102Rに送出する。これにより、HMD装着者は、このオブジェクトが示すメッセージを見ることになるので、まもなく複合現実感提示アプリケーションが終了する事を認識する。
In step S1201, the
次に、所定時間(例えば10秒)が経過すれば、処理はステップS1202を介してステップS1203に進むし、経過していなければ処理はステップS1202で待機する。ステップS1203では、制御部100は、画像処理装置901側からの複合現実空間画像の送信を停止させるための指示(停止指示)を、制御信号送信部155を介して画像処理装置901に対して送信する。
Next, if a predetermined time (for example, 10 seconds) elapses, the process proceeds to step S1203 via step S1202, and if not elapses, the process waits in step S1202. In step S1203, the
ステップS1204では、画像制御部105は、画像処理装置901から送信され、複合現実感画像受信部151が受信した左目用画像と右目用画像とを左右に水平方向に並べて、オーバーラップ無しに結合することで1枚のパノラマ画像を生成する。
In step S1204, the
次に、ステップS1205では、画像制御部105は、このパノラマ画像の解像度を、表示装置30が表示可能な解像度に変更する等、様々な画像調整処理を行う。そして画像制御部105は、画像調整が成された画像を、オブジェクト合成部107に入力する。オブジェクト合成部107は、この画像に対して上述のオブジェクトを合成する。そしてオブジェクト合成部107は、係る合成により得られた画像の画像信号を、表示装置30に対して出力する。
In step S1205, the
以上説明したように、HMD802の連続使用制限処理と、表示装置30への画像出力処理を併用する事で、表示装置30を見ているユーザは、この連続使用時間を確認することができる。そして画像処理装置901は、HMD802の連続使用時間が所定時間以上となった場合には複合現実感画像の送信を止め、操作画面など、複合現実感画像とは別の画面をHMD802に送信する。これにより、次のHMD802の使用に備えた準備や複合現実感提示システムの終了などの操作を速やかに行うことが可能となる。
As described above, by using the continuous use restriction process of the
Claims (9)
前記右目用画像を右目用の表示部に表示させると共に、前記左目用画像を左目用の表示部に表示させる手段と、
前記左目用画像と前記右目用画像とを左右に水平に並べて結合することで1枚のパノラマ画像を生成する生成手段と、
前記右目用画像、前記左目用画像、前記パノラマ画像、のうち何れか1つを選択し、選択した画像を外部の表示装置に送信する送信手段と
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring an image for the right eye and an image for the left eye from an external device;
Means for displaying the right-eye image on a display unit for the right eye and displaying the left-eye image on a display unit for the left eye;
Generating means for generating a single panoramic image by combining the left-eye image and the right-eye image side by side horizontally;
An image processing apparatus comprising: a transmission unit that selects any one of the right-eye image, the left-eye image, and the panoramic image, and transmits the selected image to an external display device.
操作画面の送信、複合現実空間画像の送信の何れかを指示する指示手段を備え、
操作画面の送信を指示した場合、
前記生成手段は、前記左目用画像と前記右目用画像とを左右に水平に並べてオーバーラップ無しに結合することで前記パノラマ画像を生成し、
複合現実空間画像の送信を指示した場合、
前記生成手段は、前記左目用画像と前記右目用画像とで重複する部分をオーバーラップさせて左右に水平に並べて結合することで前記パノラマ画像を生成し、
操作画面の送信、複合現実空間画像の送信、の何れかを指示した場合、
前記送信手段は、前記パノラマ画像を前記外部の表示装置に送信する
ことを特徴とする請求項1に記載の画像処理装置。 Furthermore,
Instructing means for instructing either transmission of the operation screen or transmission of the mixed reality space image,
When instructed to send the operation screen,
The generating unit generates the panoramic image by combining the left-eye image and the right-eye image horizontally and horizontally without combining them,
When instructed to send a mixed reality space image,
The generating means generates the panoramic image by overlapping the left eye image and the right eye image overlapping each other and horizontally combining them,
When instructing either the operation screen transmission or the mixed reality space image transmission,
The image processing apparatus according to claim 1, wherein the transmission unit transmits the panoramic image to the external display device.
予め定められた量の変化があったと判断した場合には、複合現実空間画像の送信を指示し、予め定められた量の変化がなかったと判断した場合には、操作画面の送信を指示することを特徴とする請求項2に記載の画像処理装置。 The instructing means uses at least one of the real space image for the right eye and the real space image for the left eye to determine whether or not a predetermined amount has changed in the position of the feature amount in the image. Prepared,
When it is determined that there has been a change in a predetermined amount, an instruction to transmit a mixed reality space image is given, and when it is determined that there has not been a change in a predetermined amount, an instruction to transmit an operation screen is given. The image processing apparatus according to claim 2.
前記送信手段は、前記右目用画像、前記左目用画像のうち何れか一方を前記外部の表示装置に送信する
ことを特徴とする請求項2又は3に記載の画像処理装置。 When instructed to send a mixed reality space image,
The image processing apparatus according to claim 2, wherein the transmission unit transmits any one of the right-eye image and the left-eye image to the external display device.
右目用の現実空間画像、左目用の現実空間画像を取得する手段と、
前記右目用の現実空間画像と前記左目用の現実空間画像とを、前記外部の装置に送信する手段とを備え、
前記取得手段は、前記外部の装置が前記右目用の現実空間画像を用いて生成した右目用の複合現実空間画像、前記左目用の現実空間画像を用いて生成した左目用の複合現実空間画像、をそれぞれ前記右目用画像、前記左目用画像として前記外部の装置から取得する
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 Furthermore,
Means for acquiring a real space image for the right eye and a real space image for the left eye;
Means for transmitting the real space image for the right eye and the real space image for the left eye to the external device;
The acquisition means includes a mixed reality space image for the right eye generated by the external device using the real space image for the right eye, a mixed reality space image for the left eye generated using the real space image for the left eye, The image processing apparatus according to claim 1, wherein the image processing apparatus acquires the image as the right-eye image and the left-eye image from the external apparatus, respectively.
前記画像処理装置の連続使用時間を計時する手段と、
前記連続使用時間が所定の時間以上となった場合には、前記右目用の複合現実空間画像、前記左目用の複合現実空間画像、の代わりに、右目用の操作画面、左目用の操作画面の送信を前記外部の装置に対して要求する手段と、
前記要求に応じて前記外部の装置から送信された前記右目用の操作画面、前記左目用の操作画面をそれぞれ、前記右目用画像、前記左目用画像として取得する手段と
を備え、
前記生成手段は、前記右目用の操作画面と前記左目用の操作画面とを左右に水平に並べて結合することで1枚のパノラマ画像を生成し、
前記送信手段は、当該パノラマ画像を前記外部の表示装置に送信する
ことを特徴とする請求項5に記載の画像処理装置。 The acquisition means includes
Means for measuring the continuous use time of the image processing device;
When the continuous use time is equal to or longer than a predetermined time, instead of the mixed reality space image for the right eye and the mixed reality space image for the left eye, an operation screen for the right eye, an operation screen for the left eye Means for requesting said external device for transmission;
Means for acquiring the right-eye operation screen and the left-eye operation screen transmitted from the external device in response to the request as the right-eye image and the left-eye image, respectively.
The generating means generates a single panoramic image by horizontally combining the right-eye operation screen and the left-eye operation screen horizontally and horizontally,
The image processing apparatus according to claim 5, wherein the transmission unit transmits the panoramic image to the external display device.
表示させる手段が、前記右目用画像を右目用の表示部に表示させると共に、前記左目用画像を左目用の表示部に表示させる工程と、
生成手段が、前記左目用画像と前記右目用画像とを左右に水平に並べて結合することで1枚のパノラマ画像を生成する生成工程と、
送信手段が、前記右目用画像、前記左目用画像、前記パノラマ画像、のうち何れか1つを選択し、選択した画像を外部の表示装置に送信する送信工程と
を備えることを特徴とする画像処理装置が行う画像処理方法。 An acquisition unit that acquires an image for the right eye and an image for the left eye from an external device;
Displaying the right-eye image on the right-eye display unit and displaying the left-eye image on the left-eye display unit;
A generating step for generating a single panoramic image by horizontally combining the left-eye image and the right-eye image side by side;
And a transmission step of selecting one of the right-eye image, the left-eye image, and the panoramic image and transmitting the selected image to an external display device. An image processing method performed by a processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009152868A JP2011010126A (en) | 2009-06-26 | 2009-06-26 | Image processing apparatus, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009152868A JP2011010126A (en) | 2009-06-26 | 2009-06-26 | Image processing apparatus, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011010126A true JP2011010126A (en) | 2011-01-13 |
Family
ID=43566255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009152868A Withdrawn JP2011010126A (en) | 2009-06-26 | 2009-06-26 | Image processing apparatus, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011010126A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014002347A1 (en) * | 2012-06-29 | 2014-01-03 | 株式会社ソニー・コンピュータエンタテインメント | Video output device, 3d video observation device, video display device, and video output method |
JP2017016466A (en) * | 2015-07-02 | 2017-01-19 | 富士通株式会社 | Terminal control method, image generation method, terminal control program, and terminal |
WO2017056597A1 (en) * | 2015-09-30 | 2017-04-06 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus |
WO2017138143A1 (en) * | 2016-02-12 | 2017-08-17 | 富士通株式会社 | Terminal device, method for adjusting screen resolution, display control method, screen resolution adjustment program, and display control program |
KR20180010891A (en) * | 2016-07-22 | 2018-01-31 | 동서대학교산학협력단 | 360 degree opera imaging providing method by VR devices |
JP2018023026A (en) * | 2016-08-04 | 2018-02-08 | キヤノン株式会社 | Image display system |
JP2018099523A (en) * | 2013-09-30 | 2018-06-28 | 株式会社ソニー・インタラクティブエンタテインメント | Method for fading out image of physical object |
WO2022123388A1 (en) * | 2020-12-11 | 2022-06-16 | 株式会社半導体エネルギー研究所 | Display system |
US11703682B2 (en) | 2020-02-20 | 2023-07-18 | Canon Kabushiki Kaisha | Apparatus configured to display shared information on plurality of display apparatuses and method thereof |
-
2009
- 2009-06-26 JP JP2009152868A patent/JP2011010126A/en not_active Withdrawn
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9741168B2 (en) | 2012-06-29 | 2017-08-22 | Sony Corporation | Video outputting apparatus, three-dimentional video observation device, video presentation system, and video outputting method |
JP2014011656A (en) * | 2012-06-29 | 2014-01-20 | Sony Computer Entertainment Inc | Video output apparatus, stereoscopic video observation device, video presentation system, and video output method |
CN104396237A (en) * | 2012-06-29 | 2015-03-04 | 索尼电脑娱乐公司 | Video output device, 3D video observation device, video display device, and video output method |
CN104396237B (en) * | 2012-06-29 | 2016-12-21 | 索尼电脑娱乐公司 | Video output device, 3 D video facilities for observation, video presentation system and picture output method |
WO2014002347A1 (en) * | 2012-06-29 | 2014-01-03 | 株式会社ソニー・コンピュータエンタテインメント | Video output device, 3d video observation device, video display device, and video output method |
US10532284B2 (en) | 2013-09-30 | 2020-01-14 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
JP2018099523A (en) * | 2013-09-30 | 2018-06-28 | 株式会社ソニー・インタラクティブエンタテインメント | Method for fading out image of physical object |
JP2017016466A (en) * | 2015-07-02 | 2017-01-19 | 富士通株式会社 | Terminal control method, image generation method, terminal control program, and terminal |
JPWO2017056597A1 (en) * | 2015-09-30 | 2018-03-01 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
CN108140357A (en) * | 2015-09-30 | 2018-06-08 | 索尼互动娱乐股份有限公司 | Information processing unit |
WO2017056597A1 (en) * | 2015-09-30 | 2017-04-06 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus |
US10628113B2 (en) | 2015-09-30 | 2020-04-21 | Sony Interactive Entertainment Inc. | Information processing apparatus |
CN108140357B (en) * | 2015-09-30 | 2021-02-05 | 索尼互动娱乐股份有限公司 | Information processing apparatus |
WO2017138143A1 (en) * | 2016-02-12 | 2017-08-17 | 富士通株式会社 | Terminal device, method for adjusting screen resolution, display control method, screen resolution adjustment program, and display control program |
JPWO2017138143A1 (en) * | 2016-02-12 | 2018-11-22 | 富士通株式会社 | Terminal device, screen resolution adjustment method, display control method, screen resolution adjustment program, and display control program |
KR20180010891A (en) * | 2016-07-22 | 2018-01-31 | 동서대학교산학협력단 | 360 degree opera imaging providing method by VR devices |
JP2018023026A (en) * | 2016-08-04 | 2018-02-08 | キヤノン株式会社 | Image display system |
US11703682B2 (en) | 2020-02-20 | 2023-07-18 | Canon Kabushiki Kaisha | Apparatus configured to display shared information on plurality of display apparatuses and method thereof |
WO2022123388A1 (en) * | 2020-12-11 | 2022-06-16 | 株式会社半導体エネルギー研究所 | Display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3379525B1 (en) | Image processing device and image generation method | |
JP6572893B2 (en) | Information processing apparatus and information processing method, computer program, and image processing system | |
JP2011010126A (en) | Image processing apparatus, and image processing method | |
JP5113426B2 (en) | Head-mounted display device and control method thereof | |
EP2378781B1 (en) | Three-dimensional image display device and three-dimensional image display method | |
JP2017204674A (en) | Imaging device, head-mounted display, information processing system, and information processing method | |
JP2007052304A (en) | Video display system | |
TW201234838A (en) | Stereoscopic display device and control method of stereoscopic display device | |
JP2010072477A (en) | Image display apparatus, image display method, and program | |
JP2019113849A (en) | Information processing apparatus | |
JP6422584B2 (en) | Information processing device | |
JP2010153983A (en) | Projection type video image display apparatus, and method therein | |
CN109799899B (en) | Interaction control method and device, storage medium and computer equipment | |
JP4708590B2 (en) | Mixed reality system, head mounted display device, mixed reality realization method and program | |
JP6641122B2 (en) | Display device, information processing device, and control method therefor | |
JP6649010B2 (en) | Information processing device | |
JP6618260B2 (en) | Information processing apparatus, information processing method, and program | |
JPWO2012131862A1 (en) | Image processing apparatus, stereoscopic image display apparatus, method, and program | |
JP2011217229A (en) | Imaging apparatus and display method | |
JP2006340017A (en) | Device and method for stereoscopic video image display | |
JP2019032713A (en) | Information processing device, information processing method, and program | |
JP6921204B2 (en) | Information processing device and image output method | |
JP6442619B2 (en) | Information processing device | |
WO2012169221A1 (en) | 3d image display device and 3d image display method | |
CN110709920B (en) | Image processing apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120904 |