JP2011010126A - Image processing apparatus, and image processing method - Google Patents

Image processing apparatus, and image processing method Download PDF

Info

Publication number
JP2011010126A
JP2011010126A JP2009152868A JP2009152868A JP2011010126A JP 2011010126 A JP2011010126 A JP 2011010126A JP 2009152868 A JP2009152868 A JP 2009152868A JP 2009152868 A JP2009152868 A JP 2009152868A JP 2011010126 A JP2011010126 A JP 2011010126A
Authority
JP
Japan
Prior art keywords
image
eye
hmd
mixed reality
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009152868A
Other languages
Japanese (ja)
Inventor
Kenji Oyama
賢司 大山
Naoyuki Okada
直行 岡田
Hiroyuki Nakanishi
博之 中西
Hiroichi Yamaguchi
弘市 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009152868A priority Critical patent/JP2011010126A/en
Publication of JP2011010126A publication Critical patent/JP2011010126A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology for switching an image to be displayed on an HMD (Head-Mounted Display) or a display device other than the HMD, in accordance with the situation when displaying the image.SOLUTION: A mixed-reality image receiving section 151 captures a right-eye image and a left-eye image from an image processing apparatus 900. Display sections 102L, 102R display the left-eye image and the right-eye image, respectively. An image control section 105 determines, as an object to be output to a display device 30, any one of a panoramic image obtained by concatenating the left- and right-eye images horizontally arranged, the right-eye image and the left-eye image.

Description

本発明は、画像表示技術に関するものである。   The present invention relates to an image display technique.

あたかも現実世界の中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができる複合現実感技術、いわゆるMR(Mixed Reality)技術が広く知られている。MR技術は、現実空間の画像と、三次元モデリングされたComputer Graphics(CG)によって生成された仮想空間の画像と、を重畳し、それぞれの画像の位置合わせを行って表示する事で実現される。   Mixed reality technology, so-called MR (Mixed Reality) technology, that makes it appear as if an object (virtual object) drawn in CG exists in the real world is widely known. MR technology is realized by superimposing a real-space image and a virtual-space image generated by computer graphics (CG) modeled three-dimensionally and aligning and displaying each image. .

この技術を用いた複合現実感提示システムは、以下の各装置から構成される。現実世界を撮像する現実画像撮像装置(例えば、ビデオカメラ)、現実世界の撮像位置から見たような仮想空間画像を生成し、それぞれの画像を合成して複合現実空間画像を生成する画像処理装置、複合現実空間画像を表示する画像表示装置、である。画像処理装置は、一般にPC(パーソナルコンピュータ)やワークステーションなどに代表されるものである。   A mixed reality presentation system using this technology is composed of the following devices. Real image capturing apparatus (for example, video camera) that captures the real world, and an image processing apparatus that generates a virtual space image as viewed from an imaging position in the real world and generates a mixed reality space image by combining the images. An image display device for displaying a mixed reality space image. The image processing apparatus is typically represented by a PC (personal computer), a workstation, or the like.

上記の複合現実感提示システムの1つに、ビデオシースルー型ヘッドマウントディスプレイ(Head-Mounted Display: HMD = 頭部装着型表示装置)を使用したシステムが知られている。このシステムは、HMD装着者の瞳位置からの視線と撮像方向を略一致させた撮像部により被写体を撮像し、その撮像画像を用いて生成した複合現実空間画像を立体画像としてHMD装着者に提供する。   As one of the mixed reality presentation systems described above, a system using a video see-through head mounted display (HMD = head mounted display device) is known. In this system, an object is imaged by an imaging unit in which the line of sight from the pupil position of the HMD wearer and the shooting direction are substantially matched, and a mixed reality space image generated using the taken image is provided to the HMD wearer as a stereoscopic image. To do.

ここで、ビデオシースルー型HMDの内部構成について図10を用いて説明する。図10において101は現実世界を撮像する撮像部、102は画像を表示する表示部である。15は外光の光束を撮像素子へ導き、撮像部101へ結像させる為のレンズから構成される撮像光学系であり、16は表示部102に表示された画像を、HMD装着者の瞳17に導く為の表示光学系(自由曲面プリズム)である。   Here, the internal configuration of the video see-through HMD will be described with reference to FIG. In FIG. 10, reference numeral 101 denotes an imaging unit that images the real world, and reference numeral 102 denotes a display unit that displays an image. Reference numeral 15 denotes an imaging optical system including a lens for guiding the luminous flux of external light to the imaging device and forming an image on the imaging unit 101. Reference numeral 16 denotes an image displayed on the display unit 102, and the pupil 17 of the HMD wearer. Is a display optical system (free-form surface prism).

係る構成により、HMD装着者の瞳位置からの視線方向と略一致させた現実空間の撮像を撮像部101が行い、かつ表示部102に表示された画像をHMD装着者の瞳17に結像させ、HMD装着者に対して複合現実空間画像を提示する。   With such a configuration, the imaging unit 101 performs imaging in the real space that is substantially coincident with the line-of-sight direction from the pupil position of the HMD wearer, and forms an image displayed on the display unit 102 on the pupil 17 of the HMD wearer. The mixed reality space image is presented to the HMD wearer.

複合現実空間画像を表示する表示装置として、通常のモニタでなく、上記のように装着者の瞳位置からの視線とカメラの撮像方向とを略一致させたHMDを用いる事で、装着者が向いている方向の画像をHMDに映し出す事ができる。更に、装着者がその方向を向いたときのCG画像の表示が行えるため、HMD装着者の複合現実空間への没入感を高める事が可能となる。   As a display device that displays a mixed reality space image, the wearer is suitable by using an HMD in which the line of sight from the wearer's pupil position substantially matches the imaging direction of the camera as described above, instead of a normal monitor. It is possible to project an image in the direction of the image on the HMD. Furthermore, since a CG image can be displayed when the wearer is facing the direction, it is possible to enhance the immersive feeling of the HMD wearer in the mixed reality space.

次に、HMDを用いた複合現実感システムの基本構成について図11を用いて説明する。係るシステムは、以下の各装置から構成される。   Next, a basic configuration of the mixed reality system using the HMD will be described with reference to FIG. Such a system includes the following devices.

・ 複合現実空間画像を表示するHMD10
・ HMD10を制御するHMDコントローラ11
・ HMD10が撮像した現実空間画像に仮想空間画像を重畳して複合現実空間画像を生成する画像処理装置20
・ HMD装着者以外が複合現実感体験を共有する為の表示装置30
図11に示した構成では、HMD10とHMDコントローラ11とは別個のハードウェアとしているが、HMDコントローラ11をHMD10に内蔵させることで、それぞれを一体化させても良い。
-HMD10 displaying mixed reality space image
-HMD controller 11 for controlling the HMD 10
An image processing apparatus 20 that generates a mixed reality space image by superimposing a virtual space image on a real space image captured by the HMD 10.
-Display device 30 for non-HMD wearers to share mixed reality experiences
In the configuration shown in FIG. 11, the HMD 10 and the HMD controller 11 are separate hardware, but each may be integrated by incorporating the HMD controller 11 in the HMD 10.

複合現実感提示システムは、HMD10の撮像部の視点位置が変わってもCG画像と現実空間画像とを正しい位置関係で表示し、そのためにHMD10は、視点位置や視線方向を検出するための視線位置姿勢検出機構(例えば、位置姿勢センサ)を備えている。   The mixed reality presentation system displays the CG image and the real space image in a correct positional relationship even when the viewpoint position of the imaging unit of the HMD 10 changes, and for this purpose, the HMD 10 detects the viewpoint position and the line-of-sight position for detecting the line-of-sight direction. A posture detection mechanism (for example, a position and posture sensor) is provided.

画像処理装置20は、三次元モデリングされた仮想物体を、現実空間と同じスケールの仮想空間に置き、不図示の位置姿勢検出部によって検出された視点位置や視線方向から観察されたものとしてこの仮想物体をレンダリングし、CG画像を生成する。このようにして生成されたCG画像と現実空間画像とを重畳する事で、撮像部がどの視点位置や視線方向から観察した場合でも、現実空間の中に正しく仮想物体が置かれているような複合現実空間画像を生成し、提示することができる。係る構成により、HMD装着者は、HMD10を通じて現実空間画像と仮想空間画像(CG画像)とが重畳された複合現実感の世界を体験することができるようになる。   The image processing apparatus 20 places a virtual object that has been three-dimensionally modeled in a virtual space having the same scale as the real space, and is assumed to be observed from a viewpoint position or a line-of-sight direction detected by a position and orientation detection unit (not shown). Render the object and generate a CG image. By superimposing the CG image generated in this way and the real space image, the virtual object is correctly placed in the real space regardless of the viewpoint position and the line of sight observed by the imaging unit. Mixed reality space images can be generated and presented. With this configuration, the HMD wearer can experience the mixed reality world in which the real space image and the virtual space image (CG image) are superimposed through the HMD 10.

また、HMD装着者が見ている画像と同じ画像(HMD装着者の視点から見た画像)を、外部の表示装置30へ出力が可能な、外部出力インターフェースを有する構成のHMDコントローラ11がある。   In addition, there is an HMD controller 11 having an external output interface that can output the same image as the image viewed by the HMD wearer (an image viewed from the viewpoint of the HMD wearer) to the external display device 30.

外部出力インターフェースを有するHMDコントローラ11は、画像処理装置20からHMD10に対して出力される左目用画像若しくは右目用画像の何れか一方を、セレクタを用いて外部出力インターフェースへも出力する。係る構成により、HMD装着者以外の観衆に対して、HMD装着者が観察している画像を表示装置30を通じて提供することができるので、HMD装着者が体験している複合現実感を、複数の観衆にも同時に理解及び共有させる事が可能となる。   The HMD controller 11 having an external output interface outputs either the left-eye image or the right-eye image output from the image processing apparatus 20 to the HMD 10 to the external output interface using a selector. With such a configuration, an image that the HMD wearer is observing can be provided to the audience other than the HMD wearer through the display device 30, so that the mixed reality experienced by the HMD wearer can be displayed in a plurality of ways. It is possible for the audience to understand and share at the same time.

しかしながら、上記の観衆用の表示装置30に画像出力が可能なHMD10では、複合現実感体験者が上記複合現実感体験終了後にHMD10を専用の置き場所やフックなどに戻した際も、表示装置30は表示を続けることになる。この状況では、HMD10に取り付けられている撮像部は意味の無い画像を撮像し続ける為、表示装置30にも無意味な(観衆にとって意味の無い)画像が表示されてしまい、展示の効果が薄れるといった問題があった。   However, in the HMD 10 capable of outputting an image to the spectator display device 30 described above, even when the mixed reality experience person returns the HMD 10 to a dedicated place or a hook after the mixed reality experience ends, the display device 30 Will continue to display. In this situation, since the image pickup unit attached to the HMD 10 continues to pick up meaningless images, a meaningless (insignificant for the audience) image is displayed on the display device 30 and the effect of the exhibition is diminished. There was a problem.

これに対し、HMD10が使用されているか否かをHMD10の位置姿勢情報に基づいて判断する使用状態判定技術を用い、観衆用の表示装置30に表示させる画像を切り替える表示制御方法が提案されている(特許文献1)。係る表示制御方法では、HMD10の使用時には、HMD10に入力される複合現実空間画像を表示装置30に表示し、HMD10を使用していない時には、使用されていない旨やメッセージを伝える代替画像を表示装置30に表示する。これにより、展示の効果を高める事が可能となる。   On the other hand, a display control method for switching an image to be displayed on the audience display device 30 using a use state determination technique for determining whether the HMD 10 is used based on position and orientation information of the HMD 10 has been proposed. (Patent Document 1). In such a display control method, when the HMD 10 is used, the mixed reality space image input to the HMD 10 is displayed on the display device 30, and when the HMD 10 is not used, an alternative image that conveys a message that the HMD 10 is not used is displayed. 30. This makes it possible to increase the effect of the exhibition.

また、HMD10は一般的に、オーバーラップ部分を持つ左右1対のステレオ画像を表示するが、表示装置30には上記ステレオ画像のうち左目用画像若しくは右目用画像のいずれかしか表示できない。その為、HMD装着者と表示装置30の表示を見ている観衆とでは観察領域が異なってしまい、両者の観察画像が一致しないという問題があった。   The HMD 10 generally displays a pair of left and right stereo images having overlapping portions, but the display device 30 can display only the left-eye image or the right-eye image among the stereo images. Therefore, there is a problem that the observation area is different between the HMD wearer and the audience watching the display on the display device 30, and the observation images of both do not match.

この問題に対し、オーバーラップ部分を持つ左右1対のステレオ画像から2次元画像を生成する事で、HMD装着者とHMD装着者以外の観衆とで観察する画像領域が一致し、複合現実空間画像の共有感をより一層高める事が可能となる(特許文献2)。   To solve this problem, by generating a two-dimensional image from a pair of left and right stereo images having overlapping portions, the image areas observed by the HMD wearer and the audience other than the HMD wearer match, and a mixed reality space image It is possible to further increase the feeling of sharing (Patent Document 2).

複合現実感の提示は、画像処理装置20が有する不図示の操作画面上で、複合現実感提示アプリケーションの起動を指示し、動作させる事で行われる。このアプリケーションが操作画面の全域を占有して動作する事で、HMD10の表示部に複合現実空間画像を表示している。複合現実感の提示を中断し、複合現実感提示アプリケーション及びHMD10の諸設定、また画像処理装置20の諸操作を行う場合には、画像処理装置20の操作画面を表示する必要がある。その為、表示装置30を有する複合現実感提示システムでは、本来であれば、表示装置30と画像処理装置20の操作用表示装置の、少なくとも2台の表示装置が必要である。しかし、表示装置30を、画像処理装置20を操作する為の表示装置として兼ねて用いる事で、システムに要する表示装置を1つ少なく構成する事ができる。   The presentation of the mixed reality is performed by instructing the activation of the mixed reality presentation application on the operation screen (not shown) of the image processing apparatus 20 and operating it. As this application occupies the entire operation screen and operates, a mixed reality space image is displayed on the display unit of the HMD 10. When the mixed reality presentation is interrupted and various settings of the mixed reality presentation application and the HMD 10 and various operations of the image processing apparatus 20 are performed, the operation screen of the image processing apparatus 20 needs to be displayed. Therefore, the mixed reality presentation system having the display device 30 originally requires at least two display devices, that is, the display device 30 and the display device for operation of the image processing device 20. However, by using the display device 30 also as a display device for operating the image processing device 20, the number of display devices required for the system can be reduced by one.

次に、HMD10の装着者が複合現実感を体験している場合に、表示装置30にHMD10が有する表示部に表示されている複合現実感画像を表示している様子について、図12を用いて説明する。図12(a)において1201L、1201Rはそれぞれ、HMD10に備わっている左目用の表示部、右目用の表示部であり、それぞれの表示部には、現実物体としての机200、CGとしての仮想物体201,202,203が表示されている。係る表示により、現実物体としての机200上にあたかも各仮想物体201,202,203が配置されているかのような表示を可能にする。図12(b)、(c)はそれぞれ、左目用の表示部1201Lに表示している画像を表示している表示装置30の表示画面、右目用の表示部1201Rに表示している画像を表示している表示装置30の表示画面、を示している。   Next, when the wearer of the HMD 10 experiences mixed reality, the display of the mixed reality image displayed on the display unit of the HMD 10 on the display device 30 will be described with reference to FIG. explain. In FIG. 12A, 1201L and 1201R are a display unit for the left eye and a display unit for the right eye respectively provided in the HMD 10, and each display unit includes a desk 200 as a real object and a virtual object as a CG. 201, 202, and 203 are displayed. Such display enables display as if the virtual objects 201, 202, and 203 are arranged on the desk 200 as a real object. FIGS. 12B and 12C show the display screen of the display device 30 displaying the image displayed on the left-eye display unit 1201L and the image displayed on the right-eye display unit 1201R, respectively. The display screen of the display device 30 is shown.

一方、画像処理装置20の諸操作を行う場合に、表示装置30に表示する操作画面について、図13を用いて説明する。図13(a)に示す如く、左目用の表示部1201L、右目用の表示部1201Rに跨って、画像処理装置20上で起動しているウィンドウ210,211が表示されている。図13(b)、(c)はそれぞれ、左目用の表示部1201Lに表示している画像を表示している表示装置30の表示画面、右目用の表示部1201Rに表示している画像を表示している表示装置30の表示画面、を示している。   On the other hand, an operation screen displayed on the display device 30 when various operations of the image processing apparatus 20 are performed will be described with reference to FIG. As shown in FIG. 13A, windows 210 and 211 running on the image processing apparatus 20 are displayed across the display unit 1201L for the left eye and the display unit 1201R for the right eye. FIGS. 13B and 13C show the display screen of the display device 30 displaying the image displayed on the left-eye display unit 1201L and the image displayed on the right-eye display unit 1201R, respectively. The display screen of the display device 30 is shown.

ここで、図12と図13を用いて、画像処理装置20の操作に煩雑さが生じる事を説明する。複合現実感を体験している場合は、図12(a)に示す如く、右目用の表示部1201R、左目用の表示部1201Lには、HMD10の位置姿勢に応じた複合現実感画像が表示されている。一方、図12(b)、(c)に示す如く、表示装置30には、右目用の表示部1201R、左目用の表示部1201Lの何れか一方に表示されている複合現実感画像がHMDコントローラ11により選択されて表示されている。これにより、HMD10の装着者の複合現実感体験をHMD装着者以外の観衆も共有できるような表示が為されている。   Here, it will be described with reference to FIGS. 12 and 13 that the operation of the image processing apparatus 20 is complicated. When experiencing mixed reality, as shown in FIG. 12A, a mixed reality image corresponding to the position and orientation of the HMD 10 is displayed on the display unit 1201R for the right eye and the display unit 1201L for the left eye. ing. On the other hand, as shown in FIGS. 12B and 12C, the mixed reality image displayed on one of the display unit 1201R for the right eye and the display unit 1201L for the left eye is displayed on the display device 30 as an HMD controller. 11 is selected and displayed. Thereby, the display which can share the mixed reality experience of the wearer of HMD10 with the audience other than the HMD wearer is made.

一方、画像処理装置20の諸操作を行う場合、図13(a)に示す如く、画像処理装置20の操作画面は、右目用の表示部1201Rの表示画面、左目用の表示部1201Lの表示画面の両方の表示画面の全域に渡る。表示装置30には、左目用の表示部1201L、右目用の表示部1201Rの何れかに表示されている画像しか表示できない為、図13(b)、(c)に示す如く、操作画面の左側若しくは右側の半分のみしか表示されないことになる。従って、表示装置30の表示画面を見る操作者は、操作画面全体を一度に見ることはできなかった。   On the other hand, when various operations of the image processing device 20 are performed, as shown in FIG. 13A, the operation screen of the image processing device 20 is a display screen of the display unit 1201R for the right eye and a display screen of the display unit 1201L for the left eye. Across both display screens. Since only the image displayed on either the left-eye display unit 1201L or the right-eye display unit 1201R can be displayed on the display device 30, as shown in FIGS. 13B and 13C, the left side of the operation screen is displayed. Or, only the right half is displayed. Therefore, the operator who views the display screen of the display device 30 cannot view the entire operation screen at once.

表示装置30には、画像処理装置20の操作画面の片側半分しか表示されない為、もう片方の操作画面内での操作を行う為には、表示装置30への出力をHMDコントローラ11で切り替える必要があった。従来のHMD10とHMDコントローラ11とでは、上記のような画像処理装置20の操作が煩わしいという問題は解決できていない。   Since only one half of the operation screen of the image processing device 20 is displayed on the display device 30, it is necessary to switch the output to the display device 30 with the HMD controller 11 in order to perform an operation on the other operation screen. there were. The conventional HMD 10 and the HMD controller 11 cannot solve the problem that the operation of the image processing apparatus 20 as described above is troublesome.

特開2004−258123号公報JP 2004-258123 A 特開2006−41795号公報JP 2006-41795 A

操作画面は、HMD10に対して出力される右目用画像、左目用画像の両画像の全域に渡る為、表示装置30に対して右目用画像、左目用画像の何れか一方のみを出力するのでは、表示装置30には操作画面の左側若しくは右側のみしか表示されない。もう一方の画面を表示する為には、セレクタの出力を切り替える必要があり、同時に全操作画面を見る事ができず画像処理装置20の操作が煩わしかった。   Since the operation screen covers the entire area of both the right-eye image and the left-eye image output to the HMD 10, only one of the right-eye image and the left-eye image is output to the display device 30. Only the left side or the right side of the operation screen is displayed on the display device 30. In order to display the other screen, it is necessary to switch the output of the selector. At the same time, the entire operation screen cannot be viewed, and the operation of the image processing apparatus 20 is troublesome.

本発明は以上の問題に鑑みてなされたものであり、HMDとHMD以外の表示装置とに画像表示を行う場合、状況に応じてこの表示装置に表示する画像を切り替える為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique for switching an image to be displayed on a display device according to a situation when an image is displayed on an HMD and a display device other than the HMD. With the goal.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、右目用画像、左目用画像を外部の装置から取得する取得手段と、前記右目用画像を右目用の表示部に表示させると共に、前記左目用画像を左目用の表示部に表示させる手段と、前記左目用画像と前記右目用画像とを左右に水平に並べて結合することで1枚のパノラマ画像を生成する生成手段と、前記右目用画像、前記左目用画像、前記パノラマ画像、のうち何れか1つを選択し、選択した画像を外部の表示装置に送信する送信手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, an acquisition unit that acquires an image for the right eye and an image for the left eye from an external device, a unit that displays the image for the right eye on the display unit for the right eye, and a unit that displays the image for the left eye on the display unit for the left eye Generating means for generating a single panoramic image by combining the left-eye image and the right-eye image side by side horizontally, and any of the right-eye image, the left-eye image, and the panoramic image Transmission means for selecting one of the images and transmitting the selected image to an external display device.

本発明の構成によれば、HMDとHMD以外の表示装置とに画像表示を行う場合、状況に応じてこの表示装置に表示する画像を切り替えることができる。   According to the configuration of the present invention, when an image is displayed on the HMD and a display device other than the HMD, an image to be displayed on the display device can be switched depending on the situation.

第1の実施形態に係る複合現実感提示システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of the mixed reality presentation system which concerns on 1st Embodiment. HMD800が行う処理のフローチャート。The flowchart of the process which HMD800 performs. 表示装置30における表示例を示す図。FIG. 6 is a diagram showing a display example on the display device 30. 表示装置30における表示例を示す図。FIG. 6 is a diagram showing a display example on the display device 30. 第2の実施形態に係る複合現実感提示システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of the mixed reality presentation system which concerns on 2nd Embodiment. HMD801が行う処理のフローチャート。The flowchart of the process which HMD801 performs. ステップS901における処理のフローチャート。The flowchart of the process in step S901. 第3の実施形態に係る複合現実感提示システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of the mixed reality presentation system which concerns on 3rd Embodiment. 第3の実施形態に係る処理のフローチャート。The flowchart of the process which concerns on 3rd Embodiment. ビデオシースルー型HMDの内部構成を示す図。The figure which shows the internal structure of a video see-through type HMD. HMDを用いた複合現実感システムの基本構成を示す図。The figure which shows the basic composition of the mixed reality system using HMD. 表示装置30における表示例を示す図。FIG. 6 is a diagram showing a display example on the display device 30. 表示装置30における表示例を示す図。FIG. 6 is a diagram showing a display example on the display device 30.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係る複合現実感提示システムは、現実空間画像と仮想空間画像との合成画像である複合現実空間画像をHMDに出力すると共に、HMD装着者以外に対して設けられた表示装置にも出力する。そして係る構成において、複合現実感提示システムは状況に応じて、表示装置に出力する画像を切り替える。以下に、本実施形態に係る複合現実感提示システムについてより詳細に説明する。なお、以下の説明で用いる図面に登場する参照番号において、L、Rが付されている参照番号はそれぞれ、左目用、右目用に対する構成要素を指し示す。
[First Embodiment]
The mixed reality presentation system according to the present embodiment outputs a mixed reality space image, which is a composite image of a real space image and a virtual space image, to the HMD, and also to a display device provided for a person other than the HMD wearer. Output. In such a configuration, the mixed reality presentation system switches the image to be output to the display device according to the situation. Hereinafter, the mixed reality presentation system according to the present embodiment will be described in more detail. In addition, in the reference numbers appearing in the drawings used in the following description, the reference numbers to which L and R are attached indicate components for the left eye and the right eye, respectively.

先ず、本実施形態に係る複合現実感提示システムの機能構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係る複合現実感提示システムは、頭部装着型表示装置としてのビデオシースルー型のHMD800、PC(パーソナルコンピュータ)に代表される画像処理装置900、CRTや液晶画面等に代表される表示装置30、を有する。   First, a functional configuration example of the mixed reality presentation system according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the mixed reality presentation system according to the present embodiment includes a video see-through type HMD 800 as a head-mounted display device, an image processing device 900 represented by a PC (personal computer), a CRT, and a liquid crystal screen. And the like.

先ず、HMD800について説明する。撮像部101L、101Rはそれぞれ、HMD800を頭部に装着するユーザの左目、右目に対して提供する現実空間画像を撮像するためのもので、例えば、ビデオカメラなど、動画像を撮像するカメラである。撮像部101L、101Rは現実空間の動画像を撮像すると、撮像した動画像を構成する各フレームの画像(現実空間画像)を順次、後段の撮像画像送信部150に送出する。なお、以下では、撮像部101Lが撮像した撮像画像を「左目用の現実空間画像(撮像画像)」、撮像部101Rが撮像した撮像画像を「右目用の現実空間画像(撮像画像)」と呼称する場合がある。   First, the HMD 800 will be described. The imaging units 101L and 101R are for capturing a real space image provided to the left eye and the right eye of a user who wears the HMD 800 on the head, for example, a camera for capturing a moving image such as a video camera. . When the imaging units 101L and 101R capture a moving image in the real space, the imaging units 101L and 101R sequentially transmit the images of each frame (real space image) constituting the captured moving image to the subsequent captured image transmission unit 150. Hereinafter, the captured image captured by the image capturing unit 101L is referred to as “a left-eye real space image (captured image)”, and the captured image captured by the image capturing unit 101R is referred to as a “right-eye real space image (captured image)”. There is a case.

撮像画像送信部150は、撮像部101L、101Rから受けたそれぞれの撮像画像(左目用の現実空間画像、右目用の現実空間画像)を、画像処理装置900に送信する。HMD800と画像処理装置900との間は、有線/無線の何れで通信しても良い。センサ部103は、自身の位置姿勢を、HMD800の位置姿勢として計測し、係る計測によって得られた位置姿勢情報を、画像処理装置900に送信する。   The captured image transmission unit 150 transmits the captured images (the real space image for the left eye and the real space image for the right eye) received from the image capture units 101L and 101R to the image processing apparatus 900. The HMD 800 and the image processing apparatus 900 may communicate with each other by wired or wireless. The sensor unit 103 measures its own position and orientation as the position and orientation of the HMD 800 and transmits position and orientation information obtained by the measurement to the image processing apparatus 900.

複合現実感画像受信部151は、画像処理装置900(外部の装置)から送信される左目用画像、右目用画像を受信し、それぞれを表示部102L、102Rに送出すると共に、画像制御部105にも送出する。右目用画像は、画像処理装置900側で後述する処理により生成される右目用の複合現実空間画像、若しくは画像処理装置900における動作画面のうち表示部102Rに表示する領域の画面情報である。同様に、左目用画像は、画像処理装置900側で後述する処理により生成される左目用の複合現実空間画像、若しくは画像処理装置900における動作画面のうち表示部102Lに表示する領域の画面情報である。   The mixed reality image receiving unit 151 receives the left-eye image and the right-eye image transmitted from the image processing device 900 (external device), sends them to the display units 102L and 102R, and sends them to the image control unit 105. Is also sent out. The right-eye image is a mixed reality space image for the right eye generated by processing described later on the image processing apparatus 900 side, or screen information of an area to be displayed on the display unit 102R in the operation screen in the image processing apparatus 900. Similarly, the left-eye image is a left-eye mixed reality space image generated by processing described later on the image processing apparatus 900 side, or screen information of an area displayed on the display unit 102L in the operation screen of the image processing apparatus 900. is there.

表示部102L、102Rはそれぞれ、ユーザの左目、右目のそれぞれに画像を提示するためのもので、ユーザがHMD800を自身の頭部に装着した時に、このユーザの左目、右目の目前に位置するように、HMD800に取り付けられている。表示部102L、102Rはそれぞれ、複合現実感画像受信部151が受信した左目用画像、右目用画像を表示する。これにより、ユーザの右目、左目の目前にはそれぞれ、右目用画像、左目用画像が表示されることになる。   The display units 102L and 102R are for presenting images to the user's left eye and right eye, respectively. When the user wears the HMD 800 on his / her head, the display units 102L and 102R are positioned in front of the user's left eye and right eye. And attached to the HMD 800. The display units 102L and 102R display the left-eye image and the right-eye image received by the mixed reality image receiving unit 151, respectively. As a result, the right-eye image and the left-eye image are displayed in front of the user's right eye and left eye, respectively.

指示部106は、スイッチ等、複数種の指示を選択的に入力するためにHMD800に取り付けられたもので、ユーザが指示部106を用いて入力した操作指示は、この指示部106から画像制御部105に入力される。なお、指示部106は、HMD800に取り付けずに、HMD800とは別個の装置としても良い。   The instruction unit 106 is attached to the HMD 800 in order to selectively input a plurality of types of instructions such as switches. An operation instruction input by the user using the instruction unit 106 is transmitted from the instruction unit 106 to the image control unit. 105 is input. The instruction unit 106 may be a separate device from the HMD 800 without being attached to the HMD 800.

画像制御部105は、指示部106からの指示入力に応じて以下に示す3つの画像のうち何れか1つをオブジェクト合成部107への出力対象として選択する。   In response to an instruction input from the instruction unit 106, the image control unit 105 selects one of the following three images as an output target to the object composition unit 107.

・ 表示部102L、102Rのぞれぞれに表示されている画像(左目用画像、右目用画像)を左右に水平方向に並べて結合して得られる1枚のパノラマ画像
・ 左目用画像
・ 右目用画像
そして画像制御部105は、選択した画像をオブジェクト合成部107に送出する。オブジェクト合成部107は、画像制御部105から受けた画像に対して、HMD800の使用に係る情報等の所定のオブジェクトを合成し、合成後の画像を表示装置画像送信部152に送出する。もちろん、このオブジェクトの合成については、ユーザ指示や様々な状況などに応じて適宜行えば良く、常に行わなくても良い。表示装置画像送信部152は、オブジェクト合成部107から受けた画像に基づく画像信号を、表示装置30に送出する。
A single panoramic image obtained by combining the images (left-eye image and right-eye image) displayed on each of the display units 102L and 102R in the horizontal direction on the left and right. Left-eye image Right-eye image The image control unit 105 sends the selected image to the object composition unit 107. The object composition unit 107 composes a predetermined object such as information related to use of the HMD 800 with the image received from the image control unit 105, and sends the composited image to the display device image transmission unit 152. Of course, the composition of this object may be appropriately performed according to the user instruction or various situations, and may not always be performed. The display device image transmission unit 152 transmits an image signal based on the image received from the object composition unit 107 to the display device 30.

制御部100は、HMD800を構成する上述の各部の動作制御を行うためのもので、CPUなどの実行制御部、RAMやROMなどのメモリ部、等により構成されている。実行制御部は、このメモリ部に格納された(若しくは格納されている)コンピュータプログラムやデータを用いて、HMD800を構成する各部の動作制御を行う。   The control unit 100 is for performing operation control of the above-described units constituting the HMD 800, and includes an execution control unit such as a CPU, a memory unit such as a RAM and a ROM, and the like. The execution control unit performs operation control of each unit constituting the HMD 800 using a computer program and data stored (or stored) in the memory unit.

次に、画像処理装置900について説明する。撮像画像受信部153は、HMD800側の撮像画像送信部150から送信された右目用の現実空間画像、左目用の現実空間画像を受信し、受信したそれぞれの画像を後段の撮像画像特徴検出部120に送出する。   Next, the image processing apparatus 900 will be described. The captured image reception unit 153 receives the real space image for the right eye and the real space image for the left eye transmitted from the captured image transmission unit 150 on the HMD 800 side, and the captured image feature detection unit 120 in the subsequent stage receives each received image. To send.

撮像画像特徴検出部120は、右目用の現実空間画像、左目用の現実空間画像について次の処理を行う。即ち、現実空間画像から特徴点(例えば人為的マーカや自然特徴等の特徴量)を検出する。そして撮像画像特徴検出部120は、右目用の現実空間画像、左目用の現実空間画像と共に、それぞれの現実空間画像から検出した特徴点に係る情報(現実空間画像中の特徴点の位置やサイズ、種別等を示す情報)を、複合現実感画像生成部122に送出する。   The captured image feature detection unit 120 performs the following processing on the real space image for the right eye and the real space image for the left eye. That is, feature points (for example, feature quantities such as artificial markers and natural features) are detected from the real space image. Then, the captured image feature detection unit 120 includes information on the feature points detected from each of the real space images together with the real space image for the right eye and the real space image for the left eye (the position and size of the feature points in the real space image, Information indicating the type) is sent to the mixed reality image generation unit 122.

位置姿勢検出部121は、HMD800側のセンサ部103から送信された位置姿勢情報を受信すると、この受信した位置姿勢情報を後段の複合現実感画像生成部122に送出する。   When the position and orientation detection unit 121 receives the position and orientation information transmitted from the sensor unit 103 on the HMD 800 side, the position and orientation detection unit 121 sends the received position and orientation information to the subsequent mixed reality image generation unit 122.

複合現実感画像生成部122は、撮像画像特徴検出部120から受けた特徴点に係る情報と、位置姿勢検出部121から受けた位置姿勢情報とを用いて、この位置姿勢情報を補正し、より精度の高い位置姿勢情報を生成する。係る技術については周知の技術であるので、これについての説明は省略する。なお、ここで求める位置姿勢情報は、左目用の位置姿勢情報と、右目用の位置姿勢情報とがあり、それぞれは、センサ部103と撮像部101L、101Rのそれぞれとの位置姿勢関係を、補正後の位置姿勢情報に加えれば求めることができる。これについても周知の技術であるので、これについての説明は省略する。   The mixed reality image generation unit 122 corrects the position and orientation information by using the information related to the feature points received from the captured image feature detection unit 120 and the position and orientation information received from the position and orientation detection unit 121, and more. Highly accurate position and orientation information is generated. Since this technique is a well-known technique, a description thereof will be omitted. Note that the position and orientation information obtained here includes left-eye position and orientation information and right-eye position and orientation information, and each corrects the position and orientation relationship between the sensor unit 103 and the imaging units 101L and 101R. It can be obtained by adding to the subsequent position and orientation information. Since this is also a well-known technique, a description thereof will be omitted.

そして複合現実感画像生成部122は、このようにして補正した位置姿勢情報を用いて、この位置姿勢情報が示す位置姿勢を有する視点から見た仮想空間の画像を生成する。より詳しくは、右目用の位置姿勢情報を用いて、この位置姿勢情報が示す位置姿勢を有する視点(右目)から見た仮想空間の画像を、右目用の仮想空間画像として生成する。また、左目用の位置姿勢情報を用いて、この位置姿勢情報が示す位置姿勢を有する視点(左目)から見た仮想空間の画像を、左目用の仮想空間画像として生成する。もちろん、この仮想空間中には、予め様々な仮想物体が配置されているものとする。   The mixed reality image generation unit 122 generates an image of the virtual space viewed from the viewpoint having the position and orientation indicated by the position and orientation information, using the position and orientation information corrected in this way. More specifically, using the right-eye position and orientation information, a virtual space image viewed from the viewpoint (right eye) having the position and orientation indicated by the position and orientation information is generated as the right-eye virtual space image. Further, using the position and orientation information for the left eye, an image of the virtual space viewed from the viewpoint (left eye) having the position and orientation indicated by the position and orientation information is generated as the virtual space image for the left eye. Of course, it is assumed that various virtual objects are arranged in advance in this virtual space.

そして複合現実感画像生成部122は、撮像画像特徴検出部120から受けた右目用の現実空間画像と、生成した右目用の仮想空間画像とを合成し、右目用の複合現実空間画像を生成する。また複合現実感画像生成部122は、撮像画像特徴検出部120から受けた左目用の現実空間画像と、生成した左目用の仮想空間画像とを合成し、左目用の複合現実空間画像を生成する。なお、現実空間画像と仮想空間画像とを合成して複合現実空間画像を生成するための技術については様々なものがあり、本実施形態では何れの技術を用いても良い。   The mixed reality image generation unit 122 combines the right-eye real space image received from the captured image feature detection unit 120 and the generated right-eye virtual space image to generate a right-eye mixed reality space image. . The mixed reality image generation unit 122 combines the left-eye real space image received from the captured image feature detection unit 120 and the generated left-eye virtual space image to generate a left-eye mixed reality space image. . There are various techniques for generating a mixed reality space image by combining a real space image and a virtual space image, and any technique may be used in the present embodiment.

そして複合現実感画像生成部122は、このようにして生成した左目用の複合現実空間画像、右目用の複合現実空間画像を、複合現実感画像送信部154に送出する。複合現実感画像送信部154は、複合現実感画像生成部122から受けた右目用の複合現実空間画像、左目用の複合現実空間画像を、それぞれ右目用画像、左目用画像としてHMD800に対して送出する。   Then, the mixed reality image generation unit 122 sends the mixed reality space image for the left eye and the mixed reality space image for the right eye generated in this way to the mixed reality image transmission unit 154. The mixed reality image transmission unit 154 transmits the mixed reality space image for the right eye and the mixed reality space image for the left eye received from the mixed reality image generation unit 122 to the HMD 800 as a right eye image and a left eye image, respectively. To do.

なお、複合現実感画像生成部122が複合現実空間画像を生成せずに右目用、左目用の現実空間画像を複合現実感画像送信部154に送出し、複合現実感画像送信部154がそれぞれの現実空間画像をHMD800に送出することもある。これは画像処理装置900側の設定の切替等によって実現するものである。以下の説明において、画像処理装置900からHMD800に複合現実空間画像を送信する処理は、画像処理装置900からHMD800に現実空間画像を送信する処理をも指し示しているものとする。   Note that the mixed reality image generation unit 122 does not generate the mixed reality space image, but transmits the real space images for the right eye and the left eye to the mixed reality image transmission unit 154. The mixed reality image transmission unit 154 A real space image may be sent to the HMD 800. This is realized by switching settings on the image processing apparatus 900 side. In the following description, the process of transmitting the mixed reality space image from the image processing apparatus 900 to the HMD 800 also indicates the process of transmitting the reality space image from the image processing apparatus 900 to the HMD 800.

ここで、画像処理装置900が実行していた複合現実感提示アプリケーション(複合現実感画像の生成、送信を行うアプリケーション)を終了したり、システムの設定画面(操作画面)に移行したとする。この場合、画像処理装置900(複合現実感画像送信部154)からは、この時の動作画面の画面情報がHMD800に対して送信されることになる。この画面情報は上述の通り、表示部102Rに表示する領域、表示部102Lに表示する領域、から成り、表示部102L、102Rのそれぞれの表示画面の両画面全体に渡って表示されるものである。   Here, it is assumed that the mixed reality presentation application (application for generating and transmitting a mixed reality image) executed by the image processing apparatus 900 is terminated or the system setting screen (operation screen) is shifted to. In this case, the screen information of the operation screen at this time is transmitted from the image processing device 900 (mixed reality image transmission unit 154) to the HMD 800. As described above, this screen information includes an area displayed on the display unit 102R and an area displayed on the display unit 102L, and is displayed over the entire display screen of each of the display units 102L and 102R. .

何れにせよ、画像処理装置900からHMD800に対して送信される情報は、表示部102L、102Rのそれぞれに表示する画像情報(左目用画像、右目用画像)であり、その画像情報は、複合現実感画像であったり、画面情報であったりする。   In any case, information transmitted from the image processing apparatus 900 to the HMD 800 is image information (left-eye image and right-eye image) displayed on each of the display units 102L and 102R, and the image information is mixed reality. It may be a feeling image or screen information.

以上説明したHMD800、画像処理装置900により、HMD800を頭部に装着したユーザは、自身の動きに応じた複合現実空間画像を観察することができる。なお、本実施形態では、1台の画像処理装置900で、右目用画像、左目用画像を生成する。しかし、右目用画像を生成するための画像処理装置と、左目用画像を生成するための画像処理装置と、を画像処理装置900の代わりに用いても良い。その場合、HMD800には、この2台の画像処理装置が接続されることになり、それぞれの画像処理装置は、生成した画像をHMD800に送信することになる。   With the HMD 800 and the image processing apparatus 900 described above, a user wearing the HMD 800 on the head can observe a mixed reality space image according to his / her movement. In the present embodiment, a single image processing apparatus 900 generates a right-eye image and a left-eye image. However, an image processing device for generating a right-eye image and an image processing device for generating a left-eye image may be used instead of the image processing device 900. In this case, the two image processing apparatuses are connected to the HMD 800, and each image processing apparatus transmits the generated image to the HMD 800.

次に、表示装置30について説明する。表示装置30は、CRTや液晶画面などにより構成されており、HMD800を装着していない他のユーザが観察可能なように配置されたもので、HMD800から送信された画像信号に基づく画像を表示する。即ち、表示装置30は、HMD800を装着していない観衆に対して設けられたものである。ここにHMD800の表示部102L及び又は表示部102Rに表示される画像と同じ画像を表示する事で、観衆はHMD装着者が見ている画像と同じ画像を見る事ができ、HMD装着者の複合現実感体験を共有することができる。なお、表示装置30は、HMD800の装着者以外の観衆への画像提供のために用いられると共に、画像処理装置900が生成する画面情報を表示するためにも用いられる。   Next, the display device 30 will be described. The display device 30 is configured by a CRT, a liquid crystal screen, or the like, and is arranged so that other users who are not wearing the HMD 800 can observe, and displays an image based on an image signal transmitted from the HMD 800. . That is, the display device 30 is provided for an audience not wearing the HMD 800. By displaying the same image as the image displayed on the display unit 102L and / or the display unit 102R of the HMD 800, the audience can see the same image as the image viewed by the HMD wearer. Share a real-life experience. The display device 30 is used for providing images to an audience other than the wearer of the HMD 800, and also used for displaying screen information generated by the image processing device 900.

次に、表示装置30への出力対象画像を決定し、決定した画像をこの表示装置30に出力するためにHMD800が行う処理について、図2を用いて説明する。なお、図2には、係る処理以外については触れていない。然るに、以下では、表示装置30に画像を出力するために行う処理以外については触れていない。   Next, processing performed by the HMD 800 to determine an image to be output to the display device 30 and output the determined image to the display device 30 will be described with reference to FIG. Note that FIG. 2 does not touch anything other than such processing. However, in the following, the processing other than the processing performed for outputting an image to the display device 30 is not mentioned.

ユーザは、表示装置30に出力する画像を切り替えたい場合、指示部106を操作し、ON(HMD観察画像表示)、OFF(操作画面表示)の何れかに設定する。ユーザは、表示部102L、102Rに複合現実感画像が表示されていることを確認した場合には、この複合現実空間画像を表示装置30にも表示させるべく、指示部106を用いてONに設定する。一方、ユーザは、表示部102L、102Rに操作画面などの画面情報が表示されていることを確認した場合には、この画面情報を表示装置30にも表示させるべく、指示部106を用いてOFFに設定する。   When the user wants to switch the image to be output to the display device 30, the user operates the instruction unit 106 to set it to either ON (HMD observation image display) or OFF (operation screen display). When the user confirms that the mixed reality image is displayed on the display units 102L and 102R, the instruction unit 106 is set to ON so that the mixed reality space image is also displayed on the display device 30. To do. On the other hand, when the user confirms that screen information such as an operation screen is displayed on the display units 102L and 102R, the instruction unit 106 is used to display the screen information on the display device 30. Set to.

ユーザが指示部106を操作してON、OFFの何れかを設定すると、ステップS500において指示部106は、ユーザによる選択指示(ON、OFFの何れかを示す)を、画像制御部105に送出する。   When the user operates the instruction unit 106 to set ON or OFF, the instruction unit 106 sends a selection instruction (indicating either ON or OFF) by the user to the image control unit 105 in step S500. .

ステップS501では、画像制御部105は、指示部106からの選択指示が、ON、OFFの何れを示しているのかを判断する。係る判断の結果、選択指示がONを示している場合には処理をステップS502に進め、OFFを示している場合には処理をステップS507に進める。ステップS502では、画像制御部105は、次の何れかを表示装置30への出力対象画像とする。   In step S501, the image control unit 105 determines whether the selection instruction from the instruction unit 106 indicates ON or OFF. If it is determined that the selection instruction indicates ON, the process proceeds to step S502. If the selection instruction indicates OFF, the process proceeds to step S507. In step S <b> 502, the image control unit 105 sets one of the following as an output target image to the display device 30.

・ 複合現実感画像受信部151から受けた右目用画像と左目用画像とで重複する部分をオーバーラップさせて結合することで生成される1枚のパノラマ画像
・ 右目用画像、左目用画像の何れか一方
何れを表示装置30への出力対象画像とするかは、指示部106や他の装置からの入力指示に基づいて決定しても良いし、予め決めておき、設定データとしてHMD800が有する不図示のメモリに登録しておいても良い。
A single panoramic image generated by overlapping and combining overlapping portions of the right-eye image and the left-eye image received from the mixed reality image receiving unit 151. Either of the right-eye image or the left-eye image. On the other hand, which of the images to be output to the display device 30 may be determined based on an input instruction from the instruction unit 106 or another device, or may be determined in advance and may be included in the HMD 800 as setting data. It may be registered in the illustrated memory.

そして、パノラマ画像を表示装置30への出力対象画像とする場合は処理をステップS506に進め、右目用画像、左目用画像の何れか一方を表示装置30への出力対象画像とする場合は処理をステップS503に進める。   If the panoramic image is to be output to the display device 30, the process proceeds to step S506. If either the right-eye image or the left-eye image is to be output to the display device 30, the process is performed. The process proceeds to step S503.

ステップS506では画像制御部105は、複合現実感画像受信部151から受けた右目用画像と左目用画像とで重複する部分(重複している画像部分)をオーバーラップさせて結合することで1枚のパノラマ画像を生成する。本ステップにおける処理、即ち、左右1対のステレオ画像からオーバーラップ部を重ねる合成画像生成手法による2次元画像生成処理については周知の技術であるので、これについての説明は省略する。   In step S <b> 506, the image control unit 105 overlaps the overlapping portions (overlapping image portions) of the right-eye image and the left-eye image received from the mixed reality image receiving unit 151, thereby combining one image. Generate a panoramic image. Since the processing in this step, that is, the two-dimensional image generation processing by the composite image generation method in which the overlap portion is overlapped from the pair of left and right stereo images is a well-known technique, description thereof will be omitted.

一方、ステップS503では、画像制御部105は、右目用画像、左目用画像のうち、指示された若しくは予め決められた一方を、表示装置30への出力対象画像として選択する。   On the other hand, in step S <b> 503, the image control unit 105 selects an instructed or predetermined one of the right-eye image and the left-eye image as an output target image to the display device 30.

一方、ステップS507では、画像制御部105は、左目用画像と右目用画像とを左右に水平方向に並べて、オーバーラップ無しに結合することで1枚のパノラマ画像を生成する。係るパノラマ画像の生成では、画像の水平方向及び垂直方向共に画素を間引く、或いは補間して、それぞれの画像を水平方向に並べて不図示の画像メモリに書き込む事で、1枚のパノラマ画像を生成する。もちろん、パノラマ画像の生成方法はこれに限定するものではない。   On the other hand, in step S507, the image control unit 105 generates a single panoramic image by arranging the left-eye image and the right-eye image horizontally in the horizontal direction and combining them without overlap. In the generation of such a panoramic image, pixels are thinned out or interpolated in both the horizontal direction and the vertical direction of the image, and each panoramic image is arranged in the horizontal direction and written in an image memory (not shown) to generate one panoramic image. . Of course, the method of generating the panoramic image is not limited to this.

次に、ステップS504では、画像制御部105は、ステップS506,S503,S507の何れかで得られた「表示装置30への出力対象画像」の解像度を表示装置30が表示可能な解像度に変更する等、様々な画像調整処理を行う。   Next, in step S504, the image control unit 105 changes the resolution of the “image to be output to the display device 30” obtained in any of steps S506, S503, and S507 to a resolution that the display device 30 can display. Various image adjustment processes are performed.

次に、ステップS505では、画像制御部105は、ステップS504において画像調整が成された画像を、オブジェクト合成部107に入力する。オブジェクト合成部107は、この画像に対して上述のオブジェクトを合成する。そしてオブジェクト合成部107は、係る合成により得られた画像の画像信号を、表示装置30に対して出力する。   In step S <b> 505, the image control unit 105 inputs the image adjusted in step S <b> 504 to the object composition unit 107. The object composition unit 107 composes the above-described object with respect to this image. Then, the object composition unit 107 outputs an image signal of the image obtained by the composition to the display device 30.

次に、表示装置30における表示例について、図3を用いて説明する。図3(a)には、表示装置30に、右目用画像としての右目用の複合現実感画像、左目用画像としての左目用の複合現実空間画像、の何れかを表示する場合における、表示部102L、102R、表示装置30における表示例が示されている。   Next, a display example on the display device 30 will be described with reference to FIG. FIG. 3A shows a display unit when displaying either the right-eye mixed reality image as the right-eye image or the left-eye mixed reality space image as the left-eye image on the display device 30. 102L, 102R, display examples on the display device 30 are shown.

表示部102L、102Rには、それぞれ左目用の複合現実空間画像35、右目用の複合現実感画像36が表示されている。左目用の複合現実空間画像35、右目用の複合現実感画像36には何れも、現実物体としての机200、仮想物体201,202,203、領域620が含まれている。領域620は、オブジェクト合成部107が合成したオブジェクトの領域であり、HMD800の使用に係る情報、例えばHMD800の使用を開始してからの連続使用時間情報を表示するための領域である。領域620の表示位置、表示サイズ、表示タイミング等は予めHMD800に設定しておいても良いし、ユーザ指示などに応じてオブジェクト合成部107が適宜変更しても良い。然るにこの場合、表示装置30には、右目用の複合現実感画像36、左目用の複合現実空間画像35、の何れか一方が表示されることになる。   The display units 102L and 102R display a mixed reality space image 35 for the left eye and a mixed reality image 36 for the right eye, respectively. Each of the mixed reality space image 35 for the left eye and the mixed reality image 36 for the right eye includes a desk 200 as a real object, virtual objects 201, 202, 203, and a region 620. An area 620 is an area of the object synthesized by the object synthesis unit 107, and is an area for displaying information related to the use of the HMD 800, for example, continuous use time information after the use of the HMD 800 is started. The display position, display size, display timing, and the like of the area 620 may be set in the HMD 800 in advance, or may be changed as appropriate by the object composition unit 107 according to a user instruction or the like. In this case, however, either one of the mixed reality image 36 for the right eye and the mixed reality space image 35 for the left eye is displayed on the display device 30.

一方、図3(b)には、表示部102L、102Rのそれぞれに表示されている複合現実空間画像で重複する部分をオーバーラップさせて結合すること1枚のパノラマ画像を生成する処理について示している。表示部102L、102Rにはそれぞれ、左目用の複合現実空間画像37、右目用の複合現実感画像38が表示されており、何れの画像にも現実物体600,601,602,603が含まれてはいるが、それぞれの画像には互いに重複している部分がある。   On the other hand, FIG. 3B shows a process of generating a single panoramic image by overlapping and combining overlapping portions in the mixed reality space images displayed on the display units 102L and 102R. Yes. The display units 102L and 102R respectively display a mixed reality space image 37 for the left eye and a mixed reality image 38 for the right eye, and both images include real objects 600, 601, 602, and 603. Yes, but there are parts of each image that overlap each other.

視野の差、或いは撮像対象の移動により、オーバーラップ領域が完全に一致しない画像に対する合成画像作成装置が、特開平10-178564号公報などに開示されている。画像制御部105は、係る技術と同等の手法により、左目用の複合現実空間画像37と右目用の複合現実感画像38とから、1枚のパノラマ画像611を生成する。そしてこのパノラマ画像611に対してオブジェクトの合成、表示装置30の画面サイズに対する画像サイズ調整処理、等を施すことで、最終的に表示装置30に対して送出する画像130を生成する。   Japanese Patent Application Laid-Open No. 10-178564 discloses a composite image creation apparatus for an image in which an overlap region does not completely match due to a difference in field of view or a movement of an imaging target. The image control unit 105 generates one panoramic image 611 from the mixed reality space image 37 for the left eye and the mixed reality image 38 for the right eye by a technique equivalent to the technique. The panorama image 611 is subjected to object synthesis, image size adjustment processing for the screen size of the display device 30, and the like, thereby generating an image 130 to be finally sent to the display device 30.

なお、本実施形態では、領域620の位置、大きさ、時間、タイミングを予めHMD800に設定するが、位置、大きさを固定とし、オブジェクト合成部107に設けられたスイッチ等により表示の有無を切り替えるようにしても良い。また、領域620内に表示する情報としては他にも、HMD800若しくは本システムの製品ロゴ又は展示会ロゴなどであってもよい。   In the present embodiment, the position, size, time, and timing of the area 620 are set in advance in the HMD 800, but the position and size are fixed, and the presence or absence of display is switched by a switch or the like provided in the object composition unit 107. You may do it. In addition, the information displayed in the area 620 may be a product logo of the HMD 800 or the present system, an exhibition logo, or the like.

次に、表示部102Lの表示画面、表示部102Rの表示画面の両画面に渡って表示される画面情報を、表示装置30に表示する場合について、図4を用いて説明する。表示部102L、102Rの両画面に渡って画面情報(操作画面)が表示されており、表示部102Lの画面内には操作画面の左半分の画像領域480が表示されており、表示部102Rの画面内には操作画面の右半分の画像領域490が表示されている。210と211はそれぞれ、画像処理装置900上で起動している複合現実感アプリケーションウィンドウとその他ウィンドウを示している。複合現実感アプリケーションは、操作画面全域に渡っての複合現実感提示動作中ではなく、諸設定を行う為のウィンドウ画面表示状態となっている。   Next, a case where screen information displayed on both the display screen of the display unit 102L and the display screen of the display unit 102R is displayed on the display device 30 will be described with reference to FIG. Screen information (operation screen) is displayed across both screens of the display units 102L and 102R, and an image area 480 on the left half of the operation screen is displayed in the screen of the display unit 102L. An image area 490 on the right half of the operation screen is displayed in the screen. Reference numerals 210 and 211 respectively denote a mixed reality application window and other windows running on the image processing apparatus 900. The mixed reality application is not in a mixed reality presentation operation over the entire operation screen, but is in a window screen display state for performing various settings.

ユーザが指示部106を用いてOFFを設定すると、画像制御部105は画像領域480(左目用画像)と画像領域490(右目用画像)とを左右に並べて結合することで、1枚のパノラマ画像701を生成する。   When the user sets OFF using the instruction unit 106, the image control unit 105 combines the image region 480 (left eye image) and the image region 490 (right eye image) side by side to form one panoramic image. 701 is generated.

図4の3段目の左側には、パノラマ画像701のアスペクト比を保持した場合の表示装置30における表示例を示している。図4の3段目の右側には、パノラマ画像701のアスペクト比を保持していない場合の表示装置30における表示例を示している。図4の4段目には、パノラマ画像701の解像度を変更せず、パノラマ画像701全体のうち表示装置30が表示可能な一部領域を表示した場合における表示例を示している。表示領域の設定に関しては、HMD800で設定しても良いし、周辺機器により設定しても良い。このように、パノラマ画像701の表示方法については適宜切り替えても良い。   The left side of the third row in FIG. 4 shows a display example on the display device 30 when the aspect ratio of the panoramic image 701 is maintained. The right side of the third row in FIG. 4 shows a display example on the display device 30 when the aspect ratio of the panoramic image 701 is not maintained. The fourth row in FIG. 4 shows a display example when a partial area that can be displayed by the display device 30 is displayed in the entire panoramic image 701 without changing the resolution of the panoramic image 701. The display area can be set by the HMD 800 or by a peripheral device. Thus, the display method of the panoramic image 701 may be switched as appropriate.

領域710Lには、指示部106によりOFFが設定される直前の左目用画像が表示され、領域710Rには、指示部106によりOFFが設定される直前の右目用画像が表示される。もちろん、同様の内容を示す情報であれば、他の情報を代わりに表示しても良い。   In the area 710L, the left-eye image immediately before being set OFF by the instruction unit 106 is displayed, and in the area 710R, the right-eye image immediately before being set OFF by the instruction unit 106 is displayed. Of course, other information may be displayed instead as long as the information shows the same contents.

従来、表示装置に画像処理装置の操作画像を表示する時に、表示装置には左目画像と右目画像のどちらか一つしか表示できなかった為、表示装置には画像処理装置の操作画像の片側しか表示されず、画像処理装置の操作が煩わしかった。しかし、本実施形態によれば、表示装置には画像処理装置の操作画像全体が表示できる為、操作性が向上する。   Conventionally, when displaying the operation image of the image processing device on the display device, only one of the left-eye image and the right-eye image can be displayed on the display device. It was not displayed, and the operation of the image processing apparatus was troublesome. However, according to the present embodiment, since the entire operation image of the image processing apparatus can be displayed on the display device, the operability is improved.

[第2の実施形態]
本実施形態では、指示部106の代わりに使用状態判定部108を用いて、オブジェクト合成部107に送出する画像を切り替える。然るに、本実施形態に係るシステムは図5に示す如く、指示部106の代わりに使用状態判定部108を用いている以外は、第1の実施形態と同じである。
[Second Embodiment]
In this embodiment, the use state determination unit 108 is used instead of the instruction unit 106 to switch the image to be sent to the object composition unit 107. However, the system according to the present embodiment is the same as that of the first embodiment except that the use state determination unit 108 is used instead of the instruction unit 106 as shown in FIG.

図5を用いて、本実施形態に係るシステムについて説明する。使用状態判定部108は、撮像部101L、101Rのうち少なくとも一方により撮像された現実空間画像を用いて、画像中の特徴点の位置の変化を検出し、その検出結果に基づいて、HMD801が現在使用されているか否かを判断する。そしてHMD801が現在使用されていると判断した場合にはHMD観察画像表示を行うものと判断し、使用されていないと判断した場合には操作画面表示を行うものと判断する。以降については第1の実施形態と同様である。   The system according to the present embodiment will be described with reference to FIG. The use state determination unit 108 detects a change in the position of a feature point in the image using a physical space image captured by at least one of the imaging units 101L and 101R, and based on the detection result, the HMD 801 Determine if it is being used. When it is determined that the HMD 801 is currently used, it is determined that the HMD observation image is displayed, and when it is determined that the HMD 801 is not used, it is determined that the operation screen is displayed. The subsequent steps are the same as in the first embodiment.

次に、表示装置30への出力対象画像を決定し、決定した画像をこの表示装置30に出力するためにHMD801が行う処理について、図6を用いて説明する。なお、図6には、係る処理以外については触れていない。然るに、以下では、表示装置30に画像を出力するために行う処理以外については触れていない。   Next, processing performed by the HMD 801 to determine an image to be output to the display device 30 and output the determined image to the display device 30 will be described with reference to FIG. Note that FIG. 6 does not touch anything other than this processing. However, in the following, the processing other than the processing performed for outputting an image to the display device 30 is not mentioned.

HMD801を起動すると制御部100は先ずステップS900において、HMDステータスの初期化処理、即ち、HMDステータスを「不使用」に設定する。ここで、HMDステータスとは、HMD801が使用されているか否かを示す変数である。   When the HMD 801 is activated, the control unit 100 first sets an HMD status initialization process, that is, sets the HMD status to “not used” in step S900. Here, the HMD status is a variable indicating whether or not the HMD 801 is used.

次に、ステップS901では、使用状態判定部108は、撮像部101L、101Rの何れか一方により撮像された現実空間画像を用いて、HMD801が現在使用されているか否かを判断する。なお、係る判断は、撮像部101L、101Rの両方による現実空間画像を用いても良く、その場合、両方の画像に対して同じ判定結果が出たときのみその判定結果を採用するものとする。   Next, in step S901, the use state determination unit 108 determines whether or not the HMD 801 is currently used using a real space image captured by either one of the imaging units 101L and 101R. Note that this determination may use real space images from both the imaging units 101L and 101R, and in that case, the determination result is adopted only when the same determination result is obtained for both images.

そして使用状態判定部108は、判定した結果を、HMDステータスに反映させる。即ち、HMD801が使用されていると判断した場合にはHMDステータスを「使用中」に変更するし、HMD801が使用されていないと判断した場合にはHMDステータスを「不使用」に更新する。ステップS901における処理の詳細については、図7を用いて後述する。なお、HMDの使用開始時、若しくは使用中断時以外は、HMDステータスの変更はない。   Then, the use state determination unit 108 reflects the determination result in the HMD status. That is, when it is determined that the HMD 801 is used, the HMD status is changed to “in use”, and when it is determined that the HMD 801 is not used, the HMD status is updated to “not used”. Details of the processing in step S901 will be described later with reference to FIG. It should be noted that there is no change in the HMD status except when the use of the HMD is started or when the use is interrupted.

次に、ステップS902において使用状態判定部108は、ステップS901における処理でHMDステータスが変更されたか否かを判断する。係る判断の結果、変更されている場合には処理はステップS903に進み、変更されていない場合には処理はステップS904に進む。   Next, in step S902, the use state determination unit 108 determines whether or not the HMD status has been changed in the process in step S901. As a result of the determination, if it has been changed, the process proceeds to step S903, and if it has not been changed, the process proceeds to step S904.

ステップS903において使用状態判定部108は、変更されたHMDステータスが「使用中」であるのか「不使用」であるのかを判断する。係る判断の結果、「使用中」である場合には処理はステップS502に進み、「不使用」である場合には処理はステップS507に進む。ここでは説明上、新たに表示装置30に画像を出力しない限り、表示装置30の表示状態は変わらないものとする。そしてシステムの終了指示が入力されたり、システムの終了条件が満たされたりしない限りは、処理はステップS904を介してステップS901に戻る。   In step S <b> 903, the use state determination unit 108 determines whether the changed HMD status is “in use” or “not in use”. As a result of the determination, if it is “in use”, the process proceeds to step S502, and if it is “not used”, the process proceeds to step S507. Here, for the sake of explanation, it is assumed that the display state of the display device 30 does not change unless an image is newly output to the display device 30. As long as the system termination instruction is not input or the system termination condition is not satisfied, the process returns to step S901 via step S904.

次に、上記ステップS901におけるHMD801の使用状態判定処理の詳細について、図7を用いて説明する。本実施形態では、HMD801が使用されているか否かを判断するために、複合現実感提示の際の位置合わせに用いられる現実空間画像内の特徴点(特徴量)、特に人為的特徴であるマーカを使用する。然るに、本実施形態では、撮像部101L,101Rによる撮像空間内には、複数個のマーカが配されているものとする。もちろん、特徴点は、人為的に配されたマーカに限定するものではなく、現実物体の角や辺など、自然特徴を用いても良い。   Next, details of the use state determination process of the HMD 801 in step S901 will be described with reference to FIG. In the present embodiment, in order to determine whether or not the HMD 801 is used, feature points (features) in the real space image used for alignment in the mixed reality presentation, particularly markers that are artificial features Is used. However, in the present embodiment, it is assumed that a plurality of markers are arranged in the imaging space by the imaging units 101L and 101R. Of course, the feature points are not limited to artificially arranged markers, and natural features such as corners and sides of real objects may be used.

先ずステップS1000において使用状態判定部108は、撮像部101L,101Rのうち少なくとも一方により撮像された現実空間画像を取得する。次にステップS1001では使用状態判定部108は、ステップS1000において取得した現実空間画像から、マーカを検出する。   First, in step S1000, the use state determination unit 108 acquires a real space image captured by at least one of the imaging units 101L and 101R. Next, in step S1001, the use state determination unit 108 detects a marker from the real space image acquired in step S1000.

次に、ステップS1002では使用状態判定部108は、ステップS1001で1以上のマーカを検出したか否かを判断する。係る判断の結果、1以上のマーカを検出した場合には、処理はステップS1003に進み、マーカを検出することができなかった場合には、処理はステップS1008に進む。   Next, in step S1002, the use state determination unit 108 determines whether one or more markers have been detected in step S1001. As a result of the determination, if one or more markers are detected, the process proceeds to step S1003. If no marker can be detected, the process proceeds to step S1008.

ステップS1008では使用状態判定部108は、前回マーカを検出してから所定時間(例えば3秒)が経過したか否かを判断する。即ち、過去のフレームにおいて最後にマーカを検出してから所定時間以上経過したか否かを判断する。時間の計時は、使用状態判定部108が行っても良いし、制御部100が行っても良い。   In step S1008, the use state determination unit 108 determines whether or not a predetermined time (for example, 3 seconds) has elapsed since the previous marker was detected. That is, it is determined whether or not a predetermined time has elapsed since the last marker was detected in the past frame. The time measurement may be performed by the use state determination unit 108 or the control unit 100.

係る判断の結果、マーカ未検出状態が所定時間以上続いた場合には処理はステップS1009に進み、マーカ未検出状態がまだ所定時間以上続いていない場合には、HMDステータスは変更されることなく、ステップS901における処理は完了する。   As a result of the determination, if the marker undetected state continues for a predetermined time or more, the process proceeds to step S1009. If the marker undetected state does not continue for the predetermined time or longer, the HMD status is not changed. The process in step S901 is completed.

ステップS1009では使用状態判定部108は、HMDステータスを「不使用」に変更し、その後、ステップS901における処理を完了する。一方、ステップS1003では使用状態判定部108は、ステップS1001で検出したマーカの位置(代表位置)を求める。代表位置としては、マーカの中心座標位置を用いる。   In step S1009, the use state determination unit 108 changes the HMD status to “not used”, and then completes the process in step S901. On the other hand, in step S1003, the use state determination unit 108 obtains the position (representative position) of the marker detected in step S1001. As the representative position, the center coordinate position of the marker is used.

次にステップS1004では使用状態判定部108は、現フレームにおける着目マーカの代表位置が、1つ前のフレームにおける着目マーカの代表位置を中心とする閾値エリア内に位置しているか否かを判断する処理を、検出した全てのマーカについて行う。換言すれば、1つ前のフレームにおける着目マーカの代表位置と、現フレームにおける着目マーカの代表位置との差分(距離)が閾値以下であるか否かを判断する処理を、検出した全てのマーカについて行う。係る判断の結果、全てのマーカ若しくは所定数以上のマーカについて差分が閾値よりも大きい場合には処理はステップS1010に進み、差分が閾値以下である場合には処理はステップS1005に進む。   In step S <b> 1004, the use state determination unit 108 determines whether the representative position of the target marker in the current frame is within a threshold area centered on the representative position of the target marker in the previous frame. Processing is performed for all detected markers. In other words, all the detected markers are processed by determining whether the difference (distance) between the representative position of the target marker in the previous frame and the representative position of the target marker in the current frame is equal to or less than a threshold value. Do about. As a result of the determination, if the difference is greater than the threshold value for all markers or a predetermined number of markers or more, the process proceeds to step S1010, and if the difference is equal to or less than the threshold value, the process proceeds to step S1005.

ステップS1005で使用状態判定部108は、全てのマーカ若しくは所定数以上のマーカについて、現フレーム中の代表位置が直前フレーム中の代表位置を中心とする閾値エリア内に連続して位置している時間が所定時間(例えば3秒)以上か否かを判断する。換言すれば、全てのマーカ若しくは所定数以上のマーカについて、上記差分が閾値以下であると連続して判断された時間が所定時間以上であるか否かを判断する。係る判断の結果、上記差分が閾値以下であると連続して判断された時間が所定時間以上である場合には処理はステップS1009に進み、上記差分が閾値以下であると連続して判断された時間が所定時間よりも短い場合には処理はステップS1006に進む。   In step S <b> 1005, the use state determination unit 108 determines whether the representative position in the current frame is continuously located within the threshold area centered on the representative position in the immediately preceding frame for all markers or a predetermined number of markers or more. Is determined for a predetermined time (for example, 3 seconds) or more. In other words, for all markers or a predetermined number of markers or more, it is determined whether or not the time continuously determined that the difference is equal to or less than a threshold is equal to or longer than a predetermined time. As a result of the determination, if the time continuously determined that the difference is equal to or less than the threshold is equal to or longer than the predetermined time, the process proceeds to step S1009, and it is determined that the difference is equal to or less than the threshold. If the time is shorter than the predetermined time, the process proceeds to step S1006.

ステップS1006で使用状態判定部108は、ステップS1001で検出したそれぞれのマーカについて、閾値エリアの位置、サイズを示す閾値エリア情報(移動閾値領域)を求める。そしてステップS1007において使用状態判定部108は、それぞれのマーカについて求めた閾値エリア情報を、次のフレームで用いるために保持する。   In step S1006, the use state determination unit 108 obtains threshold area information (movement threshold area) indicating the position and size of the threshold area for each marker detected in step S1001. In step S1007, the use state determination unit 108 retains the threshold area information obtained for each marker for use in the next frame.

ステップS1010で使用状態判定部108は、全てのマーカ若しくは所定数以上のマーカについて、現フレーム中の代表位置が直前フレーム中の代表位置を中心とする閾値エリア外に連続して位置している時間が所定時間(例えば2秒)以上か否かを判断する。係る判断の結果、連続して位置している時間が所定時間以上である場合には処理はステップS1011に進み、連続して位置している時間が所定時間よりも短い場合には処理はステップS1006に進む。ステップS1011では使用状態判定部108は、HMDステータスを「使用中」に更新する。   In step S1010, the use state determination unit 108 determines whether the representative position in the current frame is continuously outside the threshold area centered on the representative position in the immediately preceding frame for all markers or a predetermined number of markers or more. Is determined over a predetermined time (for example, 2 seconds). As a result of the determination, if the time of continuous positioning is equal to or longer than the predetermined time, the process proceeds to step S1011. If the time of continuous positioning is shorter than the predetermined time, the process proceeds to step S1006. Proceed to In step S1011, the use state determination unit 108 updates the HMD status to “in use”.

なお本実施形態では、フレーム間での画像内の動きをマーカの代表位置の変化に基づいて求めたが、マーカを用いることに限定するものではなく、フレーム間で画素単位の画素値(輝度値等)比較処理を行うことでフレーム間の動き量を求めるようにしても良い。   In this embodiment, the movement in the image between frames is obtained based on the change in the representative position of the marker. However, the present invention is not limited to the use of the marker. Etc.) The amount of motion between frames may be obtained by performing comparison processing.

また、本実施形態では、マーカの代表位置として、マーカの中心位置を用いたが、これに限定するものではなく、マーカの角の位置や、マーカの中心点と所定の点との組み合わせを代表位置としてもよい。   In this embodiment, the center position of the marker is used as the representative position of the marker. However, the present invention is not limited to this, and the position of the marker corner or a combination of the center point of the marker and a predetermined point is representative. It is good also as a position.

また、本実施形態では、使用状態判定部108は現実空間画像を用いたHMD使用状態判定処理を行っているが、特開2004-258123号公報で開示されている手法と同様に、HMD801の位置姿勢情報を用いたHMD使用状態判定処理を行っても良い。また他にも、この位置姿勢情報の変動量が予め設定した範囲内に収まる場合にはHMD801は不使用と判断し、超える場合にはHMD801は使用中と判断してもよい。   In the present embodiment, the use state determination unit 108 performs the HMD use state determination process using the real space image, but the position of the HMD 801 is similar to the method disclosed in Japanese Patent Application Laid-Open No. 2004-258123. An HMD usage state determination process using posture information may be performed. In addition, the HMD 801 may be determined not to be used when the fluctuation amount of the position / orientation information falls within a preset range, and the HMD 801 may be determined to be in use when it exceeds the variation amount.

また、ユーザがHMD801を専用のホルダやフックに保持させたことを、HMD801の位置姿勢情報を用いた方法などによって検知し、保持させている場合はHMD801の使用状態は「不使用」、保持させていない場合には「使用中」と判断しても良い。   In addition, when the user holds the HMD 801 on a dedicated holder or hook by a method using the position and orientation information of the HMD 801 and the like, the usage state of the HMD 801 is “not used”. If not, it may be determined as “in use”.

以上の説明により、本実施形態によれば、HMD801の使用状態に基づいて表示装置30への出力画像を切り替えるので、HMD801を使用する際の一連の条件に基づき、自動的に表示装置30における表示画像を使用方法に合わせて切り替える事ができる。   As described above, according to the present embodiment, since the output image to the display device 30 is switched based on the usage state of the HMD 801, the display on the display device 30 is automatically performed based on a series of conditions when the HMD 801 is used. Images can be switched according to the usage.

[第3の実施形態]
本実施形態では、HMDの連続使用によるHMD装着者の疲労を抑止するため、HMDの連続使用時間に基づいて、複合現実空間画像の提示を制御する。複合現実空間画像の提示制御としては、HMDの連続使用時間が所定時間以上経過したら、複合現実感画像の提示を中断し、操作画面等、複合現実空間画像以外の画像を提示する。
[Third Embodiment]
In this embodiment, in order to suppress fatigue of the HMD wearer due to continuous use of the HMD, presentation of the mixed reality space image is controlled based on the continuous use time of the HMD. As the presentation control of the mixed reality space image, when the continuous use time of the HMD elapses for a predetermined time or more, the presentation of the mixed reality image is interrupted and an image other than the mixed reality space image such as an operation screen is presented.

図8を用いて、本実施形態に係るシステムについて説明する。タイマ109は、HMD802の連続使用時間を計時しており、制御部100は、タイマ109が計時している時間を監視している。なお、HMD802の連続使用時間の取得方法には様々な方法がある。例えば、第2の実施形態のように、HMDステータスが連続して「使用中」である時間を連続使用時間としても良いし、画像処理装置901から複合現実空間画像を連続して送信している時間を連続使用時間としても良い。   The system according to the present embodiment will be described with reference to FIG. The timer 109 measures the continuous use time of the HMD 802, and the control unit 100 monitors the time that the timer 109 is timing. There are various methods for obtaining the continuous use time of the HMD 802. For example, as in the second embodiment, the time when the HMD status is continuously “in use” may be set as the continuous use time, or the mixed reality space image is continuously transmitted from the image processing apparatus 901. It is good also considering time as continuous use time.

制御部100は、タイマ109により計時された時間の長さが所定の時間以上となった場合には、画像処理装置901側からの複合現実空間画像の送信を停止させるための指示(停止指示)を、制御信号送信部155を介して画像処理装置901に送信する。更に制御部100は、タイマ109により計時された時間の長さが所定の時間以上となった場合には、その旨をHMDオブジェクト合成部110に通知する。   The control unit 100 instructs to stop transmission of the mixed reality space image from the image processing device 901 side (stop instruction) when the length of time counted by the timer 109 becomes equal to or longer than a predetermined time. Is transmitted to the image processing apparatus 901 via the control signal transmission unit 155. Furthermore, when the length of time counted by the timer 109 exceeds a predetermined time, the control unit 100 notifies the HMD object composition unit 110 to that effect.

制御信号受信部156は、HMD802から停止指示を受信すると、複合現実感画像生成部122に対して複合現実空間画像の代わりに画面情報を送信させる。HMDオブジェクト合成部110は、複合現実感画像受信部151から受けた左目用画像、右目用画像をそれぞれ、表示部102L、102Rに送出する。ここでHMDオブジェクト合成部110は、制御部100から「連続使用時間の長さが所定の時間以上」である旨を通知された場合には、左目用画像、右目用画像の少なくとも一方に、まもなくHMD体験を終了する及び休憩を促す旨のオブジェクトを重畳する。   When receiving a stop instruction from the HMD 802, the control signal receiving unit 156 causes the mixed reality image generation unit 122 to transmit screen information instead of the mixed reality space image. The HMD object composition unit 110 sends the left-eye image and the right-eye image received from the mixed reality image receiving unit 151 to the display units 102L and 102R, respectively. When the HMD object composition unit 110 is notified from the control unit 100 that “the length of continuous use time is equal to or longer than a predetermined time”, the HMD object composition unit 110 will soon add to at least one of the left-eye image and the right-eye image. An object for ending the HMD experience and prompting for a break is superimposed.

本実施形態で、制御信号送信部155と制御信号受信部156を介して要求を行う。しかし、撮像画像送信部150と撮像画像受信部153を介して撮像画像を中断することにより、画像処理装置901側におけるいわゆるオフライン検出によって判定する実施形態の場合も、同様な効果がある。   In the present embodiment, a request is made via the control signal transmission unit 155 and the control signal reception unit 156. However, the same effect can be obtained in the embodiment in which the captured image is interrupted via the captured image transmission unit 150 and the captured image reception unit 153 to determine by so-called offline detection on the image processing apparatus 901 side.

次に、HMD802の動作について説明する。HMD802は通常は、画像処理装置901から送信された左目用の複合現実空間画像、右目用の複合現実空間画像をそれぞれ、表示部102L、102Rに表示するための処理を行っている。係る処理については上記の実施形態でも説明したとおりである。そして係る処理と並行して図9のフローチャートに従った処理を、別のスレッドで実行している。   Next, the operation of the HMD 802 will be described. The HMD 802 normally performs processing for displaying the mixed reality space image for the left eye and the mixed reality space image for the right eye transmitted from the image processing apparatus 901 on the display units 102L and 102R, respectively. Such processing is as described in the above embodiment. In parallel with this process, the process according to the flowchart of FIG. 9 is executed by another thread.

先ず、ステップS1200では、制御部100は、タイマ109による計時時間を監視し、HMD802の連続使用時間が所定時間以上であるか否かを判断する。係る判断の結果、HMD802の連続使用時間が所定時間以上である場合には処理はステップS1201に進み、HMD802の連続使用時間が所定時間未満である場合には処理はステップS1200に戻る。   First, in step S1200, the control unit 100 monitors the time measured by the timer 109 and determines whether or not the continuous use time of the HMD 802 is equal to or longer than a predetermined time. As a result of the determination, if the continuous use time of the HMD 802 is equal to or longer than the predetermined time, the process proceeds to step S1201. If the continuous use time of the HMD 802 is less than the predetermined time, the process returns to step S1200.

ステップS1201では、制御部100は、タイマ109により計時された時間の長さが所定の時間以上となった旨をHMDオブジェクト合成部110に通知する。これを受けて、HMDオブジェクト合成部110は、複合現実感画像受信部151から受けた左目用画像、右目用画像の少なくとも一方に、まもなくHMD体験を終了する及び休憩を促す旨のオブジェクトを重畳する。そしてその後、HMDオブジェクト合成部110は、左目用画像、右目用画像をそれぞれ表示部102L、102Rに送出する。これにより、HMD装着者は、このオブジェクトが示すメッセージを見ることになるので、まもなく複合現実感提示アプリケーションが終了する事を認識する。   In step S1201, the control unit 100 notifies the HMD object composition unit 110 that the length of time counted by the timer 109 has reached a predetermined time. In response to this, the HMD object composition unit 110 superimposes an object for ending the HMD experience and prompting a break on at least one of the left-eye image and the right-eye image received from the mixed reality image receiving unit 151. . Thereafter, the HMD object composition unit 110 transmits the left-eye image and the right-eye image to the display units 102L and 102R, respectively. As a result, the HMD wearer sees the message indicated by this object, and recognizes that the mixed reality presentation application will be terminated soon.

次に、所定時間(例えば10秒)が経過すれば、処理はステップS1202を介してステップS1203に進むし、経過していなければ処理はステップS1202で待機する。ステップS1203では、制御部100は、画像処理装置901側からの複合現実空間画像の送信を停止させるための指示(停止指示)を、制御信号送信部155を介して画像処理装置901に対して送信する。   Next, if a predetermined time (for example, 10 seconds) elapses, the process proceeds to step S1203 via step S1202, and if not elapses, the process waits in step S1202. In step S1203, the control unit 100 transmits an instruction (stop instruction) for stopping transmission of the mixed reality space image from the image processing device 901 side to the image processing device 901 via the control signal transmission unit 155. To do.

ステップS1204では、画像制御部105は、画像処理装置901から送信され、複合現実感画像受信部151が受信した左目用画像と右目用画像とを左右に水平方向に並べて、オーバーラップ無しに結合することで1枚のパノラマ画像を生成する。   In step S1204, the image control unit 105 arranges the left-eye image and the right-eye image, which are transmitted from the image processing device 901 and received by the mixed reality image receiving unit 151, horizontally in the horizontal direction and combine without overlapping. Thus, one panoramic image is generated.

次に、ステップS1205では、画像制御部105は、このパノラマ画像の解像度を、表示装置30が表示可能な解像度に変更する等、様々な画像調整処理を行う。そして画像制御部105は、画像調整が成された画像を、オブジェクト合成部107に入力する。オブジェクト合成部107は、この画像に対して上述のオブジェクトを合成する。そしてオブジェクト合成部107は、係る合成により得られた画像の画像信号を、表示装置30に対して出力する。   In step S1205, the image control unit 105 performs various image adjustment processes such as changing the resolution of the panoramic image to a resolution that can be displayed by the display device 30. Then, the image control unit 105 inputs the image after the image adjustment to the object composition unit 107. The object composition unit 107 composes the above-described object with respect to this image. Then, the object composition unit 107 outputs an image signal of the image obtained by the composition to the display device 30.

以上説明したように、HMD802の連続使用制限処理と、表示装置30への画像出力処理を併用する事で、表示装置30を見ているユーザは、この連続使用時間を確認することができる。そして画像処理装置901は、HMD802の連続使用時間が所定時間以上となった場合には複合現実感画像の送信を止め、操作画面など、複合現実感画像とは別の画面をHMD802に送信する。これにより、次のHMD802の使用に備えた準備や複合現実感提示システムの終了などの操作を速やかに行うことが可能となる。   As described above, by using the continuous use restriction process of the HMD 802 and the image output process to the display device 30, the user viewing the display device 30 can check the continuous use time. When the continuous use time of the HMD 802 reaches a predetermined time or longer, the image processing apparatus 901 stops transmitting the mixed reality image and transmits a screen other than the mixed reality image, such as an operation screen, to the HMD 802. This makes it possible to quickly perform operations such as preparation for the next use of the HMD 802 and termination of the mixed reality presentation system.

Claims (9)

右目用画像、左目用画像を外部の装置から取得する取得手段と、
前記右目用画像を右目用の表示部に表示させると共に、前記左目用画像を左目用の表示部に表示させる手段と、
前記左目用画像と前記右目用画像とを左右に水平に並べて結合することで1枚のパノラマ画像を生成する生成手段と、
前記右目用画像、前記左目用画像、前記パノラマ画像、のうち何れか1つを選択し、選択した画像を外部の表示装置に送信する送信手段と
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring an image for the right eye and an image for the left eye from an external device;
Means for displaying the right-eye image on a display unit for the right eye and displaying the left-eye image on a display unit for the left eye;
Generating means for generating a single panoramic image by combining the left-eye image and the right-eye image side by side horizontally;
An image processing apparatus comprising: a transmission unit that selects any one of the right-eye image, the left-eye image, and the panoramic image, and transmits the selected image to an external display device.
更に、
操作画面の送信、複合現実空間画像の送信の何れかを指示する指示手段を備え、
操作画面の送信を指示した場合、
前記生成手段は、前記左目用画像と前記右目用画像とを左右に水平に並べてオーバーラップ無しに結合することで前記パノラマ画像を生成し、
複合現実空間画像の送信を指示した場合、
前記生成手段は、前記左目用画像と前記右目用画像とで重複する部分をオーバーラップさせて左右に水平に並べて結合することで前記パノラマ画像を生成し、
操作画面の送信、複合現実空間画像の送信、の何れかを指示した場合、
前記送信手段は、前記パノラマ画像を前記外部の表示装置に送信する
ことを特徴とする請求項1に記載の画像処理装置。
Furthermore,
Instructing means for instructing either transmission of the operation screen or transmission of the mixed reality space image,
When instructed to send the operation screen,
The generating unit generates the panoramic image by combining the left-eye image and the right-eye image horizontally and horizontally without combining them,
When instructed to send a mixed reality space image,
The generating means generates the panoramic image by overlapping the left eye image and the right eye image overlapping each other and horizontally combining them,
When instructing either the operation screen transmission or the mixed reality space image transmission,
The image processing apparatus according to claim 1, wherein the transmission unit transmits the panoramic image to the external display device.
前記指示手段は、前記右目用の現実空間画像、左目用の現実空間画像の少なくとも一方を用いて、画像内の特徴量の位置に予め定められた量の変化があったか否かを判断する手段を備え、
予め定められた量の変化があったと判断した場合には、複合現実空間画像の送信を指示し、予め定められた量の変化がなかったと判断した場合には、操作画面の送信を指示することを特徴とする請求項2に記載の画像処理装置。
The instructing means uses at least one of the real space image for the right eye and the real space image for the left eye to determine whether or not a predetermined amount has changed in the position of the feature amount in the image. Prepared,
When it is determined that there has been a change in a predetermined amount, an instruction to transmit a mixed reality space image is given, and when it is determined that there has not been a change in a predetermined amount, an instruction to transmit an operation screen is given. The image processing apparatus according to claim 2.
複合現実空間画像の送信を指示した場合、
前記送信手段は、前記右目用画像、前記左目用画像のうち何れか一方を前記外部の表示装置に送信する
ことを特徴とする請求項2又は3に記載の画像処理装置。
When instructed to send a mixed reality space image,
The image processing apparatus according to claim 2, wherein the transmission unit transmits any one of the right-eye image and the left-eye image to the external display device.
更に、
右目用の現実空間画像、左目用の現実空間画像を取得する手段と、
前記右目用の現実空間画像と前記左目用の現実空間画像とを、前記外部の装置に送信する手段とを備え、
前記取得手段は、前記外部の装置が前記右目用の現実空間画像を用いて生成した右目用の複合現実空間画像、前記左目用の現実空間画像を用いて生成した左目用の複合現実空間画像、をそれぞれ前記右目用画像、前記左目用画像として前記外部の装置から取得する
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
Furthermore,
Means for acquiring a real space image for the right eye and a real space image for the left eye;
Means for transmitting the real space image for the right eye and the real space image for the left eye to the external device;
The acquisition means includes a mixed reality space image for the right eye generated by the external device using the real space image for the right eye, a mixed reality space image for the left eye generated using the real space image for the left eye, The image processing apparatus according to claim 1, wherein the image processing apparatus acquires the image as the right-eye image and the left-eye image from the external apparatus, respectively.
前記取得手段は、前記右目用の表示部の表示画面と前記左目用の表示部の表示画面とにわたって表示される操作画面を、前記外部の装置から取得することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   The acquisition unit acquires, from the external device, an operation screen displayed across the display screen of the right-eye display unit and the display screen of the left-eye display unit. The image processing apparatus according to any one of the above. 前記取得手段は、
前記画像処理装置の連続使用時間を計時する手段と、
前記連続使用時間が所定の時間以上となった場合には、前記右目用の複合現実空間画像、前記左目用の複合現実空間画像、の代わりに、右目用の操作画面、左目用の操作画面の送信を前記外部の装置に対して要求する手段と、
前記要求に応じて前記外部の装置から送信された前記右目用の操作画面、前記左目用の操作画面をそれぞれ、前記右目用画像、前記左目用画像として取得する手段と
を備え、
前記生成手段は、前記右目用の操作画面と前記左目用の操作画面とを左右に水平に並べて結合することで1枚のパノラマ画像を生成し、
前記送信手段は、当該パノラマ画像を前記外部の表示装置に送信する
ことを特徴とする請求項5に記載の画像処理装置。
The acquisition means includes
Means for measuring the continuous use time of the image processing device;
When the continuous use time is equal to or longer than a predetermined time, instead of the mixed reality space image for the right eye and the mixed reality space image for the left eye, an operation screen for the right eye, an operation screen for the left eye Means for requesting said external device for transmission;
Means for acquiring the right-eye operation screen and the left-eye operation screen transmitted from the external device in response to the request as the right-eye image and the left-eye image, respectively.
The generating means generates a single panoramic image by horizontally combining the right-eye operation screen and the left-eye operation screen horizontally and horizontally,
The image processing apparatus according to claim 5, wherein the transmission unit transmits the panoramic image to the external display device.
前記画像処理装置は、頭部装着型表示装置であることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing apparatus is a head-mounted display device. 取得手段が、右目用画像、左目用画像を外部の装置から取得する取得工程と、
表示させる手段が、前記右目用画像を右目用の表示部に表示させると共に、前記左目用画像を左目用の表示部に表示させる工程と、
生成手段が、前記左目用画像と前記右目用画像とを左右に水平に並べて結合することで1枚のパノラマ画像を生成する生成工程と、
送信手段が、前記右目用画像、前記左目用画像、前記パノラマ画像、のうち何れか1つを選択し、選択した画像を外部の表示装置に送信する送信工程と
を備えることを特徴とする画像処理装置が行う画像処理方法。
An acquisition unit that acquires an image for the right eye and an image for the left eye from an external device;
Displaying the right-eye image on the right-eye display unit and displaying the left-eye image on the left-eye display unit;
A generating step for generating a single panoramic image by horizontally combining the left-eye image and the right-eye image side by side;
And a transmission step of selecting one of the right-eye image, the left-eye image, and the panoramic image and transmitting the selected image to an external display device. An image processing method performed by a processing apparatus.
JP2009152868A 2009-06-26 2009-06-26 Image processing apparatus, and image processing method Withdrawn JP2011010126A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009152868A JP2011010126A (en) 2009-06-26 2009-06-26 Image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009152868A JP2011010126A (en) 2009-06-26 2009-06-26 Image processing apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2011010126A true JP2011010126A (en) 2011-01-13

Family

ID=43566255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009152868A Withdrawn JP2011010126A (en) 2009-06-26 2009-06-26 Image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP2011010126A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002347A1 (en) * 2012-06-29 2014-01-03 株式会社ソニー・コンピュータエンタテインメント Video output device, 3d video observation device, video display device, and video output method
JP2017016466A (en) * 2015-07-02 2017-01-19 富士通株式会社 Terminal control method, image generation method, terminal control program, and terminal
WO2017056597A1 (en) * 2015-09-30 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus
WO2017138143A1 (en) * 2016-02-12 2017-08-17 富士通株式会社 Terminal device, method for adjusting screen resolution, display control method, screen resolution adjustment program, and display control program
KR20180010891A (en) * 2016-07-22 2018-01-31 동서대학교산학협력단 360 degree opera imaging providing method by VR devices
JP2018023026A (en) * 2016-08-04 2018-02-08 キヤノン株式会社 Image display system
JP2018099523A (en) * 2013-09-30 2018-06-28 株式会社ソニー・インタラクティブエンタテインメント Method for fading out image of physical object
WO2022123388A1 (en) * 2020-12-11 2022-06-16 株式会社半導体エネルギー研究所 Display system
US11703682B2 (en) 2020-02-20 2023-07-18 Canon Kabushiki Kaisha Apparatus configured to display shared information on plurality of display apparatuses and method thereof

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741168B2 (en) 2012-06-29 2017-08-22 Sony Corporation Video outputting apparatus, three-dimentional video observation device, video presentation system, and video outputting method
JP2014011656A (en) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Video output apparatus, stereoscopic video observation device, video presentation system, and video output method
CN104396237A (en) * 2012-06-29 2015-03-04 索尼电脑娱乐公司 Video output device, 3D video observation device, video display device, and video output method
CN104396237B (en) * 2012-06-29 2016-12-21 索尼电脑娱乐公司 Video output device, 3 D video facilities for observation, video presentation system and picture output method
WO2014002347A1 (en) * 2012-06-29 2014-01-03 株式会社ソニー・コンピュータエンタテインメント Video output device, 3d video observation device, video display device, and video output method
US10532284B2 (en) 2013-09-30 2020-01-14 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP2018099523A (en) * 2013-09-30 2018-06-28 株式会社ソニー・インタラクティブエンタテインメント Method for fading out image of physical object
JP2017016466A (en) * 2015-07-02 2017-01-19 富士通株式会社 Terminal control method, image generation method, terminal control program, and terminal
JPWO2017056597A1 (en) * 2015-09-30 2018-03-01 株式会社ソニー・インタラクティブエンタテインメント Information processing device
CN108140357A (en) * 2015-09-30 2018-06-08 索尼互动娱乐股份有限公司 Information processing unit
WO2017056597A1 (en) * 2015-09-30 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus
US10628113B2 (en) 2015-09-30 2020-04-21 Sony Interactive Entertainment Inc. Information processing apparatus
CN108140357B (en) * 2015-09-30 2021-02-05 索尼互动娱乐股份有限公司 Information processing apparatus
WO2017138143A1 (en) * 2016-02-12 2017-08-17 富士通株式会社 Terminal device, method for adjusting screen resolution, display control method, screen resolution adjustment program, and display control program
JPWO2017138143A1 (en) * 2016-02-12 2018-11-22 富士通株式会社 Terminal device, screen resolution adjustment method, display control method, screen resolution adjustment program, and display control program
KR20180010891A (en) * 2016-07-22 2018-01-31 동서대학교산학협력단 360 degree opera imaging providing method by VR devices
JP2018023026A (en) * 2016-08-04 2018-02-08 キヤノン株式会社 Image display system
US11703682B2 (en) 2020-02-20 2023-07-18 Canon Kabushiki Kaisha Apparatus configured to display shared information on plurality of display apparatuses and method thereof
WO2022123388A1 (en) * 2020-12-11 2022-06-16 株式会社半導体エネルギー研究所 Display system

Similar Documents

Publication Publication Date Title
EP3379525B1 (en) Image processing device and image generation method
JP6572893B2 (en) Information processing apparatus and information processing method, computer program, and image processing system
JP2011010126A (en) Image processing apparatus, and image processing method
JP5113426B2 (en) Head-mounted display device and control method thereof
EP2378781B1 (en) Three-dimensional image display device and three-dimensional image display method
JP2017204674A (en) Imaging device, head-mounted display, information processing system, and information processing method
JP2007052304A (en) Video display system
TW201234838A (en) Stereoscopic display device and control method of stereoscopic display device
JP2010072477A (en) Image display apparatus, image display method, and program
JP2019113849A (en) Information processing apparatus
JP6422584B2 (en) Information processing device
JP2010153983A (en) Projection type video image display apparatus, and method therein
CN109799899B (en) Interaction control method and device, storage medium and computer equipment
JP4708590B2 (en) Mixed reality system, head mounted display device, mixed reality realization method and program
JP6641122B2 (en) Display device, information processing device, and control method therefor
JP6649010B2 (en) Information processing device
JP6618260B2 (en) Information processing apparatus, information processing method, and program
JPWO2012131862A1 (en) Image processing apparatus, stereoscopic image display apparatus, method, and program
JP2011217229A (en) Imaging apparatus and display method
JP2006340017A (en) Device and method for stereoscopic video image display
JP2019032713A (en) Information processing device, information processing method, and program
JP6921204B2 (en) Information processing device and image output method
JP6442619B2 (en) Information processing device
WO2012169221A1 (en) 3d image display device and 3d image display method
CN110709920B (en) Image processing apparatus and control method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120904