JP2021086287A - Information processing system, information processing device, and information processing method - Google Patents

Information processing system, information processing device, and information processing method Download PDF

Info

Publication number
JP2021086287A
JP2021086287A JP2019213348A JP2019213348A JP2021086287A JP 2021086287 A JP2021086287 A JP 2021086287A JP 2019213348 A JP2019213348 A JP 2019213348A JP 2019213348 A JP2019213348 A JP 2019213348A JP 2021086287 A JP2021086287 A JP 2021086287A
Authority
JP
Japan
Prior art keywords
image
display
information processing
user
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019213348A
Other languages
Japanese (ja)
Inventor
敦 ▲濱▼口
敦 ▲濱▼口
Atsushi Hamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019213348A priority Critical patent/JP2021086287A/en
Publication of JP2021086287A publication Critical patent/JP2021086287A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To allow display of a video not giving sense of incongruity to an observer of an external monitor while reducing amount of data transmitted with an HMD.SOLUTION: An information processing system having a head mount display (HMD) and an external monitor is configured to: detect a gazing point of a user of the HMD; cause a display of the HMD to display a display video on the basis of the detected gazing point of the user of the HMD, by thinning out information on the video in a non-gazing region of the user rather than the center of a gazing region; and display the display video without thinning out information on the video corresponding to the gazing point of the user of the HMD on the external monitor.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理装置、及び情報処理方法に関する。 The present invention relates to an information processing system, an information processing device, and an information processing method.

現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルー型HMD(Head Mounted Display:頭部装着型画像表示装置)を利用して、現実世界の映像と仮想世界の映像とを合成した映像をHMD使用者が観察できる技術が知られている。この技術によれば、HMD使用者は、例えば、HMD使用者の瞳位置から観察される被写体と略一致する被写体をビデオカメラ等の撮像装置で撮像した撮像映像にCG(Computer Graphics)映像を重畳表示した映像を観察できる。 Mixed reality, so-called MR (Mixed Reality) technology, is known as a technology for seamlessly fusing the real world and the virtual world in real time. As one of the MR technologies, a video see-through type HMD (Head Mounted Display) can be used by an HMD user to observe a composite image of a real world image and a virtual world image. The technology is known. According to this technique, the HMD user superimposes a CG (Computer Graphics) image on an image captured by an imaging device such as a video camera, for example, a subject that substantially matches the subject observed from the pupil position of the HMD user. You can observe the displayed image.

撮像映像にCG映像を重畳表示させるためには、コンピュータ等の処理装置による計算が必要である。HMDと処理装置との接続は、ケーブルを用いて有線接続するケース(ワイヤード)と、電波を送受信して無線接続するケース(ワイヤレス)がある。MR技術において、リアリティを有する映像を表示させるためには低遅延であることが望ましいが、一般的に有線接続に比して無線接続では通信リソースが限定されるため、無線でやり取りするデータ量を削減することが求められる。視線検出機構により使用者の注視点を検出し、注視領域を高解像度化し、非注視領域を低解像度化することにより、処理負荷やデータ伝送量を低減するフォービエイティッドレンダリング(foveated rendering)という技術がある。 In order to superimpose and display the CG image on the captured image, a calculation by a processing device such as a computer is required. The connection between the HMD and the processing device includes a case of wired connection using a cable (wired) and a case of wireless connection by transmitting and receiving radio waves (wireless). In MR technology, it is desirable to have a low delay in order to display realistic images, but in general, communication resources are limited in wireless connections compared to wired connections, so the amount of data exchanged wirelessly is increased. It is required to reduce. Foveated rendering reduces the processing load and data transmission amount by detecting the user's gaze point with the line-of-sight detection mechanism, increasing the resolution of the gaze area, and lowering the resolution of the non-gaze area. There is technology.

また、特許文献1には、ある一定の伝送容量をもつ伝送路により画像情報を送信者から受信者へ伝送し、受信側で画像表示する画像通信方式において、下記のような技術が提案されている。受信者が画面上の一部分を注視したい場合、受信者の注視点に関する情報を送信側に伝達する。そして、この情報によって受信側に表示する画面上の注視点部分のみを高解像度の画像情報として伝送するとともに、画面上の他の部分については残りの伝送容量内で許容される解像度の画像情報として伝送し表示する。 Further, Patent Document 1 proposes the following techniques in an image communication method in which image information is transmitted from a sender to a receiver by a transmission line having a certain transmission capacity and an image is displayed on the receiving side. There is. When the receiver wants to gaze at a part of the screen, the information about the receiver's gaze point is transmitted to the sender. Then, by this information, only the gaze point portion on the screen displayed on the receiving side is transmitted as high-resolution image information, and the other parts on the screen are used as image information with an allowable resolution within the remaining transmission capacity. Transmit and display.

特開昭53−35313号公報Japanese Unexamined Patent Publication No. 53-35313

HMDの使用者が体験している映像を、液晶ディスプレイ等の外部モニターに出力して、HMD使用者以外にも見せる場合がある。この際、HMDを装着している使用者の注視点に基づき、注視領域を高解像度化し、非注視領域を低解像度化すると、HMDの使用者と外部モニターの観察者が注視している箇所が同じとは限らないため、外部モニターの観察者に違和感を与えることがある。 The image experienced by the HMD user may be output to an external monitor such as a liquid crystal display so that it can be shown to other than the HMD user. At this time, if the gaze area is made high resolution and the non-gaze area is made low resolution based on the gaze point of the user wearing the HMD, the part that the HMD user and the observer of the external monitor are gaze at is Since it is not always the same, it may make the observer of the external monitor feel uncomfortable.

本発明は、HMDとの間で伝送されるデータ量を低減するとともに、外部モニターの観察者に対して違和感のない映像を表示できるようにすることを目的とする。 An object of the present invention is to reduce the amount of data transmitted to and from the HMD, and to enable the observer of the external monitor to display a comfortable image.

本発明に係る情報処理システムは、ヘッドマウントディスプレイ及び表示装置を有する情報処理システムであって、前記ヘッドマウントディスプレイの使用者の注視点を検出する検出手段と、表示映像を、前記検出手段により検出された前記使用者の注視点に基づいて、前記使用者の非注視領域では注視領域の中央よりも映像の情報を間引いて前記ヘッドマウントディスプレイの表示部に表示させる表示制御手段と、前記使用者の注視点に応じた映像の情報の間引きを行わずに前記表示映像を表示する前記表示装置とを有することを特徴とする。 The information processing system according to the present invention is an information processing system having a head-mounted display and a display device, and detects a detection means for detecting a gaze point of a user of the head-mounted display and a display image by the detection means. Based on the gaze point of the user, the display control means for thinning out the image information from the center of the gaze area and displaying it on the display unit of the head-mounted display in the non-gaze area of the user, and the user. It is characterized by having the display device for displaying the display image without thinning out the information of the image according to the gazing point of the above.

本発明によれば、HMDとの間で伝送されるデータ量を低減しつつ、外部モニターの観察者に対して違和感のない映像を表示することが可能となる。 According to the present invention, it is possible to display an image that does not give a sense of discomfort to an observer on an external monitor while reducing the amount of data transmitted to and from the HMD.

第1の実施形態における情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system in 1st Embodiment. 第2の実施形態における情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system in 2nd Embodiment. 本実施形態におけるHMD、情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the HMD and the information processing apparatus in this embodiment.

以下、本発明の実施形態を図面に基づいて説明する。以下に説明する実施形態は一例であり、本発明はこれに限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are examples, and the present invention is not limited thereto.

(第1の実施形態)
本発明の第1の実施形態について説明する。図1は、第1の実施形態における情報処理システムの構成例を示す図である。本実施形態における情報処理システムは、ヘッドマウントディスプレイ(HMD:Head Mounted Display、頭部装着型映像表示装置)110、情報処理装置120、及び外部モニター130を有する。HMD110は、例えばビデオシースルー型のHMDである。また、図1において、140はHMD110を装着している使用者(頭部上方から見た模式図)である。
(First Embodiment)
The first embodiment of the present invention will be described. FIG. 1 is a diagram showing a configuration example of an information processing system according to the first embodiment. The information processing system in the present embodiment includes a head-mounted display (HMD: Head Mounted Display, head-mounted image display device) 110, an information processing device 120, and an external monitor 130. The HMD 110 is, for example, a video see-through type HMD. Further, in FIG. 1, 140 is a user wearing the HMD 110 (schematic view seen from above the head).

図1に示した情報処理システムは一例であり、これに限定されるものではない。例えば、HMD110がネットワークに接続されていて、ネットワーク上に情報処理装置120が存在してもよい。また、情報処理装置120が有する機能の一部又は全部をHMD110が有していてもよく、情報処理装置120がなくても良い。また、情報処理装置120は、ワークステーションやパーソナルコンピュータ、スマートフォンなど、一般的な情報機器すべて適用できる。 The information processing system shown in FIG. 1 is an example, and is not limited thereto. For example, the HMD 110 may be connected to a network, and the information processing device 120 may be present on the network. Further, the HMD 110 may have a part or all of the functions of the information processing device 120, or the information processing device 120 may not be provided. Further, the information processing device 120 can be applied to all general information devices such as workstations, personal computers, and smartphones.

以下、HMD110に実写映像とコンピュータグラフィックス(CG:Computer Graphics)映像とを重畳させた複合現実映像を表示し、使用者が複合現実映像を体験するシステムを例に説明する。ここで、コンピュータグラフィックス映像とは、コンピュータ等の情報処理装置を用いて作成される2次元画像及び3次元画像であり、静止画及び動画が含まれる。また、実写映像とは、ヘッドマウントディスプレイを着用した使用者を取り巻く、現実世界を撮影したリアルタイム映像である。しかし、本発明はこれに限定されるものではなく、例えば、使用者に対して、CG映像、すなわちヴァーチャル映像を表示させるシステムにも適用できる。 Hereinafter, a system in which a mixed reality image in which a live-action image and a computer graphics (CG: Computer Graphics) image are superimposed on the HMD 110 is displayed and the user experiences the mixed reality image will be described as an example. Here, the computer graphics image is a two-dimensional image and a three-dimensional image created by using an information processing device such as a computer, and includes a still image and a moving image. The live-action image is a real-time image of the real world surrounding the user wearing the head-mounted display. However, the present invention is not limited to this, and can be applied to, for example, a system for displaying a CG image, that is, a virtual image to a user.

HMD110は、左眼カメラ111L、右眼カメラ111R、左眼ディスプレイ112L、右眼ディスプレイ112R、左眼視線カメラ113L、及び右眼視線カメラ113Rを有する。また、HMD110は、撮像映像取得部114、撮像映像送信部115、表示映像受信部116、表示制御部117、及び視線情報処理部118を有する。 The HMD 110 includes a left-eye camera 111L, a right-eye camera 111R, a left-eye display 112L, a right-eye display 112R, a left-eye line-of-sight camera 113L, and a right-eye line-of-sight camera 113R. Further, the HMD 110 includes a captured image acquisition unit 114, an captured image transmitting unit 115, a display image receiving unit 116, a display control unit 117, and a line-of-sight information processing unit 118.

左眼カメラ111L及び右眼カメラ111Rは、HMD110を着用した使用者の左右の眼の位置における現実世界の映像(実写映像)を撮影する。左眼ディスプレイ112L及び右眼ディスプレイ112Rは、HMD110を着用した使用者の左右の眼に対する映像を表示する。本実施形態では、左眼ディスプレイ112L及び右眼ディスプレイ112Rは、実写映像とCG映像とを重畳させた複合現実映像を表示する。左眼カメラ111L及び右眼カメラ111Rは撮像手段の一例であり、左眼ディスプレイ112L及び右眼ディスプレイ112Rは表示部の一例である。 The left-eye camera 111L and the right-eye camera 111R capture real-world images (live-action images) at the positions of the left and right eyes of the user wearing the HMD 110. The left-eye display 112L and the right-eye display 112R display images for the left and right eyes of the user wearing the HMD 110. In the present embodiment, the left-eye display 112L and the right-eye display 112R display a mixed reality image in which a live-action image and a CG image are superimposed. The left-eye camera 111L and the right-eye camera 111R are examples of imaging means, and the left-eye display 112L and the right-eye display 112R are examples of display units.

このようにHMD110は、左眼カメラ111Lと右眼カメラ111R、左眼ディスプレイ112Lと右眼ディスプレイ112R、それぞれ左右1つずつ搭載することにより、ステレオ映像を取得・表示できる。しかしながら本実施形態は、ステレオ映像を表示させるシステムに限定されるものではなく、2次元映像を表示させるシステムにも適用することが可能である。図1には図示していないが、左眼ディスプレイ112L及び右眼ディスプレイ112Rに対してレンズ・プリズムを設けて、ディスプレイの映像を拡大して使用者140に対し表示させるようにしても良い。 As described above, the HMD 110 can acquire and display a stereo image by mounting the left-eye camera 111L and the right-eye camera 111R, and the left-eye display 112L and the right-eye display 112R, one on each side. However, the present embodiment is not limited to a system that displays a stereo image, and can be applied to a system that displays a two-dimensional image. Although not shown in FIG. 1, a lens prism may be provided for the left-eye display 112L and the right-eye display 112R so that the image on the display can be enlarged and displayed to the user 140.

左眼視線カメラ113L及び右眼視線カメラ113Rは、左眼ディスプレイ112L及び右眼ディスプレイ112Rを観察している使用者140の左右の眼球像を撮影する。撮影映像取得部114は、左眼カメラ111L及び右眼カメラ111Rにより撮影された撮像映像(実写映像)を取得する。撮影映像送信部115は、撮影映像取得部114により取得された撮像映像(実写映像)を情報処理装置120に対して送信する。 The left-eye line-of-sight camera 113L and the right-eye line-of-sight camera 113R capture the left and right eyeball images of the user 140 observing the left-eye display 112L and the right-eye display 112R. The captured image acquisition unit 114 acquires captured images (live-action images) captured by the left-eye camera 111L and the right-eye camera 111R. The captured image transmission unit 115 transmits the captured image (live-action image) acquired by the photographed image acquisition unit 114 to the information processing device 120.

表示映像受信部116は、情報処理装置120から送信された、実写映像とCG映像とが重畳された表示映像(複合現実映像)を受信する。表示制御部117は、表示映像受信部116により受信された表示映像(複合現実映像)を左眼ディスプレイ112L及び右眼ディスプレイ112Rに表示させる。このとき、表示制御部117は、視線情報処理部118から入力される、使用者140の左右の眼に係る視線情報に基づいて、表示映像(複合現実映像)の表示制御を行う。 The display image receiving unit 116 receives the display image (mixed reality image) in which the live-action image and the CG image are superimposed, which is transmitted from the information processing device 120. The display control unit 117 causes the left-eye display 112L and the right-eye display 112R to display the display image (mixed reality image) received by the display image receiving unit 116. At this time, the display control unit 117 controls the display of the display image (mixed reality image) based on the line-of-sight information related to the left and right eyes of the user 140 input from the line-of-sight information processing unit 118.

情報処理装置120は、撮像映像受信部121、位置合わせ演算部122、CG映像生成部123、映像合成部124、及び重畳映像送信部125を有する。撮像映像受信部121は、HMD110から送信された実写映像を受信し、位置合わせ演算部122及び映像合成部124に転送する。 The information processing device 120 includes an image pickup image reception unit 121, an alignment calculation unit 122, a CG image generation unit 123, an image composition unit 124, and a superimposed image transmission unit 125. The captured image receiving unit 121 receives the live-action image transmitted from the HMD 110 and transfers it to the alignment calculation unit 122 and the image compositing unit 124.

位置合わせ演算部122は、入力される実写映像に基づいて、HMD110のカメラ111L、111Rの位置姿勢を計算する。例えば、位置合わせ用のマーカーを実写映像に映り込ませるようにして、位置合わせ演算部122が、マーカーのサイズ、マーカーの傾きにより位置姿勢を計算する。また、実写映像の左右視差から、ある特定の物体からの位置、傾きを計算するようにしても良い。また、実写映像中のコントラストが高い特徴点を検出して位置姿勢を計算するようにしても良い。位置合わせ演算部122は、計算により得られた位置姿勢情報をCG映像生成部123に出力する。 The alignment calculation unit 122 calculates the position and orientation of the cameras 111L and 111R of the HMD 110 based on the input live-action video. For example, the alignment calculation unit 122 calculates the position and orientation based on the size of the marker and the inclination of the marker so that the marker for alignment is reflected in the live-action image. Further, the position and inclination from a specific object may be calculated from the left-right parallax of the live-action image. Further, the position and orientation may be calculated by detecting a feature point having high contrast in the live-action image. The alignment calculation unit 122 outputs the position / orientation information obtained by the calculation to the CG image generation unit 123.

CG映像生成部123は、情報処理装置120が有する図示しない記憶媒体に蓄積されたCGデータを呼び出し、CG映像を生成する。CG映像生成部123は、位置合わせ演算部122から送られてきたHMD110のカメラ111L、111Rの位置姿勢情報に基づいて、表示すべき適正な向き及び大きさを計算しCG映像を生成する。CG映像生成部123は、例えばGPU(Graphics Processing Unit)及びアプリケーションにより実現される。 The CG image generation unit 123 calls CG data stored in a storage medium (not shown) included in the information processing device 120 to generate a CG image. The CG image generation unit 123 calculates an appropriate orientation and size to be displayed based on the position / orientation information of the cameras 111L and 111R of the HMD 110 sent from the alignment calculation unit 122, and generates a CG image. The CG image generation unit 123 is realized by, for example, a GPU (Graphics Processing Unit) and an application.

映像合成部124は、撮像映像受信部121から入力される実写映像とCG映像生成部123で生成されたCG映像を合成する。この重畳映像は複合現実映像である。映像合成部124により合成された重畳映像(複合現実映像)は、表示映像として重畳映像送信部125及び外部モニター130に出力される。重畳映像送信部125は、実写映像とCG映像とを合成した重畳映像(複合現実映像)をHMD110に対して送信する。なお、位置合わせ演算部122や映像合成部124をGPUにより実現するようにしてもよい。 The image synthesizing unit 124 synthesizes the live-action image input from the captured image receiving unit 121 and the CG image generated by the CG image generating unit 123. This superimposed image is a mixed reality image. The superposed video (mixed reality video) synthesized by the video compositing unit 124 is output to the superposed video transmitting unit 125 and the external monitor 130 as a display video. The superimposed image transmission unit 125 transmits a superimposed image (mixed reality image) obtained by synthesizing a live-action image and a CG image to the HMD 110. The alignment calculation unit 122 and the video compositing unit 124 may be realized by the GPU.

HMD110と情報処理装置120は、有線あるいは無線で接続されている。具体的には、HMD110の撮像映像送信部115から、情報処理装置120の撮像映像受信部121に対して、実写映像が送信される。また、情報処理装置120の重畳映像送信部125から、HMD110の表示映像受信部116に対して、実写映像とCG映像を重畳させた映像、すなわち複合現実映像が送信される。なお、有線あるいは無線の通信データ量を削減するために、データを圧縮して送受信するようにしても良い。すなわち送信部115、125で符号化し、受信部121、116で復号化する機能を設けても良い。 The HMD 110 and the information processing device 120 are connected by wire or wirelessly. Specifically, the live-action video is transmitted from the captured video transmitting unit 115 of the HMD 110 to the captured video receiving unit 121 of the information processing device 120. Further, the superimposed image transmitting unit 125 of the information processing device 120 transmits to the display image receiving unit 116 of the HMD 110 an image in which a live-action image and a CG image are superimposed, that is, a mixed reality image. In addition, in order to reduce the amount of wired or wireless communication data, the data may be compressed and transmitted / received. That is, a function of encoding by the transmitting units 115 and 125 and decoding by the receiving units 121 and 116 may be provided.

外部モニター130は、情報処理装置120の映像合成部124により合成された、実写映像とCG映像を重畳させた重畳映像(複合現実映像)を表示する。外部モニター130は表示装置の一例である。ここで、本実施形態において、外部モニター130に表示される映像は、HMD110の使用者140の注視点によらない映像である。図1では、外部モニター130は、情報処理装置120に接続されているが、それに限定されるものではない。例えば、情報処理装置120がネットワーク上に存在し、外部モニター130がネットワーク接続されていても良い。 The external monitor 130 displays a superposed video (mixed reality video) in which a live-action video and a CG video are superimposed, which is synthesized by the video compositing unit 124 of the information processing device 120. The external monitor 130 is an example of a display device. Here, in the present embodiment, the image displayed on the external monitor 130 is an image that does not depend on the gazing point of the user 140 of the HMD 110. In FIG. 1, the external monitor 130 is connected to the information processing device 120, but is not limited thereto. For example, the information processing device 120 may exist on the network and the external monitor 130 may be connected to the network.

前述したようにHMD110は、使用者140の注視点を検出するための機構として、左眼視線カメラ113L及び右眼視線カメラ113Rを有する。左眼視線カメラ113L及び右眼視線カメラ113Rは、左眼ディスプレイ112L及び右眼ディスプレイ112Rを観察している使用者140の左右の眼球像を撮影している。視線情報処理部118は、左眼視線カメラ113L及び右眼視線カメラ113Rで取得した左右の眼球像から、注視点(視線)を検出している。注視点(視線)を検出する方法としては、例えば眼球像から検出した瞳孔及びプルキニエ像(角膜表面での反射光)を利用して注視点を検出する角膜反射法が考えられるが、これに限定されず、あらゆる視線検出方法が適用可能である。 As described above, the HMD 110 has a left-eye line-of-sight camera 113L and a right-eye line-of-sight camera 113R as a mechanism for detecting the gazing point of the user 140. The left-eye line-of-sight camera 113L and the right-eye line-of-sight camera 113R capture the left and right eyeball images of the user 140 observing the left-eye display 112L and the right-eye display 112R. The line-of-sight information processing unit 118 detects the gazing point (line of sight) from the left and right eyeball images acquired by the left-eye line-of-sight camera 113L and the right-eye line-of-sight camera 113R. As a method for detecting the gazing point (line of sight), for example, a corneal reflex method for detecting the gazing point using the pupil and Purkinje image (reflected light on the corneal surface) detected from the eyeball image can be considered, but the method is limited to this. However, any line-of-sight detection method can be applied.

視線情報処理部118で計算された注視点(視線)情報は、表示制御部117に送信される。表示制御部117は、視線情報処理部118からの注視点(視線)情報に基づいて、表示映像受信部116により受信された複合現実映像に対して画像処理を行う。具体的には、表示制御部117は、複合現実映像の情報の間引きを行うが、この際、非注視領域では間引き量が多くなるように、それに比して注視領域の中央では間引き量が少なくなるようにする。表示制御部117で処理された複合現実映像は、左眼ディスプレイ112L及び右眼ディスプレイ112Rに送信され表示される。 The gaze point (line of sight) information calculated by the line-of-sight information processing unit 118 is transmitted to the display control unit 117. The display control unit 117 performs image processing on the mixed reality image received by the display image receiving unit 116 based on the gazing point (line of sight) information from the line-of-sight information processing unit 118. Specifically, the display control unit 117 thins out the information of the mixed reality image, but at this time, the thinning amount is small in the center of the gaze area so that the thinning amount is large in the non-gaze area. To be. The mixed reality image processed by the display control unit 117 is transmitted to and displayed on the left eye display 112L and the right eye display 112R.

表示制御部117が複合現実映像から間引く情報としては、例えば解像度が挙げられる。この場合、表示制御部117は、使用者140の非注視領域では低解像度の映像にし、注視領域の中央では高解像度の映像になるよう画像処理を行う。視力が1.0の人間であっても、注視点から5°〜10°外れると視力0.1相当にしか見えていないと言われている。したがって、表示させる複合現実映像において、非注視領域を低解像度化しても、HMD110を装着している使用者140にとっては気にならない。このように解像度を間引く方法を、一般的にフォービエイティッドレンダリング(foveated rendering)と呼ぶ。 As the information thinned out from the mixed reality image by the display control unit 117, for example, the resolution can be mentioned. In this case, the display control unit 117 performs image processing so that the non-gaze area of the user 140 is a low-resolution image and the center of the gaze area is a high-resolution image. It is said that even a person with a visual acuity of 1.0 can only see a visual acuity of 0.1 when the distance from the gazing point is 5 ° to 10 °. Therefore, even if the resolution of the non-gaze area is reduced in the mixed reality image to be displayed, the user 140 wearing the HMD 110 does not care. The method of thinning out the resolution in this way is generally called forfeited rendering.

また解像度を間引く際に、注視物体までの距離を算出し、その距離に相当する位置に存在するオブジェクトにはピントを合わせて、注視物体までの距離から外れた位置に存在するオブジェクトにはピントを外すようにすることも考えられる。この場合、裸眼で観察した際と同じような、被写界深度の浅い映像を表示させることが可能となり、使用者がより自然な映像を体験できるようになる。 Also, when thinning out the resolution, the distance to the gaze object is calculated, the object existing at the position corresponding to that distance is focused, and the object located outside the distance to the gaze object is focused. It is also possible to remove it. In this case, it is possible to display an image having a shallow depth of field similar to that when observed with the naked eye, and the user can experience a more natural image.

また、表示制御部117が複合現実映像から間引く情報としては、階調数が挙げられる。この場合、表示制御部117は、使用者140の非注視領域では階調数を少なくし、注視領域の中央では階調数を多くする。解像度と同様に、注視点から外れると、人間の色(階調)に対する感度は落ちるため、このように階調数を制御してもHMD110を装着している使用者140にとっては気にならない。 Further, as the information thinned out from the mixed reality image by the display control unit 117, the number of gradations can be mentioned. In this case, the display control unit 117 reduces the number of gradations in the non-gaze area of the user 140 and increases the number of gradations in the center of the gaze area. As with the resolution, the sensitivity to human color (gradation) decreases when the viewpoint is deviated from the gazing point, so even if the number of gradations is controlled in this way, it does not matter to the user 140 wearing the HMD 110.

また、表示制御部110が複合現実映像から間引く情報として奥行情報や3D情報等も挙げられるが、本発明は前述した例のみに限定されるものではなく、データ量に影響する情報すべてを間引くことが可能である。 Further, the information that the display control unit 110 thins out from the mixed reality image includes depth information, 3D information, and the like, but the present invention is not limited to the above-mentioned example, and all the information that affects the amount of data is thinned out. Is possible.

第1の実施形態によれば、HMD110の使用者140の非注視領域では、注視領域の中央よりも、映像の情報を間引くため、通信データ量や処理負荷を低減することができる。また、外部モニター130には、HMD110の使用者140の注視点に基づく映像の情報の間引きを適用することなく映像を表示させるため、外部モニター130の観察者に対して違和感のない映像を表示することが可能となる。 According to the first embodiment, in the non-gaze area of the user 140 of the HMD 110, the video information is thinned out from the center of the gaze area, so that the amount of communication data and the processing load can be reduced. Further, since the external monitor 130 displays the image without applying the thinning out of the image information based on the gazing point of the user 140 of the HMD 110, the image is displayed without discomfort to the observer of the external monitor 130. It becomes possible.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第2の実施形態における情報処理システムは、HMDには、HMDが有するカメラにより撮影した実写映像を用いた映像を表示し、外部モニターには、事前に3Dスキャナー等の画像入力装置で取得した映像を実写映像として用いた映像を表示する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the information processing system according to the second embodiment, the HMD displays an image using a live-action image taken by the camera of the HMD, and the external monitor displays an image acquired in advance by an image input device such as a 3D scanner. Is displayed as a live-action image.

図2は、第2の実施形態における情報処理システムの構成例を示す図である。図2において、図1に示した構成要素と同一の機能を有する構成要素には同一の符号を付し、重複する説明は省略する。 FIG. 2 is a diagram showing a configuration example of the information processing system according to the second embodiment. In FIG. 2, components having the same functions as the components shown in FIG. 1 are designated by the same reference numerals, and redundant description will be omitted.

本実施形態における情報処理システムは、HMD210、情報処理装置220、外部モニター230、及び画像入力装置250を有する。HMD210は、例えばビデオシースルー型のHMDである。また、図2において、240はHMD210を装着している使用者(頭部上方から見た模式図)である。本変形形態においても、HMD210に実写映像とCG映像とを重畳させた複合現実映像を表示し、使用者が複合現実映像を体験するシステムを例に説明する。 The information processing system in this embodiment includes an HMD 210, an information processing device 220, an external monitor 230, and an image input device 250. The HMD 210 is, for example, a video see-through type HMD. Further, in FIG. 2, 240 is a user wearing the HMD 210 (schematic view seen from above the head). Also in this modified form, a system in which a mixed reality image in which a live-action image and a CG image are superimposed on the HMD 210 is displayed and the user experiences the mixed reality image will be described as an example.

HMD210は、左眼カメラ111L、右眼カメラ111R、左眼ディスプレイ112L、右眼ディスプレイ112R、左眼視線カメラ113L、及び右眼視線カメラ113Rを有する。また、HMD210は、撮像映像取得部114、表示制御部117、視線情報処理部118、位置合わせメタデータ抽出部211、位置合わせメタデータ送信部212、CG映像受信部213、及び映像合成部214を有する。 The HMD 210 includes a left-eye camera 111L, a right-eye camera 111R, a left-eye display 112L, a right-eye display 112R, a left-eye line-of-sight camera 113L, and a right-eye line-of-sight camera 113R. Further, the HMD 210 includes an captured image acquisition unit 114, a display control unit 117, a line-of-sight information processing unit 118, an alignment metadata extraction unit 211, an alignment metadata transmission unit 212, a CG image reception unit 213, and an image synthesis unit 214. Have.

本変形形態では、HMD210で取得した実写映像を情報処理装置220に送信することはせず、情報処理装置220に対しては位置合わせメタデータのみを送信する。位置合わせメタデータ抽出部211は、撮影映像取得部114により取得された撮像映像(実写映像)中の位置合わせメタデータ(特徴点)を抽出する。位置合わせメタデータ送信部212は、位置合わせメタデータ抽出部211により抽出された位置合わせメタデータを情報処理装置220に対して送信する。以下、位置合わせメタデータについて説明する。 In this modification, the live-action video acquired by the HMD 210 is not transmitted to the information processing device 220, but only the alignment metadata is transmitted to the information processing device 220. The alignment metadata extraction unit 211 extracts the alignment metadata (feature points) in the captured image (live-action image) acquired by the captured image acquisition unit 114. The alignment metadata transmission unit 212 transmits the alignment metadata extracted by the alignment metadata extraction unit 211 to the information processing device 220. The alignment metadata will be described below.

実写映像とCG映像とを重畳させて複合現実映像を作成するためには位置合わせが必要である。位置合わせ手法としては、例えば位置合わせ用のマーカーを実写映像に映り込ませるようにして、マーカーのサイズ、マーカーの傾きにより位置姿勢を計算する手法がある。また、例えば実写映像中のコントラストが高い特徴点を検出して位置姿勢を計算する手法がある。これらにおいて、位置合わせメタデータとは、マーカーの特徴点の座標であっても良いし、実写映像(自然画)中のコントラストが高い特徴点の座標であっても良い。また、位置合わせメタデータは、位置姿勢を計算された結果であっても良い。つまり、HMD210と情報処理装置220との間で、映像を通信するとデータ量が多大になる。これを回避するため、位置合わせに必要な情報のみを送信することにより、データ量を削減できる。 Alignment is necessary to create a mixed reality image by superimposing a live-action image and a CG image. As an alignment method, for example, there is a method in which a marker for alignment is reflected in a live-action image, and the position and orientation are calculated based on the size of the marker and the inclination of the marker. Further, for example, there is a method of calculating a position / orientation by detecting a feature point having high contrast in a live-action image. In these, the alignment metadata may be the coordinates of the feature points of the marker, or may be the coordinates of the feature points having high contrast in the live-action image (natural image). Further, the alignment metadata may be the result of calculating the position and orientation. That is, when video is communicated between the HMD 210 and the information processing device 220, the amount of data becomes large. In order to avoid this, the amount of data can be reduced by transmitting only the information necessary for alignment.

CG映像受信部213は、情報処理装置220から送信されたCG映像を受信する。映像合成部214は、撮影映像取得部114により取得された実写映像とCG映像受信部213により受信されたCG映像とを重畳し、複合現実映像を生成する。すなわち、本実施形態においてHMD210では、クロマキー映像が表示されることになる。映像合成部214により生成された複合現実映像は、表示制御部117に出力される。 The CG image receiving unit 213 receives the CG image transmitted from the information processing device 220. The image compositing unit 214 superimposes the live-action image acquired by the captured image acquisition unit 114 and the CG image received by the CG image receiving unit 213 to generate a mixed reality image. That is, in the present embodiment, the chroma key image is displayed on the HMD 210. The mixed reality video generated by the video compositing unit 214 is output to the display control unit 117.

表示制御部117は、視線情報処理部118からの注視点(視線)情報に基づいて、映像合成部214から出力される複合現実映像に対して画像処理を行う。具体的には、複合現実映像の情報の間引きを行うが、この方法については第1の実施形態と同様であるので説明は省略する。このようにしてHMD210では、左眼カメラ111L及び右眼カメラ111Rでそれぞれ撮影した実写映像を、HMD210内でCG映像と重畳した映像が表示される。 The display control unit 117 performs image processing on the mixed reality video output from the video compositing unit 214 based on the gazing point (line of sight) information from the line-of-sight information processing unit 118. Specifically, the information of the mixed reality video is thinned out, but since this method is the same as that of the first embodiment, the description thereof will be omitted. In this way, the HMD 210 displays an image in which the live-action images taken by the left-eye camera 111L and the right-eye camera 111R are superimposed on the CG image in the HMD 210.

また、情報処理装置220は、CG映像生成部123、映像合成部124、位置合わせメタデータ受信部221、位置合わせ演算部222、CG映像送信部223、実写映像生成部224、及び記憶媒体225を有する。位置合わせメタデータ受信部221は、HMD210から送信された位置合わせメタデータを受信し、位置合わせ演算部222に転送する。 Further, the information processing device 220 includes a CG image generation unit 123, an image synthesis unit 124, an alignment metadata reception unit 221, an alignment calculation unit 222, a CG image transmission unit 223, a live-action image generation unit 224, and a storage medium 225. Have. The alignment metadata receiving unit 221 receives the alignment metadata transmitted from the HMD 210 and transfers it to the alignment calculation unit 222.

位置合わせ演算部222は、入力される位置合わせメタデータに基づいて、HMD210のカメラ111L、111Rの位置姿勢を計算する。前述したように、位置合わせメタデータは、マーカーの特徴点であったり、実写映像中のコントラストが高い特徴点であったりする。なお、HMD210内でHMD210の位置姿勢を計算するようにしてもよく、この場合、HMD210の位置姿勢情報がHMD210から情報処理装置220に送信されるとともに、位置合わせ演算部222は不要となる。位置合わせ演算部222は、計算により得られた位置姿勢情報をCG映像生成部123及び実写映像生成部224に出力する。 The alignment calculation unit 222 calculates the position and orientation of the cameras 111L and 111R of the HMD 210 based on the input alignment metadata. As described above, the alignment metadata may be a feature point of a marker or a feature point having high contrast in a live-action image. The position and orientation of the HMD 210 may be calculated in the HMD 210. In this case, the position and orientation information of the HMD 210 is transmitted from the HMD 210 to the information processing apparatus 220, and the alignment calculation unit 222 becomes unnecessary. The alignment calculation unit 222 outputs the position / orientation information obtained by the calculation to the CG image generation unit 123 and the live-action image generation unit 224.

CG映像送信部223は、CG映像生成部123で生成されたCG映像をHMD210に対して送信する。 The CG image transmission unit 223 transmits the CG image generated by the CG image generation unit 123 to the HMD 210.

前述したように本実施形態では、HMD210の使用者に対しては、HMD210が有するカメラ111L、111Rにより撮影された実写映像を用いた複合現実映像を表示する。一方、外部モニター230の観察者に対しては、事前に画像入力装置250で取得した映像を実写映像として用いた複合現実映像を表示する。画像入力装置250としては、例えばデジタルスチルカメラや3Dスキャナー等が考えられるが、それらに限定されない。例えば、デプスセンサーなどを併用しても良い。また、HMDに備わるカメラを用いることもできる。 As described above, in the present embodiment, the mixed reality image using the live-action image taken by the cameras 111L and 111R of the HMD210 is displayed to the user of the HMD210. On the other hand, for the observer of the external monitor 230, a mixed reality image using the image acquired by the image input device 250 in advance as a live-action image is displayed. As the image input device 250, for example, a digital still camera, a 3D scanner, or the like can be considered, but the image input device 250 is not limited thereto. For example, a depth sensor or the like may be used together. It is also possible to use the camera provided in the HMD.

例えば、3Dスキャナーで実写映像を事前に取得する場合、使用者の周囲の現実空間のオブジェクトはすべて3Dデータ化される。また、HMDにステレオカメラが搭載されている場合、ステレオカメラ映像の左右視差から奥行情報が取得できるため、同様に使用者の周囲の現実空間のオブジェクトはすべて3Dデータ化される。 For example, when a live-action image is acquired in advance with a 3D scanner, all objects in the real space around the user are converted into 3D data. Further, when the HMD is equipped with a stereo camera, the depth information can be acquired from the left-right parallax of the stereo camera image, so that all the objects in the real space around the user are similarly converted into 3D data.

本実施形態では、画像入力装置250によって、使用者の周囲の現実空間のオブジェクトはすべて3Dデータ化して情報処理装置220の記憶媒体225に保存する。実写映像生成部224は、記憶媒体244から実写映像の3Dデータを呼び出し、位置合わせ演算部222から送られてきたHMD210のカメラ111L、111Rの位置姿勢情報に基づいて、表示すべき適正な向き及び大きさを計算し実写映像を生成する。実写映像生成部224は、例えばGPUにより実現される。 In the present embodiment, the image input device 250 converts all the objects in the real space around the user into 3D data and stores them in the storage medium 225 of the information processing device 220. The live-action video generation unit 224 calls the 3D data of the live-action video from the storage medium 244, and based on the position / orientation information of the HMD210 cameras 111L and 111R sent from the alignment calculation unit 222, the proper orientation to be displayed and the proper orientation to be displayed. Calculate the size and generate a live-action video. The live-action video generation unit 224 is realized by, for example, a GPU.

映像合成部124は、実写映像生成部224により生成された実写映像とCG映像生成部123で生成されたCG映像を合成して複合現実映像を生成する。映像合成部124により生成された複合現実映像は、外部モニター130により表示される。このようにして本実施形態では、HMD210の使用者250の注視点によらない映像が、外部モニター230に表示される。なお、位置合わせ演算部222や映像合成部124をGPUにより実現するようにしてもよい。 The video compositing unit 124 generates a mixed reality video by synthesizing the live-action video generated by the live-action video generation unit 224 and the CG video generated by the CG video generation unit 123. The mixed reality image generated by the image compositing unit 124 is displayed by the external monitor 130. In this way, in the present embodiment, the image of the user 250 of the HMD 210 that does not depend on the gazing point is displayed on the external monitor 230. The alignment calculation unit 222 and the video compositing unit 124 may be realized by the GPU.

HMD210と情報処理装置220は、有線あるいは無線で接続されている。具体的には、HMD210の位置合わせメタデータ送信部212から、情報処理装置220の位置合わせメタデータ受信部221に対して、位置合わせメタデータが送信される。また、情報処理装置220のCG映像送信部223から、HMD210のCG映像受信部213に対して、CG映像が送信される。なお、有線あるいは無線の通信データ量を削減するために、データを圧縮して送受信するようにしても良い。すなわち送信部212、223で符号化し、受信部221、213で復号化する機能を設けても良い。 The HMD 210 and the information processing device 220 are connected by wire or wirelessly. Specifically, the alignment metadata transmission unit 212 of the HMD 210 transmits the alignment metadata to the alignment metadata reception unit 221 of the information processing device 220. Further, the CG image transmission unit 223 of the information processing device 220 transmits the CG image to the CG image reception unit 213 of the HMD 210. In addition, in order to reduce the amount of wired or wireless communication data, the data may be compressed and transmitted / received. That is, a function of encoding by the transmitting unit 212 and 223 and decoding by the receiving units 221 and 213 may be provided.

第2の実施形態によれば、第1の実施形態と同様に、HMD210の使用者240の非注視領域では、注視領域の中央よりも、映像の情報を間引くため、通信データ量や処理負荷を低減することができる。また、外部モニター230には、画像入力装置250で事前に取り込んだ実写映像とCG映像が重畳された、HMD210の使用者250の注視点によらない映像を表示させるため、外部モニター130の観察者に対して違和感のない映像を表示できる。また、HMD210の使用者240は、HMD210が有するカメラ111L、111Rで取得した実写映像を直接見る一方、実写映像そのものは情報処理装置220に送信されないため、通信データ量を低減することができる。 According to the second embodiment, as in the first embodiment, in the non-gaze area of the user 240 of the HMD 210, the video information is thinned out from the center of the gaze area, so that the amount of communication data and the processing load are reduced. Can be reduced. Further, the external monitor 230 is an observer of the external monitor 130 in order to display an image on which the live-action image captured in advance by the image input device 250 and the CG image are superimposed, which does not depend on the gazing point of the user 250 of the HMD 210. It is possible to display a comfortable image. Further, the user 240 of the HMD 210 directly sees the live-action video acquired by the cameras 111L and 111R of the HMD 210, while the live-action video itself is not transmitted to the information processing device 220, so that the amount of communication data can be reduced.

なお、前述した各実施形態では、HMDの使用者の注視点に基づいて画像処理を施した映像をHMDで表示するようにしているが、外部モニターの観察者の注視点に基づいて画像処理を施した映像を外部モニターで表示するようにしてもよい。この場合には、外部モニターの観察者の注視点を検出するための機構を設け、検出された注視点に基づいてHMDと同様の処理を行って映像を表示するようにすればよい。 In each of the above-described embodiments, the image processed based on the gaze point of the HMD user is displayed on the HMD, but the image processing is performed based on the gaze point of the observer of the external monitor. The applied image may be displayed on an external monitor. In this case, a mechanism for detecting the gaze point of the observer on the external monitor may be provided, and the image may be displayed by performing the same processing as the HMD based on the detected gaze point.

(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Embodiments of the present invention)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

図3は、本実施形態におけるHMDや情報処理装置のハードウェア構成の一例を示すブロック図である。図3に示すように、HMD、情報処理装置は、CPU301、RAM302、ROM303、入力部304、出力部305、記憶部306、及び通信インターフェース(IF)307を有する。CPU301、RAM302、ROM303、入力部304、出力部305、記憶部306、及び通信IF307は、システムバス308を介して通信可能に接続される。 FIG. 3 is a block diagram showing an example of the hardware configuration of the HMD and the information processing device according to the present embodiment. As shown in FIG. 3, the HMD and the information processing device include a CPU 301, a RAM 302, a ROM 303, an input unit 304, an output unit 305, a storage unit 306, and a communication interface (IF) 307. The CPU 301, RAM 302, ROM 303, input unit 304, output unit 305, storage unit 306, and communication IF 307 are communicably connected via the system bus 308.

CPU(Central Processing Unit)301は、システムバス308に接続された各部の制御を行う。RAM(Random Access Memory)302は、CPU301の主記憶装置として使用される。ROM(Read Only Memory)303は、装置の起動プログラム等を記憶する。CPU301が、記憶部306からプログラムを読み出して実行することで、例えばHMD及び情報処理装置において各機能部の機能が実現される。 The CPU (Central Processing Unit) 301 controls each unit connected to the system bus 308. The RAM (Random Access Memory) 302 is used as the main storage device of the CPU 301. The ROM (Read Only Memory) 303 stores a device startup program and the like. When the CPU 301 reads the program from the storage unit 306 and executes it, the functions of each functional unit are realized in, for example, the HMD and the information processing device.

入力部304は、ユーザによる入力等を受け付けたり、映像データを入力したりする。出力部305は、映像データやCPU301における処理結果等を出力する。記憶部306は、装置の動作や処理に係る制御プログラム等を記憶する不揮発性の記憶装置である。通信IF307は、本装置と他の装置との通信を制御する。 The input unit 304 accepts input by the user and inputs video data. The output unit 305 outputs video data, processing results in the CPU 301, and the like. The storage unit 306 is a non-volatile storage device that stores a control program or the like related to the operation or processing of the device. The communication IF 307 controls communication between this device and another device.

前述のように構成された装置において、装置に電源が投入されると、CPU301は、ROM303に格納された起動プログラムに従って、記憶部306から制御プログラム等をRAM302に読み込む。CPU301は、RAM302に読み込んだ制御プログラム等に従い処理を実行することによって、HMDや情報処理装置の機能を実現する。つまり、HMDや情報処理装置のCPU301が制御プログラム等に基づき処理を実行することによって、HMDや情報処理装置の機能構成及び動作が実現される。 In the device configured as described above, when the power is turned on to the device, the CPU 301 reads the control program and the like from the storage unit 306 into the RAM 302 according to the startup program stored in the ROM 303. The CPU 301 realizes the functions of the HMD and the information processing device by executing the process according to the control program or the like read into the RAM 302. That is, when the CPU 301 of the HMD or the information processing device executes the process based on the control program or the like, the functional configuration and operation of the HMD or the information processing device are realized.

なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

110、210:HMD 111:カメラ 112:ディスプレイ 113:視線カメラ 114:撮像映像取得部 115:撮像映像送信部 116:表示映像受信部 117:表示制御部 118:視線情報処理部 120、220:情報処理装置 121:撮像映像受信部 122、222:位置合わせ演算部 123:CG生成部 124、214:映像合成部 125:重畳映像送信部 130、230:外部モニター 213:CG映像受信部 223:CG映像送信部 224:実写映像生成部 250:画像入力装置 110, 210: HMD 111: Camera 112: Display 113: Line-of-sight camera 114: Captured image acquisition unit 115: Captured image transmission unit 116: Display image receiving unit 117: Display control unit 118: Line-of-sight information processing unit 120, 220: Information processing Device 121: Captured image receiving unit 122, 222: Alignment calculation unit 123: CG generation unit 124, 214: Video compositing unit 125: Superimposed image transmitting unit 130, 230: External monitor 213: CG image receiving unit 223: CG image transmission Part 224: Live-action video generation part 250: Image input device

Claims (10)

ヘッドマウントディスプレイ及び表示装置を有する情報処理システムであって、
前記ヘッドマウントディスプレイの使用者の注視点を検出する検出手段と、
表示映像を、前記検出手段により検出された前記使用者の注視点に基づいて、前記使用者の非注視領域では注視領域の中央よりも映像の情報を間引いて前記ヘッドマウントディスプレイの表示部に表示させる表示制御手段と、
前記使用者の注視点に応じた映像の情報の間引きを行わずに前記表示映像を表示する前記表示装置とを有することを特徴とする情報処理システム。
An information processing system having a head-mounted display and a display device.
A detection means for detecting the gaze point of the user of the head-mounted display, and
Based on the gaze point of the user detected by the detection means, the display image is displayed on the display unit of the head-mounted display by thinning out the image information from the center of the gaze area in the non-gaze area of the user. Display control means to make
An information processing system including the display device that displays the displayed image without thinning out the information of the image according to the gaze point of the user.
前記表示制御手段は、前記使用者の注視点に基づいて、前記表示映像の解像度の情報を間引くことを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the display control means thins out information on the resolution of the displayed image based on the gaze point of the user. 前記表示制御手段は、前記使用者の注視点に基づいて、注視点までの距離に相当する位置にある物体にはピントを合わせるように処理し前記表示映像を表示させることを特徴とする請求項2に記載の情報処理システム。 The display control means is characterized in that, based on the gazing point of the user, an object at a position corresponding to a distance to the gazing point is processed so as to focus and the displayed image is displayed. The information processing system according to 2. 前記表示制御手段は、前記使用者の注視点に基づいて、前記表示映像の階調数、奥行情報、及び3D情報の少なくとも1つの情報を間引くことを特徴とする請求項1〜3の何れか1項に記載の情報処理システム。 Any one of claims 1 to 3, wherein the display control means thins out at least one of the gradation number, depth information, and 3D information of the display image based on the gazing point of the user. The information processing system according to item 1. 前記表示映像は、実写映像とコンピュータグラフィックス映像とを重畳させた複合現実映像であることを特徴とする請求項1〜4の何れか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 4, wherein the display image is a mixed reality image in which a live-action image and a computer graphics image are superimposed. 前記ヘッドマウントディスプレイは、
前記実写映像を撮影する撮像手段を有し、
前記表示部に前記撮像手段により撮影された前記実写映像と前記コンピュータグラフィックス映像とを重畳させた複合現実映像を表示させることを特徴とする請求項5に記載の情報処理システム。
The head-mounted display is
It has an imaging means for capturing the live-action video, and has
The information processing system according to claim 5, wherein the display unit displays a mixed reality image in which the live-action image captured by the imaging means and the computer graphics image are superimposed.
前記表示装置は、画像入力装置によって事前に入力された前記実写映像と前記コンピュータグラフィックス映像とを重畳させた複合現実映像を表示することを特徴とする請求項6に記載の情報処理システム。 The information processing system according to claim 6, wherein the display device displays a mixed reality image in which the live-action image and the computer graphics image input in advance by an image input device are superimposed. 前記画像入力装置は、3Dスキャナー又は前記ヘッドマウントディスプレイが有する前記撮像手段であることを特徴とする請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein the image input device is the imaging means included in the 3D scanner or the head-mounted display. ヘッドマウントディスプレイで検出された前記ヘッドマウントディスプレイの使用者の注視点に基づいて、前記使用者の非注視領域では注視領域の中央よりも映像の情報を間引いた表示映像を前記ヘッドマウントディスプレイに送信する送信手段と、
前記ヘッドマウントディスプレイの使用者の注視点に応じた映像の情報の間引きを行わずに前記表示映像を表示装置に出力する出力手段とを有することを特徴とする情報処理装置。
Based on the gaze point of the user of the head-mounted display detected by the head-mounted display, in the non-gaze area of the user, a display image in which image information is thinned out from the center of the gaze area is transmitted to the head-mounted display. Transmission means and
An information processing device including an output means for outputting the displayed image to a display device without thinning out image information according to the gazing point of the user of the head-mounted display.
ヘッドマウントディスプレイ及び表示装置を有する情報処理システムの情報処理方法であって、
前記ヘッドマウントディスプレイの使用者の注視点を検出する検出工程と、
表示映像を、検出された前記使用者の注視点に基づいて、前記使用者の非注視領域では注視領域の中央よりも映像の情報を間引いて前記ヘッドマウントディスプレイの表示部に表示させる表示制御工程と、
前記使用者の注視点に応じた映像の情報の間引きを行わずに前記表示装置に前記表示映像を表示する表示工程とを有することを特徴とする情報処理方法。
An information processing method for an information processing system having a head-mounted display and a display device.
A detection process for detecting the gaze point of the user of the head-mounted display, and
A display control step of displaying a display image on the display unit of the head-mounted display by thinning out image information from the center of the gaze area in the non-gaze area of the user based on the detected gaze point of the user. When,
An information processing method comprising a display step of displaying the display image on the display device without thinning out image information according to the gaze point of the user.
JP2019213348A 2019-11-26 2019-11-26 Information processing system, information processing device, and information processing method Pending JP2021086287A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019213348A JP2021086287A (en) 2019-11-26 2019-11-26 Information processing system, information processing device, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019213348A JP2021086287A (en) 2019-11-26 2019-11-26 Information processing system, information processing device, and information processing method

Publications (1)

Publication Number Publication Date
JP2021086287A true JP2021086287A (en) 2021-06-03

Family

ID=76087745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019213348A Pending JP2021086287A (en) 2019-11-26 2019-11-26 Information processing system, information processing device, and information processing method

Country Status (1)

Country Link
JP (1) JP2021086287A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055196A (en) * 2016-09-26 2018-04-05 キヤノン株式会社 Composite reality presentation system, information processing unit, and control method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055196A (en) * 2016-09-26 2018-04-05 キヤノン株式会社 Composite reality presentation system, information processing unit, and control method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西川 善司 ZENNJI NISHIKAWA: "ゲームのムズカシイ話 VOL.220 NVIDIA GeForce RTXシリーズ発表の衝撃(4)", 週刊ファミ通 第33巻 第42号, vol. 第33巻, JPN6023042893, ISSN: 0005179365 *

Similar Documents

Publication Publication Date Title
US10235560B2 (en) Image processing apparatus, image processing method, and image communication system
JP4553362B2 (en) System, image processing apparatus, and information processing method
JP5113426B2 (en) Head-mounted display device and control method thereof
JP2019028368A (en) Rendering device, head-mounted display, image transmission method, and image correction method
WO2017141511A1 (en) Information processing apparatus, information processing system, information processing method, and program
US11204502B2 (en) Image generation apparatus, head mounted display, image generation system, image generation method, and program
US11956415B2 (en) Head mounted display apparatus
US11003408B2 (en) Image generating apparatus and image generating method
JP4580678B2 (en) Gaze point display device
JP2011010126A (en) Image processing apparatus, and image processing method
JP6419118B2 (en) Image display system
JP2021039444A (en) Image processing device, control method and program thereof
JP6858007B2 (en) Image processing system, image processing method
JP6618260B2 (en) Information processing apparatus, information processing method, and program
JP2018133746A (en) Image processing apparatus, image processing system, image processing method and program
JP7091043B2 (en) Image processing equipment, image processing system, and image processing method
JP2021086287A (en) Information processing system, information processing device, and information processing method
JP2024013947A (en) Imaging device, imaging method of imaging device and program
KR101242764B1 (en) Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu
WO2024071208A1 (en) Display device, display method, and program
US20240320876A1 (en) Image processing apparatus for combining a captured image and a virtual image, method for the same, and storage medium
JP2012023589A (en) Stereoscopic image processing device, stereoscopic image photographing device, stereoscopic image display device, and stereoscopic image processing method
JP7005134B2 (en) Image processing equipment, image processing methods and programs
JP2020035481A (en) Information processor, and information processing method and program
CN117111731A (en) Information processing apparatus and method, head-mounted display apparatus, and computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240416