JP2019045998A - Information processing device, method thereof and program - Google Patents

Information processing device, method thereof and program Download PDF

Info

Publication number
JP2019045998A
JP2019045998A JP2017166109A JP2017166109A JP2019045998A JP 2019045998 A JP2019045998 A JP 2019045998A JP 2017166109 A JP2017166109 A JP 2017166109A JP 2017166109 A JP2017166109 A JP 2017166109A JP 2019045998 A JP2019045998 A JP 2019045998A
Authority
JP
Japan
Prior art keywords
display
information processing
user
processing apparatus
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017166109A
Other languages
Japanese (ja)
Inventor
貴紀 勝俣
Takanori Katsumata
貴紀 勝俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017166109A priority Critical patent/JP2019045998A/en
Publication of JP2019045998A publication Critical patent/JP2019045998A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To display multiple pieces of display information properly.SOLUTION: An information processing device comprises: acquisition means acquiring a position attitude of the point of view of a user; holding means holding multiple virtual objects together with their display attribute; selection means selecting multiple display elements to be shown to the user among the multiple virtual objects; and control means controlling a context of display so that the multiple display elements are displayed on a display device on the basis of the position attitude of the point of view of the user and the display attribute of each of the multiple display elements.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザに対する情報表示に関するものである。   The present invention relates to displaying information to a user.

近年、現実空間と仮想空間とのつなぎ目のない結合を目的とした、複合現実感(Mixed Reality:MR)システムの研究が盛んに行われている。これらのシステムの提示を行う画像表示装置は、たとえば頭部装着型ディスプレイ(Head Mount Display:HMD)を用いることができる。MRシステム研究の進展に伴い、MRに表示される仮想オブジェクトは多種多様となっている。現実物体を模した仮想オブジェクトだけでなく、例えばユーザの手を表すハンドオブジェクトや、情報を提示するパネルの役割を持つ3Dオブジェクトである。特許文献1は、HMDのように、没入感の高い表示部を用いる場合のユーザの安全確保を目的とした、現実物体との接近を報知する仮想オブジェクトを表示可能とする。   BACKGROUND ART In recent years, research on mixed reality (MR) systems has been actively conducted for the purpose of seamless connection between real space and virtual space. For example, a head mounted display (HMD) can be used as an image display device that presents these systems. With the progress of MR system research, the virtual objects displayed on the MR are diverse. Not only a virtual object imitating a real object, for example, a hand object representing a user's hand or a 3D object having a role of a panel presenting information. Patent Document 1 enables display of a virtual object for notifying approach to a real object for the purpose of securing the safety of the user when using a display unit with a high sense of immersion, such as an HMD.

特許第5777786号公報Patent No. 5777786 gazette

特許文献1の方法は、現実物体との接近警告報知オブジェクトを表示するものであるが、その手前に別の仮想オブジェクトが表示されている場合は、警告報知が遮られてしまいユーザに視認されない可能性がある。このように多数の表示情報が存在する場合、表示順序が定められていないため、ユーザの必要とする表示情報が、他の表示情報に遮られ、ユーザが視認できなくなる課題がある。   Although the method of Patent Document 1 displays an approach alert notification object with a real object, when another virtual object is displayed in front of it, the alert notification is interrupted and may not be viewed by the user. There is sex. As described above, when a large number of pieces of display information exist, the display order required by the user is interrupted by other display information because the display order is not determined, and there is a problem that the user can not visually recognize.

本発明は上記課題を鑑みてなされたものであり、複数の表示情報を効率的に表示することを目的とする。   The present invention has been made in view of the above problems, and has an object of efficiently displaying a plurality of display information.

本発明の1態様によれば、情報処理装置に、ユーザの視点の位置姿勢を取得する取得手段と、複数の仮想物体をそれぞれの表示属性とともに保持する保持手段と、前記複数の仮想物体のうちユーザに表示すべき複数の表示要素を選択する選択手段と、前記ユーザの視点の位置姿勢と前記複数の表示要素のそれぞれの表示属性とに基づいて、当該複数の表示要素を表示の前後関係を制御して表示装置に表示するように制御する制御手段とを備える。   According to one aspect of the present invention, an information processing apparatus includes an acquisition unit that acquires the position and orientation of a user's viewpoint, a holding unit that holds a plurality of virtual objects together with their respective display attributes, and the plurality of virtual objects. Based on the selection means for selecting a plurality of display elements to be displayed to the user, the position and orientation of the viewpoint of the user, and the display attribute of each of the plurality of display elements, the anteroposterior relationship of the display of the plurality of display elements is And control means for controlling and displaying on the display device.

本発明によれば、ユーザに適切な情報を表示することができる。   According to the present invention, it is possible to display information appropriate for the user.

実施形態に係るシステムの機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a system concerning an embodiment. 情報処理装置のハードウェア構成の例を示す図である。It is a figure showing the example of the hardware constitutions of an information processor. 表示構成要素の例を示す図である。It is a figure which shows the example of a display component. 情報処理装置の処理のフローチャートである。It is a flow chart of processing of an information processor. ユーザへの提示画面構成例を示す図である。It is a figure which shows the example of a presentation screen structure to a user.

以下、図面を参照しながら本発明の好適な実施形態について詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments of the configuration described in the claims.

(第1の実施形態)
図1は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1に示すように、本実施形態に係るシステムは、情報処理装置と、頭部装着型表示装置の一例としてのHMDと、画像表示装置1200で構成されている。
First Embodiment
FIG. 1 is a block diagram showing an example of a functional configuration of a system according to the present embodiment. As shown in FIG. 1, the system according to the present embodiment includes an information processing device, an HMD as an example of a head-mounted display device, and an image display device 1200.

情報処理装置1000は、撮像画像取得部1010、位置姿勢計測部1020、仮想データ保持部1030、表示構成要素選択部1040、表示構成要素設定部1050、表示構成制御部1060を備える。情報処理装置1000は、さらに仮想空間生成部1070、複合現実画像生成部1080を備える。   The information processing apparatus 1000 includes a captured image acquisition unit 1010, a position and orientation measurement unit 1020, a virtual data holding unit 1030, a display component selection unit 1040, a display component setting unit 1050, and a display configuration control unit 1060. The information processing apparatus 1000 further includes a virtual space generation unit 1070 and a mixed reality image generation unit 1080.

HMD1100は、画像撮像部1110、画像表示部1120とで構成されている。ここで、情報処理装置1000とHMD1100とはデータ通信が可能なように接続されている。情報処理装置1000とHMD1100との間の接続は、有線、無線の何れであっても構わない。   The HMD 1100 includes an image pickup unit 1110 and an image display unit 1120. Here, the information processing apparatus 1000 and the HMD 1100 are connected to enable data communication. The connection between the information processing apparatus 1000 and the HMD 1100 may be wired or wireless.

先ず、情報処理装置1000について説明する。図2は、本実施形態における情報処理装置1000のハードウェア構成図である。同図において、CPU2010は、バス2000を介して接続する各デバイスを統括的に制御する。CPU2010は、読み出し専用メモリ(ROM)2020に記憶された処理命令やプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM2020に記憶されており、ランダムアクセスメモリ(RAM)2030に一時記憶され、CPU2010によって適宜実行される。また、入力I/F2040は、外部の装置(表示装置や操作装置など)から情報処理装置1000で処理可能な形式で入力信号を入力する。また、出力I/F2050は、外部の装置(表示装置など)へ外部の装置が処理可能な形式で出力信号を出力する。   First, the information processing apparatus 1000 will be described. FIG. 2 is a hardware configuration diagram of the information processing apparatus 1000 in the present embodiment. In the same figure, a CPU 2010 generally controls each device connected via a bus 2000. The CPU 2010 reads and executes processing instructions and programs stored in a read only memory (ROM) 2020. An operating system (OS), processing programs according to this embodiment, device drivers and the like according to the present embodiment are stored in the ROM 2020, temporarily stored in a random access memory (RAM) 2030, and appropriately executed by the CPU 2010. Also, the input I / F 2040 inputs an input signal in a format that can be processed by the information processing apparatus 1000 from an external device (such as a display device or an operation device). Also, the output I / F 2050 outputs an output signal to an external device (such as a display device) in a format that can be processed by the external device.

撮像画像取得部1010は、画像撮像部1110により撮像された現実空間の画像(現実空間画像)を取得し、位置姿勢計測部1020、複合現実画像生成部1080に入力する。   The captured image acquisition unit 1010 acquires an image of a physical space (physical space image) captured by the image capturing unit 1110, and inputs the acquired image to the position and orientation measurement unit 1020 and the mixed reality image generation unit 1080.

位置姿勢計測部1020は、撮像画像取得部1010により取得された現実空間画像を用いて画像処理を行い、画像中の点や線などの特徴的な情報(特徴情報)を抽出する。抽出された特徴情報を予め用意された特徴情報の設定位置と対応付けることで、ユーザの視点の位置姿勢を計測する。さらに位置姿勢が求められたHMD1100から観測された位置から、他の現実物体の位置姿勢を求めることもできる。複合現実画像生成部1080及び仮想データ保持部1030に入力する。本実施形態では画像処理による位置姿勢計測を説明するが、赤外光を用いて位置姿勢を計測しても良いし、超音波を用いて位置姿勢を計測しても良いし、磁気センサを用いて位置姿勢を計測しても良い。更に奥行きセンサを用いて位置姿勢を計測しても良いし、機械的に位置姿勢を計測しても良い。   The position and orientation measurement unit 1020 performs image processing using the physical space image acquired by the captured image acquisition unit 1010, and extracts characteristic information (feature information) such as points and lines in the image. By associating the extracted feature information with the preset position of the feature information prepared in advance, the position and orientation of the user's viewpoint are measured. Furthermore, the position and orientation of another real object can also be determined from the position observed from the HMD 1100 for which the position and orientation have been determined. The image is input to the mixed reality image generation unit 1080 and the virtual data storage unit 1030. Although the position and orientation measurement by image processing is described in this embodiment, the position and orientation may be measured using infrared light, the position and orientation may be measured using an ultrasonic wave, or a magnetic sensor is used. Position and orientation may be measured. Furthermore, the position and orientation may be measured using a depth sensor, or the position and orientation may be measured mechanically.

仮想データ保持部1040は、仮想空間を構成する仮想物体に係るデータ(形状情報や位置姿勢情報)や仮想空間中に照射する光源に係るデータなど、仮想空間のデータを保持する。これらのデータは、仮想空間生成部1070、表示構成要素選択部1040、表示構成制御部1060で利用される。   The virtual data holding unit 1040 holds data of the virtual space, such as data (shape information and position and orientation information) related to a virtual object constituting the virtual space and data related to a light source to be irradiated into the virtual space. These data are used by the virtual space generation unit 1070, the display component selection unit 1040, and the display configuration control unit 1060.

表示構成要素選択部1040は、仮想データ保持部1030より取得した仮想物体に係るデータから、ユーザに対して表示する表示構成要素を選択し、仮想物体の形状情報及び位置姿勢情報を表示構成要素設定部1050に入力する。   The display component selection unit 1040 selects the display component to be displayed to the user from the data related to the virtual object acquired from the virtual data storage unit 1030, and sets the shape information and position and orientation information of the virtual object to display component Input to the part 1050.

図3は、本実施形態において表示を想定している表示構成要素を示しており、それぞれ、ユーザの視界の固定位置に表示される報知オブジェクト3000、メニューパネル3200、ハンドモデル3301と3DCGモデル3302である。   FIG. 3 shows display components assumed to be displayed in this embodiment, and each of the notification object 3000, the menu panel 3200, the hand model 3301 and the 3DCG model 3302 displayed at a fixed position in the field of view of the user is there.

報知オブジェクト3000とは、たとえば、複数ユーザ同士の接近や、現実物体との接近及び衝突の危険を報知するオブジェクトを指す。本実施形態では、報知オブジェクト3000を衝突の危険を報知するオブジェクトとして説明するが、本発明はこれに限定されない。すなわち、長時間使用していた場合の注意喚起であってもよいし、ユーザが最優先に表示すべき情報を設定してもよい。   The notification object 3000 refers to, for example, an object that reports the danger of a plurality of users approaching, approaching with a real object, and collision. In the present embodiment, the notification object 3000 is described as an object notifying of the danger of collision, but the present invention is not limited to this. That is, it may be alerting when it has been used for a long time, or the user may set information to be displayed with the highest priority.

メニューパネル3200は、選択した仮想物体に対して行う、たとえば、仮想物体の移動や表示非表示の制御を含むメニューを指す。本実施形態では、メニューパネル3200と報知オブジェクト3000を特定のオブジェクトとして、表示位置を視界の固定位置に表示させる場合を説明するが、本発明はこれに限定されない。すなわち、メニューの表示位置を仮想空間中に固定するメニューであってもよいし、ユーザにより表示位置を指定させるメニューであってもよい。更に、表示位置を視界に固定させるか仮想空間中に固定するかを切り替えることの出来るメニューであってもよい。   The menu panel 3200 points to a menu that is performed on the selected virtual object, for example, including control of movement and display non-display of the virtual object. In the present embodiment, the case where the display position is displayed at a fixed position in the field of view as the menu panel 3200 and the notification object 3000 as specific objects will be described, but the present invention is not limited to this. That is, the menu may be a menu that fixes the display position of the menu in the virtual space, or a menu that allows the user to specify the display position. Furthermore, it may be a menu that can switch whether to fix the display position in the view or in the virtual space.

ハンドモデル3301は、位置姿勢計測部1020にて取得可能な、ユーザの手をCGでマスクしたオブジェクトである。本実施形態におけるハンドモデルは、これに限定されず、たとえば手以外のユーザの身体の一部であってもよい。尚、所定の位置から見えるハンドモデルを生成するための技術については既知の事実であるので、これについての詳細な説明は省略する。   The hand model 3301 is an object which can be acquired by the position and orientation measurement unit 1020 and in which the user's hand is masked by CG. The hand model in the present embodiment is not limited to this, and may be, for example, a part of the body of the user other than the hand. The technique for generating a hand model that can be seen from a predetermined position is a known fact, so detailed description thereof will be omitted.

本実施形態において、3DCGモデル3302は3DCGモデルであるが、本発明はこれに限定されない。すなわち、仮想空間における3Dモデル同士の接触部位を表すようなオブジェクトでもよいし、モデル名称を示すテキストであっても構わない。更に、表示位置を視界に固定させるか仮想空間中に固定するかを切り替えることの出来るメニューであってもよい。   In the present embodiment, the 3DCG model 3302 is a 3DCG model, but the present invention is not limited thereto. That is, it may be an object representing a contact portion between 3D models in a virtual space, or may be a text indicating a model name. Furthermore, it may be a menu that can switch whether to fix the display position in the view or in the virtual space.

表示構成要素設定部1050は、表示要素を分類するための表示属性を設定する。本実施形態では報知オブジェクト3000を属性1、メニューパネル3200を属性2、ハンドモデル3301と3DCGモデル3302を属性3と設定し、設定情報を表示順序決定部に入力する。本発明において、属性の設定は、たとえば事前に決めた設定情報を適用してもよいし、ユーザが決めた設定を適用してもよい。   The display component setting unit 1050 sets display attributes for classifying display elements. In this embodiment, the notification object 3000 is set as attribute 1, the menu panel 3200 is set as attribute 2, the hand model 3301 and the 3DCG model 3302 are set as attribute 3, and setting information is input to the display order determination unit. In the present invention, the setting of the attribute may be, for example, setting information determined in advance or a setting determined by the user.

表示構成制御部1060は、表示構成要素設定部1050によって設定された属性情報と、仮想データ保持部1030から取得した複数オブジェクトの位置情報から、表示構成要素間の前後関係を算出し制御する。本実施形態では属性1から番号の順にユーザの視線方向に対して手前に表示し、同属性のハンドモデルと3DCGモデルの前後関係は、各モデルの位置姿勢情報に基づき決定する。構成制御情報は仮想空間生成部1070に入力する。   The display configuration control unit 1060 calculates and controls the anteroposterior relationship between the display components from the attribute information set by the display component setting unit 1050 and the position information of the plurality of objects acquired from the virtual data storage unit 1030. In this embodiment, the attribute 1 is displayed in front of the gaze direction of the user in order from the number, and the anteroposterior relationship between the hand model of the attribute and the 3DCG model is determined based on position and orientation information of each model. The configuration control information is input to the virtual space generation unit 1070.

仮想空間生成部1070は、仮想データ保持部1030で保持された仮想データと、表示構成制御部1060から取得した構成制御情報に基づき、仮想空間を生成し複合現実画像生成部1080に入力する。   The virtual space generation unit 1070 generates a virtual space based on the virtual data held by the virtual data holding unit 1030 and the configuration control information acquired from the display configuration control unit 1060, and inputs the virtual space to the mixed reality image generation unit 1080.

複合現実画像生成部1080は、仮想空間生成部1070で生成された仮想空間と位置姿勢計測部1020の計測結果に基づいて仮想空間画像を生成する。更に、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実空間の画像(複合現実画像)を生成する。尚、所定の位置から見える仮想空間を生成するための技術については公知であるので、これについての詳細な説明は省略する。その後に、複合現実画像生成部1080は、生成した複合現実画像をHMD1100の画像表示部1120に対して出力する(表示制御)。また、画像表示装置1200に同時に表示しても良い。HMDに限ったことではなく表示できる装置であれば良く、タブレット・スマートフォン等の表示端末であっても良い。   The mixed reality image generation unit 1080 generates a virtual space image based on the virtual space generated by the virtual space generation unit 1070 and the measurement result of the position and orientation measurement unit 1020. Furthermore, the virtual space image is superimposed on the physical space image acquired by the captured image acquisition unit 1010 to generate an image of mixed reality space (mixed reality image). In addition, since a technique for generating a virtual space visible from a predetermined position is known, the detailed description thereof is omitted. After that, the mixed reality image generation unit 1080 outputs the generated mixed reality image to the image display unit 1120 of the HMD 1100 (display control). Alternatively, the image may be displayed on the image display device 1200 simultaneously. It is not limited to the HMD, but may be a device capable of displaying, and may be a display terminal such as a tablet or a smartphone.

これらの各機能部は、CPU2010が、ROM2020に格納されたプログラムをRAM2030に展開し、後述する各フローチャートに従った処理を実行することで実現されている。例えば、CPU2010を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   These functional units are realized by the CPU 2010 developing a program stored in the ROM 2020 in the RAM 2030 and executing processing according to each flowchart to be described later. For example, when hardware is configured as a substitute for software processing using the CPU 2010, an arithmetic unit or a circuit corresponding to the processing of each functional unit described here may be configured.

次に、HMD1100について説明する。HMD1100は、液晶画面などで構成される表示装置で、夫々右目用と左目用とが設けられており、夫々はHMD1100を頭部に装着したユーザの右目、左目の眼前に位置するように、HMDに取り付けられている。また、左右の画面には夫々視差のついた画像がステレオ表示される。   Next, the HMD 1100 will be described. The HMD 1100 is a display device configured with a liquid crystal screen or the like, and is provided for the right eye and the left eye respectively, and each of the HMD 1100 is positioned in front of the right eye and the left eye of the user wearing the head on the head. Is attached to In addition, images with parallax are respectively displayed in stereo on the left and right screens.

画像撮像部1110は、HMD1100に映る現実空間を撮像し、撮像画像を現実空間画像として情報処理装置1000に入力する。   The image capturing unit 1110 captures an image of a physical space displayed on the HMD 1100, and inputs the captured image to the information processing apparatus 1000 as a physical space image.

画像表示部1120は、情報処理装置1000で生成された複合現実画像を表示する。   The image display unit 1120 displays the mixed reality image generated by the information processing apparatus 1000.

上記のように、本実施形態においてHMD1100は、撮像装置により撮像された画像に基づいて生成された複合現実画像を表示装置に表示するビデオシースルー型のHMDであることとして説明する。しかしながら、HMD1100は、現実空間を透過して観察することが可能な表示媒体に仮想空間画像を重畳して表示する光学シースルー型のHMDを用いてもよい。   As described above, in the present embodiment, the HMD 1100 will be described as a video see-through HMD that displays a mixed reality image generated based on an image captured by an imaging device on a display device. However, the HMD 1100 may use an optical see-through HMD that superimposes and displays a virtual space image on a display medium that can be observed through the real space.

図4は、情報処理装置1000が、複合現実空間画像を生成し、HMD1100または画像表示装置1200に対して出力するために行う処理のフローチャートである。   FIG. 4 is a flowchart of processing performed by the information processing apparatus 1000 to generate a mixed reality space image and output the mixed reality space image to the HMD 1100 or the image display apparatus 1200.

先ず、ステップS4000において、位置姿勢計測部1020は画像撮像部1110から現実空間画像を取得し、画像からHMD1100の位置姿勢を計測する。そして、ステップS4100に処理を移す。   First, in step S4000, the position and orientation measurement unit 1020 acquires a physical space image from the image capturing unit 1110, and measures the position and orientation of the HMD 1100 from the image. Then, the process proceeds to step S4100.

ステップS4100において、仮想データ保持部1030は位置姿勢計測部1020から、複数のオブジェクトの位置姿勢及び形状情報を取得し、ステップS4200に処理を移す。   In step S4100, the virtual data holding unit 1030 acquires position and orientation information and shape information of a plurality of objects from the position and orientation measurement unit 1020, and the process proceeds to step S4200.

ステップS4200において、表示構成要素選択部1040は、仮想データ保持部1030からユーザの位置姿勢情報を取得し、前記位置姿勢情報からユーザに表示するべき構成要素を選択する。例えば、ユーザと現実物体との接近及び衝突の危険を感知した場合は危険報知を構成要素として追加し、ユーザの手の位置情報を取得した場合は、ハンドモデルを構成要素に追加する。そして、ステップS4300に処理を移す。   In step S4200, the display component selection unit 1040 acquires position and orientation information of the user from the virtual data storage unit 1030, and selects a component to be displayed to the user from the position and orientation information. For example, when a danger of approach and collision between a user and a real object is detected, a danger notification is added as a component, and when positional information of the user's hand is acquired, a hand model is added to the component. Then, the process proceeds to step S4300.

ステップS4300において、表示構成要素設定部1050は、構成要素の属性を設定する。本実施形態では事前に属性が設定済みであるとし、危険報知を属性1、前記メニューパネルを属性2、前記ハンドモデルと3DCGモデルを属性3と設定する。そして、ステップS4400に処理を移す。   In step S4300, the display component setting unit 1050 sets the attribute of the component. In the present embodiment, it is assumed that the attribute has been set in advance, the danger notification is set as attribute 1, the menu panel is set as attribute 2, and the hand model and 3DCG model are set as attribute 3. Then, the process proceeds to step S4400.

ステップS4400において、表示構成制御部1060は、表示構成要素設定部1050から構成要素の属性情報を取得し、仮想データ保持部1030から複数オブジェクトの位置情報を取得する。さらに、表示構成要素間の前後関係を算出し制御する。そして、ステップS4500に処理を移す。   In step S4400, the display configuration control unit 1060 acquires attribute information of the component from the display component setting unit 1050, and acquires position information of a plurality of objects from the virtual data holding unit 1030. Furthermore, it calculates and controls the anteroposterior relationship between the display components. Then, the process proceeds to step S4500.

ステップS4500において、仮想空間生成部1070は仮想データ保持部1030で保持されている仮想空間に係るデータと、表示構成制御部1060において制御された表示構成要素情報を用いて仮想空間を生成する。   In step S4500, the virtual space generation unit 1070 generates a virtual space using the data related to the virtual space held by the virtual data holding unit 1030 and the display component information controlled by the display configuration control unit 1060.

ステップS4500において、表示構成制御部1060の制御によって表示順序が変わる例を、図5を用いて説明する。図5は、本実施形態に係る表示構成制御部1060の制御例を示す図である。   An example in which the display order is changed by the control of the display configuration control unit 1060 in step S4500 will be described using FIG. FIG. 5 is a view showing a control example of the display configuration control unit 1060 according to the present embodiment.

図5(A)は、表示構成要素設定部1050によって報知オブジェクト3100とハンドモデル3301が検出されず、メニューパネル3200と3DCGモデル3302に対し属性が設定された場合の図である。ユーザから見た複数オブジェクトの配置を示している。表示構成要素設定部1050によってメニューパネル3200には属性2が、3DCGモデル3302には属性3が設定されている。このとき、表示構成制御部1060によって、属性の1から順にユーザの視線方向に対して手前に表示するように制御される。結果、図5(A)に示すように、ユーザの視線方向に対して手前にメニューパネル3200が、奥に3DCGモデル3302が表示される。   FIG. 5A is a diagram when the display component setting unit 1050 does not detect the notification object 3100 and the hand model 3301 and sets an attribute in the menu panel 3200 and the 3DCG model 3302. It shows the arrangement of multiple objects viewed from the user. Attribute 2 is set in the menu panel 3200 by the display component setting unit 1050, and attribute 3 is set in the 3DCG model 3302. At this time, the display configuration control unit 1060 controls to display in front of the user's gaze direction sequentially from 1 of the attribute. As a result, as shown in FIG. 5A, the menu panel 3200 is displayed in front of the user's gaze direction, and the 3DCG model 3302 is displayed in the back.

図5(B)、(C)は、表示構成要素設定部1050によって報知オブジェクト3100とメニューパネル3200が検出されず、ハンドモデル3301と3DCGモデル3302に対して属性が設定された場合を示した図である。ユーザから見た複数オブジェクトの配置を示している。表示構成要素設定部1050によってハンドモデル3301と3DCGモデル3302には属性3が設定されている。同属性の場合、表示構成制御部1060によって、仮想空間の奥行情報をもとに表示構成を制御する。仮想空間において、ユーザに対しハンドモデル3301の奥行情報が、3DCGモデル3302よりも手前にあった場合、図5(B)のように、手前にハンドモデル3301が表示される。一方、仮想空間において、ユーザに対し3DCGモデル3302の奥行情報が、ハンドモデル3301よりも手前にあった場合、図5(C)のように、手前に3DCGモデル3302が表示される。   FIGS. 5B and 5C are diagrams showing the case where the display component setting unit 1050 does not detect the notification object 3100 and the menu panel 3200, and an attribute is set for the hand model 3301 and the 3DCG model 3302. It is. It shows the arrangement of multiple objects viewed from the user. Attribute 3 is set in the hand model 3301 and the 3DCG model 3302 by the display component setting unit 1050. In the case of the same attribute, the display configuration control unit 1060 controls the display configuration based on depth information of the virtual space. If the depth information of the hand model 3301 is in front of the 3DCG model 3302 with respect to the user in the virtual space, the hand model 3301 is displayed in front as shown in FIG. 5B. On the other hand, in the virtual space, when the depth information of the 3DCG model 3302 is in front of the hand model 3301 with respect to the user, the 3DCG model 3302 is displayed in front as shown in FIG. 5C.

図5(D)は表示構成要素設定部1050によって、報知オブジェクト3100、メニューパネル3200、ハンドモデル3301と3DCGモデル3302に対し属性が設定された場合の、ユーザから見た複数オブジェクトの配置を示した図である。表示構成要素設定部1050によって報知オブジェクト3100には属性1、メニューパネル3200には属性2、3DCGモデル3302には属性3が設定されている。このとき、表示構成制御部1060によって、属性1から順にユーザの視線方向に対して手前に表示するように制御される。このため、図5(C)に示すように、ユーザの視線方向に対して最も手前に報知オブジェクト3100が、その奥から順に、メニューパネル3200、3DCGモデル3302、ハンドモデル3301が表示される。   FIG. 5D shows the arrangement of a plurality of objects viewed by the user when the display component setting unit 1050 sets attributes for the notification object 3100, the menu panel 3200, the hand model 3301 and the 3DCG model 3302. FIG. The display component setting unit 1050 sets the attribute 1 in the notification object 3100, and the attribute 2 in the attributes 2 and 3 and the DCG model 3302 in the menu panel 3200. At this time, the display configuration control unit 1060 controls the display 1 so as to be displayed in front of the user's gaze direction sequentially from the attribute 1. Therefore, as shown in FIG. 5C, the notification object 3100 is displayed in the foremost position with respect to the user's gaze direction, and the menu panel 3200, the 3DCG model 3302, and the hand model 3301 are displayed in this order from the back.

ステップS4600において、複合現実画像生成部1080は仮想空間生成部1070で生成された仮想空間と位置姿勢計測部1020の位置姿勢に基づいて、仮想空間画像を生成する。更に、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実画像を生成する。   In step S4600, the mixed reality image generation unit 1080 generates a virtual space image based on the virtual space generated by the virtual space generation unit 1070 and the position and orientation of the position and orientation measurement unit 1020. Furthermore, the virtual space image is superimposed on the physical space image acquired by the captured image acquisition unit 1010 to generate a mixed reality image.

ステップS4700において、生成した複合現実画像は、HMDの画像表示部1120または画像表示装置1200に対して出力する。本処理の終了指示が入力されていない場合は、処理をステップS4000に戻す。   In step S4700, the generated mixed reality image is output to image display unit 1120 or image display device 1200 of the HMD. If the end instruction of this process has not been input, the process returns to step S4000.

(変形例)
上記実施形態では、本発明を撮像画像に仮想空間画像を合成した画像を表示させるMRシステムに適用した例を説明した。しかしながら本発明はこれに限定されない。たとえば、本発明は現実モデルのみをレンダリングした画像を表示させるシステムに適用することができる。その場合には、上記実施形態において、仮想空間生成部1070は現実モデルのみにより構成された仮想空間を生成すればよい。
(Modification)
In the above embodiment, an example has been described in which the present invention is applied to an MR system that displays an image obtained by combining a virtual space image with a captured image. However, the present invention is not limited to this. For example, the present invention can be applied to a system that displays an image in which only a real model is rendered. In that case, in the above embodiment, the virtual space generation unit 1070 may generate a virtual space configured by only the real model.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

1000 情報処理装置
1010 撮像画像取得部
1020 位置姿勢計測部
1030 仮想データ保持部
1040 表示構成要素選択部
1050 表示構成要素設定部
1060 表示構成制御部
1070 仮想空間生成部
1080 複合現実画像生成部
1100 HMD
1110 画像撮像部
1120 画像表示部
1200 画像表示装置
1000 Information processing apparatus 1010 Captured image acquisition unit 1020 Position and orientation measurement unit 1030 Virtual data storage unit 1040 Display component selection unit 1050 Display component setting unit 1060 Display configuration control unit 1070 Virtual space generation unit 1080 Mixed reality image generation unit 1100 HMD
1110 image pickup unit 1120 image display unit 1200 image display apparatus

Claims (11)

ユーザの視点の位置姿勢を取得する取得手段と、
複数の仮想物体をそれぞれの表示属性とともに保持する保持手段と、
前記複数の仮想物体のうちユーザに表示すべき複数の表示要素を選択する選択手段と、
前記ユーザの視点の位置姿勢と前記複数の表示要素のそれぞれの表示属性とに基づいて、当該複数の表示要素を表示の前後関係を制御して表示装置に表示するように制御する制御手段とを備えることを特徴とする情報処理装置。
Acquisition means for acquiring the position and orientation of the user's viewpoint;
Holding means for holding a plurality of virtual objects together with their respective display attributes;
Selection means for selecting a plurality of display elements to be displayed to the user among the plurality of virtual objects;
And control means for controlling the front-rear relationship of the plurality of display elements to display them on the display device based on the position and orientation of the viewpoint of the user and the display attributes of the plurality of display elements. An information processing apparatus comprising:
前記複数の仮想物体に対して表示属性を設定する設定手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising setting means for setting display attributes for the plurality of virtual objects. 前記表示属性は番号であり、前記制御手段は該番号の順に表示するように制御することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display attribute is a number, and the control means controls to display in the order of the number. 前記制御手段は、特定の仮想物体を固定の位置に表示することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit displays a specific virtual object at a fixed position. 前記取得手段は、磁気センサ、赤外光を用いたセンサ、超音波を用いたセンサまたは奥行きセンサを用いて計測された結果に基づいて前記位置姿勢を取得することを特徴とする請求項1に記載の情報処理装置。   2. The apparatus according to claim 1, wherein the acquisition unit acquires the position and orientation based on a result measured using a magnetic sensor, a sensor using infrared light, a sensor using ultrasonic waves, or a depth sensor. Information processor as described. 現実空間の画像を撮像する撮像手段をさらに備え、前記制御手段は、前記撮像手段によって撮像された現実空間の画像に、前記仮想空間画像を重畳して表示するように制御することを特徴とする請求項1に記載の情報処理装置。   The image processing apparatus further includes an imaging unit configured to capture an image of the physical space, wherein the control unit controls the virtual space image to be superimposed and displayed on the image of the physical space captured by the imaging unit. An information processing apparatus according to claim 1. 前記表示装置は、光学シースルー型の表示装置であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display device is an optical see-through display device. 前記表示装置は、ビデオシースルー型の表示装置であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display device is a video see-through display device. 前記表示装置は、頭部装着型の表示装置であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display device is a head-mounted display device. ユーザの視点の位置姿勢を取得する取得工程と、
複数の仮想物体をそれぞれの表示属性とともに保持する保持部から前記複数の仮想物体のうちユーザに表示すべき複数の表示要素を選択する選択工程と、
前記ユーザの視点の位置姿勢と前記複数の表示要素のそれぞれの表示属性とに基づいて、当該複数の表示要素を表示の前後関係を制御して表示装置に表示する表示工程とを備えることを特徴とする情報処理方法。
An acquisition step of acquiring the position and orientation of the user's viewpoint;
A selection step of selecting a plurality of display elements to be displayed to the user from the plurality of virtual objects from a holding unit which holds a plurality of virtual objects together with respective display attributes;
And displaying the plurality of display elements on the display device based on the position and orientation of the viewpoint of the user and the display attributes of the plurality of display elements. Information processing method to be.
コンピュータを請求項1乃至9のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。   A program which causes a computer to function as each means of the information processing apparatus according to any one of claims 1 to 9.
JP2017166109A 2017-08-30 2017-08-30 Information processing device, method thereof and program Pending JP2019045998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017166109A JP2019045998A (en) 2017-08-30 2017-08-30 Information processing device, method thereof and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166109A JP2019045998A (en) 2017-08-30 2017-08-30 Information processing device, method thereof and program

Publications (1)

Publication Number Publication Date
JP2019045998A true JP2019045998A (en) 2019-03-22

Family

ID=65814494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166109A Pending JP2019045998A (en) 2017-08-30 2017-08-30 Information processing device, method thereof and program

Country Status (1)

Country Link
JP (1) JP2019045998A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114286006A (en) * 2021-12-29 2022-04-05 努比亚技术有限公司 Augmented reality-based equipment control method, terminal and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114286006A (en) * 2021-12-29 2022-04-05 努比亚技术有限公司 Augmented reality-based equipment control method, terminal and storage medium

Similar Documents

Publication Publication Date Title
CN110022470B (en) Method and system for training object detection algorithm using composite image and storage medium
US9684169B2 (en) Image processing apparatus and image processing method for viewpoint determination
JP5777786B1 (en) Information processing apparatus, information processing method, and program
JP7005224B2 (en) Information processing equipment, systems, image processing methods, computer programs, and storage media
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
JP7182920B2 (en) Image processing device, image processing method and program
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP2014186487A (en) Mixed reality presenting system, virtual reality presenting system, display apparatus, information processing apparatus, control method, and program
US10834380B2 (en) Information processing apparatus, information processing method, and storage medium
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2021135776A (en) Information processor, information processing method, and program
JP6726016B2 (en) Information processing device and information processing method
JP2019045998A (en) Information processing device, method thereof and program
US20190318503A1 (en) Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker
US10586392B2 (en) Image display apparatus using foveated rendering
JP6371547B2 (en) Image processing apparatus, method, and program
JP2016058043A (en) Information processing device, information processing method, and program
JP2020182109A5 (en)
JP6436872B2 (en) Information processing apparatus, information processing method, and program
JP7319575B2 (en) Image processing device, its processing method, and program
JP2019040357A (en) Image processing system, image processing method and computer program
JP7148779B2 (en) Image processing device, its processing method, and program
JP2016224809A (en) Information processing device and information processing method
EP3410256A1 (en) Method for outputting of combined 2d and 3d imaging
JP2016038632A (en) Image processing apparatus and image processing method