JP2020177347A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2020177347A
JP2020177347A JP2019077897A JP2019077897A JP2020177347A JP 2020177347 A JP2020177347 A JP 2020177347A JP 2019077897 A JP2019077897 A JP 2019077897A JP 2019077897 A JP2019077897 A JP 2019077897A JP 2020177347 A JP2020177347 A JP 2020177347A
Authority
JP
Japan
Prior art keywords
information processing
avatar
highly consistent
unit
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019077897A
Other languages
Japanese (ja)
Other versions
JP7214548B2 (en
Inventor
翔太 大久保
Shota Okubo
翔太 大久保
井上 裕史
Yasushi Inoue
裕史 井上
乘 西山
Nori Nishiyama
乘 西山
剛仁 寺口
Takehito Teraguchi
剛仁 寺口
雄宇 志小田
Yuu Shioda
雄宇 志小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2019077897A priority Critical patent/JP7214548B2/en
Publication of JP2020177347A publication Critical patent/JP2020177347A/en
Application granted granted Critical
Publication of JP7214548B2 publication Critical patent/JP7214548B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing apparatus and an information processing method capable of ensuring a degree of freedom of operation of a virtual object and achieving consistency between the virtual object and a real object in a region, in particular, where a high degree of consistency is required.SOLUTION: An information processing apparatus 100 includes a posture acquisition unit 110 for detecting a posture of a first user, a video output unit 120 for outputting an image of an avatar 10 of the first user, a real space information acquisition unit 141 for detecting a shape of a real object in a real space, an actuator position acquisition unit 142 for determining an operation unit 2 as a high consistency object and acquiring a position of the operation unit 2, a high consistency region setting unit 143 for setting an area around the operation unit 2 as a high consistency region, and a display control unit 150 for correcting a movement or position of at least a part of the avatar 10 when the avatar 10 and the high consistency region 3 approach or overlap with each other.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置及び情報処理方法に関するものである。 The present invention relates to an information processing device and an information processing method.

HMD(ヘッドマウントディスプレイ)を装着したユーザが複合現実空間の仮想オブジェクトを視認する場合、仮想オブジェクトの映像が、実空間の地面又は建物などの実オブジェクトに干渉してしまうおそれがある。特許文献1には、仮想オブジェクトと実オブジェクトとの幾何学的整合性に矛盾がある場合に、不整合を検出することができる情報処理装置が記載されている。 When a user wearing an HMD (head-mounted display) visually recognizes a virtual object in mixed reality space, the image of the virtual object may interfere with the real object such as the ground or a building in the real space. Patent Document 1 describes an information processing device capable of detecting an inconsistency when there is a contradiction in the geometrical consistency between a virtual object and a real object.

特開2018−106661号公報JP-A-2018-106661

しかしながら、特許文献1の情報処理装置では、人の操作によって動作する仮想オブジェクトの動きが考慮されていないため、仮想オブジェクトと実オブジェクトとの干渉を事前に予測して、仮想オブジェクトの動作又は位置を補正することができないという問題があった。 However, in the information processing device of Patent Document 1, since the movement of the virtual object operated by human operation is not taken into consideration, the interference between the virtual object and the real object is predicted in advance, and the operation or position of the virtual object is determined. There was a problem that it could not be corrected.

一方、全ての実オブジェクトと整合性を取るために、仮想オブジェクトの動作又は位置を補正すると、仮想オブジェクトの動作の自由度が過度に制限されてしまうおそれがある。 On the other hand, if the operation or position of the virtual object is corrected in order to be consistent with all real objects, the degree of freedom of the operation of the virtual object may be excessively limited.

本発明が解決しようとする課題は、仮想オブジェクトの動作の自由度を確保するとともに、特に高い整合性が必要とされる領域において仮想オブジェクトと実オブジェクトとの整合性を取ることができる情報処理装置及び情報処理方法を提供することである。 The problem to be solved by the present invention is an information processing device capable of ensuring the degree of freedom of operation of a virtual object and achieving consistency between a virtual object and a real object in an area where particularly high consistency is required. And to provide an information processing method.

本発明は、特に高い整合性が必要とされる領域を高整合性領域として設定し、仮想オブジェクトが高整合性領域に近づいた時又は重なり合った時に、仮想オブジェクトの動作又は位置を補正することによって上記課題を解決する。 The present invention sets a region that requires particularly high consistency as a high consistency region, and corrects the operation or position of the virtual object when the virtual objects approach or overlap the high consistency region. Solve the above problems.

本発明によれば、仮想オブジェクトの動作の自由度を確保するとともに、高整合性領域において、仮想オブジェクトと実オブジェクトとの整合性を取ることができるという効果を奏する。 According to the present invention, it is possible to secure the degree of freedom of operation of the virtual object and to obtain the consistency between the virtual object and the real object in the high consistency area.

車両の室内空間における、第1ユーザのアバターの表示態様の一例を示す図である。It is a figure which shows an example of the display mode of the avatar of a 1st user in the interior space of a vehicle. 本発明の実施の形態に係る情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus which concerns on embodiment of this invention. 図2に示す情報処理装置による情報処理方法のうち、高整合性領域の設定方法のフローを示す図である。It is a figure which shows the flow of the setting method of the high consistency region among the information processing methods by the information processing apparatus shown in FIG. 図2に示す情報処理装置を用いて認識される高整合性領域を示す図である。It is a figure which shows the high consistency area recognized by using the information processing apparatus shown in FIG. 図2に示す情報処理装置を用いて、高整合性領域を設定する態様の一例を示す図である。It is a figure which shows an example of the aspect which sets the high consistency region using the information processing apparatus shown in FIG. 図2に示す情報処理装置を用いて、高整合性領域を設定する態様の一例を示す図である。It is a figure which shows an example of the aspect which sets the high consistency region using the information processing apparatus shown in FIG. 図2に示す情報処理装置による情報処理方法のうち、高整合性領域の結合処理の方法を示すフローを示す図である。It is a figure which shows the flow which shows the method of the combination processing of a high consistency area among the information processing methods by the information processing apparatus shown in FIG. 図2に示す情報処理装置を用いて、隣接する2つの高整合性領域を結合する態様の一例を示す図である。It is a figure which shows an example of the mode which connects two adjacent highly consistent regions by using the information processing apparatus shown in FIG. 図2に示す情報処理装置を用いて、重なり合う2つの高整合性領域を結合する態様の一例を示す図である。It is a figure which shows an example of the mode which connects two overlapping highly consistent regions by using the information processing apparatus shown in FIG. 図2に示す情報処理装置による情報処理方法のうち、第1ユーザのアバターの動作の補正方法のフローを示す図である。It is a figure which shows the flow of the correction method of the operation of the avatar of the first user among the information processing methods by the information processing apparatus shown in FIG. 図2に示す情報処理装置を用いて、第1ユーザのアバターの指の動作を補正する態様の一例を示す図である。It is a figure which shows an example of the mode which corrects the finger movement of the avatar of a 1st user by using the information processing apparatus shown in FIG. 図2に示す情報処理装置を用いて、第1ユーザのアバターの指の位置を補正する態様の一例を示す図である。It is a figure which shows an example of the mode which corrects the position of the finger of the avatar of a 1st user by using the information processing apparatus shown in FIG.

以下、本発明の実施形態を図面に基づいて説明する。
図1に示すように、車両30の室内空間31には、運転席シート21,助手席シート11、ダッシュボード32などが設けられる。運転席シート21には、ドライバ20が着座している。ドライバ20は、HMD130を装着している。ドライバ20は、HMD130を通して、実際には室内空間31に存在しない仮想の人物のアバター10を視認することができる。アバター10は、助手席シート11に着座した姿勢で表示されている。アバター10は、実際の室内空間31の風景に重畳するように、HMD130に表示される。なお、アバター10は、車両30から離れた遠隔地の空間70にいる車外ユーザ71を示す仮想オブジェクトである。
ここで、車外ユーザ71は第1ユーザであり、ドライバ20は第2ユーザである。また、運転席シート21,助手席シート11、ダッシュボード32、車両30の内壁、天井、床などを含む室内空間31の内装及び設備は、実オブジェクトを構成する。また、室内空間31は実空間を構成する。また、ドライバ20が装着するHMD130は、表示装置を構成する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the interior space 31 of the vehicle 30 is provided with a driver's seat 21, a passenger seat 11, a dashboard 32, and the like. The driver 20 is seated on the driver's seat 21. The driver 20 is equipped with the HMD 130. Through the HMD 130, the driver 20 can visually recognize the avatar 10 of a virtual person who does not actually exist in the indoor space 31. The avatar 10 is displayed in a posture of being seated on the passenger seat 11. The avatar 10 is displayed on the HMD 130 so as to superimpose on the scenery of the actual indoor space 31. The avatar 10 is a virtual object indicating an outside user 71 in a remote space 70 away from the vehicle 30.
Here, the outside user 71 is the first user, and the driver 20 is the second user. Further, the interior and equipment of the interior space 31 including the driver's seat 21, the passenger seat 11, the dashboard 32, the inner wall of the vehicle 30, the ceiling, the floor, and the like constitute a real object. Further, the indoor space 31 constitutes a real space. Further, the HMD 130 mounted on the driver 20 constitutes a display device.

車外ユーザ71は、HMD111を装着し、両手の各々にトラッカ112を把持している。HMD111には、ドライバ20も含めて、車両30の室内空間31の風景の三次元映像が、仮想現実として表示される。車外ユーザ71の姿勢は、HMD111及びトラッカ112によって検出され、アバター10の姿勢に反映される。なお、HMD111及びトラッカ112が検出する車外ユーザ71の姿勢には、車外ユーザ71の手の動作及び位置が含まれる。図1に示す例では、車外ユーザ71が右手に把持したトラッカ112を操作することにより、アバター10は、ダッシュボード32の操作部2に向かって右腕を伸ばす動作をしている。操作部2は、車両30の車載機器を操作するための操作ボタンである。操作部2を介して操作される車載機器は、運転操作関連機器、室内環境調整機器又は情報機器のいずれかである。具体的には、運転操作関連機器は、ハンドル、アクセル、ブレーキ、シフトレバーなどである。室内環境調整機器は、パワーウィンドウ、空調システム、ルームランプ、座席位置調整ユニット、シートヒータなどである。情報機器は、ナビゲーショシステム、ラジオ、音量調節ユニット又はその他の車載情報端末である。
ここで、操作部2は、高整合性オブジェクトを構成する。
The outside user 71 wears the HMD 111 and holds the tracker 112 in each of his hands. On the HMD 111, a three-dimensional image of the scenery of the interior space 31 of the vehicle 30, including the driver 20, is displayed as a virtual reality. The posture of the outside user 71 is detected by the HMD 111 and the tracker 112, and is reflected in the posture of the avatar 10. The posture of the outside user 71 detected by the HMD 111 and the tracker 112 includes the movement and position of the hand of the outside user 71. In the example shown in FIG. 1, the avatar 10 extends the right arm toward the operation unit 2 of the dashboard 32 by operating the tracker 112 held by the outside user 71 in the right hand. The operation unit 2 is an operation button for operating the in-vehicle device of the vehicle 30. The in-vehicle device operated via the operation unit 2 is either a driving operation-related device, an indoor environment adjusting device, or an information device. Specifically, the driving operation-related equipment includes a steering wheel, an accelerator, a brake, a shift lever, and the like. Indoor environment adjustment equipment includes power windows, air conditioning systems, room lamps, seat position adjustment units, seat heaters, and the like. The information device is a navigation system, a radio, a volume control unit or other in-vehicle information terminal.
Here, the operation unit 2 constitutes a highly consistent object.

図2を用いて、ドライバ20が装着するHMD130にアバター10の映像を出力する情報処理装置100の全体的な構成について説明する。
情報処理装置100は、姿勢取得部110、映像出力部120、HMD130、実空間情報処理部140及び表示制御部150を有している。映像出力部120、実空間情報処理部140及び表示制御部150は、HMD130に搭載されている。また、姿勢取得部110は、車外ユーザ71に装着されるHMD111及びトラッカ112を含む。HMD111及びトラッカ112によって検出された車外ユーザ71の姿勢に関する情報は、ドライバ20が装着するHMD130に搭載された表示制御部150に送信される。
The overall configuration of the information processing apparatus 100 that outputs the image of the avatar 10 to the HMD 130 mounted by the driver 20 will be described with reference to FIG.
The information processing device 100 includes a posture acquisition unit 110, a video output unit 120, an HMD 130, a real space information processing unit 140, and a display control unit 150. The video output unit 120, the real space information processing unit 140, and the display control unit 150 are mounted on the HMD 130. Further, the posture acquisition unit 110 includes an HMD 111 and a tracker 112 mounted on the user 71 outside the vehicle. The information regarding the posture of the outside user 71 detected by the HMD 111 and the tracker 112 is transmitted to the display control unit 150 mounted on the HMD 130 mounted by the driver 20.

実空間情報処理部140は、実空間情報取得部141、操作部位置取得部142、高整合性領域設定部143及び出力部144を有する。実空間情報取得部141は、HMD130に取り付けられたレーザスキャナであり、車両30の室内空間31の実オブジェクトの三次元形状を点群として取得する。また、操作部位置取得部142は、HMD130に取り付けられた光学センサである。操作部位置取得部142は、実オブジェクトの一部である操作部2を、画像認識、点群のセグメンテーション又はマーカ認識によって認識し、操作部2を高整合性オブジェクトとして判定する。さらに、操作部位置取得部142は、操作部2の位置を取得する。なお、HMD130に取り付けられた1つの光学センサが、実空間情報取得部141を構成する機能と操作部位置取得部142を構成する機能とを、同時に有していてもよい。
ここで、操作部位置取得部142は、高整合性オブジェクト位置取得部を構成する。
The real space information processing unit 140 includes a real space information acquisition unit 141, an operation unit position acquisition unit 142, a high consistency area setting unit 143, and an output unit 144. The real space information acquisition unit 141 is a laser scanner attached to the HMD 130, and acquires the three-dimensional shape of the real object in the interior space 31 of the vehicle 30 as a point cloud. Further, the operation unit position acquisition unit 142 is an optical sensor attached to the HMD 130. The operation unit position acquisition unit 142 recognizes the operation unit 2 which is a part of the real object by image recognition, point cloud segmentation, or marker recognition, and determines the operation unit 2 as a highly consistent object. Further, the operation unit position acquisition unit 142 acquires the position of the operation unit 2. It should be noted that one optical sensor attached to the HMD 130 may simultaneously have a function of forming the real space information acquisition unit 141 and a function of forming the operation unit position acquisition unit 142.
Here, the operation unit position acquisition unit 142 constitutes a highly consistent object position acquisition unit.

高整合性領域設定部143は、実空間情報取得部141及び操作部位置取得部142から取得したデータに基づいて、操作部2の周囲に、操作部2を含む高整合性領域を設定する。出力部144は、車両30の室内空間31の内装などの情報、操作部2の位置情報及び高整合性領域の情報を、車外ユーザ71のHMD111及びドライバ20のHMD130の表示制御部150に出力する。 The high consistency area setting unit 143 sets a high consistency area including the operation unit 2 around the operation unit 2 based on the data acquired from the real space information acquisition unit 141 and the operation unit position acquisition unit 142. The output unit 144 outputs information such as the interior of the interior space 31 of the vehicle 30, the position information of the operation unit 2, and the information of the high consistency area to the display control unit 150 of the HMD 111 of the outside user 71 and the HMD 130 of the driver 20. ..

表示制御部150は、アバター10の位置及び動作を補正すべきか否かを判定する補正判定部151と、補正判定部151による判定に基づいてアバター10の位置及び動作の補正を行う補正処理部152とを有する。 The display control unit 150 has a correction determination unit 151 that determines whether or not the position and operation of the avatar 10 should be corrected, and a correction processing unit 152 that corrects the position and operation of the avatar 10 based on the determination by the correction determination unit 151. And have.

以下、図3〜10を参照して、情報処理装置100による情報処理方法、特に高整合性領域3の設定方法について説明する。
図3に示すように、情報処理装置100の実空間情報取得部141は、ステップS1において、車両30の室内空間31の実オブジェクトの形状を認識する。次に、情報処理装置100の操作部位置取得部142は、ステップS2において、操作部2の位置を認識する。さらに、情報処理装置100の操作部位置取得部142は、ステップS3において、室内空間31の実オブジェクトの中に操作部2があるかどうかを判定する。室内空間31に操作部2がある場合、高整合性領域設定部143は、操作部2の周囲に高整合性領域3を設定する。
Hereinafter, the information processing method by the information processing apparatus 100, particularly the setting method of the high consistency region 3 will be described with reference to FIGS. 3 to 10.
As shown in FIG. 3, the real space information acquisition unit 141 of the information processing apparatus 100 recognizes the shape of the real object in the interior space 31 of the vehicle 30 in step S1. Next, the operation unit position acquisition unit 142 of the information processing device 100 recognizes the position of the operation unit 2 in step S2. Further, in step S3, the operation unit position acquisition unit 142 of the information processing device 100 determines whether or not the operation unit 2 is among the real objects in the indoor space 31. When the operation unit 2 is located in the indoor space 31, the high consistency area setting unit 143 sets the high consistency area 3 around the operation unit 2.

図3に示す情報処理方法によって、図4に示すように、HMD130に搭載された実空間情報取得部141は、室内空間31の実オブジェクトの三次元形状を点群1として取得する。なお、図4では、説明の便宜上、点群1を平面として表しているが、実際には実オブジェクトの各々の表面形状に沿った凹凸形状を有している。また、操作部位置取得部142は、点群1の中での操作部2の位置を認識する。そして、高整合性領域設定部143は、図5A,5Bに示すように、実空間情報取得部141によって取得された点群1に対応させて、操作部2を含む高整合性領域3を設定する。高整合性領域3は、点群1の上に形成される領域である。また、高整合性領域3は、図5Aに示すように、長方形状でもよく、図5Bに示すように、円形状でもよい。高整合性領域3は、各々の操作部2の大きさに応じた所定の比率に基づいて、範囲を決定される。 According to the information processing method shown in FIG. 3, as shown in FIG. 4, the real space information acquisition unit 141 mounted on the HMD 130 acquires the three-dimensional shape of the real object in the indoor space 31 as the point cloud 1. Although the point cloud 1 is represented as a plane in FIG. 4 for convenience of explanation, it actually has a concave-convex shape along the surface shape of each real object. Further, the operation unit position acquisition unit 142 recognizes the position of the operation unit 2 in the point cloud 1. Then, as shown in FIGS. 5A and 5B, the high consistency area setting unit 143 sets the high consistency area 3 including the operation unit 2 in correspondence with the point cloud 1 acquired by the real space information acquisition unit 141. To do. The high consistency region 3 is a region formed on the point cloud 1. Further, the high consistency region 3 may have a rectangular shape as shown in FIG. 5A, or may have a circular shape as shown in FIG. 5B. The range of the high consistency region 3 is determined based on a predetermined ratio according to the size of each operation unit 2.

次に、複数の高整合性領域3が互いに隣接し合っているか、又は重なり合っている場合の、高整合性領域3の結合処理の方法について、図6,7A,7Bを参照して説明する。
図6に示すように、まず、情報処理装置100の実空間情報処理部140は、ステップS11において、室内空間31の実オブジェクトの形状と操作部2の位置とを取得し、ステップS12において、高整合性領域3を設定する。さらに、実空間情報処理部140の高整合性領域設定部143は、ステップS13において、複数の高整合性領域3が互いに隣接し合っているか否か、又は、高整合性領域3同士が重なり合っているか否かを判定する。複数の高整合性領域3が互いに隣接し合っている、又は、高整合性領域3同士が重なり合っている場合、高整合性領域設定部143は、ステップS14において、複数の高整合性領域3の結合処理を行う。
Next, a method of combining the high consistency regions 3 when a plurality of high consistency regions 3 are adjacent to each other or overlap each other will be described with reference to FIGS. 6, 7A and 7B.
As shown in FIG. 6, first, the real space information processing unit 140 of the information processing device 100 acquires the shape of the real object in the indoor space 31 and the position of the operation unit 2 in step S11, and in step S12, the height is increased. Consistency area 3 is set. Further, in step S13, the high consistency area setting unit 143 of the real space information processing unit 140 determines whether or not a plurality of high consistency areas 3 are adjacent to each other, or the high consistency areas 3 overlap each other. Judge whether or not. When a plurality of high-consistency regions 3 are adjacent to each other or the high-consistency regions 3 overlap each other, the high-consistency region setting unit 143 of the plurality of high-consistency regions 3 in step S14. Perform the join process.

具体的には、図7Aに示すように、操作部2a,2bの各々の周囲に設定された高整合性領域3a,3bの間隔が所定の距離D以下の時に、高整合性領域3a,3b同士は互いに隣接し合っていると判定され、結合される。また、図7Bに示すように、操作部2c,2dの各々の周囲に設定された高整合性領域3c,3dが互いに重なり合う場合にも、高整合性領域3c,3dは結合されて1つの高整合性領域3として設定される。また、3つ以上の操作部が密集している箇所では、各々の高整合性領域をまとめて結合して、1つの高整合性領域としてもよい。なお、図7A,7Bでは、各々の高整合性領域の二次元的な位置関係が表されているが、複数の高整合性領域が互いに奥行き方向に離間している場合は、高整合性領域同士を結合させなくともよい。また、各々の高整合性領域の補正処理の方法が異なる場合は、互いに隣接し合い、又は、重なり合っていても、これらの高整合性領域同士は結合させないものとする。 Specifically, as shown in FIG. 7A, when the distance between the high consistency regions 3a and 3b set around each of the operation units 2a and 2b is a predetermined distance D or less, the high consistency regions 3a and 3b They are determined to be adjacent to each other and are combined. Further, as shown in FIG. 7B, even when the high consistency regions 3c and 3d set around each of the operation units 2c and 2d overlap each other, the high consistency regions 3c and 3d are combined to form one height. It is set as the consistency area 3. Further, in a place where three or more operation units are densely packed, the high consistency regions may be combined together to form one high consistency region. In addition, in FIGS. 7A and 7B, the two-dimensional positional relationship of each high consistency region is shown, but when a plurality of high consistency regions are separated from each other in the depth direction, the high consistency region is shown. It is not necessary to combine them. Further, when the method of correction processing of each high consistency region is different, even if they are adjacent to each other or overlap each other, these high consistency regions are not combined with each other.

次に、高整合性領域3に対するアバター10の動作制限の方法について、図8〜10を参照して説明する。
まず、ステップS21において、映像出力部120は、ドライバ20が装着するHMD130に対して、車外ユーザ71の姿勢を反映させたアバター10の映像を出力し、アバター10の表示が開始される。次に、ステップS22において、表示制御部150は、姿勢取得部110からアバター10の位置を取得する。また、表示制御部150は、実空間情報処理部140から高整合性領域3の位置を取得し、ステップS23において、アバター10と高整合性領域3との距離Xが基準距離以下か否かを判定する。アバター10と高整合性領域3との距離Xが基準距離以下である場合、表示制御部150は、ステップS24において、アバター10の動作を制限する。一方、アバター10と高整合性領域3との距離Xが基準距離よりも大きい場合、表示制御部150は、ステップS25において、アバター10の動作の制限を解除する。
なお、基準距離とは、車外ユーザ71による操作部2へのアクセスの意思が明確に認識可能な程度に、アバター10が高整合性領域3に近接する距離をいう。
Next, a method of restricting the operation of the avatar 10 with respect to the high consistency region 3 will be described with reference to FIGS. 8 to 10.
First, in step S21, the video output unit 120 outputs the video of the avatar 10 reflecting the posture of the user 71 outside the vehicle to the HMD 130 mounted by the driver 20, and the display of the avatar 10 is started. Next, in step S22, the display control unit 150 acquires the position of the avatar 10 from the posture acquisition unit 110. Further, the display control unit 150 acquires the position of the high consistency region 3 from the real space information processing unit 140, and in step S23, determines whether or not the distance X between the avatar 10 and the high consistency region 3 is equal to or less than the reference distance. judge. When the distance X between the avatar 10 and the high consistency region 3 is equal to or less than the reference distance, the display control unit 150 limits the operation of the avatar 10 in step S24. On the other hand, when the distance X between the avatar 10 and the high consistency region 3 is larger than the reference distance, the display control unit 150 releases the restriction on the operation of the avatar 10 in step S25.
The reference distance is a distance at which the avatar 10 is close to the high consistency region 3 to the extent that the intention of the outside user 71 to access the operation unit 2 can be clearly recognized.

具体的には、図9に示すように、アバター10の手の指10aと高整合性領域3との距離Xが基準距離以下の場合に、矢印の方向に移動する指10aの動作は補正され、制限される。これにより、アバター10の指10aが高整合性領域3を突き抜けてしまうことが防止され、ドライバ20のHMD130には、アバター10の指10aが高整合性領域3に自然に接触している映像が表示される。また、図10に示すように、アバター10の指10aと高整合性領域3との距離Xが基準距離以下の場合、アバター10の指10aが操作部2に吸い付けられて接触するように、表示制御部150は指10aの位置を補正してもよい。 Specifically, as shown in FIG. 9, when the distance X between the finger 10a of the hand of the avatar 10 and the high consistency region 3 is equal to or less than the reference distance, the movement of the finger 10a moving in the direction of the arrow is corrected. , Limited. As a result, the finger 10a of the avatar 10 is prevented from penetrating the high consistency region 3, and the HMD 130 of the driver 20 has an image in which the finger 10a of the avatar 10 is in natural contact with the high consistency region 3. Is displayed. Further, as shown in FIG. 10, when the distance X between the finger 10a of the avatar 10 and the high consistency region 3 is equal to or less than the reference distance, the finger 10a of the avatar 10 is attracted to the operation unit 2 and comes into contact with the operation unit 2. The display control unit 150 may correct the position of the finger 10a.

また、アバター10の指10aと高整合性領域3とが重なり合う時、すなわち、アバター10の指10aが高整合性領域3を突き抜けた状態にある時は、表示制御部150はアバター10の指10aが高整合性領域3に接するように、指10aの位置を補正する。 Further, when the finger 10a of the avatar 10 and the high consistency area 3 overlap, that is, when the finger 10a of the avatar 10 penetrates the high consistency area 3, the display control unit 150 controls the finger 10a of the avatar 10. Corrects the position of the finger 10a so that is in contact with the high consistency region 3.

さらに、図8に示すように、情報処理装置100は、ステップS26において、HMD130へのアバター10の表示を継続するか否かを判定する。例えば、車外ユーザ71のHMD111又はドライバ20のHMD130の電源がOFFになった場合、アバター10の表示は継続されないと判定され、ステップS27において、アバター10の表示は終了する。一方、ステップS26において、アバター10の表示が継続されると判断された場合、制御は、ステップS22に戻る。 Further, as shown in FIG. 8, the information processing apparatus 100 determines in step S26 whether or not to continue displaying the avatar 10 on the HMD 130. For example, when the power of the HMD 111 of the outside user 71 or the HMD 130 of the driver 20 is turned off, it is determined that the display of the avatar 10 is not continued, and the display of the avatar 10 ends in step S27. On the other hand, if it is determined in step S26 that the display of the avatar 10 is continued, the control returns to step S22.

以上より、本実施の形態の情報処理装置100は、操作部2を含む所定の領域を、特に高い整合性が必要とされる高整合性領域3として設定する。情報処理装置100は、アバター10の手の指10aと高整合性領域3とが近接し、又は、重なり合う時、アバター10の指10aの動作又は位置を補正する。これにより、情報処理装置100は、操作部2の周囲で、アバター10と実オブジェクトとの整合性を取ることができる。従って、車外ユーザ71による操作部2へのアクセスの意図が、視覚的により確実にドライバ20に伝わる。また、車外ユーザ71がアバター10を介して操作しているのが、どの機器を操作する操作部2なのか、ドライバ20が明確に視認し、特定することができる。また、ドライバ20がHMD130を介してアバター10を見た時に、アバター10の動作がより自然に感じられ、拡張現実への没入感を高めることができる。さらに、特に整合性が必要な操作部2の周囲のみを高整合性領域3として設定するため、アバター10の動作の制限範囲を最小限に抑えることができ、狭い室内空間31でもアバター10の動作の自由度を確保することができる。また、アバター10の動作又は位置を補正する範囲が限られているため、情報処理装置100の演算負荷の増大を抑制することができる。 Based on the above, the information processing apparatus 100 of the present embodiment sets a predetermined region including the operation unit 2 as a highly consistent region 3 that requires particularly high consistency. The information processing device 100 corrects the movement or position of the finger 10a of the avatar 10 when the finger 10a of the hand of the avatar 10 and the high consistency region 3 are close to each other or overlap each other. As a result, the information processing device 100 can make the avatar 10 and the real object consistent around the operation unit 2. Therefore, the intention of the outside user 71 to access the operation unit 2 is visually and more reliably transmitted to the driver 20. Further, the driver 20 can clearly visually recognize and identify which device is operated by the outside user 71 via the avatar 10. Further, when the driver 20 sees the avatar 10 via the HMD 130, the operation of the avatar 10 is felt more naturally, and the immersive feeling in the augmented reality can be enhanced. Further, since only the periphery of the operation unit 2 that requires particular consistency is set as the high consistency area 3, the limited range of the operation of the avatar 10 can be minimized, and the operation of the avatar 10 even in the narrow indoor space 31. The degree of freedom can be secured. Further, since the range for correcting the operation or position of the avatar 10 is limited, it is possible to suppress an increase in the calculation load of the information processing device 100.

また、操作部2を介して操作される車載機器は、運転操作関連機器、室内環境調整機器又は情報機器である。これにより、車外ユーザ71が車載機器を操作して、運転中のドライバ20に替わって室内空間31の環境を調整したり、ドライバ20の運転を補助したりすることができる。 Further, the in-vehicle device operated via the operation unit 2 is a driving operation-related device, an indoor environment adjusting device, or an information device. As a result, the user 71 outside the vehicle can operate the in-vehicle device to adjust the environment of the indoor space 31 in place of the driver 20 during driving or assist the driver 20 in driving.

表示制御部150は、アバター10の指10aが操作部2の表面に接触するように、アバター10の指10aの動作又は位置を補正する。これにより、車外ユーザ71による操作部2へのアクセスの意図を、より違和感なく、確実に、ドライバ20に伝えることができる。 The display control unit 150 corrects the movement or position of the finger 10a of the avatar 10 so that the finger 10a of the avatar 10 comes into contact with the surface of the operation unit 2. As a result, the intention of the outside user 71 to access the operation unit 2 can be reliably conveyed to the driver 20 without any discomfort.

また、映像出力部120は、アバター10の映像を、ドライバ20が装着するHMD130に表示されるように出力する。これにより、ドライバ20はHMD130を介して、アバター10の動作を認識し、車外ユーザ71が操作部2にアクセスしようとする意思を視覚的に確認することができる。 Further, the video output unit 120 outputs the video of the avatar 10 so as to be displayed on the HMD 130 mounted by the driver 20. As a result, the driver 20 can recognize the operation of the avatar 10 via the HMD 130, and can visually confirm the intention of the outside user 71 to access the operation unit 2.

また、表示制御部150は、互いに隣接し合う又は重なり合う複数の高整合性領域3を結合させる。これにより、情報処理装置100の演算負荷を低減させることができる。また、車外ユーザ71が隣り合う複数の操作部2を各々順番に操作する場合、複数の高整合性領域3が互いに結合されていれば、アバター10の指10aは、結合された1つの高整合性領域3に沿って移動する。そのため、車外ユーザ71が複数の操作部2を操作している間、常にアバター10の指10aと実オブジェクトとの整合性が維持されるので、ドライバ20から見たアバター10の動作がより分かりやすく、自然なものとなる。 In addition, the display control unit 150 combines a plurality of highly consistent regions 3 that are adjacent to each other or overlap each other. As a result, the calculation load of the information processing apparatus 100 can be reduced. Further, when the user 71 outside the vehicle operates a plurality of adjacent operation units 2 in order, if the plurality of highly consistent regions 3 are connected to each other, the finger 10a of the avatar 10 is one combined high-matched region. It moves along the sex region 3. Therefore, while the outside user 71 is operating the plurality of operation units 2, the consistency between the finger 10a of the avatar 10 and the real object is always maintained, so that the operation of the avatar 10 as seen from the driver 20 is easier to understand. , Will be natural.

なお、本実施の形態において、実空間は車両30の室内空間31であるが、これに限定されず、建物内の室内空間であってもよい。室内空間の高整合性オブジェクトは、エアコンの温度調整器機など、室内空間の環境を制御する操作部であることが好ましい。また、実空間は、室内空間に限定されず、屋外の空間であってもよい。 In the present embodiment, the actual space is the interior space 31 of the vehicle 30, but the space is not limited to this and may be the interior space inside the building. The highly consistent object of the indoor space is preferably an operation unit that controls the environment of the indoor space, such as a temperature controller of an air conditioner. Further, the real space is not limited to the indoor space, but may be an outdoor space.

仮想オブジェクトは、人物のアバターに限定されず、動物又はロボットなどのキャラクターを模したものであってもよい。 The virtual object is not limited to the avatar of a person, and may imitate a character such as an animal or a robot.

表示制御部150は、アバター10と高整合性領域3との間隔が所定の基準距離以下である時、又は、アバター10と高整合性領域3とが重なり合う時、アバター10の少なくとも一部の表示形態を補正してもよい。具体的には、完全に開かれた状態のアバター10の手と高整合性領域3との間隔が所定の基準距離以下になった時に、表示制御部150は、アバター10の手が人差し指のみを突き出した状態で握られた形になるよう、アバター10の手の表示形態を補正する。これにより、アバター10の指10aが操作部2を指していることが明確になり、車外ユーザ71が操作部2に触れようとしている意思を、ドライバ20がより正確に確認することができる。 The display control unit 150 displays at least a part of the avatar 10 when the distance between the avatar 10 and the high consistency area 3 is equal to or less than a predetermined reference distance, or when the avatar 10 and the high consistency area 3 overlap each other. The morphology may be corrected. Specifically, when the distance between the hand of the avatar 10 in the fully opened state and the highly consistent region 3 becomes equal to or less than a predetermined reference distance, the display control unit 150 causes the hand of the avatar 10 to hold only the index finger. The display form of the hand of the avatar 10 is corrected so that the shape is grasped in the protruding state. As a result, it becomes clear that the finger 10a of the avatar 10 points to the operation unit 2, and the driver 20 can more accurately confirm the intention of the outside user 71 to touch the operation unit 2.

表示制御部150が動作又は位置を補正する対象は、アバター10の手又は指など、実際に操作を実行する部位のみであってもよく、また、アバター10全体を補正の対象としてもよい。 The target for which the display control unit 150 corrects the operation or position may be only a part that actually executes the operation, such as the hand or finger of the avatar 10, or the entire avatar 10 may be the target for correction.

図4、5及び9に示す高整合性領域3は、二次元的な範囲を持つ領域として記載されているが、これに限定されず、操作部2を中心にした球形状又は立方体形状など、三次元的に広がった立体的な範囲を高整合性領域としてもよい。 The highly consistent region 3 shown in FIGS. 4, 5 and 9 is described as a region having a two-dimensional range, but is not limited to this, and a spherical shape or a cube shape centered on the operation unit 2 or the like. A three-dimensional range that extends three-dimensionally may be used as a highly consistent region.

アバター10の指10aが互いに離間した2つ以上の高整合性領域3の間を移動する場合、指10aの動作をより滑らかになるように補正し、高整合性領域3とそれ以外の領域との境界を通過する時の指10aの動作の急変を防止してもよい。 When the finger 10a of the avatar 10 moves between two or more highly consistent regions 3 separated from each other, the movement of the finger 10a is corrected so as to be smoother, and the high consistency region 3 and the other regions are corrected. The sudden change in the movement of the finger 10a when passing through the boundary of the finger 10a may be prevented.

ドライバ20が装着する表示装置は、HMD130に限定されず、ARゴーグル又はスマートコンタクトレンズであってもよい。 The display device worn by the driver 20 is not limited to the HMD 130, and may be AR goggles or smart contact lenses.

図1、4、5A、5B、7A及び7Bでは、操作部2の操作ボタンは、各々1つだけ図示されているが、これに限定されず、操作部2は2つ以上の操作ボタン又はタッチパネルにより構成されていてもよい。 In FIGS. 1, 4, 5A, 5B, 7A and 7B, only one operation button of the operation unit 2 is shown, but the operation unit 2 is not limited to this, and the operation unit 2 has two or more operation buttons or a touch panel. It may be composed of.

本実施の形態では、車外ユーザ71の姿勢は、HMD111及びトラッカ112によって検知されるが、アバター10の操作に用いられるコントローラによって、車外ユーザ71の姿勢が検知されてもよい。 In the present embodiment, the posture of the outside user 71 is detected by the HMD 111 and the tracker 112, but the posture of the outside user 71 may be detected by the controller used for operating the avatar 10.

上記の操作部2は、本発明に係る高整合性オブジェクトに相当する。上記のアバター10は、本発明に係る仮想オブジェクトに相当する。上記の車外ユーザ71は、本発明に係る第1ユーザに相当する。上記のドライバ20は、本発明に係る第2ユーザに相当する。上記の室内空間31は、本発明に係る実空間に相当する。上記のHMD111及びトラッカ112は、本発明に係る姿勢取得部に相当する。上記のHMD130は、本発明に係る表示装置に相当する。上記の操作部位置取得部142は、本発明に係る高整合性オブジェクト位置取得部に相当する。 The operation unit 2 described above corresponds to a highly consistent object according to the present invention. The avatar 10 described above corresponds to a virtual object according to the present invention. The above-mentioned outside user 71 corresponds to the first user according to the present invention. The above driver 20 corresponds to a second user according to the present invention. The above-mentioned indoor space 31 corresponds to the real space according to the present invention. The above-mentioned HMD 111 and tracker 112 correspond to the posture acquisition unit according to the present invention. The above-mentioned HMD 130 corresponds to the display device according to the present invention. The operation unit position acquisition unit 142 corresponds to the highly consistent object position acquisition unit according to the present invention.

100…情報処理装置
2…操作部(高整合性オブジェクト)
3…高整合性領域
10…アバター(仮想オブジェクト)
10a…アバターの手の指
20…ドライバ(第2ユーザ)
30…車両
31…室内空間(実空間)
71…車外ユーザ(第1ユーザ)
110…姿勢取得部
111…HMD(姿勢取得部)
112…トラッカ(姿勢取得部)
120…映像出力部
130…HMD(表示装置)
141…実空間情報取得部
142…操作部位置取得部(高整合性オブジェクト位置取得部)
143…高整合性領域設定部
150…表示制御部
100 ... Information processing device 2 ... Operation unit (highly consistent object)
3 ... Highly consistent area 10 ... Avatar (virtual object)
10a ... Avatar's finger 20 ... Driver (second user)
30 ... Vehicle 31 ... Interior space (real space)
71 ... Outside user (first user)
110 ... Posture acquisition unit 111 ... HMD (Posture acquisition unit)
112 ... Tracker (posture acquisition section)
120 ... Video output unit 130 ... HMD (display device)
141 ... Real space information acquisition unit 142 ... Operation unit position acquisition unit (highly consistent object position acquisition unit)
143 ... High consistency area setting unit 150 ... Display control unit

Claims (9)

第1ユーザの姿勢を検知する姿勢取得部と、
前記姿勢取得部によって検知された前記第1ユーザの姿勢に基づいて、第2ユーザに視認可能な仮想オブジェクトの映像を出力する映像出力部と、
前記第2ユーザが存在する実空間の実オブジェクトの形状を検知する実空間情報取得部と、
前記実空間情報取得部が検知した前記実オブジェクトの少なくとも一部を高整合性オブジェクトとして判定して、前記高整合性オブジェクトの位置を取得する高整合性オブジェクト位置取得部と、
前記高整合性オブジェクトを含む所定の領域を高整合性領域として設定する高整合性領域設定部と、
前記仮想オブジェクトと前記高整合性領域との間隔が所定の基準距離以下である時、又は、前記仮想オブジェクトと前記高整合性領域とが重なり合う時、前記仮想オブジェクトの少なくとも一部の動作又は位置を補正する表示制御部とを備える、情報処理装置。
A posture acquisition unit that detects the posture of the first user,
A video output unit that outputs a video of a virtual object that can be seen by a second user based on the posture of the first user detected by the posture acquisition unit.
A real space information acquisition unit that detects the shape of a real object in the real space in which the second user exists, and
A highly consistent object position acquisition unit that determines at least a part of the real object detected by the real space information acquisition unit as a highly consistent object and acquires the position of the highly consistent object.
A high-consistency area setting unit that sets a predetermined area including the high-consistency object as a high-consistency area,
When the distance between the virtual object and the highly consistent area is equal to or less than a predetermined reference distance, or when the virtual object and the highly consistent area overlap, at least a part of the operation or position of the virtual object is performed. An information processing device including a display control unit for correction.
前記第2ユーザが存在する前記実空間は、室内空間であり、
前記高整合性オブジェクトは、前記室内空間の環境を制御する操作部である、請求項1に記載の情報処理装置。
The real space in which the second user exists is an indoor space.
The information processing device according to claim 1, wherein the highly consistent object is an operation unit that controls the environment of the indoor space.
前記第2ユーザが存在する前記実空間は、車両の室内空間であり、
前記高整合性オブジェクトは、前記車両の車載機器を操作するための操作部であり、
前記車載機器は、運転操作関連機器、室内環境調整機器又は情報機器のいずれかである、請求項1に記載の情報処理装置。
The real space in which the second user exists is the interior space of the vehicle.
The highly consistent object is an operation unit for operating an in-vehicle device of the vehicle.
The information processing device according to claim 1, wherein the in-vehicle device is any of a driving operation-related device, an indoor environment adjusting device, and an information device.
前記表示制御部は、前記仮想オブジェクトの少なくとも一部が前記高整合性オブジェクトの表面に接触するように、前記仮想オブジェクトの少なくとも一部の動作又は位置を補正する、請求項1〜3のいずれか一項に記載の情報処理装置。 Any one of claims 1 to 3, wherein the display control unit corrects the operation or position of at least a part of the virtual object so that at least a part of the virtual object comes into contact with the surface of the highly consistent object. The information processing device according to paragraph 1. 前記仮想オブジェクトは、前記第1ユーザを示す人物のアバターであり、
前記表示制御部は、前記アバターの手の指と前記高整合性領域との間隔が所定の基準距離以下である時、又は、前記アバターの指と前記高整合性領域とが重なり合う時、前記アバターの指の動作又は位置を補正する、請求項1〜4のいずれか一項に記載の情報処理装置。
The virtual object is an avatar of a person indicating the first user.
The display control unit determines the avatar when the distance between the finger of the avatar's hand and the highly consistent region is equal to or less than a predetermined reference distance, or when the finger of the avatar and the highly consistent region overlap. The information processing apparatus according to any one of claims 1 to 4, which corrects the movement or position of the finger.
前記映像出力部は、前記仮想オブジェクトの映像を、前記第2ユーザが装着する表示装置に表示されるように出力する、請求項1〜5のいずれか一項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5, wherein the video output unit outputs a video of the virtual object so as to be displayed on a display device worn by the second user. 前記表示制御部は、前記仮想オブジェクトと前記高整合性領域との間隔が所定の基準距離以下である時、又は、前記仮想オブジェクトと前記高整合性領域とが重なり合う時、前記仮想オブジェクトの少なくとも一部の表示形態を補正する、請求項1〜6のいずれか一項に記載の情報処理装置。 The display control unit is at least one of the virtual objects when the distance between the virtual object and the high consistency area is equal to or less than a predetermined reference distance, or when the virtual object and the high consistency area overlap. The information processing apparatus according to any one of claims 1 to 6, wherein the display form of the unit is corrected. 前記表示制御部は、互いに隣接し合う又は重なり合う複数の前記高整合性領域を結合させる、請求項1〜7のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the display control unit combines a plurality of the high consistency regions that are adjacent to each other or overlap each other. 第1ユーザの姿勢を検知するステップと、
前記第1ユーザの姿勢に基づいて、第2ユーザに視認可能な仮想オブジェクトの映像を出力するステップと、
前記第2ユーザが存在する実空間の実オブジェクトの形状を検知するステップと、
前記実オブジェクトの少なくとも一部を高整合性オブジェクトとして判定して、前記高整合性オブジェクトの位置を取得するステップと、
前記高整合性オブジェクトを含む所定の領域を高整合性領域として設定するステップと、
前記仮想オブジェクトと前記高整合性領域との間隔が所定の距離以下である時、又は、前記仮想オブジェクトと前記高整合性領域とが重なり合う時、前記仮想オブジェクトの少なくとも一部の動作又は位置を補正するステップとを備える、情報処理方法。
Steps to detect the posture of the first user and
A step of outputting a video of a virtual object that can be seen by a second user based on the posture of the first user, and
The step of detecting the shape of the real object in the real space where the second user exists, and
A step of determining at least a part of the real object as a highly consistent object and acquiring the position of the highly consistent object, and
A step of setting a predetermined area including the highly consistent object as a high consistency area, and
When the distance between the virtual object and the highly consistent area is less than or equal to a predetermined distance, or when the virtual object and the highly consistent area overlap, at least a part of the operation or position of the virtual object is corrected. An information processing method that includes steps to perform.
JP2019077897A 2019-04-16 2019-04-16 Information processing device and information processing method Active JP7214548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077897A JP7214548B2 (en) 2019-04-16 2019-04-16 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077897A JP7214548B2 (en) 2019-04-16 2019-04-16 Information processing device and information processing method

Publications (2)

Publication Number Publication Date
JP2020177347A true JP2020177347A (en) 2020-10-29
JP7214548B2 JP7214548B2 (en) 2023-01-30

Family

ID=72935668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077897A Active JP7214548B2 (en) 2019-04-16 2019-04-16 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP7214548B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412497B1 (en) 2022-09-26 2024-01-12 株式会社コロプラ information processing system
JP7413472B1 (en) 2022-09-26 2024-01-15 株式会社コロプラ Information processing systems and programs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257081A (en) * 2009-04-22 2010-11-11 Canon Inc Image procession method and image processing system
JP2012128578A (en) * 2010-12-14 2012-07-05 Ntt Docomo Inc Portable terminal and image processing method
JP2015176495A (en) * 2014-03-17 2015-10-05 株式会社セルシス Object motion generation method, program, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257081A (en) * 2009-04-22 2010-11-11 Canon Inc Image procession method and image processing system
JP2012128578A (en) * 2010-12-14 2012-07-05 Ntt Docomo Inc Portable terminal and image processing method
JP2015176495A (en) * 2014-03-17 2015-10-05 株式会社セルシス Object motion generation method, program, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412497B1 (en) 2022-09-26 2024-01-12 株式会社コロプラ information processing system
JP7413472B1 (en) 2022-09-26 2024-01-15 株式会社コロプラ Information processing systems and programs

Also Published As

Publication number Publication date
JP7214548B2 (en) 2023-01-30

Similar Documents

Publication Publication Date Title
EP2554434B1 (en) Vehicle surround view system
JP2022530012A (en) Head-mounted display with pass-through image processing
JP6027747B2 (en) Multi-display human machine interface with spatial correlation
US9756319B2 (en) Virtual see-through instrument cluster with live video
AU2016206210B2 (en) Food processor and method for operating a food processor
US10029700B2 (en) Infotainment system with head-up display for symbol projection
WO2018224847A2 (en) Mixed reality gaming system
WO2015180497A1 (en) Motion collection and feedback method and system based on stereoscopic vision
JP6002286B1 (en) Head mounted display control method and head mounted display control program
CN110692033B (en) Method for operating a virtual reality system and virtual reality system
US20210069894A1 (en) Remote control system, information processing method, and non-transitory computer-readable recording medium
CN108463839B (en) Information processing apparatus and user guide presenting method
US20220317462A1 (en) Information processing apparatus, information processing method, and program
KR20170005971A (en) Training simulator and method for special vehicles using argmented reality technology
JP7214548B2 (en) Information processing device and information processing method
JP6931068B2 (en) Paired local and global user interfaces for an improved augmented reality experience
WO2021200494A1 (en) Method for changing viewpoint in virtual space
US11940622B2 (en) Method and system for operating at least two display devices carried by respective vehicle occupants on the head
US11443487B2 (en) Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality
EP3287867A1 (en) Audio processing
US10869156B2 (en) Audio processing
KR20190041002A (en) Content Discovery
JP2020031413A (en) Display device, mobile body, mobile body control system, manufacturing method for them, and image display method
JP6159455B1 (en) Method, program, and recording medium for providing virtual space
JP2024019911A (en) Head-mounted display and image displaying method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R150 Certificate of patent or registration of utility model

Ref document number: 7214548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150