JP7214548B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP7214548B2
JP7214548B2 JP2019077897A JP2019077897A JP7214548B2 JP 7214548 B2 JP7214548 B2 JP 7214548B2 JP 2019077897 A JP2019077897 A JP 2019077897A JP 2019077897 A JP2019077897 A JP 2019077897A JP 7214548 B2 JP7214548 B2 JP 7214548B2
Authority
JP
Japan
Prior art keywords
consistency
information processing
user
avatar
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077897A
Other languages
English (en)
Other versions
JP2020177347A (ja
Inventor
翔太 大久保
裕史 井上
乘 西山
剛仁 寺口
雄宇 志小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019077897A priority Critical patent/JP7214548B2/ja
Publication of JP2020177347A publication Critical patent/JP2020177347A/ja
Application granted granted Critical
Publication of JP7214548B2 publication Critical patent/JP7214548B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置及び情報処理方法に関するものである。
HMD(ヘッドマウントディスプレイ)を装着したユーザが複合現実空間の仮想オブジェクトを視認する場合、仮想オブジェクトの映像が、実空間の地面又は建物などの実オブジェクトに干渉してしまうおそれがある。特許文献1には、仮想オブジェクトと実オブジェクトとの幾何学的整合性に矛盾がある場合に、不整合を検出することができる情報処理装置が記載されている。
特開2018-106661号公報
しかしながら、特許文献1の情報処理装置では、人の操作によって動作する仮想オブジェクトの動きが考慮されていないため、仮想オブジェクトと実オブジェクトとの干渉を事前に予測して、仮想オブジェクトの動作又は位置を補正することができないという問題があった。
一方、全ての実オブジェクトと整合性を取るために、仮想オブジェクトの動作又は位置を補正すると、仮想オブジェクトの動作の自由度が過度に制限されてしまうおそれがある。
本発明が解決しようとする課題は、仮想オブジェクトの動作の自由度を確保するとともに、特に高い整合性が必要とされる領域において仮想オブジェクトと実オブジェクトとの整合性を取ることができる情報処理装置及び情報処理方法を提供することである。
本発明は、特に高い整合性が必要とされる領域を高整合性領域として設定し、仮想オブジェクトが高整合性領域に近づいた時又は重なり合った時に、仮想オブジェクトの動作又は位置を補正することによって上記課題を解決する。
本発明によれば、仮想オブジェクトの動作の自由度を確保するとともに、高整合性領域において、仮想オブジェクトと実オブジェクトとの整合性を取ることができるという効果を奏する。
車両の室内空間における、第1ユーザのアバターの表示態様の一例を示す図である。 本発明の実施の形態に係る情報処理装置の構成を示すブロック図である。 図2に示す情報処理装置による情報処理方法のうち、高整合性領域の設定方法のフローを示す図である。 図2に示す情報処理装置を用いて認識される高整合性領域を示す図である。 図2に示す情報処理装置を用いて、高整合性領域を設定する態様の一例を示す図である。 図2に示す情報処理装置を用いて、高整合性領域を設定する態様の一例を示す図である。 図2に示す情報処理装置による情報処理方法のうち、高整合性領域の結合処理の方法を示すフローを示す図である。 図2に示す情報処理装置を用いて、隣接する2つの高整合性領域を結合する態様の一例を示す図である。 図2に示す情報処理装置を用いて、重なり合う2つの高整合性領域を結合する態様の一例を示す図である。 図2に示す情報処理装置による情報処理方法のうち、第1ユーザのアバターの動作の補正方法のフローを示す図である。 図2に示す情報処理装置を用いて、第1ユーザのアバターの指の動作を補正する態様の一例を示す図である。 図2に示す情報処理装置を用いて、第1ユーザのアバターの指の位置を補正する態様の一例を示す図である。
以下、本発明の実施形態を図面に基づいて説明する。
図1に示すように、車両30の室内空間31には、運転席シート21,助手席シート11、ダッシュボード32などが設けられる。運転席シート21には、ドライバ20が着座している。ドライバ20は、HMD130を装着している。ドライバ20は、HMD130を通して、実際には室内空間31に存在しない仮想の人物のアバター10を視認することができる。アバター10は、助手席シート11に着座した姿勢で表示されている。アバター10は、実際の室内空間31の風景に重畳するように、HMD130に表示される。なお、アバター10は、車両30から離れた遠隔地の空間70にいる車外ユーザ71を示す仮想オブジェクトである。
ここで、車外ユーザ71は第1ユーザであり、ドライバ20は第2ユーザである。また、運転席シート21,助手席シート11、ダッシュボード32、車両30の内壁、天井、床などを含む室内空間31の内装及び設備は、実オブジェクトを構成する。また、室内空間31は実空間を構成する。また、ドライバ20が装着するHMD130は、表示装置を構成する。
車外ユーザ71は、HMD111を装着し、両手の各々にトラッカ112を把持している。HMD111には、ドライバ20も含めて、車両30の室内空間31の風景の三次元映像が、仮想現実として表示される。車外ユーザ71の姿勢は、HMD111及びトラッカ112によって検出され、アバター10の姿勢に反映される。なお、HMD111及びトラッカ112が検出する車外ユーザ71の姿勢には、車外ユーザ71の手の動作及び位置が含まれる。図1に示す例では、車外ユーザ71が右手に把持したトラッカ112を操作することにより、アバター10は、ダッシュボード32の操作部2に向かって右腕を伸ばす動作をしている。操作部2は、車両30の車載機器を操作するための操作ボタンである。操作部2を介して操作される車載機器は、運転操作関連機器、室内環境調整機器又は情報機器のいずれかである。具体的には、運転操作関連機器は、ハンドル、アクセル、ブレーキ、シフトレバーなどである。室内環境調整機器は、パワーウィンドウ、空調システム、ルームランプ、座席位置調整ユニット、シートヒータなどである。情報機器は、ナビゲーショシステム、ラジオ、音量調節ユニット又はその他の車載情報端末である。
ここで、操作部2は、高整合性オブジェクトを構成する。
図2を用いて、ドライバ20が装着するHMD130にアバター10の映像を出力する情報処理装置100の全体的な構成について説明する。
情報処理装置100は、姿勢取得部110、映像出力部120、HMD130、実空間情報処理部140及び表示制御部150を有している。映像出力部120、実空間情報処理部140及び表示制御部150は、HMD130に搭載されている。また、姿勢取得部110は、車外ユーザ71に装着されるHMD111及びトラッカ112を含む。HMD111及びトラッカ112によって検出された車外ユーザ71の姿勢に関する情報は、ドライバ20が装着するHMD130に搭載された表示制御部150に送信される。
実空間情報処理部140は、実空間情報取得部141、操作部位置取得部142、高整合性領域設定部143及び出力部144を有する。実空間情報取得部141は、HMD130に取り付けられたレーザスキャナであり、車両30の室内空間31の実オブジェクトの三次元形状を点群として取得する。また、操作部位置取得部142は、HMD130に取り付けられた光学センサである。操作部位置取得部142は、実オブジェクトの一部である操作部2を、画像認識、点群のセグメンテーション又はマーカ認識によって認識し、操作部2を高整合性オブジェクトとして判定する。さらに、操作部位置取得部142は、操作部2の位置を取得する。なお、HMD130に取り付けられた1つの光学センサが、実空間情報取得部141を構成する機能と操作部位置取得部142を構成する機能とを、同時に有していてもよい。
ここで、操作部位置取得部142は、高整合性オブジェクト位置取得部を構成する。
高整合性領域設定部143は、実空間情報取得部141及び操作部位置取得部142から取得したデータに基づいて、操作部2の周囲に、操作部2を含む高整合性領域を設定する。出力部144は、車両30の室内空間31の内装などの情報、操作部2の位置情報及び高整合性領域の情報を、車外ユーザ71のHMD111及びドライバ20のHMD130の表示制御部150に出力する。
表示制御部150は、アバター10の位置及び動作を補正すべきか否かを判定する補正判定部151と、補正判定部151による判定に基づいてアバター10の位置及び動作の補正を行う補正処理部152とを有する。
以下、図3~10を参照して、情報処理装置100による情報処理方法、特に高整合性領域3の設定方法について説明する。
図3に示すように、情報処理装置100の実空間情報取得部141は、ステップS1において、車両30の室内空間31の実オブジェクトの形状を認識する。次に、情報処理装置100の操作部位置取得部142は、ステップS2において、操作部2の位置を認識する。さらに、情報処理装置100の操作部位置取得部142は、ステップS3において、室内空間31の実オブジェクトの中に操作部2があるかどうかを判定する。室内空間31に操作部2がある場合、高整合性領域設定部143は、操作部2の周囲に高整合性領域3を設定する。
図3に示す情報処理方法によって、図4に示すように、HMD130に搭載された実空間情報取得部141は、室内空間31の実オブジェクトの三次元形状を点群1として取得する。なお、図4では、説明の便宜上、点群1を平面として表しているが、実際には実オブジェクトの各々の表面形状に沿った凹凸形状を有している。また、操作部位置取得部142は、点群1の中での操作部2の位置を認識する。そして、高整合性領域設定部143は、図5A,5Bに示すように、実空間情報取得部141によって取得された点群1に対応させて、操作部2を含む高整合性領域3を設定する。高整合性領域3は、点群1の上に形成される領域である。また、高整合性領域3は、図5Aに示すように、長方形状でもよく、図5Bに示すように、円形状でもよい。高整合性領域3は、各々の操作部2の大きさに応じた所定の比率に基づいて、範囲を決定される。
次に、複数の高整合性領域3が互いに隣接し合っているか、又は重なり合っている場合の、高整合性領域3の結合処理の方法について、図6,7A,7Bを参照して説明する。
図6に示すように、まず、情報処理装置100の実空間情報処理部140は、ステップS11において、室内空間31の実オブジェクトの形状と操作部2の位置とを取得し、ステップS12において、高整合性領域3を設定する。さらに、実空間情報処理部140の高整合性領域設定部143は、ステップS13において、複数の高整合性領域3が互いに隣接し合っているか否か、又は、高整合性領域3同士が重なり合っているか否かを判定する。複数の高整合性領域3が互いに隣接し合っている、又は、高整合性領域3同士が重なり合っている場合、高整合性領域設定部143は、ステップS14において、複数の高整合性領域3の結合処理を行う。
具体的には、図7Aに示すように、操作部2a,2bの各々の周囲に設定された高整合性領域3a,3bの間隔が所定の距離D以下の時に、高整合性領域3a,3b同士は互いに隣接し合っていると判定され、結合される。また、図7Bに示すように、操作部2c,2dの各々の周囲に設定された高整合性領域3c,3dが互いに重なり合う場合にも、高整合性領域3c,3dは結合されて1つの高整合性領域3として設定される。また、3つ以上の操作部が密集している箇所では、各々の高整合性領域をまとめて結合して、1つの高整合性領域としてもよい。なお、図7A,7Bでは、各々の高整合性領域の二次元的な位置関係が表されているが、複数の高整合性領域が互いに奥行き方向に離間している場合は、高整合性領域同士を結合させなくともよい。また、各々の高整合性領域の補正処理の方法が異なる場合は、互いに隣接し合い、又は、重なり合っていても、これらの高整合性領域同士は結合させないものとする。
次に、高整合性領域3に対するアバター10の動作制限の方法について、図8~10を参照して説明する。
まず、ステップS21において、映像出力部120は、ドライバ20が装着するHMD130に対して、車外ユーザ71の姿勢を反映させたアバター10の映像を出力し、アバター10の表示が開始される。次に、ステップS22において、表示制御部150は、姿勢取得部110からアバター10の位置を取得する。また、表示制御部150は、実空間情報処理部140から高整合性領域3の位置を取得し、ステップS23において、アバター10と高整合性領域3との距離Xが基準距離以下か否かを判定する。アバター10と高整合性領域3との距離Xが基準距離以下である場合、表示制御部150は、ステップS24において、アバター10の動作を制限する。一方、アバター10と高整合性領域3との距離Xが基準距離よりも大きい場合、表示制御部150は、ステップS25において、アバター10の動作の制限を解除する。
なお、基準距離とは、車外ユーザ71による操作部2へのアクセスの意思が明確に認識可能な程度に、アバター10が高整合性領域3に近接する距離をいう。
具体的には、図9に示すように、アバター10の手の指10aと高整合性領域3との距離Xが基準距離以下の場合に、矢印の方向に移動する指10aの動作は補正され、制限される。これにより、アバター10の指10aが高整合性領域3を突き抜けてしまうことが防止され、ドライバ20のHMD130には、アバター10の指10aが高整合性領域3に自然に接触している映像が表示される。また、図10に示すように、アバター10の指10aと高整合性領域3との距離Xが基準距離以下の場合、アバター10の指10aが操作部2に吸い付けられて接触するように、表示制御部150は指10aの位置を補正してもよい。
また、アバター10の指10aと高整合性領域3とが重なり合う時、すなわち、アバター10の指10aが高整合性領域3を突き抜けた状態にある時は、表示制御部150はアバター10の指10aが高整合性領域3に接するように、指10aの位置を補正する。
さらに、図8に示すように、情報処理装置100は、ステップS26において、HMD130へのアバター10の表示を継続するか否かを判定する。例えば、車外ユーザ71のHMD111又はドライバ20のHMD130の電源がOFFになった場合、アバター10の表示は継続されないと判定され、ステップS27において、アバター10の表示は終了する。一方、ステップS26において、アバター10の表示が継続されると判断された場合、制御は、ステップS22に戻る。
以上より、本実施の形態の情報処理装置100は、操作部2を含む所定の領域を、特に高い整合性が必要とされる高整合性領域3として設定する。情報処理装置100は、アバター10の手の指10aと高整合性領域3とが近接し、又は、重なり合う時、アバター10の指10aの動作又は位置を補正する。これにより、情報処理装置100は、操作部2の周囲で、アバター10と実オブジェクトとの整合性を取ることができる。従って、車外ユーザ71による操作部2へのアクセスの意図が、視覚的により確実にドライバ20に伝わる。また、車外ユーザ71がアバター10を介して操作しているのが、どの機器を操作する操作部2なのか、ドライバ20が明確に視認し、特定することができる。また、ドライバ20がHMD130を介してアバター10を見た時に、アバター10の動作がより自然に感じられ、拡張現実への没入感を高めることができる。さらに、特に整合性が必要な操作部2の周囲のみを高整合性領域3として設定するため、アバター10の動作の制限範囲を最小限に抑えることができ、狭い室内空間31でもアバター10の動作の自由度を確保することができる。また、アバター10の動作又は位置を補正する範囲が限られているため、情報処理装置100の演算負荷の増大を抑制することができる。
また、操作部2を介して操作される車載機器は、運転操作関連機器、室内環境調整機器又は情報機器である。これにより、車外ユーザ71が車載機器を操作して、運転中のドライバ20に替わって室内空間31の環境を調整したり、ドライバ20の運転を補助したりすることができる。
表示制御部150は、アバター10の指10aが操作部2の表面に接触するように、アバター10の指10aの動作又は位置を補正する。これにより、車外ユーザ71による操作部2へのアクセスの意図を、より違和感なく、確実に、ドライバ20に伝えることができる。
また、映像出力部120は、アバター10の映像を、ドライバ20が装着するHMD130に表示されるように出力する。これにより、ドライバ20はHMD130を介して、アバター10の動作を認識し、車外ユーザ71が操作部2にアクセスしようとする意思を視覚的に確認することができる。
また、表示制御部150は、互いに隣接し合う又は重なり合う複数の高整合性領域3を結合させる。これにより、情報処理装置100の演算負荷を低減させることができる。また、車外ユーザ71が隣り合う複数の操作部2を各々順番に操作する場合、複数の高整合性領域3が互いに結合されていれば、アバター10の指10aは、結合された1つの高整合性領域3に沿って移動する。そのため、車外ユーザ71が複数の操作部2を操作している間、常にアバター10の指10aと実オブジェクトとの整合性が維持されるので、ドライバ20から見たアバター10の動作がより分かりやすく、自然なものとなる。
なお、本実施の形態において、実空間は車両30の室内空間31であるが、これに限定されず、建物内の室内空間であってもよい。室内空間の高整合性オブジェクトは、エアコンの温度調整器機など、室内空間の環境を制御する操作部であることが好ましい。また、実空間は、室内空間に限定されず、屋外の空間であってもよい。
仮想オブジェクトは、人物のアバターに限定されず、動物又はロボットなどのキャラクターを模したものであってもよい。
表示制御部150は、アバター10と高整合性領域3との間隔が所定の基準距離以下である時、又は、アバター10と高整合性領域3とが重なり合う時、アバター10の少なくとも一部の表示形態を補正してもよい。具体的には、完全に開かれた状態のアバター10の手と高整合性領域3との間隔が所定の基準距離以下になった時に、表示制御部150は、アバター10の手が人差し指のみを突き出した状態で握られた形になるよう、アバター10の手の表示形態を補正する。これにより、アバター10の指10aが操作部2を指していることが明確になり、車外ユーザ71が操作部2に触れようとしている意思を、ドライバ20がより正確に確認することができる。
表示制御部150が動作又は位置を補正する対象は、アバター10の手又は指など、実際に操作を実行する部位のみであってもよく、また、アバター10全体を補正の対象としてもよい。
図4、5及び9に示す高整合性領域3は、二次元的な範囲を持つ領域として記載されているが、これに限定されず、操作部2を中心にした球形状又は立方体形状など、三次元的に広がった立体的な範囲を高整合性領域としてもよい。
アバター10の指10aが互いに離間した2つ以上の高整合性領域3の間を移動する場合、指10aの動作をより滑らかになるように補正し、高整合性領域3とそれ以外の領域との境界を通過する時の指10aの動作の急変を防止してもよい。
ドライバ20が装着する表示装置は、HMD130に限定されず、ARゴーグル又はスマートコンタクトレンズであってもよい。
図1、4、5A、5B、7A及び7Bでは、操作部2の操作ボタンは、各々1つだけ図示されているが、これに限定されず、操作部2は2つ以上の操作ボタン又はタッチパネルにより構成されていてもよい。
本実施の形態では、車外ユーザ71の姿勢は、HMD111及びトラッカ112によって検知されるが、アバター10の操作に用いられるコントローラによって、車外ユーザ71の姿勢が検知されてもよい。
上記の操作部2は、本発明に係る高整合性オブジェクトに相当する。上記のアバター10は、本発明に係る仮想オブジェクトに相当する。上記の車外ユーザ71は、本発明に係る第1ユーザに相当する。上記のドライバ20は、本発明に係る第2ユーザに相当する。上記の室内空間31は、本発明に係る実空間に相当する。上記のHMD111及びトラッカ112は、本発明に係る姿勢取得部に相当する。上記のHMD130は、本発明に係る表示装置に相当する。上記の操作部位置取得部142は、本発明に係る高整合性オブジェクト位置取得部に相当する。
100…情報処理装置
2…操作部(高整合性オブジェクト)
3…高整合性領域
10…アバター(仮想オブジェクト)
10a…アバターの手の指
20…ドライバ(第2ユーザ)
30…車両
31…室内空間(実空間)
71…車外ユーザ(第1ユーザ)
110…姿勢取得部
111…HMD(姿勢取得部)
112…トラッカ(姿勢取得部)
120…映像出力部
130…HMD(表示装置)
141…実空間情報取得部
142…操作部位置取得部(高整合性オブジェクト位置取得部)
143…高整合性領域設定部
150…表示制御部

Claims (9)

  1. 第1ユーザの姿勢を検知する姿勢取得部と、
    前記姿勢取得部によって検知された前記第1ユーザの姿勢に基づいて、第2ユーザに視認可能な仮想オブジェクトの映像を出力する映像出力部と、
    前記第2ユーザが存在する実空間の実オブジェクトの形状を検知する実空間情報取得部と、
    前記実空間情報取得部が検知した前記実オブジェクトの少なくとも一部を高整合性オブジェクトとして判定して、前記高整合性オブジェクトの位置を取得する高整合性オブジェクト位置取得部と、
    前記高整合性オブジェクトを含む所定の領域を高整合性領域として設定する高整合性領域設定部と、
    前記仮想オブジェクトと前記高整合性領域との間隔が所定の基準距離以下である時、又は、前記仮想オブジェクトと前記高整合性領域とが重なり合う時、前記仮想オブジェクトの少なくとも一部の動作又は位置を補正する表示制御部とを備える、情報処理装置。
  2. 前記第2ユーザが存在する前記実空間は、室内空間であり、
    前記高整合性オブジェクトは、前記室内空間の環境を制御する操作部である、請求項1に記載の情報処理装置。
  3. 前記第2ユーザが存在する前記実空間は、車両の室内空間であり、
    前記高整合性オブジェクトは、前記車両の車載機器を操作するための操作部であり、
    前記車載機器は、運転操作関連機器、室内環境調整機器又は情報機器のいずれかである、請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記仮想オブジェクトの少なくとも一部が前記高整合性オブジェクトの表面に接触するように、前記仮想オブジェクトの少なくとも一部の動作又は位置を補正する、請求項1~3のいずれか一項に記載の情報処理装置。
  5. 前記仮想オブジェクトは、前記第1ユーザを示す人物のアバターであり、
    前記表示制御部は、前記アバターの手の指と前記高整合性領域との間隔が所定の基準距離以下である時、又は、前記アバターの指と前記高整合性領域とが重なり合う時、前記アバターの指の動作又は位置を補正する、請求項1~4のいずれか一項に記載の情報処理装置。
  6. 前記映像出力部は、前記仮想オブジェクトの映像を、前記第2ユーザが装着する表示装置に表示されるように出力する、請求項1~5のいずれか一項に記載の情報処理装置。
  7. 前記表示制御部は、前記仮想オブジェクトと前記高整合性領域との間隔が所定の基準距離以下である時、又は、前記仮想オブジェクトと前記高整合性領域とが重なり合う時、前記仮想オブジェクトの少なくとも一部の表示形態を補正する、請求項1~6のいずれか一項に記載の情報処理装置。
  8. 前記表示制御部は、互いに隣接し合う又は重なり合う複数の前記高整合性領域を結合させる、請求項1~7のいずれか一項に記載の情報処理装置。
  9. 第1ユーザの姿勢を検知するステップと、
    前記第1ユーザの姿勢に基づいて、第2ユーザに視認可能な仮想オブジェクトの映像を出力するステップと、
    前記第2ユーザが存在する実空間の実オブジェクトの形状を検知するステップと、
    前記実オブジェクトの少なくとも一部を高整合性オブジェクトとして判定して、前記高整合性オブジェクトの位置を取得するステップと、
    前記高整合性オブジェクトを含む所定の領域を高整合性領域として設定するステップと、
    前記仮想オブジェクトと前記高整合性領域との間隔が所定の距離以下である時、又は、前記仮想オブジェクトと前記高整合性領域とが重なり合う時、前記仮想オブジェクトの少なくとも一部の動作又は位置を補正するステップとを備える、情報処理方法。
JP2019077897A 2019-04-16 2019-04-16 情報処理装置及び情報処理方法 Active JP7214548B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077897A JP7214548B2 (ja) 2019-04-16 2019-04-16 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077897A JP7214548B2 (ja) 2019-04-16 2019-04-16 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2020177347A JP2020177347A (ja) 2020-10-29
JP7214548B2 true JP7214548B2 (ja) 2023-01-30

Family

ID=72935668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077897A Active JP7214548B2 (ja) 2019-04-16 2019-04-16 情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7214548B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7553521B2 (ja) 2022-09-12 2024-09-18 本田技研工業株式会社 情報処理システム
JP7413472B1 (ja) 2022-09-26 2024-01-15 株式会社コロプラ 情報処理システムおよびプログラム
JP7412497B1 (ja) 2022-09-26 2024-01-12 株式会社コロプラ 情報処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257081A (ja) 2009-04-22 2010-11-11 Canon Inc 画像処理方法及び画像処理装置
JP2012128578A (ja) 2010-12-14 2012-07-05 Ntt Docomo Inc 携帯端末および画像処理方法
JP2015176495A (ja) 2014-03-17 2015-10-05 株式会社セルシス オブジェクトのモーションの生成方法,プログラム,及び記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257081A (ja) 2009-04-22 2010-11-11 Canon Inc 画像処理方法及び画像処理装置
JP2012128578A (ja) 2010-12-14 2012-07-05 Ntt Docomo Inc 携帯端末および画像処理方法
JP2015176495A (ja) 2014-03-17 2015-10-05 株式会社セルシス オブジェクトのモーションの生成方法,プログラム,及び記憶媒体

Also Published As

Publication number Publication date
JP2020177347A (ja) 2020-10-29

Similar Documents

Publication Publication Date Title
JP7214548B2 (ja) 情報処理装置及び情報処理方法
JP6027747B2 (ja) 空間相関したマルチディスプレイヒューマンマシンインターフェース
EP2554434B1 (en) Vehicle surround view system
US9884248B2 (en) Display control method for head-mounted display (HMD) and image generation device
CN111511449B (zh) 具有情境感知显示器的控制器
WO2015180497A1 (zh) 一种基于立体视觉的动作采集和反馈方法及系统
US7978178B2 (en) Remote control
US20150097777A1 (en) 3D Motion Interface Systems and Methods
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP2016506572A (ja) インフォテイメントシステム
JP2015162901A (ja) ライブ映像を有する仮想透過型インストルメントクラスタ
US20170285694A1 (en) Control device, control method, and program
JP2015231445A (ja) プログラムおよび画像生成装置
US11804052B2 (en) Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path
JP7526841B2 (ja) 表示装置
CN110692033B (zh) 用于运行虚拟现实系统的方法和虚拟现实系统
JP6931068B2 (ja) 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース
WO2005017729A2 (en) Interface method and device between man and machine realised by manipulating virtual objects
JPWO2021059359A1 (ja) アニメーション制作システム
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP2005254851A (ja) コマンド入力装置
JP4724476B2 (ja) 情報処理方法及び装置
KR102559138B1 (ko) 차량용 비 접촉식 제어 시스템
WO2018050959A1 (en) Audio processing
JP2020031413A (ja) 表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R150 Certificate of patent or registration of utility model

Ref document number: 7214548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150