JP2015192436A - 送信端末、受信端末、送受信システム、およびそのプログラム - Google Patents
送信端末、受信端末、送受信システム、およびそのプログラム Download PDFInfo
- Publication number
- JP2015192436A JP2015192436A JP2014070615A JP2014070615A JP2015192436A JP 2015192436 A JP2015192436 A JP 2015192436A JP 2014070615 A JP2014070615 A JP 2014070615A JP 2014070615 A JP2014070615 A JP 2014070615A JP 2015192436 A JP2015192436 A JP 2015192436A
- Authority
- JP
- Japan
- Prior art keywords
- index image
- image
- orientation
- hmd
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【解決手段】この情報処理システムは、使用者の頭部Hに装着する頭部装着部101と、撮像部102と、使用者の視界にバーチャル情報の画像を重畳して表示する表示部104と、情報処理部150とを有する第1と第2のHMD100を用いて構成される。第1のHMD100は指標画像(仮想オブジェクト5041)を投影する指標画像投影部103を有する。第2のHMDは、第1のHMDにより現実のオブジェクト上に投影された指標画像に基づき、バーチャル情報の画像の表示位置・大きさ・向きを変更し所定のバーチャル情報の画像を共有するように構成される。
【選択図】 図1
Description
指標画像元データに基づいて指標画像を現実物体の上に投影する投影手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第1の視点から見た画像が表示される第1の表示手段と、
前記3次元形状データと前記指標画像元データとを送信する送信手段と、
を有し、
前記投影手段の位置姿勢、前記第1の視点の位置姿勢は、前記第1の使用者の頭部または顔部の位置姿勢の変化に逐次追随する
ことを特徴とする。
前記3次元形状データと指標画像を投影するための指標画像元データとを受信する受信手段と、
前記現実物体の上に投影された指標画像を撮像して第2の指標画像撮像データを得る第2の撮像手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第2の視点から見た画像が表示される第2の表示手段と、
前記指標画像元データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する計算手段と
を有し、
前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する
ことを特徴とする。
投影手段は、指標画像元データに基づいて指標画像を現実物体の上に投影する。
第1の撮像手段は、前記投影手段によって前記現実物体の上に投影された前記指標画像を撮像して第1の指標画像撮像データを得る。
第1の表示手段には、前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第1の視点から見た画像が表示される。
送信手段は、1)仮想物体を表示するための3次元形状データ、2)前記指標画像元データ、および3)前記指標画像撮像データを送信する。
前記投影手段の位置姿勢、前記第1の撮像手段の位置姿勢および前記第1の視点の位置姿勢は、前記第1の使用者の頭部または顔部の位置姿勢の変化に逐次追随する。
受信手段は、送信端末から送信された1)仮想物体を表示するための3次元形状データ、2)前記指標画像元データ、および3)前記第1の指標画像撮像データと、を受信する。
第2の撮像手段は、前記現実物体の上に投影された前記指標画像を撮像して第2の指標画像撮像データを得る。
第2の表示手段には、前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第2の視点から見た画像が表示される。
計算手段は、前記指標画像元データ、前記第1の指標画像撮像データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する。
そして、前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する。
本実施形態に係る情報処理端末(送受信端末)を図1、図2、図3、図6等を参照して説明する。
情報処理端末(送受信端末)は、情報処理機能を有したコンピュータを基本要素として構成される。以下の説明では、情報処理端末として、人の頭部に装着されるHMD(Head Mounted Display)の例で説明する。以下の説明では、説明の便宜上、原則的に「情報処理端末」の代わりに「HMD」と記す。2つのHMDはそれぞれ使用者の頭部に装着する装着手段と、投影手段と、撮像手段と、表示手段と、情報処理手段と、を備えている。
図1の(A)〜(C)に示したHMD100は、上記のいわゆるゴーグル・タイプに相当するものである。
表示部104は、図1の(B),(C)に示すように番号110,114,115を付した複数の部材から構成される。また記号の「L」と「R」は前述の通り左眼用と右眼用を示す。使用者の眼の位置に相対するように、眼鏡における眼鏡レンズに相当する位置に設けられたものであり、具体的には、カラー液晶ディスプレイ114が表示する画像を光学プリズム115によって導き、スクリーン110に表示する。
これに対して、HMD100が前述のグラス・シースルー型である場合は、スクリーン110はいわゆるハーフミラーで構成される。すなわち、一定の透過度を有し、使用者が現実空間の光景を光学的に見ることができるようになっている。同時に、表面または裏面もしくは内部に埋め込まれて設けられたミラーにより、カラー液晶ディスプレイ114が表示し光学プリズム115によって導かれたグラフィックスの画像を使用者の眼の方向に反射する。即ち、グラス・シースルー型の場合には、現実空間の光景と仮想オブジェクト(仮想物体)の画像とが、スクリーン110において光学的に重畳される。
ビデオ・シースルー型HMD100の場合には、カラー液晶ディスプレイ114は、撮像センサ116によって取得された現実空間画像と仮想オブジェクトの画像とを電気的に重畳(画像合成)した拡張現実画像を表示する。
一方、グラス・シースルー型HMD100の場合には、カラー液晶ディスプレイ114は、原則として、仮想オブジェクトの画像のみを表示する。
図6に示されるように、HMD100は、さらに、電子回路要素として、表示制御部130、撮像制御部140、CPU150、メモリ160、電源部170、通信部180、投影制御部190を備えている。これらの電子回路要素は、HMD100の本体(頭部装着部101を含む)の内部に埋め込まれ、外観としては図示されない。
上記において、CPU150、メモリ160、表示制御部130、撮像制御部140、投影制御部190は、HMD100の情報処理手段を構成している。
メモリ160はワーク領域および不揮発性領域より成る。ワーク領域には、不揮発性領域から読み出されたプログラムやシステム制御用の定数、変数が展開される。また、現実空間に重畳して表示する仮想オブジェクトの画像のデータが、表示のために保持される。また、撮像部102により撮像されA/D変換された撮像データが、画像解析や画像処理等の目的で展開される。
通信部180は、CPU150の制御に基づき、WiFiDirect等の規格に従って他のHMD100との通信を行い3次元形状データや位置姿勢に関するデータ等を送受信する。
投影制御部190は、投影部103の投影動作の制御を行う。
図2は上記構成を有する第1のHMD100で実行される判断および処理の流れを示し、図3は上記構成を有する第2のHMD100(受信端末)で実行される判断および処理の流れを示している。なお、この判断および処理は、CPU150がメモリ160の不揮発性領域に記録されたプログラムをワーク領域に展開して実行することで実現する。
まず図2を参照して、データの共有を指示するユーザ(使用者)の使用に係る第1のHMD100(送信端末)の判断・処理の流れを説明する。
ステップS201では、第1のHMD100は、これを使用するユーザにより電源が投入されると、撮像部102により現実空間の撮像を開始する。
例えばユーザの管理に係る記憶領域を象徴的に表す立体アイコン(ストレージアイコン)を表示していた場合に、ユーザのジェスチャー操作等により「開く」が指示されたときは、その記憶領域に記憶されているファイル等を表すグラフィックスを表示する。また、例えば、「靴」のデザインデータを象徴的に表すアイコンを表示していた場合において、ユーザのジェスチャー操作等により「開く」が指示されたときは、その「靴」の立体モデルを現実空間の画像に重畳して表示する。
また、HMD100の姿勢(水平方向に対する角度θ)がθ≦-45°またはθ≧45°であるときは略水平な面に向けて投影するものと推定できる。
ステップS208において、投影面が略垂直な面または略水平な面のどちらかに応じて指標画像をいわゆる台形補正する。
ステップS209において、補正された指標画像を投影部103によって投影面に投影する。
これにより、例えば、実在のオブジェクト(投影面)の上に模様などが描かれていて、可視光線による連続投影では投影された指標画像と投影面の模様との区別が困難なため、指標としての認識が困難な場合であっても、指標画像の認識を容易とすることができる。赤外光による投影・認識により模様等の影響を取り除いたり、一定の時間間隔で不連続に投影し、投影前後の撮像画像の差分から投影された画像を抽出したりすることによって、指標画像の認識を容易とすることが可能となる。
また、ステップS213では、表示部104に「共有設定中」であることを示す表示を行う。この表示は、例えば「共有設定中」等の文字を表示するものであってもよいし、仮想オブジェクトのグラフィックスをそれまでと異なる色彩や透過度で表示したり、点滅させて表示するようなものでもよい。
ただし、所定の終了条件を設け、条件を充足したとき(例えば、所定の時間の経過があったとき)は待機を終了する(ステップS215)。確認信号を受信したときは「共有設定中」の表示を消去する(ステップS216)。
図3を参照して、第2のHMD100(受信端末)の判断・処理の流れを説明する。
ステップS301で、第2のHMD100は、これを使用する第2のユーザにより電源が投入されると、撮像部102により現実空間の撮像を開始する。
そして、ステップS302で、第2のHMD100は、他の第1のHMD100から送信される、共有指示された仮想物体に係る情報(3次元形状データ、位置姿勢データ)と指標画像に係る情報(指標画像元データ、指標画像撮像データ)を受信するまで待機する。
ただし、所定の終了条件を設け、条件を充足したとき(例えばユーザの所定の操作があったとき)は待機を終了する(ステップS303)。
ステップS306では、指標画像があったときは、まず、その旨の「確認信号」を第1のHMD100に発信する。これは、すなわち、当該仮想オブジェクトを共有した旨を第1のHYMD100(およびそのユーザ)に通知するものである。第2のHMD100の撮像部102による撮像方向は、これを使用するユーザの視点および視線と一致している。
例えば、指標画像の模様が点対称でもなく、線対称でもなければ、受信した指標画像元データと第1の指標画像撮像データとを比較することによって、指標画像が投影された現実物体(投影面)の位置姿勢と投影面に対する第1の撮像手段の位置姿勢が特定できる。
また、受信した指標画像元データと第2の指標画像撮像データとを比較することによって、投影面に対する第2の撮像手段の位置姿勢が特定できる。
そして、第1の撮像手段の位置姿勢と、投影面の位置姿勢と、第2の撮像手段の位置姿勢との関係が特定されれば、
仮想空間内の第1の視点の位置姿勢と、投影面上またはその近傍に重畳して表示される仮想物体の位置姿勢と、仮想空間内の第2の視点の位置姿勢との関係を特定することができる。
ステップS309では、レンダリングにより得られたバーチャル情報の画像(仮想グラフィックスの画像)を撮像部102が撮像する現実空間の画像に重畳して、表示部104に表示する。
このようにして位置姿勢が特定され、投影面上またはその近傍に重畳して表示される仮想物体(例えば、投影面の約1cm上方に配置され、第1の視点から右側面が見える仮想物体)を、仮想空間内の第2の視点から見た画像が第2の表示部104に表示される。
例えば、図5Cに示すような位置関係であれば、ユーザP3の表示部には、投影面の約1cm上方に配置され、「右」側面から見た仮想物体(靴)が表示され、ユーザP1の表示部には、投影面の約1cm上方に配置され、「左」側面から見た仮想物体が表示される。
また、仮に、上記の特定の位置が使用者の視界(すなわち撮像画像)から外れれば、一旦、仮想オブジェクトのグラフィックスを消去する。しかし、当該特定の位置が再び使用者の視界に入ったときは、メモリ160に記憶した特徴点の情報に基づき、その位置に実在しているように仮想オブジェクトのグラフィックスを再表示する。
以上をまとめると、第1のHMD100は、それが拡張現実表示している仮想オブジェクトについて、そのユーザ(使用者)から「共有」にする指示があったときは、その拡張現実表示している方向に向けて指標画像を投影する。第2のHMD100は、その投影された指標画像を撮像し、当該指標画像と、送信された共有を指示された仮想物体に係る情報および指標画像に係る情報とに基づき、仮想物体を拡張現実表示する。
第2のHMD100の撮像画像における上記の指標画像は、当然、第2のHMD100の視点から見たものであり、また現実物体(例えば「テーブル」等)の投影される面の傾き等を反映したものである。
そこで、例えば第1のユーザがその仮想物体を指などの現実物体によって指し示すと、第2の表示部には、その仮想物体とその現実物体とが重畳表示され、第2のユーザには第1のユーザがその仮想物体を指し示しているように見える。よって、第1のユーザと第2のユーザとが仮想物体を「共有」しているのに適した拡張現実表示が可能となる。
いわゆるジオタグ(geotag)によっても同様の見え方をさせることは可能であるが、本発明の情報処理端末(例えば上記実施形態で説明したHMD100)は、仮想オブジェクトにあらかじめ緯度・経度の情報を付与する必要がない。また各端末の緯度・経度の情報を取得する必要もない。
本発明の情報処理端末を用いたシステムでは、第1のユーザと第2のユーザが存在する現実空間内に指標画像を投影可能な現実物体が存在し、第1の端末から投影面に投影された指標画像を、第1の端末と第2の端末のそれぞれが撮像可能であればよい。
共通の指標画像を第1の端末と第2の端末のそれぞれの位置姿勢からそれぞれが撮像することによって、現実空間における第1の撮像部の位置姿勢と、投影面の位置姿勢と、第2の撮像部の位置姿勢との相対的な関係(第1の相対的関係)を特定することができる。
そして、仮想空間における第1の端末の視点の位置姿勢と、仮想物体の位置姿勢と、第2の端末の視点の位置姿勢との相対的な関係(第2の相対的関係)が第1の相対的関係と略同じになるように第2の端末の視点の位置姿勢を特定する。
これにより投影面の近傍に重畳表示される仮想物体を、第1の視点から見た画像を第1の表示手段に表示し、同じ仮想物体を第2の視点から見た画像を第2の表示手段に表示することができ、共有の拡張現実表示が可能である点に発明の効果を有している。
次に、図4A,4Bを参照して、使用者によりバーチャル情報の画像を共有する指示があったときに指標画像を投影する第1のHMD100の動作例について説明する。図4A,4Bでは、第1のHMD100の表示部104における表示遷移を一連の表示状態(401)〜(408)で示している。前半の4つの表示状態(401)〜(404)は図4Aに示され、後半の4つの表示状態(405)〜(408)は図4Bに示される。
これは、ユーザに対してグラフィックスを指でつまむ視覚的な感覚を生じさせるためになされるものであって、撮像画像から人の指の甲側部分と腹側部分とをそれぞれ識別し抽出する画像処理技術に基づくものである。このような画像処理技術は、例えば特開2012−53674号公報が開示するように既に公知となっている。
もちろん、いわゆる「開く」を指示するジェスチャーとして、他のジェスチャーが割り当てられていても問題はない。
例えば仮想オブジェクトの下に影を表示するなどによって、仮想オブジェクトである「靴」が現実のオブジェクトの「テーブル」の上に置かれているかのように拡張現実表示されているため、図の上では仮想と現実の見分けがつけられないようになっている。
つまり、「非共有」のファイルに係るオブジェクトについては拡張現実表示をせず、「共有」のファイルに係るオブジェクトについては拡張現実表示をするように表示様態を変更することが合理的である。
次に、図5A,5B,5Cを参照して、前述した第1および第2のHMD100を使用して仮想オブジェクトの「共有」を行うための一連の手順の例を説明する。この例ではHMD100を頭部に装着した複数の使用者が特定の場所に集まってミーティング等を行う。このような場合に、1人の使用者により仮想オブジェクトの「共有」が指示され、他の使用者がその仮想オブジェクトをそれぞれの視点から共通の位置座標に関連させて拡張現実表示する様子を、模式的に表したものである。
第3の意義を実現可能とするためには、HMD100が、それぞれ、例えば電界状態の変移等によりHMD100の装着者同士の身体接触を検知する手段を備えてることが必要となる。なお、電界状態の変移により身体接触を検知する技術は、例えば特開2010−193129号公報等が開示するように、公知な技術である。
しかし、HMD100の使用者(装着者)P1〜P3の各表示手段に、あたかもテーブル5021の上に実際に置かれているかのように各使用者の視点から見た仮想オブジェクト5051が表示されていることを模式的に示している。
このため、説明の内容が分かりやすくなる。あるいは、他の使用者が「ここはこうした方が…」等と、指等で指し示しながら意見を言えば、それがどの部分についての意見かも明確である。また、仮想オブジェクト5051について、グループのユーザが編集・改変をする操作が可能となっているときは、例えば色彩や模様を変更しながら打ち合わせを進めるといった利用が可能である。
この実施形態では、バーチャル情報の画像の共有指示に係る指標画像を撮像したとき、所定の確認信号を発信するHMD100の例について説明する。
本実施形態にかかるHMD100は、図3のステップS306において説明したように、指標画像を撮像したとき、その旨の「確認信号」を、当該指標画像を投影表示しているHMD100に発信する。
あるいは、グループ設定されたHMD100が3以上ある場合において、その多くから「確認信号」を受信しないときは、指標画像の投影状態が適切でないと推測できる。このため、指標画像を投影するHMD100はその使用者に対して投影状態を改善するように表示することとしてもよい。
逆に、グループ設定されたHMD100が3以上ある場合において、その多くから「確認信号」を受信し、ごく一部から「確認信号」を受信しないときは、「確認信号」を発信しないHMD100の指標画像の撮像状態が適切でないと推測できる。この場合、その少ない数のHMD100の使用者に対して撮像状態を改善するように表示することとしてもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するコンピュータプログラムを、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
以上の実施形態で説明された構成、形状、大きさおよび配置関係については本発明が理解・実施できる程度に概略的に示したものにすぎない。従って本発明は、説明された実施形態に限定されるものではなく、特許請求の範囲に示される技術的思想の範囲を逸脱しない限り様々な形態に変更することができる。
101 頭部装着部
102 撮像部
103 投影部
104 表示部
130 表示制御部
140 撮像制御部
150 CPU
160 メモリ
170 電源部
180 通信部
190 投影制御部
4082 仮想オブジェクト
5021 テーブル
5031 仮想オブジェクト
5041 指標画像
5051 仮想オブジェクト
Claims (9)
- 第1の使用者の頭部または顔部に装着され、仮想物体を表示するための3次元形状データを送信する送信端末であって、
指標画像元データに基づいて指標画像を現実物体の上に投影する投影手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第1の視点から見た画像が表示される第1の表示手段と、
前記3次元形状データと前記指標画像元データとを送信する送信手段と、
を有し、
前記投影手段の位置姿勢、前記第1の視点の位置姿勢は、前記第1の使用者の頭部または顔部の位置姿勢の変化に逐次追随する
ことを特徴とする送信端末。 - 前記投影手段は、前記第1の使用者により前記3次元形状データを共有する旨の指示があったときに前記指標画像を投影することを特徴とする請求項1に記載の送信端末。
- 更に、前記投影手段により投影される指標画像を撮像して第1の指標画像撮像データを得る第1の撮像手段を備えることを特徴とする請求項1または2に記載の送信端末。
- 第2の使用者の頭部または顔部に装着され、仮想物体を表示するための3次元形状データを送信端末から受信する受信端末であって、
前記3次元形状データと指標画像を投影するための指標画像元データとを受信する受信手段と、
前記現実物体の上に投影された指標画像を撮像して第2の指標画像撮像データを得る第2の撮像手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第2の視点から見た画像が表示される第2の表示手段と、
前記指標画像元データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する計算手段と
を有し、
前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する
ことを特徴とする受信端末。 - 前記現実物体の上に投影された前記指標画像を、前記受信端末の前記第2の撮像手段によって撮像したときに、所定の確認信号を前記送信端末に発信する発信手段を
さらに有することを特徴とする請求項4に記載の受信端末。 - 前記指標画像が不可視の光線により投影され、
前記送信端末の第1の撮像手段および前記受信端末の第2の撮像手段が、いずれも前記不可視の光線により投影された前記指標画像を撮像可能であることを特徴とする請求項4または5に記載の受信端末。 - 請求項1〜3のいずれか1項に記載の送信端末と、請求項4〜6のいずれか1項に記載の受信端末と、を有することを特徴とする送受信システム。
- コンピュータを、請求項1〜3のいずれか1項に記載の送信端末の各手段として機能させるための、コンピュータプログラム。
- コンピュータを、請求項4〜6のいずれか1項に記載の受信端末の各手段として機能させるための、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014070615A JP2015192436A (ja) | 2014-03-28 | 2014-03-28 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014070615A JP2015192436A (ja) | 2014-03-28 | 2014-03-28 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018209211A Division JP6711885B2 (ja) | 2018-11-06 | 2018-11-06 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015192436A true JP2015192436A (ja) | 2015-11-02 |
Family
ID=54426585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014070615A Pending JP2015192436A (ja) | 2014-03-28 | 2014-03-28 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015192436A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017099134A1 (ja) * | 2015-12-07 | 2017-06-15 | 株式会社電通 | 情報処理システム、プログラム及び情報処理方法 |
WO2017122270A1 (ja) * | 2016-01-12 | 2017-07-20 | サン電子株式会社 | 画像表示装置 |
CN108431872A (zh) * | 2016-12-27 | 2018-08-21 | 华为技术有限公司 | 一种共享虚拟现实数据的方法和设备 |
CN108961424A (zh) * | 2018-07-04 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 虚拟信息处理方法、设备及存储介质 |
WO2020209199A1 (ja) * | 2019-04-11 | 2020-10-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
JP2021002145A (ja) * | 2019-06-20 | 2021-01-07 | パルス株式会社 | 仮想空間提供システム、仮想空間提供方法及びプログラム |
JP2021081943A (ja) * | 2019-11-19 | 2021-05-27 | 株式会社桑山瓦 | 仮想現実(vr)と拡張現実(ar)の画像情報を共有する画像共有システム |
KR20210142492A (ko) * | 2020-05-18 | 2021-11-25 | 주식회사 피앤씨솔루션 | 프로젝터 모드를 포함하는 머리 착용형 디스플레이 장치 |
JP7015081B1 (ja) | 2021-05-14 | 2022-02-14 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 |
WO2022239638A1 (ja) * | 2021-05-14 | 2022-11-17 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ参入する主端末、プログラム及びシステム |
JP2023062235A (ja) * | 2021-10-21 | 2023-05-08 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム |
WO2023160072A1 (zh) * | 2022-02-23 | 2023-08-31 | 华为技术有限公司 | 增强现实ar场景中的人机交互方法、装置和电子设备 |
WO2024047720A1 (ja) * | 2022-08-30 | 2024-03-07 | 京セラ株式会社 | 仮想画像共有方法および仮想画像共有システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08331667A (ja) * | 1995-05-30 | 1996-12-13 | Oki Electric Ind Co Ltd | ポインティングシステム |
JP2006277085A (ja) * | 2005-03-28 | 2006-10-12 | Microsignal Kk | 光学式ポインティング制御装置及び該装置を用いたポインティングシステム |
JP2012168646A (ja) * | 2011-02-10 | 2012-09-06 | Sony Corp | 情報処理装置、情報共有方法、プログラム及び端末装置 |
JP2013218459A (ja) * | 2012-04-06 | 2013-10-24 | Sony Corp | 情報処理装置、情報処理方法及び情報処理システム |
-
2014
- 2014-03-28 JP JP2014070615A patent/JP2015192436A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08331667A (ja) * | 1995-05-30 | 1996-12-13 | Oki Electric Ind Co Ltd | ポインティングシステム |
JP2006277085A (ja) * | 2005-03-28 | 2006-10-12 | Microsignal Kk | 光学式ポインティング制御装置及び該装置を用いたポインティングシステム |
JP2012168646A (ja) * | 2011-02-10 | 2012-09-06 | Sony Corp | 情報処理装置、情報共有方法、プログラム及び端末装置 |
JP2013218459A (ja) * | 2012-04-06 | 2013-10-24 | Sony Corp | 情報処理装置、情報処理方法及び情報処理システム |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017099134A1 (ja) * | 2015-12-07 | 2017-06-15 | 株式会社電通 | 情報処理システム、プログラム及び情報処理方法 |
WO2017122270A1 (ja) * | 2016-01-12 | 2017-07-20 | サン電子株式会社 | 画像表示装置 |
JPWO2017122270A1 (ja) * | 2016-01-12 | 2018-10-11 | サン電子株式会社 | 画像表示装置 |
CN108431872A (zh) * | 2016-12-27 | 2018-08-21 | 华为技术有限公司 | 一种共享虚拟现实数据的方法和设备 |
CN108961424A (zh) * | 2018-07-04 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 虚拟信息处理方法、设备及存储介质 |
CN108961424B (zh) * | 2018-07-04 | 2023-04-18 | 百度在线网络技术(北京)有限公司 | 虚拟信息处理方法、设备及存储介质 |
WO2020209199A1 (ja) * | 2019-04-11 | 2020-10-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
JP2021002145A (ja) * | 2019-06-20 | 2021-01-07 | パルス株式会社 | 仮想空間提供システム、仮想空間提供方法及びプログラム |
JP2021081943A (ja) * | 2019-11-19 | 2021-05-27 | 株式会社桑山瓦 | 仮想現実(vr)と拡張現実(ar)の画像情報を共有する画像共有システム |
KR102410872B1 (ko) * | 2020-05-18 | 2022-06-21 | 주식회사 피앤씨솔루션 | 프로젝터 모드를 포함하는 머리 착용형 디스플레이 장치 |
KR20210142492A (ko) * | 2020-05-18 | 2021-11-25 | 주식회사 피앤씨솔루션 | 프로젝터 모드를 포함하는 머리 착용형 디스플레이 장치 |
JP7015081B1 (ja) | 2021-05-14 | 2022-02-14 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 |
WO2022239638A1 (ja) * | 2021-05-14 | 2022-11-17 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ参入する主端末、プログラム及びシステム |
JP2022175911A (ja) * | 2021-05-14 | 2022-11-25 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 |
JP2022176060A (ja) * | 2021-05-14 | 2022-11-25 | 有限会社池谷製作所 | 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法 |
JP7266329B2 (ja) | 2021-05-14 | 2023-04-28 | 有限会社池谷製作所 | 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法 |
JP2023062235A (ja) * | 2021-10-21 | 2023-05-08 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム |
JP7285586B2 (ja) | 2021-10-21 | 2023-06-02 | 有限会社池谷製作所 | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム |
WO2023160072A1 (zh) * | 2022-02-23 | 2023-08-31 | 华为技术有限公司 | 增强现实ar场景中的人机交互方法、装置和电子设备 |
WO2024047720A1 (ja) * | 2022-08-30 | 2024-03-07 | 京セラ株式会社 | 仮想画像共有方法および仮想画像共有システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015192436A (ja) | 送信端末、受信端末、送受信システム、およびそのプログラム | |
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
KR101845350B1 (ko) | 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법 | |
US9898868B2 (en) | Display device, method of controlling the same, and program | |
US9959591B2 (en) | Display apparatus, method for controlling display apparatus, and program | |
JP6387825B2 (ja) | 表示システム、及び、情報表示方法 | |
EP3011418B1 (en) | Virtual object orientation and visualization | |
CN110275297B (zh) | 头部佩戴型显示装置、显示控制方法以及记录介质 | |
JP6376807B2 (ja) | 表示装置、表示制御方法及びプログラム | |
JP7047394B2 (ja) | 頭部装着型表示装置、表示システム、及び、頭部装着型表示装置の制御方法 | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
JP6094305B2 (ja) | 頭部装着型表示装置、および、頭部装着型表示装置の制御方法 | |
JP6711885B2 (ja) | 送信端末、受信端末、送受信システム、およびそのプログラム | |
KR20130034125A (ko) | 증강현실 기능을 구비한 안경형 모니터 | |
JP2017120556A (ja) | 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム | |
JP2018174003A (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
CN114648623A (zh) | 信息处理装置、信息处理方法以及计算机可读介质 | |
JP6135162B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム | |
CN112840379A (zh) | 信息处理装置、信息处理方法及程序 | |
JP7024010B2 (ja) | 送信端末、受信端末、送受信システム、およびそのプログラム | |
JP2015087523A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム | |
JP2016090853A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6683218B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6304415B2 (ja) | 頭部装着型表示装置、および、頭部装着型表示装置の制御方法 | |
JP7157444B2 (ja) | カメラ付き情報端末及プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181211 |