JP2013206322A - 情報処理装置、情報処理システム及び情報処理方法 - Google Patents
情報処理装置、情報処理システム及び情報処理方法 Download PDFInfo
- Publication number
- JP2013206322A JP2013206322A JP2012076966A JP2012076966A JP2013206322A JP 2013206322 A JP2013206322 A JP 2013206322A JP 2012076966 A JP2012076966 A JP 2012076966A JP 2012076966 A JP2012076966 A JP 2012076966A JP 2013206322 A JP2013206322 A JP 2013206322A
- Authority
- JP
- Japan
- Prior art keywords
- real
- unit
- marker
- image
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】情報処理装置は、現実風景を撮影して現実画像を取得する撮影部と、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出する図形検出部と、前記現実風景の前記現実画像から特徴点をリアルタイムに検出する特徴点検出部と、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成するパラメータ生成部とを具備する。
【選択図】図7
Description
マーカ型ARでは、現実空間に物理的に設置されるマーカ(例えば、所定のサイズを有する着色された正方形)の画像情報が予め登録されている。現実空間が撮影されて現実空間の画像(現実画像)が取得され、この現実画像からマーカが検出され、検出されたマーカの大きさや角度等の情報から、マーカに対する撮影装置の空間的な位置関係が算出される。このマーカに対する撮影装置の空間的な位置関係を基に、仮想情報の表示位置や表示角度が算出される。算出された表示位置や表示角度に基づき、撮影装置との相対位置が固定された表示装置に仮想情報が表示され、ユーザは現実空間と共に仮想情報を視認することができる(例えば、特許文献1参照。)。
これに対して、マーカレス型ARには、マーカを作成及び設置する必要がない、マーカを設置すべきでない場所にも適用可能であるというメリットがある。一方、仮想情報を表示する周辺の広い領域の空間モデルを構築するため計算が煩雑となる、高い演算能力が要求され、演算能力が不足すると安定性、高精度の確保が困難であり、遅延が生じるおそれがあるなどといったデメリットもある。
・ユーザが自由に仮想情報の操作(位置移動、ズーム、回転など)を行うのが困難である。すなわち、一旦使用を中止し、実在マーカの位置変更(マーカ型ARの場合)やプログラム上での仮想情報表示位置変更が必要となる。
・可視光カメラによる画像認識を用いるため、明る過ぎる場所、暗過ぎる場所では画像認識できない。加えて、光源(太陽、電灯など)に対する遮蔽物によって実在物体表面に強い陰影(コントラスト)が生じてしまう場合も問題となる。
[第1の実施形態の概要]
図1は、本技術の第1の実施形態に係る情報処理システム1を示す模式図である。
本実施形態の情報表示システム1は、ヘッドマウントディスプレイ(Head Mount Display、HMD)100(情報処理装置)と、入力装置200(投影装置)とを有する。
図2は、複数のHMD100A、100Bを有する情報処理システム1を示す模式図である。
複数のHMD100A、100Bは、複数のユーザU1、U2にそれぞれ装着される。ユーザU1は入力装置200を用いて現実空間にマーカMを投影する。HMD100Aは、HMD100Aの撮影部101Aが撮影した現実画像から、HMD100Aを装着したユーザU1が持つ入力装置200により投影されたマーカMを検出し、検出したマーカMをもとに仮想情報を表示する。HMD100Bは、HMD100Bの撮影部101Bが撮影した現実画像から、HMD100Bを装着したユーザU2とは異なるユーザU1が持つ入力装置200により投影されたマーカMを検出し、検出したマーカMをもとに仮想情報を表示する。
図3は、HMD100及び入力装置200のハードウェア構成を示すブロック図である。
HMD100は、CPU(Central Processing Unit)103と、それぞれCPU103に接続されたメモリ104、撮影部101、表示部102、入力部105、モーションセンサ106、環境センサ107、第1の送受信器108及び第2の送受信器109と、内部電源110とを有する。
撮影部101は、現実空間の少なくともユーザの視野範囲を撮影可能である。撮影部101は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮影素子と、撮影素子の出力をA/D(Analog/Digital)変換するA/Dコンバータなどで構成される。
表示部102は、LCD(Liquid Crystal Display、液晶表示素子)と光学系などからなり、LCDによって形成された画像を光学系を介してユーザに提示する。より具体的には、表示部102は、ユーザに外界を視認させつつ、LCDによって形成された画像をユーザの視野に重ねて表示可能である。
入力部105は、例えば、ボタン、スライダ、スイッチ、ダイヤル、タッチセンサなどで構成され、ユーザ操作によりCPU103に対する命令や、仮想情報として表示するコンテンツの選択を入力可能である。
モーションセンサ106は、例えば、加速度センサ、ジャイロセンサ、磁気センサであり、HMD100の移動を検出可能である。
環境センサ107は、例えば、照度や温湿度を検出可能である。
第1の送受信器108は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)などの中・高速近距離無線送受信器であり、入力装置200との情報のやり取りを行う。
第2の送受信器109は、例えば、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access、登録商標)などの中距離無線送受信器であり、インターネットやLAN(Local Area Network)などのネットワークNに接続し、仮想情報として表示するコンテンツをダウンロードしたりする。
図3を参照し、入力装置200は、CPU212と、それぞれCPU212に接続されたメモリ205、入力部206、モーションセンサ207、第3の送受信器208、変調部209及び投影部210と、内部電源211とを有する。
CPU212は、メモリ205に格納されたプログラムに従って各種処理を実行する。なお、CPUの代わりにMPU(Micro Processing Unit)であってもよい。
入力部206は、投影ボタン201、ズームスライダ202、電源ボタン203などのボタン、スライダ、スイッチ、ダイヤル、タッチセンサなどで構成され、ユーザ操作によりCPU212に対する命令を入力可能である。
モーションセンサ207は、例えば、加速度センサ、ジャイロセンサ、磁気センサであり、入力装置200の移動を検出可能である。
第3の送受信器208は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)などの中・高速近距離無線送受信器であり、HMD100との情報のやり取りを行う。
変調部209は、CPU212が扱うデジタルデータを投影部210が投影可能な光信号に変調する。
投影部210は、投影窓204(図1)からマーカとしての所定形状の図形を現実空間の投影対象物(壁や机など)に投影可能なレーザポインタ又はレーザプロジェクタにより構成される。レーザポインタとしては、点表示型(赤、緑、青)、ビーム可変型(スキャナタイプ、レンズタイプ、ホログラムタイプ)、紫外型、赤外型などを採用することができる。レーザプロジェクタとしては、例えば、MEMS(Micro Electro Mechanical System)スキャナを搭載し、高速に左右へ動く1本のレーザ光で上から順に走査することにより画像を投影可能な装置などを採用することができる。
HMD100は、以下の3つの処理を実行することが可能である。
1.撮影により得られた現実画像データに含まれるマーカに対して仮想情報を表示する。さらに、マーカの消失やユーザ操作によって現実画像データにマーカが含まれなくなって仮想情報の重畳パラメータの演算・更新処理が停止し、かつその後に撮影部が動かされた場合にも、仮想情報をユーザの違和感なく表示する処理(第1の処理)。
2.複数のユーザがそれぞれのHMDを通して同一のオブジェクトを見ているような角度、位置及びサイズ等で、それぞれのHMDが仮想情報を表示する処理(第2の処理)。
3.マーカに基づいて仮想情報を表示するとユーザにとって違和感等が生じるおそれが生じる可能性がある場合、ユーザにとって違和感等が生じる可能性の少ない形態で仮想情報を表示する処理(第3の処理)。
[第1の処理の概要]
マーカ型AR及びマーカレス型ARの上記各問題を解決するため、据え置き型のレーザプロジェクタなどを用いてマーカを投影することで、物理的なマーカを用いなくともマーカ型ARのメリットを享受可能な手法が提案されている。しかし、この手法には以下のような問題点がある。
・別途プロジェクタや定点カメラなどの設備が必要となり、設置場所を選ぶ。
・使用前に空間を詳細に走査するステップが必要となるため、リアルタイム性に劣る。
・広い領域の空間モデルの構築を行う必要があるので計算が煩雑となる。
・広い領域の空間モデルの構築を行う必要があるので空間の測量及び計算が煩雑である。
・レーザポインタ及び撮影装置の姿勢演算なども行う必要があり、計算が煩雑であるとともに、安定性、良精度の確保が困難である。
・レーザポインタと投影装置とが一体的に構成される形態において(特許文献3の図1、図19)、仮想情報を特定の場所に停止状態で表示したい場合には、ユーザはレーザポインタを常に同じ姿勢に保持する必要があるため疲労感を伴う。また、手ぶれにより、表示される仮想情報の位置が安定しにくい。
・ポインティング点の投影を止めると仮想情報の表示位置が算出できなくなるので、仮想情報の表示中は常にポインティング点の投影を行う必要がある。さらに、複数の仮想情報に対して独立した操作を行うことができない。
・これらの問題に対応するため、ポインティング点の投影を止めた際に、仮想情報を最後に表示された位置に表示し続ける様な処理仕様にすると仮定する。しかし、その場合に撮影部(撮影部を携帯するユーザ)が少しでも移動又は回転すると、仮想情報の位置や角度等は変化しないため、仮想情報の位置や角度等がユーザにとって正しいものではなくなってしまう。
図4は、第1の処理を実行するためのHMD100の機能的な構成を示すブロック図である。
HMD100は、撮影部101、三次元構造推定部120、マーカ検出部121、重畳パラメータ生成部122、変換行列算出部123、画像データ生成部124及び表示部102を有する。
三次元構造推定部120は、このステレオ映像から現実空間の三次元構造を推定し、推定結果を重畳パラメータ生成部122に供給する。
また、重畳パラメータ生成部122は、三次元構造推定部120が推定した現実空間の三次元構造の座標系と表示中の仮想情報の座標系とが一致するように、現実空間に対する仮想情報の空間的な位置関係(第2の位置関係)を保持して仮想情報の重畳パラメータを計算する。このように現実空間の三次元構造の座標系と表示中の仮想情報の座標系とが一致するように生成された重畳パラメータを以下「第2の重畳パラメータ」と呼ぶ。なお、第1及び第2の重畳パラメータを区別する必要がないときは単に「重畳パラメータ」と呼ぶ。
また、変換行列算出部123は、表示中の仮想情報の座標系を、現実空間の三次元構造の座標系に、第2の重畳パラメータで変換するための空間座標変換行列を生成する。画像データ生成部124は、仮想情報のオブジェクトデータを、変換行列算出部123から供給された空間座標変換行列を用いて座標変換する。
表示部102は、変換行列算出部123より供給された仮想情報のオブジェクト画像データを表示する。
図7は、HMD100による第1の処理の動作を示すフローチャートである。
CPU103が所定の初期化処理を行うと(ステップS101)、撮影部101は現実空間の画像を撮影し、現実画像データを取得する(ステップS102)。撮影部101は、取得した現実画像データを三次元構造推定部120及びマーカ検出部121に供給する。三次元構造推定部120は、現実画像データ中から複数の特徴点を検出する(ステップS103)。撮影部101の視野移動中も、三次元構造推定部120は、特徴点をリアルタイムに検出(特徴点を追跡(トラッキング))し続ける(ステップS104)。三次元構造推定部120は、特徴点トラッキングで経時的に結び付ける事により、移動する1台のカメラ(撮影部101)で時分割撮影することでステレオ映像を算出する。三次元構造推定部120は、このステレオ映像から現実空間の三次元構造を推定し、推定結果を重畳パラメータ生成部122に供給する(ステップS105)。
以上、第1の処理によれば、次のような効果が期待できる。
1.表示部が仮想情報を既に表示しているものの現実画像データから仮想情報が重畳されていたマーカが検出されない場合、仮想情報の重畳パラメータについて、マーカをもとに第1の重畳パラメータの演算・更新処理を行うことができなくなる。加えて、現実画像データからマーカが検出されなくなった後にユーザの移動により撮影部が移動すると、ユーザの視野の現実空間の風景は変化するのに、表示空間における仮想情報の位置や角度は変化しないこととなるため、ユーザにとって違和感のある位置や角度で仮想情報が表示され続けることとなる。
しかしながら、第1の処理では、現実空間における特徴点をリアルタイムに検出し、現実空間の三次元構造の座標系と表示中の仮想情報の座標系とが一致するように、仮想情報の第2の重畳パラメータを演算・更新する。これにより、現実画像データにマーカが含まれなくなってマーカに基づく第1の重畳パラメータの演算が停止する直前(マーカが最後に検出された時点)の、現実空間に対する仮想情報の空間的な位置関係を保持して仮想情報表示し続けることができる。さらに、高い演算能力や複雑なハードウェアシステム・設備を要求するのが通常であったマーカレス型ARシステムをマーカ型AR同等の簡単な演算・システムで実現することができる。
・全体形状として正方形であること
・正方形の幅又は高さ方向における黒枠:白領域:黒枠の割合が、基本的に25%:50%:25%、最低でも3:14:3
・白領域内のパターンは点対称・線対称を避け、細線を用いてはならない
・二値化した際に黒枠を明確に判別するため、マーカの周囲に余白が必要である
しかしながら、第1の処理のレーザ投影によるマーカの場合、S/N(Signal/Noise)値を非常に高くできるため、色の限定(黒・白)、細線非使用などの制約を外すことができる。さらに、余白は背景との分離を目的として設けられるため、第1の処理のレーザ投影によるマーカには、余白部分を設ける必要が無くなる。このように、現実空間に物理的に設置されるマーカに比べて、マーカのデザインの自由度を上げることができる。
・大画面でビデオ映像やプラネタリウム画像を表示する。
・オフィスのパーティションや壁にバーチャルな付箋紙や資料を提示する。
・複数のバーチャル付箋紙を大画面上で表示したり移動したりする。
また、入力装置を動かすことにより、仮想情報の重畳位置を自在に制御することができる。具体的な適用例として以下の例が挙げられる。
・入力装置をあたかも手綱のように操作し、仮想情報としてのバーチャルなペットを散歩させる。
[第2の処理の概要]
図2を参照し、1人のユーザが入力装置200を用いて投影したマーカをもとに複数のHMD100がそれぞれ仮想情報を表示する場合について説明する。なお、以下の説明において、マーカを投影する入力装置200をもつユーザの装着するHMDを「投影HMD」、マーカを投影する入力装置200をもたないユーザの装着するHMDを「非投影HMD」と呼ぶこととする。あるユーザU1(第1のユーザ)が入力装置200を用いて投影対象物にマーカMを投影する。そして、別のユーザU2(第2のユーザ)に装着された非投影HMD100BがこのマーカMに対して仮想情報を表示することにより第2のユーザU2に仮想情報を提示するような場合を想定する。この場合、第2のユーザU2の非投影HMD100Bが、第1のユーザU1の入力装置200が投影したマーカMを含む現実空間を撮影し、この現実画像を用いて仮想情報の重畳パラメータを算出する。
・別途第2のプロジェクタや撮影装置(定点カメラ)などの設備が必要であるため、使用場所を選ぶ。
・第1のプロジェクタと投影対象物の位置が固定である必要があるため、使用場所を選ぶ。
・マーカを投影するためだけの第1のプロジェクタを使用するのは無駄が大きい。
図9は、第2の処理を実行するためのHMD100の機能的な構成を示すブロック図である。
HMD(投影HMD及び非投影HMD)100は、撮影部101、マーカ検出部121、重畳パラメータ生成部122、マーカ補正部125、変換行列算出部123、画像データ生成部124、表示部102及び第1の送受信器108を有する。
以下、すでに説明した構成及び機能等と同様の構成及び機能等は説明を簡略化又は省略し、異なる点を中心に説明する。
図10は、HMD100による第2の処理の動作を示すフローチャートである。
CPU103は所定の初期化処理を行い(ステップS201)、自HMDが投影HMDかどうか、すなわち、自HMDを装着したユーザが持つ入力装置200によってマーカが投影されるかどうかを判定する(ステップS202)。具体的には、例えば、HMD100に自HMDを装着したユーザが所有する入力装置200の機器IDが予め登録され、CPU103は、当該機器IDによって識別される入力装置200にマーカ投影実行の有無を第1の送受信器108を用いて問い合わせればよい。あるいは、ユーザにより、このユーザが持つ入力装置200によってマーカが投影されるかどうかが、入力部105に入力されるようにしてもよい。
以上、第2の処理によれば、次のような効果が期待できる。
1.図11に示すように、第1のユーザU1が投影した補正マーカM’は、投影対象物上で歪みの無い基準マーカ形状となる。これにより、第2のユーザU2の非投影HMD100Bによる重畳パラメータの計算として、歪んだマーカ(図2のM)を基準マーカ形状に補正する必要が無く、補正マーカM’に対する重畳パラメータを計算しさえすればよいので、非投影HMD100Bによる計算量が小さく済む。その結果、計算に掛かる時間が少なくて済み、第2のユーザU2が、第1のユーザU1が実際に見ているオブジェクトをリアルタイムに見ることができる。すなわち、投影HMD100Aの表示結果と非投影HMD100Bの表示結果との間に時間的ずれが生じにくく、仮に生じたとしても無視できるほど小さい値で済む。また、非投影HMD100Bによる計算が正確性を保つことができる。すなわち、投影HMD100Aの表示結果と非投影HMD100Bの表示結果との間に空間的ずれが生じにくい。結果として、第1のユーザが操作する仮想情報を複数のユーザが鑑賞する場合でも、各ユーザが装着するHMDが表示するオブジェクトの角度、位置及び大きさのずれが少ない。
[第3の処理の概要]
マーカが投影された投影対象物が何であるか、どこであるかを問わず仮想情報を表示すると、図12に示すように、次のような表示形態が生じるおそれがある。
・マーカが机10の隅に投影された場合、仮想情報が部分的に机10からはみ出して空中に浮いているかのように表示される(図中A)。
・マーカがパーティション11に投影された場合、マーカの投影位置近傍に椅子12、机10など別の物体が存在すると、仮想情報が部分的に当該物体上に表示される(図中B)。
・比較的面積が小さいパーティション11にマーカを投影しようとして、マーカがペーティション11を外れて遠くに位置する壁13に投影されると、仮想情報が遠くに位置する壁13に表示される(図中C)。
・ユーザにとって近すぎる位置にマーカが投影される場合、表示部102がハードウェア性能的にうまく結像できない場所に仮想情報が表示される(図中D)。
以上のような状態では、ユーザが違和感や不快感を覚えたり、肉体的苦痛(眼精疲労など)を感じるおそれがある。
図13は、第3の処理を実行するためのHMD100の機能的な構成を示すブロック図である。
HMD100は、撮影部101、マーカ検出部121、重畳パラメータ生成部122、マーカ位置判断部126、変換行列算出部123、画像データ生成部124及び表示部102を有する。
図14は、HMD100による第3の処理の動作を示すフローチャートである。
CPU103が所定の初期化処理を行うと(ステップS301)、撮影部101は現実画像データを取得する(ステップS302)。撮影部101は、取得した現実画像データをマーカ検出部121及びマーカ位置判断部126に供給する。マーカ検出部121は、ステップS107と同様にマーカを検出し(ステップS303でYes)、検出結果を重畳パラメータ生成部122及びマーカ位置判断部126に供給する。そして、ステップS108〜S110と同様に、一致度判断(ステップS304)、第1の重畳パラメータの計算及び補正(ステップS305、S306)が行われる。
・マーカが投影された対象物(机や壁など、以下「投影対象物」と呼ぶ。)の輪郭とマーカとの最短距離が所定値未満である(図12のA)。又は、マーカの少なくとも一部が投影対象物の輪郭に重なる。
・マーカから所定距離以内に柱、椅子、机など別の物体が存在する(図12のB)。
・マーカと撮影部101との距離が所定値以上である(マーカが遠すぎる)(図12のC)。
・マーカと撮影部101との距離が所定値未満である(マーカが近すぎる)(図12のD)。
・図15に示すように、表示中の仮想情報を消す。
・加えて、図15に示すように、仮想情報を縮小又はアイコン化した画像データIa、Ib、Ic、Idを生成し、視野内の安全領域Sに表示する。この「安全領域」とは、例えば、現実空間に存在する物体との干渉が生じにくい位置、表示部102が結像可能な範囲内での手前(視野範囲中、下方)の位置、視野の妨げになりにくい視野範囲中の端部の位置などであればよい。
・マーカが投影された対象物(机や壁など、以下「投影対象物」と呼ぶ。)の輪郭とマーカとの最短距離が所定値未満(図12のA)又はマーカの少なくとも一部が投影対象物の輪郭に重なる場合、以下の処理を行ってもよい。入力装置が任意の図形を投影できるレーザプロジェクタなどの装置である場合、投影されたマーカのサイズや形状を、表示される仮想情報のサイズや形状に対応するように変化させる。これにより、現実空間と仮想情報との干渉の可能性をユーザが直感的に把握しやすくなる。例えば、図16に示すように、既にマーカM1が投影され仮想情報I1が表示されている状況(A)において、ユーザの入力操作によって仮想情報I1の向きや姿勢が仮想情報I2に変化するとする(仮想情報I1が回転)。この場合、マーカM1が回転した後のマーカM1’を、仮想情報I2の大部分に重なるような形状のマーカM2に変化させる(B)。これにより、マーカの少なくとも一部が投影対象物の輪郭に重なるかどうかを、ユーザが直感的に把握しやすくなる。
以上、第3の処理によれば、次のような効果が期待できる。
1.マーカに基づいて仮想情報を表示するとユーザにとって違和感、不快感及び肉体的苦痛(眼精疲労など)等が生じるおそれが生じる可能性がある場合、ユーザにとって違和感等が生じる可能性の少ない形態で仮想情報を表示することができる。
[第2の実施形態の概要]
第2の実施形態は、第1の実施形態の第2の処理にて行われた複数のHMD(投影HMD、非投影HMD)による仮想情報の表示を実現可能し、第2の処理の効果と同様の効果を達成可能とする。
本実施形態では、投影HMD100Aの重畳パラメータを、無線通信を用いて複数の非投影HMD100B、100Cで共有する。そして、非投影HMD100B、100Cは、投影HMD100Aの重畳パラメータを用いて、自HMD100B、100Cの重畳パラメータを補正する。これにより、第2の実施形態によっても、1人のユーザが操作する仮想情報を複数のユーザが鑑賞する場合、各ユーザが装着するHMD(投影HMD、非投影HMD)が表示するオブジェクトの角度、位置及び大きさのずれを少なくすることができる。
図18は、第2の実施形態に係るHMD(投影HMD、非投影HMD)100aのハードウェア構成を示すブロック図である。
HMD100aは、第1の実施形態のHMD100のハードウェア構成(図3)に加えて、第4の送受信器111を有する。
第4の送受信器111は、Bluetooth(登録商標)、赤外線などの近距離無線送受信器であり、他のHMD100aとの情報のやり取りを行う。より具体的には、第4の送受信器111(送信部)は、投影HMD100aの重畳パラメータを、非投影HMD100aが共有するために非投影HMD100aに対して送受信するなどの処理を行う。
まず、(1)投影HMD100aの動作について説明し、次に、(2)非投影HMD100aの動作について説明する。
図19は、投影HMD100aによるメイン動作を示すフローチャートである。
CPU103が所定の初期化処理を行うと(ステップS401)、投影HMD100aは、ステップS102、ステップS107〜S113と同様に、現実画像データの取得(ステップS402)、マーカ検出(ステップS403)、マーカの一致度判断(ステップS404)、重畳パラメータの計算及び補正(ステップS405、S406)、座標変換行列生成(ステップS407)、オブジェクト画像データの算出(ステップS408)、オブジェクト画像データの表示(ステップS409)を行う。そして、投影HMD100aは、自HMD100aの機器IDと、ステップS406で得た重畳パラメータを、第4の送受信器111(送信部)を用いて他HMD100aに送信する(ステップS410)。これにより、投影HMD100aの重畳パラメータが、非投影HMD100aにより共有される。
図20は、非投影HMD100aによる、投影HMD100aの重畳パラメータ取得の動作を示すフローチャートである。
CPU103が所定の初期化処理を行い(ステップS501)、第4の送受信器111が、投影HMD100aより送信(ステップS410)された機器ID及び重畳パラメータを受信する(ステップS502でYes)。CPU103は、取得(ステップS503)した機器ID及び重畳パラメータをメモリ104に格納する(ステップS504)。
以上、第2の実施形態によれば、次のような効果が期待できる。
1.非投影HMDは、自HMDとマーカが投影された投影対象物(壁など)との角度及び距離をもとに算出した重畳パラメータを、投影HMDの重畳パラメータをもとに補正する。これにより、非投影HMDによる計算が正確性を保つことができ、すなわち、投影HMDの表示結果と非投影HMDの表示結果との間に空間的ずれが生じにくい。結果として、1人のユーザが操作する仮想情報を複数のユーザが鑑賞する場合でも、各ユーザが装着するHMDが表示するオブジェクトの位置、角度及び大きさのずれが少ない。
変形例1は、第1の実施形態の第2の処理にて行われた複数のHMD(投影HMD、非投影HMD)による仮想情報の表示を実現可能とし、第2の処理の効果と同様の効果を達成可能とする。
仮想情報の表示対象である表示対象物T(壁、パーティションなど)に、実在する物理的なマーカMを付与する。複数のHMD100はそれぞれ、自HMDと、表示対象物Tが付与されたマーカMとの距離及び角度を算出する。
この方式によっても、各複数のHMDによる計算が正確性を保つことができ、すなわち、各複数のHMDの表示結果の間に時間的及び空間的ずれが生じにくい、という効果が期待できる。
図22は、変形例2に係る情報処理システム3を示す模式図である。図23は、変形例2に係る情報処理システム3のハードウェア構成を示すブロック図である。
情報処理システム3は、HMD100b、入力装置200及び携帯情報端末400を有する。上記各実施形態では、HMD100、100aに設けられたCPU103がメイン処理を実行した。これに対して、本変形例の情報処理システムは、HMD100bとは独立した携帯情報端末400がメイン処理を実行する。この携帯情報端末400として例えばスマートフォンや携帯型ゲーム機を採用することができる。
CPU401は、メモリ402に格納されたプログラムに従って、上記各実施形態で述べた各機能部として各種処理を実行する。
第7の送受信器405は、例えば、Bluetooth(登録商標)などの中・低速近距離無線送受信器であり、HMD100bとの情報のやり取りを行う。より具体的には、第7の送受信器405は、HMD100bの表示部が表示すべき仮想情報の画像出力信号をHMD100bに送信するなどの処理を行う。
第8の送受信器406は、Bluetooth(登録商標)、赤外線などの近距離無線送受信器であり、入力装置200aとの情報のやり取りを行う。より具体的には、第8の送受信器406は、入力装置200aが投影するマーカとしての図形のパターンを変更するための変更信号を入力装置200aに送信するなどの処理を行う。
第9の送受信器408は、例えば、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access、登録商標)などの高速中距離無線送受信器又は高速遠距離無線送受信器であり、インターネットやLAN(Local Area Network)などのネットワークNに接続し、仮想情報として表示するコンテンツをダウンロードしたりする。
図24は、変形例3に係る情報処理システム4を示す模式図である。
本変形例の情報処理システム4のハードウェア構成は、第1の実施形態の情報処理システム1のハードウェア構成(図3)と同様である。
上記実施形態では、HMDに設けられたCPUがメイン処理を実行した。これに対して、本変形例の情報処理システム4は、入力装置200としての携帯情報端末がメイン処理を実行する。この携帯情報端末として例えばスマートフォンや携帯型ゲーム機を採用することができる。
入力装置(携帯情報端末)200のCPU212は、メモリ205に格納されたプログラムに従って、上記実施形態で述べた各機能部として各種処理を実行する。
図25は、変形例4に係る情報処理システム5を示す模式図である。図26は、変形例4に係る情報処理システム5のハードウェア構成を示すブロック図である。
上記実施形態では、HMD100とは独立した入力装置200を用いてマーカ投影や仮想情報に対する入力操作を行った。これに対して本変形例では、入力装置を別途設けずに、HMD100cのみでマーカ投影や仮想情報に対する入力操作を含む全ての動作を実現する。
ユーザは、HMD100cを装着した状態で首を動かすことで、仮想情報に対して操作を行うことができる。例えば、ユーザが首を上下左右に向けてマーカの投影位置を移動すると、表示される仮想情報の表示位置を移動(ドラッグ)させることができる。
図27は、変形例5に係る情報処理システム6を示す模式図である。
情報処理システム6は、複数のHMD100A、100B、100Cと、複数の入力装置200と、仮想情報として表示されるコンテンツのコンテンツデータを保持するサーバ装置500とを有する。
図28は、変形例6に係る情報処理システム7を示す模式図である。
情報処理システムは、メイン処理装置600と、投影/撮影装置700と、1以上の表示装置800とを有する。
投影/撮影装置700は、マーカMを現実空間Sに投影し、定点カメラにより現実空間Sを撮影して現実画像データを取得し、取得した現実画像データをメイン処理装置600に供給する。
表示装置800は、メイン処理装置600から取得した表示データを表示する。表示装置800は、例えば、HUD(Head-Up Display)である。HUDとして、具体的には、デジタルサイネージ(電子看板)、机上や車ダッシュボード上に載置され得る透明ディスプレイ、携帯情報端末のディスプレイなどを採用することができる。
図29は、変形例7に係る入力装置200bを示す斜視図である。
入力装置200bは、投影ボタン201、ホイール214、メニューボタン215、選択ボタン216を有し、ポインティングデバイスとしての機能を持つ。入力装置200bは、OS(Operating System)に対する以下のような入力操作処理を行う。
(1)投影ボタン201が操作されると、投影窓204からマーカの投影が開始され、仮想情報としてのポインタが表示される。
(2)仮想情報として表示されたアイコンやウィンドウ上に仮想情報としてのポインタが表示された環境において入力装置200b(ポインティングデバイス)を移動し、選択ボタン216をクリックすると、アイコンが選択されたり、ボタンがクリックされる。
・上記環境において、選択ボタン216をダブルクリックすると、オブジェクトが実行される。
・上記環境において、選択ボタン216を押しながら入力装置200bを移動すると、オブジェクトが移動(ドラッグ)する。
・上記環境において、選択ボタン216を押しながら入力装置200bを回転させると、オブジェクトが回転する。
・上記環境において、ホイール214を回転すると、オブジェクトが拡大/縮小したり、オブジェクトがスクロールされる。
(3)オブジェクトのドラッグ・回転操作後に選択ボタン216を離すと、仮想情報としてのオブジェクトは、現実空間との相対位置を保持して固定し表示され続ける。
(4)メニューボタン215を操作すると、サブメニューが表示される。
(5)マーカ投影中に投影ボタン201を押すとマーカの投影が終了する。マーカの投影が終了した後、その時点で表示されている仮想情報を一定期間表示し続けることとしても良い。
マーカ投影及び重畳パラメータ演算停止後も仮想情報を表示し続ける場合(ステップS106でYes)、画像データ生成部124(第1の仮想情報表示制御部)は、仮想情報の表示をあらかじめ決められたイベントの発生により停止させればよい。この「あらかじめ決められたイベント」の例としては次のようなものが挙げられる
・入力装置200に対する操作が行われる。例えば、入力装置200に仮想情報オフボタン(図示せず)が設けられる場合、仮想情報オフボタンが押下される。
・マーカ投影停止後一定時間が経過する。
・撮影部101(HMD100)が一定距離以上移動する。
・撮影部101(HMD100)が一定角度以上回転移動する。
図5は、変形例9に係る情報処理システム8を模式的に示すブロック図である。
情報処理システムは、HMD100と、入力装置200と、撮影部901、表示部902及びメイン処理部903を有する情報処理装置900(例えば、パーソナルコンピュータ(Personal Computer)、以下PCと呼ぶ)とを有する。入力装置200は現実空間にマーカを投影可能である。撮影部901及び表示部902はPC900に接続又は搭載され、表示部902はディスプレイ(図30のディスプレイ904)を有する。
続いて、図31に示すように、ユーザUは入力装置200を移動してディスプレイ904上でマーカを移動させることで、仮想情報がディスプレイ904上で移動(ドラッグ)する。ユーザUはさらに入力装置200を移動し、ディスプレイ904から離れて投影対象物(机など)910上にマーカを移動させる(マーカM2)。PC900のメイン処理部903は、マーカM2がディスプレイ904から離れて投影対象物910上に移動したことを無線通信によりHMD100に通知する。
この通知を受けると、図32に示すように、HMD100は、投影対象物910上に投影されたマーカM2を撮影し、仮想情報I2を表示する。
入力装置が投影するマーカの図形は既存のものを使用してもよい。具体的には、HMDの撮影部が現実空間に存在するマーカを撮影する。あるいは、HMDは既存のマーカをネットワークを通じてダウンロードする。HMDは撮影又はダウンロードにより取得したマーカを無線通信により入力装置に供給する。ここで入力装置は、任意の図形を投影可能なレーザプロジェクタなどの装置である。入力装置は、HMDより取得したマーカを現実空間に投影する。
マーカ投影の光源として、可視領域外(赤外、紫外など)レーザを使用してもよい。これにより、HMDを装着しないユーザにマーカ及び仮想情報を視認させないようにすることができる。一方、HMDを装着するユーザは仮想情報を視認可能である。さらに、HMDの表示部に可視領域外(赤外、紫外など)レーザを視認可能とする処置を施すことにより、HMDを装着するユーザはマーカを視認可能としてもよい。
上記各実施形態では、ユーザが入力装置を用いて仮想情報に対して操作を行うことができるとしたが、HMDのCPUが予めメモリに記憶されたプログラムに従って仮想情報の位置や角度を変更してもよい。この場合、最初に仮想情報を表示する基準位置を、表示装置から投影されるマーカに基づき決定することとすればよい。
重畳パラメータの補正として以下のような手法を用いてもよい。ユーザが入力装置を自然に操作可能な領域は限定される(例えば、胸の前50cm四方)。一方、HMDに搭載された撮影部の場合、ユーザと撮影部の位置関係がある程度固定される。このため、撮影部と入力装置との位置関係もまた、ある程度固定される。これを利用し、撮影部によって撮影したマーカをもとに算出される仮想情報の第1の重畳パラメータを、ユーザにとってより自然に見える様に補正してもよい。この手法は、HMDが、撮影部に対する入力装置の位置・向きを検出することができない場合でも用いることができる。
(1)現実風景を撮影して現実画像を取得する撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出する図形検出部と、
前記現実風景の前記現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成するパラメータ生成部と
を具備する情報処理装置。
(2)上記(1)に記載の情報処理装置であって、
前記特徴点検出部による検出結果をもとに生成された前記パラメータを用いた前記仮想情報の表示を、あらかじめ決められたイベントの発生により停止させる第1の仮想情報表示制御部
をさらに具備する情報処理装置。
(3)上記(1)又は(2)に記載の情報処理装置であって、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部
をさらに具備する情報処理装置。
(4)上記(1)から(3)のいずれか1つに記載の情報処理装置であって、
前記パラメータ生成部は、変形が付与された図形と前記撮影部との第1の位置関係をもとに、前記パラメータを生成する
情報処理装置。
(5)上記(1)から(4)のいずれか1つに記載の情報処理装置であって、
前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、前記仮想情報の表示を無効化する第2の仮想情報表示制御部
をさらに具備する情報処理装置。
(6)上記(1)から(5)のいずれか1つに記載の情報処理装置であって、
前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、自然法則及び/又は視覚品質上の条件を満足するように、仮想情報の表示位置を変更する第2の仮想情報表示制御部
をさらに具備する情報処理装置。
(7)上記(1)から(6)のいずれか1つに記載の情報処理装置であって、
前記表示部
をさらに具備する情報処理装置。
(8)上記(1)から(7)のいずれか1つに記載の情報処理装置であって、
前記投影装置
をさらに具備する情報処理装置。
(9)第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部とを有し、
前記第1のパラメータ生成部は、変形が付与された図形と前記第1の撮影部との第1の位置関係をもとに、前記パラメータを生成する
第1の情報処理装置と、
前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
前記投影装置により前記第1の現実風景に投影された前記変形が付与された図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
前記変形が付与された図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と
を有する第2の情報処理装置と
を具備する情報処理システム。
(10)第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記第1のパラメータを第2の情報処理装置に送信する送信部と
を有する第1の情報処理装置と、
前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
前記投影装置により前記第1の現実風景に投影された前記図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
前記図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と、
前記第1の情報処理装置より前記第1のパラメータを受信し、この受信した第1のパラメータを用いて前記第2のパラメータを補正する補正部と
を有する第2の情報処理装置と
を具備する情報処理システム。
(11)撮影部により、現実風景を撮影して現実画像を取得し、
図形検出部により、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出し、
特徴点検出部により、前記現実風景の前記現実画像から特徴点をリアルタイムに検出し、
パラメータ生成部により、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成する
情報処理方法。
101…撮影部
102…表示部
120…三次元構造推定部
121…マーカ検出部
122…重畳パラメータ生成部
124…画像データ生成部
200…入力装置
Claims (11)
- 現実風景を撮影して現実画像を取得する撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出する図形検出部と、
前記現実風景の前記現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成するパラメータ生成部と
を具備する情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記特徴点検出部による検出結果をもとに生成された前記パラメータを用いた前記仮想情報の表示を、あらかじめ決められたイベントの発生により停止させる第1の仮想情報表示制御部
をさらに具備する情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部
をさらに具備する情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記パラメータ生成部は、変形が付与された図形と前記撮影部との第1の位置関係をもとに、前記パラメータを生成する
情報処理装置。 - 請求項4に記載の情報処理装置であって、
前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、前記仮想情報の表示を無効化する第2の仮想情報表示制御部
をさらに具備する情報処理装置。 - 請求項4に記載の情報処理装置であって、
前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、自然法則及び/又は視覚品質上の条件を満足するように、仮想情報の表示位置を変更する第2の仮想情報表示制御部
をさらに具備する情報処理装置。 - 請求項1ないし6のいずれか1項に記載の情報処理装置であって、
前記表示部
をさらに具備する情報処理装置。 - 請求項1ないし7のいずれか1項に記載の情報処理装置であって、
前記投影装置
をさらに具備する情報処理装置。 - 第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部とを有し、
前記第1のパラメータ生成部は、変形が付与された図形と前記第1の撮影部との第1の位置関係をもとに、前記パラメータを生成する
第1の情報処理装置と、
前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
前記投影装置により前記第1の現実風景に投影された前記変形が付与された図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
前記変形が付与された図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と
を有する第2の情報処理装置と
を具備する情報処理システム。 - 第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記第1のパラメータを第2の情報処理装置に送信する送信部と
を有する第1の情報処理装置と、
前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
前記投影装置により前記第1の現実風景に投影された前記図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
前記図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と、
前記第1の情報処理装置より前記第1のパラメータを受信し、この受信した第1のパラメータを用いて前記第2のパラメータを補正する補正部と
を有する第2の情報処理装置と
を具備する情報処理システム。 - 撮影部により、現実風景を撮影して現実画像を取得し、
図形検出部により、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出し、
特徴点検出部により、前記現実風景の前記現実画像から特徴点をリアルタイムに検出し、
パラメータ生成部により、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成する
情報処理方法。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012076966A JP5966510B2 (ja) | 2012-03-29 | 2012-03-29 | 情報処理システム |
KR1020147025953A KR20140136943A (ko) | 2012-03-29 | 2013-02-20 | 정보 처리 장치, 정보 처리 시스템, 및 정보 처리 방법 |
US14/385,869 US9824497B2 (en) | 2012-03-29 | 2013-02-20 | Information processing apparatus, information processing system, and information processing method |
CN201380015874.8A CN104205175B (zh) | 2012-03-29 | 2013-02-20 | 信息处理装置,信息处理系统及信息处理方法 |
PCT/JP2013/000953 WO2013145536A1 (en) | 2012-03-29 | 2013-02-20 | Information processing apparatus, information processing system, and information processing method |
EP13710577.1A EP2831849A1 (en) | 2012-03-29 | 2013-02-20 | Information processing apparatus, information processing system, and information processing method |
TW102108327A TW201350912A (zh) | 2012-03-29 | 2013-03-08 | 資訊處理裝置,資訊處理系統及資訊處理方法 |
US15/794,326 US10198870B2 (en) | 2012-03-29 | 2017-10-26 | Information processing apparatus, information processing system, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012076966A JP5966510B2 (ja) | 2012-03-29 | 2012-03-29 | 情報処理システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013206322A true JP2013206322A (ja) | 2013-10-07 |
JP2013206322A5 JP2013206322A5 (ja) | 2015-04-02 |
JP5966510B2 JP5966510B2 (ja) | 2016-08-10 |
Family
ID=47901252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012076966A Active JP5966510B2 (ja) | 2012-03-29 | 2012-03-29 | 情報処理システム |
Country Status (7)
Country | Link |
---|---|
US (2) | US9824497B2 (ja) |
EP (1) | EP2831849A1 (ja) |
JP (1) | JP5966510B2 (ja) |
KR (1) | KR20140136943A (ja) |
CN (1) | CN104205175B (ja) |
TW (1) | TW201350912A (ja) |
WO (1) | WO2013145536A1 (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015146113A (ja) * | 2014-02-03 | 2015-08-13 | ブラザー工業株式会社 | 表示プログラムおよび表示装置 |
JP2015201786A (ja) * | 2014-04-09 | 2015-11-12 | 株式会社Nttドコモ | 撮像システム及び撮像方法 |
JP2016092567A (ja) * | 2014-11-04 | 2016-05-23 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
JP2016136376A (ja) * | 2015-01-14 | 2016-07-28 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
JP2016161611A (ja) * | 2015-02-27 | 2016-09-05 | セイコーエプソン株式会社 | 表示システム、及び表示制御方法 |
JP2017056933A (ja) * | 2015-09-18 | 2017-03-23 | 株式会社リコー | 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム |
JP2017072999A (ja) * | 2015-10-07 | 2017-04-13 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
JP2018004756A (ja) * | 2016-06-28 | 2018-01-11 | 株式会社リコー | 情報表示システム |
JP2018517187A (ja) * | 2015-03-04 | 2018-06-28 | オキュラス ブイアール,エルエルシー | 仮想現実システムにおけるスパース投影 |
US10297062B2 (en) | 2014-03-18 | 2019-05-21 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and computer program |
JP2020084654A (ja) * | 2018-11-29 | 2020-06-04 | 前田建設工業株式会社 | トンネルにおけるarマーカー設置方法 |
JP2020095523A (ja) * | 2018-12-13 | 2020-06-18 | エイベックス株式会社 | 端末装置及びプログラム |
US11107287B2 (en) * | 2017-10-05 | 2021-08-31 | Sony Corporation | Information processing apparatus and information processing method |
WO2021256310A1 (ja) * | 2020-06-18 | 2021-12-23 | ソニーグループ株式会社 | 情報処理装置、端末装置、情報処理システム、情報処理方法およびプログラム |
JP2022513013A (ja) * | 2018-11-15 | 2022-02-07 | コーニンクレッカ フィリップス エヌ ヴェ | 複合現実のための仮想オブジェクトの体系的配置 |
US12001013B2 (en) | 2018-07-02 | 2024-06-04 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US12016719B2 (en) | 2018-08-22 | 2024-06-25 | Magic Leap, Inc. | Patient viewing system |
US12033081B2 (en) | 2020-11-13 | 2024-07-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9420251B2 (en) | 2010-02-08 | 2016-08-16 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
EP2876608A4 (en) * | 2012-07-23 | 2016-02-10 | Fujitsu Ltd | PROGRAM, METHOD, AND DISPLAY CONTROL DEVICE |
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
US10169916B2 (en) * | 2013-05-27 | 2019-01-01 | Sony Corporation | Image processing device and image processing method |
US10905943B2 (en) * | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
CN105874528B (zh) * | 2014-01-15 | 2018-07-20 | 麦克赛尔株式会社 | 信息显示终端、信息显示系统以及信息显示方法 |
JP6264087B2 (ja) | 2014-02-21 | 2018-01-24 | ソニー株式会社 | 表示制御装置、表示装置および表示制御システム |
JP6364952B2 (ja) * | 2014-05-23 | 2018-08-01 | 富士通株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
WO2015186401A1 (ja) | 2014-06-06 | 2015-12-10 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法及び画像処理プログラム |
JP6326996B2 (ja) * | 2014-06-13 | 2018-05-23 | 富士通株式会社 | 端末装置、情報処理システム、及び表示制御プログラム |
WO2016012044A1 (en) * | 2014-07-24 | 2016-01-28 | Deutsche Telekom Ag | Method and system for augmenting television watching experience |
US10134187B2 (en) | 2014-08-07 | 2018-11-20 | Somo Innvoations Ltd. | Augmented reality with graphics rendering controlled by mobile device position |
KR102309281B1 (ko) * | 2014-11-07 | 2021-10-08 | 삼성전자주식회사 | 오브젝트를 표시하는 방향 기반 전자 장치 및 방법 |
TWI621097B (zh) * | 2014-11-20 | 2018-04-11 | 財團法人資訊工業策進會 | 行動裝置、操作方法及非揮發性電腦可讀取記錄媒體 |
KR101651535B1 (ko) * | 2014-12-02 | 2016-09-05 | 경북대학교 산학협력단 | Hmd 디바이스 및 그 제어 방법 |
WO2016129549A1 (ja) * | 2015-02-12 | 2016-08-18 | 株式会社コロプラ | ヘッドマウント・ディスプレイを用いたコンテンツ視聴のための装置およびシステム |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US10365490B2 (en) * | 2015-05-19 | 2019-07-30 | Maxell, Ltd. | Head-mounted display, head-up display and picture displaying method |
CN106445088B (zh) * | 2015-08-04 | 2020-05-22 | 上海宜维计算机科技有限公司 | 现实增强的方法及系统 |
TWI590189B (zh) * | 2015-12-23 | 2017-07-01 | 財團法人工業技術研究院 | 擴增實境方法、系統及電腦可讀取非暫態儲存媒介 |
JP6690277B2 (ja) * | 2016-02-09 | 2020-04-28 | 富士通株式会社 | 画像処理制御方法、画像処理制御プログラムおよび情報処理装置 |
EP3329316B1 (en) | 2016-03-11 | 2023-09-20 | Facebook Technologies, LLC | Corneal sphere tracking for generating an eye model |
US10115205B2 (en) | 2016-03-11 | 2018-10-30 | Facebook Technologies, Llc | Eye tracking system with single point calibration |
CN105867617B (zh) * | 2016-03-25 | 2018-12-25 | 京东方科技集团股份有限公司 | 增强现实设备、系统、图像处理方法及装置 |
US10249090B2 (en) * | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
JP6834537B2 (ja) | 2017-01-30 | 2021-02-24 | 株式会社リコー | 表示装置、移動体装置、表示装置の製造方法及び表示方法。 |
CN107918499B (zh) * | 2016-10-09 | 2022-09-06 | 北京墨土科技有限公司 | 光学定位系统及方法、定位用光学观测设备 |
CN107979748A (zh) * | 2016-10-21 | 2018-05-01 | 中强光电股份有限公司 | 投影机、投影系统以及影像投影方法 |
CN108062786B (zh) * | 2016-11-08 | 2022-12-30 | 台湾国际物业管理顾问有限公司 | 以三维信息模型为基础的综合感知定位技术应用系统 |
JP6171079B1 (ja) * | 2016-12-22 | 2017-07-26 | 株式会社Cygames | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
CN106843497A (zh) * | 2017-02-24 | 2017-06-13 | 北京观动科技有限公司 | 一种混合现实信息交互方法及装置 |
US10467456B2 (en) * | 2017-04-17 | 2019-11-05 | Htc Corporation | Tracking system for tracking an object based on silhouette |
US10509556B2 (en) * | 2017-05-02 | 2019-12-17 | Kyocera Document Solutions Inc. | Display device |
US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
US10602046B2 (en) * | 2017-07-11 | 2020-03-24 | Htc Corporation | Mobile device and control method |
JP2019061590A (ja) * | 2017-09-28 | 2019-04-18 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
US10803666B1 (en) * | 2017-09-28 | 2020-10-13 | Apple Inc. | Method and device for synchronizing augmented reality coordinate systems |
CN109587188B (zh) * | 2017-09-28 | 2021-10-22 | 阿里巴巴集团控股有限公司 | 确定终端设备之间相对位置关系的方法、装置及电子设备 |
CN109658514B (zh) * | 2017-10-11 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置和计算机存储介质 |
CN107861247B (zh) * | 2017-12-22 | 2020-08-25 | 联想(北京)有限公司 | 光学部件及增强现实设备 |
CN110119190A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 定位方法、装置、识别跟踪系统及计算机可读介质 |
CN110392251B (zh) * | 2018-04-18 | 2021-07-16 | 广景视睿科技(深圳)有限公司 | 一种基于虚拟现实的动态投影方法及系统 |
US10771727B2 (en) * | 2018-04-27 | 2020-09-08 | Vital Optics, Inc | Monitoring system with heads-up display |
CN108579084A (zh) * | 2018-04-27 | 2018-09-28 | 腾讯科技(深圳)有限公司 | 虚拟环境中的信息显示方法、装置、设备及存储介质 |
TWI670646B (zh) * | 2018-06-15 | 2019-09-01 | 財團法人工業技術研究院 | 資訊顯示方法及其顯示系統 |
TWI718410B (zh) * | 2018-09-14 | 2021-02-11 | 財團法人工業技術研究院 | 目標物資訊的預載顯示方法及裝置 |
CN112955851A (zh) * | 2018-10-09 | 2021-06-11 | 谷歌有限责任公司 | 基于场境线索选择增强现实对象以供显示 |
CN113302661B (zh) * | 2019-01-10 | 2024-06-14 | 三菱电机株式会社 | 信息显示控制装置及方法、以及记录介质 |
TWI725574B (zh) * | 2019-02-22 | 2021-04-21 | 宏達國際電子股份有限公司 | 頭戴式顯示裝置以及眼球追蹤游標的顯示方法 |
US11762623B2 (en) * | 2019-03-12 | 2023-09-19 | Magic Leap, Inc. | Registration of local content between first and second augmented reality viewers |
JP7277187B2 (ja) | 2019-03-13 | 2023-05-18 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、およびプログラム |
US11294453B2 (en) * | 2019-04-23 | 2022-04-05 | Foretell Studios, LLC | Simulated reality cross platform system |
US11663736B2 (en) * | 2019-12-27 | 2023-05-30 | Snap Inc. | Marker-based shared augmented reality session creation |
CN113766167A (zh) * | 2020-06-04 | 2021-12-07 | 中国移动通信有限公司研究院 | 全景视频会议增强方法、系统和网络设备 |
TWI779305B (zh) * | 2020-06-24 | 2022-10-01 | 奧圖碼股份有限公司 | 使用擴增實境之投影機的設置模擬方法及其終端裝置 |
US11893698B2 (en) * | 2020-11-04 | 2024-02-06 | Samsung Electronics Co., Ltd. | Electronic device, AR device and method for controlling data transfer interval thereof |
JP7318670B2 (ja) * | 2021-01-27 | 2023-08-01 | セイコーエプソン株式会社 | 表示方法および表示システム |
TWI773265B (zh) * | 2021-04-21 | 2022-08-01 | 大陸商廣州立景創新科技有限公司 | 影像擷取組件的組裝方法 |
CN113934294A (zh) * | 2021-09-16 | 2022-01-14 | 珠海虎江科技有限公司 | 虚拟现实显示设备及其对话窗口显示方法、计算机可读存储介质 |
DE102022201351A1 (de) * | 2022-02-09 | 2023-08-10 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille |
JP2023177422A (ja) * | 2022-06-02 | 2023-12-14 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001126051A (ja) * | 1999-10-27 | 2001-05-11 | Olympus Optical Co Ltd | 関連情報呈示装置及び関連情報呈示方法 |
JP2004062758A (ja) * | 2002-07-31 | 2004-02-26 | Canon Inc | 情報処理装置および方法 |
JP2006099188A (ja) * | 2004-09-28 | 2006-04-13 | Canon Inc | 情報処理方法および装置 |
JP2009225432A (ja) * | 2008-02-22 | 2009-10-01 | Panasonic Electric Works Co Ltd | 光投影装置、照明装置 |
JP2010231459A (ja) * | 2009-03-26 | 2010-10-14 | Kyocera Corp | 画像合成装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002324239A (ja) | 2001-04-25 | 2002-11-08 | Olympus Optical Co Ltd | 情報呈示システム |
CN100416336C (zh) * | 2003-06-12 | 2008-09-03 | 美国西门子医疗解决公司 | 校准真实和虚拟视图 |
WO2005010817A1 (ja) | 2003-07-24 | 2005-02-03 | Olympus Corporation | 画像処理装置 |
JP4532982B2 (ja) * | 2004-05-14 | 2010-08-25 | キヤノン株式会社 | 配置情報推定方法および情報処理装置 |
JP5075330B2 (ja) | 2005-09-12 | 2012-11-21 | 任天堂株式会社 | 情報処理プログラム |
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
JP2007272623A (ja) | 2006-03-31 | 2007-10-18 | Brother Ind Ltd | 画像合成装置及び画像合成プログラム |
JP4777182B2 (ja) | 2006-08-01 | 2011-09-21 | キヤノン株式会社 | 複合現実感提示装置及びその制御方法、プログラム |
JP4689639B2 (ja) * | 2007-04-25 | 2011-05-25 | キヤノン株式会社 | 画像処理システム |
US20100107081A1 (en) * | 2008-10-24 | 2010-04-29 | Infocus Corporation | Projection device image viewer user interface |
JP4816789B2 (ja) * | 2009-11-16 | 2011-11-16 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
WO2011109126A1 (en) | 2010-03-05 | 2011-09-09 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
EP2558176B1 (en) | 2010-04-13 | 2018-11-07 | Sony Computer Entertainment America LLC | Calibration of portable devices in a shared virtual space |
CN102122072B (zh) * | 2011-03-16 | 2016-04-13 | 北京理工大学 | 头戴式微投影立体视觉显示器 |
-
2012
- 2012-03-29 JP JP2012076966A patent/JP5966510B2/ja active Active
-
2013
- 2013-02-20 KR KR1020147025953A patent/KR20140136943A/ko not_active Application Discontinuation
- 2013-02-20 EP EP13710577.1A patent/EP2831849A1/en not_active Withdrawn
- 2013-02-20 US US14/385,869 patent/US9824497B2/en active Active
- 2013-02-20 WO PCT/JP2013/000953 patent/WO2013145536A1/en active Application Filing
- 2013-02-20 CN CN201380015874.8A patent/CN104205175B/zh active Active
- 2013-03-08 TW TW102108327A patent/TW201350912A/zh unknown
-
2017
- 2017-10-26 US US15/794,326 patent/US10198870B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001126051A (ja) * | 1999-10-27 | 2001-05-11 | Olympus Optical Co Ltd | 関連情報呈示装置及び関連情報呈示方法 |
JP2004062758A (ja) * | 2002-07-31 | 2004-02-26 | Canon Inc | 情報処理装置および方法 |
JP2006099188A (ja) * | 2004-09-28 | 2006-04-13 | Canon Inc | 情報処理方法および装置 |
JP2009225432A (ja) * | 2008-02-22 | 2009-10-01 | Panasonic Electric Works Co Ltd | 光投影装置、照明装置 |
JP2010231459A (ja) * | 2009-03-26 | 2010-10-14 | Kyocera Corp | 画像合成装置 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015146113A (ja) * | 2014-02-03 | 2015-08-13 | ブラザー工業株式会社 | 表示プログラムおよび表示装置 |
US10297062B2 (en) | 2014-03-18 | 2019-05-21 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and computer program |
JP2015201786A (ja) * | 2014-04-09 | 2015-11-12 | 株式会社Nttドコモ | 撮像システム及び撮像方法 |
JP2016092567A (ja) * | 2014-11-04 | 2016-05-23 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
JP2016136376A (ja) * | 2015-01-14 | 2016-07-28 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
JP2016161611A (ja) * | 2015-02-27 | 2016-09-05 | セイコーエプソン株式会社 | 表示システム、及び表示制御方法 |
JP2018517187A (ja) * | 2015-03-04 | 2018-06-28 | オキュラス ブイアール,エルエルシー | 仮想現実システムにおけるスパース投影 |
JP2017056933A (ja) * | 2015-09-18 | 2017-03-23 | 株式会社リコー | 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム |
JP2017072999A (ja) * | 2015-10-07 | 2017-04-13 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
JP2018004756A (ja) * | 2016-06-28 | 2018-01-11 | 株式会社リコー | 情報表示システム |
US11107287B2 (en) * | 2017-10-05 | 2021-08-31 | Sony Corporation | Information processing apparatus and information processing method |
US12001013B2 (en) | 2018-07-02 | 2024-06-04 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US12016719B2 (en) | 2018-08-22 | 2024-06-25 | Magic Leap, Inc. | Patient viewing system |
JP2022513013A (ja) * | 2018-11-15 | 2022-02-07 | コーニンクレッカ フィリップス エヌ ヴェ | 複合現実のための仮想オブジェクトの体系的配置 |
JP2020084654A (ja) * | 2018-11-29 | 2020-06-04 | 前田建設工業株式会社 | トンネルにおけるarマーカー設置方法 |
JP7170517B2 (ja) | 2018-11-29 | 2022-11-14 | 前田建設工業株式会社 | トンネルにおけるarマーカー設置方法 |
JP2020095523A (ja) * | 2018-12-13 | 2020-06-18 | エイベックス株式会社 | 端末装置及びプログラム |
WO2021256310A1 (ja) * | 2020-06-18 | 2021-12-23 | ソニーグループ株式会社 | 情報処理装置、端末装置、情報処理システム、情報処理方法およびプログラム |
US12033081B2 (en) | 2020-11-13 | 2024-07-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
Also Published As
Publication number | Publication date |
---|---|
EP2831849A1 (en) | 2015-02-04 |
CN104205175A (zh) | 2014-12-10 |
KR20140136943A (ko) | 2014-12-01 |
CN104205175B (zh) | 2017-11-14 |
US20150070389A1 (en) | 2015-03-12 |
WO2013145536A1 (en) | 2013-10-03 |
JP5966510B2 (ja) | 2016-08-10 |
US10198870B2 (en) | 2019-02-05 |
TW201350912A (zh) | 2013-12-16 |
US20180096536A1 (en) | 2018-04-05 |
US9824497B2 (en) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5966510B2 (ja) | 情報処理システム | |
CN112926428B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
JP5912059B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
KR20230074780A (ko) | 검출된 손 제스처들에 응답한 터치리스 포토 캡처 | |
US9495068B2 (en) | Three-dimensional user interface apparatus and three-dimensional operation method | |
US10999412B2 (en) | Sharing mediated reality content | |
US11954268B2 (en) | Augmented reality eyewear 3D painting | |
CN110377148B (zh) | 计算机可读介质、训练对象检测算法的方法及训练设备 | |
KR20130108643A (ko) | 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들 | |
US11869156B2 (en) | Augmented reality eyewear with speech bubbles and translation | |
US11195341B1 (en) | Augmented reality eyewear with 3D costumes | |
JP2022183213A (ja) | ヘッドマウントディスプレイ | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
WO2022176450A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2016157458A (ja) | 情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160620 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5966510 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |