JP2013206322A - 情報処理装置、情報処理システム及び情報処理方法 - Google Patents

情報処理装置、情報処理システム及び情報処理方法 Download PDF

Info

Publication number
JP2013206322A
JP2013206322A JP2012076966A JP2012076966A JP2013206322A JP 2013206322 A JP2013206322 A JP 2013206322A JP 2012076966 A JP2012076966 A JP 2012076966A JP 2012076966 A JP2012076966 A JP 2012076966A JP 2013206322 A JP2013206322 A JP 2013206322A
Authority
JP
Japan
Prior art keywords
real
unit
marker
image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012076966A
Other languages
English (en)
Other versions
JP2013206322A5 (ja
JP5966510B2 (ja
Inventor
Tetsuo Goto
哲郎 後藤
Masatoshi Ueno
正俊 上野
Kenichi Kabasawa
憲一 樺澤
Toshiyuki Nakagawa
俊之 中川
Daisuke Kawakami
大介 川上
Yukinobu Kuriya
志伸 栗屋
Tsubasa Tsukahara
翼 塚原
Naoko Sugano
尚子 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2012076966A priority Critical patent/JP5966510B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to PCT/JP2013/000953 priority patent/WO2013145536A1/en
Priority to KR1020147025953A priority patent/KR20140136943A/ko
Priority to US14/385,869 priority patent/US9824497B2/en
Priority to CN201380015874.8A priority patent/CN104205175B/zh
Priority to EP13710577.1A priority patent/EP2831849A1/en
Priority to TW102108327A priority patent/TW201350912A/zh
Publication of JP2013206322A publication Critical patent/JP2013206322A/ja
Publication of JP2013206322A5 publication Critical patent/JP2013206322A5/ja
Application granted granted Critical
Publication of JP5966510B2 publication Critical patent/JP5966510B2/ja
Priority to US15/794,326 priority patent/US10198870B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】安定的かつ高精度に仮想情報を表示すること。
【解決手段】情報処理装置は、現実風景を撮影して現実画像を取得する撮影部と、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出する図形検出部と、前記現実風景の前記現実画像から特徴点をリアルタイムに検出する特徴点検出部と、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成するパラメータ生成部とを具備する。
【選択図】図7

Description

本技術は、現実空間に対して画像を重畳して表示する情報処理装置、情報処理システム及び情報処理方法に関する。
現実空間の画像に、現実空間に対応する画像を付加する、拡張現実(Augmented Reality:AR)と呼ばれる技術がある。ARでは、カメラ等によって現実空間の画像が取得され、取得された現実空間の画像に対して仮想的な情報(以下、仮想情報)が重畳して表示される。ユーザは、現実空間に対して重畳して表示された仮想情報を見ることにより、仮想情報として表示されているオブジェクトがあたかも現実空間に存在しているかのように認識する。
ARにはマーカ型ARとマーカレス型ARとがある。
マーカ型ARでは、現実空間に物理的に設置されるマーカ(例えば、所定のサイズを有する着色された正方形)の画像情報が予め登録されている。現実空間が撮影されて現実空間の画像(現実画像)が取得され、この現実画像からマーカが検出され、検出されたマーカの大きさや角度等の情報から、マーカに対する撮影装置の空間的な位置関係が算出される。このマーカに対する撮影装置の空間的な位置関係を基に、仮想情報の表示位置や表示角度が算出される。算出された表示位置や表示角度に基づき、撮影装置との相対位置が固定された表示装置に仮想情報が表示され、ユーザは現実空間と共に仮想情報を視認することができる(例えば、特許文献1参照。)。
一方、マーカレス型ARでは、特定のマーカは使用されない。現実画像に含まれる物体や現実空間自体が空間的に認識され、物体などの大きさや角度等の情報に基づき物体に対する撮影装置の空間的な位置関係が算出される。その位置関係を基に、仮想情報の表示位置や表示角度が算出され、撮影装置との相対位置が固定された表示装置に仮想情報が表示され、ユーザは現実空間と共に仮想情報を視認することができる。
特開2007−75213号公報 特開2008−40556号公報 特開2007−272623号公報 特開2002−324239号公報
マーカ型ARには、現実空間に実在するマーカに基づいて仮想情報の表示位置や表示角度を算出するため、これらを比較的容易に算出可能であるというメリットがある。一方、マーカを作成する手間、マーカ設置スペースの確保、マーカの経年劣化、現実空間に実在するマーカによる物理的及び心理的ストレス、マーカのデザイン上の制約といったデメリットもある。
これに対して、マーカレス型ARには、マーカを作成及び設置する必要がない、マーカを設置すべきでない場所にも適用可能であるというメリットがある。一方、仮想情報を表示する周辺の広い領域の空間モデルを構築するため計算が煩雑となる、高い演算能力が要求され、演算能力が不足すると安定性、高精度の確保が困難であり、遅延が生じるおそれがあるなどといったデメリットもある。
さらに、マーカ型及びマーカレス型ARに共通する問題点として以下のものが挙げられる。
・ユーザが自由に仮想情報の操作(位置移動、ズーム、回転など)を行うのが困難である。すなわち、一旦使用を中止し、実在マーカの位置変更(マーカ型ARの場合)やプログラム上での仮想情報表示位置変更が必要となる。
・可視光カメラによる画像認識を用いるため、明る過ぎる場所、暗過ぎる場所では画像認識できない。加えて、光源(太陽、電灯など)に対する遮蔽物によって実在物体表面に強い陰影(コントラスト)が生じてしまう場合も問題となる。
このように、マーカ型AR及びマーカレス型ARはそれぞれ一長一短であり、実用化に向けて改良の余地がある。
以上のような事情に鑑み、本技術の目的は、安定的かつ高精度に仮想情報を表示することにある。
本技術に係る情報処理装置は、現実風景を撮影して現実画像を取得する撮影部と、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出する図形検出部と、前記現実風景の前記現実画像から特徴点をリアルタイムに検出する特徴点検出部と、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成するパラメータ生成部とを具備する。
情報処理装置は、前記特徴点検出部による検出結果をもとに生成された前記パラメータを用いた前記仮想情報の表示を、あらかじめ決められたイベントの発生により停止させる第1の仮想情報表示制御部をさらに具備してもよい。
情報処理装置は、前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部をさらに具備してもよい。
前記パラメータ生成部は、変形が付与された図形と前記撮影部との第1の位置関係をもとに、前記パラメータを生成してもよい。
情報処理装置は、前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、前記仮想情報の表示を無効化する第2の仮想情報表示制御部をさらに具備してもよい。
情報処理装置は、前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、自然法則及び/又は視覚品質上の条件を満足するように、仮想情報の表示位置を変更する第2の仮想情報表示制御部をさらに具備してもよい。
情報処理装置は、前記表示部をさらに具備してもよい。
情報処理装置は、前記投影装置をさらに具備してもよい。
本技術に係る情報処理システムは、第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部とを有し、前記第1のパラメータ生成部は、変形が付与された図形と前記第1の撮影部との第1の位置関係をもとに、前記パラメータを生成する第1の情報処理装置と、前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、前記投影装置により前記第1の現実風景に投影された前記変形が付与された図形の画像を前記第2の現実画像から検出する第2の図形検出部と、前記変形が付与された図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部とを有する第2の情報処理装置とを具備する。
本技術に係る情報処理システムは、第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、前記第1のパラメータを第2の情報処理装置に送信する送信部とを有する第1の情報処理装置と、前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、前記投影装置により前記第1の現実風景に投影された前記図形の画像を前記第2の現実画像から検出する第2の図形検出部と、前記図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と、前記第1の情報処理装置より前記第1のパラメータを受信し、この受信した第1のパラメータを用いて前記第2のパラメータを補正する補正部とを有する第2の情報処理装置とを具備する。
本技術に係る情報処理方法は、撮影部により、現実風景を撮影して現実画像を取得し、図形検出部により、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出し、特徴点検出部により、前記現実風景の前記現実画像から特徴点をリアルタイムに検出し、パラメータ生成部により、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成する。
以上のように、本技術によれば、安定的かつ高精度に仮想情報を表示することができる。
本技術の第1の実施形態に係る情報処理システムを示す模式図である。 複数のHMDを有する情報処理システムを示す模式図である。 HMD及び入力装置のハードウェア構成を示すブロック図である。 第1の処理を実行するためのHMDの機能的な構成を示すブロック図である。 変形例9に係る情報処理システムを模式的に示すブロック図である。 重畳パラメータ生成部による重畳パラメータ生成の原理を模式的に示す図である。 HMDによる第1の処理の動作を示すフローチャートである。 マーカ型ARで用いられるマーカの一例を示す図である。 第2の処理を実行するためのHMDの機能的な構成を示すブロック図である。 HMDによる第2の処理の動作を示すフローチャートである。 第2の処理により得られる効果を説明するための図である。 第3の処理の概要を説明するための図である。 第3の処理を実行するためのHMDの機能的な構成を示すブロック図である。 HMDによる第3の処理の動作を示すフローチャートである。 第3の処理による表示結果を示す図である。 マーカの変形を模式的に示す図である。 本技術の第2の実施形態に係る情報処理システムを示す模式図である。 第2の実施形態に係るHMDのハードウェア構成を示すブロック図である。 投影HMDによるメイン動作を示すフローチャートである。 非投影HMDによる、投影HMDの重畳パラメータ取得の動作を示すフローチャートである。 変形例1に係る情報処理システムを示す模式図である。 変形例2に係る情報処理システムを示す模式図である。 変形例2に係る情報処理システムのハードウェア構成を示すブロック図である。 変形例3に係る情報処理システムを示す模式図である。 変形例4に係る情報処理システムを示す模式図である。 変形例4に係る情報処理システムのハードウェア構成を示すブロック図である。 変形例5に係る情報処理システムを示す模式図である。 変形例6に係る情報処理システムを示す模式図である。 変形例7に係る入力装置を示す斜視図である。 変形例9により実現される処理を模式的に示す図である。 変形例9により実現される処理を模式的に示す図である。 変形例9により実現される処理を模式的に示す図である。
以下、本技術に係る実施形態を図面を参照しながら説明する。
<第1の実施形態>
[第1の実施形態の概要]
図1は、本技術の第1の実施形態に係る情報処理システム1を示す模式図である。
本実施形態の情報表示システム1は、ヘッドマウントディスプレイ(Head Mount Display、HMD)100(情報処理装置)と、入力装置200(投影装置)とを有する。
HMD100は、全体としてメガネ型の形状を有し、ユーザUの頭部に装着可能である。HMD100は、装着時にユーザUの眼前に配置される表示部102と、現実空間の少なくともユーザUの視野範囲を撮影可能な撮影部101とを有する。表示部102は透過性を有し、ユーザU個人に表示部102を透過させて現実空間を視認させつつ、ユーザUが視認する現実空間に重畳して画像を表示することが可能である。HMD100は、撮影部101が撮影した現実空間の画像(現実画像)に含まれる、入力装置200により投影されたマーカMを検出し、検出したマーカMをもとに仮想情報Iの重畳パラメータを算出する。この「重畳パラメータ」とは、現実空間に対して重畳して表示させる仮想情報の形態に関するパラメータであり、具体的には、仮想情報Iの位置、角度及び大きさである。HMD100は、算出した重畳パラメータに基いて所定の仮想情報を生成し、表示部102により、ユーザUの視認する現実空間に投影されたマーカMに重畳して仮想情報Iを表示する。この仮想情報Iとして表示するコンテンツの選択は、ユーザによりHMD100に設けられた入力部(図3)を用いて予め入力される。
入力装置200は、ユーザUが手に持つことが可能な大きさ及び形状を有する。入力装置200には、投影ボタン201、ズームスライダ202、電源ボタン203が設けられる。ユーザUが投影ボタン201を押すと、投影窓204からマーカMとしての所定形状の図形が現実空間の投影対象物T(机など)に投影される。このマーカMの投影位置が、HMD100による仮想情報Iの表示位置となる。さらに、ユーザUが投影ボタン201を押しながら入力装置200を動かすことで、仮想情報Iに対して操作を行うことができる。例えば、ユーザUが投影ボタン201を押しながら入力装置200を移動してマーカMの投影位置を移動すると、仮想情報Iを移動(ドラッグ)させることができる。同様に、ユーザUが投影ボタン201を押しながら入力装置200を回転してマーカMを回転すると、仮想情報Iを回転させることができる。また、ユーザUが投影ボタン201を押しながらズームスライダ202を操作すると、仮想情報Iを拡大/縮小(ズーム)させることができる。仮想情報Iを表示中に新たな別の仮想情報を表示させるためには、ユーザUは投影ボタン201の押下を停止し、HMD100に設けられた入力部(図3)を用いて新たな仮想情報として表示するコンテンツの選択を入力する。また、ユーザUが投影ボタン201の押下を停止し、その後再び投影ボタン201を押してマーカMを表示中の仮想情報Iに重ねると、再びその仮想情報Iを操作可能となる。
なお、情報表示システム1は、複数のユーザにそれぞれ装着された複数のHMDを有するものであってもよい。
図2は、複数のHMD100A、100Bを有する情報処理システム1を示す模式図である。
複数のHMD100A、100Bは、複数のユーザU1、U2にそれぞれ装着される。ユーザU1は入力装置200を用いて現実空間にマーカMを投影する。HMD100Aは、HMD100Aの撮影部101Aが撮影した現実画像から、HMD100Aを装着したユーザU1が持つ入力装置200により投影されたマーカMを検出し、検出したマーカMをもとに仮想情報を表示する。HMD100Bは、HMD100Bの撮影部101Bが撮影した現実画像から、HMD100Bを装着したユーザU2とは異なるユーザU1が持つ入力装置200により投影されたマーカMを検出し、検出したマーカMをもとに仮想情報を表示する。
[HMDのハードウェア構成]
図3は、HMD100及び入力装置200のハードウェア構成を示すブロック図である。
HMD100は、CPU(Central Processing Unit)103と、それぞれCPU103に接続されたメモリ104、撮影部101、表示部102、入力部105、モーションセンサ106、環境センサ107、第1の送受信器108及び第2の送受信器109と、内部電源110とを有する。
CPU103は、メモリ104に格納されたプログラムに従って各種処理を実行する。
撮影部101は、現実空間の少なくともユーザの視野範囲を撮影可能である。撮影部101は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮影素子と、撮影素子の出力をA/D(Analog/Digital)変換するA/Dコンバータなどで構成される。
表示部102は、LCD(Liquid Crystal Display、液晶表示素子)と光学系などからなり、LCDによって形成された画像を光学系を介してユーザに提示する。より具体的には、表示部102は、ユーザに外界を視認させつつ、LCDによって形成された画像をユーザの視野に重ねて表示可能である。
入力部105は、例えば、ボタン、スライダ、スイッチ、ダイヤル、タッチセンサなどで構成され、ユーザ操作によりCPU103に対する命令や、仮想情報として表示するコンテンツの選択を入力可能である。
モーションセンサ106は、例えば、加速度センサ、ジャイロセンサ、磁気センサであり、HMD100の移動を検出可能である。
環境センサ107は、例えば、照度や温湿度を検出可能である。
第1の送受信器108は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)などの中・高速近距離無線送受信器であり、入力装置200との情報のやり取りを行う。
第2の送受信器109は、例えば、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access、登録商標)などの中距離無線送受信器であり、インターネットやLAN(Local Area Network)などのネットワークNに接続し、仮想情報として表示するコンテンツをダウンロードしたりする。
[入力装置のハードウェア構成]
図3を参照し、入力装置200は、CPU212と、それぞれCPU212に接続されたメモリ205、入力部206、モーションセンサ207、第3の送受信器208、変調部209及び投影部210と、内部電源211とを有する。
CPU212は、メモリ205に格納されたプログラムに従って各種処理を実行する。なお、CPUの代わりにMPU(Micro Processing Unit)であってもよい。
入力部206は、投影ボタン201、ズームスライダ202、電源ボタン203などのボタン、スライダ、スイッチ、ダイヤル、タッチセンサなどで構成され、ユーザ操作によりCPU212に対する命令を入力可能である。
モーションセンサ207は、例えば、加速度センサ、ジャイロセンサ、磁気センサであり、入力装置200の移動を検出可能である。
第3の送受信器208は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)などの中・高速近距離無線送受信器であり、HMD100との情報のやり取りを行う。
変調部209は、CPU212が扱うデジタルデータを投影部210が投影可能な光信号に変調する。
投影部210は、投影窓204(図1)からマーカとしての所定形状の図形を現実空間の投影対象物(壁や机など)に投影可能なレーザポインタ又はレーザプロジェクタにより構成される。レーザポインタとしては、点表示型(赤、緑、青)、ビーム可変型(スキャナタイプ、レンズタイプ、ホログラムタイプ)、紫外型、赤外型などを採用することができる。レーザプロジェクタとしては、例えば、MEMS(Micro Electro Mechanical System)スキャナを搭載し、高速に左右へ動く1本のレーザ光で上から順に走査することにより画像を投影可能な装置などを採用することができる。
[HMDが実行する処理]
HMD100は、以下の3つの処理を実行することが可能である。
1.撮影により得られた現実画像データに含まれるマーカに対して仮想情報を表示する。さらに、マーカの消失やユーザ操作によって現実画像データにマーカが含まれなくなって仮想情報の重畳パラメータの演算・更新処理が停止し、かつその後に撮影部が動かされた場合にも、仮想情報をユーザの違和感なく表示する処理(第1の処理)。
2.複数のユーザがそれぞれのHMDを通して同一のオブジェクトを見ているような角度、位置及びサイズ等で、それぞれのHMDが仮想情報を表示する処理(第2の処理)。
3.マーカに基づいて仮想情報を表示するとユーザにとって違和感等が生じるおそれが生じる可能性がある場合、ユーザにとって違和感等が生じる可能性の少ない形態で仮想情報を表示する処理(第3の処理)。
<第1の処理>
[第1の処理の概要]
マーカ型AR及びマーカレス型ARの上記各問題を解決するため、据え置き型のレーザプロジェクタなどを用いてマーカを投影することで、物理的なマーカを用いなくともマーカ型ARのメリットを享受可能な手法が提案されている。しかし、この手法には以下のような問題点がある。
・別途プロジェクタや定点カメラなどの設備が必要となり、設置場所を選ぶ。
・使用前に空間を詳細に走査するステップが必要となるため、リアルタイム性に劣る。
・広い領域の空間モデルの構築を行う必要があるので計算が煩雑となる。
一方、ユーザが携帯型のレーザポインタを手に持ってマーカを投影することで、上記設置場所の問題を解決可能とする手法が提案されている(特許文献2、特許文献3)。
特許文献2によれば、撮影装置と携帯型レーザポインタとがそれぞれ、自らの空間内の位置及び姿勢を検出する。撮影装置により撮影された画像に含まれるレーザポインタのポインティング点と、レーザポインタ及び撮影装置の空間位置から推測される仮想ポインティング点とをマッチングさせることにより、仮想情報の重畳場所が算出される。しかし、この手法には以下のような問題点がある。
・広い領域の空間モデルの構築を行う必要があるので空間の測量及び計算が煩雑である。
・レーザポインタ及び撮影装置の姿勢演算なども行う必要があり、計算が煩雑であるとともに、安定性、良精度の確保が困難である。
特許文献3によれば、携帯型レーザポインタを用いて投影対象物(壁など)の少なくとも3箇所にポインティング点が投影され、このポインティング点をもとにレーザポインタと投影対象物との距離、方向及び表示座標が演算される。しかし、この手法には以下のような問題点がある。
・レーザポインタと投影装置とが一体的に構成される形態において(特許文献3の図1、図19)、仮想情報を特定の場所に停止状態で表示したい場合には、ユーザはレーザポインタを常に同じ姿勢に保持する必要があるため疲労感を伴う。また、手ぶれにより、表示される仮想情報の位置が安定しにくい。
・ポインティング点の投影を止めると仮想情報の表示位置が算出できなくなるので、仮想情報の表示中は常にポインティング点の投影を行う必要がある。さらに、複数の仮想情報に対して独立した操作を行うことができない。
・これらの問題に対応するため、ポインティング点の投影を止めた際に、仮想情報を最後に表示された位置に表示し続ける様な処理仕様にすると仮定する。しかし、その場合に撮影部(撮影部を携帯するユーザ)が少しでも移動又は回転すると、仮想情報の位置や角度等は変化しないため、仮想情報の位置や角度等がユーザにとって正しいものではなくなってしまう。
以上のような事情に鑑み、本技術の第1の処理では、マーカの消失やユーザ操作によって現実画像データにマーカが含まれなくなって仮想情報の重畳パラメータの演算・更新処理が停止し、かつその後に撮影部が動かされた場合にも、仮想情報をユーザの違和感なく表示する。より具体的には、演算が停止する直前(マーカが最後に検出された時点)の現実空間と重畳された仮想情報との相対位置を保持して表示し続ける。
[第1の処理を実行するためのHMDの機能的な構成]
図4は、第1の処理を実行するためのHMD100の機能的な構成を示すブロック図である。
HMD100は、撮影部101、三次元構造推定部120、マーカ検出部121、重畳パラメータ生成部122、変換行列算出部123、画像データ生成部124及び表示部102を有する。
撮影部101は現実空間の画像を撮影し、現実画像データを取得する。撮影部101は、取得した現実画像データを三次元構造推定部120及びマーカ検出部121に供給する。
三次元構造推定部120は、所謂シーンマッピング(移動ステレオ)技術を用いて現実空間の三次元構造を推定する。すなわち、三次元構造推定部120(特徴点検出部)は、撮影部101から取得した現実画像データ中から複数の特徴点(コーナポイント)を検出する。撮影部101の視野移動中も、三次元構造推定部120は、特徴点をリアルタイムに検出(特徴点を追跡(トラッキング))し続ける。
一般的な三次元構造推定技術では、2台のカメラ(ステレオカメラ)を用いて、左右のステレオ映像を取得する。これに対して、本実施形態の三次元構造推定部120は、特徴点トラッキングで経時的に結び付けることにより、移動する1台のカメラ(撮影部101)で時分割撮影することでステレオ映像を算出する。
三次元構造推定部120は、このステレオ映像から現実空間の三次元構造を推定し、推定結果を重畳パラメータ生成部122に供給する。
図4に戻って、マーカ検出部121(図形検出部)は、撮影部101が取得した現実画像データから、入力装置200により投影されたマーカ(図形)を検出する。マーカ検出部121には予め基準マーカの情報が登録されている。この「基準マーカ」とは、マーカを所定の距離から垂直方向に投影した場合のあらかじめ決められた基準形状を有するマーカであり、「基準マーカの情報」とは、基準マーカのサイズ、各頂点同士の距離、各辺の長さ等である。マーカ検出部121は、基準マーカのサイズをもとに、現実画像データから検出したマーカが基準マーカの形状と一致するような平面座標変換行列を生成し、検出したマーカに対して平面座標変換行列を用いた座標変換を行う。続いてマーカ検出部121は、座標変換されたマーカに対し、基準マーカとのパターンマッチングを行い、検出したマーカと基準マーカとの一致度を判断する。マーカ検出部121は、判断結果を重畳パラメータ生成部122に供給する。
重畳パラメータ生成部122は、所定の一致度をもつマーカについて、基準マーカに対するマーカの歪みをもとに、投影対象物(壁や机など)に投影されたマーカに対する撮影部101の空間的な位置関係、すなわち角度及び距離を算出する。さらに、重畳パラメータ生成部122は、図6に示すように、輪郭抽出によりマーカMの座標系(A)を算出する。重畳パラメータ生成部122は、マーカに対する撮影部101の上記空間的な位置関係をもとに、マーカMの座標系(A)と、予め設定してある仮想情報Iの座標系(B)とが一致した座標系(C)となるように、仮想情報の重畳パラメータを計算する。このように、マーカに対する撮影部101の空間的な位置関係(第1の位置関係)をもとに生成された重畳パラメータを以下「第1の重畳パラメータ」と呼ぶ。重畳パラメータ生成部122は、モーションセンサ106により検出されたHMD100の位置と、入力装置200のモーションセンサ106により検出された入力装置200の位置との関係をもとに、仮想情報がユーザにとってより自然に表示されるように第1の重畳パラメータを補正する。さらに重畳パラメータ生成部122は、ユーザの眼と表示部102との位置関係をもとに第1の重畳パラメータを補正する。
また、重畳パラメータ生成部122は、三次元構造推定部120が推定した現実空間の三次元構造の座標系と表示中の仮想情報の座標系とが一致するように、現実空間に対する仮想情報の空間的な位置関係(第2の位置関係)を保持して仮想情報の重畳パラメータを計算する。このように現実空間の三次元構造の座標系と表示中の仮想情報の座標系とが一致するように生成された重畳パラメータを以下「第2の重畳パラメータ」と呼ぶ。なお、第1及び第2の重畳パラメータを区別する必要がないときは単に「重畳パラメータ」と呼ぶ。
変換行列算出部123は、マーカを基準とした座標系を現実空間における撮影部101を基準とした座標系に第1の重畳パラメータで変換するための空間座標変換行列を生成する。画像データ生成部124は、予め記録された仮想情報のオブジェクトデータを、変換行列算出部123から供給された空間座標変換行列を用いて座標変換する。これにより、画像データ生成部124は、撮影部101を基準とした座標系での、仮想情報のオブジェクト画像データを算出(描画)する。
また、変換行列算出部123は、表示中の仮想情報の座標系を、現実空間の三次元構造の座標系に、第2の重畳パラメータで変換するための空間座標変換行列を生成する。画像データ生成部124は、仮想情報のオブジェクトデータを、変換行列算出部123から供給された空間座標変換行列を用いて座標変換する。
画像データ生成部124は、生成した仮想情報のオブジェクト画像データを表示部102に供給する。
表示部102は、変換行列算出部123より供給された仮想情報のオブジェクト画像データを表示する。
[HMDによる第1の処理の動作]
図7は、HMD100による第1の処理の動作を示すフローチャートである。
CPU103が所定の初期化処理を行うと(ステップS101)、撮影部101は現実空間の画像を撮影し、現実画像データを取得する(ステップS102)。撮影部101は、取得した現実画像データを三次元構造推定部120及びマーカ検出部121に供給する。三次元構造推定部120は、現実画像データ中から複数の特徴点を検出する(ステップS103)。撮影部101の視野移動中も、三次元構造推定部120は、特徴点をリアルタイムに検出(特徴点を追跡(トラッキング))し続ける(ステップS104)。三次元構造推定部120は、特徴点トラッキングで経時的に結び付ける事により、移動する1台のカメラ(撮影部101)で時分割撮影することでステレオ映像を算出する。三次元構造推定部120は、このステレオ映像から現実空間の三次元構造を推定し、推定結果を重畳パラメータ生成部122に供給する(ステップS105)。
仮想情報表示部102が仮想情報を未だ表示していないか、仮想情報を既に表示しており且つその仮想情報が現実空間に重畳されて表示されている場合(ステップS106でNo)について説明する。この場合、マーカ検出部121は、撮影部101が取得(ステップS102)した現実画像データから、入力装置200により投影されたマーカを検出する(ステップS107でYes)。マーカ検出部121は、基準マーカのサイズをもとに、現実画像データから検出したマーカが基準マーカの形状と一致するような平面座標変換行列を生成し、検出したマーカに対して平面座標変換行列を用いた座標変換を行う。続いてマーカ検出部121は、座標変換されたマーカに対し、基準マーカとのパターンマッチングを行い、検出したマーカと基準マーカとの一致度を判断する(ステップS108)。マーカ検出部121は、判断結果を重畳パラメータ生成部122に供給する。
重畳パラメータ生成部122は、所定の一致度をもつ(ステップS108でYes)マーカについて、基準マーカに対するマーカの歪みをもとに、マーカに対する撮影部101の空間的な位置関係を推定する。具体的には、重畳パラメータ生成部122は、投影対象物(壁など)に投影されたマーカに対する撮影部101の空間的な位置関係(第1の位置関係)、すなわち角度及び距離を算出する。さらに、重畳パラメータ生成部122は、マーカの座標系と仮想情報の座標系とが一致するように、仮想情報の第1の重畳パラメータを計算する(ステップS109)。そして、重畳パラメータ生成部122は、仮想情報がユーザにとってより自然に表示されるように第1の重畳パラメータを補正する(ステップS110)。
変換行列算出部123は、マーカを基準とした座標系を、現実空間における撮影部101を基準とした座標系に、第1の重畳パラメータで変換するための空間座標変換行列を生成する(ステップS111)。画像データ生成部124は、予めに記録された仮想情報のオブジェクトデータを、変換行列算出部123から供給された空間座標変換行列を用いて座標変換する。これにより、画像データ生成部124は、撮影部101を基準とした座標系での、仮想情報のオブジェクト画像データを算出(描画)する(ステップS112)。画像データ生成部124は、生成した仮想情報のオブジェクト画像データを表示部102に供給する。表示部102は、供給された仮想情報のオブジェクト画像データを表示する(ステップS113)。この後、次フレームの現実空間の画像データの取得(ステップS102)から仮想情報のオブジェクト画像データの表示(ステップS113)までの処理が繰り返し実行される。
次に、仮想情報表示部102が仮想情報を既に表示しているものの現実画像データから仮想情報が重畳されていたマーカが検出されない場合(ステップS106でYes)について説明する。この現実画像データからマーカが検出されない場合とは、ユーザが入力装置200を移動するなどして、撮影部101による撮影空間外にマーカが投影される場合や、入力装置200に対する入力操作の中でユーザが意図的にマーカの投影を停止する場合などに発生する。現実画像データからマーカが検出されないと、マーカをもとに第1の重畳パラメータの演算・更新処理(ステップS109など)を行うことができなくなる。加えて、現実画像データからマーカが検出されなくなった後にユーザの移動により撮影部101が移動すると、ユーザの視野の現実空間の風景は変化するのに、表示空間における仮想情報の位置や角度は変化しないこととなるため、ユーザにとって違和感のある位置や角度で仮想情報が表示され続けることとなる。そこで、第1の処理では、現実空間における特徴点をリアルタイムに検出(ステップS103)することによって、現実画像データにマーカが含まれなくなってマーカに基づく第1の重畳パラメータの演算が停止する直前(マーカが最後に検出された時点)の、現実空間に対する仮想情報の空間的な位置関係(第2の位置関係)を保持して仮想情報表示し続けることとする。
すなわち、重畳パラメータ生成部122は、三次元構造推定部120が推定(ステップS105)した現実空間の三次元構造の座標系と表示中の仮想情報の座標系とが一致するように、仮想情報の第2の重畳パラメータを計算する(ステップS114)。そして、重畳パラメータ生成部122は、ステップS110と同様に第2の重畳パラメータを補正する(ステップS115)。
変換行列算出部123は、表示中の仮想情報の座標系を、現実空間の三次元構造の座標系に、第2の重畳パラメータで変換するための空間座標変換行列を生成する(ステップS116)。画像データ生成部124は、仮想情報のオブジェクトデータを、変換行列算出部123から供給された空間座標変換行列を用いて座標変換する。これにより、画像データ生成部124は、現実空間の三次元構造の座標系での、仮想情報のオブジェクト画像データを算出(描画)する(ステップS117)。画像データ生成部124は、生成した仮想情報のオブジェクト画像データを表示部102に供給する。他に、仮想情報が既に表示されているもののその仮想情報が重畳されていたマーカが消失しているものがあるときは(ステップS118でYes)、ステップS114以下の処理が繰り返される。
[第1の処理の効果]
以上、第1の処理によれば、次のような効果が期待できる。
1.表示部が仮想情報を既に表示しているものの現実画像データから仮想情報が重畳されていたマーカが検出されない場合、仮想情報の重畳パラメータについて、マーカをもとに第1の重畳パラメータの演算・更新処理を行うことができなくなる。加えて、現実画像データからマーカが検出されなくなった後にユーザの移動により撮影部が移動すると、ユーザの視野の現実空間の風景は変化するのに、表示空間における仮想情報の位置や角度は変化しないこととなるため、ユーザにとって違和感のある位置や角度で仮想情報が表示され続けることとなる。
しかしながら、第1の処理では、現実空間における特徴点をリアルタイムに検出し、現実空間の三次元構造の座標系と表示中の仮想情報の座標系とが一致するように、仮想情報の第2の重畳パラメータを演算・更新する。これにより、現実画像データにマーカが含まれなくなってマーカに基づく第1の重畳パラメータの演算が停止する直前(マーカが最後に検出された時点)の、現実空間に対する仮想情報の空間的な位置関係を保持して仮想情報表示し続けることができる。さらに、高い演算能力や複雑なハードウェアシステム・設備を要求するのが通常であったマーカレス型ARシステムをマーカ型AR同等の簡単な演算・システムで実現することができる。
2.マーカ型ARの一例として最も有名な「ARToolKit」で用いられる物理的なマーカは、図8に示すように、正方形の黒枠で囲われた白領域内に任意のパターン(図示の例では「AR」)が描かれているものである。黒枠でマーカの検出を行ない、白領域内のパターンに応じてマーカを判別することから、「ARToolKit」のARマーカは、デザイン上以下のような制約がある。
・全体形状として正方形であること
・正方形の幅又は高さ方向における黒枠:白領域:黒枠の割合が、基本的に25%:50%:25%、最低でも3:14:3
・白領域内のパターンは点対称・線対称を避け、細線を用いてはならない
・二値化した際に黒枠を明確に判別するため、マーカの周囲に余白が必要である
しかしながら、第1の処理のレーザ投影によるマーカの場合、S/N(Signal/Noise)値を非常に高くできるため、色の限定(黒・白)、細線非使用などの制約を外すことができる。さらに、余白は背景との分離を目的として設けられるため、第1の処理のレーザ投影によるマーカには、余白部分を設ける必要が無くなる。このように、現実空間に物理的に設置されるマーカに比べて、マーカのデザインの自由度を上げることができる。
3.レーザポインタ又はレーザプロジェクタである投影部を有する入力装置を用いて、HMDに表示された仮想情報を操作するため、ユーザにとって直感的で容易な操作が可能となる。
4.本技術を次のような用途に応用することができる。現実空間に存在する壁や窓にマーカを投影することで、仮想情報の投影対象物を任意の壁や窓に設定し、任意の壁や窓をバーチャルなプロジェクタスクリーンやホワイトボードとして使用することができる。具体的な適用例として以下の例が挙げられる。
・大画面でビデオ映像やプラネタリウム画像を表示する。
・オフィスのパーティションや壁にバーチャルな付箋紙や資料を提示する。
・複数のバーチャル付箋紙を大画面上で表示したり移動したりする。
また、入力装置を動かすことにより、仮想情報の重畳位置を自在に制御することができる。具体的な適用例として以下の例が挙げられる。
・入力装置をあたかも手綱のように操作し、仮想情報としてのバーチャルなペットを散歩させる。
<第2の処理>
[第2の処理の概要]
図2を参照し、1人のユーザが入力装置200を用いて投影したマーカをもとに複数のHMD100がそれぞれ仮想情報を表示する場合について説明する。なお、以下の説明において、マーカを投影する入力装置200をもつユーザの装着するHMDを「投影HMD」、マーカを投影する入力装置200をもたないユーザの装着するHMDを「非投影HMD」と呼ぶこととする。あるユーザU1(第1のユーザ)が入力装置200を用いて投影対象物にマーカMを投影する。そして、別のユーザU2(第2のユーザ)に装着された非投影HMD100BがこのマーカMに対して仮想情報を表示することにより第2のユーザU2に仮想情報を提示するような場合を想定する。この場合、第2のユーザU2の非投影HMD100Bが、第1のユーザU1の入力装置200が投影したマーカMを含む現実空間を撮影し、この現実画像を用いて仮想情報の重畳パラメータを算出する。
その結果、例えば、以下のような問題が生じる可能性がある。第1のユーザU1が投影したマーカMが投影対象物上で基準マーカ形状とは異なる歪んだ形状となるとする。第2のユーザU2の非投影HMD100BがそのマーカMを撮影すると、もともと歪んだ形状であることに加え、投影を行った入力装置200を持つ第1のユーザU1とは異なる位置からマーカMを撮影することとなる。このため、非投影HMD100Bによる重畳パラメータの計算として、歪んだマーカMを基準マーカ形状に補正し、さらに、補正後のマーカに対する重畳パラメータを計算する必要があるなど、非投影HMD100Bによる計算が複雑なものとなるおそれがある。その結果、計算に時間がかかり、第2のユーザU2が、第1のユーザU1が実際に見ているオブジェクトをリアルタイムに見ることができない、すなわち投影HMD100Aの表示結果と非投影HMD100Bの表示結果との間に時間的ずれが生じるおそれがある。また、計算が複雑となるため非投影HMD100Bによる計算が正確性を欠く、すなわち投影HMD100Aの表示結果と非投影HMD100Bの表示結果との間に空間的ずれが生じるおそれがある。結果として、第2のユーザU2が実際に見ているオブジェクトの角度、位置及び大きさと、第1のユーザU1が実際に見ているオブジェクトを第2のユーザU2が見ていると仮定した場合のオブジェクトの角度、位置及び大きさとが、異なったものとなるおそれがある。
これに対して、特許文献4によれば、あるプロジェクタ(第1のプロジェクタ)によって仮想情報としてのオブジェクトを表示する際、別のプロジェクタ(第2のプロジェクタ)により、投影対象物(スクリーンなど)にマーカ画像を投影する。ここで、第2のプロジェクタと投影対象物との位置関係は予め設定されている。撮影装置(定点カメラ)によってこのマーカが撮影され、撮影データをもとに表示すべきオブジェクトの位置、角度及び大きさが計算され、第1のプロジェクタによりオブジェクトが投影対象物に表示される。しかしながら、特許文献4の技術には、次のような問題がある。
・別途第2のプロジェクタや撮影装置(定点カメラ)などの設備が必要であるため、使用場所を選ぶ。
・第1のプロジェクタと投影対象物の位置が固定である必要があるため、使用場所を選ぶ。
・マーカを投影するためだけの第1のプロジェクタを使用するのは無駄が大きい。
以上のような事情に鑑み、本技術の第2の処理では、複数のユーザがそれぞれのHMDを通してそれぞれの場所から同一のオブジェクトを見ているような角度、位置及び大きさで、それぞれのHMDが仮想情報を表示することを、より簡単且つ確実に実現する。
[第2の処理を実行するためのHMDの機能的な構成]
図9は、第2の処理を実行するためのHMD100の機能的な構成を示すブロック図である。
HMD(投影HMD及び非投影HMD)100は、撮影部101、マーカ検出部121、重畳パラメータ生成部122、マーカ補正部125、変換行列算出部123、画像データ生成部124、表示部102及び第1の送受信器108を有する。
以下、すでに説明した構成及び機能等と同様の構成及び機能等は説明を簡略化又は省略し、異なる点を中心に説明する。
マーカ補正部125は、基準マーカに対するマーカの歪みをもとに、マーカに対する撮影部101の空間的な位置関係を推定する。具体的には、マーカ補正部125(角度取得部)は、投影対象物(机など)に投影されたマーカに対する撮影部101の空間的な位置関係、すなわち投影対象物に対する撮影部101の角度及び距離(入力装置200が投影するマーカ画像の光軸と現実風景内の投影対象面との角度及び距離)を算出する。マーカ補正部125は、算出した角度及び距離をもとに、検出された歪みのあるマーカを基準マーカの形状に補正するための平面座標変換行列を生成する。マーカ補正部125は、検出したマーカに対して平面座標変換行列を用いた座標変換を行い、補正マーカを算出する。この「補正マーカ」とは、入力装置200の現在位置から投影対象物に投影されたときにこの投影対象物上で基準マーカの形状となり得るマーカである。マーカ補正部125(変形付与部)は、第1の送受信器108を用いて、入力装置200に算出した補正マーカを通知する。これにより、入力装置200は、歪みのあるマーカの投影を停止して補正マーカの投影を開始することが可能となる。さらに、マーカ補正部125は、入力装置200に補正マーカを通知したことをマーカ検出部121に通知する。
[HMDによる第2の処理の動作]
図10は、HMD100による第2の処理の動作を示すフローチャートである。
CPU103は所定の初期化処理を行い(ステップS201)、自HMDが投影HMDかどうか、すなわち、自HMDを装着したユーザが持つ入力装置200によってマーカが投影されるかどうかを判定する(ステップS202)。具体的には、例えば、HMD100に自HMDを装着したユーザが所有する入力装置200の機器IDが予め登録され、CPU103は、当該機器IDによって識別される入力装置200にマーカ投影実行の有無を第1の送受信器108を用いて問い合わせればよい。あるいは、ユーザにより、このユーザが持つ入力装置200によってマーカが投影されるかどうかが、入力部105に入力されるようにしてもよい。
まず、投影HMD(ステップS202でYes)の動作について説明する。投影HMDは、ステップS102、S107、S108と同様に、現実画像データの取得(ステップS203)、マーカ検出(ステップS204でYes)、一致度判断(ステップS205)を行う。マーカ検出部121は、マーカの一致度の判断結果をマーカ補正部125に供給する。
マーカ補正部125は、所定の一致度をもつ(ステップS205でYes)マーカについて、基準マーカに対するマーカの歪みをもとに、マーカに対する撮影部101の空間的な位置関係を推定する。具体的には、マーカ補正部125(角度取得部)は、投影対象物(机など)に投影されたマーカに対する撮影部101の角度及び距離(入力装置200が投影するマーカ画像の光軸と現実風景内の投影対象面との角度及び距離)を算出する(ステップS206)。マーカ補正部125は、算出した角度及び距離をもとに、検出された歪みのあるマーカを基準マーカの形状に補正するための平面座標変換行列を生成する(ステップS207)。マーカ補正部125は、検出したマーカに対して平面座標変換行列を用いた座標変換を行い、補正マーカを算出する(ステップS208)。マーカ補正部125(変形付与部)は、第1の送受信器108を用いて、入力装置200に算出した補正マーカを通知する(ステップS209)。これにより、入力装置200は、歪みのあるマーカの投影を停止して補正マーカの投影を開始することが可能となる。さらに、マーカ補正部125は、入力装置200に補正マーカを通知したことをマーカ検出部121に通知する。
マーカ補正部125が入力装置200に補正マーカを通知(ステップS209)した後、現実画像データ取得(ステップS210)、補正マーカ検出(ステップS211でYes)、補正マーカ一致度判断(ステップS212)が行われる。マーカ検出部121は、判断結果を重畳パラメータ生成部122に供給する。その後、ステップS109〜S113と同様に、第1の重畳パラメータの計算及び補正(ステップS213、S214)、座標変換行列の生成(ステップS215)、オブジェクト画像データの算出及び表示(ステップS216、S217)が行われる。
一方、非投影HMD(ステップS202でNo)は、ステップS210〜S217の処理を行う。ここで、検出(ステップS211でYes)されるマーカが補正マーカであれば、非投影HMDは基準マーカ形状を有する補正マーカをもとに第1の重畳パラメータを計算することとなる。
[第2の処理の効果]
以上、第2の処理によれば、次のような効果が期待できる。
1.図11に示すように、第1のユーザU1が投影した補正マーカM’は、投影対象物上で歪みの無い基準マーカ形状となる。これにより、第2のユーザU2の非投影HMD100Bによる重畳パラメータの計算として、歪んだマーカ(図2のM)を基準マーカ形状に補正する必要が無く、補正マーカM’に対する重畳パラメータを計算しさえすればよいので、非投影HMD100Bによる計算量が小さく済む。その結果、計算に掛かる時間が少なくて済み、第2のユーザU2が、第1のユーザU1が実際に見ているオブジェクトをリアルタイムに見ることができる。すなわち、投影HMD100Aの表示結果と非投影HMD100Bの表示結果との間に時間的ずれが生じにくく、仮に生じたとしても無視できるほど小さい値で済む。また、非投影HMD100Bによる計算が正確性を保つことができる。すなわち、投影HMD100Aの表示結果と非投影HMD100Bの表示結果との間に空間的ずれが生じにくい。結果として、第1のユーザが操作する仮想情報を複数のユーザが鑑賞する場合でも、各ユーザが装着するHMDが表示するオブジェクトの角度、位置及び大きさのずれが少ない。
なお、重畳パラメータ生成部122は、投影対象物(机など)に投影されたマーカに対する撮影部101の角度及び距離(入力装置200が投影するマーカ画像の光軸と現実風景内の投影対象面との角度及び距離)(ステップS206)をもとに重畳パラメータを生成することとしてもよい。
<第3の処理>
[第3の処理の概要]
マーカが投影された投影対象物が何であるか、どこであるかを問わず仮想情報を表示すると、図12に示すように、次のような表示形態が生じるおそれがある。
・マーカが机10の隅に投影された場合、仮想情報が部分的に机10からはみ出して空中に浮いているかのように表示される(図中A)。
・マーカがパーティション11に投影された場合、マーカの投影位置近傍に椅子12、机10など別の物体が存在すると、仮想情報が部分的に当該物体上に表示される(図中B)。
・比較的面積が小さいパーティション11にマーカを投影しようとして、マーカがペーティション11を外れて遠くに位置する壁13に投影されると、仮想情報が遠くに位置する壁13に表示される(図中C)。
・ユーザにとって近すぎる位置にマーカが投影される場合、表示部102がハードウェア性能的にうまく結像できない場所に仮想情報が表示される(図中D)。
以上のような状態では、ユーザが違和感や不快感を覚えたり、肉体的苦痛(眼精疲労など)を感じるおそれがある。
以上のような事情に鑑み、本技術の第3の処理では、マーカに基づいて仮想情報を表示するとユーザにとって違和感等が生じるおそれが生じる可能性がある場合、ユーザにとって違和感等が生じる可能性の少ない形態で仮想情報を表示する。具体的には、現実空間に仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する場合に仮想情報の表示を無効化する。
[第3の処理を実行するためのHMDの機能的な構成]
図13は、第3の処理を実行するためのHMD100の機能的な構成を示すブロック図である。
HMD100は、撮影部101、マーカ検出部121、重畳パラメータ生成部122、マーカ位置判断部126、変換行列算出部123、画像データ生成部124及び表示部102を有する。
マーカ位置判断部126は、マーカ検出部121が検出したマーカの、現実空間に対する空間的な位置関係(第3の位置関係)を判断し、判断結果を重畳パラメータ生成部122に供給する。
[HMDによる第3の処理の動作]
図14は、HMD100による第3の処理の動作を示すフローチャートである。
CPU103が所定の初期化処理を行うと(ステップS301)、撮影部101は現実画像データを取得する(ステップS302)。撮影部101は、取得した現実画像データをマーカ検出部121及びマーカ位置判断部126に供給する。マーカ検出部121は、ステップS107と同様にマーカを検出し(ステップS303でYes)、検出結果を重畳パラメータ生成部122及びマーカ位置判断部126に供給する。そして、ステップS108〜S110と同様に、一致度判断(ステップS304)、第1の重畳パラメータの計算及び補正(ステップS305、S306)が行われる。
マーカ位置判断部126は、撮影部101から取得した現実画像データとマーカ検出部121が検出したマーカをもとに、現実空間に対するマーカの空間的な位置関係を判断し、判断結果を重畳パラメータ生成部122に供給する。重畳パラメータ生成部122(第2の仮想情報表示制御部)は、マーカ位置判断部126から取得した判断結果が、所定の位置関係が成立するものである場合には(ステップS307でYes)、生成(ステップS305、S306)した第1の重畳パラメータを変換行列算出部123に供給しない。その結果、この第1の重畳パラメータによる表示処理が行われないこととなる。一方、重畳パラメータ生成部122は、所定の位置関係が成立しない場合には(ステップS307でNo)、生成(ステップS305、S306)した第1の重畳パラメータを変換行列算出部123に供給する。
この「所定の位置関係」とは、現実空間に仮想情報を重畳して表示させたときにその内容が自然法則に反する及び/又は要求される視覚品質上の条件を満足しない位置関係である。「自然法則に反する及び/又は要求される視覚品質上の条件を満足しない位置関係」とは、現実空間に仮想情報を重畳して表示するとユーザが違和感や不快感を覚えたり、肉体的苦痛(眼精疲労など)を感じるおそれがある位置関係である。「自然法則に反する及び/又は要求される視覚品質上の条件を満足しない位置関係」として、具体的には、上記図12に示すように、以下の位置関係が挙げられる。
・マーカが投影された対象物(机や壁など、以下「投影対象物」と呼ぶ。)の輪郭とマーカとの最短距離が所定値未満である(図12のA)。又は、マーカの少なくとも一部が投影対象物の輪郭に重なる。
・マーカから所定距離以内に柱、椅子、机など別の物体が存在する(図12のB)。
・マーカと撮影部101との距離が所定値以上である(マーカが遠すぎる)(図12のC)。
・マーカと撮影部101との距離が所定値未満である(マーカが近すぎる)(図12のD)。
図14に戻って、変換行列算出部123は、第1の重畳パラメータを取得すると(ステップS307でNo)、ステップS111〜S113と同様に、座標変換行列の生成(ステップS308)、オブジェクト画像データの算出及び表示(ステップS309、S310)が行われる。HMD100を装着したユーザが複数いる場合、HMD100は、自機器ID及び重畳パラメータを他のHMD100に送信する(ステップS311)。
なお、ステップS307の判断結果が所定の位置関係が成立するというものである場合(ステップS307でYes)、画像データ生成部124(第2の仮想情報表示制御部)により以下の処理を行ってもよい。
・図15に示すように、表示中の仮想情報を消す。
・加えて、図15に示すように、仮想情報を縮小又はアイコン化した画像データIa、Ib、Ic、Idを生成し、視野内の安全領域Sに表示する。この「安全領域」とは、例えば、現実空間に存在する物体との干渉が生じにくい位置、表示部102が結像可能な範囲内での手前(視野範囲中、下方)の位置、視野の妨げになりにくい視野範囲中の端部の位置などであればよい。
・マーカが投影された対象物(机や壁など、以下「投影対象物」と呼ぶ。)の輪郭とマーカとの最短距離が所定値未満(図12のA)又はマーカの少なくとも一部が投影対象物の輪郭に重なる場合、以下の処理を行ってもよい。入力装置が任意の図形を投影できるレーザプロジェクタなどの装置である場合、投影されたマーカのサイズや形状を、表示される仮想情報のサイズや形状に対応するように変化させる。これにより、現実空間と仮想情報との干渉の可能性をユーザが直感的に把握しやすくなる。例えば、図16に示すように、既にマーカM1が投影され仮想情報I1が表示されている状況(A)において、ユーザの入力操作によって仮想情報I1の向きや姿勢が仮想情報I2に変化するとする(仮想情報I1が回転)。この場合、マーカM1が回転した後のマーカM1’を、仮想情報I2の大部分に重なるような形状のマーカM2に変化させる(B)。これにより、マーカの少なくとも一部が投影対象物の輪郭に重なるかどうかを、ユーザが直感的に把握しやすくなる。
[第3の処理の効果]
以上、第3の処理によれば、次のような効果が期待できる。
1.マーカに基づいて仮想情報を表示するとユーザにとって違和感、不快感及び肉体的苦痛(眼精疲労など)等が生じるおそれが生じる可能性がある場合、ユーザにとって違和感等が生じる可能性の少ない形態で仮想情報を表示することができる。
<第2の実施形態>
[第2の実施形態の概要]
第2の実施形態は、第1の実施形態の第2の処理にて行われた複数のHMD(投影HMD、非投影HMD)による仮想情報の表示を実現可能し、第2の処理の効果と同様の効果を達成可能とする。
図17は、本技術の第2の実施形態に係る情報処理システム2を示す模式図である。
本実施形態では、投影HMD100Aの重畳パラメータを、無線通信を用いて複数の非投影HMD100B、100Cで共有する。そして、非投影HMD100B、100Cは、投影HMD100Aの重畳パラメータを用いて、自HMD100B、100Cの重畳パラメータを補正する。これにより、第2の実施形態によっても、1人のユーザが操作する仮想情報を複数のユーザが鑑賞する場合、各ユーザが装着するHMD(投影HMD、非投影HMD)が表示するオブジェクトの角度、位置及び大きさのずれを少なくすることができる。
[HMDのハードウェア構成]
図18は、第2の実施形態に係るHMD(投影HMD、非投影HMD)100aのハードウェア構成を示すブロック図である。
HMD100aは、第1の実施形態のHMD100のハードウェア構成(図3)に加えて、第4の送受信器111を有する。
第4の送受信器111は、Bluetooth(登録商標)、赤外線などの近距離無線送受信器であり、他のHMD100aとの情報のやり取りを行う。より具体的には、第4の送受信器111(送信部)は、投影HMD100aの重畳パラメータを、非投影HMD100aが共有するために非投影HMD100aに対して送受信するなどの処理を行う。
[HMDによる動作]
まず、(1)投影HMD100aの動作について説明し、次に、(2)非投影HMD100aの動作について説明する。
[(1)投影HMDによる動作]
図19は、投影HMD100aによるメイン動作を示すフローチャートである。
CPU103が所定の初期化処理を行うと(ステップS401)、投影HMD100aは、ステップS102、ステップS107〜S113と同様に、現実画像データの取得(ステップS402)、マーカ検出(ステップS403)、マーカの一致度判断(ステップS404)、重畳パラメータの計算及び補正(ステップS405、S406)、座標変換行列生成(ステップS407)、オブジェクト画像データの算出(ステップS408)、オブジェクト画像データの表示(ステップS409)を行う。そして、投影HMD100aは、自HMD100aの機器IDと、ステップS406で得た重畳パラメータを、第4の送受信器111(送信部)を用いて他HMD100aに送信する(ステップS410)。これにより、投影HMD100aの重畳パラメータが、非投影HMD100aにより共有される。
[(2)非投影HMDによる動作]
図20は、非投影HMD100aによる、投影HMD100aの重畳パラメータ取得の動作を示すフローチャートである。
CPU103が所定の初期化処理を行い(ステップS501)、第4の送受信器111が、投影HMD100aより送信(ステップS410)された機器ID及び重畳パラメータを受信する(ステップS502でYes)。CPU103は、取得(ステップS503)した機器ID及び重畳パラメータをメモリ104に格納する(ステップS504)。
非投影HMD100aによるメイン動作は、投影HMD100aによるメイン動作(ステップS401〜ステップS410)と同様であり、図19のフローチャートを参照して異なる点のみ説明する。ステップS406において、非投影HMD100aの重畳パラメータ生成部122(補正部)は、メモリ104に格納(ステップS504)された投影HMD100aの重畳パラメータをもとに重畳パラメータを補正する。
なお、非投影HMD100aによる、投影HMD100aの重畳パラメータ取得の動作(ステップS501〜ステップS504)は、メイン処理(ステップS401〜ステップS410)に対して割り込み又はマルチスレッドで実行すればよい。また、動作開始時又は動作中にユーザの位置が大きく移動した場合、複数のユーザ全員が投影対象物の任意の位置にマーカを投影するキャリブレーションステップを行えばよい。
[第2の実施形態の効果]
以上、第2の実施形態によれば、次のような効果が期待できる。
1.非投影HMDは、自HMDとマーカが投影された投影対象物(壁など)との角度及び距離をもとに算出した重畳パラメータを、投影HMDの重畳パラメータをもとに補正する。これにより、非投影HMDによる計算が正確性を保つことができ、すなわち、投影HMDの表示結果と非投影HMDの表示結果との間に空間的ずれが生じにくい。結果として、1人のユーザが操作する仮想情報を複数のユーザが鑑賞する場合でも、各ユーザが装着するHMDが表示するオブジェクトの位置、角度及び大きさのずれが少ない。
<変形例1>
変形例1は、第1の実施形態の第2の処理にて行われた複数のHMD(投影HMD、非投影HMD)による仮想情報の表示を実現可能とし、第2の処理の効果と同様の効果を達成可能とする。
図21は、変形例1に係る情報処理システム2aを示す模式図である。
仮想情報の表示対象である表示対象物T(壁、パーティションなど)に、実在する物理的なマーカMを付与する。複数のHMD100はそれぞれ、自HMDと、表示対象物Tが付与されたマーカMとの距離及び角度を算出する。
この方式によっても、各複数のHMDによる計算が正確性を保つことができ、すなわち、各複数のHMDの表示結果の間に時間的及び空間的ずれが生じにくい、という効果が期待できる。
<変形例2>
図22は、変形例2に係る情報処理システム3を示す模式図である。図23は、変形例2に係る情報処理システム3のハードウェア構成を示すブロック図である。
情報処理システム3は、HMD100b、入力装置200及び携帯情報端末400を有する。上記各実施形態では、HMD100、100aに設けられたCPU103がメイン処理を実行した。これに対して、本変形例の情報処理システムは、HMD100bとは独立した携帯情報端末400がメイン処理を実行する。この携帯情報端末400として例えばスマートフォンや携帯型ゲーム機を採用することができる。
HMD100bは、第1の実施形態のHMD100のハードウェア構成から第1の送受信器108及び第2の送受信器109を除き、第5の送受信器112をさらに有する。第5の送受信器112は、例えば、Bluetooth(登録商標)などの中・低速近距離無線送受信器であり、携帯情報端末400との情報のやり取りを行う。より具体的には、第5の送受信器112は、撮影部が取得した現実画像の画像入力信号を携帯情報端末400に送信するなどの処理を行う。
入力装置200aは、第1の実施形態の入力装置200のハードウェア構成から第3の送受信器208を除き、第6の送受信器をさらに有する。第6の送受信器213は、Bluetooth(登録商標)、赤外線などの近距離無線送受信器であり、携帯情報端末400との情報のやり取りを行う。より具体的には、第6の送受信器213は、ユーザにより入力部に入力されたズーム操作などの操作入力信号を携帯情報端末400に送信するなどの処理を行う。
HMD100bが第1の送受信器108を有さず、入力装置200aが第2の送受信器を有さないことから、HMD100bと入力装置200aとは直接情報のやり取りを行わず、HMD100bと入力装置200aとの情報のやり取りは携帯情報端末400を介して行われる。
携帯情報端末400は、CPU401と、それぞれCPU401に接続されたメモリ402、表示部403、入力部404、第7の送受信器及405、第8の送受信器406及び第9の送受信器408と、内部電源407とを有する。
CPU401は、メモリ402に格納されたプログラムに従って、上記各実施形態で述べた各機能部として各種処理を実行する。
第7の送受信器405は、例えば、Bluetooth(登録商標)などの中・低速近距離無線送受信器であり、HMD100bとの情報のやり取りを行う。より具体的には、第7の送受信器405は、HMD100bの表示部が表示すべき仮想情報の画像出力信号をHMD100bに送信するなどの処理を行う。
第8の送受信器406は、Bluetooth(登録商標)、赤外線などの近距離無線送受信器であり、入力装置200aとの情報のやり取りを行う。より具体的には、第8の送受信器406は、入力装置200aが投影するマーカとしての図形のパターンを変更するための変更信号を入力装置200aに送信するなどの処理を行う。
第9の送受信器408は、例えば、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access、登録商標)などの高速中距離無線送受信器又は高速遠距離無線送受信器であり、インターネットやLAN(Local Area Network)などのネットワークNに接続し、仮想情報として表示するコンテンツをダウンロードしたりする。
なお、HMD100bの第5の送受信器112と携帯情報端末400の第7の送受信器405とは、それぞれ有線送受信器であってもよい。
<変形例3>
図24は、変形例3に係る情報処理システム4を示す模式図である。
本変形例の情報処理システム4のハードウェア構成は、第1の実施形態の情報処理システム1のハードウェア構成(図3)と同様である。
上記実施形態では、HMDに設けられたCPUがメイン処理を実行した。これに対して、本変形例の情報処理システム4は、入力装置200としての携帯情報端末がメイン処理を実行する。この携帯情報端末として例えばスマートフォンや携帯型ゲーム機を採用することができる。
HMD100の第1の送受信器108は、撮影部101が取得した現実画像の画像入力信号を入力装置(携帯情報端末)200に送信するなどの処理を行う。
入力装置(携帯情報端末)200の第3の送受信器208は、HMD100の表示部102が表示すべき仮想情報の画像出力信号をHMD100に送信するなどの処理を行う。
入力装置(携帯情報端末)200のCPU212は、メモリ205に格納されたプログラムに従って、上記実施形態で述べた各機能部として各種処理を実行する。
なお、表示部102及び撮影部101が1つの装置(HMD100)に搭載されている場合、重畳パラメータ補正(ステップS110)は、HMD100の位置と入力装置200の位置との関係をもとに行えばよい。
<変形例4>
図25は、変形例4に係る情報処理システム5を示す模式図である。図26は、変形例4に係る情報処理システム5のハードウェア構成を示すブロック図である。
上記実施形態では、HMD100とは独立した入力装置200を用いてマーカ投影や仮想情報に対する入力操作を行った。これに対して本変形例では、入力装置を別途設けずに、HMD100cのみでマーカ投影や仮想情報に対する入力操作を含む全ての動作を実現する。
HMD100cは、第1の実施形態のHMD100のハードウェア構成から第1の送受信器108を除き、CPU103に接続された変調部113と、変調部113に接続された投影部114とをさらに有する。変調部113及び投影部114は、上記実施形態の入力装置200に設けられた変調部209及び投影部210の機能と同様の機能を有する。
ユーザは、HMD100cを装着した状態で首を動かすことで、仮想情報に対して操作を行うことができる。例えば、ユーザが首を上下左右に向けてマーカの投影位置を移動すると、表示される仮想情報の表示位置を移動(ドラッグ)させることができる。
<変形例5>
図27は、変形例5に係る情報処理システム6を示す模式図である。
情報処理システム6は、複数のHMD100A、100B、100Cと、複数の入力装置200と、仮想情報として表示されるコンテンツのコンテンツデータを保持するサーバ装置500とを有する。
投影HMD100Aは、無線又は有線LAN(Local Area Network)を通じてサーバ装置500から、仮想情報として表示されるコンテンツのコンテンツデータを検索して取得する。投影HMD100Aは、近距離無線送受信器(第4の送受信器111)を用いて、非投影HMD100B、100Cにサーバ装置500から取得したコンテンツデータを供給する。これにより、投影HMD100A及び非投影HMD100B、100Cはそれぞれ同一のコンテンツを仮想情報として表示することができる。
<変形例6>
図28は、変形例6に係る情報処理システム7を示す模式図である。
情報処理システムは、メイン処理装置600と、投影/撮影装置700と、1以上の表示装置800とを有する。
メイン処理装置600は、投影すべきマークMの形状や現実空間S内の位置などを、近距離無線又は有線通信により投影/撮影装置700に命令する。また、メイン処理装置600は、現実画像データを投影/撮影装置700より取得し、取得した現実画像データをもとに仮想情報のオブジェクト画像データを算出する。メイン処理装置600は、算出したオブジェクト画像データを現実画像データに重畳して表示データを生成し、生成した表示データを無線通信により複数の表示装置800に供給する。
投影/撮影装置700は、マーカMを現実空間Sに投影し、定点カメラにより現実空間Sを撮影して現実画像データを取得し、取得した現実画像データをメイン処理装置600に供給する。
表示装置800は、メイン処理装置600から取得した表示データを表示する。表示装置800は、例えば、HUD(Head-Up Display)である。HUDとして、具体的には、デジタルサイネージ(電子看板)、机上や車ダッシュボード上に載置され得る透明ディスプレイ、携帯情報端末のディスプレイなどを採用することができる。
<変形例7>
図29は、変形例7に係る入力装置200bを示す斜視図である。
入力装置200bは、投影ボタン201、ホイール214、メニューボタン215、選択ボタン216を有し、ポインティングデバイスとしての機能を持つ。入力装置200bは、OS(Operating System)に対する以下のような入力操作処理を行う。
(1)投影ボタン201が操作されると、投影窓204からマーカの投影が開始され、仮想情報としてのポインタが表示される。
(2)仮想情報として表示されたアイコンやウィンドウ上に仮想情報としてのポインタが表示された環境において入力装置200b(ポインティングデバイス)を移動し、選択ボタン216をクリックすると、アイコンが選択されたり、ボタンがクリックされる。
・上記環境において、選択ボタン216をダブルクリックすると、オブジェクトが実行される。
・上記環境において、選択ボタン216を押しながら入力装置200bを移動すると、オブジェクトが移動(ドラッグ)する。
・上記環境において、選択ボタン216を押しながら入力装置200bを回転させると、オブジェクトが回転する。
・上記環境において、ホイール214を回転すると、オブジェクトが拡大/縮小したり、オブジェクトがスクロールされる。
(3)オブジェクトのドラッグ・回転操作後に選択ボタン216を離すと、仮想情報としてのオブジェクトは、現実空間との相対位置を保持して固定し表示され続ける。
(4)メニューボタン215を操作すると、サブメニューが表示される。
(5)マーカ投影中に投影ボタン201を押すとマーカの投影が終了する。マーカの投影が終了した後、その時点で表示されている仮想情報を一定期間表示し続けることとしても良い。
<変形例8>
マーカ投影及び重畳パラメータ演算停止後も仮想情報を表示し続ける場合(ステップS106でYes)、画像データ生成部124(第1の仮想情報表示制御部)は、仮想情報の表示をあらかじめ決められたイベントの発生により停止させればよい。この「あらかじめ決められたイベント」の例としては次のようなものが挙げられる
・入力装置200に対する操作が行われる。例えば、入力装置200に仮想情報オフボタン(図示せず)が設けられる場合、仮想情報オフボタンが押下される。
・マーカ投影停止後一定時間が経過する。
・撮影部101(HMD100)が一定距離以上移動する。
・撮影部101(HMD100)が一定角度以上回転移動する。
<変形例9>
図5は、変形例9に係る情報処理システム8を模式的に示すブロック図である。
情報処理システムは、HMD100と、入力装置200と、撮影部901、表示部902及びメイン処理部903を有する情報処理装置900(例えば、パーソナルコンピュータ(Personal Computer)、以下PCと呼ぶ)とを有する。入力装置200は現実空間にマーカを投影可能である。撮影部901及び表示部902はPC900に接続又は搭載され、表示部902はディスプレイ(図30のディスプレイ904)を有する。
図30に示すように、ユーザUは入力装置200を用いてディスプレイ904上にマーカM1を投影する。撮影部901は、入力装置200の投影窓を撮影する。メイン処理部903は、撮影された投影窓204の撮影部901に対する角度や距離などをもとにディスプレイ904上でのマーカ投影位置を算出する。表示部902は、ディスプレイ904に表示されたマーカMに対して仮想情報I1を表示する。
続いて、図31に示すように、ユーザUは入力装置200を移動してディスプレイ904上でマーカを移動させることで、仮想情報がディスプレイ904上で移動(ドラッグ)する。ユーザUはさらに入力装置200を移動し、ディスプレイ904から離れて投影対象物(机など)910上にマーカを移動させる(マーカM2)。PC900のメイン処理部903は、マーカM2がディスプレイ904から離れて投影対象物910上に移動したことを無線通信によりHMD100に通知する。
この通知を受けると、図32に示すように、HMD100は、投影対象物910上に投影されたマーカM2を撮影し、仮想情報I2を表示する。
<変形例10>
入力装置が投影するマーカの図形は既存のものを使用してもよい。具体的には、HMDの撮影部が現実空間に存在するマーカを撮影する。あるいは、HMDは既存のマーカをネットワークを通じてダウンロードする。HMDは撮影又はダウンロードにより取得したマーカを無線通信により入力装置に供給する。ここで入力装置は、任意の図形を投影可能なレーザプロジェクタなどの装置である。入力装置は、HMDより取得したマーカを現実空間に投影する。
<変形例11>
マーカ投影の光源として、可視領域外(赤外、紫外など)レーザを使用してもよい。これにより、HMDを装着しないユーザにマーカ及び仮想情報を視認させないようにすることができる。一方、HMDを装着するユーザは仮想情報を視認可能である。さらに、HMDの表示部に可視領域外(赤外、紫外など)レーザを視認可能とする処置を施すことにより、HMDを装着するユーザはマーカを視認可能としてもよい。
<変形例12>
上記各実施形態では、ユーザが入力装置を用いて仮想情報に対して操作を行うことができるとしたが、HMDのCPUが予めメモリに記憶されたプログラムに従って仮想情報の位置や角度を変更してもよい。この場合、最初に仮想情報を表示する基準位置を、表示装置から投影されるマーカに基づき決定することとすればよい。
<変形例13>
重畳パラメータの補正として以下のような手法を用いてもよい。ユーザが入力装置を自然に操作可能な領域は限定される(例えば、胸の前50cm四方)。一方、HMDに搭載された撮影部の場合、ユーザと撮影部の位置関係がある程度固定される。このため、撮影部と入力装置との位置関係もまた、ある程度固定される。これを利用し、撮影部によって撮影したマーカをもとに算出される仮想情報の第1の重畳パラメータを、ユーザにとってより自然に見える様に補正してもよい。この手法は、HMDが、撮影部に対する入力装置の位置・向きを検出することができない場合でも用いることができる。
なお、本技術は以下のような構成も採ることができる。
(1)現実風景を撮影して現実画像を取得する撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出する図形検出部と、
前記現実風景の前記現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成するパラメータ生成部と
を具備する情報処理装置。
(2)上記(1)に記載の情報処理装置であって、
前記特徴点検出部による検出結果をもとに生成された前記パラメータを用いた前記仮想情報の表示を、あらかじめ決められたイベントの発生により停止させる第1の仮想情報表示制御部
をさらに具備する情報処理装置。
(3)上記(1)又は(2)に記載の情報処理装置であって、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部
をさらに具備する情報処理装置。
(4)上記(1)から(3)のいずれか1つに記載の情報処理装置であって、
前記パラメータ生成部は、変形が付与された図形と前記撮影部との第1の位置関係をもとに、前記パラメータを生成する
情報処理装置。
(5)上記(1)から(4)のいずれか1つに記載の情報処理装置であって、
前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、前記仮想情報の表示を無効化する第2の仮想情報表示制御部
をさらに具備する情報処理装置。
(6)上記(1)から(5)のいずれか1つに記載の情報処理装置であって、
前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、自然法則及び/又は視覚品質上の条件を満足するように、仮想情報の表示位置を変更する第2の仮想情報表示制御部
をさらに具備する情報処理装置。
(7)上記(1)から(6)のいずれか1つに記載の情報処理装置であって、
前記表示部
をさらに具備する情報処理装置。
(8)上記(1)から(7)のいずれか1つに記載の情報処理装置であって、
前記投影装置
をさらに具備する情報処理装置。
(9)第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部とを有し、
前記第1のパラメータ生成部は、変形が付与された図形と前記第1の撮影部との第1の位置関係をもとに、前記パラメータを生成する
第1の情報処理装置と、
前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
前記投影装置により前記第1の現実風景に投影された前記変形が付与された図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
前記変形が付与された図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と
を有する第2の情報処理装置と
を具備する情報処理システム。
(10)第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
前記第1のパラメータを第2の情報処理装置に送信する送信部と
を有する第1の情報処理装置と、
前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
前記投影装置により前記第1の現実風景に投影された前記図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
前記図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と、
前記第1の情報処理装置より前記第1のパラメータを受信し、この受信した第1のパラメータを用いて前記第2のパラメータを補正する補正部と
を有する第2の情報処理装置と
を具備する情報処理システム。
(11)撮影部により、現実風景を撮影して現実画像を取得し、
図形検出部により、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出し、
特徴点検出部により、前記現実風景の前記現実画像から特徴点をリアルタイムに検出し、
パラメータ生成部により、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成する
情報処理方法。
100…HMD
101…撮影部
102…表示部
120…三次元構造推定部
121…マーカ検出部
122…重畳パラメータ生成部
124…画像データ生成部
200…入力装置

Claims (11)

  1. 現実風景を撮影して現実画像を取得する撮影部と、
    投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出する図形検出部と、
    前記現実風景の前記現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
    前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成するパラメータ生成部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記特徴点検出部による検出結果をもとに生成された前記パラメータを用いた前記仮想情報の表示を、あらかじめ決められたイベントの発生により停止させる第1の仮想情報表示制御部
    をさらに具備する情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
    前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部
    をさらに具備する情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記パラメータ生成部は、変形が付与された図形と前記撮影部との第1の位置関係をもとに、前記パラメータを生成する
    情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、前記仮想情報の表示を無効化する第2の仮想情報表示制御部
    をさらに具備する情報処理装置。
  6. 請求項4に記載の情報処理装置であって、
    前記現実風景に前記仮想情報を重畳して表示させたときにその内容が自然法則に反するかどうか及び/又は要求される視覚品質上の条件を満足するかどうかを予め決められたルールに従って判定し、反する及び/又は満足しない場合に、自然法則及び/又は視覚品質上の条件を満足するように、仮想情報の表示位置を変更する第2の仮想情報表示制御部
    をさらに具備する情報処理装置。
  7. 請求項1ないし6のいずれか1項に記載の情報処理装置であって、
    前記表示部
    をさらに具備する情報処理装置。
  8. 請求項1ないし7のいずれか1項に記載の情報処理装置であって、
    前記投影装置
    をさらに具備する情報処理装置。
  9. 第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
    投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
    前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
    前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
    前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
    前記投影対象面に前記投影装置より投影された図形が、あらかじめ決められた基準形状となるように、前記取得した角度をもとに前記投影装置により投影される図形に対して変形を付与する変形付与部とを有し、
    前記第1のパラメータ生成部は、変形が付与された図形と前記第1の撮影部との第1の位置関係をもとに、前記パラメータを生成する
    第1の情報処理装置と、
    前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
    前記投影装置により前記第1の現実風景に投影された前記変形が付与された図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
    前記変形が付与された図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と
    を有する第2の情報処理装置と
    を具備する情報処理システム。
  10. 第1の現実風景を撮影して第1の現実画像を取得する第1の撮影部と、
    投影装置により前記現実風景に投影された図形の画像を前記第1の現実画像から検出する第1の図形検出部と、
    前記現実風景の前記第1の現実画像から特徴点をリアルタイムに検出する特徴点検出部と、
    前記図形と前記第1の撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して第1の表示部に表示させるために必要な第1のパラメータを生成し、前記第1の現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記第1のパラメータを生成する第1のパラメータ生成部と、
    前記投影装置が投影する画像の光軸と前記現実風景内の投影対象面との角度を取得する角度取得部と、
    前記第1のパラメータを第2の情報処理装置に送信する送信部と
    を有する第1の情報処理装置と、
    前記第1の現実風景を撮影して第2の現実画像を取得する第2の撮影部と、
    前記投影装置により前記第1の現実風景に投影された前記図形の画像を前記第2の現実画像から検出する第2の図形検出部と、
    前記図形と前記第2の撮影部との第3の位置関係をもとに、前記現実風景に仮想情報を重畳して第2の表示部に表示させるために必要な第2のパラメータを生成する第2のパラメータ生成部と、
    前記第1の情報処理装置より前記第1のパラメータを受信し、この受信した第1のパラメータを用いて前記第2のパラメータを補正する補正部と
    を有する第2の情報処理装置と
    を具備する情報処理システム。
  11. 撮影部により、現実風景を撮影して現実画像を取得し、
    図形検出部により、投影装置により前記現実風景に投影された図形の画像を前記現実画像から検出し、
    特徴点検出部により、前記現実風景の前記現実画像から特徴点をリアルタイムに検出し、
    パラメータ生成部により、前記図形と前記撮影部との第1の位置関係をもとに、前記現実風景に仮想情報を重畳して表示部に表示させるために必要なパラメータを生成し、前記現実画像から前記図形が消失したとき、前記図形が最後に検出された時点での前記現実風景との第2の位置関係を保持しつつ前記仮想情報を表示し続けるように、前記特徴点検出部による検出結果をもとに前記パラメータを生成する
    情報処理方法。
JP2012076966A 2012-03-29 2012-03-29 情報処理システム Active JP5966510B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2012076966A JP5966510B2 (ja) 2012-03-29 2012-03-29 情報処理システム
KR1020147025953A KR20140136943A (ko) 2012-03-29 2013-02-20 정보 처리 장치, 정보 처리 시스템, 및 정보 처리 방법
US14/385,869 US9824497B2 (en) 2012-03-29 2013-02-20 Information processing apparatus, information processing system, and information processing method
CN201380015874.8A CN104205175B (zh) 2012-03-29 2013-02-20 信息处理装置,信息处理系统及信息处理方法
PCT/JP2013/000953 WO2013145536A1 (en) 2012-03-29 2013-02-20 Information processing apparatus, information processing system, and information processing method
EP13710577.1A EP2831849A1 (en) 2012-03-29 2013-02-20 Information processing apparatus, information processing system, and information processing method
TW102108327A TW201350912A (zh) 2012-03-29 2013-03-08 資訊處理裝置,資訊處理系統及資訊處理方法
US15/794,326 US10198870B2 (en) 2012-03-29 2017-10-26 Information processing apparatus, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012076966A JP5966510B2 (ja) 2012-03-29 2012-03-29 情報処理システム

Publications (3)

Publication Number Publication Date
JP2013206322A true JP2013206322A (ja) 2013-10-07
JP2013206322A5 JP2013206322A5 (ja) 2015-04-02
JP5966510B2 JP5966510B2 (ja) 2016-08-10

Family

ID=47901252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012076966A Active JP5966510B2 (ja) 2012-03-29 2012-03-29 情報処理システム

Country Status (7)

Country Link
US (2) US9824497B2 (ja)
EP (1) EP2831849A1 (ja)
JP (1) JP5966510B2 (ja)
KR (1) KR20140136943A (ja)
CN (1) CN104205175B (ja)
TW (1) TW201350912A (ja)
WO (1) WO2013145536A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146113A (ja) * 2014-02-03 2015-08-13 ブラザー工業株式会社 表示プログラムおよび表示装置
JP2015201786A (ja) * 2014-04-09 2015-11-12 株式会社Nttドコモ 撮像システム及び撮像方法
JP2016092567A (ja) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016136376A (ja) * 2015-01-14 2016-07-28 株式会社リコー 情報処理装置、情報処理方法及びプログラム
JP2016161611A (ja) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 表示システム、及び表示制御方法
JP2017056933A (ja) * 2015-09-18 2017-03-23 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
JP2017072999A (ja) * 2015-10-07 2017-04-13 株式会社リコー 情報処理装置、情報処理方法及びプログラム
JP2018004756A (ja) * 2016-06-28 2018-01-11 株式会社リコー 情報表示システム
JP2018517187A (ja) * 2015-03-04 2018-06-28 オキュラス ブイアール,エルエルシー 仮想現実システムにおけるスパース投影
US10297062B2 (en) 2014-03-18 2019-05-21 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2020084654A (ja) * 2018-11-29 2020-06-04 前田建設工業株式会社 トンネルにおけるarマーカー設置方法
JP2020095523A (ja) * 2018-12-13 2020-06-18 エイベックス株式会社 端末装置及びプログラム
US11107287B2 (en) * 2017-10-05 2021-08-31 Sony Corporation Information processing apparatus and information processing method
WO2021256310A1 (ja) * 2020-06-18 2021-12-23 ソニーグループ株式会社 情報処理装置、端末装置、情報処理システム、情報処理方法およびプログラム
JP2022513013A (ja) * 2018-11-15 2022-02-07 コーニンクレッカ フィリップス エヌ ヴェ 複合現実のための仮想オブジェクトの体系的配置
US12001013B2 (en) 2018-07-02 2024-06-04 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US12016719B2 (en) 2018-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
US12033081B2 (en) 2020-11-13 2024-07-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420251B2 (en) 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
EP2876608A4 (en) * 2012-07-23 2016-02-10 Fujitsu Ltd PROGRAM, METHOD, AND DISPLAY CONTROL DEVICE
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US10169916B2 (en) * 2013-05-27 2019-01-01 Sony Corporation Image processing device and image processing method
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
CN105874528B (zh) * 2014-01-15 2018-07-20 麦克赛尔株式会社 信息显示终端、信息显示系统以及信息显示方法
JP6264087B2 (ja) 2014-02-21 2018-01-24 ソニー株式会社 表示制御装置、表示装置および表示制御システム
JP6364952B2 (ja) * 2014-05-23 2018-08-01 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
WO2015186401A1 (ja) 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム
JP6326996B2 (ja) * 2014-06-13 2018-05-23 富士通株式会社 端末装置、情報処理システム、及び表示制御プログラム
WO2016012044A1 (en) * 2014-07-24 2016-01-28 Deutsche Telekom Ag Method and system for augmenting television watching experience
US10134187B2 (en) 2014-08-07 2018-11-20 Somo Innvoations Ltd. Augmented reality with graphics rendering controlled by mobile device position
KR102309281B1 (ko) * 2014-11-07 2021-10-08 삼성전자주식회사 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
TWI621097B (zh) * 2014-11-20 2018-04-11 財團法人資訊工業策進會 行動裝置、操作方法及非揮發性電腦可讀取記錄媒體
KR101651535B1 (ko) * 2014-12-02 2016-09-05 경북대학교 산학협력단 Hmd 디바이스 및 그 제어 방법
WO2016129549A1 (ja) * 2015-02-12 2016-08-18 株式会社コロプラ ヘッドマウント・ディスプレイを用いたコンテンツ視聴のための装置およびシステム
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10365490B2 (en) * 2015-05-19 2019-07-30 Maxell, Ltd. Head-mounted display, head-up display and picture displaying method
CN106445088B (zh) * 2015-08-04 2020-05-22 上海宜维计算机科技有限公司 现实增强的方法及系统
TWI590189B (zh) * 2015-12-23 2017-07-01 財團法人工業技術研究院 擴增實境方法、系統及電腦可讀取非暫態儲存媒介
JP6690277B2 (ja) * 2016-02-09 2020-04-28 富士通株式会社 画像処理制御方法、画像処理制御プログラムおよび情報処理装置
EP3329316B1 (en) 2016-03-11 2023-09-20 Facebook Technologies, LLC Corneal sphere tracking for generating an eye model
US10115205B2 (en) 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration
CN105867617B (zh) * 2016-03-25 2018-12-25 京东方科技集团股份有限公司 增强现实设备、系统、图像处理方法及装置
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
JP6834537B2 (ja) 2017-01-30 2021-02-24 株式会社リコー 表示装置、移動体装置、表示装置の製造方法及び表示方法。
CN107918499B (zh) * 2016-10-09 2022-09-06 北京墨土科技有限公司 光学定位系统及方法、定位用光学观测设备
CN107979748A (zh) * 2016-10-21 2018-05-01 中强光电股份有限公司 投影机、投影系统以及影像投影方法
CN108062786B (zh) * 2016-11-08 2022-12-30 台湾国际物业管理顾问有限公司 以三维信息模型为基础的综合感知定位技术应用系统
JP6171079B1 (ja) * 2016-12-22 2017-07-26 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
CN106843497A (zh) * 2017-02-24 2017-06-13 北京观动科技有限公司 一种混合现实信息交互方法及装置
US10467456B2 (en) * 2017-04-17 2019-11-05 Htc Corporation Tracking system for tracking an object based on silhouette
US10509556B2 (en) * 2017-05-02 2019-12-17 Kyocera Document Solutions Inc. Display device
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
US10602046B2 (en) * 2017-07-11 2020-03-24 Htc Corporation Mobile device and control method
JP2019061590A (ja) * 2017-09-28 2019-04-18 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
US10803666B1 (en) * 2017-09-28 2020-10-13 Apple Inc. Method and device for synchronizing augmented reality coordinate systems
CN109587188B (zh) * 2017-09-28 2021-10-22 阿里巴巴集团控股有限公司 确定终端设备之间相对位置关系的方法、装置及电子设备
CN109658514B (zh) * 2017-10-11 2022-03-11 腾讯科技(深圳)有限公司 一种数据处理方法、装置和计算机存储介质
CN107861247B (zh) * 2017-12-22 2020-08-25 联想(北京)有限公司 光学部件及增强现实设备
CN110119190A (zh) * 2018-02-06 2019-08-13 广东虚拟现实科技有限公司 定位方法、装置、识别跟踪系统及计算机可读介质
CN110392251B (zh) * 2018-04-18 2021-07-16 广景视睿科技(深圳)有限公司 一种基于虚拟现实的动态投影方法及系统
US10771727B2 (en) * 2018-04-27 2020-09-08 Vital Optics, Inc Monitoring system with heads-up display
CN108579084A (zh) * 2018-04-27 2018-09-28 腾讯科技(深圳)有限公司 虚拟环境中的信息显示方法、装置、设备及存储介质
TWI670646B (zh) * 2018-06-15 2019-09-01 財團法人工業技術研究院 資訊顯示方法及其顯示系統
TWI718410B (zh) * 2018-09-14 2021-02-11 財團法人工業技術研究院 目標物資訊的預載顯示方法及裝置
CN112955851A (zh) * 2018-10-09 2021-06-11 谷歌有限责任公司 基于场境线索选择增强现实对象以供显示
CN113302661B (zh) * 2019-01-10 2024-06-14 三菱电机株式会社 信息显示控制装置及方法、以及记录介质
TWI725574B (zh) * 2019-02-22 2021-04-21 宏達國際電子股份有限公司 頭戴式顯示裝置以及眼球追蹤游標的顯示方法
US11762623B2 (en) * 2019-03-12 2023-09-19 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
JP7277187B2 (ja) 2019-03-13 2023-05-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
US11663736B2 (en) * 2019-12-27 2023-05-30 Snap Inc. Marker-based shared augmented reality session creation
CN113766167A (zh) * 2020-06-04 2021-12-07 中国移动通信有限公司研究院 全景视频会议增强方法、系统和网络设备
TWI779305B (zh) * 2020-06-24 2022-10-01 奧圖碼股份有限公司 使用擴增實境之投影機的設置模擬方法及其終端裝置
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
JP7318670B2 (ja) * 2021-01-27 2023-08-01 セイコーエプソン株式会社 表示方法および表示システム
TWI773265B (zh) * 2021-04-21 2022-08-01 大陸商廣州立景創新科技有限公司 影像擷取組件的組裝方法
CN113934294A (zh) * 2021-09-16 2022-01-14 珠海虎江科技有限公司 虚拟现实显示设备及其对话窗口显示方法、计算机可读存储介质
DE102022201351A1 (de) * 2022-02-09 2023-08-10 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille
JP2023177422A (ja) * 2022-06-02 2023-12-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001126051A (ja) * 1999-10-27 2001-05-11 Olympus Optical Co Ltd 関連情報呈示装置及び関連情報呈示方法
JP2004062758A (ja) * 2002-07-31 2004-02-26 Canon Inc 情報処理装置および方法
JP2006099188A (ja) * 2004-09-28 2006-04-13 Canon Inc 情報処理方法および装置
JP2009225432A (ja) * 2008-02-22 2009-10-01 Panasonic Electric Works Co Ltd 光投影装置、照明装置
JP2010231459A (ja) * 2009-03-26 2010-10-14 Kyocera Corp 画像合成装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324239A (ja) 2001-04-25 2002-11-08 Olympus Optical Co Ltd 情報呈示システム
CN100416336C (zh) * 2003-06-12 2008-09-03 美国西门子医疗解决公司 校准真实和虚拟视图
WO2005010817A1 (ja) 2003-07-24 2005-02-03 Olympus Corporation 画像処理装置
JP4532982B2 (ja) * 2004-05-14 2010-08-25 キヤノン株式会社 配置情報推定方法および情報処理装置
JP5075330B2 (ja) 2005-09-12 2012-11-21 任天堂株式会社 情報処理プログラム
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP2007272623A (ja) 2006-03-31 2007-10-18 Brother Ind Ltd 画像合成装置及び画像合成プログラム
JP4777182B2 (ja) 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
JP4689639B2 (ja) * 2007-04-25 2011-05-25 キヤノン株式会社 画像処理システム
US20100107081A1 (en) * 2008-10-24 2010-04-29 Infocus Corporation Projection device image viewer user interface
JP4816789B2 (ja) * 2009-11-16 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
WO2011109126A1 (en) 2010-03-05 2011-09-09 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
EP2558176B1 (en) 2010-04-13 2018-11-07 Sony Computer Entertainment America LLC Calibration of portable devices in a shared virtual space
CN102122072B (zh) * 2011-03-16 2016-04-13 北京理工大学 头戴式微投影立体视觉显示器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001126051A (ja) * 1999-10-27 2001-05-11 Olympus Optical Co Ltd 関連情報呈示装置及び関連情報呈示方法
JP2004062758A (ja) * 2002-07-31 2004-02-26 Canon Inc 情報処理装置および方法
JP2006099188A (ja) * 2004-09-28 2006-04-13 Canon Inc 情報処理方法および装置
JP2009225432A (ja) * 2008-02-22 2009-10-01 Panasonic Electric Works Co Ltd 光投影装置、照明装置
JP2010231459A (ja) * 2009-03-26 2010-10-14 Kyocera Corp 画像合成装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146113A (ja) * 2014-02-03 2015-08-13 ブラザー工業株式会社 表示プログラムおよび表示装置
US10297062B2 (en) 2014-03-18 2019-05-21 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2015201786A (ja) * 2014-04-09 2015-11-12 株式会社Nttドコモ 撮像システム及び撮像方法
JP2016092567A (ja) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016136376A (ja) * 2015-01-14 2016-07-28 株式会社リコー 情報処理装置、情報処理方法及びプログラム
JP2016161611A (ja) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 表示システム、及び表示制御方法
JP2018517187A (ja) * 2015-03-04 2018-06-28 オキュラス ブイアール,エルエルシー 仮想現実システムにおけるスパース投影
JP2017056933A (ja) * 2015-09-18 2017-03-23 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
JP2017072999A (ja) * 2015-10-07 2017-04-13 株式会社リコー 情報処理装置、情報処理方法及びプログラム
JP2018004756A (ja) * 2016-06-28 2018-01-11 株式会社リコー 情報表示システム
US11107287B2 (en) * 2017-10-05 2021-08-31 Sony Corporation Information processing apparatus and information processing method
US12001013B2 (en) 2018-07-02 2024-06-04 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US12016719B2 (en) 2018-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
JP2022513013A (ja) * 2018-11-15 2022-02-07 コーニンクレッカ フィリップス エヌ ヴェ 複合現実のための仮想オブジェクトの体系的配置
JP2020084654A (ja) * 2018-11-29 2020-06-04 前田建設工業株式会社 トンネルにおけるarマーカー設置方法
JP7170517B2 (ja) 2018-11-29 2022-11-14 前田建設工業株式会社 トンネルにおけるarマーカー設置方法
JP2020095523A (ja) * 2018-12-13 2020-06-18 エイベックス株式会社 端末装置及びプログラム
WO2021256310A1 (ja) * 2020-06-18 2021-12-23 ソニーグループ株式会社 情報処理装置、端末装置、情報処理システム、情報処理方法およびプログラム
US12033081B2 (en) 2020-11-13 2024-07-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality

Also Published As

Publication number Publication date
EP2831849A1 (en) 2015-02-04
CN104205175A (zh) 2014-12-10
KR20140136943A (ko) 2014-12-01
CN104205175B (zh) 2017-11-14
US20150070389A1 (en) 2015-03-12
WO2013145536A1 (en) 2013-10-03
JP5966510B2 (ja) 2016-08-10
US10198870B2 (en) 2019-02-05
TW201350912A (zh) 2013-12-16
US20180096536A1 (en) 2018-04-05
US9824497B2 (en) 2017-11-21

Similar Documents

Publication Publication Date Title
JP5966510B2 (ja) 情報処理システム
CN112926428B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
JP5912059B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
KR20230074780A (ko) 검출된 손 제스처들에 응답한 터치리스 포토 캡처
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
US10999412B2 (en) Sharing mediated reality content
US11954268B2 (en) Augmented reality eyewear 3D painting
CN110377148B (zh) 计算机可读介质、训练对象检测算法的方法及训练设备
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US11195341B1 (en) Augmented reality eyewear with 3D costumes
JP2022183213A (ja) ヘッドマウントディスプレイ
US20210406542A1 (en) Augmented reality eyewear with mood sharing
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016157458A (ja) 情報処理装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R151 Written notification of patent or utility model registration

Ref document number: 5966510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250