JP6525010B2 - 情報処理装置及び情報処理方法、並びに画像表示システム - Google Patents

情報処理装置及び情報処理方法、並びに画像表示システム Download PDF

Info

Publication number
JP6525010B2
JP6525010B2 JP2016539870A JP2016539870A JP6525010B2 JP 6525010 B2 JP6525010 B2 JP 6525010B2 JP 2016539870 A JP2016539870 A JP 2016539870A JP 2016539870 A JP2016539870 A JP 2016539870A JP 6525010 B2 JP6525010 B2 JP 6525010B2
Authority
JP
Japan
Prior art keywords
information
orientation
image display
display device
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016539870A
Other languages
English (en)
Other versions
JPWO2016021252A1 (ja
Inventor
河本 献太
献太 河本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016021252A1 publication Critical patent/JPWO2016021252A1/ja
Application granted granted Critical
Publication of JP6525010B2 publication Critical patent/JP6525010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本明細書で開示する技術は、ユーザーの頭部や顔部に装着して画像の視聴に利用される画像表示装置に表示する画面情報を提供する情報処理装置及び情報処理方法、並びに画像表示システムに関する。
頭部又は顔部に装着して画像の視聴に利用される画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。ヘッド・マウント・ディスプレイは、例えば左右の眼毎に画像表示部が配置され、虚像光学系により表示画像の拡大虚像を形成することで、ユーザーは臨場感のある画像を観察することができる。
ヘッド・マウント・ディスプレイは、左右の眼の表示部として、例えば液晶や有機EL(Electro−Luminescence)素子などからなる高解像度の表示パネルを装備する。また、ヘッド・マウント・ディスプレイを、透過性のタイプと遮光性のタイプに分類することもできる。
透過性のヘッド・マウント・ディスプレイは、着用者は頭部に装着して画像を表示している間も、周囲の風景を観察することができるので(例えば、特許文献1を参照のこと)、屋外での使用時や歩行中の使用時において、ユーザーは障害物との衝突などの危険から回避することができる。
一方、遮光性のヘッド・マウント・ディスプレイは、頭部に着用した際に、着用者の眼を直接覆うように構成され、画像視聴時に没入感が増す。虚像光学系を用いて表示画面を拡大投影して、適当な画角となる拡大虚像としてユーザーに観察させるとともに、ヘッドフォンで多チャンネルを再現すれば、映画館で視聴するような臨場感を再現することができる(例えば、特許文献2を参照のこと)。また、遮光性のヘッド・マウント・ディスプレイにおいても、着用者の前方を撮影できるカメラを内蔵して、撮影して得られる外部画像を表示するビデオ・シースルー方式が知られており、着用者は外部画像を通じて周囲の風景を観察することができる(例えば、特許文献3、4を参照のこと)。なお、ビデオ・シースルーに対し、前者の透過性のヘッド・マウント・ディスプレイは、光学シースルー、又は、単にシースルーと呼ばれる。
遮光性並びに透過性のいずれのタイプにせよ、ヘッド・マウント・ディスプレイは、装着したユーザーの視覚や聴覚を制限する。とりわけ遮光性のヘッド・マウント・ディスプレイを着用したユーザーは、視界が完全に遮られるので、電話に出る、コンピューターの画面に入力するなど、外部に対する操作を一切行なうことができなくなる。
上述したビデオ・シースルー方式のヘッド・マウント・ディスプレイであれば、カメラで撮影したユーザーの視界画像を表示して、ユーザーは表示画像を通じて、視界にある物体を操作することができる。
例えば、表示情報に応じて表示を行う表示装置を備える携帯端末と、携帯端末から取得した表示情報に基づいて、装着者の視野内の表示領域に仮想画面を表示するヘッド・マウント・ディスプレイとを備える携帯端末システムについて提案がなされている(例えば、特許文献5を参照のこと)。
しかしながら、上記のような携帯端末システムは、ヘッド・マウント・ディスプレイが外界を撮影するカメラを装備していることが前提となる。カメラを装備しないヘッド・マウント・ディスプレイを着用したユーザーは、ヘッド・マウント・ディスプレイを頭から外し、視聴を完全に中断しなければ、外部に対する操作を行なうことは困難である。
特開2012−42654号公報 特開2012−141461号公報 特開2005−38321号公報 特開2011−242591号公報 特開2011−186856号公報 特開2012−186660号公報
本明細書で開示する技術の目的は、ユーザーの頭部や顔部に装着して画像の視聴に利用される画像表示装置に表示する画面情報を好適に提供することができる、優れた情報処理装置及び情報処理方法、並びに画像表示システムを提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
撮影部と、
前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算部と、
前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する位置姿勢変換部と、
前記第2基準座標系での当該情報処理装置の位置及び姿勢に基づいて、前記画像表示装置の画面内で当該情報処理装置に関わる画面情報を埋め込む位置を計算する埋め込み位置計算部と、
を具備する情報処理装置である。
また、本明細書で開示する技術の第2の側面は、
撮影部と、
表示部と、
前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算部と、
前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する位置姿勢変換部と、
前記第2基準座標系での当該情報処理装置の位置及び姿勢に基づいて、前記画像表示装置の画面に対して前記表示部の画面情報を埋め込む位置を計算する埋め込み位置計算部と、
を具備する情報処理装置である。
本明細書で開示する技術の第3の側面によれば、第2の側面に係る情報処理装置は、前記画像表示装置と通信する通信部をさらに備えている。そして、前記表示部の画面情報及び前記埋め込む位置の情報を、前記通信部を介して前記画像表示装置に送信するように構成されている。
本明細書で開示する技術の第4の側面によれば、第2又は3のいずれかの側面に係る情報処理装置の前記位置姿勢計算部は、前記画像表示装置側に搭載された基準指標に基づいて、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算するように構成されている。
本明細書で開示する技術の第5の側面によれば、第4の側面に係る情報処理装置は、前記画像表示装置の姿勢と前記基準指標の姿勢の関係に関する情報を取得する基準指標配置情報取得部をさらに備えている。
本明細書で開示する技術の第6の側面によれば、第5の側面に係る情報処理装置の前記基準指標配置情報取得部は、前記画像表示装置の姿勢と前記基準指標の姿勢の関係に関する設計情報をプリロードし、前記位置姿勢計算部は、前記画像表示装置に対し当該情報処理装置が所定方向に配置されたときに前記撮影部で撮影した画像から、前記設計情報に基づいて前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算するように構成されている。
本明細書で開示する技術の第7の側面によれば、第5の側面に係る情報処理装置の前記基準指標配置情報取得部は、前記基準指標から情報を受信するように構成されている。
本明細書で開示する技術の第8の側面によれば、前記画像表示装置側には配置情報が既知となる3個以上の基準指標が配置されている。そして、第7の側面に係る情報処理装置の前記基準指標配置情報取得部は、色、テクスチャー、形状のうち少なくとも1つに基づいて各基準指標の各々を識別して、前記画像表示装置の基準座標系の軸の情報を取得するように構成されている。
本明細書で開示する技術の第9の側面によれば、第7の側面に係る情報処理装置の前記基準指標配置情報取得部は、点滅パターンにエンコードされた情報を基準指標から受信するように構成されている。
本明細書で開示する技術の第10の側面によれば、第9の側面に係る情報処理装置の前記基準指標配置情報取得部は、点滅パターンをデコードした情報をデータベースに問い合わせて、基準指標の座標情報、基準指標の情報、又は前記画像表示装置の情報を取得するように構成されている。
本明細書で開示する技術の第11の側面によれば、第2又は3のいずれかの側面に係る情報処理装置の前記位置姿勢計算部は、Visual SLAMを用いて、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算するように構成されている。
本明細書で開示する技術の第12の側面によれば、第11の側面に係る情報処理装置は、初期姿勢に当該情報処理装置が保持された基準状態において前記位置姿勢計算部で算出された前記画像表示装置の位置及び姿勢を保存しておき、前記位置姿勢変換部は、前記基準状態からの前記画像表示装置の姿勢の変化を計算して、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記第2の基準座標系での当該情報処理装置の位置及び姿勢に変換するように構成されている。
また、本明細書で開示する技術の第13の側面は、
情報端末に搭載された撮影部で他の画像表示装置を撮影した画像に基づいて、前記情報端末の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算ステップと、
前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での前記情報端末の位置及び姿勢に変換する位置姿勢変換ステップと、
前記第2基準座標系での前記情報端末の位置及び姿勢に基づいて、前記画像表示装置の画面に対して前記情報端末の画面情報を埋め込む位置を計算する埋め込み位置計算ステップと、
を有する情報処理方法である。
また、本明細書で開示する技術の第14の側面は、
観察者の頭部又は顔部に固定される表示装置と、
撮影部と表示部を備え、前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算するとともに、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換して、前記画像表示装置の画面に対して前記表示部の画面情報を埋め込む位置を計算する情報処理装置と、
を具備する画像表示システムである。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
本明細書で開示する技術によれば、ユーザーの頭部や顔部に装着して画像の視聴に利用される画像表示装置に表示する画面情報を好適に提供することができる、優れた情報処理装置及び情報処理方法、並びに画像表示システムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、ヘッド・マウント・ディスプレイ100を頭部に装着しているユーザーを正面から眺めた様子を示した図である。 図2は、図1に示したヘッド・マウント・ディスプレイ100を着用したユーザーを上方から眺めた様子を示した図である。 図3は、ヘッド・マウント・ディスプレイ100の内部構成例を示した図である。 図4は、ヘッド・マウント・ディスプレイ100の外側カメラ312で撮影した画像に基づいて情報端末の相互の位置関係及び姿勢を把握して、情報端末の画像を重畳して表示する様子を示した図である。 図5は、図4に示した画面表示を実現するための処理手順を示した図である。 図6は、情報端末側のカメラで撮影した画像に基づいてヘッド・マウント・ディスプレイ100と情報端末の相互の位置関係及び姿勢を把握して、情報端末の画像を重畳して表示する様子を示した図である。 図7は、図6に示した画面表示を実現するための処理手順を示した図である 図8は、ARマーカー801を、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示した図である。 図9は、既知形状の基準指標901A〜Dを、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示した図である。 図10は、色が異なる4個以上の既知形状の基準指標1001A〜Dを、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示した図である。 図11は、点滅する基準指標1101A〜Dを、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示した図である。 図12は、基準指標から受信した物体座標に基づいてヘッド・マウント・ディスプレイ100の画面に情報端末の画面情報を埋め込むための処理手順を示した図である。 図13は、基準指標から受信した検索キーに基づいてヘッド・マウント・ディスプレイ100の画面に情報端末の画面情報を埋め込むための処理手順を示した図である。 図14は、情報端末の位置を初期化するための処理手順を示した図である。 図15は、図14に示した処理手順によって初期化した情報端末の位置を用いて、ヘッド・マウント・ディスプレイ100の画面に情報端末の画面情報を埋め込むための処理手順を示した図である。 図16は、情報端末の構成例を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用したヘッド・マウント・ディスプレイ100を頭部に装着しているユーザーを正面から眺めた様子を示している。
ヘッド・マウント・ディスプレイ100は、ユーザーが頭部又は顔部に装着した際にユーザーの眼を直接覆い、画像視聴中のユーザーに没入感を与えることができる。また、表示画像は、外側(すなわち他人)からは見えないので、情報表示に際してプライバシーが守られ易い。シースルーのタイプとは相違し、ヘッド・マウント・ディスプレイ100を着用したユーザーは現実世界の風景を直接眺めることはできない。ユーザーの視線方向の風景を撮影する外側カメラ312を装備していれば、その撮像画像を表示することにより、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を表示する)ことができる。但し、後述するように、本明細書で開示する技術は、外側カメラ312の装備若しくはビデオ・シースルー表示を前提としない。
図1に示すヘッド・マウント・ディスプレイ100は、帽子形状に類似した構造体であり、着用したユーザーの左右の眼を直接覆うように構成されている。ヘッド・マウント・ディスプレイ100本体の内側の左右の眼に対向する位置には、ユーザーが観察する表示パネル(図1では図示しない)が配設されている。表示パネルは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。
ヘッド・マウント・ディスプレイ100本体の左右の両端付近にそれぞれマイクロフォン103L、103Rが設置されている。左右ほぼ対称的にマイクロフォン103L、103Rを持つことで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
また、ヘッド・マウント・ディスプレイ100本体の前面で表示パネルの背面付近には、ユーザーが指先などを使ってタッチ入力することができるタッチパネル315が配設されている。図示の例では、左右一対のタッチパネル315を備えているが、単一又は3以上のタッチパネル315を備えていてもよい。
図2には、図1に示したヘッド・マウント・ディスプレイ100を着用したユーザーを上方から眺めた様子を示している。図示のヘッド・マウント・ディスプレイ100は、ユーザーの顔面と対向する側面に、左眼用及び右眼用の表示パネル104L、104Rを持つ。表示パネル104L、104Rは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。表示パネル104L、104Rの表示画像は、虚像光学部101L、101Rを通過するにより拡大虚像としてユーザーに観察される。また、眼の高さや眼幅にはユーザー毎に個人差があるため、着用したユーザーの眼と左右の各表示系とを位置合わせする必要がある。図2に示す例では、右眼用の表示パネルと左眼用の表示パネルの間に眼幅調整機構105を装備している。
図3には、ヘッド・マウント・ディスプレイ100の内部構成例を示している。以下、各部について説明する。
制御部301は、ROM(Read Only Memory)301AやRAM(Random Access Memory)301Bを備えている。ROM301A内には、制御部301で実行するプログラム・コードや各種データを格納している。制御部301は、RAM301Bへロードしたプログラムを実行することで、画像の表示制御を始め、ヘッド・マウント・ディスプレイ100全体の動作を統括的にコントロールする。
なお、ROM301Aに格納するプログラムとして、再生動画像を画面表示したり外部装置(スマートフォンなど)から取り込んだ画像情報を画面に重畳表示したりする表示制御プログラムを挙げることができる。また、ROM301Aに格納するデータとして、当該ヘッド・マウント・ディスプレイ100に固有の識別情報(型番や製造番号を含む)、当該ヘッド・マウント・ディスプレイ100を使用するユーザーを認証するための認証情報(例えば、暗証番号やパスワード、生体情報)などのユーザー属性情報、ヘッド・マウント・ディスプレイ100の設計情報(ヘッド・マウント・ディスプレイ100に搭載する基準指標の形状や配置など)を挙げることができる。
入力インターフェース(IF)部302は、キーやボタン、スイッチなど、ユーザーが入力操作を行なう1以上の操作子(いずれも図示しない)を備え、操作子を介したユーザーの指示を受け付けて、制御部301に出力する。また、入力操作部302は、リモコン受信部303で受信したリモコン・コマンドからなるユーザーの指示を受け付けて、制御部301に出力する。
また、入力インターフェース(IF)部302は、ヘッド・マウント・ディスプレイ100本体の外側に配設されているタッチパネル315に対してユーザーが指先でタッチ操作を行なうと、タッチされた指先位置の座標データなどの入力情報を制御部301に出力する。例えば、ヘッド・マウント・ディスプレイ100本体の前面で、ちょうど表示部309の表示画像(虚像光学部310越しに観察される拡大虚像)の背面にタッチパネル315を配置すると(図1を参照のこと)、ユーザーは表示画像上を指先で触れるような感覚でタッチ操作を行なうことができる。
状態情報取得部304は、当該ヘッド・マウント・ディスプレイ100本体、又は当該ヘッド・マウント・ディスプレイ100を装着したユーザーの状態情報を取得する機能モジュールである。状態情報取得部304は、自ら状態情報を検出するための各種センサーを装備していてもよいし、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)から通信部305(後述)を介して状態情報を取得するようにしてもよい。
状態情報取得部304は、ユーザーの頭部動作を追跡するために、例えばユーザーの頭部の位置及び姿勢の情報又は姿勢の情報を取得する。ユーザーの頭部動作を追跡するために、状態情報取得部304は、例えば3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。また、状態情報取得部304は、GPS(Global Positioning System)センサー、ドップラー・センサー、赤外線センサー、電波強度センサーなどのいずれか1つ又は2以上のセンサーをさらに組み合わせて用いてもよい。また、状態情報取得部304は、位置姿勢情報を取得するために、携帯電話基地局情報やPlaceEngine(登録商標)情報(無線LANアクセスポイントからの電測情報)など、各種インフラストラクチャーから提供される情報をさらに組み合わせて用いるようにしてもよい。図3に示す例では、頭部動作追跡のための状態取得部304は、ヘッド・マウント・ディスプレイ100に内蔵されるが、ヘッド・マウント・ディスプレイ100に外付けされるアクセサリー部品などで構成するようにしてもよい。後者の場合、外付け接続される状態取得部304は、頭部の姿勢情報を、Bluetooth(登録商標)通信などの無線通信やUSB(Universal Serial Bus)のような高速な有線インフェース経由でヘッド・マウント・ディスプレイ100本体に送信する。
また、状態情報取得部304は、上述したユーザーの頭部動作の追跡の他に、当該ヘッド・マウント・ディスプレイ100を装着したユーザーの状態情報として、例えば、ユーザーの作業状態(ヘッド・マウント・ディスプレイ100の装着の有無)や、ユーザーの行動状態(静止、歩行、走行などの移動状態、手や指先によるジェスチャー、瞼の開閉状態、視線方向、瞳孔の大小)、精神状態(ユーザーが表示画像を観察中に没頭若しくは集中しているかなどの感動度、興奮度、覚醒度、感情や情動など)、さらには生理状態を取得する。また、状態情報取得部304は、これらの状態情報をユーザーから取得するために、外側カメラ312や、機械スイッチなどからなる装着センサー、ユーザーの顔を撮影する内側カメラ、ジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温又は気温を検知する温度センサー、発汗センサー、脈拍センサー、筋電位センサー、眼電位センサー、脳波センサー、呼気センサー、ガス・イオン濃度センサーなどの各種の状態センサー、タイマー(いずれも図示しない)を備えていてもよい。また、状態情報取得部304は、ヘッド・マウント・ディスプレイをユーザーの頭部に装着した際に、額の頭部に当接する動きに連動して、ヘッド・マウント・ディスプレイがユーザーに装着されたことを検出する装着センサー(例えば、特許文献6を参照のこと)を利用して、ヘッド・マウント・ディスプレイ100の装着の有無を検出するようにしてもよい。
環境情報取得部316は、当該ヘッド・マウント・ディスプレイ100本体、又は当該ヘッド・マウント・ディスプレイ100を着用したユーザーを取り巻く環境に関する情報を取得する機能モジュールである。ここで言う環境に関する情報として、音、風量、気温、気圧、雰囲気(煙、濃霧や、当該ヘッド・マウント・ディスプレイ100又はユーザーが浴びる電磁波(紫外線、ブルーライト、電波)、熱線(赤外線)、放射線、大気中の一酸化炭素や二酸化炭素、酸素、窒素化合物(ニコチン)、大気中を漂う窒素酸化物(NOx)や炭化水素(揮発性有機化合物(VOC:Volatile Organic Compounds)あるいはこれらが紫外線の影響により光化学反応を起こして生成された光化学スモッグ、粒子状物質、花粉、ハウスダストなどの粉塵、アスベストなどの有害化学物質)、その他の環境因子を挙げることができる。環境情報取得部316は、環境情報を検出するために、音センサーや風量センサーを始めとして各種環境センサーを装備していてもよい。前述したマイクロフォンや外側カメラ312を環境センサーに含めることもできる。あるいは、環境情報取得部316は、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)から通信部305(後述)を介して環境情報を取得するようにしてもよい。
外側カメラ312は、例えばヘッド・マウント・ディスプレイ100本体前面のほぼ中央に配置され(図2を参照のこと)、周囲画像を撮影することができる。但し、後述するように、本明細書で開示する技術は、外側カメラ312の装備若しくは使用を前提としない。
通信部305は、外部機器(図示しない)との通信処理、並びに通信信号の変復調並びに符号化復号処理を行なう。外部機器として、ユーザーがヘッド・マウント・ディスプレイ100を使用する際の視聴コンテンツを供給するコンテンツ再生装置(ブルーレイ・ディスク又はDVDプレイヤー)や、ストリーミング・サーバー、さらにはユーザーが使用するスマートフォンやパーソナル・コンピューターなどの情報端末を挙げることができる。また、制御部301は、外部機器への送信データを通信部305から送出する。
通信部305の構成は任意である。例えば、通信相手となる外部機器との送受信動作に使用する通信方式に応じて、通信部305を構成することができる。通信方式は、有線、無線のいずれの形態であってもよい。ここで言う通信規格として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)、Wi−Fi(登録商標)、Bluetooth(登録商標)通信やBLE(Bluetooth(登録商標) Low Energy)通信、ANTなどの超低消費電力無線通信、IEEE802.11sなどで規格化されたメッシュ・ネットワークなどを挙げることができる。あるいは、通信部305は、例えばW−CDMA(Wideband Code Division Multiple Access)、LTE(Long Term Evolution)などの標準規格に従って動作する、セルラー無線送受信機であってもよい。
記憶部306は、SSD(Solid State Drive)などで構成される大容量記憶装置である。記憶部306は、制御部301で実行するアプリケーション・プログラムや各種データを記憶している。例えば、ユーザーがヘッド・マウント・ディスプレイ100を使用して、視聴するコンテンツを記憶部306に格納する。
画像処理部307は、制御部301から出力される画像信号に対して画質補正などの信号処理をさらに行なうとともに、表示部309の画面に合わせた解像度に変換する。そして、表示駆動部308は、表示部309の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
表示部309は、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイ、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される表示パネルを有する。虚像光学部310は、表示部309の表示画像を拡大投影して、ユーザーには拡大虚像として観察させる。
なお、表示部309で出力する表示画像として、コンテンツ再生装置(ブルーレイ・ディスク又はDVDプレイヤー)やストリーミング・サーバーから供給される商用コンテンツ(仮想世界)、外側カメラ312の撮影画像(ユーザーの視界画像などの現実世界の画像)などを挙げることができる。また、スマートフォンやパーソナル・コンピューターなどの情報端末から送られてきた画像情報をコンテンツ再生画面に重畳表示することもある。
音声処理部313は、制御部301から出力される音声信号に対して音質補正や音声増幅、入力された音声信号などの信号処理をさらに行なう。そして、音声入出力部314は、音声処理後の音声を外部出力、並びにマイクロフォン(前述)からの音声入力を行なう。
ヘッド・マウント・ディスプレイ100を装着したユーザーは、コンテンツ視聴中で視界が完全に遮られている最中に、スマートフォンなどの他の情報端末を操作したくなることがある。例えば、メールや電話の着信履歴を確認したいときや、現在時刻を知りたいときなどである。
ヘッド・マウント・ディスプレイ100が、外部の情報端末の画面情報を入力し、本来のコンテンツ再生画面と外部の情報端末の画面とを切り替えて表示部309に表示したり、元の画面に外部の情報端末の画面を重畳して表示したりすれば、ユーザーは、ヘッド・マウント・ディスプレイ100を頭から外すことなく,外部の情報端末の画面の内容を確認することができる。ここで言う重畳表示には、picture in picture形式で小さな画面を別表示することや、2つの画面を所定の割合でブレンドすることなどを含むものとする。
しかしながら、ユーザーが手元に持っている情報端末の画面をヘッド・マウント・ディスプレイ100で表示している際に、その手を動かしても情報端末の画面の位置が変わらなければ、リアリティーに欠ける操作となる。また、表示部309で表示された情報端末の画面の位置が、現実の情報端末の画面の位置とは全く連動していないと、ユーザーは、ヘッド・マウント・ディスプレイ100で表示された情報端末の画面を見ながら、現実の情報端末の画面に対して操作を行なうことは極めて難しい。
情報端末を持っている手と操作指との位置関係をユーザーが把握するためには、皮膚感覚などの体性感覚のフィードバックだけでなく、視覚情報による補正が必要である、と本出願人は考えている。
例えば、図4に示すように、外側カメラ312で、ユーザー本人が手にしている、情報端末を撮影する(参照番号401)。そして、情報端末の撮影画像を、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面上に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で表示すれば(参照番号402)、ユーザーは、ヘッド・マウント・ディスプレイ100でビデオ・シースルー表示された情報端末の画面を見ながら、現実の情報端末の画面に対して操作を行なうことが容易になる。具体的には、外側カメラ312の撮影画像に基づいてヘッド・マウント・ディスプレイ100と情報端末の相互の位置関係及び姿勢を把握すれば、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面上に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で情報端末の画像を重畳して表示することができる。
図5には、図4に示した画面表示を実現するための処理手順を示している。
ヘッド・マウント・ディスプレイ100では、視聴コンテンツが表示部309で表示されているとする(F501)。
また、ヘッド・マウント・ディスプレイ100側では、外側カメラ312を使って撮影を行なう(F511)。そして、撮影画像に対して物体認識処理を行なって、情報端末を検出し(F512)。情報端末の位置及び姿勢を計算する(F513)。
ここで、ヘッド・マウント・ディスプレイ100で情報端末を表示する表示部309の基準座標系(以下では、単に、ヘッド・マウント・ディスプレイ100の基準座標系とする)は、情報端末を撮影した外側カメラ312の基準座標系とは厳密には相違する。そこで、F513では、カメラ基準座標系で検出した情報端末の位置及び姿勢を、ヘッド・マウント・ディスプレイ100の基準座標系での情報端末の位置及び姿勢に変換する必要がある。
また、物体認識並びに位置・姿勢計算の精度を向上するために、情報端末に視覚的な基準指標(マーカー)を付与してもよい。例えば、情報端末の画面に表示した既知パターンを基準指標に用いることができる。あるいは、マーカーレスで情報端末の位置及び姿勢を計算するようにしてもよい(後述)。次いで、算出した位置及び姿勢の情報に基づいて、視聴コンテンツの画面に対して情報端末の画面情報を埋め込む位置を計算する(F514)。
そして、ヘッド・マウント・ディスプレイ100は、情報端末から画面情報を取得すると(F521)、F514で算出した埋め込み位置でコンテンツ再生画面に埋め込み、出力画面を生成する(F530)。
このような処理の結果、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面上に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で存在することとなり、ユーザーは、コンテンツを視聴し続けながら、リアリティーを損なうことなく情報端末の画面の確認や入力操作を行なうことができる。
しかしながら、図4及び図5に示したような上記の方法では、情報端末の表示位置及び姿勢を視覚情報により補正するためには、外側カメラ312が必要であり、言い換えれば、外側カメラ312を搭載しない製品には適用することができない、という問題がある。
図1〜図3では、外側カメラ312を搭載したヘッド・マウント・ディスプレイ100を例示した。しかしながら、外側カメラが標準装備されるとは限らず、外側カメラを装備しない製品も相当台数が既に普及している。この種の既存製品においては、ディスプレイ本体と操作対象の情報端末の相互の位置関係及び姿勢を把握する手段がヘッド・マウント・ディスプレイ100にはないので、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面上に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で情報端末を表示することはできない。
他方、スマートフォンやパーソナル・コンピューターなどの操作対象となる情報端末の多くは、カメラを搭載した製品である。そこで、本出願人は、この点に着目して、図6に示すように、情報端末に搭載されたカメラから逆にヘッド・マウント・ディスプレイ100を撮影することにより(参照番号601)、ヘッド・マウント・ディスプレイ100と操作対象の情報端末の相互の位置関係及び姿勢を把握して、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面上に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で、情報端末から送られてくる画面情報を表示する(参照番号602)、という方法を提案する。
図7には、図6に示した画面表示を実現するための処理手順を示している。
ヘッド・マウント・ディスプレイ100では、視聴コンテンツが表示部309で表示されているとする(F701)。
一方、情報端末側では、標準装備されたカメラを使って撮影を行なう(F711)。情報端末は、ヘッド・マウント・ディスプレイ100を着用しているユーザーが手に持っており、カメラはヘッド・マウント・ディスプレイ100の正面に向けられているとする。そして、撮影画像に対して物体認識処理を行なって、ヘッド・マウント・ディスプレイ100を検出する(F712)。次いで、情報端末を基準とする座標系(若しくは、カメラ座標系)でのヘッド・マウント・ディスプレイ100の位置及び姿勢を計算する(F713)。
次いで、情報端末の基準座標系でのヘッド・マウント・ディスプレイ100の位置及び姿勢を、ヘッド・マウント・ディスプレイ100基準座標系での情報端末の位置及び姿勢に変換して(F714)、算出した位置及び姿勢の情報に基づいて、視聴コンテンツの画面に対して情報端末の画面情報を埋め込む位置を計算する(F715)。なお、撮影画像の処理以降の処理(F712〜F715)は、情報端末又はヘッド・マウント・ディスプレイ100のいずれで実行してもよく、あるいはクラウド・コンピューターなど外部装置で実行するようにしてもよい。
そして、ヘッド・マウント・ディスプレイ100は、情報端末から画面情報を取得すると(F721)、F715で算出された埋め込み位置でコンテンツ再生画面に埋め込み、出力画面を生成する(F730)。
このような処理の結果、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面(仮想世界の画像)の中に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢情報端末の画面が表示されることとなり、視界が完全に遮られたユーザーは、コンテンツを視聴し続けながら、リアリティーを損なうことなく情報端末の画面の確認や入力操作を行なうことができる。
図7に示したような処理を実現できる情報端末の構成例を図16に示しておく。図示の情報端末は、制御部1610に対して、表示部1620や音声処理部1630、通信部1640、記憶部1650、カメラ部1660、センサー部1670などが接続されることにより構成されている。
制御部1610は、CPU(Central Processing Unit)211、ROM1612、RAM1613などにより構成される。ROM1612内には、CPU1611が実行するプログラム・コードや当該情報端末に必須の情報などが格納されている。
CPU1611は、ROM1612や記憶部1640からRAM1613にプログラム・コードをロードして実行する。CPU1611が実行するプログラムには、AndroidやiOSなどのオペレーティング・システムや、画面情報を外部の画像表示装置(ヘッド・マウント・ディスプレイ100など)に転送するアプリケーションを始めとして、オペレーティング・システムが提供する実行環境下で動作する各種アプリケーション・プログラムを挙げることができる。
表示部1620は、液晶素子や有機EL素子などからなる表示パネル1621と、この表示パネル1622の上面に貼設された透明なタッチパネル1623を備えている。表示パネル1621は、表示インターフェース1622を介して制御部1610に接続され、制御部210で生成された画像情報を表示出力する。また、タッチパネル1623は、タッチ・インターフェース1624を介して制御部1610に接続され、ユーザーが表示パネル1621上を指先で操作した座標情報を制御部1610に出力する。制御部1610側では、入力された座標情報に基づいて、タップや長押し、フリック、スワイプなどのユーザー操作を検出して、ユーザー操作に対応する処理を起動する。
音声処理部1630は、スピーカーなどの音声出力部1631と、マイクロフォンなどの音声入力部1632と、入出力される音声信号を符号化復号処理する音声コーデック(CODEC)1633を備えている。また、音声処理部1630は、音声信号をヘッドフォン(図示しない)に出力するための出力端子1634をさらに備えていてもよい。
通信部1640は、制御部1610で実行するアプリケーションと外部装置間での情報の通信処理を行なう。ここで言う外部装置として、テレビ受像機や、他ユーザーが扱う情報端末(図示しない)、インターネット上に存在するサーバーなどを挙げることができる。通信部1640は、使用する通信媒体に応じて、Wi−Fi、NFC(Near Field Communication)、Bluetooth(登録商標)などの物理層モジュールを装備するとともに、物理層モジュールを介して送受信される通信信号の変復調処理や符号化復号処理を行なう。また、表示部1620で表示する画面情報を、通信部1640を介して外部の画像表示装置(ヘッド・マウント・ディスプレイ100など)に転送することもある。
記憶部1650は、例えばSSD(Solid State Drive)やHDD(Hard Disc Drive)などの大容量の記憶装置からなる。例えば、通信部1640を介してダウンロードしたアプリケーション・プログラムやコンテンツ、カメラ部1660で撮影した静止画や動画などの画像データなどは、記憶部1650に格納される。
カメラ部1660は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などレンズ(図示しない)を介して取り込まれた光を光電変換するイメージ・センサー1661と、イメージ・センサー1661の検出信号のノイズ除去やディジタル化を行なって画像データを生成するAFE(Analog Front End)処理部1662を備え、生成した画像データをカメラ・インターフェース1663から制御部1610に出力する。
センサー部1670は、当該情報端末の位置情報を取得するためのGPS(Global Posotioning System)センサーや、当該情報端末本体の姿勢や作用する力を検出するためのジャイロ・センサー、加速度センサーなどを含んでいる。
図6及び図7に示した方法において、情報端末に搭載されたカメラから撮影した画像に基づいて、ヘッド・マウント・ディスプレイ100と情報端末の相互の位置関係及び姿勢をより正確に把握できるようにするために、ヘッド・マウント・ディスプレイ100側にAR(Augmented Reality)マーカーなどのような1以上の基準指標を搭載するようにしてもよい。
例えば、基準指標の種類によっては、ヘッド・マウント・ディスプレイ100の詳細情報(例えば、型番や製品番号などの製品情報)を取得することができる。詳細情報を用いることで、ヘッド・マウント・ディスプレイ100と情報端末の相互の位置及び姿勢の認識精度をさらに向上させる。基準指標の利用方法として、以下の(1)、(2)を例示することができる。
(1)ある取り決めに従った基準指標の配置から、光学主軸の方向や単位長さを特定し、座標軸合わせや位置計測を精密に行なう。
(2)基準指標に、所定ビット長(例えば、32ビット)の識別情報をエンコードし、その識別情報を用いてデータベースを検索して、(1)と同様の情報を得て、座標軸合わせや位置計測を精密に行なう。
また、マーカーレス、すなわち、ヘッド・マウント・ディスプレイ100側に基準指標を搭載しない場合、絶対的な位置姿勢情報を取得することはできない。あくまで処理を開始したときの初期位置からの相対的な位置姿勢の変位を計測できるだけである。そこで、情報端末に搭載されたカメラからヘッド・マウント・ディスプレイ100を撮影するときには、ユーザーは、情報端末をあらかじめ決められた初期位置に保持し、情報端末に初期位置を通知するリセット信号を送るようにしてもよい。ここで言うあらかじめ決められた初期位置とは、例えばヘッド・マウント・ディスプレイ100を着用したユーザーの目線前方、正面である。また、リセット信号を送る方法として、情報端末のタッチパネル式画面をタップすることや、ヘッド・マウント・ディスプレイ100側のスイッチを操作する方法が挙げられる。その後の相対変位を計測し、ヘッド・マウント・ディスプレイ100の画面上の描画に反映させる。
なお、マーカーレスの具体的な手法として、Visual SLAM(Simultaneous localization and mapping)を用いて位置・姿勢計算を行なうようにしてもよい。Visual SLAMは、未知環境下でカメラの自己位置推定と地図作成を同時に行なうことができる技術である。Visual SLAMの一例として、統合型拡張現実感技術SmartAR(ソニー株式会社の商標)を挙げることができる。マーカーレスによれば、ヘッド・マウント・ディスプレイ100側に基準指標を付与する必要がなく、任意の製品に適用することが可能である。
ここで、ヘッド・マウント・ディスプレイ100の表示部309の画面に埋め込む情報端末の位置及び姿勢の計算方法について、さらに検討する。
図4及び図5に示したように、ヘッド・マウント・ディスプレイ100に搭載した外側カメラ312の撮影画像から画面に埋め込む情報端末の位置及び姿勢を計算する場合、ヘッド・マウント・ディスプレイ100の基準座標系が外側カメラ312の基準座標系とは厳密には相違する。そこで、F513では、カメラ基準座標系で検出した情報端末の位置及び姿勢を、ヘッド・マウント・ディスプレイ100の基準座標系での情報端末の位置及び姿勢に変換する必要がある。ヘッド・マウント・ディスプレイ100に対する外側カメラ312の位置は固定すなわち既知である。したがって、カメラ基準座標系で検出した情報端末の位置及び姿勢を、ヘッド・マウント・ディスプレイ100の基準座標系での情報端末の位置及び姿勢に変換することは容易である。
続いて、図6及び図7に示したように、情報端末に搭載したカメラを用いて、画面に埋め込む情報端末の位置及び姿勢を計算する場合について考察する。
情報端末に対するカメラの位置は固定すなわち既知である。したがって、カメラで撮影したヘッド・マウント・ディスプレイ100の位置及び姿勢を、情報端末の基準座標系でのヘッド・マウント・ディスプレイ100の位置及び姿勢に変換することは容易である。
また、情報端末に搭載したカメラの基準座標系で、ヘッド・マウント・ディスプレイ100側に搭載した基準指標の位置及び姿勢を測定することは可能である。
ところが、ヘッド・マウント・ディスプレイ100の姿勢と、そこに搭載した基準指標の姿勢との関係は、外部からの計測によって知り得ない。したがって、両者の姿勢関係の情報を情報端末へ伝達する基準指標配置情報伝達手段が、F714における位置及び姿勢の変換処理をより厳密に行なうためには必要である。基準指標配置情報伝達手段として、以下(1)〜(3)を例示する。
(1)ヘッド・マウント・ディスプレイ100の設計情報として、情報端末の既知の情報とする。
(2)基準指標から必要な情報を情報端末に伝達する。
(3)ユーザーによる初期化プロセスを経由する。
以下、それぞれの伝達手段について、詳細に説明する。
(1)ヘッド・マウント・ディスプレイ100の設計情報として、情報端末の既知の情報とする。
例えば、情報端末の専用アプリケーション(カメラの撮影画像からヘッド・マウント・ディスプレイ100の位置及び姿勢を計算するアプリケーションなど)、若しくはヘッド・マウント・ディスプレイ100の型番に応じた情報を、情報端末にプリロードする。この場合、ヘッド・マウント・ディスプレイ100に搭載する基準指標の形状や配置などをすべて事前に設計することが前提である。また、ヘッド・マウント・ディスプレイ100の主軸などを定義し、それにアラインするように、基準指標を配置することを約束若しくは規格とする。この伝達手段によれば、基準指標の形状に自由度を出すことができる。
図8には、ARマーカー801を、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示している。ARマーカーを貼り付ける配置情報は既知である。情報端末側では、撮影画像上のARマーカーの位置並びに姿勢(形状)を観測することによって、情報端末の相対位置及び姿勢を計算することができる。
また、図9には、既知形状の基準指標901A〜Dを、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示している。各基準指標901A〜Dの配置情報は既知とする。情報端末側では、撮影画像上の各基準指標901A〜Dの位置を観測することによって、情報端末の相対位置及び姿勢を計算することができる。但し、3個以上の基準指標を設置する必要がある。3次元座標が既知の3点以上の点を撮影し、画像上の各点の位置からカメラの位置・姿勢を求める、すなわち、既知の3次元座標系からカメラ画像上に定義される2次元座標への写像を計算する手法は、画像処理などの分野において3D−2Dレジストレーションと呼ばれる、確立した技術である。カメラの外部パラメーターと呼ばれる、位置・姿勢に対応する6変数を求めるためには最低でも3点以上の観測が必要であり、通常はより多くの観測点を用いて最小二乗法などを用いた推定を行なう(なお、ここではカメラの内部パラメーターは既知とした)。
図8並びに図9に示したいずれの伝達手段でも、情報端末側のカメラで情報端末の相対位置及び姿勢を認識することができ、ヘッド・マウント・ディスプレイ100側の外側カメラ312を使用する必要がない。
(2)基準指標から必要な情報を情報端末に伝達する。
図10には、色が異なる3個以上の既知形状の基準指標1001A〜Dを、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示している。各基準指標1001A〜Dの色やテクスチャー、形状を異ならせており、組み合わせによってヘッド・マウント・ディスプレイ100の基準座標系の軸の情報を情報端末に伝達する。配置情報は既知とする。情報端末側では、撮影画像に映った各基準指標1001A〜Dの色やテクスチャー、形状に基づいて各々を識別することができる。例えば、基準指標1001Bと1001Dを結ぶと基準水平線とする。また、基準指標1001Aと100Bの組み合わせ、又は1001Cと1001Dの組み合わせが基準垂直線を表すものとする。
また、図11には、点滅する基準指標1101A〜Dを、ヘッド・マウント・ディスプレイ100に搭載し、主軸前方方向に持った情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影する様子を示している。各基準指標1101A〜Dは、ヘッド・マウント・ディスプレイ100の基準座標系における
各々の指標の位置情報や、指標が設置されているヘッド・マウント・ディスプレイ100の型番情報、あるいは、その他必要なデータが格納されたデータベースの検索キーなどの伝達したい情報を点滅パターンにエンコードし、情報端末側では点滅パターンをデコードして情報を取得することができる。これらいずれの伝達手段でも、情報端末側のカメラで情報端末の相対位置及び姿勢を認識することができ、ヘッド・マウント・ディスプレイ100側の外側カメラ312を使用する必要がない。
図12には、基準指標から受信した物体座標に基づいてヘッド・マウント・ディスプレイ100の画面に情報端末の画面情報を埋め込むための処理手順を示している。
ヘッド・マウント・ディスプレイ100では、視聴コンテンツが表示部309で表示されているとする(F1201)。
一方、情報端末側では、標準装備されたカメラを使って撮影を行なう(F1211)。情報端末は、ヘッド・マウント・ディスプレイ100を着用しているユーザーが手に持っており、カメラはヘッド・マウント・ディスプレイ100の正面に向けられているとする。そして、撮影画像に対して物体認識処理を行なって、ヘッド・マウント・ディスプレイ100の基準指標を検出する(F1212)。
次いで、基準指標から物体座標の情報を受信すると(F1241)、検出した基準指標の位置及び姿勢から、情報端末を基準とする座標系(若しくは、カメラ座標系)でのヘッド・マウント・ディスプレイ100の位置及び姿勢を計算する(F1213)。この計算処理は、3D−2Dレジストレーション(前述)、若しくはそれと同等の処理となる。つまり、F1212で検出したカメラ座標上の基準指標の2次元位置とF1241で受信したそれぞれの基準指標の、ヘッド・マウント・ディスプレイ100基準座標系での3次元位置とを対応付けることによって、カメラ座標系から見たHMD(座標系)の位置・姿勢、若しくはHMD座標系から見たカメラ(座標系)の位置・姿勢を計算できる。ここではカメラ座標系から見たHMDの位置・姿勢を計算するものとした。
次いで、情報端末の基準座標系でのヘッド・マウント・ディスプレイ100の位置及び姿勢を、ヘッド・マウント・ディスプレイ100基準座標系での情報端末の位置及び姿勢に変換して(F1214)、算出した位置及び姿勢の情報に基づいて、視聴コンテンツの画面に対して情報端末の画面情報を埋め込む位置を計算する(F1215)。なお、撮影画像の処理以降の処理(F1212〜F1215)は、情報端末又はヘッド・マウント・ディスプレイ100のいずれで実行してもよく、あるいはクラウド・コンピューターなど外部装置で実行するようにしてもよい。
そして、ヘッド・マウント・ディスプレイ100は、情報端末から画面情報を取得すると(F1221)、F1215で算出された埋め込み位置でコンテンツ再生画面に埋め込み、出力画面を生成する(F1230)。
このような処理の結果、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面(仮想世界の画像)の中に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で情報端末の画面が表示されることとなり、視界が完全に遮られたユーザーは、コンテンツを視聴し続けながら、リアリティーを損なうことなく情報端末の画面の確認や入力操作を行なうことができる。
図13には、基準指標から受信した検索キーに基づいてヘッド・マウント・ディスプレイ100の画面に情報端末の画面情報を埋め込むための処理手順を示している。
ヘッド・マウント・ディスプレイ100では、視聴コンテンツが表示部309で表示されているとする(F1301)。
一方、情報端末側では、標準装備されたカメラを使って撮影を行なう(F1311)。情報端末は、ヘッド・マウント・ディスプレイ100を着用しているユーザーが手に持っており、カメラはヘッド・マウント・ディスプレイ100の正面に向けられているとする。そして、撮影画像に対して物体認識処理を行なって、ヘッド・マウント・ディスプレイ100の基準指標を検出する(F1312)。
次いで、基準指標から検索キーを受信すると(F1341)、検索キーでデータベースに問い合わせして(F1342)、基準指標の座標情報、基準指標の情報、ヘッド・マウント・ディスプレイ100の情報などを取得する。そして、検出した基準指標の位置及び姿勢から、情報端末を基準とする座標系(若しくは、カメラ座標系)でのヘッド・マウント・ディスプレイ100の位置及び姿勢を計算する(F1313)。
次いで、情報端末の基準座標系でのヘッド・マウント・ディスプレイ100の位置及び姿勢を、ヘッド・マウント・ディスプレイ100基準座標系での情報端末の位置及び姿勢に変換して(F1314)、算出した位置及び姿勢の情報に基づいて、視聴コンテンツの画面に対して情報端末の画面情報を埋め込む位置を計算する(F1315)。なお、撮影画像の処理以降の処理(F1312〜F1315)は、情報端末又はヘッド・マウント・ディスプレイ100のいずれで実行してもよく、あるいはクラウド・コンピューターなど外部装置で実行するようにしてもよい。
そして、ヘッド・マウント・ディスプレイ100は、情報端末から画面情報を取得すると(F1321)、F1315で算出された埋め込み位置でコンテンツ再生画面に埋め込み、出力画面を生成する(F1330)。
このような処理の結果、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面(仮想世界の画像)の中に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で情報端末の画面が表示されることとなり、視界が完全に遮られたユーザーは、コンテンツを視聴し続けながら、リアリティーを損なうことなく情報端末の画面の確認や入力操作を行なうことができる。
(3)ユーザーによる初期化プロセスを経由する。
ヘッド・マウント・ディスプレイ100を着用したユーザーは、目線の正面など事前に定められた初期姿勢で情報端末を保持して、リセット(初期化)する。情報端末側では、Visual SLAM技術などを適用して、カメラで撮影したヘッド・マウント・ディスプレイ100を認識すると、その姿勢に対して情報端末の位置を初期化する。
図14には、情報端末の位置を初期化するための処理手順を示している。
ヘッド・マウント・ディスプレイ100を着用したユーザーは、目線の正面などの初期姿勢で情報端末を保持している。この状態で、情報端末のカメラでヘッド・マウント・ディスプレイ100を撮影し(F1401)、撮影画像からヘッド・マウント・ディスプレイ100を検出する(F1402)。そして、情報端末を基準とする座標系(若しくは、カメラ座標系)でのヘッド・マウント・ディスプレイ100の位置及び姿勢を計算する(F1403)。
ここで、例えばユーザーから初期位置トリガーが行なわれると、算出したヘッド・マウント・ディスプレイ100の位置及び姿勢を、基準状態でのヘッド・マウント・ディスプレイ100の位置及び姿勢として保存する(F1410)。
図15には、図14に示した処理手順によって初期化した情報端末の位置を用いて、ヘッド・マウント・ディスプレイ100の画面に情報端末の画面情報を埋め込むための処理手順を示している。
ヘッド・マウント・ディスプレイ100では、視聴コンテンツが表示部309で表示されているとする(F1501)。
一方、情報端末側では、標準装備されたカメラを使って撮影を行なう(F1511)。情報端末は、ヘッド・マウント・ディスプレイ100を着用しているユーザーが手に持っており、カメラはヘッド・マウント・ディスプレイ100の正面に向けられているとする。そして、撮影画像に対して物体認識処理を行なって、ヘッド・マウント・ディスプレイ100を検出する(F1512)。そして、情報端末を基準とする座標系(若しくは、カメラ座標系)でのヘッド・マウント・ディスプレイ100の位置及び姿勢を計算する(F1513)。
そして、基準状態でのヘッド・マウント・ディスプレイ100の位置及び姿勢(図14を参照のこと)を読み込むと(F1541)、その基準状態からのヘッド・マウント・ディスプレイ100の姿勢の変化を計算する(F1514)。ヘッド・マウント・ディスプレイ100が静止していると仮定し、このような位置・姿勢の変化を与える情報端末(カメラ)の位置及び姿勢の変化を逆計算すると、情報端末の位置・姿勢が基準状態からどのように変化したかを計算することができる(F1515)。そして、算出した情報端末の位置及び姿勢の変化の情報に基づいて、視聴コンテンツの画面に対して情報端末の画面情報を埋め込む位置を計算する(F1516)。なお、撮影画像の処理以降の処理(F1512〜F1516)は、情報端末又はヘッド・マウント・ディスプレイ100のいずれで実行してもよく、あるいはクラウド・コンピューターなど外部装置で実行するようにしてもよい。
そして、ヘッド・マウント・ディスプレイ100は、情報端末から画面情報を取得すると(F1521)、F1516で算出された埋め込み位置でコンテンツ再生画面に埋め込み、出力画面を生成する(F1530)。
このような処理の結果、ヘッド・マウント・ディスプレイ100のコンテンツ再生画面(仮想世界の画像)の中に、ユーザーの視界上の現実の情報端末と同じ位置及び姿勢で情報端末の画面が表示されることとなり、視界が完全に遮られたユーザーは、コンテンツを視聴し続けながら、リアリティーを損なうことなく情報端末の画面の確認や入力操作を行なうことができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、カメラを装備しない没入型のヘッド・マウント・ディスプレイに好適に適用することができるが、勿論、カメラを搭載したビデオ・シースルー方式のヘッド・マウント・ディスプレイや、透過性すなわち光学シースルー方式のヘッド・マウント・ディスプレイ、さらにはヘッド・マウント・ディスプレイ以外のさまざまなタイプの画像表示装置に対して、同様に適用することができる。
また、本明細書で開示する技術は、両眼式及び単眼式の双方のヘッド・マウント・ディスプレイに好適に適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)撮影部と、
前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算部と、
前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する位置姿勢変換部と、
前記第2基準座標系での当該情報処理装置の位置及び姿勢に基づいて、前記画像表示装置の画面内で当該情報処理装置に関わる画面情報を埋め込む位置を計算する埋め込み位置計算部と、
を具備する情報処理装置。
(2)撮影部と、
表示部と、
前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算部と、
前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する位置姿勢変換部と、
前記第2基準座標系での当該情報処理装置の位置及び姿勢に基づいて、前記画像表示装置の画面に対して前記表示部の画面情報を埋め込む位置を計算する埋め込み位置計算部と、
を具備する情報処理装置。
(3)前記画像表示装置と通信する通信部をさらに備え、
前記表示部の画面情報及び前記埋め込む位置の情報を、前記通信部を介して前記画像表示装置に送信する、
上記(2)に記載の情報処理装置。
(4)前記位置姿勢計算部は、前記画像表示装置側に搭載された基準指標に基づいて、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する、
上記(2)乃至(3)のいずれかに記載の情報処理装置。
(5)前記画像表示装置の姿勢と前記基準指標の姿勢の関係に関する情報を取得する基準指標配置情報取得部をさらに備える、
上記(4)に記載の情報処理装置。
(6)前記基準指標配置情報取得部は、前記画像表示装置の姿勢と前記基準指標の姿勢の関係に関する設計情報をプリロードし、
前記位置姿勢計算部は、前記画像表示装置に対し当該情報処理装置が所定方向に配置されたときに前記撮影部で撮影した画像から、前記設計情報に基づいて前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する、
上記(5)に記載の情報処理装置。
(7)前記基準指標配置情報取得部は、前記基準指標から情報を受信する、
上記(5)に記載の情報処理装置。
(8)前記画像表示装置側には配置情報が既知となる3個以上の基準指標が配置され、
前記基準指標配置情報取得部は、色、テクスチャー、形状のうち少なくとも1つに基づいて各基準指標の各々を識別して、前記画像表示装置の基準座標系の軸の情報を取得する、
上記(7)に記載の情報処理装置。
(9)前記基準指標配置情報取得部は、点滅パターンにエンコードされた情報を基準指標から受信する、
上記(7)に記載の情報処理装置。
(10)前記基準指標配置情報取得部は、点滅パターンをデコードした情報をデータベースに問い合わせて、基準指標の座標情報、基準指標の情報、又は前記画像表示装置の情報を取得する、
上記(9)に記載の情報処理装置。
(11)前記位置姿勢計算部は、Visual SLAMを用いて、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する、
上記(2)乃至(3)のいずれかに記載の情報処理装置。
(12)初期姿勢に当該情報処理装置が保持された基準状態において前記位置姿勢計算部で算出された前記画像表示装置の位置及び姿勢を保存しておき、
前記位置姿勢変換部は、前記基準状態からの前記画像表示装置の姿勢の変化を計算して、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する、
上記(11)に記載の情報処理装置。
(13)情報端末に搭載された撮影部で他の画像表示装置を撮影した画像に基づいて、前記情報端末の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算ステップと、
前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での前記情報端末の位置及び姿勢に変換する位置姿勢変換ステップと、
前記第2基準座標系での前記情報端末の位置及び姿勢に基づいて、前記画像表示装置の画面に対して前記情報端末の画面情報を埋め込む位置を計算する埋め込み位置計算ステップと、
を有する情報処理方法。
(14)観察者の頭部又は顔部に固定される表示装置と、
撮影部と表示部を備え、前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算するとともに、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換して、前記画像表示装置の画面に対して前記表示部の画面情報を埋め込む位置を計算する情報処理装置と、
を具備する画像表示システム。
100…ヘッド・マウント・ディスプレイ
101L、101R…虚像光学部
103L、103R…マイクロフォン、104L、104R…表示パネル
105…眼幅調整機構
301…制御部、301A…ROM、301B…RAM
302…入力操作部、303…リモコン受信部
304…状態情報取得部、305…通信部、306…記憶部
307…画像処理部、308…表示駆動部
309…表示部、310…虚像光学部、312…外側カメラ
313…音声処理部、314…音声入出力部、
315…タッチパネル、316…環境情報取得部
1610…制御部、1611…CPU、1612…ROM、1613…RAM
1620…表示部、1621…表示パネル、1622…表示インターフェース
1623…タッチパネル、1624…タッチ・インターフェース
1630…音声処理部、1631…音声出力部、1632…音声入力部
1634…出力端子
1640…通信部、1650…記憶部、1660…カメラ部
1661…イメージ・センサー、1662…AFE処理部
1663…カメラ・インターフェース、1670…センサー部

Claims (14)

  1. 撮影部と、
    前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算部と、
    前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する位置姿勢変換部と、
    前記第2基準座標系での当該情報処理装置の位置及び姿勢に基づいて、前記画像表示装置の画面内で当該情報処理装置に関わる画面情報を埋め込む位置を計算する埋め込み位置計算部と、
    を具備する情報処理装置。
  2. 撮影部と、
    表示部と、
    前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算部と、
    前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する位置姿勢変換部と、
    前記第2基準座標系での当該情報処理装置の位置及び姿勢に基づいて、前記画像表示装置の画面に対して前記表示部の画面情報を埋め込む位置を計算する埋め込み位置計算部と、
    を具備する情報処理装置。
  3. 前記画像表示装置と通信する通信部をさらに備え、
    前記表示部の画面情報及び前記埋め込む位置の情報を、前記通信部を介して前記画像表示装置に送信する、
    請求項2に記載の情報処理装置。
  4. 前記位置姿勢計算部は、前記画像表示装置側に搭載された基準指標に基づいて、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する、
    請求項2乃至3のいずれかに記載の情報処理装置。
  5. 前記画像表示装置の姿勢と前記基準指標の姿勢の関係に関する情報を取得する基準指標配置情報取得部をさらに備える、
    請求項4に記載の情報処理装置。
  6. 前記基準指標配置情報取得部は、前記画像表示装置の姿勢と前記基準指標の姿勢の関係に関する設計情報をプリロードし、
    前記位置姿勢計算部は、前記画像表示装置に対し当該情報処理装置が所定方向に配置されたときに前記撮影部で撮影した画像から、前記設計情報に基づいて前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する、
    請求項5に記載の情報処理装置。
  7. 前記基準指標配置情報取得部は、前記基準指標から情報を受信する、
    請求項5に記載の情報処理装置。
  8. 前記画像表示装置側には配置情報が既知となる3個以上の基準指標が配置され、
    前記基準指標配置情報取得部は、色、テクスチャー、形状のうち少なくとも1つに基づいて各基準指標の各々を識別して、前記画像表示装置の基準座標系の軸の情報を取得する、
    請求項7に記載の情報処理装置。
  9. 前記基準指標配置情報取得部は、点滅パターンにエンコードされた情報を基準指標から受信する、
    請求項7に記載の情報処理装置。
  10. 前記基準指標配置情報取得部は、点滅パターンをデコードした情報をデータベースに問い合わせて、基準指標の座標情報、基準指標の情報、又は前記画像表示装置の情報を取得する、
    請求項9に記載の情報処理装置。
  11. 前記位置姿勢計算部は、Visual SLAM(Simultaneous localization and mapping)を用いて、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する、
    請求項2乃至3のいずれかに記載の情報処理装置。
  12. 初期姿勢に当該情報処理装置が保持された基準状態において前記位置姿勢計算部で算出された前記画像表示装置の位置及び姿勢を保存しておき、
    前記位置姿勢変換部は、前記基準状態からの前記画像表示装置の姿勢の変化を計算して、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記第2の基準座標系での当該情報処理装置の位置及び姿勢に変換する、
    請求項11に記載の情報処理装置。
  13. 情報端末に搭載された撮影部で他の画像表示装置を撮影した画像に基づいて、前記情報端末の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算する位置姿勢計算ステップと、
    前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での前記情報端末の位置及び姿勢に変換する位置姿勢変換ステップと、
    前記第2基準座標系での前記情報端末の位置及び姿勢に基づいて、前記画像表示装置の画面に対して前記情報端末の画面情報を埋め込む位置を計算する埋め込み位置計算ステップと、
    を有する情報処理方法。
  14. 観察者の頭部又は顔部に固定される表示装置と、
    撮影部と表示部を備え、前記撮影部で外部の画像表示装置を撮影した画像に基づいて、当該情報処理装置の第1の基準座標系での前記画像表示装置の位置及び姿勢を計算するとともに、前記第1の基準座標系での前記画像表示装置の位置及び姿勢を、前記画像表示装置の第2の基準座標系での当該情報処理装置の位置及び姿勢に変換して、前記画像表示装置の画面に対して前記表示部の画面情報を埋め込む位置を計算する情報処理装置と、
    を具備する画像表示システム。
JP2016539870A 2014-08-05 2015-04-30 情報処理装置及び情報処理方法、並びに画像表示システム Active JP6525010B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014159169 2014-08-05
JP2014159169 2014-08-05
PCT/JP2015/062934 WO2016021252A1 (ja) 2014-08-05 2015-04-30 情報処理装置及び情報処理方法、並びに画像表示システム

Publications (2)

Publication Number Publication Date
JPWO2016021252A1 JPWO2016021252A1 (ja) 2017-05-18
JP6525010B2 true JP6525010B2 (ja) 2019-06-05

Family

ID=55263535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016539870A Active JP6525010B2 (ja) 2014-08-05 2015-04-30 情報処理装置及び情報処理方法、並びに画像表示システム

Country Status (3)

Country Link
US (1) US10719950B2 (ja)
JP (1) JP6525010B2 (ja)
WO (1) WO2016021252A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220414990A1 (en) * 2021-06-25 2022-12-29 Acer Incorporated Augmented reality system and operation method thereof

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2998849A4 (en) * 2013-05-15 2017-01-25 Sony Corporation Display control device, display control method, and recording medium
CN104898829A (zh) * 2015-04-17 2015-09-09 杭州豚鼠科技有限公司 体感交互系统
WO2016194844A1 (ja) * 2015-05-29 2016-12-08 京セラ株式会社 ウェアラブル装置
JP6686319B2 (ja) * 2015-08-04 2020-04-22 富士通株式会社 画像投影装置及び画像表示システム
JP6367166B2 (ja) * 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
JP6668170B2 (ja) * 2016-06-07 2020-03-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびコンピュータプログラム
EP3545385B1 (en) * 2016-11-25 2021-07-14 Sensoryx AG Wearable motion tracking system
JP2018101019A (ja) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
CN109952759B (zh) * 2017-02-03 2021-06-15 伟视达电子工贸有限公司 用于具有hmd的视频会议的改进的方法和系统
GB2555501B (en) * 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
US10835809B2 (en) 2017-08-26 2020-11-17 Kristina Contreras Auditorium efficient tracking in auditory augmented reality
WO2019044003A1 (ja) * 2017-09-04 2019-03-07 株式会社ワコム 空間位置指示システム
JP7027109B2 (ja) * 2017-10-13 2022-03-01 任天堂株式会社 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
US10776475B2 (en) * 2017-11-13 2020-09-15 International Business Machines Corporation Secure password input in electronic devices
JP7035510B2 (ja) * 2017-12-22 2022-03-15 セイコーエプソン株式会社 表示システム、及び、表示システムの制御方法
CN109992100B (zh) * 2017-12-30 2022-11-29 深圳多哚新技术有限责任公司 一种头戴显示系统及其显示方法
JP7238456B2 (ja) * 2019-02-21 2023-03-14 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
CN110060202B (zh) * 2019-04-19 2021-06-08 湖北亿咖通科技有限公司 一种单目slam算法的初始化方法及系统
US11153488B2 (en) * 2019-09-26 2021-10-19 United States Of America, As Represented By The Secretary Of The Army Variable latency and frame rate camera
JP2021077185A (ja) * 2019-11-12 2021-05-20 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
US11169600B1 (en) * 2019-12-06 2021-11-09 Snap Inc. Virtual object display interface between a wearable device and a mobile device
WO2021131023A1 (ja) 2019-12-27 2021-07-01 マクセル株式会社 ヘッドマウント型情報出力装置
CN113467602B (zh) * 2020-03-31 2024-03-19 中国移动通信集团浙江有限公司 Vr显示方法及系统
CN114827338A (zh) * 2021-01-29 2022-07-29 北京外号信息技术有限公司 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置
JP2022170264A (ja) * 2021-04-28 2022-11-10 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
CN117337462A (zh) * 2021-05-17 2024-01-02 麦克赛尔株式会社 头戴式显示器装置
EP4361770A1 (en) 2021-06-22 2024-05-01 Maxell, Ltd. Information processing system, information processing device, and image display device
TWI798037B (zh) * 2021-08-31 2023-04-01 宏達國際電子股份有限公司 虛擬影像顯示系統以及其控制器的指向方向的校正方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI222039B (en) * 2000-06-26 2004-10-11 Iwane Lab Ltd Information conversion system
JP2005038321A (ja) 2003-07-18 2005-02-10 Canon Inc ヘッドマウントディスプレイ装置
JP4218952B2 (ja) * 2003-09-30 2009-02-04 キヤノン株式会社 データ変換方法及び装置
JP4642538B2 (ja) * 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
JP2010276792A (ja) * 2009-05-27 2010-12-09 Ntt Docomo Inc 画像表示システム、画像表示方法、及び携帯端末
JP5681850B2 (ja) * 2010-03-09 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
JP5329480B2 (ja) * 2010-05-18 2013-10-30 富士フイルム株式会社 ヘッドマウントディスプレイ装置
JP5434848B2 (ja) 2010-08-18 2014-03-05 ソニー株式会社 表示装置
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
JP2012186660A (ja) 2011-03-06 2012-09-27 Sony Corp ヘッド・マウント・ディスプレイ
US9973848B2 (en) * 2011-06-21 2018-05-15 Amazon Technologies, Inc. Signal-enhancing beamforming in an augmented reality environment
WO2013027628A1 (ja) * 2011-08-24 2013-02-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5538483B2 (ja) * 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
JP2013175208A (ja) * 2013-04-05 2013-09-05 Nintendo Co Ltd 情報処理装置および情報処理プログラム
KR102063076B1 (ko) * 2013-07-10 2020-01-07 엘지전자 주식회사 모바일 디바이스, 헤드 마운트 디스플레이 및 제어 방법
US9759918B2 (en) * 2014-05-01 2017-09-12 Microsoft Technology Licensing, Llc 3D mapping with flexible camera rig
US9659411B2 (en) * 2015-01-14 2017-05-23 Oculus Vr, Llc Passive locators for a virtual reality headset
CN108700931A (zh) * 2015-12-17 2018-10-23 Looxid实验室公司 眼睛-大脑接口(ebi)系统及其控制方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220414990A1 (en) * 2021-06-25 2022-12-29 Acer Incorporated Augmented reality system and operation method thereof

Also Published As

Publication number Publication date
US10719950B2 (en) 2020-07-21
JPWO2016021252A1 (ja) 2017-05-18
WO2016021252A1 (ja) 2016-02-11
US20170206673A1 (en) 2017-07-20

Similar Documents

Publication Publication Date Title
JP6525010B2 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
JP6524917B2 (ja) 画像表示装置及び画像表示方法
WO2016013269A1 (ja) 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP6217747B2 (ja) 情報処理装置及び情報処理方法
JP6813501B2 (ja) 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ
JP6079614B2 (ja) 画像表示装置及び画像表示方法
US9753285B2 (en) Information processing device, notification state control method, and program
US11170580B2 (en) Information processing device, information processing method, and recording medium
JP6340301B2 (ja) ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
US20150355463A1 (en) Image display apparatus, image display method, and image display system
CN111630478B (zh) 高速交错双眼跟踪系统
JP6822410B2 (ja) 情報処理システム及び情報処理方法
KR20160001178A (ko) 글래스 타입 단말기 및 이의 제어방법
JP2017102732A (ja) 表示制御装置及び表示制御方法
US11327317B2 (en) Information processing apparatus and information processing method
WO2017064926A1 (ja) 情報処理装置及び情報処理方法
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
US20210160150A1 (en) Information processing device, information processing method, and computer program
US20210400234A1 (en) Information processing apparatus, information processing method, and program
JP2022108194A (ja) 画像投影方法、画像投影装置、無人航空機および画像投影プログラム。
US20200348749A1 (en) Information processing apparatus, information processing method, and program
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190422

R151 Written notification of patent or utility model registration

Ref document number: 6525010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151