JP6275087B2 - ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 - Google Patents

ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 Download PDF

Info

Publication number
JP6275087B2
JP6275087B2 JP2015153271A JP2015153271A JP6275087B2 JP 6275087 B2 JP6275087 B2 JP 6275087B2 JP 2015153271 A JP2015153271 A JP 2015153271A JP 2015153271 A JP2015153271 A JP 2015153271A JP 6275087 B2 JP6275087 B2 JP 6275087B2
Authority
JP
Japan
Prior art keywords
data
mounted display
iris
user
head mounted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015153271A
Other languages
English (en)
Other versions
JP2017033334A (ja
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2015153271A priority Critical patent/JP6275087B2/ja
Priority to US15/162,688 priority patent/US20170041597A1/en
Publication of JP2017033334A publication Critical patent/JP2017033334A/ja
Application granted granted Critical
Publication of JP6275087B2 publication Critical patent/JP6275087B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)

Description

本発明は、ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイ、データ出力方法及びヘッドマウントディスプレイ用プログラムに関する。
近年、ユーザの目を覆って、仮想現実又は拡張現実として3次元データを自身が有するディスプレイに表示するヘッドマウントディスプレイが実用化されている。このような、ヘッドマウントディスプレイにおいて、仮想現実又は拡張現実として、様々なデータを表示することが行われている。
現実空間に画像合成した拡張現実空間を表示するヘッドマウントディスプレイ装置が開示されている(特許文献1参照)。
特開2015−99448号公報
特許文献1によれば、カメラで撮影した現実空間において、用紙の存在の有無とこの用紙の姿勢とを検出し、この用紙の姿勢に合わせて、印刷装置が画像又は用紙に施す予定の付加処理を模擬的に示す出力イメージ画像として、この用紙に重ね合わせた拡張現実空間を表示することが記載されている。
しかしながら、実際にユーザがこのイメージ画像を重ね合わせた用紙を視認したか否かを判断することは困難である。そのため、ユーザは自身が視認する物体に対しての仮想現実や拡張現実を表示されているか否かを判断することは困難であった。
そこで、本発明では、ユーザの視線を解析することにより、3次元データとして表示された対象物を特定し、出力することにより、ユーザが視認する物体を判断することができる点に着目した。
本発明は、ユーザの視線に基づいて、3次元データとして表示された対象物を特定し、出力することが可能なヘッドマウントディスプレイ、データ出力方法及びヘッドマウントディスプレイを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイであって、
前記ユーザの目を撮影する撮影手段と、
撮影された画像を画像解析することで、撮影した画像における虹彩の位置を取得する解析手段と、
3次元データとして表示された対象物の3次元データ内の位置情報と前記虹彩の位置を対応付けて記憶する記憶手段と、
前記取得した虹彩の位置に基づいて、前記対象物を特定し、前記対象物を関心対象データとして出力する関心データ出力手段と、
を備えることを特徴とするヘッドマウントディスプレイを提供する。
第1の特徴に係る発明によれば、ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイは、前記ユーザの目を撮影し、撮影された画像を画像解析することで、撮影した画像における虹彩の位置を取得し、3次元データとして表示された対象物の3次元データ内の位置情報と前記虹彩の位置を対応付けて記憶し、前記取得した虹彩の位置に基づいて、前記対象物を特定し、前記対象物を関心対象データとして出力する。
ここで、第1の特徴に係る発明は、ヘッドマウントディスプレイのカテゴリであるが、データ出力方法及びヘッドマウントディスプレイ用プログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
の特徴に係る発明は、前記関心データ出力手段は、前記対象物を画像認識し、当該対象物の名称等のテキストデータを、前記関心対象データとして出力することを特徴とする第1の特徴に係る発明であるヘッドマウントディスプレイを提供する。
の特徴に係る発明によれば、第1の特徴に係る発明であるヘッドマウントディスプレイは、前記関心対象データを、画像認識したテキストデータとして出力する。
の特徴に係る発明は、ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイが実行するデータ出力方法であって、
前記ユーザの目を撮影する撮影ステップと、
撮影された画像を画像解析することで、撮影した画像における虹彩の位置を取得する解析ステップと、
3次元データとして表示された対象物の3次元データ内の位置情報と前記虹彩の位置を対応付けて記憶する記憶ステップと、
前記取得した虹彩の位置に基づいて、前記対象物を特定し、前記対象物を関心対象データとして出力するステップと、
を備えることを特徴とするデータ出力方法を提供する。
の特徴に係る発明は、ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイに、
前記ユーザの目を撮影する撮影ステップ、
撮影された画像を画像解析することで、撮影した画像における虹彩の位置を取得する解析ステップ、
3次元データとして表示された対象物の3次元データ内の位置情報と前記虹彩の位置を対応付けて記憶する記憶ステップ、
前記取得した虹彩の位置に基づいて、前記対象物を特定し、前記対象物を関心対象データとして出力するステップ、
実行させるためのコンピュータ読み取り可能なヘッドマウントディスプレイ用プログラムを提供する。
本発明によれば、ユーザの視線に基づいて、3次元データとして表示された対象物を特定し、出力することが可能なヘッドマウントディスプレイ、データ出力方法及びヘッドマウントディスプレイを提供することが可能となる。
図1は、ヘッドマウントディスプレイ10の概念図である。 図2は、ヘッドマウントディスプレイ10の構成図である。 図3は、ヘッドマウントディスプレイ10の機能ブロック図である。 図4は、ヘッドマウントディスプレイ10が実行するデータ出力処理の手順を示すフローチャートである。 図5は、ヘッドマウントディスプレイ10が撮影するユーザの目の画像データを示す図である。 図6は、ヘッドマウントディスプレイ10が記憶する位置情報記憶テーブルを示す図である。 図7は、ヘッドマウントディスプレイ10が表示する仮想現実空間を示す図である。 図8は、ヘッドマウントディスプレイ10が解析したユーザの視線を示す図である。 図9は、ヘッドマウントディスプレイ10が表示する関心対象データを示す図である。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これらはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。
[ヘッドマウントディスプレイ10の概要]
図1は、本発明の好適な実施形態であるヘッドマウントディスプレイ10の概要を説明するための図である。ヘッドマウントディスプレイ10は、カメラ100、ディスプレイ110、視線検知部120、データ出力部130及び記憶部140から構成される。
ヘッドマウントディスプレイ10は、ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力する装置である。また、カメラ100は、ユーザの目を撮影するデバイス等を含む。また、ディスプレイ110は、仮想現実又は拡張現実として3次元空間データを表示するデバイス等を含む。また、視線検知部120は、カメラ100で撮影したユーザの目の画像データを画像解析し、ユーザの視線を検知し、特定するデバイス等を含む。また、データ出力部130は、特定したユーザの視線の先にある対象物と、この対象物の3次元空間内での位置情報とを出力するデバイスや、特定した対象物をテキストデータとして出力するデバイス等を含む。
はじめに、カメラ100は、装着したユーザの目を撮影する(ステップS01)。
視線検知部120は、撮影したユーザの目の画像データを画像解析し、目の位置情報を検知し、取得する(ステップS02)。
データ出力部130は、ディスプレイ110に出力する3次元データの位置情報を生成する(ステップS03)。
記憶部140は、視線検知部120が取得したユーザの目の位置情報と、データ出力部130が生成した3次元データの位置情報とを対応付けて記憶する(ステップS04)。ステップS04において、記憶部140は、ディスプレイ110が表示する3次元データの位置に関する位置情報と、ユーザの目の位置とを対応付けて記憶する。
ディスプレイ110は、仮想現実空間を表示する(ステップS05)。ステップS05において、ディスプレイ110は、データ出力部130が生成した3次元データの位置情報に基づいて、仮想現実空間を表示する。
カメラ100は、ユーザの目を撮影する(ステップS06)。
視線検知部120は、ステップS06において撮影したユーザの目の画像を解析し、目の位置情報を取得する(ステップS07)。ステップS07において、視線検知部120は、目の位置情報の解析を虹彩の位置に基づいて取得する。
視線検知部120は、取得したユーザの目の位置情報に基づいて、現在ユーザの視線の先に存在する対象物の3次元データの位置情報を取得する(ステップS08)。
データ出力部130は、視線検知部120が取得した3次元データの位置情報に基づいて、この3次元データがユーザの視線の先にある対象物を特定し、この対象物を関心対象データとして出力する(ステップS09)。ステップS09において、データ出力部130は、関心対象データをディスプレイ110、通信可能に接続された外部端末等に出力する。また、ステップS09において、データ出力部130は、3次元空間内での位置情報に対応付けられた関心対象データとして出力する。また、ステップS09において、データ出力部130は、この関心対象データを画像認識したテキストデータとして出力する。
以上が、ヘッドマウントディスプレイ10の概要である。
[ヘッドマウントディスプレイ10の構成]
図2は、本発明の好適な実施形態であるヘッドマウントディスプレイの構成図である。ヘッドマウントディスプレイ10は、制御部11、通信部12、撮影部13、記憶部14及び表示部15から構成される。
ヘッドマウントディスプレイ10は、後述の機能を備え、ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力する装置である。また、ヘッドマウントディスプレイ10は、データ通信機能を備える通信部12を備える。また、ヘッドマウントディスプレイ10は、ユーザの目を撮影するカメラ等のデバイスを備えた撮影部13を備える。また、ヘッドマウントディスプレイ10は、各種データや情報を記憶する記憶部14を備える。また、ヘッドマウントディスプレイ10は、制御部11が制御した画像、データ及び各種情報を表示する表示部15を備える。
また、ヘッドマウントディスプレイ10は、撮影部13が撮影したユーザの目の画像を解析し、ユーザの視線を検知するデバイス等を備える。また、ヘッドマウントディスプレイ10は、検知したユーザの視線に基づいて、3次元データとして表示部15に表示した対象物を特定し、対象物を関心対象物として出力するデバイス等を備える。また、ヘッドマウントディスプレイ10は、3次元空間内での位置情報に対応付けた関心対象データを出力するデバイス等を備える。また、ヘッドマウントディスプレイ10は、関心対象データを画像認識したテキストデータとして出力デバイス等を備える。
[各機能の説明]
図3に基づいて、各構成について説明する。
ヘッドマウントディスプレイ10は、制御部11として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部12として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイスを備える。
また、ヘッドマウントディスプレイ10は、撮影部13として、カメラ等の画像を撮影するデバイスを備える。また、ヘッドマウントディスプレイ10は、記憶部14として、例えば、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。記憶部14には、後述する対象物テーブル、テキストデータテーブルが含まれる。
また、ヘッドマウントディスプレイ10は、表示部15として、制御部11で制御したデータや画像を出力表示するデバイスを備える。
ヘッドマウントディスプレイ10において、制御部11が所定のプログラムを読み込むことで、通信部12と協働して、表示データ取得モジュール20、データ出力モジュール21を実現する。また、ヘッドマウントディスプレイ10において、制御部11が所定のプログラムを読み込むことで、撮影部13と協働して、撮影モジュール30、解析モジュール31を実現する。また、ヘッドマウントディスプレイ10において、制御部11が所定のプログラムを読み込むことで、記憶部14と協働して、データ記憶モジュール40、データ演算モジュール41を実現する。また、ヘッドマウントディスプレイ10において、制御部11が所定のプログラムを読み込むことで、表示部15と協働して、表示モジュール50を実現する。
[データ出力処理]
図4は、ヘッドマウントディスプレイ10が実行するデータ出力処理の手順を示すフローチャートである。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。
はじめに、ヘッドマウントディスプレイ10の撮影モジュール30は、装着したユーザの目を撮影する(ステップS20)。ステップS20において、撮影モジュール30は、図5に示す通り、ユーザの目として、眼球及び瞼を一つの画像として撮影する。
ヘッドマウントディスプレイ10の解析モジュール31は、ステップS20において撮影した画像を画像解析し、撮影した画像における虹彩200の位置を虹彩位置情報として取得する(ステップS21)。ステップS21において、解析モジュール31は、目頭210を基準点とし、虹彩200の位置を座標として取得する。
ヘッドマウントディスプレイ10の表示データ取得モジュール20は、自身に表示する3次元空間の仮想データである3次元データを取得する(ステップS22)。ステップS22において、表示データ取得モジュール20は、通信可能に接続されたサーバ、携帯端末、家庭用又は業務用のコンピュータ等の外部端末から、3次元データを取得する。
ヘッドマウントディスプレイ10のデータ記憶モジュール40は、ステップS21において取得した虹彩位置情報と、ステップS22において取得した3次元データとを其々記憶する(ステップS23)。
ヘッドマウントディスプレイ10のデータ演算モジュール41は、記憶した3次元データに基づいて、3次元データに含まれる各対象物の位置等の対象物位置情報と、虹彩位置情報とを対応付ける(ステップS24)。ステップS24において、データ演算モジュール41は、虹彩位置情報の各々と、対象物位置情報との位置関係を演算する。例えば、ユーザが表示されたビルAを見ている場合における、ユーザの虹彩200の位置を演算して算出し、この時の対象物位置情報と、虹彩位置情報とを演算して算出する。
ヘッドマウントディスプレイ10のデータ記憶モジュール40は、ステップS24において算出した虹彩位置情報と、対象物位置情報とを対応付けて、図6に位置情報記憶テーブルとして記憶する(ステップS25)。
[位置情報記憶テーブル]
図6は、ヘッドマウントディスプレイ10のデータ記憶モジュール40が記憶する位置情報記憶テーブルを示す図である。データ記憶モジュール40は、ユーザの虹彩200の位置を示す情報である虹彩位置情報と、対象物の名称及び位置情報を示す情報である対象物位置情報とを対応付けて記憶する。図6において、データ記憶モジュール40は、虹彩位置情報として(X01,Y01)―(X02,Y02)と、対象物位置情報としてタワーA(X20,Y20)―(X25,Y40)とを対応付けて記憶する。また、データ記憶モジュール40は、虹彩位置情報として(X10,Y10)―(X11,Y11)と、対象物位置情報としてビルA(X30,Y10)―(X35,Y20)とを対応付けて記憶する。データ記憶モジュール40は、同様に、3次元空間データに存在する他の対象物等の対象物位置情報と、虹彩位置情報とを対応付けて記憶する。なお、データ記憶モジュール40は、他の対象物の対象物位置情報と、虹彩位置情報とを対応付けて記憶していても良い。また、データ記憶モジュール40は、虹彩位置情報と、3次元データに基づいた画像とを対応付けて記憶していても良い。
ヘッドマウントディスプレイ10の表示モジュール50は、ステップS22において取得した3次元データに基づいて、図7に示す仮想現実空間を表示する(ステップS26)。図7において、表示モジュール50は、仮想現実空間として、ビルA、タワーAを表示する。なお、表示モジュール50が表示する仮想現実空間は、他の物体を表示しても良いのは言うまでもない。また、表示モジュール50が表示する仮想現実空間は適宜変更可能である。
ヘッドマウントディスプレイ10の撮影モジュール30は、装着するユーザの目を撮影する(ステップS27)。ステップS27は、上述したステップS20の処理と同様である。
ヘッドマウントディスプレイ10の解析モジュール31は、ステップS27において撮影したユーザの虹彩200の位置を解析する(ステップS28)。ステップS28において、解析モジュール31は、撮影した目の画像データにおいて、目頭210の位置を基準点として、虹彩200の位置を示す虹彩位置情報を座標として解析する。解析モジュール31は、解析した虹彩位置情報に基づいて、ユーザの視線を解析する。
ヘッドマウントディスプレイ10の解析モジュール31は、図8に示す通り、表示モジュール50に表示した3次元データにおいて、ユーザの視線300を認識する。
ステップS28において、解析モジュール31は、解析モジュール31が解析した虹彩位置情報に基づいて、データ記憶モジュール40に記憶された虹彩位置情報を検索し、ユーザの視線の先にある対象物を判断する(ステップS29)。
ステップS29において、解析モジュール31は、解析した虹彩位置情報が、記憶した虹彩位置情報には存在しないと判断した場合(ステップS29 NO)、本処理を終了する。一方、ステップS29において、解析モジュール31は、解析した虹彩位置情報が、記憶した虹彩位置情報に存在すると判断した場合(ステップS29 YES)、ヘッドマウントディスプレイ10のデータ出力モジュール21は、この虹彩位置情報に対応付けられた対象物位置情報を関心対象データとして出力する(ステップS30)。
ステップS30において、データ出力モジュール21は、関心対象データとして、この対象物位置情報に含まれる、位置情報、名称や種別等のテキストデータ、画像認識したテキストデータ等を出力する。また、データ出力モジュール21は、関心対象データを、表示モジュール50、外部端末又は他のヘッドマウントディスプレイ等に出力する。例えば、データ出力モジュール21が表示モジュール50に関心対象データを出力した場合、表示モジュール50は、ユーザの視線の先に、テキストデータや、拡大画像の画像データ等の各種データを図9に示すように表示する。また、データ出力モジュール21が外部端末に関心対象データを出力した場合、この外部端末に、出力元のヘッドマウントディスプレイ10の識別子、出力元のヘッドマウントディスプレイ10のユーザ名、ユーザの視線の先にある物体のテキストデータや拡大画像の画像データ等の各種データを表示する。また、データ出力モジュール21が他のヘッドマウントディスプレイに関心対象データを出力した場合、他のヘッドマウントディスプレイの表示部の一部、又は対象物位置情報に含まれる位置情報に該当する位置に出力元のヘッドマウントディスプレイ10の識別子や出力元のヘッドマウントディスプレイ10のユーザ名、出力元のヘッドマウントディスプレイの10ユーザの視線の先にある物体のテキストデータや拡大画像の画像データ等の各種データを表示する。
図9は、ヘッドマウントディスプレイ10の表示モジュール50が表示する関心対象データである。図9において、表示モジュール10は、対象物の名称、情報、その他の各項目を表示する。対象物の名称とは、ユーザの視線の先にある物体の名称である。また、情報とは、この物体に関連付けられた各種情報である。この情報は、例えば、表示データ取得モジュール20が公衆回線網等を介して取得したこの物体に関する各種情報を表示する。また、その他の項目とは、表示データ取得モジュール20がこの物体をキーワードとして検索した検索結果のURLアドレスを表示する。なお、表示モジュール50は、例えば、対象物の拡大画像やその他の情報等を表示しても良い。
以上が、データ出力処理である。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
10 ヘッドマウントディスプレイ

Claims (4)

  1. ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイであって、
    前記ユーザの目を撮影する撮影手段と、
    撮影された画像を画像解析することで、撮影した画像における虹彩の位置を取得する解析手段と、
    3次元データとして表示された対象物の3次元データ内の位置情報と前記虹彩の位置を対応付けて記憶する記憶手段と、
    前記取得した虹彩の位置に基づいて、前記対象物を特定し、前記対象物を関心対象データとして出力する関心データ出力手段と、
    を備えることを特徴とするヘッドマウントディスプレイ。
  2. 前記関心データ出力手段は、前記対象物を画像認識し、当該対象物の名称等のテキストデータを、前記関心対象データとして出力することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイが実行するデータ出力方法であって、
    前記ユーザの目を撮影する撮影ステップと、
    撮影された画像を画像解析することで、撮影した画像における虹彩の位置を取得する解析ステップと、
    3次元データとして表示された対象物の3次元データ内の位置情報と前記虹彩の位置を対応付けて記憶する記憶ステップと、
    前記取得した虹彩の位置に基づいて、前記対象物を特定し、前記対象物を関心対象データとして出力するステップと、
    を備えることを特徴とするデータ出力方法。
  4. ユーザの目を覆って、仮想現実又は拡張現実として3次元空間データを出力するヘッドマウントディスプレイに、
    前記ユーザの目を撮影する撮影ステップ、
    撮影された画像を画像解析することで、撮影した画像における虹彩の位置を取得する解析ステップ、
    3次元データとして表示された対象物の3次元データ内の位置情報と前記虹彩の位置を対応付けて記憶する記憶ステップ、
    前記取得した虹彩の位置に基づいて、前記対象物を特定し、前記対象物を関心対象データとして出力するステップ、
    実行させるためのコンピュータ読み取り可能なヘッドマウントディスプレイ用プログラム。
JP2015153271A 2015-08-03 2015-08-03 ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 Active JP6275087B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015153271A JP6275087B2 (ja) 2015-08-03 2015-08-03 ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。
US15/162,688 US20170041597A1 (en) 2015-08-03 2016-05-24 Head mounted display and method for data output

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015153271A JP6275087B2 (ja) 2015-08-03 2015-08-03 ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。

Publications (2)

Publication Number Publication Date
JP2017033334A JP2017033334A (ja) 2017-02-09
JP6275087B2 true JP6275087B2 (ja) 2018-02-07

Family

ID=57988203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015153271A Active JP6275087B2 (ja) 2015-08-03 2015-08-03 ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。

Country Status (2)

Country Link
US (1) US20170041597A1 (ja)
JP (1) JP6275087B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110267029A (zh) * 2019-07-22 2019-09-20 广州铭维软件有限公司 一种基于ar眼镜的远程全息人物显示技术

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180074180A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 가상현실 영상에 대한 정보를 제공하는 장치 및 방법
JP6821461B2 (ja) * 2017-02-08 2021-01-27 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
EP3716220B1 (en) 2017-11-20 2024-02-21 Rakuten Group, Inc. Information processing device, information processing method, and information processing program
US20200082576A1 (en) * 2018-09-11 2020-03-12 Apple Inc. Method, Device, and System for Delivering Recommendations
CN114879851B (zh) * 2022-07-11 2022-11-01 深圳市中视典数字科技有限公司 一种基于虚拟现实的数据采集方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
JP6217747B2 (ja) * 2013-04-16 2017-10-25 ソニー株式会社 情報処理装置及び情報処理方法
JP5884811B2 (ja) * 2013-11-18 2016-03-15 コニカミノルタ株式会社 Ar表示装置、ar表示制御装置、印刷条件設定システム、印刷システム、印刷設定表示方法およびプログラム
JP6120444B2 (ja) * 2013-12-25 2017-04-26 Kddi株式会社 ウェアラブルデバイス
JP6075644B2 (ja) * 2014-01-14 2017-02-08 ソニー株式会社 情報処理装置および方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110267029A (zh) * 2019-07-22 2019-09-20 广州铭维软件有限公司 一种基于ar眼镜的远程全息人物显示技术

Also Published As

Publication number Publication date
US20170041597A1 (en) 2017-02-09
JP2017033334A (ja) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6275087B2 (ja) ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。
JP6813501B2 (ja) 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ
US11127210B2 (en) Touch and social cues as inputs into a computer
US9105210B2 (en) Multi-node poster location
US9035970B2 (en) Constraint based information inference
US9355123B2 (en) Fast recognition algorithm processing, systems and methods
US9424461B1 (en) Object recognition for three-dimensional bodies
US8724853B2 (en) Identifying a target object using optical occlusion
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
US20120019557A1 (en) Displaying augmented reality information
WO2017208436A1 (ja) 動物体重推測システム、動物体重推測方法及びプログラム
TW201732499A (zh) 表情辨識系統、表情辨識方法及表情辨識程式
TW201812432A (zh) 外部拍攝系統、外部拍攝方法及外部拍攝程式
US8199974B1 (en) Identifying a target object using optical occlusion
JP2017027477A (ja) 3次元出力サーバ、3次元出力方法及び3次元出力サーバ用プログラム。
JP6280674B1 (ja) 撮像角度調整システム、撮像角度調整方法及びプログラム
JP2015092646A (ja) 情報処理装置、制御方法、およびプログラム
WO2020243562A1 (en) Using live feeds to produce 1st person, spatial, and real life views
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
CN113010009B (zh) 对象共享方法及装置
JP2019133276A (ja) 画像処理システム、端末
JP6650998B2 (ja) 鏡、画像表示方法及びプログラム
JP6404526B2 (ja) 撮像画像共有システム、撮像画像共有方法及びプログラム
KR20220137282A (ko) 시선통신 제어 방법 및 장치
JP2020119177A (ja) ウェアラブル検索システム、検索方法、及び、検索プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180109

R150 Certificate of patent or registration of utility model

Ref document number: 6275087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250