JP2018097141A - 頭部装着型表示装置、仮想物体表示システム - Google Patents

頭部装着型表示装置、仮想物体表示システム Download PDF

Info

Publication number
JP2018097141A
JP2018097141A JP2016241183A JP2016241183A JP2018097141A JP 2018097141 A JP2018097141 A JP 2018097141A JP 2016241183 A JP2016241183 A JP 2016241183A JP 2016241183 A JP2016241183 A JP 2016241183A JP 2018097141 A JP2018097141 A JP 2018097141A
Authority
JP
Japan
Prior art keywords
virtual object
head
displayed
unit
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016241183A
Other languages
English (en)
Inventor
誓哉 稲木
Seiya Inagi
誓哉 稲木
哲平 青木
Teppei Aoki
哲平 青木
大輔 安岡
Daisuke Yasuoka
大輔 安岡
忠秋 佐藤
Tadaaki Sato
忠秋 佐藤
橋本 一成
Kazunari Hashimoto
一成 橋本
英剛 出雲
Hidetake Izumo
英剛 出雲
佑介 山浦
Yusuke Yamaura
佑介 山浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2016241183A priority Critical patent/JP2018097141A/ja
Priority to US15/658,407 priority patent/US20180165853A1/en
Publication of JP2018097141A publication Critical patent/JP2018097141A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】間仕切りが設けられていないオフィスでも、自己の作業を集中して行うことを可能とする。【解決手段】撮像部32は、自装置の周囲の実空間の画像を撮像する。表示部35は、実空間を視認可能な透過型表示部であり、演算処理部33により生成された仮想オブジェクトの画像を、例えばホログラフィー技術を用いて表示する。仮想オブジェクト描画制御部43は、撮像部32により撮像された画像に基づいて、利用者の視界を遮るような壁状の不透明な仮想オブジェクトを描画して、実空間内に存在するように表示部35に表示する制御を行う。【選択図】図3

Description

本発明は、頭部装着型表示装置、仮想物体表示システムに関する。
特許文献1には、現実物体に仮想オブジェクトを重畳させて投影する際に、投影部と現実物体との位置関係によって投影する仮想オブジェクトのパラメータを制御するように投影制御方法が開示されている。
特開2013−235374号公報
本発明の目的は、間仕切りが設けられていないオフィスでも、自己の作業を集中して行うことが可能な頭部装着型表示装置、仮想物体表示システムを提供することである。
[頭部装着型表示装置]
請求項1に係る本発明は、実空間の画像を撮像する撮像部と、
実空間を視認可能な透過型表示部と、
前記撮像部により撮像された画像に基づいて、利用者の視界を遮るような壁状の不透明な仮想物体を描画して、実空間内に存在するように前記透過型表示部に表示する制御を行う描画制御手段とを備えた頭部装着型表示装置である。
請求項2に係る本発明は、前記描画制御手段が、自装置を装着している利用者の、少なくとも前方に壁状の不透明な仮想物体が表示されるように前記透過型表示部を制御する請求項1記載の頭部装着型表示装置である。
請求項3に係る本発明は、前記描画制御手段が、自装置を装着している利用者の周囲を囲うように壁状の不透明な仮想物体が表示されるように前記透過型表示部を制御する請求項1記載の頭部装着型表示装置である。
請求項4に係る本発明は、前記撮像部により撮像された画像から、自装置を装着している利用者の指先の位置を認識する認識手段をさらに備え、
前記描画制御手段は、前記認識手段により認識された利用者の指先の位置までの距離の2倍を一辺の長さとする正四角柱状に、4つの壁状の仮想物体を前記透過型表示部に表示する請求項1記載の頭部装着型表示装置である。
請求項5に係る本発明は、前記撮像部により撮像された画像から、自装置を装着している利用者の指先の位置を認識する認識手段をさらに備え、
前記描画制御手段は、前記認識手段により認識された利用者の指先が、描画した仮想物体の位置と交差した場合、前記透過型表示部に表示した仮想物体を半透明に変化または消去する請求項1から4のいずれか記載の頭部装着型表示装置である。
請求項6に係る本発明は、前記撮像部により撮像された画像から、自装置を装着している利用者の指先の位置を認識する認識手段をさらに備え、
前記描画制御手段は、前記認識手段により認識された利用者の指先が、描画した仮想物体の位置と交差した場合、仮想物体への接触位置に応じて、前記透過型表示部に表示した仮想物体の色彩、表示位置、形状または大きさのうちの少なくとも1つの属性を変更する請求項1から4のいずれか記載の頭部装着型表示装置である。
請求項7に係る本発明は、前記撮像部により撮像された画像から、接近する人の位置を認識する認識手段をさらに備え、
前記描画制御手段は、前記認識手段により認識された人の一部が、描画した仮想物体の位置と交差した場合、前記透過型表示部に表示した仮想物体を半透明に変化または消去する請求項1から4のいずれか記載の頭部装着型表示装置である。
請求項8に係る本発明は、前記描画制御手段が、予め設定された事象が発生した場合、発生した事象に応じた文字情報を、描画した仮想物体上に表示するような制御を行う請求項1から7のいずれか記載の頭部装着型表示装置である。
[仮想物体表示システム]
請求項9に係る本発明は、実空間の画像を撮像する撮像部と、実空間を視認可能な透過型表示部と、前記撮像部により撮像された画像に基づいて、利用者の視界を遮るような壁状の不透明な仮想物体を描画して、実空間内に存在するように前記透過型表示部に表示する制御を行う描画制御手段とを備えた複数の頭部装着型表示装置と、
前記複数の頭部装着型表示装置において透過型表示部に表示しているそれぞれの仮想物体の属性情報を格納し、ある頭部装着型表示装置において透過型表示部に表示している仮想物体を、異なる頭部装着型表示装置の透過型表示部にも表示させるような制御を行う管理サーバとを有する仮想物体表示システムである。
請求項10に係る本発明は、前記複数の頭部装着型表示装置には、それぞれ識別情報が設定されており、
前記管理サーバは、予め登録された識別情報が設定された頭部装着型表示装置に対して、他の頭部装着型表示装置において表示されている仮想物体を表示するよう制御する請求項9記載の仮想物体表示システムである。
請求項11に係る本発明は、前記複数の頭部装着型表示装置が、それぞれ自装置の現在位置を検出する検出手段を備え、
前記管理サーバは、ある頭部装着型表示装置に対して表示している仮想物体を、予め設定された距離内に存在する他の頭部装着型表示装置に対してのみ表示するよう制御する請求項9記載の仮想物体表示システムである。
請求項12に係る本発明は、前記管理サーバが、ある頭部装着型表示装置に対して表示している仮想物体の外側に文字情報を表示した状態で、他の頭部装着型表示装置に対して表示するよう制御する請求項9記載の仮想物体表示システムである。
請求項1に係る本発明によれば、間仕切りが設けられていないオフィスでも、自己の作業を集中して行うことが可能な頭部装着型表示装置を提供することができる。
請求項2に係る本発明によれば、間仕切りが設けられていないオフィスでも、自己の作業を集中して行うことが可能な頭部装着型表示装置を提供することができる。
請求項3に係る本発明によれば、間仕切りが設けられていないオフィスでも、周囲の状況に気を取られることなく、自己の作業を集中して行うことが可能な頭部装着型表示装置を提供することができる。
請求項4に係る本発明によれば、表示する仮想物体の大きさを簡単な操作で設定することが可能な頭部装着型表示装置を提供することができる。
請求項5に係る本発明によれば、表示した仮想物体の向こう側の様子を把握することが可能な頭部装着型表示装置を提供することができる。
請求項6に係る本発明によれば、表示した仮想物体の色彩、表示位置、形状および大きさ等の属性を簡単な操作で変更することが可能な頭部装着型表示装置を提供することができる。
請求項7に係る本発明によれば、他人が接近してきたことを把握することが可能な頭部装着型表示装置を提供することができる。
請求項8に係る本発明によれば、作業中であっても、特定の事象が発生したことを知ることが可能な頭部装着型表示装置を提供することができる。
請求項9に係る本発明によれば、ある頭部装着型表示装置に表示している仮想物体を他の頭部装着型表示装置にも表示させることが可能な仮想物体表示システムを提供することができる。
請求項10に係る本発明によれば、ある頭部装着型表示装置に表示している仮想物体を、特定の他の頭部装着型表示装置にのみ表示させることが可能な仮想物体表示システムを提供することができる。
請求項11に係る本発明によれば、ある頭部装着型表示装置に表示している仮想物体を、特定の他の頭部装着型表示装置にのみ表示させることにより、特定の相手からのコンタクトを遮断することが可能な仮想物体表示システムを提供することができる。
請求項12に係る本発明によれば、ある頭部装着型表示装置に表示している仮想物体を他の頭部装着型表示装置にも表示させる際に、他の頭部装着型表示装置を装着している利用者にメッセージを伝達することが可能な仮想物体表示システムを提供することができる。
本発明の一実施形態の仮想オブジェクト表示システムのシステム構成を示す図である。 図1に示したHMD10のハードウェア構成を示す図である。 本発明の一実施形態におけるHMD10の機能構成を示すブロック図である。 本発明の一実施形態におけるHMD10の外観を示す図である。 HMD10を装着した場合の様子を説明するための図である。 本発明の一実施形態のHMD10において仮想オブジェクトの表示命令を受けた場合の動作を説明するためのフローチャートである。 生成する仮想オブジェクトのサイズ指定の一例を示す図である。 生成される仮想オブジェクト70を上面から見た場合の寸法図例である。 仮想オブジェクト70を表示する際の、この仮想オブジェクト70の上面図例を示す図である。 仮想オブジェクト70が表示された状態を斜め後ろから見た場合の斜視図である。 仮想オブジェクト70が表示部35に表示される前の利用者の視界の様子を模式的に示す図である。 仮想オブジェクト70が表示部35に表示された後の利用者の視界の様子を模式的に示す図である。 仮想オブジェクト70の色彩を変化させる際の操作例を説明するための図である。 仮想オブジェクト70の高さを変化させる際の操作例を説明するための図である。 仮想オブジェクト70の表示位置を変化させる際の操作例を説明するための図である。 「緊急地震速報を受信しました!」という文字情報を仮想オブジェクト70上に表示する場合を示す図である。 「人が接近しています!」という文字情報を仮想オブジェクト70上に表示する場合を示す図である。 接近してきた人80と交差した仮想オブジェクト70の面を半透明にする様子を説明するための図である。 指先と交差した仮想オブジェクト70の面を半透明にする様子を説明するための図である。 仮想オブジェクト70を表示させて仕事をしている利用者とは異なる他の利用者90のHMD10にも仮想オブジェクト70を表示させる様子を説明するための図である。 2つのHMD10の距離が予め設定された距離以内となり近接したと判定した場合、表示している仮想オブジェクト70を半透明にする様子を説明するための図である。 仮想オブジェクト71の奥行距離が仮想オブジェクト70の表示位置よりも遠い場合でも、仮想オブジェクト70の手前に仮想オブジェクト71を表示する様子を説明するための図である。
次に、本発明の実施の形態について図面を参照して詳細に説明する。
図1は本発明の一実施形態の仮想オブジェクト(仮想物体)表示システムのシステム構成を示す図である。
近年、ヘッドマウントディスプレイ(以下、HMD(Head Mounted Display)と略す。)を用いて、利用者に仮想空間にいるような視覚を与えるVR(Virtual Reality:仮想現実感)が様々な装置で実現されている。
しかし、このVR技術では、HMDを装着している人にとっては実空間の視覚情報が遮断されてしまう。そのため、実空間の映像に人工的に生成した画像を重ねて表示する技術であるAR(Augmented Reality:拡張現実感)という技術や、現実空間と仮想空間を混合し、現実の物と仮想的な物がリアルタイムで影響しあう新たな空間を構築するMR(Mixed Reality:複合現実感)という技術が提案されている。
ここで、AR技術では、カメラ等の撮像装置により撮像した実画像上に人工的に生成した画像を重ねて表示しているのに対して、MR技術では、HMDを装着した利用者が透過型のディスプレイを通して実空間の様子をリアルタイムで直接視認可能になっている点で異なっている。
そして、本実施形態の仮想オブジェクト表示システムでは、このようなMR技術を用いて、利用者がリアルタイムで視認している実空間内に、人工的に生成した仮想オブジェクトが存在するかのような視覚を与えるような構成となっている。
本実施形態の仮想オブジェクト表示システムは、図1に示されるように、利用者がそれぞれ頭部に装着するための複数のヘッドマウントディスプレイ(以下、HMD(Head Mounted Display)と略す。)10と、各HMD10において表示している仮想オブジェクトの属性情報を管理する管理サーバ20と、無線LANターミナル30とから構成されている。
HMD(頭部装着型表示装置)10は、利用者の頭部に装着されて使用され、実空間を視認可能な透過型表示部を有し、利用者はこの透過型表示部を介して外部の様子を視認することが可能となっている。そして、HMD10では、この透過型表示部上に仮想物体が表示されることにより、利用者にとっては、実空間内に仮想オブジェクトが存在するかのような視覚を得ることができるような構成となっている。
なお、各HMD10は、それぞれ、Bluetooth(登録商標)やWi-Fi等の無線通信回線を介して無線LANターミナル30とデータの送受信を行うことにより、管理サーバ20と接続されている。
そして、それぞれのHMD10において表示されている仮想オブジェクトの、色彩、表示位置、形状および大きさ等の属性情報が管理サーバ20内において格納されている。
次に、図1に示したHMD10のハードウェア構成を図2に示す。
HMD10は、図2に示されるように、CPU11、メモリ12、フラッシュメモリ等の記憶装置13、無線通信回線を介して管理サーバ20等の外部装置との間でデータの送信及び受信を行う通信インタフェース(IF)14、GPS等のシステムを利用して自装置の位置を測定する位置測定部15、加速度センサ、ジャイロセンサ(角速度センサ)等のセンサ16、外部の画像を撮影するためのカメラ17、仮想オブジェクトを表示する表示装置18を有する。これらの構成要素は、制御バス19を介して互いに接続されている。
CPU11は、メモリ12または記憶装置13に格納された制御プログラムに基づいて所定の処理を実行して、HMD10の動作を制御する。
図3は、上記の制御プログラムが実行されることにより実現されるHMD10の機能構成を示すブロック図である。
本実施形態のHMD10は、図3に示されるように、位置姿勢検出部31と、撮像部32と、演算処理部33と、通信部34と、表示部35とを備えている。また、演算処理部33は、ジェスチャ認識部41と、交差判定部42と、仮想オブジェクト描画制御部43とから構成されている。
位置姿勢検出部31は、GPS受信装置により位置情報により自装置の位置を検出したり、加速度センサや加速度センサ等の出力信号に基づいて自装置の姿勢変化を検出する。
撮像部32は、自装置の周囲の実空間の画像を撮像する。
演算処理部33は、撮像部32により撮像された周囲の実空間の画像と、位置姿勢検出部31により検出された自装置の位置情報や姿勢変化の情報に基づいて、表示部35に表示すべき仮想オブジェクト(仮想物体)の画像を描画する。
通信部34は、演算処理部33により生成された仮想オブジェクトの属性情報や自装置の位置情報を管理サーバ20に送信したり、管理サーバ20から送信されてきた他のHMD10における仮想オブジェクトの属性情報等を受信する。
表示部35は、実空間を視認可能な透過型表示部であり、演算処理部33により生成された仮想オブジェクトの画像を、例えばホログラフィー技術を用いて表示する。
ジェスチャ認識部41は、撮像部32により撮像された画像から、自装置を装着している利用者の指先の位置を認識したり、自装置に接近する人の位置を認識する。
交差判定部42は、ジェスチャ認識部41により認識された利用者の指先が、描画した仮想オブジェクトの位置と交差するか否か、およびジェスチャ認識部41により認識された自装置に接近しつつある人の一部が、描画した仮想物体の位置と交差するか否かを判定する。
仮想オブジェクト描画制御部43は、撮像部32により撮像された画像に基づいて、利用者の視界を遮るような壁状の不透明な仮想オブジェクトを描画して、実空間内に存在するように表示部35に表示する制御を行う。
具体的には、仮想オブジェクト描画制御部43は、自装置を装着している利用者の、少なくとも前方に壁状の不透明な仮想オブジェクトが表示されるように表示部35を制御する。
より具体的には、仮想オブジェクト描画制御部43は、自装置を装着している利用者の周囲を囲うように壁状の不透明な仮想物体が表示されるように表示部35を制御する。
さらに、ジェスチャ認識部41により利用者の指先の位置が認識された場合、仮想オブジェクト描画制御部43は、自装置からジェスチャ認識部41により認識された利用者の指先の位置までの距離の2倍を一辺の長さとする正四角柱状に、4つの壁状の仮想オブジェクトを表示部35に表示する。
そして、仮想オブジェクト描画制御部43は、ジェスチャ認識部41により認識された利用者の指先が、描画した仮想オブジェクトの位置と交差した場合、表示部35に表示した仮想オブジェクトを半透明に変化または消去する。
また、仮想オブジェクト描画制御部43は、ジェスチャ認識部41により認識された利用者の指先が、描画した仮想オブジェクトの位置と交差した場合、仮想オブジェクトへの接触位置に応じて、表示部35に表示した仮想オブジェクトの色彩、表示位置、形状または大きさのうちの少なくとも1つの属性を変更する。
また、仮想オブジェクト描画制御部43は、ジェスチャ認識部41により認識された、自装置に接近しつつある人の指先等の一部が、描画した仮想オブジェクトの位置と交差した場合、表示部35に表示した仮想オブジェクトを半透明に変化または消去する。
さらに、仮想オブジェクト描画制御部43は、予め設定された事象が発生した場合、発生した事象に応じた文字情報を、描画した仮想オブジェクト上に表示するような制御を行う。例えば、管理サーバ20において緊急地震速報等の緊急情報を受信するというような事象が発生した場合、「地震が発生しました!」等いうような文字情報を仮想オブジェクト上に表示する。
また、管理サーバ20は、複数のHMD10において表示部に表示しているそれぞれの仮想オブジェクトの属性情報を格納し、あるHMD10において表示部に表示している仮想オブジェクトを、異なるHMD10の表示部にも表示させるような制御を行う。
また、この複数のHMD10にそれぞれ異なるID(識別情報)を設定しておくことにより、管理サーバ20は、予め登録されたIDが設定されたHMD10に対してのみ、あるHMD10において表示されている仮想オブジェクトを表示するようにすることができる。
さらに、複数のHMD10は、それぞれ自装置の現在位置を検出する位置姿勢検出部31を備えている。そのため、管理サーバ20は、あるHMD10に対して表示している仮想オブジェクトを、予め設定された距離、例えば10m以内に存在する他のHMD10に対してのみ表示するよう制御することも可能である。
さらに、管理サーバ20は、あるHMD10に対して表示している仮想オブジェクトの外側に文字情報を表示した状態で、他のHMD10に対して表示するよう制御するようにしても良い。例えば、あるHMD10に対して表示している壁状の仮想オブジェクトの外側に「仕事中」という文字情報を表示させた状態で、他のHMD10において表示するようにすれば、その他のHMD10を装着している利用者は壁状の仮想オブジェクト内にいる利用者は仕事中であることを知って邪魔しないようにすることを期待できる。
次に、上記で説明したHMD10の外観を図4に示す。HMD10は、図4に示されるように、装着した利用者が外部の様子を視認可能な透明な表示部35を備えている。そして、HMD10の一部には、外部の様子を撮像するための撮像部32が設けられており、利用者が透過型の表示部35を介して視認している外部の様子の画像を撮像することができるような構成となっている。
このようなHMD10を頭部に装着した場合の様子を図5に示す。図5を参照すると、HMD10を装着した利用者は、目が表示部35により覆われているが、この表示部35が透過型であるため外部の様子を視認することができるようになっているのが分かる。
次に、本実施形態のHMD10において仮想オブジェクトの表示命令を受けた場合の動作を図6のフローチャートを参照して説明する。例えば、HMD10に装着されているスイッチを利用者が押下することにより仮想オブジェクトの表示命令が行われたことになる。
先ず、利用者が、図7に示すように腕を伸ばして指先が撮像部32により撮像されるようにする。すると、ジェスチャ認識部41が、撮像部32により撮像された画像から、利用者の指先の位置を認識して特定する(ステップS101)。
そして、ジェスチャ認識部41は、撮像部32により撮像された画像から、特定した指先の位置までの距離を算出する(ステップS102)。ここでは、図7に示すように算出された距離がaであるものとして説明を行う。
すると、仮想オブジェクト描画制御部43では、図8に示すように、自装置からジェスチャ認識部41により認識された利用者の指先の位置までの距離aの2倍を一辺の長さとする正四角柱状に、4つの壁状の仮想オブジェクト70を描画して表示部35に表示する。
仮想オブジェクト70を表示する際の、この仮想オブジェクト70の上面図例を図9に示す。図9(A)は、仮想オブジェクト70が表示される前の様子を示す図であり、図9(B)は、仮想オブジェクト70が表示された後の様子を示す図である。図9(B)では、机の前に座っている利用者(ユーザ)の周囲に4つの壁状の物体からなる仮想オブジェクト70が配置されているように表示されている。
また、この仮想オブジェクト70が表示された状態を斜め後ろから見た場合の斜視図を図10に示す。
なお、図9、図10は共に、仮想オブジェクト70の表示位置や形状を模式的に示すものであり、HMD10を装着していない人が見た場合にはこのような仮想オブジェクト70が見える訳ではない。
次に、このような仮想オブジェクト70が表示部35に表示されたことにより利用者の視界がどのように変化するかを図11、図12を参照して説明する。
図11は、仮想オブジェクト70が表示部35に表示される前の利用者の視界の様子を模式的に示す図である。また、図12は、仮想オブジェクト70が表示部35に表示された後の利用者の視界の様子を模式的に示す図である。
図12を参照すると、利用者が座っている机の周囲に仮想オブジェクト70が存在するように表示されており、利用者は周囲の他の人等の動きに注意を奪われることなく自己の業務に集中することができるような環境が実現されているのが分かる。
そして、図6のフローチャートの説明に戻り、仮想オブジェクト70が表示された後において、交差判定部42は、撮像部32により撮像されジェスチャ認識部41に認識された利用者の指先と、表示されている仮想オブジェクト70との交差判定を行う(ステップS104)。
そして、利用者の指先と表示した仮想オブジェクト70とが交差していると判定された場合(ステップS105においてyes)、仮想オブジェクト描画制御部43は、交差している位置や時間等に応じて、仮想オブジェクト70を半透明にしたり消去したり、または指先の位置に応じて仮想オブジェクト70の表示位置の移動や形状の変形等を行う(ステップS106、S107)。
例えば、指先が仮想オブジェクト70に短い時間だけ触れたような場合、図13に示すように仮想オブジェクト70の色彩をサイクリックに変化させるようにしても良い。例えば、最初は仮想オブジェクト70を青色に表示して、1回指先により触れると緑色に変化し、次に触れると赤色に変化するというように順次仮想オブジェクト70の色彩を変化させる。
また、図14に示すように、仮想オブジェクト70の特定の辺を一定時間以上指先で触れた場合には、その辺を指先の移動に伴って平行移動させるようにしても良い。図14では、壁状の仮想オブジェクト70の高さを変更する様子が示されている。
また、図15に示すように、仮想オブジェクト70のある面を一定時間以上触れた状態とすることにより、その面を指先の移動に伴って平行移動させて表示位置を変化させるようにしても良い。図15では、利用者の前面の壁状の仮想オブジェクト70の表示位置を奥方向に移動させて変更する様子が示されている。
なお、このような仮想オブジェクト70を利用者に仮想的に表示させることにより利用者が自己の仕事に集中することができるが、周囲の状況が見えなくなることにより周囲の状況変化に気が付かなくなる。
そのため、管理サーバ20がある特定の事象の発生を検出した場合、その事象が発生したことを文字情報等により仮想オブジェクト70上に表示させるようにしても良い。例えば、管理サーバ20が緊急地震速報を受信した場合、HMD10にその旨を送信することにより、HMD10内の仮想オブジェクト描画制御部43は、図16に示すように、「緊急地震速報を受信しました!」という文字情報を仮想オブジェクト70上に表示する。
また、撮像部32が撮像している画像により、ジェスチャ認識部41が、人が接近していることを検出した場合、図17に示すように、「人が接近しています!」という文字情報を仮想オブジェクト70上に表示する。
そして、さらに人が接近して、交差判定部42が接近した人と仮想オブジェクト70との交差を判定した場合、仮想オブジェクト描画制御部43は、図18に示すように、接近してきた人80と交差した面を半透明にするか、または消去する。このようにすることにより、利用者は、接近してきた人80を視認することができ、近くまで人が接近したことを把握することができる。
また、自分から周囲の状況を知りたい場合には、例えば、図19(A)に示すように、仮想オブジェクト70のある面を指先により触るような動作をすることにより、仮想オブジェクト描画制御部43は、図19(B)に示すように、その面を半透明にするか、または消去する。このようにすることにより、利用者は、周囲の状況を視認することができ、現在の周囲の状況がどのようになっているかを把握することができる。
さらに、あるHMD10において表示されている仮想オブジェクト70の属性情報は管理サーバ20に格納されているため、HMD10を装着している他の人にも仮想オブジェクト70が存在するように見せることが可能である。
例えば、図20に示すように、仮想オブジェクト70を表示させて仕事をしている利用者とは異なる他の利用者90のHMD10にも仮想オブジェクト70を表示させることにより、この利用者90から見た場合に仮想オブジェクト70が実空間内に存在するように見せることが可能である。
また、各HMD10にそれぞれ識別情報を対応させておくことにより、自己の周囲の仮想オブジェクト70を特定の識別情報のHMD10に対してのみ表示させることにより、特定の人からのコンタクトをシャットアウトするようなことも可能となる。
また、仮想オブジェクト70の外側に予め入力した文字情報を表示させることも可能であり、図20に示した例では、「仕事中です!」という文字情報が表示されている。
なお、このような場合、それぞれのHMD10の実際の位置は管理サーバ20により管理されているため、2つのHMD10の距離が予め設定された距離以内、例えば2m以内となり近接したと判定した場合、仮想オブジェクト描画制御部43は、図21に示すように、表示している仮想オブジェクト70を半透明にするか、または消去してお互いが接近したことを把握することができるようにしても良い。
なお、仮想オブジェクト描画制御部43は、撮像部32により撮像された画像から、奥行方向の距離を算出して仮想オブジェクト70を重ね合わせる位置を判定している。そのため、仮想オブジェクト70の表示位置よりも遠い位置の画像は見えなくなるような描画処理が行われる。
しかし、図22に示すように、奥行方向のある仮想オブジェクト71を表示する場合、この仮想オブジェクト71の奥行距離が仮想オブジェクト70の表示位置よりも遠い場合でも、仮想オブジェクト70の手前に仮想オブジェクト71を表示する。例えば、壁状の不透過の仮想オブジェクト71が1m先に表示され、仮想オブジェクト71の奥行が4mある場合も、仮想オブジェクト71を仮想オブジェクト70の手前に表示することにより、仮想オブジェクト71の全体が見えるように表示することが可能である。
[変形例]
上記実施形態では、平面形状の壁状の仮想オブジェクトを表示する場合を用いて説明したが、本発明はこれに限定されるものではなく、柱状の仮想オブジェクトや球面状の仮想オブジェクトを表示する場合でも同様に本発明を適用することができるものである。
10 HMD(ヘッドマウントディスプレイ:頭部装着型表示装置)
11 CPU
12 メモリ
13 記憶装置
14 通信インタフェース(IF)
15 位置測定部
16 センサ
17 カメラ
18 表示装置
19 制御バス
20 管理サーバ
30 無線LANターミナル
31 位置姿勢検出部
32 撮像部
33 演算処理部
34 通信部
35 表示部
41 ジェスチャ認識部
42 交差判定部
43 仮想オブジェクト描画制御部
70、71 仮想オブジェクト

Claims (12)

  1. 実空間の画像を撮像する撮像部と、
    実空間を視認可能な透過型表示部と、
    前記撮像部により撮像された画像に基づいて、利用者の視界を遮るような壁状の不透明な仮想物体を描画して、実空間内に存在するように前記透過型表示部に表示する制御を行う描画制御手段と、
    を備えた頭部装着型表示装置。
  2. 前記描画制御手段は、自装置を装着している利用者の、少なくとも前方に壁状の不透明な仮想物体が表示されるように前記透過型表示部を制御する請求項1記載の頭部装着型表示装置。
  3. 前記描画制御手段は、自装置を装着している利用者の周囲を囲うように壁状の不透明な仮想物体が表示されるように前記透過型表示部を制御する請求項1記載の頭部装着型表示装置。
  4. 前記撮像部により撮像された画像から、自装置を装着している利用者の指先の位置を認識する認識手段をさらに備え、
    前記描画制御手段は、前記認識手段により認識された利用者の指先の位置までの距離の2倍を一辺の長さとする正四角柱状に、4つの壁状の仮想物体を前記透過型表示部に表示する請求項1記載の頭部装着型表示装置。
  5. 前記撮像部により撮像された画像から、自装置を装着している利用者の指先の位置を認識する認識手段をさらに備え、
    前記描画制御手段は、前記認識手段により認識された利用者の指先が、描画した仮想物体の位置と交差した場合、前記透過型表示部に表示した仮想物体を半透明に変化または消去する請求項1から4のいずれか記載の頭部装着型表示装置。
  6. 前記撮像部により撮像された画像から、自装置を装着している利用者の指先の位置を認識する認識手段をさらに備え、
    前記描画制御手段は、前記認識手段により認識された利用者の指先が、描画した仮想物体の位置と交差した場合、仮想物体への接触位置に応じて、前記透過型表示部に表示した仮想物体の色彩、表示位置、形状または大きさのうちの少なくとも1つの属性を変更する請求項1から4のいずれか記載の頭部装着型表示装置。
  7. 前記撮像部により撮像された画像から、接近する人の位置を認識する認識手段をさらに備え、
    前記描画制御手段は、前記認識手段により認識された人の一部が、描画した仮想物体の位置と交差した場合、前記透過型表示部に表示した仮想物体を半透明に変化または消去する請求項1から4のいずれか記載の頭部装着型表示装置。
  8. 前記描画制御手段は、予め設定された事象が発生した場合、発生した事象に応じた文字情報を、描画した仮想物体上に表示するような制御を行う請求項1から7のいずれか記載の頭部装着型表示装置。
  9. 実空間の画像を撮像する撮像部と、実空間を視認可能な透過型表示部と、前記撮像部により撮像された画像に基づいて、利用者の視界を遮るような壁状の不透明な仮想物体を描画して、実空間内に存在するように前記透過型表示部に表示する制御を行う描画制御手段とを備えた複数の頭部装着型表示装置と、
    前記複数の頭部装着型表示装置において透過型表示部に表示しているそれぞれの仮想物体の属性情報を格納し、ある頭部装着型表示装置において透過型表示部に表示している仮想物体を、異なる頭部装着型表示装置の透過型表示部にも表示させるような制御を行う管理サーバと、
    を有する仮想物体表示システム。
  10. 前記複数の頭部装着型表示装置には、それぞれ識別情報が設定されており、
    前記管理サーバは、予め登録された識別情報が設定された頭部装着型表示装置に対して、他の頭部装着型表示装置において表示されている仮想物体を表示するよう制御する請求項9記載の仮想物体表示システム。
  11. 前記複数の頭部装着型表示装置は、それぞれ自装置の現在位置を検出する検出手段を備え、
    前記管理サーバは、ある頭部装着型表示装置に対して表示している仮想物体を、予め設定された距離内に存在する他の頭部装着型表示装置に対してのみ表示するよう制御する請求項9記載の仮想物体表示システム。
  12. 前記管理サーバは、ある頭部装着型表示装置に対して表示している仮想物体の外側に文字情報を表示した状態で、他の頭部装着型表示装置に対して表示するよう制御する請求項9記載の仮想物体表示システム。
JP2016241183A 2016-12-13 2016-12-13 頭部装着型表示装置、仮想物体表示システム Pending JP2018097141A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016241183A JP2018097141A (ja) 2016-12-13 2016-12-13 頭部装着型表示装置、仮想物体表示システム
US15/658,407 US20180165853A1 (en) 2016-12-13 2017-07-25 Head-mounted display apparatus and virtual object display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016241183A JP2018097141A (ja) 2016-12-13 2016-12-13 頭部装着型表示装置、仮想物体表示システム

Publications (1)

Publication Number Publication Date
JP2018097141A true JP2018097141A (ja) 2018-06-21

Family

ID=62489246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016241183A Pending JP2018097141A (ja) 2016-12-13 2016-12-13 頭部装着型表示装置、仮想物体表示システム

Country Status (2)

Country Link
US (1) US20180165853A1 (ja)
JP (1) JP2018097141A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107291266B (zh) * 2017-06-21 2018-08-31 腾讯科技(深圳)有限公司 图像显示的方法和装置
US10937215B1 (en) 2017-09-29 2021-03-02 Apple Inc. Techniques for enabling drawing in a computer-generated reality environment
CN108182730B (zh) * 2018-01-12 2022-08-12 北京小米移动软件有限公司 虚实对象合成方法及装置
US11748679B2 (en) * 2019-05-10 2023-09-05 Accenture Global Solutions Limited Extended reality based immersive project workspace creation

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0711721A (ja) * 1993-06-28 1995-01-13 Mitsubishi Denki Bill Techno Service Kk パーテーション設備
JP2000002856A (ja) * 1998-02-25 2000-01-07 Semiconductor Energy Lab Co Ltd 情報処理装置
JP2003304939A (ja) * 2002-04-15 2003-10-28 Nishi Jimukisha:Kk 側方視界遮断機能を有する学習机
JP2004150255A (ja) * 2002-09-06 2004-05-27 Koichi Matsuda 個室ボックス
US20120206452A1 (en) * 2010-10-15 2012-08-16 Geisner Kevin A Realistic occlusion for a head mounted augmented reality display
JP2014514652A (ja) * 2011-03-29 2014-06-19 クアルコム,インコーポレイテッド 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン
WO2014156388A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、通知状態制御方法及びプログラム
JP2015225025A (ja) * 2014-05-29 2015-12-14 株式会社日立システムズ 眼鏡型のウェアラブル端末および該ウェアラブル端末を使用する建屋内行先誘導システム
WO2016014875A2 (en) * 2014-07-25 2016-01-28 Microsoft Technology Licensing, Llc Smart transparency for holographic objects

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4642538B2 (ja) * 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
US20120113141A1 (en) * 2010-11-09 2012-05-10 Cbs Interactive Inc. Techniques to visualize products using augmented reality
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
KR101859774B1 (ko) * 2011-12-27 2018-05-18 한국전자통신연구원 디지털 홀로그래픽 콘텐츠 제작 시스템
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US9383895B1 (en) * 2012-05-05 2016-07-05 F. Vinayak Methods and systems for interactively producing shapes in three-dimensional space
WO2014113455A1 (en) * 2013-01-15 2014-07-24 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for generating an augmented scene display
US10055888B2 (en) * 2015-04-28 2018-08-21 Microsoft Technology Licensing, Llc Producing and consuming metadata within multi-dimensional data
KR102701209B1 (ko) * 2015-10-20 2024-08-29 매직 립, 인코포레이티드 3차원 공간에서 가상 객체들 선택
US20170372499A1 (en) * 2016-06-27 2017-12-28 Google Inc. Generating visual cues related to virtual objects in an augmented and/or virtual reality environment

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0711721A (ja) * 1993-06-28 1995-01-13 Mitsubishi Denki Bill Techno Service Kk パーテーション設備
JP2000002856A (ja) * 1998-02-25 2000-01-07 Semiconductor Energy Lab Co Ltd 情報処理装置
JP2003304939A (ja) * 2002-04-15 2003-10-28 Nishi Jimukisha:Kk 側方視界遮断機能を有する学習机
JP2004150255A (ja) * 2002-09-06 2004-05-27 Koichi Matsuda 個室ボックス
US20120206452A1 (en) * 2010-10-15 2012-08-16 Geisner Kevin A Realistic occlusion for a head mounted augmented reality display
JP2014514652A (ja) * 2011-03-29 2014-06-19 クアルコム,インコーポレイテッド 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン
WO2014156388A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、通知状態制御方法及びプログラム
JP2015225025A (ja) * 2014-05-29 2015-12-14 株式会社日立システムズ 眼鏡型のウェアラブル端末および該ウェアラブル端末を使用する建屋内行先誘導システム
WO2016014875A2 (en) * 2014-07-25 2016-01-28 Microsoft Technology Licensing, Llc Smart transparency for holographic objects

Also Published As

Publication number Publication date
US20180165853A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
JP5966510B2 (ja) 情報処理システム
US9778464B2 (en) Shape recognition device, shape recognition program, and shape recognition method
KR20230026505A (ko) 객체 조작을 사용한 증강 현실 경험들
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
US9979946B2 (en) I/O device, I/O program, and I/O method
US9268410B2 (en) Image processing device, image processing method, and program
CN112328078A (zh) 处理三维用户输入的方法
US20150378159A1 (en) Display control device, display control program, and display control method
KR20230029885A (ko) 말 풍선들 및 번역을 갖는 증강 현실 안경류
EP4172733A1 (en) Augmented reality eyewear 3d painting
US9906778B2 (en) Calibration device, calibration program, and calibration method
JP2018097141A (ja) 頭部装着型表示装置、仮想物体表示システム
US20210407213A1 (en) Augmented reality eyewear with 3d costumes
US10171800B2 (en) Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance
KR20230026503A (ko) 사회적 거리두기를 사용한 증강 현실 경험들
US12056826B2 (en) Head-mounted information processing apparatus and head-mounted display system
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
EP4172732A1 (en) Augmented reality eyewear with mood sharing
JP2010205031A (ja) 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム
US10296098B2 (en) Input/output device, input/output program, and input/output method
JP5215211B2 (ja) 関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム
KR20190048810A (ko) 증강현실용 컨텐츠 제공 장치 및 방법
JP2017134803A (ja) 情報処理装置、情報処理方法
WO2023278132A1 (en) Augmented reality eyewear with x-ray effect
US11972037B2 (en) Head mounted information processing apparatus and head mounted display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211102