WO2017122270A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2017122270A1
WO2017122270A1 PCT/JP2016/050670 JP2016050670W WO2017122270A1 WO 2017122270 A1 WO2017122270 A1 WO 2017122270A1 JP 2016050670 W JP2016050670 W JP 2016050670W WO 2017122270 A1 WO2017122270 A1 WO 2017122270A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
display device
user
camera
Prior art date
Application number
PCT/JP2016/050670
Other languages
English (en)
French (fr)
Inventor
潤 岩田
Original Assignee
サン電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サン電子株式会社 filed Critical サン電子株式会社
Priority to PCT/JP2016/050670 priority Critical patent/WO2017122270A1/ja
Priority to US16/069,382 priority patent/US20190019308A1/en
Priority to JP2017561085A priority patent/JPWO2017122270A1/ja
Priority to EP16884873.7A priority patent/EP3404623A4/en
Priority to CN201680078579.0A priority patent/CN108541323A/zh
Publication of WO2017122270A1 publication Critical patent/WO2017122270A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Definitions

  • Patent Document 1 International Publication No. 2012/033578 pamphlet discloses a camera system that measures the physical distance from an object using light.
  • This camera system irradiates patterned light (for example, light of a lattice pattern, a dot pattern, etc.) with respect to the target object with an illuminating device.
  • patterned light for example, light of a lattice pattern, a dot pattern, etc.
  • the light pattern is deformed according to the shape of the object.
  • the physical distance between the camera system and the object is calculated by photographing and analyzing the deformed pattern with a visible light camera.
  • This specification discloses a technique that can appropriately specify the position and orientation of an image display device in a surrounding space.
  • Spatial information for specifying, spatial information, a first captured image acquired from the first camera, a second captured image acquired from the second camera, and an image display detected by the sensor
  • the position and orientation of the image display device in the space are specified based on the posture of the device, an object image representing an object associated with the predetermined position in the space is generated, and the predetermined range includes the predetermined position.
  • the display unit displays a first display screen showing a state in which the object image is arranged at a predetermined position in the space.
  • the control unit further changes the display mode of the object image in the first display screen according to an operation performed by the user while the first display screen is displayed on the display unit. Also good.
  • the object image in the first display screen can be displayed in an appropriate mode according to the operation performed by the user.
  • the display unit may be a translucent display, and when the user wears the image display device, the user can visually recognize the surroundings through the display unit.
  • the control unit may display the first display screen on the display unit by displaying the object image on the display unit.
  • the display unit may be a light-shielding display, and may block the user's field of view when the user wears the image display device.
  • the control unit displays at least one of the first photographed image and the second photographed image on the display unit, and in the first case, the display unit displays the object together with at least one of the first photographed image and the second photographed image.
  • the first display screen may be displayed on the display unit by displaying an image.
  • the display units 10a and 10b are translucent display members, respectively.
  • the display unit 10a When the user wears the image display device 2 on the head, the display unit 10a is disposed at a position facing the right eye of the user, and the display unit 10b is disposed at a position facing the left eye.
  • the left and right display units 10a and 10b may be collectively referred to as the display unit 10.
  • the user can visually recognize the surroundings through the display unit 10.
  • control unit 30 displays a desired screen on the display unit 10 by instructing the projection unit 11 to project an image
  • the operation of the projection unit 11 will be described. It may be omitted and simply expressed as “the control unit 30 causes the display unit 10 to display a desired image”.
  • Sensor 20 is a three-axis acceleration sensor.
  • the sensor 20 detects acceleration of three axes of X, Y, and Z.
  • the control unit 30 can specify the posture and motion state of the image display device 2.
  • the communication I / F 22 is an I / F for executing wireless communication with an external device (for example, a terminal device having a communication function).
  • Display device processing (Display device processing; FIG. 3)
  • display device processing executed by the control unit 30 of the image display device 2 of the present embodiment will be described.
  • the control unit 30 starts the display device processing of FIG.
  • control unit 30 starts real-time processing (see FIG. 5).
  • the control unit 30 repeatedly executes the real-time process until the power of the image display device 2 is turned off.
  • the control unit 30 proceeds to S16.
  • the control unit 30 acquires, from the first camera 12, a first captured image that is an image of a specific range captured by the first camera 12 at the time of S30, and the second The second captured image that is an image in a specific range captured by the second camera 14 at the time of S30 is acquired from the first camera 14. That is, the first captured image and the second captured image acquired in S30 are both real-time captured images corresponding to the current visual field range of the user.
  • the control unit 30 calculates a distance between a specific feature point common to the first captured image and the second captured image and the image display device 2.
  • the “feature point” referred to here is, for example, one of a plurality of feature points included in the spatial information (in the case of YES in S12 of FIG. 3).
  • the distance between the feature point and the image display device 2 is calculated by performing triangulation using the first captured image and the second captured image, as in the above case.
  • control unit 30 determines the distance between the spatial information identified in the case of YES in S12 of FIG. 3 and the feature point calculated in S32, the attitude of the image display device 2 calculated in S34, Is used to specify the position and orientation of the image display device 2 in the space where the image display device 2 exists.
  • control unit 30 generates a globe object image 80 indicating a virtual globe and virtually arranges it at a predetermined position (that is, the right side as viewed from the user) (see FIGS. 7 to 9).
  • the display unit 10 further displays a guide image 90 indicating that the globe object image 80 is virtually arranged on the right side when viewed from the user.
  • control unit 30 When the control unit 30 finishes S22, the control unit 30 returns to S18 and monitors whether the user operation is performed again. Thereby, whenever the user performs a gesture within a specific range or the user performs an operation of changing the direction of the line of sight, the control unit 30 displays the object image and the guide image displayed on the display unit 10 according to the operation. The display position and display mode are changed. The control unit 30 repeatedly executes the processes of S18 to S22 until the end gesture is performed (YES in S20).
  • the display unit 10 is a translucent display, and the user can visually recognize the surroundings through the display unit 10 when the user wears the image display device 2.
  • the control unit 30 causes the display unit 10 to display a screen in which the menu object image 60 is combined with a real image that can be viewed through the display unit 10. Therefore, the user can view a screen in a mode in which the menu object image 60 is combined with an actual field of view that can be viewed through the display unit 10.
  • the control unit 30 displays an image captured by the first camera 12 in a region facing the user's right eye, and displays the image captured in the region facing the user's left eye.
  • the image captured by the second camera 14 is displayed.
  • the control unit 30 may display only one of the image captured by the first camera 12 and the image captured by the second camera 14 on the display unit 10.
  • the control unit may display an image obtained by combining the image captured by the first camera 12 and the image captured by the second camera 14 on the display unit 10.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

制御部30は、第1のカメラ12から取得される第1のキャリブレーション画像と、第1のカメラ12とは異なる位置に設けられる第2のカメラ14から取得される第2のキャリブレーション画像と、に基づいて空間情報を特定し、空間情報と、第1のカメラ12から取得される第1の撮影画像と、第2のカメラ14から取得される第2の撮影画像と、センサ20が検出する画像表示装置2の姿勢とに基づいて、画像表示装置2の周囲の空間内における画像表示装置2の位置及び姿勢を特定する。さらに、制御部30は、空間内の所定位置に対応付けられるオブジェクトを表すオブジェクト画像を生成し、特定範囲に所定位置が含まれる場合に、オブジェクト画像が空間内の所定位置に配置された状態を示す画面を表示部10に表示させる。

Description

画像表示装置
 本明細書によって開示される技術は、ユーザの頭部に装着して用いられる画像表示装置に関する。
 例えば、国際公開第2012/033578号パンフレット(以下、特許文献1という)には、光を用いて物体との物理的距離を測定するカメラシステムが開示されている。このカメラシステムは、照明装置によって、対象の物体に対してパターン化された光(例えば、格子パターン、ドットパターン等の光)を照射する。当該光が物体の表面に照射されると、物体の形状に応じて光のパターンに変形が生じる。可視光カメラによってその変形後のパターンを撮影して分析することにより、カメラシステムと物体との物理的距離を算出する。
 一方、ユーザの頭部に装着して用いられる画像表示装置も知られている。この種の画像表示装置は、ユーザの視界に対応する範囲の画像(即ち、現実画像)を表示する表示部と、表示部に表示される画像に関連するオブジェクトを表すオブジェクト画像を表示部に表示されている現実画像に合成して表示させるコンピュータと、を備える。このように、人間が知覚する現実世界をコンピュータによって増強及び拡張する技術は、拡張現実(AR:Augumented Reality)として知られている。
 このような画像表示装置に対して、特許文献1の技術を適用することも想定される。その場合、画像表示装置は特許文献1の照明装置及び可視光カメラを備える。そして、画像表示装置は、照射装置によって周囲の物体に対してパターン化された光を照射し、可視光カメラによって周囲の物体に照射された光のパターン(即ち変形後のパターン)を撮影し、コンピュータで分析する。これによって、コンピュータは、画像表示装置と周囲の物体との物理的距離を算出し、周囲の空間内における画像表示装置の位置及び姿勢を特定する。この結果、コンピュータは、周囲の空間内における画像表示装置の位置及び姿勢の情報を利用して、表示部の適切な場所にオブジェクト画像を表示させ得る。
 しかしながら、特許文献1の技術を画像表示装置に適用した場合であっても、照明装置が照射する光が他の光源からの光(例えば、太陽光、室内照明の光等)の影響を受ける場合があり、周囲の物体との物理的距離が適切に算出されず、周囲の空間内における画像表示装置の位置及び姿勢を適切に特定できないおそれがある。
 本明細書では、周囲の空間内における画像表示装置の位置及び姿勢を適切に特定することができる技術を開示する。
 本明細書によって開示される画像表示装置は、ユーザの頭部に装着して用いられる。画像表示装置は、表示部と、ユーザの視界範囲に対応する特定範囲を撮影する第1のカメラと、第1のカメラとは異なる位置に設けられるとともに、特定範囲を撮影する第2のカメラと、画像表示装置の姿勢を検出可能なセンサと、制御部と、を有している。制御部は、第1のカメラから取得される第1のキャリブレーション画像と、第2のカメラから取得される第2のキャリブレーション画像と、に基づいて、画像表示装置の周囲の空間の特徴を特定するための空間情報を特定し、空間情報と、第1のカメラから取得される第1の撮影画像と、第2のカメラから取得される第2の撮影画像と、センサが検出する画像表示装置の姿勢と、に基づいて、空間内における画像表示装置の位置及び姿勢を特定し、空間内の所定位置に対応付けられるオブジェクトを表すオブジェクト画像を生成し、特定範囲に所定位置が含まれる第1の場合に、オブジェクト画像が空間内の所定位置に配置された状態を示す第1のディスプレイ画面を表示部に表示させる。
 上記の構成によると、画像表示装置は、第1のカメラから取得される第1のキャリブレーション画像と、第1のカメラとは異なる位置に設けられる第2のカメラから取得される第2のキャリブレーション画像と、に基づいて空間情報を特定し、空間情報と、第1のカメラから取得される第1の撮影画像と、第2のカメラから取得される第2の撮影画像と、センサが検出する画像表示装置の姿勢と、に基づいて、空間内における画像表示装置の位置及び姿勢を特定する。第1のキャリブレーション画像、第2のキャリブレーション画像、第1の撮影画像、第2の撮影画像、センサが検出する画像表示装置の姿勢、のいずれの要素も、画像表示装置の周囲の環境の変化の影響を受けにくい。そのため、上記の構成によると、画像表示装置は、周囲の空間内における自機の位置及び姿勢を適切に特定することができる。
 ここで、「第1の撮影画像」は、第1のキャリブレーション画像と同じ画像であっても、異なる画像であってもよい。同様に、「第2の撮影画像」は、第2のキャリブレーション画像と同じ画像であっても、異なる画像であってもよい。「オブジェクト画像」は、静止画、動画のどちらの画像も含む。
 なお、上記の画像表示装置を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能記録媒体も、新規で有用である。
第1実施例の画像表示装置の外観を示す。 図1の画像表示装置の構成を示す。 表示装置処理のフローチャートを示す。 キャリブレーション画面の例を示す。 リアルタイム処理の例を示す。 メニューオブジェクト画像の例を示す。 メニューオブジェクト画像とともにガイド画像が表示される例を示す。 空間内における各オブジェクトの表示位置の例を仮想的に示す。 地球儀オブジェクト画像とともにガイド画像が表示される例を示す。 第2実施例の画像表示装置の外観を示す。
 以下に説明する実施例の主要な特徴を列記しておく。なお、以下に記載する技術要素は、それぞれ独立した技術要素であって、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。
(特徴1)制御部は、さらに、表示部に第1のディスプレイ画面が表示されている間に、ユーザが行う操作に応じて、第1のディスプレイ画面内におけるオブジェクト画像の表示態様を変更してもよい。
 この構成によると、第1のディスプレイ画面内のオブジェクト画像を、ユーザが行う操作に応じて適切な態様で表示することができる。
(特徴2)操作は、ユーザが特定範囲内で行うジェスチャーを含んでもよい。
 この構成によると、ユーザは、入力キー等の入力手段を操作することなく、自分の体を動かしてジェスチャーを行うことで、第1のディスプレイ画面内のオブジェクト画像を、ユーザが行う操作に応じて適切な態様で表示させることができる。ユーザは、自分の感覚に従って、オブジェクト画像の表示態様を変更することができる。
(特徴3)表示部は、透光性のディスプレイであって、ユーザが画像表示装置を装着した際に、ユーザが表示部越しに周囲を視認できるものであってもよい。制御部は、第1の場合に、表示部にオブジェクト画像を表示させることによって、第1のディスプレイ画面を表示部に表示させてもよい。
 この構成によると、ユーザは、表示部越しに視認できる現実の視界にオブジェクト画像が合成された態様の第1のディスプレイ画面を見ることができる。
(特徴4)表示部は遮光性のディスプレイであって、ユーザが画像表示装置を装着した際に、ユーザの視界を遮るものであってもよい。制御部は、第1の撮影画像と第2の撮影画像の少なくとも一方を表示部に表示させ、第1の場合に、表示部に第1の撮影画像と第2の撮影画像の少なくとも一方とともにオブジェクト画像を表示させることによって、第1のディスプレイ画面を表示部に表示させてもよい。
 この構成によると、ユーザは、第1の撮影画像と第2の撮影画像の少なくとも一方の撮影画像にオブジェクト画像が合成された態様の第1のディスプレイ画面を見ることができる。
(特徴5)制御部は、特定範囲に所定位置が含まれない第2の場合に、所定位置の方向を示すガイド画像を含む第2のディスプレイ画面を表示部に表示させてもよい。
 この構成によると、ユーザは、ガイド画像を見ることによってオブジェクト画像が表示される所定位置を把握することができる。
(第1実施例)
(画像表示装置2の構成;図1、図2)
 図1に示す画像表示装置2は、ユーザの頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。画像表示装置2は、支持体4と、表示部10a、10bと、投影部11a、11bと、第1のカメラ12と、第2のカメラ14と、コントロールボックス16とを備えている。
 支持体4は、眼鏡フレーム状の部材である。ユーザは、眼鏡を装着するように支持体4を装着することによって、画像表示装置2を頭部に装着することができる。
 表示部10a、10bは、それぞれ、透光性の表示部材である。ユーザが画像表示装置2を頭部に装着すると、ユーザの右眼に対向する位置に表示部10aが配置され、左眼に対向する位置に表示部10bが配置される。以下、左右の表示部10a、10bを総称して表示部10と呼ぶ場合がある。本実施例では、ユーザは、表示部10越しに周囲を視認することができる。
 投影部11a、11bは、表示部10a、10bに画像を投影する部材である。投影部11a、11bは、表示部10a、10bの側部に設けられている。以下、左右の投影部11a、11bを総称して投影部11と呼ぶ場合がある。本実施例では、投影部11は、制御部30の指示に従って、所定のオブジェクト画像を表示部10に投影する。これにより、ユーザは、表示部10越しにユーザが視認可能な現実世界の対象物又は/及び空間の所定の位置に、上記オブジェクト画像が合成されたかの様に、現実世界の対象物又は/及び空間とオブジェクト画像とを見ることができる。以下、本明細書では、制御部30が、投影部11に画像の投影を指示することによって、表示部10に所望の画面を表示させることを説明する場合に、投影部11の動作の説明を省略し、単に「制御部30が表示部10に所望の画像を表示させる」などと表現する場合がある。
 第1のカメラ12は、支持体4のうち、表示部10aの上方位置(即ち、ユーザの右眼に対応する位置)に配置されているカメラである。一方、第2のカメラ14は、支持体4のうち、表示部10bの上方位置(即ち、ユーザの左眼に対応する位置)に配置されているカメラである。第1のカメラ12と第2のカメラ14のそれぞれによって、画像表示装置2を装着するユーザの視界範囲に対応する範囲(以下では「特定範囲」と呼ぶ)を異なる角度から撮影することができる。
 コントロールボックス16は、支持体4の一部に取り付けられている箱体である。コントロールボックス16には、画像表示装置2の制御系統を司る各要素が収容されている。具体的に言うと、図2に示すように、コントロールボックス16には、センサ20と、通信インターフェース22と、制御部30と、メモリ32とが収納されている。以下では、インターフェースのことを「I/F」と記載する。
 センサ20は、3軸加速度センサである。センサ20は、X,Y,Zの3軸の加速度を検出する。センサ20の検出値を用いて、制御部30は、画像表示装置2の姿勢、及び、運動状態を特定することができる。
 通信I/F22は、外部の装置(例えば、通信機能を有する端末装置)と無線通信を実行するためのI/Fである。
 制御部30は、メモリ32に記憶されているプログラムに従って様々な処理を実行する。制御部30が実行する処理の内容は後で詳しく説明する。また、制御部30は、図2に示すように、表示部10、投影部11、第1のカメラ12、第2のカメラ14、センサ20、通信I/F22、及び、メモリ32と電気的に接続されており、これらの各要素の動作を制御することができる。
 メモリ32は、様々なプログラムを記憶している。また、メモリ32は、制御部30の処理(後述の表示装置処理(図3)等)に伴って生成される様々な情報を記憶する領域も有している。
(表示装置処理;図3)
 図3を参照して、本実施例の画像表示装置2の制御部30が実行する表示装置処理について説明する。ユーザが画像表示装置2を自身の頭部に装着し、画像表示装置2の電源をオンすると、制御部30は、図3の表示装置処理を開始する。
 S10では、制御部30は、表示部10に、所定のキャリブレーション画面を表示する。キャリブレーション画面は、ユーザにキャリブレーションを行わせるための画面である。ここで、「キャリブレーション」は、画像表示装置2の周囲の空間の特徴を特定するための空間情報(即ちキャリブレーションデータ)を特定するための処理である。また、「画像表示装置2の周囲の空間の特徴」は、例えば、画像表示装置2が室内に存在する場合、壁と自機との距離、壁の方向、天井と自機との距離、天井の高さ、床の面積、家具類の位置、家具類との距離等、室内空間を特徴づけるための各種情報を含む。一方、例えば、画像表示装置2が屋外に存在する場合、「画像表示装置2の周囲の空間の特徴」は、周囲の目標物との距離等、自機の周囲の空間を特徴づけるための各種情報を含む。
 図4にキャリブレーション画面の例を示す。図4の例に示すように、キャリブレーションリブレーション画面には、ポインタPと、ポインタを視線で追うようにユーザに促すためのメッセージが含まれている。制御部30は、ユーザがポインタPを視線で追うことにより、画像表示装置2の周囲の空間を全て視界に入れられるように、表示部10内でポインタPを動かす。
 続くS12では、制御部30は、空間情報の特定が完了することを監視する。上記の通り、S10で表示部10にキャリブレーション画面(図4参照)が表示された後に、ユーザがポインタPを視線で追う動作を行う(即ち、ユーザがポインタPの動きに合わせて頭部を動かす)ことにより、第1のカメラ12及び第2のカメラ14によって周囲の空間の各方向が撮影される。この際、制御部30は、第1のカメラ12から、第1のカメラ12によって撮影された特定範囲(即ち、ユーザの視界範囲に対応する範囲)の画像である第1のキャリブレーション画像を取得するとともに、第2のカメラ14から、第2のカメラ14によって撮影された特定範囲の画像である第2のキャリブレーション画像とを取得する。制御部30は、第1のキャリブレーション画像と第2のキャリブレーション画像とに共通する特徴点を特定し、三角測量を行うことによって、特徴点と画像表示装置2との間の距離を算出することができる。さらに、制御部30は、ポインタPの初期位置の座標を基準とする上記特徴点の位置の座標を特定することもできる。制御部30は、画像表示装置2の周囲の全方向に存在する複数個の特徴点のそれぞれについて、同様の処理を実行する。制御部30は、画像表示装置2の周囲の全方向に存在する複数個の特徴点のそれぞれについて、当該特徴点との距離と当該特徴点の座標を特定した場合、S12でYESと判断してS14に進む。即ち、S12における「画像表示装置2の周囲の空間の特徴を特定するための空間情報」は、各特徴点との距離と各特徴点の座標とを意味する。
 S14では、制御部30は、リアルタイム処理(図5参照)を開始する。S14でリアルタイム処理が開始されると、制御部30は、画像表示装置2の電源がオフされるまで、リアルタイム処理を繰り返し実行する。制御部30は、S14でリアルタイム処理を開始すると、S16に進む。以下、図5を参照して、リアルタイム処理の内容を説明する。
(リアルタイム処理;図5)
 図5のS30では、制御部30は、第1のカメラ12から、S30の時点で第1のカメラ12によって撮影されている特定範囲の画像である第1の撮影画像を取得するとともに、第2のカメラ14から、S30の時点で第2のカメラ14によって撮影されている特定範囲の画像である第2の撮影画像とを取得する。即ち、S30で取得される第1の撮影画像及び第2の撮影画像は、いずれも、ユーザの現時点の視界範囲に相当するリアルタイムの撮影画像である。
 続くS32では、制御部30は、第1の撮影画像と第2の撮影画像とに共通する特定の特徴点と画像表示装置2との間の距離を算出する。ここで言う「特徴点」は、例えば、空間情報(図3のS12でYESの場合)に含まれる複数個の特徴点のうちの1つである。特徴点と画像表示装置2との間の距離は、上記の場合と同様に、第1の撮影画像と第2の撮影画像を用いて三角測量を行うことによって算出される。
 続くS34では、制御部30は、センサ20の検出値に基づいて、この時点での画像表示装置2の姿勢を算出する。具体的には、制御部30は、センサ20の検出値(即ち、X軸、Y軸、Z軸の各軸方向の加速度)に基づいて、重力方向を0°とした場合のX軸、Y軸、Z軸の傾斜角(θx、θy、θz)を算出し、それらの傾斜角に基づいて、S10の時点における画像表示装置2の姿勢(即ち、水平面に対する傾き)を算出する。
 続くS36では、制御部30は、図3のS12でYESの場合に特定された空間情報と、S32で算出された特徴点との距離と、S34で算出された画像表示装置2の姿勢と、を用いて、画像表示装置2が存在する空間内における画像表示装置2の位置及び姿勢を特定する。
 S36を終えると、制御部30は、S30に戻り、S30~S36の各処理を繰り返し実行する。即ち、制御部30は、S30~S36の処理を繰り返し実行することにより、画像表示装置2が存在する空間内における画像表示装置2の位置及び姿勢をリアルタイムで特定することができる。
(表示装置処理の続き;図3のS16以降)
 上記の通り、制御部30は、図3のS14でリアルタイム処理(図5参照)を開始すると、S16に進む。S16では、制御部30は、メインメニューオブジェクトを表すメニューオブジェクト画像を生成し、所定位置に対応付ける。言い換えると、制御部30は、メニューオブジェクト画像を生成し、所定位置に仮想的に配置する。ここで、「メニューオブジェクト画像を所定位置に仮想的に配置する」とは、特定範囲(即ち、第1のカメラ12及び第2のカメラ14の撮像範囲)に所定位置が含まれる場合に、メニューオブジェクト画像が空間内の所定位置に配置された状態の画面が表示部10に表示されるように、メニューオブジェクト画像を所定位置に対応付けることを意味する。なお、S16では、制御部30は、ユーザの視界の正面の位置を所定位置として指定して、メニューオブジェクト画像を仮想的に配置する。そのため、S16の処理の時点では、特定範囲(即ちユーザの視界範囲)に所定位置が含まれる。そのため、図6に示すように、表示部10には、メニューオブジェクトを示すメニューオブジェクト画像60が空間内に配置された状態の画面が表示される。本実施例では、表示部10は透光性のディスプレイであるため、ユーザは、表示部10越しに視認できる現実の物品(即ち、室内の光景)にメニューオブジェクト画像60が合わされた態様の表示を見ることができる。
 図6に示すように、メニューオブジェクト画像60は、メインメニューを表している。メニューオブジェクト画像60は、選択可能な6個のアイコン62~72が表示されている。各アイコンは、各アプリケーションに対応している。例えば、アイコン62はメールアプリを示し、アイコン64は映画アプリを示し、アイコン66はブラウザアプリを示し、アイコン68は写真アプリを示し、アイコン70はバーチャル地球儀アプリを示し、アイコン72は音楽アプリを示す。ユーザは、特定範囲内で所望のアイコンにタッチするジェスチャーを行うことにより、所望のアイコンに対応するアプリケーションを起動させることができる。
 続くS18では、制御部30は、特定範囲内におけるユーザの操作を検出することを監視する。ここで、「特定範囲内におけるユーザの操作」は、ユーザがメニューオブジェクト画像等のオブジェクト画像に対して行うジェスチャー(例えば、画像の移動やサイズ変更を指示するジェスチャー、画像の表示の終了を指示するジェスチャー、アイコンを選択するジェスチャー、画像表示装置2の電源オフを指示するジェスチャー等)、空間内でのユーザの移動、ユーザの視界方向の変化等、各種の動作を含む。S18では、制御部30は、第1のカメラ12からの第1の撮影画像、第2のカメラ14からの第2の撮影画像、及び、センサ20の検出値に基づいて、特定範囲内でユーザが操作を行ったか否かを判断する。制御部30は、特定範囲内でユーザが操作を行ったことが検出されると、S18でYESと判断し、S20に進む。
 S20では、制御部30は、ユーザによって行われた操作が、画像表示装置2の電源オフを指示する所定のジェスチャー(以下では「終了ジェスチャー」と呼ぶ)であるか否かを判断する。制御部30は、ユーザによって行われた操作が所定の終了ジェスチャーであると判断すると、S20でYESと判断し、S24に進み、画像表示装置2の電源をオフする。この場合、図3の表示装置処理が終了する。一方、制御部30は、ユーザによって行われた操作が所定の終了ジェスチャー以外の操作であると判断すると、S20でNOと判断し、S22に進む。
 S22では、制御部30は、操作に応じた処理を実行する。例えば、ユーザによって行われた操作が、メニューオブジェクト画像60(図6参照)の表示位置の移動操作である場合、制御部30は、ユーザの操作に従って、メニューオブジェクト画像60の表示位置を変更する。その場合、表示部10には、変更後の位置にメニューオブジェクト画像60が配置された状態の画面が表示される。また、例えば、図6に示すように、ユーザによって行われた操作が、メニューオブジェクト画像60中のバーチャル地球儀アプリのアイコン70を選択する操作(例えば、アイコン70をタッチする操作)である場合、制御部30は、ユーザの操作に従って、バーチャル地球儀アプリを起動させる。その場合、制御部30は、バーチャル地球儀を示す地球儀オブジェクト画像80を生成し、所定位置(即ち、ユーザから見て右側)に仮想的に配置する(図7~図9参照)。この場合、図7に示すように、表示部10には、ユーザから見て右側に地球儀オブジェクト画像80が仮想的に配置されていることを示すガイド画像90がさらに表示される。
 制御部30は、S22を終えると、S18に戻り、再びユーザの操作が行われることを監視する。これにより、ユーザが特定範囲内でジェスチャーを行ったり、ユーザが視線の方向を変えたりする操作を行う毎に、制御部30は、操作に応じて表示部10に表示されるオブジェクト画像、ガイド画像の表示位置及び表示態様を変更する。制御部30は、終了ジェスチャーが行われる(S20でYES)まで、S18~S22の各処理を繰り返し実行する。
 ここで、表示部10に表示される画面の変遷についてさらに詳しく説明する。上記の図7の例では、表示部10には、メニューオブジェクト画像60に加えて、ユーザから見て右側に地球儀オブジェクト画像80が仮想的に配置されていることを示すガイド画像90が表示されている。図8は、この状況におけるメニューオブジェクト画像60の配置位置と、地球儀オブジェクト画像80の配置位置の空間内における位置関係を模式的に示す。図8に示すように、表示部10に図7の画面が表示されている間は、ユーザの視界範囲に相当する特定範囲SAには、メニューオブジェクト画像60の配置位置のみが含まれ、地球儀オブジェクト画像80の配置位置は含まれていない。また、地球儀オブジェクト画像80の配置位置は、ユーザの位置から見て右側である。ユーザが右側に視線を向けて、特定範囲SBに地球儀オブジェクト画像80の配置位置が含まれると(図5のS18でYES)、図9に示すように、表示部10には、地球儀オブジェクト画像80と、ユーザから見て左側にメニューオブジェクト画像60が仮想的に配置されていることを示すガイド画像92が表示される(S22)。
 以上、本実施例の画像表示装置2の構成及び動作について説明した。上記の通り、本実施例では、制御部30は、第1のカメラ12から取得される第1のキャリブレーション画像と、第1のカメラ12とは異なる位置に設けられる第2のカメラ14から取得される第2のキャリブレーション画像と、に基づいて空間情報を特定し(図3のS12でYES)、その後、空間情報と、第1のカメラ12から取得される第1の撮影画像と、第2のカメラ14から取得される第2の撮影画像と、センサ20が検出する画像表示装置2の姿勢とに基づいて、画像表示装置2の周囲の空間内における画像表示装置2の位置及び姿勢を特定する(図5のS36)。第1のキャリブレーション画像、第2のキャリブレーション画像、第1の撮影画像、第2の撮影画像、センサ20が検出する画像表示装置2の姿勢、のいずれの要素も、画像表示装置2の周囲の環境(例えば、光量等)の変化の影響を受けにくい。そのため、上記の構成によると、画像表示装置2は、周囲の空間内における自機の位置及び姿勢を適切に特定することができる。そのため、本実施例の画像表示装置2によると、適切に特定された自機の位置及び姿勢の情報を利用して、表示部10の適切な場所にオブジェクト画像(例えば、メニューオブジェクト画像60)を表示させることができる(図6参照)。
 また、本実施例では、制御部30は、表示部10にメニューオブジェクト画像60が空間内に配置された状態の画面が表示されている間(図6参照)に、ユーザが行う操作(例えば、表示位置の変更指示等)に応じて、メニューオブジェクト画像60の表示態様を変更することができる。そのため、画面内のメニューオブジェクト画像60を、ユーザが行う操作に応じて適切な態様で表示することができる。また、上記の操作は、ユーザが特定範囲内で行うジェスチャーを含む。そのため、ユーザは、入力キー等の入力手段を操作することなく、自分の体を動かしてジェスチャーを行うことで、表示部10に表示されている画面内のメニューオブジェクト画像60を、ユーザが行う操作に応じて適切な態様で表示させることができる。ユーザは、自分の感覚に従って、メニューオブジェクト画像60の表示態様を変更することができる。
 また、本実施例では、表示部10は、透光性のディスプレイであって、ユーザが画像表示装置2を装着した際に、ユーザが表示部10越しに周囲を視認できるものである。図3のS16では、制御部30は、表示部10越しに視認できる現実画像にメニューオブジェクト画像60が合成された態様の画面を表示部10に表示させる。そのため、ユーザは、表示部10越しに視認できる現実の視界にメニューオブジェクト画像60が合成された態様の画面を見ることができる。
 また、本実施例では、制御部30は、ユーザの視界範囲に対応する特定範囲に、地球儀オブジェクト画像80の配置位置が含まれない場合には、図7に示すように、地球儀オブジェクト画像80の配置位置の方向を示すガイド画像90を含む画面を表示部10に表示させる。即ち、ユーザは、ガイド画像90を見ることによって地球儀オブジェクト画像80が表示される位置を把握することができる。
(対応関係)
 図6に示されている表示部10越しに視認できる現実画像にメニューオブジェクト画像60が合成された態様の画面が「第1のディスプレイ画面」の一例である。メニューオブジェクト画像60が「オブジェクト画像」の一例である。メニューオブジェクト画像60が仮想的に配置される位置が「所定位置」の一例である。また、図9に示されているガイド画像92を含む画面が「第2のディスプレイ画面」の一例である。
(第2実施例)
 図10を参照して、第2実施例の画像表示装置102について、第1実施例と異なる点を中心に説明する。本実施例では、表示部110が遮光性のディスプレイであって、ユーザが画像表示装置2を装着した際に、ユーザの視界を遮るものである点において、第1実施例とは異なる。その他の構成要素は第1実施例とほぼ同様である。
 上記の通り、本実施例では、表示部110が遮光性のディスプレイであるため、画像表示装置2の電源がオンされると、制御部30は、ユーザの右眼に対向する領域に第1のカメラ12が撮影する画像を表示させ、ユーザの左眼に対向する領域に第2のカメラ14が撮影する画像を表示させる。そして、例えば、特定範囲にメニューオブジェクト画像60の配置位置が含まれる場合に、制御部30は、第1の撮影画像及び第2の撮影画像に、メニューオブジェクト画像60を合成した画面を表示部10に表示させる。
 以上、実施例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。
(変形例1)上記の第2実施例では、制御部30は、ユーザの右眼に対向する領域に第1のカメラ12が撮影する画像を表示させ、ユーザの左眼に対向する領域に第2のカメラ14が撮影する画像を表示させる。これに限られず、制御部30は、表示部10に、第1のカメラ12が撮影する画像と第2のカメラ14が撮影する画像のうちの一方のみを表示してもよい。また、制御部は、表示部10に、第1のカメラ12が撮影する画像と第2のカメラ14が撮影する画像とを合成した画像を表示してもよい。
(変形例2)上記の各実施例では、図3のS18において、制御部30は、特定範囲内におけるユーザの操作を検出することを監視するが、ここに言う「ユーザの操作」は、ユーザがメニューオブジェクト画像等のオブジェクト画像に対して行うジェスチャー、空間内でのユーザの移動、ユーザの視界方向の変化等に限られず、ユーザが入力手段(入力キー等)を介して入力する操作を含んでもよい。その場合、画像表示装置2は入力手段をさらに有していてもよい。
(変形例3)上記の各実施例では、制御部30は、キャリブレーションを実行した後に(図3のS10、S12でYES)、リアルタイム処理(S14)を開始する。これに限られず、制御部30は、キャリブレーションの実行とともにリアルタイム処理を開始してもよい。「第1のキャリブレーション画像」と「第1の撮影画像」は、双方とも第1のカメラ(撮像装置)で撮像された画像ということを意味し、「第1のキャリブレーション画像」と「第1の撮影画像」は同一の画像であってもよい。同様に「第2のキャリブレーション画像」と「第2の撮影画像」は同一の画像であってもよい。また、リアルタイム処理の途中等で、キャリブレーションを再度実行しても良い。例えば、ユーザが画像表示装置2の装着位置を変更した場合(即ち、画像表示装置2を頭部から一旦外して再度装着した場合)に、キャリブレーションを再度実行してもよい。
(変形例4)上記の各実施例では、画像表示装置2、102は、いずれも、略眼鏡状の支持枠を有しており、眼鏡を装着するようにユーザの頭部に装着可能なものである。これに限られず、画像表示装置は、ユーザの頭部に装着可能であれば、帽子状、ヘルメット状等、任意の支持枠を有していてもよい。
(変形例5)画像表示装置は、視力矯正、目の保護等の用途のために一般的に使用されているアイウェア(眼鏡、サングラス等)に、第1のカメラ12、第2のカメラ14、及び、コントロールボックス16を装着することによって形成されてもよい。その場合、アイウェアのレンズ部分が表示部として利用されてもよい。
(変形例6)上記の各実施例では、メニューオブジェクト画像60(図6)等の各種オブジェクト画像はいずれも静止画像として表示されている。これに限られず、各種オブジェクト画像は動画(即ち、少なくとも一部がアニメーション動作する画像)として表示されてもよい。
 また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。

Claims (6)

  1.  ユーザの頭部に装着して用いられる画像表示装置であって、
     表示部と、
     前記ユーザの視界範囲に対応する特定範囲を撮影する第1のカメラと、
     前記第1のカメラとは異なる位置に設けられるとともに、前記特定範囲を撮影する第2のカメラと、
     前記画像表示装置の姿勢を検出可能なセンサと、
     制御部と、
     を有しており、
     前記制御部は、
      前記第1のカメラから取得される第1のキャリブレーション画像と、前記第2のカメラから取得される第2のキャリブレーション画像と、に基づいて、前記画像表示装置の周囲の空間の特徴を特定するための空間情報を特定し、
      前記空間情報と、前記第1のカメラから取得される第1の撮影画像と、前記第2のカメラから取得される第2の撮影画像と、前記センサが検出する前記画像表示装置の姿勢と、に基づいて、前記空間内における前記画像表示装置の位置及び姿勢を特定し、
      前記空間内の所定位置に対応付けられるオブジェクトを表すオブジェクト画像を生成し、
      前記特定範囲に前記所定位置が含まれる第1の場合に、前記オブジェクト画像が前記空間内の前記所定位置に配置された状態を示す第1のディスプレイ画面を前記表示部に表示させる、
     画像表示装置。
  2.  前記制御部は、さらに、
     前記表示部に前記第1のディスプレイ画面が表示されている間に、前記ユーザが行う操作に応じて、前記第1のディスプレイ画面内における前記オブジェクト画像の表示態様を変更する、
     請求項1に記載の画像表示装置。
  3.  前記操作は、前記ユーザが前記特定範囲内で行うジェスチャーを含む、
     請求項2に記載の画像表示装置。
  4.  前記表示部は、透光性のディスプレイであって、前記ユーザが前記画像表示装置を装着した際に、前記ユーザが前記表示部越しに周囲を視認できるものであり、
     前記制御部は、前記第1の場合に、前記表示部に前記オブジェクト画像を表示させることによって、前記第1のディスプレイ画面を前記表示部に表示させる、
     請求項1から3のいずれか一項に記載の画像表示装置。
  5.  前記表示部は遮光性のディスプレイであって、前記ユーザが前記画像表示装置を装着した際に、前記ユーザの視界を遮るものであり、
     前記制御部は、
      前記第1の撮影画像と前記第2の撮影画像の少なくとも一方を前記表示部に表示させ、
      前記第1の場合に、前記表示部に前記第1の撮影画像と前記第2の撮影画像の少なくとも一方とともに前記オブジェクト画像を表示させることによって、前記第1のディスプレイ画面を前記表示部に表示させる、
     請求項1から3のいずれか一項に記載の画像表示装置。
  6.  前記制御部は、前記特定範囲に前記所定位置が含まれない第2の場合に、前記所定位置の方向を示すガイド画像を含む第2のディスプレイ画面を前記表示部に表示させる、
     請求項1から5のいずれか一項に記載の画像表示装置。
PCT/JP2016/050670 2016-01-12 2016-01-12 画像表示装置 WO2017122270A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2016/050670 WO2017122270A1 (ja) 2016-01-12 2016-01-12 画像表示装置
US16/069,382 US20190019308A1 (en) 2016-01-12 2016-01-12 Image display device
JP2017561085A JPWO2017122270A1 (ja) 2016-01-12 2016-01-12 画像表示装置
EP16884873.7A EP3404623A4 (en) 2016-01-12 2016-01-12 IMAGE DISPLAY DEVICE
CN201680078579.0A CN108541323A (zh) 2016-01-12 2016-01-12 图像显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/050670 WO2017122270A1 (ja) 2016-01-12 2016-01-12 画像表示装置

Publications (1)

Publication Number Publication Date
WO2017122270A1 true WO2017122270A1 (ja) 2017-07-20

Family

ID=59312007

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050670 WO2017122270A1 (ja) 2016-01-12 2016-01-12 画像表示装置

Country Status (5)

Country Link
US (1) US20190019308A1 (ja)
EP (1) EP3404623A4 (ja)
JP (1) JPWO2017122270A1 (ja)
CN (1) CN108541323A (ja)
WO (1) WO2017122270A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3627208A1 (en) * 2018-09-18 2020-03-25 Samsung Electronics Co., Ltd. Electronic device having optical member for adjusting permeation rate of light and method for operating thereof

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180037887A (ko) * 2016-10-05 2018-04-13 엠티스코퍼레이션(주) 스마트 안경
US11749142B2 (en) 2018-12-04 2023-09-05 Telefonaktiebolaget Lm Ericsson (Publ) Optical see-through viewing device and method for providing virtual content overlapping visual objects
KR102232045B1 (ko) 2019-01-08 2021-03-25 삼성전자주식회사 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체.
KR20210014813A (ko) 2019-07-30 2021-02-10 삼성디스플레이 주식회사 표시장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212582A (ja) * 2008-02-29 2009-09-17 Nippon Hoso Kyokai <Nhk> バーチャルスタジオ用フィードバックシステム
JP2015114905A (ja) * 2013-12-12 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2015114757A (ja) * 2013-12-10 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2015192436A (ja) * 2014-03-28 2015-11-02 キヤノン株式会社 送信端末、受信端末、送受信システム、およびそのプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111394B1 (en) * 2011-08-03 2015-08-18 Zynga Inc. Rendering based on multiple projections
US9147111B2 (en) * 2012-02-10 2015-09-29 Microsoft Technology Licensing, Llc Display with blocking image generation
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US9411160B2 (en) * 2013-02-12 2016-08-09 Seiko Epson Corporation Head mounted display, control method for head mounted display, and image display system
WO2014162852A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US9430038B2 (en) * 2014-05-01 2016-08-30 Microsoft Technology Licensing, Llc World-locked display quality feedback

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212582A (ja) * 2008-02-29 2009-09-17 Nippon Hoso Kyokai <Nhk> バーチャルスタジオ用フィードバックシステム
JP2015114757A (ja) * 2013-12-10 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2015114905A (ja) * 2013-12-12 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2015192436A (ja) * 2014-03-28 2015-11-02 キヤノン株式会社 送信端末、受信端末、送受信システム、およびそのプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP3404623A4 *
YOSHIHIRO BAN ET AL.: "A Study of Visual Navigating for Wearable Augmented Reality System : An Astronomical Observation Supporting System based on Wearable Augmented Reality Technology", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 6, no. 2, 30 June 2001 (2001-06-30), pages 89 - 98, XP055400239, ISSN: 1344-011X *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3627208A1 (en) * 2018-09-18 2020-03-25 Samsung Electronics Co., Ltd. Electronic device having optical member for adjusting permeation rate of light and method for operating thereof

Also Published As

Publication number Publication date
US20190019308A1 (en) 2019-01-17
CN108541323A (zh) 2018-09-14
JPWO2017122270A1 (ja) 2018-10-11
EP3404623A4 (en) 2019-08-07
EP3404623A1 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
CN112926428B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
CN107209386B (zh) 增强现实视野对象跟随器
KR20230074780A (ko) 검출된 손 제스처들에 응답한 터치리스 포토 캡처
CN116719413A (zh) 用于操纵环境中的对象的方法
WO2017122270A1 (ja) 画像表示装置
KR20230016209A (ko) 포지션 추적을 사용한 인터랙티브 증강 현실 경험들
US20210405772A1 (en) Augmented reality eyewear 3d painting
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
KR20230017849A (ko) 증강 현실 안내
WO2017122274A1 (ja) 画像表示装置
KR20230026502A (ko) 3d 의상들을 갖는 증강 현실 안경류
KR20230022239A (ko) 증강 현실 환경 향상
CN110895433A (zh) 用于增强现实中用户交互的方法和装置
US20240045494A1 (en) Augmented reality with eyewear triggered iot
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20230007227A1 (en) Augmented reality eyewear with x-ray effect
WO2021059369A1 (ja) アニメーション制作システム
WO2021059360A1 (ja) アニメーション制作システム
CN112262373A (zh) 基于视图的断点
JP6941130B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
KR20230112729A (ko) 증강 현실 공간 오디오 경험
WO2021059370A1 (ja) アニメーション制作システム
KR20240050437A (ko) 증강 현실 프로프 상호작용
KR20240056558A (ko) 핸드크래프티드 증강 현실 경험들
WO2024064932A1 (en) Methods for controlling and interacting with a three-dimensional environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16884873

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017561085

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016884873

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016884873

Country of ref document: EP

Effective date: 20180813