WO2023176165A1 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
WO2023176165A1
WO2023176165A1 PCT/JP2023/002432 JP2023002432W WO2023176165A1 WO 2023176165 A1 WO2023176165 A1 WO 2023176165A1 JP 2023002432 W JP2023002432 W JP 2023002432W WO 2023176165 A1 WO2023176165 A1 WO 2023176165A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
display
image
glasses
predetermined
Prior art date
Application number
PCT/JP2023/002432
Other languages
French (fr)
Japanese (ja)
Inventor
桃子 阿部
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2023176165A1 publication Critical patent/WO2023176165A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

According to the present invention, a display control unit causes a virtual object to be displayed in a display region of AR glasses. An image acquiring unit acquires a first captured image including a range of real space viewed through the display region by a user wearing the AR glasses. An object detecting unit detects a prescribed object appearing in the first captured image. The AR glasses are configured to reduce light in a prescribed wavelength band among light incident on the display region. The display control unit causes a partial image representing a part of the first captured image corresponding to the prescribed object to be displayed in a position in the display region in which the user views the prescribed object.

Description

情報処理装置information processing equipment
 本発明は、情報処理装置に関する。 The present invention relates to an information processing device.
 従来、ユーザの周囲の明るさの調整、または、ブルーライトなどの特定の波長の光の透過率の低減等を目的とした製品が開発されている。例えば、下記特許文献1には、ポリウレタンからなる保護層、透明基材フィルム、ブルーライトカット層、粘着剤層の四層が、この順に積層された表面保護フィルムが開示されている。 Conventionally, products have been developed for the purpose of adjusting the brightness around a user or reducing the transmittance of light of a specific wavelength such as blue light. For example, Patent Document 1 listed below discloses a surface protection film in which four layers are laminated in this order: a protective layer made of polyurethane, a transparent base film, a blue light cutting layer, and an adhesive layer.
特許6992063号公報Patent No. 6992063
 近年、AR(Augmented Reality)、VR(virtual reality)およびMR(Mixed Reality)に代表されるXR技術を適用したXRグラスが普及している。例えば特許文献1のような表面保護フィルムをXRグラスに貼付すると、ユーザの視野全体が暗くなり、視野範囲内の物体が見えづらくなる可能性がある。 In recent years, XR glasses that apply XR technology represented by AR (Augmented Reality), VR (Virtual Reality), and MR (Mixed Reality) have become popular. For example, when a surface protection film such as that disclosed in Patent Document 1 is attached to XR glasses, the user's entire visual field becomes dark, and objects within the visual field may become difficult to see.
 本発明の目的は、ユーザの視野を遮ることなくXRグラスに入射した光を制御することにある。 An object of the present invention is to control the light incident on the XR glasses without blocking the user's field of view.
 本発明の一態様に係る情報処理装置は、シースルー型ヘッドマウントディスプレイの表示領域に仮想オブジェクトを表示させる表示制御部と、前記シースルー型ヘッドマウントディスプレイを装着したユーザが、前記表示領域を通して視認する現実空間の範囲を含む撮像画像を撮像装置から取得する画像取得部と、前記撮像画像に写る所定の物体を検出する物体検出部と、を備え、前記シースルー型ヘッドマウントディスプレイは、前記表示領域への入射光のうち所定の波長帯の光を低減するように構成され、前記表示制御部は、前記撮像画像のうち前記所定の物体の部分を表す部分画像を、前記表示領域のうち、前記ユーザが前記所定の物体を視認する位置に表示させる。 An information processing device according to one aspect of the present invention includes a display control unit that displays a virtual object in a display area of a see-through head-mounted display, and a virtual object that a user wearing the see-through head-mounted display visually recognizes through the display area. The see-through head-mounted display includes an image acquisition unit that acquires a captured image including a spatial range from an imaging device, and an object detection unit that detects a predetermined object appearing in the captured image. The display control unit is configured to reduce light in a predetermined wavelength band among the incident light, and the display control unit displays a partial image representing a portion of the predetermined object in the captured image when the user The predetermined object is displayed at a position where it can be visually recognized.
 本発明の一態様によれば、ユーザの視野を遮ることなくXRグラスに入射した光を制御することができる。 According to one aspect of the present invention, it is possible to control the light incident on the XR glasses without blocking the user's field of view.
第1実施形態に係る表示システム10の構成を示す図である。FIG. 1 is a diagram showing the configuration of a display system 10 according to a first embodiment. ARグラス30の外観を示す説明図である。3 is an explanatory diagram showing the appearance of AR glasses 30. FIG. ARグラス30の構成を示すブロック図である。3 is a block diagram showing the configuration of AR glasses 30. FIG. 端末装置20の構成を示すブロック図である。2 is a block diagram showing the configuration of a terminal device 20. FIG. 現実空間Rを撮像した第1撮像画像PAの一例を示す図である。FIG. 3 is a diagram showing an example of a first captured image PA of a real space R; ARグラス30を装着したユーザが視認する現実空間Rの一例を示す図である。3 is a diagram illustrating an example of a real space R visually recognized by a user wearing AR glasses 30. FIG. 部分画像PDを表示した場合にユーザが視認する現実空間Rの一例を示す図である。FIG. 3 is a diagram illustrating an example of a real space R that is visually recognized by a user when a partial image PD is displayed. 第2実施形態におけるARグラス30の構成を示すブロック図である。It is a block diagram showing the composition of AR glasses 30 in a second embodiment. 第2実施形態における端末装置20の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a terminal device 20 in a second embodiment. 部分画像PTを表示した場合にユーザが視認する現実空間Rの一例を示す図である。FIG. 3 is a diagram illustrating an example of a real space R that is visually recognized by a user when a partial image PT is displayed. 部分画像PTを表示した場合にユーザが視認する現実空間Rの一例を示す図である。FIG. 3 is a diagram illustrating an example of a real space R that is visually recognized by a user when a partial image PT is displayed. 外縁画像PEを表示した場合にユーザが視認する現実空間Rの一例を示す図である。FIG. 6 is a diagram illustrating an example of a real space R that is visually recognized by a user when an outer edge image PE is displayed.
A.第1実施形態
 以下、本発明の第1実施形態に係る情報処理装置を含む表示システム10の構成について説明する。
A. First Embodiment Hereinafter, the configuration of a display system 10 including an information processing apparatus according to a first embodiment of the present invention will be described.
A-1.システム構成
 図1は、第1実施形態に係る表示システム10の構成を示す図である。表示システム10は、端末装置20と、ARグラス30とを備える。端末装置20は、情報処理装置の一例である。ARグラス30は、シースルー型ヘッドマウントディスプレイの一例である。端末装置20とARグラス30とは互いに通信可能に接続される。端末装置20は、例えばスマートフォン、およびタブレット等の携帯端末装置であることが好適である。
A-1. System Configuration FIG. 1 is a diagram showing the configuration of a display system 10 according to the first embodiment. The display system 10 includes a terminal device 20 and AR glasses 30. The terminal device 20 is an example of an information processing device. The AR glasses 30 are an example of a see-through head mounted display. The terminal device 20 and the AR glasses 30 are connected to be able to communicate with each other. The terminal device 20 is preferably a mobile terminal device such as a smartphone or a tablet.
 表示システム10は、後述のARグラス30を装着したユーザに対して、AR技術を用いて各種情報を提示するシステムである。ここで、AR技術とは、例えば、シースルー型ヘッドマウントディスプレイ等の装置において、現実世界の座標空間に仮想オブジェクトを重ね合わせて表示することで、当該装置を着用したユーザに仮想オブジェクトが示す情報を視認可能とする技術である。なお、ARグラス30においては、仮想オブジェクトが表示されるとともに、例えば音声情報等の他の種類の情報が出力されてもよい。仮想オブジェクトは、例えば静止画像、動画、3DCGモデル、およびテキスト等である。 The display system 10 is a system that uses AR technology to present various information to a user wearing AR glasses 30, which will be described later. Here, AR technology is, for example, in a device such as a see-through head-mounted display, by displaying a virtual object superimposed on the coordinate space of the real world, so that the user wearing the device can receive information shown by the virtual object. This is a technology that makes it visible. Note that in addition to displaying the virtual object, the AR glasses 30 may also output other types of information, such as audio information. The virtual object is, for example, a still image, a moving image, a 3DCG model, text, or the like.
 本実施形態では、仮想オブジェクトが、後述する部分画像PD,PTである場合について説明するが、仮想オブジェクトはこれに限らず、例えば図示しない仮想オブジェクトサーバから提供された仮想オブジェクトデータに基づいて表示されてもよい。この場合、端末装置20は、図示しない広域通信網を介して仮想オブジェクトサーバと互いに通信可能に接続する。端末装置20は、仮想オブジェクトサーバから仮想オブジェクトに対応する仮想オブジェクトデータを受信する。端末装置20は、仮想オブジェクトデータを用いて、ARグラス30に仮想オブジェクトを表示させる。 In this embodiment, a case will be described in which the virtual objects are partial images PD and PT, which will be described later. It's okay. In this case, the terminal device 20 is communicably connected to the virtual object server via a wide area communication network (not shown). The terminal device 20 receives virtual object data corresponding to a virtual object from the virtual object server. The terminal device 20 displays a virtual object on the AR glasses 30 using the virtual object data.
A-2.ARグラス30
 ARグラス30は、ユーザの頭部に装着される眼鏡型のシースルー型ヘッドマウントディスプレイである。ARグラス30は、端末装置20の制御に基づいて、レンズ310A,310Bに仮想オブジェクトを表示させる。なお、シースルー型ヘッドマウントディスプレイとして、例えば、ARグラス30が有する機能と同様の機能を有するゴーグル形状のシースルー型ヘッドマウントディスプレイを用いてもよい。
A-2. AR glasses 30
The AR glasses 30 are glasses-shaped see-through head-mounted displays that are worn on the user's head. The AR glasses 30 display virtual objects on the lenses 310A and 310B under the control of the terminal device 20. Note that as the see-through head-mounted display, for example, a goggle-shaped see-through head-mounted display having the same functions as the AR glasses 30 may be used.
 図2は、ARグラス30の外観を示す説明図である。ARグラス30は、テンプル301,302と、ブリッジ303と、フレーム304,305と、リム306,307と、レンズ310A,310Bと、撮像レンズLENとが外観において視認される。 FIG. 2 is an explanatory diagram showing the appearance of the AR glasses 30. In the AR glasses 30, temples 301 and 302, a bridge 303, frames 304 and 305, rims 306 and 307, lenses 310A and 310B, and an imaging lens LEN are visible from the outside.
 ブリッジ303は、リム306,307を接続する。ブリッジ303には、図3に示される第1撮像装置324を構成する撮像レンズLENが配置されている。 Bridge 303 connects rims 306 and 307. An imaging lens LEN that constitutes the first imaging device 324 shown in FIG. 3 is arranged on the bridge 303.
 フレーム304には、左眼用の表示パネルと左眼用の光学部材が設けられている。フレーム305には、右眼用の表示パネルと右眼用の光学部材が設けられている。左眼用の表示パネルおよび右眼用の表示パネルは、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルである。左眼用の表示パネルおよび右眼用の表示パネルは、例えば、後述する端末装置20からの制御に基づいて、仮想オブジェクトに対応する画像を表示する。左眼用の光学部材は、左眼用の表示パネルから射出された光をレンズ310Aに導光する。右眼用の光学部材は、右眼用の表示パネルから射出された光をレンズ310Bに導光する。また、フレーム304および305には、後述するスピーカ322が設けられる。 The frame 304 is provided with a display panel for the left eye and an optical member for the left eye. The frame 305 is provided with a display panel for the right eye and an optical member for the right eye. The display panel for the left eye and the display panel for the right eye are, for example, a liquid crystal panel or an organic EL (Electro Luminescence) panel. The display panel for the left eye and the display panel for the right eye display images corresponding to virtual objects, for example, based on control from the terminal device 20 described later. The left eye optical member guides the light emitted from the left eye display panel to the lens 310A. The optical member for the right eye guides the light emitted from the display panel for the right eye to the lens 310B. Further, the frames 304 and 305 are provided with speakers 322, which will be described later.
 リム306は、レンズ310Aを保持する。リム307は、レンズ310Bを保持する。 The rim 306 holds the lens 310A. Rim 307 holds lens 310B.
 レンズ310A,310Bの各々は、ハーフミラーを有する。レンズ310A,310Bが有するハーフミラーは、現実空間Rを表す光を透過させることによって、現実空間Rを表す光をユーザの目に導く。また、レンズ310A,310Bが有するハーフミラーは、光学部材によって導光された仮想オブジェクトを示す光をユーザの目に向けて反射する。ハーフミラーを透過した現実空間Rの光と、ハーフミラーによって反射された仮想オブジェクトを示す光とが重畳してユーザの目に入射されることによって、ユーザは、現実空間R上に仮想オブジェクトが位置しているように知覚する。すなわち、レンズ310A,310Bは、ユーザの眼球の前面に配置される透過型のディスプレイとして機能する。レンズ310A,310Bは、ARグラス30の表示領域である。 Each of the lenses 310A and 310B has a half mirror. The half mirrors included in the lenses 310A and 310B transmit the light representing the real space R, thereby guiding the light representing the real space R to the user's eyes. Further, the half mirrors included in the lenses 310A and 310B reflect the light representing the virtual object guided by the optical member toward the user's eyes. The light of the real space R that has passed through the half mirror and the light that is reflected by the half mirror that indicates the virtual object are superimposed and incident on the user's eyes, allowing the user to see the position of the virtual object on the real space R. Perceive it as if you are doing it. That is, the lenses 310A and 310B function as a transmissive display placed in front of the user's eyes. Lenses 310A and 310B are display areas of AR glasses 30.
 また、本実施形態では、ARグラス30のレンズ310A,310Bの外面に、ブルーライトカットフィルタFが貼付されている。レンズ310A,310Bの外面とは、平面状のレンズ310A,310Bの2つの面のうち、ARグラス30を装着したユーザの目と対向する面と反対の面である。ブルーライトカットフィルタFは、可視光(波長380nm以上780nm以下)のうち、波長の短い380nm以上500nm以下のブルーライトを反射または吸収するフィルタである。すなわち、ARグラス30は、ブルーライトカットフィルタFを有することにより、レンズ310A,310Bへの入射光のうち所定の波長帯の光を低減するように構成される。所定の波長帯は、380nm以上500nm以下である。なお、ブルーライトカットフィルタFは、ブルーライトとともに、波長380nm未満の紫外線もカットしてもよい。 Furthermore, in this embodiment, a blue light cut filter F is attached to the outer surfaces of the lenses 310A and 310B of the AR glasses 30. The outer surface of the lenses 310A, 310B is the surface opposite to the surface facing the eyes of the user wearing the AR glasses 30, of the two surfaces of the planar lenses 310A, 310B. The blue light cut filter F is a filter that reflects or absorbs blue light having a short wavelength of 380 nm or more and 500 nm or less among visible light (wavelengths of 380 nm or more and 780 nm or less). That is, the AR glasses 30 are configured to include the blue light cut filter F so as to reduce light in a predetermined wavelength band among the light incident on the lenses 310A and 310B. The predetermined wavelength band is from 380 nm to 500 nm. Note that the blue light cut filter F may cut not only blue light but also ultraviolet light having a wavelength of less than 380 nm.
 ブルーライトカットフィルタFを用いることによって、ARグラス30を装着したユーザの目に入射するブルーライトの光量を低減することができ、眼精疲労をはじめとするユーザの負荷を低減できる。なお、本実施形態では、ブルーライトカットフィルタFは、ARグラス30を装着したユーザの周囲に配置された電子機器の表示画面から発せられるブルーライト、および、窓等から入射する自然光に含まれるブルーライトを低減する目的でレンズ310A,310Bに貼付されている。 By using the blue light cut filter F, the amount of blue light that enters the eyes of the user wearing the AR glasses 30 can be reduced, and the burden on the user such as eye strain can be reduced. Note that in this embodiment, the blue light cut filter F cuts out blue light emitted from the display screens of electronic devices placed around the user wearing the AR glasses 30 and blue light contained in natural light incident from windows, etc. It is attached to lenses 310A and 310B for the purpose of reducing light.
 なお、ブルーライトカットフィルタFに代えて、例えばレンズ310A,310Bへの入射光を全帯域で低減するND(Neutral Density)フィルタを用いてもよい。NDフィルタを用いることで、周囲が明るい中でも、ユーザが休息を取ったり、作業に集中することができる。また、例えばレンズ310A,310
Bとしてブルーライトカットレンズを用いてもよい。この場合は、レンズ310A,310B自体が調光部材となる。
Note that instead of the blue light cut filter F, for example, an ND (Neutral Density) filter that reduces incident light to the lenses 310A and 310B over the entire band may be used. By using an ND filter, the user can take a rest or concentrate on work even in bright surroundings. Also, for example, lenses 310A, 310
As B, a blue light cut lens may be used. In this case, the lenses 310A and 310B themselves serve as light control members.
 図3は、ARグラス30の構成を示すブロック図である。ARグラス30は、上述したテンプル301,302と、ブリッジ303と、フレーム304,305と、リム306,307と、レンズ310A,310Bと、撮像レンズLENとの他、投影装置321と、スピーカ322と、通信装置323と、第1撮像装置324と、記憶装置327と、処理装置328と、バス329とを備える。 FIG. 3 is a block diagram showing the configuration of the AR glasses 30. The AR glasses 30 include the above-described temples 301, 302, bridges 303, frames 304, 305, rims 306, 307, lenses 310A, 310B, and imaging lens LEN, as well as a projection device 321, a speaker 322, and the like. , a communication device 323, a first imaging device 324, a storage device 327, a processing device 328, and a bus 329.
 図3に示す各構成は、例えばフレーム304,305に格納されている。投影装置321と、スピーカ322と、通信装置323と、第1撮像装置324と、記憶装置327と、処理装置328とは、情報を通信するためのバス329によって相互に接続される。バス329は、単一のバスを用いて構成されてもよいし、装置等の要素間ごとに異なるバスを用いて構成されてもよい。 Each configuration shown in FIG. 3 is stored in frames 304 and 305, for example. The projection device 321, the speaker 322, the communication device 323, the first imaging device 324, the storage device 327, and the processing device 328 are interconnected by a bus 329 for communicating information. The bus 329 may be configured using a single bus, or may be configured using different buses for each element such as a device.
 投影装置321は、レンズ310A,310B、左眼用の表示パネル、左眼用の光学部材、右眼用の表示パネル、および右眼用の光学部材を含む。上述のように、投影装置321は、端末装置20からの制御に基づいて、仮想オブジェクトに対応する画像を左眼用の表示パネルおよび右眼用の表示パネルに表示する。左眼用の表示パネルから射出された光は、左眼用の光学部材によってレンズ310Aに導光される。右眼用の表示パネルから射出された光は、右眼用の光学部材によってレンズ310Bに導光される。ユーザは、レンズ310Aおよび310Bに写る仮想オブジェクトに対応する画像を視認する。 The projection device 321 includes lenses 310A and 310B, a display panel for the left eye, an optical member for the left eye, a display panel for the right eye, and an optical member for the right eye. As described above, the projection device 321 displays the image corresponding to the virtual object on the left eye display panel and the right eye display panel based on the control from the terminal device 20. Light emitted from the display panel for the left eye is guided to the lens 310A by the optical member for the left eye. The light emitted from the display panel for the right eye is guided to the lens 310B by the optical member for the right eye. The user visually recognizes images corresponding to virtual objects reflected in lenses 310A and 310B.
 スピーカ322は、フレーム304,305の各々に位置する。スピーカ322は、フレーム304,305の各々に位置せずに、例えば、フレーム304,305の一方、テンプル301,302の少なくとも一方、またはブリッジ303の少なくともいずれかに位置してもよい。スピーカ322は、端末装置20によって直接的に、またはARグラス30の処理装置328を介して制御される。スピーカ322が出力する音声は、例えば仮想オブジェクトに付随して出力される音声等である。スピーカ322は、ARグラス30に含まれずに、ARグラス30とは別体でもよい。 A speaker 322 is located in each of the frames 304 and 305. The speaker 322 may not be located in each of the frames 304 and 305, but may be located in, for example, one of the frames 304 and 305, at least one of the temples 301 and 302, or at least one of the bridge 303. The speaker 322 is controlled by the terminal device 20 directly or via the processing device 328 of the AR glasses 30. The audio output by the speaker 322 is, for example, audio output accompanying a virtual object. The speaker 322 may not be included in the AR glasses 30 and may be separate from the AR glasses 30.
 通信装置323は、他の装置と通信を行うための通信インターフェースを備える。通信装置323は、無線通信または有線通信を用いて端末装置20と通信する。本実施形態において、通信装置323は、例えばBluetooth(登録商標)のような近距離無線通信を用いて端末装置20の通信装置203(図4参照)と通信する。 The communication device 323 includes a communication interface for communicating with other devices. The communication device 323 communicates with the terminal device 20 using wireless communication or wired communication. In this embodiment, the communication device 323 communicates with the communication device 203 (see FIG. 4) of the terminal device 20 using short-range wireless communication such as Bluetooth (registered trademark).
 第1撮像装置324は、例えば、撮像光学系および撮像素子を有する。撮像光学系は、少なくとも1つの撮像レンズLEN(図2参照)を含む光学系である。例えば、撮像光学系は、プリズム等の各種の光学素子を有してもよいし、ズームレンズまたはフォーカスレンズ等を有してもよい。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサーまたはCMOS(Complementary MOS)イメージセンサー等である。 The first imaging device 324 includes, for example, an imaging optical system and an imaging element. The imaging optical system is an optical system including at least one imaging lens LEN (see FIG. 2). For example, the imaging optical system may include various optical elements such as a prism, or may include a zoom lens, a focus lens, or the like. The image sensor is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor.
 第1撮像装置324は、被写体を撮像し、撮像した画像(以下「第1撮像画像PA」という)を示す第1撮像画像情報を出力する。本実施形態では、第1撮像装置324の撮像範囲は、ユーザの視野範囲と一致する、またはユーザの視野範囲を含む。よって、第1撮像画像PAはARグラス30を装着したユーザが、レンズ310A,310Bを通して視認する現実空間Rの範囲を含む。第1撮像装置324で撮像された第1撮像画像PAの各画素と、レンズ310A,310Bが実現するシースルー型ディスプレイの各画素との対応関係は、予めキャリブレーションされている。すなわち、第1撮像画像PAに写る物体が、ARグラス30を装着したユーザから見て、レンズ310A,310Bのどの位置を占めるかは既知である。よって、後述する表示制御部214は、第1撮像画像PAに基づいて表示位置を決定した仮想オブジェクトを、レンズ310A,310Bに投射することが可能である。 The first imaging device 324 images the subject and outputs first captured image information indicating the captured image (hereinafter referred to as "first captured image PA"). In this embodiment, the imaging range of the first imaging device 324 matches or includes the user's viewing range. Therefore, the first captured image PA includes the range of the real space R that is visually recognized by the user wearing the AR glasses 30 through the lenses 310A and 310B. The correspondence relationship between each pixel of the first captured image PA captured by the first imaging device 324 and each pixel of the see-through display realized by the lenses 310A and 310B is calibrated in advance. That is, it is known which position of the lenses 310A and 310B the object appearing in the first captured image PA occupies when viewed from the user wearing the AR glasses 30. Therefore, the display control unit 214, which will be described later, can project a virtual object whose display position is determined based on the first captured image PA onto the lenses 310A and 310B.
 第1撮像装置324で生成された第1撮像画像PAは、第1撮像画像情報として通信装置323を介して端末装置20に送信される。第1撮像装置324は、所定の撮像間隔で撮像を繰り返し、撮像の都度、生成した第1撮像画像情報を端末装置20に送信する。 The first captured image PA generated by the first imaging device 324 is transmitted to the terminal device 20 via the communication device 323 as first captured image information. The first imaging device 324 repeats imaging at predetermined imaging intervals, and transmits the generated first captured image information to the terminal device 20 each time it captures an image.
 記憶装置327は、処理装置328が読み取り可能な記録媒体である。記憶装置327は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置327は、プログラムPG1を記憶する。プログラムPG1は、ARグラス30を動作させるためのプログラムである。 The storage device 327 is a recording medium that can be read by the processing device 328. The storage device 327 includes, for example, nonvolatile memory and volatile memory. Examples of nonvolatile memories include ROM (Read Only Memory), EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Memory). Programmable Read Only Memory). The volatile memory is, for example, RAM (Random Access Memory). The storage device 327 stores program PG1. The program PG1 is a program for operating the AR glasses 30.
 処理装置328は、1または複数のCPU(Central Processing Unit)を含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。 The processing device 328 includes one or more CPUs (Central Processing Units). One or more CPUs are an example of one or more processors. A processor and a CPU are each an example of a computer.
 処理装置328は、記憶装置327からプログラムPG1を読み取る。処理装置328は、プログラムPG1を実行することによって、動作制御部330として機能する。動作制御部330は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。 The processing device 328 reads the program PG1 from the storage device 327. The processing device 328 functions as the operation control unit 330 by executing the program PG1. The operation control unit 330 includes a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), and a PLD (Programmable Logic). It may be configured by a circuit such as an FPGA (Field Programmable Gate Array) or an FPGA (Field Programmable Gate Array).
 動作制御部330は、ARグラス30の動作を制御する。例えば、動作制御部330は、通信装置323が端末装置20から受信した画像表示用の制御信号を投影装置321に提供する。投影装置321は、画像表示用の制御信号が示す画像をレンズ310A,310Bに表示する。 The operation control unit 330 controls the operation of the AR glasses 30. For example, the operation control unit 330 provides the projection device 321 with an image display control signal that the communication device 323 receives from the terminal device 20 . The projection device 321 displays the image indicated by the image display control signal on the lenses 310A and 310B.
A-3.端末装置20
 図4は、端末装置20の構成を示すブロック図である。端末装置20は、タッチパネル201と、通信装置203と、記憶装置205と、処理装置206と、バス207とを含む。タッチパネル201と、通信装置203と、記憶装置205と、処理装置206は、情報を通信するためのバス207によって相互に接続される。バス207は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
A-3. Terminal device 20
FIG. 4 is a block diagram showing the configuration of the terminal device 20. As shown in FIG. Terminal device 20 includes a touch panel 201 , a communication device 203 , a storage device 205 , a processing device 206 , and a bus 207 . The touch panel 201, the communication device 203, the storage device 205, and the processing device 206 are interconnected by a bus 207 for communicating information. The bus 207 may be configured using a single bus, or may be configured using different buses for each device.
 タッチパネル201は、ユーザに各種の情報を表示するとともに、ユーザのタッチ操作を検出する。タッチパネル201は、入力装置と出力装置とを兼ねている。例えば、タッチパネル201は、液晶表示パネルまたは有機EL表示パネル等の各種の表示パネルとカバーガラスとの間に、タッチ操作を検出可能なタッチセンサユニットが貼り合わされて構成される。例えば、タッチパネル201は、ユーザの指がタッチパネル201に接触している場合に、ユーザの指のタッチパネル201における接触位置を周期的に検出し、検出した接触位置を示すタッチ情報を処理装置206に送信する。 The touch panel 201 displays various information to the user and detects the user's touch operations. The touch panel 201 serves as both an input device and an output device. For example, the touch panel 201 is configured by bonding a touch sensor unit capable of detecting a touch operation between various display panels such as a liquid crystal display panel or an organic EL display panel and a cover glass. For example, when the user's finger is in contact with the touch panel 201, the touch panel 201 periodically detects the contact position of the user's finger on the touch panel 201, and sends touch information indicating the detected contact position to the processing device 206. do.
 通信装置203は、他の装置と通信を行うための通信インターフェースを備える。通信装置203は、無線通信または有線通信を用いてARグラス30と通信する。本実施形態において、通信装置203は、ARグラス30の通信装置323と同方式の近距離無線通信を用いて通信装置323(図3参照)と通信する。 The communication device 203 includes a communication interface for communicating with other devices. The communication device 203 communicates with the AR glasses 30 using wireless communication or wired communication. In this embodiment, the communication device 203 communicates with the communication device 323 (see FIG. 3) using the same short-range wireless communication as the communication device 323 of the AR glasses 30.
 また、通信装置203は、無線通信または有線通信を用いて仮想オブジェクトサーバと通信し、仮想オブジェクトデータを受信してもよい。この場合、通信装置203は、図示しない広域通信網に接続可能なインターフェースを備える。 Furthermore, the communication device 203 may communicate with the virtual object server using wireless communication or wired communication and may receive virtual object data. In this case, the communication device 203 includes an interface connectable to a wide area communication network (not shown).
 記憶装置205は、処理装置206が読み取り可能な記録媒体である。記憶装置205は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM、EPROMおよびEEPROMである。揮発性メモリーは、例えば、RAMである。記憶装置205は、プログラムPG2を記憶する。プログラムPG2は、端末装置20を動作させるためのプログラムである。 The storage device 205 is a recording medium that can be read by the processing device 206. Storage device 205 includes, for example, nonvolatile memory and volatile memory. Non-volatile memories are, for example, ROM, EPROM and EEPROM. Volatile memory is, for example, RAM. Storage device 205 stores program PG2. The program PG2 is a program for operating the terminal device 20.
 処理装置206は、1または複数のCPUを含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。 The processing device 206 includes one or more CPUs. One or more CPUs are an example of one or more processors. A processor and a CPU are each an example of a computer.
 処理装置206は、記憶装置205からプログラムPG2を読み取る。処理装置206は、プログラムPG2を実行することによって、画像取得部210、物体検出部212および表示制御部214として機能する。画像取得部210、物体検出部212および表示制御部214のうち少なくとも1つは、DSP、ASIC、PLDおよびFPGA等の回路によって構成されてもよい。 The processing device 206 reads the program PG2 from the storage device 205. The processing device 206 functions as an image acquisition section 210, an object detection section 212, and a display control section 214 by executing the program PG2. At least one of the image acquisition section 210, the object detection section 212, and the display control section 214 may be configured by a circuit such as a DSP, an ASIC, a PLD, and an FPGA.
 画像取得部210は、ARグラス30を装着したユーザが、レンズ310A,310Bを通して視認する現実空間Rの範囲を含む撮像画像を第1撮像装置324から取得する。本実施形態では、画像取得部210は、通信装置203を介して、ARグラス30の第1撮像装置324で撮像された第1撮像画像PAに対応する第1撮像画像情報を取得する。 The image acquisition unit 210 acquires from the first imaging device 324 a captured image that includes the range of the real space R that the user wearing the AR glasses 30 views through the lenses 310A and 310B. In the present embodiment, the image acquisition unit 210 acquires first captured image information corresponding to the first captured image PA captured by the first imaging device 324 of the AR glasses 30 via the communication device 203.
 物体検出部212は、第1撮像画像PAに写る所定の物体を検出する。本実施形態において、「物体」は、無生物に限らず、生物(人、植物)であってもよい。第1実施形態では、所定の物体は、電子機器の表示画面である。物体検出部212は、電子機器の表示画面を第1撮像画像PAから検出する。電子機器の表示画面は、例えばテレビ、パーソナルコンピュータ、スマートフォン、タブレット等の表示画面のように、ユーザに対して情報を表示することを主な機能とするものであってもよい。また、電子機器の表示画面は、例えばプリンタ、携帯音楽プレーヤー、調理家電等の表示画面のように、ユーザから当該電子機器に対する設定を受け付けることを主な機能とするものであってもよい。 The object detection unit 212 detects a predetermined object appearing in the first captured image PA. In this embodiment, the "object" is not limited to an inanimate object, but may be a living object (person, plant). In the first embodiment, the predetermined object is a display screen of an electronic device. The object detection unit 212 detects the display screen of the electronic device from the first captured image PA. The display screen of an electronic device may have a main function of displaying information to a user, such as a display screen of a television, personal computer, smartphone, tablet, or the like. Further, the display screen of the electronic device may have a main function of receiving settings for the electronic device from the user, such as a display screen of a printer, a portable music player, a cooking appliance, or the like.
 物体検出部212は、例えば画像解析を用いて電子機器の表示画面を検出する。また、物体検出部212は、第1撮像画像PAに写る表示画面の輝度またはコントラスト比を検出し、輝度またはコントラスト比が所定値以下の場合には、当該表示画面(または電子機器自体)が使用状態にないものとして、検出しないようにしてもよい。 The object detection unit 212 detects the display screen of the electronic device using, for example, image analysis. In addition, the object detection unit 212 detects the brightness or contrast ratio of the display screen reflected in the first captured image PA, and if the brightness or contrast ratio is below a predetermined value, the display screen (or the electronic device itself) is used. It may be determined that the state is not present and not detected.
 表示制御部214は、ARグラス30のレンズ310A,310Bに仮想オブジェクトを表示させる。例えば表示制御部214は、図示しない仮想オブジェクトサーバから取得した仮想オブジェクトデータを用いてARグラス30の投影装置321を制御して、仮想オブジェクトデータに対応する仮想オブジェクトを表示させる。 The display control unit 214 causes the lenses 310A and 310B of the AR glasses 30 to display the virtual object. For example, the display control unit 214 controls the projection device 321 of the AR glasses 30 using virtual object data acquired from a virtual object server (not shown) to display a virtual object corresponding to the virtual object data.
 本実施形態では、表示制御部214は、第1撮像画像PAのうち所定の物体の部分を表す部分画像PDを、レンズ310A,310Bのうち、ユーザが所定の物体を視認する位置に表示させる。第1実施形態では、部分画像PDは、第1撮像画像PAのうち、電子機器の表示画面を表す部分である。表示制御部214は、部分画像PD(例えばPD1~PD3)を、レンズ310A,310Bのうち、ユーザが表示画面を視認する位置に表示させる。 In the present embodiment, the display control unit 214 displays a partial image PD representing a portion of a predetermined object in the first captured image PA at a position of the lenses 310A and 310B where the user visually recognizes the predetermined object. In the first embodiment, the partial image PD is a portion of the first captured image PA that represents the display screen of the electronic device. The display control unit 214 displays the partial images PD (for example, PD1 to PD3) at a position of the lenses 310A and 310B where the user views the display screen.
 このような表示を行うのは、ユーザから見た表示画面の視認性を向上させるためである。上述のように、ARグラス30にはブルーライトカットフィルタFが貼付されている。よって、ARグラス30を装着していない状態と比較して、表示画面の視認性は低下する。一方で、多くの場合、表示画面はユーザが必要とする情報を表示するために配置されており、ユーザが表示画面の表示内容を把握しやすくすることが望まれる。このため、表示制御部214は、第1撮像装置324が撮像した第1撮像画像PAのうち電子機器の表示画面を表す部分画像PDを生成する。そして、表示制御部214は、ユーザが当該表示画面を視認する位置に重畳して部分画像PDを表示させる。よって、ARグラス30越しに表示画面を見る場合と比較して、表示画面の表示の視認性が向上される。すなわち、表示システム10によれば、ブルーライトを低減しつつ、表示画面の表示内容をユーザが容易に把握できる。 The reason for performing such a display is to improve the visibility of the display screen from the user's perspective. As mentioned above, the blue light cut filter F is attached to the AR glasses 30. Therefore, the visibility of the display screen is reduced compared to the state where the AR glasses 30 are not worn. On the other hand, in many cases, the display screen is arranged to display information required by the user, and it is desired that the user can easily understand the content displayed on the display screen. Therefore, the display control unit 214 generates a partial image PD representing the display screen of the electronic device out of the first captured image PA captured by the first imaging device 324. Then, the display control unit 214 displays the partial image PD superimposed on the position where the user views the display screen. Therefore, compared to the case where the display screen is viewed through the AR glasses 30, the visibility of the display screen is improved. That is, according to the display system 10, the user can easily understand the displayed content on the display screen while reducing blue light.
 図5は、現実空間Rを撮像した第1撮像画像PAの一例を示す図である。図5に示す第1撮像画像PAは、ARグラス30を装着したユーザがレンズ310A,310Bを通して視認する現実空間Rの範囲を含むように撮影される。第1撮像画像PAに写る現実空間Rは、室内であり、テレビOB1、ノートパソコンOB2、スマートフォンOB3、照明器具OB4および窓OB5等が配置されている。第1撮像画像PAのうち、テレビOB1の表示画面が写る部分を部分画像PD1、ノートパソコンOB2の表示画面が写る部分を部分画像PD2、スマートフォンOB3の表示画面が写る部分を部分画像PD3とする。以下、テレビOB1、ノートパソコンOB2およびスマートフォンOB3を、電子機器OB1~OB3と表記する場合がある。第1撮像画像PAに写る現実空間Rの色味は、ARグラス30を装着していないユーザが知覚する色味とほぼ同じである。 FIG. 5 is a diagram showing an example of the first captured image PA of the real space R. The first captured image PA shown in FIG. 5 is captured so as to include the range of the real space R that the user wearing the AR glasses 30 views through the lenses 310A and 310B. The real space R shown in the first captured image PA is indoors, and a television OB1, a notebook computer OB2, a smartphone OB3, a lighting fixture OB4, a window OB5, and the like are arranged. Of the first captured image PA, a portion where the display screen of the television OB1 is shown is a partial image PD1, a portion where the display screen of the notebook computer OB2 is shown is a partial image PD2, and a portion where the display screen of the smartphone OB3 is shown is a partial image PD3. Hereinafter, the television OB1, notebook computer OB2, and smartphone OB3 may be referred to as electronic devices OB1 to OB3. The color of the real space R reflected in the first captured image PA is almost the same as the color perceived by a user who is not wearing the AR glasses 30.
 図6は、ARグラス30を装着したユーザが視認する現実空間Rの一例を示す図である。図6は、部分画像PDを表示しない場合に、ユーザが視認する現実空間Rを示している。図6に示す現実空間Rは、ブルーライトカットフィルタFを通してユーザから視認されている。よって、ユーザの目に入射するブルーライトは低減する。一方で、図5と比較して、現実空間Rは全体的に暗く視認される。 FIG. 6 is a diagram showing an example of the real space R visually recognized by the user wearing the AR glasses 30. FIG. 6 shows the real space R that the user views when the partial image PD is not displayed. The real space R shown in FIG. 6 is visually recognized by the user through the blue light cut filter F. Therefore, the amount of blue light that enters the user's eyes is reduced. On the other hand, compared to FIG. 5, the real space R appears darker overall.
 図7は、部分画像PDを表示した場合にユーザが視認する現実空間Rの一例を示す図である。図7では、テレビOB1の表示画面と重畳して部分画像PD1が表示され、ノートパソコンOB2の表示画面と重畳して部分画像PD2が表示され、スマートフォンOB3の表示画面と重畳して部分画像PD3が表示される。上述のように、第1撮像画像PAに写る現実空間Rの色味は、ARグラス30を装着していないユーザが知覚する色味とほぼ同じである。よって、テレビOB1、ノートパソコンOB2およびスマートフォンOB3の表示画面は、ユーザがARグラス30を装着していない場合と同様に視認される。 FIG. 7 is a diagram showing an example of the real space R that the user visually recognizes when the partial image PD is displayed. In FIG. 7, a partial image PD1 is displayed superimposed on the display screen of the television OB1, a partial image PD2 is displayed superimposed on the display screen of the notebook computer OB2, and a partial image PD3 is displayed superimposed on the display screen of the smartphone OB3. Is displayed. As described above, the color tone of the real space R reflected in the first captured image PA is almost the same as the color tone perceived by a user who is not wearing the AR glasses 30. Therefore, the display screens of the television OB1, notebook computer OB2, and smartphone OB3 are viewed in the same way as when the user is not wearing the AR glasses 30.
 それぞれの部分画像PD1~PD3は、ユーザが視認する各電子機器OB1~OB3の表示画面と同じ大きさの画像である。すなわち、表示制御部214は、ユーザが視認する表示領域と同じ大きさの部分画像PDを表示させる。よって、ユーザは、部分画像PDを違和感なく視認することができ、ARグラス30の使用に伴うユーザの疲労が低減される。 Each of the partial images PD1 to PD3 is an image of the same size as the display screen of each electronic device OB1 to OB3 that is viewed by the user. That is, the display control unit 214 displays a partial image PD having the same size as the display area viewed by the user. Therefore, the user can view the partial image PD without feeling uncomfortable, and the user's fatigue caused by using the AR glasses 30 is reduced.
 また、部分画像PDは、いわゆる夜間モードにおける色味で表示されてもよい。夜間モードでは、画像の色味が暖色寄りに変更される。よって、ユーザの目に入射するブルーライトが低減され、表示画面の使用がその後の入眠の妨げになるのが回避される。夜間モードでは、表示画面の白色点の色温度が通常よりも低くされる。すなわち、表示制御部214は、レンズ310A,310Bに表示される部分画像PDの白色点の色温度を所定温度以下としてもよい。上記所定温度、すなわち夜間モードにおける白色点の色温度は、ユーザが指定可能であってもよい。例えば通常時における白色点の色温度が6500K(昼光色相当)である場合に、夜間モードにおける白色点の色温度は5500K(昼白色相当)以下2700K(電球色相当)以上であってもよい。部分画像PDが夜間モードの色味で表示されることによって、ユーザの目に入射するブルーライトが低減され、眼精疲労をはじめとするユーザの負荷が更に低減される。 Furthermore, the partial image PD may be displayed in a so-called night mode color tone. In night mode, the colors of the image are changed to warmer colors. Therefore, the amount of blue light that enters the user's eyes is reduced, and the use of the display screen is prevented from interfering with subsequent sleep. In the night mode, the color temperature of the white point of the display screen is set lower than normal. That is, the display control unit 214 may set the color temperature of the white point of the partial images PD displayed on the lenses 310A and 310B to a predetermined temperature or lower. The predetermined temperature, ie, the color temperature of the white point in the night mode, may be specifiable by the user. For example, when the color temperature of the white point in normal mode is 6500K (equivalent to daylight color), the color temperature of the white point in night mode may be less than 5500K (equivalent to daylight white) and more than 2700K (equivalent to light bulb color). By displaying the partial image PD in the color of the night mode, blue light entering the user's eyes is reduced, further reducing the burden on the user such as eye strain.
 A-4.第1実施形態のまとめ
 以上説明したように、第1実施形態にかかる表示システム10は、ARグラス30の表示領域への入射光のうち所定の波長帯の光を低減するように構成される。また、表示システム10は、現実空間Rにある所定の物体を表すが写る部分画像PDを、ARグラス30の表示領域のうち、ユーザが当該所定の物体を視認する位置に表示する。よって、ユーザの視野を遮ることなくARグラス30に入射した光を制御することができる。
A-4. Summary of the First Embodiment As described above, the display system 10 according to the first embodiment is configured to reduce light in a predetermined wavelength band among the light incident on the display area of the AR glasses 30. Furthermore, the display system 10 displays a partial image PD representing a predetermined object in the real space R at a position in the display area of the AR glasses 30 where the user visually recognizes the predetermined object. Therefore, the light incident on the AR glasses 30 can be controlled without blocking the user's field of view.
 また、第1実施形態にかかる表示システム10は、ARグラス30の表示領域への入射光のうち、ブルーライトに想到する380nm以上500nm以下の光を低減するように構成される。また、表示システム10は、電子機器の表示画面を表す部分画像PDを表示する。よって、電子機器の表示画面を発生源とするブルーライトが低減されるとともに、表示画面の表示内容をユーザが容易に把握できる。なお、所定の物体は、表示画面に限らず、ユーザが指定した物体であってもよい。 Furthermore, the display system 10 according to the first embodiment is configured to reduce light of 380 nm or more and 500 nm or less, which is considered blue light, among the light incident on the display area of the AR glasses 30. Furthermore, the display system 10 displays a partial image PD representing the display screen of the electronic device. Therefore, blue light generated from the display screen of the electronic device is reduced, and the user can easily understand the content displayed on the display screen. Note that the predetermined object is not limited to the display screen, but may be an object designated by the user.
 また、第1実施形態にかかる表示システム10は、部分画像PDを夜間モードで表示する。すなわち、表示システム10は、ARグラス30の表示領域に写る部分画像PDの白色点の色温度を所定温度以下とする。よって、レンズ310A,310Bに写る画像のブルーライトが低減し、眼精疲労をはじめとするユーザの負荷を更に低減できる。 Furthermore, the display system 10 according to the first embodiment displays the partial image PD in night mode. That is, the display system 10 sets the color temperature of the white point of the partial image PD reflected in the display area of the AR glasses 30 to a predetermined temperature or lower. Therefore, blue light in images reflected on the lenses 310A and 310B is reduced, and the burden on the user, including eye strain, can be further reduced.
 また、第1実施形態にかかる表示システム10は、ユーザが視認する各電子機器OB1~OB3の表示画面と同じ大きさの部分画像PD1~PD3を表示する。よって、部分画像PDが違和感なく表示され、ARグラス30の使用に伴うユーザの疲労が低減される。 Furthermore, the display system 10 according to the first embodiment displays partial images PD1 to PD3 that have the same size as the display screens of the electronic devices OB1 to OB3 that are viewed by the user. Therefore, the partial image PD is displayed without any discomfort, and the user's fatigue caused by using the AR glasses 30 is reduced.
B.第2実施形態
 以下、本発明の第2実施形態について説明する。なお、以下の説明では、説明の簡略化のため、第1実施形態と同一の構成要素に対しては、同一の符号を用いるとともに、その機能の説明を省略することがある。また、以下の説明では、説明の簡略化のため、主として、第2実施形態が、第1実施形態に比較して相違する点について説明する。
B. Second Embodiment A second embodiment of the present invention will be described below. In the following description, in order to simplify the description, the same reference numerals are used for the same components as in the first embodiment, and the description of their functions may be omitted. In addition, in the following description, in order to simplify the description, the differences between the second embodiment and the first embodiment will be mainly described.
 図8は、第2実施形態におけるARグラス30の構成を示すブロック図である。第2実施形態では、ARグラス30は、図3に示す第1実施形態のARグラス30の構成に加えて、第2撮像装置331を備える。第2撮像装置331は、ARグラス30をユーザが装着した状態において、リム306,307の、ユーザの目と対向する面に、図示しない撮像レンズを有する。そして、第2撮像装置331は、ユーザの目を含む画像を撮像する。第2撮像装置331が撮像した画像を、第2撮像画像とする。第2撮像装置331で生成された第2撮像画像は、第2撮像画像情報として通信装置323を介して端末装置20に送信される。第2撮像装置331は、所定の撮像間隔で撮像を繰り返し、撮像の都度、生成した第2撮像画像情報を端末装置20に送信する。 FIG. 8 is a block diagram showing the configuration of AR glasses 30 in the second embodiment. In the second embodiment, the AR glasses 30 include a second imaging device 331 in addition to the configuration of the AR glasses 30 of the first embodiment shown in FIG. The second imaging device 331 has imaging lenses (not shown) on the surfaces of the rims 306 and 307 that face the user's eyes when the user wears the AR glasses 30 . The second imaging device 331 then captures an image including the user's eyes. The image captured by the second imaging device 331 is referred to as a second captured image. The second captured image generated by the second imaging device 331 is transmitted to the terminal device 20 via the communication device 323 as second captured image information. The second imaging device 331 repeats imaging at predetermined imaging intervals, and transmits the generated second captured image information to the terminal device 20 each time it captures an image.
 図9は、第2実施形態における端末装置20の構成を示すブロック図である。第2実施形態において、端末装置20の処理装置206は、プログラムPG2を実行することによって、画像取得部210、物体検出部212、表示制御部214および追跡部216として機能する。 FIG. 9 is a block diagram showing the configuration of the terminal device 20 in the second embodiment. In the second embodiment, the processing device 206 of the terminal device 20 functions as an image acquisition section 210, an object detection section 212, a display control section 214, and a tracking section 216 by executing the program PG2.
 画像取得部210は、第1実施形態と同様にユーザの視野範囲に対応する領域の第1撮像画像PAを取得するとともに、ユーザの目を含む範囲を撮像した第2撮像画像を取得する。本実施形態では、画像取得部210は、ARグラス30の第1撮像装置324で撮像された第1撮像画像PAに対応する第1撮像画像情報、およびARグラス30の第2撮像装置331で撮像された第2撮像画像に対応する第2撮像画像情報を取得する。 As in the first embodiment, the image acquisition unit 210 acquires a first captured image PA of an area corresponding to the user's visual field range, and also acquires a second captured image that captures an area including the user's eyes. In the present embodiment, the image acquisition unit 210 obtains first captured image information corresponding to the first captured image PA captured by the first imaging device 324 of the AR glasses 30 and the first captured image information corresponding to the first captured image PA captured by the second imaging device 331 of the AR glasses 30. second captured image information corresponding to the captured second captured image is acquired.
 追跡部216は、ユーザの目の動きを追跡する。本実施形態では、追跡部216は、第2撮像画像に写るユーザの目の動きを画像解析して、ユーザの視線が第1撮像画像PAのどの位置を向いているかを推定する。具体的には、追跡部216は、例えば目頭を基準点とし、目頭に対する虹彩の位置に基づいて、ユーザの視線が向いている位置を推定する。例えば、右目の虹彩が目頭から離れていれば、ユーザの視線は右を向いていると推定できる、また、右目の目頭と虹彩とが近ければ、ユーザの視線は左を向いていると推定できる。なお、追跡部216は、例えば角膜反射法でユーザの目の動きを追跡してもよい。 The tracking unit 216 tracks the user's eye movements. In this embodiment, the tracking unit 216 analyzes the movement of the user's eyes in the second captured image to estimate which position in the first captured image PA the user's line of sight is directed to. Specifically, the tracking unit 216 uses the inner corner of the eye as a reference point, for example, and estimates the position toward which the user's line of sight is directed based on the position of the iris relative to the inner corner of the eye. For example, if the iris of the right eye is far from the inner corner of the eye, it can be estimated that the user's line of sight is facing to the right, and if the inner corner of the right eye and the iris are close, it can be estimated that the user's line of sight is facing to the left. . Note that the tracking unit 216 may track the movement of the user's eyes using, for example, a corneal reflex method.
 物体検出部212は、追跡部216によって追跡されたユーザの目の動きに基づいて、撮像画像に写る第1物体を検出する。第1物体は、ユーザが注視する物体である。すなわち、第2実施形態において、所定の物体は、ユーザが注視する第1物体である。物体検出部212は、例えば画像解析を用いて第1撮像画像PAに写る物体を検出する。そして、物体検出部212は、ユーザの視線の位置と重なる物体を第1物体として検出する。なお、物体検出部212は、例えばユーザの視線が特定の物体を向いた状態が所定時間(例えば2秒など)以上継続している場合に、当該特定の物体を第1物体として検出してもよい。 The object detection unit 212 detects the first object appearing in the captured image based on the user's eye movements tracked by the tracking unit 216. The first object is an object that the user gazes at. That is, in the second embodiment, the predetermined object is the first object that the user gazes at. The object detection unit 212 detects an object appearing in the first captured image PA using, for example, image analysis. Then, the object detection unit 212 detects an object that overlaps with the position of the user's line of sight as a first object. Note that, for example, if the user's line of sight continues toward a specific object for a predetermined period of time (for example, 2 seconds, etc.), the object detection unit 212 may detect the specific object as the first object. good.
 第2実施形態では、表示制御部214は、第1撮像画像PAのうち第1物体を示す部分画像PT(例えばPT1,PT2)を生成する。表示制御部214は、部分画像PTを、ARグラス30の表示領域のうち、ユーザが第1物体を視認する位置に表示させる。上述のように、ARグラス30にはブルーライトカットフィルタFが貼付されている。よって、ユーザがARグラス30を装着していない状態と比較して、第1物体の視認性は低下する。このため、表示制御部214は、第1撮像装置324が撮像した第1撮像画像PAのうち第1物体を表す部分画像PTを生成する。そして、表示制御部214は、ユーザが第1物体を視認する位置に部分画像PTを表示させる。部分画像PTを表示することで、ARグラス30越しに第1物体を見る場合と比較して、第1物体の視認性が向上する。すなわち、表示システム10によれば、ブルーライトを低減させつつ、ユーザによる第1物体の視認を容易にできる。 In the second embodiment, the display control unit 214 generates partial images PT (for example, PT1, PT2) showing the first object in the first captured image PA. The display control unit 214 displays the partial image PT in the display area of the AR glasses 30 at a position where the user visually recognizes the first object. As mentioned above, the blue light cut filter F is attached to the AR glasses 30. Therefore, the visibility of the first object is reduced compared to a state where the user is not wearing the AR glasses 30. Therefore, the display control unit 214 generates a partial image PT representing the first object out of the first captured image PA captured by the first imaging device 324. Then, the display control unit 214 displays the partial image PT at the position where the user visually recognizes the first object. By displaying the partial image PT, the visibility of the first object is improved compared to the case where the first object is viewed through the AR glasses 30. That is, according to the display system 10, the user can easily see the first object while reducing blue light.
 図10および図11は、部分画像PTを表示した場合にユーザが視認する現実空間Rの一例を示す図である。図10および図11において、ユーザの注視点(視線が向いている点)を符号TPで示す。図10は、第1物体が窓OB5である場合を示す。この場合、窓OB5と重畳して部分画像PT1が表示される。部分画像PT1は、図5に示す第1撮像画像PAのうち、窓OB5を表す部分である。上述のように、第1撮像画像PAに写る現実空間Rの色味は、ARグラス30を装着していないユーザが知覚する色味とほぼ同じである。部分画像PT1が表示されることによって、窓OB5は、ユーザがARグラス30を装着していない場合と同様に視認される。 FIGS. 10 and 11 are diagrams showing an example of the real space R that the user visually recognizes when the partial image PT is displayed. In FIGS. 10 and 11, the user's gaze point (the point toward which the user's line of sight is directed) is indicated by the symbol TP. FIG. 10 shows a case where the first object is a window OB5. In this case, partial image PT1 is displayed superimposed on window OB5. Partial image PT1 is a portion of first captured image PA shown in FIG. 5 that represents window OB5. As described above, the color tone of the real space R reflected in the first captured image PA is almost the same as the color tone perceived by a user who is not wearing the AR glasses 30. By displaying the partial image PT1, the window OB5 is visually recognized in the same way as when the user is not wearing the AR glasses 30.
 図11は、第1物体がスマートフォンOB3の表示画面である場合を示す。この場合、スマートフォンOB3と重畳して部分画像PT2が表示される。部分画像PT2は、図5に示す第1撮像画像PAのうち、スマートフォンOB3の表示画面を表す部分である。部分画像PT2が表示されることによって、スマートフォンOB3の表示画面は、ユーザがARグラス30を装着していない場合と同様に視認される。 FIG. 11 shows a case where the first object is the display screen of smartphone OB3. In this case, partial image PT2 is displayed superimposed on smartphone OB3. Partial image PT2 is a portion of the first captured image PA shown in FIG. 5 that represents the display screen of smartphone OB3. By displaying the partial image PT2, the display screen of the smartphone OB3 is visually recognized in the same way as when the user is not wearing the AR glasses 30.
 なお、表示制御部214は、第1物体が特定の物体である場合に、部分画像PTを表示させるようにしてもよい。特定の物体とは、例えば電子機器の表示画面である。この場合、表示制御部214は、例えば図10に示すように第1物体が窓OB5である場合には部分画像PT1を表示させず、図11に示すように第1物体がスマートフォンOB3である場合に部分画像PT2を表示させる。第1物体が特定の物体である場合にのみ部分画像PTを表示することによって、ユーザが特に視認性を高めたい物体のみを部分画像PTとして表示し、部分画像PTの表示頻度を低減できる。 Note that the display control unit 214 may display the partial image PT when the first object is a specific object. The specific object is, for example, a display screen of an electronic device. In this case, the display control unit 214 does not display the partial image PT1 when the first object is the window OB5 as shown in FIG. 10, and does not display the partial image PT1 when the first object is the smartphone OB3 as shown in FIG. The partial image PT2 is displayed. By displaying the partial image PT only when the first object is a specific object, it is possible to display only the object that the user particularly wants to improve visibility as the partial image PT, and reduce the display frequency of the partial image PT.
 なお、第2実施形態においても、部分画像PTは、ユーザが視認する第1物体の大きさと同じ大きさで表示されてもよい。また、第2実施形態においても、部分画像PTが夜間モードにおける色味で表示されてもよい。 Note that also in the second embodiment, the partial image PT may be displayed in the same size as the first object visually recognized by the user. Further, in the second embodiment as well, the partial image PT may be displayed in a color tone in night mode.
 以上説明したように、第2実施形態にかかる表示システム10は、ユーザが注視する第1物体が写る部分画像PTを表示する。第1物体が写る部分画像PTを表示することで、ユーザの周囲で発生するブルーライトが低減されるとともに、ユーザによる第1物体の視認性が向上される。 As described above, the display system 10 according to the second embodiment displays the partial image PT that includes the first object that the user is gazing at. By displaying the partial image PT in which the first object is captured, blue light generated around the user is reduced, and visibility of the first object by the user is improved.
 C:変形例
 上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
C: Modification Examples Modifications of the above embodiment are shown below. Two or more aspects arbitrarily selected from the following modified aspects may be combined as appropriate to the extent that they do not contradict each other.
 C1:第1変形例
 第1実施形態および第2実施形態では、表示制御部214は、所定の物体の全体が写る部分画像PD,PTを、レンズ310A,310Bのうち、ユーザが所定の物体を視認する位置に表示させた。例えば第1実施形態では、表示制御部214は、電子機器の表示画面全体が写る部分画像PDを、ユーザが表示画面を視認する位置に重畳して表示させた。これに限らず、表示制御部214は、部分画像PD,PTのうち、所定の物体の外縁を示す外縁画像PE(例えばPE1~PE3)を、レンズ310A,310Bのうち、ユーザが所定の物体の外縁を視認する位置に表示させてもよい。
C1: First Modified Example In the first embodiment and the second embodiment, the display control unit 214 displays partial images PD and PT in which the entire predetermined object is captured by the user using the lenses 310A and 310B. Displayed in a visible position. For example, in the first embodiment, the display control unit 214 displays the partial image PD, which shows the entire display screen of the electronic device, in a superimposed manner at the position where the user visually recognizes the display screen. The display control unit 214 is not limited to this, and the display control unit 214 may display an outer edge image PE (for example, PE1 to PE3) indicating the outer edge of a predetermined object out of the partial images PD and PT when the user selects the outer edge image PE (for example, PE1 to PE3) of the It may be displayed at a position where the outer edge is visible.
 図12は、外縁画像PEを表示した場合にユーザが視認する現実空間Rの一例を示す図である。図12では、ユーザが、テレビOB1の表示画面の外縁を視認する位置に外縁画像PE1が表示される。また、ユーザが、ノートパソコンOB2の表示画面の外縁を視認する位置に外縁画像PE2が表示される。また、ユーザが、スマートフォンOB3の表示画面の外縁を視認する位置に外縁画像PE3が表示される。外縁画像PEを表示することによって、ユーザは電子機器の表示画面の位置を把握することができ、外縁画像PEを表示しない場合と比較して、表示画面の表示内容を把握しやすくなる。また、外縁画像PEは、部分画像PDと比較して画像面積が小さい。よって、外縁画像PEを表示する場合は、部分画像PDを表示する場合と比較して、ユーザの目にかかる負担が少ない。 FIG. 12 is a diagram showing an example of the real space R that the user visually recognizes when the outer edge image PE is displayed. In FIG. 12, an outer edge image PE1 is displayed at a position where the user visually recognizes the outer edge of the display screen of the television OB1. Further, an outer edge image PE2 is displayed at a position where the user visually recognizes the outer edge of the display screen of the notebook computer OB2. Further, an outer edge image PE3 is displayed at a position where the user visually recognizes the outer edge of the display screen of the smartphone OB3. By displaying the outer edge image PE, the user can grasp the position of the display screen of the electronic device, and it becomes easier to understand the display contents of the display screen than when the outer edge image PE is not displayed. Furthermore, the outer edge image PE has a smaller image area than the partial image PD. Therefore, when displaying the outer edge image PE, there is less strain on the user's eyes compared to when displaying the partial image PD.
 なお、図12では、外縁画像PEは、電子機器の表示画面の外縁から内側の所定範囲を示す画像である。これに限らず、外縁画像PEは、例えば電子機器の表示画面の外縁から外側の所定範囲を示す画像であってもよいし、電子機器の表示画面の外縁の内側と外側を含む所定範囲を示す画像であってもよい。 Note that in FIG. 12, the outer edge image PE is an image showing a predetermined range inside from the outer edge of the display screen of the electronic device. For example, the outer edge image PE may be an image showing a predetermined range outside the outer edge of the display screen of the electronic device, or a predetermined range including the inside and outside of the outer edge of the display screen of the electronic device. It may be an image.
 第1変形例によれば、ユーザの目にかかる負担がより低減されるとともに、所定の物体の視認性が向上される。 According to the first modification, the burden on the user's eyes is further reduced, and the visibility of a predetermined object is improved.
 C2:第2変形例
 第1実施形態および第2実施形態では、ユーザと所定の物体との距離に関わらず、部分画像PD,PTが表示された。これに限らず、ユーザと所定の物体との距離によって、部分画像PD,PTの表示の有無が切り替えられてもよい。具体的には、ユーザと所定の物体との距離が所定距離未満の場合は、所定の物体を示す部分画像PD,PTが表示され、ユーザと所定の物体との距離が所定距離以上離れている場合は、所定の物体を示す部分画像PD,PTが表示されなくてもよい。一般に、ユーザと所定の物体との距離が大きい場合、ユーザがARグラス30を装着していなくても所定の物体の視認性は低い。よって、部分画像PD,PTが表示されても、所定の物体の視認性に与える影響は少ない。すなわち、ユーザと所定の物体との距離が所定距離未満の場合にのみ部分画像PD,PTを表示することによって、部分画像PD,PTの表示の実効性を高めることができる。
C2: Second Modification In the first embodiment and the second embodiment, the partial images PD and PT are displayed regardless of the distance between the user and the predetermined object. The present invention is not limited to this, and whether or not to display the partial images PD and PT may be switched depending on the distance between the user and a predetermined object. Specifically, when the distance between the user and the predetermined object is less than a predetermined distance, partial images PD and PT showing the predetermined object are displayed, and when the distance between the user and the predetermined object is greater than or equal to the predetermined distance. In this case, the partial images PD and PT indicating the predetermined object may not be displayed. Generally, when the distance between the user and a predetermined object is large, the visibility of the predetermined object is low even if the user is not wearing the AR glasses 30. Therefore, even if the partial images PD and PT are displayed, there is little influence on the visibility of a predetermined object. That is, by displaying the partial images PD, PT only when the distance between the user and the predetermined object is less than the predetermined distance, the effectiveness of displaying the partial images PD, PT can be improved.
 この場合、物体検出部212は、ユーザと所定の物体との間の距離を検出する。例えば、所定の物体の大きさが既知の場合、物体検出部212は、第1撮像画像PAに写る所定の物体の大きさに基づいて、ユーザ(より詳細にはユーザが装着するARグラス30)と所定の物体との距離を推定してもよい。また、ARグラス30にLiDAR (Light Detection and Ranging)センサが搭載されている場合、物体検出部212は、当該センサの検出値を用いて、ユーザと所定の物体との距離を検出してもよい。 In this case, the object detection unit 212 detects the distance between the user and the predetermined object. For example, when the size of the predetermined object is known, the object detection unit 212 detects the user (more specifically, the AR glasses 30 worn by the user) based on the size of the predetermined object appearing in the first captured image PA. The distance between the object and the predetermined object may be estimated. Further, if the AR glasses 30 are equipped with a LiDAR (Light Detection and Ranging) sensor, the object detection unit 212 may detect the distance between the user and a predetermined object using the detection value of the sensor. .
 表示制御部214は、ユーザと所定の物体との間の距離が所定距離未満の場合に、部分画像PD,PTをARグラス30に表示させる。また、表示制御部214は、ユーザと所定の物体との間の距離が所定距離以上の場合には、部分画像PD,PTをARグラス30に表示させない。 The display control unit 214 displays the partial images PD and PT on the AR glasses 30 when the distance between the user and the predetermined object is less than a predetermined distance. Further, the display control unit 214 does not display the partial images PD and PT on the AR glasses 30 when the distance between the user and the predetermined object is a predetermined distance or more.
 所定距離は、例えば物体の大きさによって変更されてもよい。例えば、図5等に示すテレビOB1の表示画面は、スマートフォンOB3の表示画面と比較して大きい。よって、ユーザがテレビOB1から例えば3メートル離れた位置からテレビOB1の表示画面を見ることもある。一方、スマートフォンOB3の表示画面を3メートル離れた位置から見ても、表示画面に写る内容はほとんど識別できないと考えられる。よって、表示制御部214は、所定の物体の大きさが大きいほど、所定距離を大きくしてもよい。 The predetermined distance may be changed depending on the size of the object, for example. For example, the display screen of the television OB1 shown in FIG. 5 and the like is larger than the display screen of the smartphone OB3. Therefore, the user may view the display screen of the television OB1 from a position 3 meters away from the television OB1, for example. On the other hand, even if the display screen of the smartphone OB3 is viewed from a position 3 meters away, it is considered that the content reflected on the display screen is hardly discernible. Therefore, the display control unit 214 may increase the predetermined distance as the size of the predetermined object becomes larger.
 第2変形例によれば、ユーザと所定の物体との距離が所定距離未満の場合にのみ部分画像PD,PTが表示されるので、部分画像PD,PTの表示の実効性が向上される。 According to the second modification, the partial images PD and PT are displayed only when the distance between the user and the predetermined object is less than the predetermined distance, so the effectiveness of displaying the partial images PD and PT is improved.
 C3:第3変形例
 第1実施形態および第2実施形態では、部分画像PD,PTは、ユーザから見た所定の物体と同じ大きさで表示された。例えば第1実施形態では、ユーザの視野における表示画面と同じ大きさの部分画像PD1~PD3が表示された。これに限らず、例えば部分画像PD,PTが、ユーザから見た所定の物体よりも大きくてもよい。部分画像PD,PTをユーザから見た所定の物体よりも大きく表示することで、部分画像PD,PTの視認性を高めて、ユーザの利便性を向上できる。また、ユーザの視野における所定の物体の大きさと、部分画像PD,PTの表示の大きさとの比率を、ユーザが設定できるようにしてもよい。
C3: Third Modified Example In the first embodiment and the second embodiment, the partial images PD and PT were displayed in the same size as the predetermined object viewed from the user. For example, in the first embodiment, partial images PD1 to PD3 having the same size as the display screen in the user's visual field are displayed. The present invention is not limited to this, and, for example, the partial images PD and PT may be larger than the predetermined object viewed from the user. By displaying the partial images PD, PT larger than the predetermined object seen by the user, the visibility of the partial images PD, PT can be improved, and the user's convenience can be improved. Furthermore, the user may be able to set the ratio between the size of a predetermined object in the user's visual field and the display size of the partial images PD and PT.
 C4:第4変形例
 第1実施形態および第2実施形態では、ARグラス30のレンズ310A,310Bの外面に、ブルーライトカットフィルタFが貼付されていた。これに限らず、ARグラス30のレンズ310A,310Bの内面に、ブルーライトカットフィルタFが貼付されてもよい。一方で、ARグラス30のレンズ310A,310Bの内面にブルーライトカットフィルタFを貼付すると、投影装置321が表示する画像(部分画像PD,PTをはじめとする仮想オブジェクト)が見えづらくなる。投影装置321が表示する画像は、例えば夜間モードで表示することでブルーライトを低減することが可能なので、上述したように、ブルーライトカットフィルタFはレンズ310A,310Bの外面に貼付するのが好適である。
C4: Fourth Modification In the first embodiment and the second embodiment, the blue light cut filter F was attached to the outer surfaces of the lenses 310A and 310B of the AR glasses 30. However, the present invention is not limited to this, and the blue light cut filter F may be attached to the inner surfaces of the lenses 310A and 310B of the AR glasses 30. On the other hand, if the blue light cut filter F is attached to the inner surfaces of the lenses 310A and 310B of the AR glasses 30, the images (virtual objects including partial images PD and PT) displayed by the projection device 321 become difficult to see. Since the image displayed by the projection device 321 can reduce blue light by displaying it in night mode, for example, it is preferable to attach the blue light cut filter F to the outer surface of the lenses 310A and 310B as described above. It is.
 C5:第5変形例
 第1実施形態および第2実施形態では、ARグラス30と端末装置20とが別体であった。これに限らず、例えばARグラス30が端末装置20の機能を有していてもよい。すなわち、ARグラス30の処理装置328が、画像取得部210、物体検出部212、表示制御部214および追跡部216として機能してもよい。
C5: Fifth Modification In the first embodiment and the second embodiment, the AR glasses 30 and the terminal device 20 were separate bodies. The present invention is not limited to this, and for example, the AR glasses 30 may have the functions of the terminal device 20. That is, the processing device 328 of the AR glasses 30 may function as the image acquisition section 210, the object detection section 212, the display control section 214, and the tracking section 216.
 第5変形例によれば、端末装置20が必要なくなるため、システム構成を簡素化する上で有利となる。 According to the fifth modification, the terminal device 20 is not required, which is advantageous in simplifying the system configuration.
 D:その他
 (1)図3、図4、図8、図9に例示された各機能は、ハードウェアおよびソフトウェアの任意の組み合わせによって実現される。各機能の実現方法は特に限定されない。各機能は、物理的または論理的に結合した1つの装置を用いて実現されてもよいし、物理的または論理的に分離した2つ以上の装置を直接的または間接的に(例えば、有線、無線などを用いて)接続することによって構成される装置を用いて実現されてもよい。各機能は、上記1つの装置または上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
D: Others (1) Each function illustrated in FIGS. 3, 4, 8, and 9 is realized by any combination of hardware and software. The method for realizing each function is not particularly limited. Each function may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (for example, wired, It may also be realized using devices configured by connecting (e.g., wirelessly). Each function may be realized by combining software with the one device or the plurality of devices.
 (2)本明細書において、「装置」という用語は、回路、デバイスまたはユニット等の他の用語に読み替えられてもよい。 (2) In this specification, the term "apparatus" may be replaced with other terms such as circuit, device, or unit.
 (3)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、記憶装置205、記憶装置327は、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリー(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。 (3) In each of the first embodiment, the second embodiment, and the first to fifth modifications, the storage device 205 and the storage device 327 include an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, flexible disks, magneto-optical disks (e.g. compact disks, digital versatile disks, Blu-ray disks), smart cards, flash memories (e.g. cards, sticks, key drives), floppy disks, It may be constituted by at least one of magnetic strips and the like. The program may also be transmitted from a network via a telecommunications line.
 (4)第1実施形態、第2実施形態、第1変形例~第5変形例の各々は、LTE(Long Term Evolution)、LTE-A(LTA-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、6th generation mobile communication system(6G)、xth generation mobile communication system(xG)(xは、例えば整数または小数)、FRA(Future Radio Access)、NR(new Radio)、New radio access(NX)、Future generation radio access(FX)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよびこれらに基づいて拡張、修正、作成、規定された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTEおよびLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 (4) Each of the first embodiment, the second embodiment, and the first to fifth modifications are LTE (Long Term Evolution), LTE-A (LTA-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), 6th generation on mobile communication system (6G), xth generation mobile communication system (xG) (x is an integer or a decimal, for example), FRA (Future Rad io Access) , NR (new Radio), New radio access (NX), Future generation radio access (FX), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 ( Systems that utilize Wi-Fi (registered trademark), IEEE 802.16 (WiMAX (registered trademark)), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered trademark), and other appropriate systems, and these It may be applied to at least one of the next-generation systems extended, modified, created, or defined based on the invention. Furthermore, a combination of a plurality of systems may be applied (for example, a combination of at least one of LTE and LTE-A and 5G).
 (5)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において例示した処理手順、シーケンス、またはフローチャート等は、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書において説明した方法については、例示的な順序において様々なステップの要素を提示しており、提示した特定の順序に限定されない。 (5) The processing procedures, sequences, flowcharts, etc. illustrated in each of the first embodiment, the second embodiment, and the first to fifth modifications may be rearranged in order as long as there is no contradiction. For example, the methods described herein present elements of the various steps in an exemplary order and are not limited to the particular order presented.
 (6)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、入出力された情報等は特定の場所(例えば、メモリー)に保存されてもよいし、管理テーブルを用いて管理されてもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 (6) In each of the first embodiment, the second embodiment, and the first to fifth modifications, input/output information, etc. may be stored in a specific location (for example, memory) or managed. It may also be managed using a table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.
 (7)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、判定は、1ビットによって表される値(0か1か)に基づいて行われてもよいし、真偽値(Boolean:trueまたはfalse)に基づいて行われてもよいし、数値の比較(例えば、所定の値との比較)に基づいて行われてもよい。 (7) In each of the first embodiment, the second embodiment, and the first to fifth modifications, the determination may be made based on the value (0 or 1) represented by 1 bit. However, it may be performed based on a truth value (Boolean: true or false), or may be performed based on a comparison of numerical values (for example, a comparison with a predetermined value).
 (8)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順または機能等を意味するよう広く解釈されるべきである。また、ソフトウェア、または命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)など)および無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 (8) The programs illustrated in each of the first embodiment, the second embodiment, and the first to fifth modifications are called software, firmware, middleware, microcode, or hardware description language, or are called other names. an instruction, set of instructions, code, code segment, program code, subprogram, software module, application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, or function, whether referred to by should be broadly interpreted to mean, etc. Additionally, software, instructions, etc. may be sent and received via a transmission medium. For example, if the software uses wired technologies (such as coaxial cable, fiber optic cable, twisted pair, and digital subscriber line (DSL)) and/or wireless technologies (such as infrared, microwave) to from a remote source, these wired and/or wireless technologies are included within the definition of a transmission medium.
 (9)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において説明した情報などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、情報などは、電圧、電流、電磁波、磁界、磁性粒子、光場、光子、またはこれらの任意の組み合わせにて表されてもよい。なお、本明細書において説明した用語および本明細書の理解に必要な用語は、同一のまたは類似する意味を有する用語と置き換えられてもよい。 (9) The information described in each of the first embodiment, second embodiment, and first to fifth modifications may be represented using any of various different techniques. For example, data, information, etc. that may be referred to throughout the above description may be represented in voltages, currents, electromagnetic waves, magnetic fields, magnetic particles, optical fields, photons, or any combination thereof. Note that terms explained in this specification and terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.
 (10)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、「システム」および「ネットワーク」という用語は、互換的に使用される。 (10) In each of the first embodiment, second embodiment, and first to fifth modifications, the terms "system" and "network" are used interchangeably.
 (11)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、端末装置20は、移動局でもよい。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語を用いて称される場合もある。 (11) In each of the first embodiment, the second embodiment, and the first to fifth modifications, the terminal device 20 may be a mobile station. A mobile station is defined by a person skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable terminology.
 (12)移動局は、送信装置、受信装置または通信装置などと呼ばれてもよい。移動局は、移動体に搭載されたデバイス、または移動体自体などであってもよい。移動体は、移動可能な物体を意味する。移動体の移動速度は任意である。移動体は、停止可能である。移動体は、例えば、車両、輸送車両、自動車、自動二輪車、自転車、コネクテッドカー、ショベルカー、ブルドーザー、ホイールローダー、ダンプトラック、フォークリフト、列車、バス、リヤカー、人力車、船舶(ship and other watercraft)、飛行機、ロケット、人工衛星、ドローン(登録商標)、マルチコプター、クアッドコプター、気球、およびこれらに搭載される物を含み、またこれらに限らない。移動体は、運行指令に基づいて自律走行する移動体であってもよい。移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよし、ロボット(有人型または無人型)であってもよい。移動局は、必ずしも通信動作時に移動しない装置も含む。例えば、移動局は、センサなどのIoT(Internet of Things)機器であってもよい。 (12) A mobile station may be called a transmitting device, a receiving device, a communication device, or the like. The mobile station may be a device mounted on a mobile body, or the mobile body itself. A moving body means a movable object. The moving speed of the moving object is arbitrary. The moving body can be stopped. Examples of moving objects include vehicles, transportation vehicles, automobiles, motorcycles, bicycles, connected cars, excavators, bulldozers, wheel loaders, dump trucks, forklifts, trains, buses, carts, rickshaws, ships and other watercraft, Including, but not limited to, airplanes, rockets, artificial satellites, drones (registered trademarks), multicopters, quadcopters, balloons, and objects mounted thereon. The mobile body may be a mobile body that autonomously travels based on the operation command. The moving object may be a vehicle (for example, a car, an airplane, etc.), an unmanned moving object (for example, a drone, a self-driving car, etc.), or a robot (manned or unmanned). There may be. Mobile stations also include devices that do not necessarily move during communication operations. For example, the mobile station may be an IoT (Internet of Things) device such as a sensor.
 (13)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、「判断(determining)」または「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「決定」したとみなす事などを含み得る。また、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリー中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「決定」したとみなす事を含み得る。つまり、「決定」は、何らかの動作を「決定」したとみなす事を含み得る。また、「決定」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 (13) In each of the first embodiment, the second embodiment, and the first to fifth modifications, the term "determining" or "determining" encompasses a wide variety of operations. There are cases. "Decision" includes, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring. y) (e.g. table , searching in a database or other data structure), asserting something as a "decision," and the like. In addition, "determination" refers to receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, accessing ( For example, it may include accessing data in memory) and regarding it as a "judgment" or "decision." Furthermore, "determining" may include determining that the process of resolving, selecting, choosing, establishing, comparing, etc. has been "determined." In other words, "determining" may include considering that some action has been "determined." Moreover, "determination" may be read as "assuming," "expecting," "considering," or the like.
 (14)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、「接続された(connected)」という用語、またはこれのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよびプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」または「結合」されると考えることができる。 (14) In each of the first embodiment, the second embodiment, and the first to fifth variations, the term "connected" or any variation thereof refers to two or more elements. refers to any connection or coupling, direct or indirect, between two elements that are "connected" or "coupled" to each other, and can include the presence of one or more intermediate elements between two elements that are "connected" or "coupled" to each other. The bonds or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be replaced with "access." As used in this disclosure, two elements may include one or more wires, cables, and/or printed electrical connections, as well as in the radio frequency domain, as some non-limiting and non-inclusive examples. , electromagnetic energy having wavelengths in the microwave and optical (both visible and non-visible) ranges, and the like.
 (15)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 (15) In each of the first embodiment, the second embodiment, and the first to fifth modifications, the statement "based on" does not mean "based only on" unless otherwise specified. It doesn't mean anything. In other words, the phrase "based on" means both "based only on" and "based at least on."
 (16)本明細書において使用する「第1」および「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量または順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書において使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみが採用され得ることまたは何らかの形において第1要素が第2要素に先行しなければならないことを意味しない。 (16) As used herein, any reference to elements using designations such as "first" and "second" does not generally limit the amount or order of those elements. These designations may be used herein as a convenient way of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed or that the first element must precede the second element in any way.
 (17)第1実施形態、第2実施形態、第1変形例~第5変形例の各々において「含む(include)」、「含んでいる(including)」およびそれらの変形が、本明細書あるいは特許請求の範囲において使用されている場合、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 (17) In each of the first embodiment, the second embodiment, and the first modification to the fifth modification, "include", "including", and variations thereof may be used in the present specification or When used in the claims, these terms, like the term "comprising", are intended to be inclusive. Furthermore, the term "or" as used in this specification or in the claims is not intended to be exclusive or.
 (18)本願の全体において、例えば、英語におけるa、anおよびtheのように、翻訳によって冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 (18) Throughout this application, when articles are added by translation, such as a, an, and the in English, this disclosure does not include that the nouns following these articles are plural. good.
 (19)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。 (19) It is clear to those skilled in the art that the present invention is not limited to the embodiments described in this specification. The present invention can be implemented as modifications and variations without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description herein is intended to be illustrative and does not have any limiting meaning to the present invention. Further, a plurality of aspects selected from the aspects illustrated in this specification may be combined.
 10…表示システム、20…端末装置、30…ARグラス、201…タッチパネル、203…通信装置、205…記憶装置、206…処理装置、207…バス、210…画像取得部、212…物体検出部、214…表示制御部、216…追跡部、321…投影装置、322…スピーカ、323…通信装置、324…第1撮像装置、327…記憶装置、328…処理装置、329…バス、330…動作制御部、331…第2撮像装置、F…ブルーライトカットフィルタ、LEN…撮像レンズ、R…現実空間。 10... Display system, 20... Terminal device, 30... AR glasses, 201... Touch panel, 203... Communication device, 205... Storage device, 206... Processing device, 207... Bus, 210... Image acquisition section, 212... Object detection section, 214... Display control unit, 216... Tracking unit, 321... Projection device, 322... Speaker, 323... Communication device, 324... First imaging device, 327... Storage device, 328... Processing device, 329... Bus, 330... Operation control 331...Second imaging device, F...Blue light cut filter, LEN...Imaging lens, R...Real space.

Claims (7)

  1.  シースルー型ヘッドマウントディスプレイの表示領域に仮想オブジェクトを表示させる表示制御部と、
     前記シースルー型ヘッドマウントディスプレイを装着したユーザが、前記表示領域を通して視認する現実空間の範囲を含む撮像画像を撮像装置から取得する画像取得部と、
     前記撮像画像に写る所定の物体を検出する物体検出部と、を備え、
     前記シースルー型ヘッドマウントディスプレイは、前記表示領域への入射光のうち所定の波長帯の光を低減するように構成され、
     前記表示制御部は、前記撮像画像のうち前記所定の物体の部分を表す部分画像を、前記表示領域のうち、前記ユーザが前記所定の物体を視認する位置に表示させる、
     情報処理装置。
    a display control unit that displays a virtual object in a display area of a see-through head-mounted display;
    an image acquisition unit that acquires from an imaging device a captured image including a range of real space that is viewed through the display area by a user wearing the see-through head-mounted display;
    an object detection unit that detects a predetermined object appearing in the captured image,
    The see-through head mounted display is configured to reduce light in a predetermined wavelength band among the light incident on the display area,
    The display control unit displays a partial image representing a portion of the predetermined object in the captured image at a position in the display area where the user visually recognizes the predetermined object.
    Information processing device.
  2.  前記所定の物体は、電子機器の表示画面であり、
     前記所定の波長帯は、380nm以上500nm以下であり、
     前記物体検出部は、前記表示画面を前記撮像画像から検出し、
     前記部分画像は、前記撮像画像のうちの前記表示画面を表し、
     前記表示制御部は、前記部分画像を、前記表示領域のうち、前記ユーザが前記表示画面を視認する位置に表示させる、
     請求項1記載の情報処理装置。
    The predetermined object is a display screen of an electronic device,
    The predetermined wavelength band is from 380 nm to 500 nm,
    The object detection unit detects the display screen from the captured image,
    The partial image represents the display screen of the captured image,
    The display control unit displays the partial image at a position in the display area where the user views the display screen.
    The information processing device according to claim 1.
  3.  前記所定の物体は、前記ユーザが注視する第1物体であり、
     前記ユーザの目の動きを追跡する追跡部を更に備え、
     前記物体検出部は、前記追跡部によって追跡された前記ユーザの目の動きに基づいて、前記撮像画像から前記第1物体を検出し、
     前記部分画像は、前記撮像画像のうち前記第1物体を表し、
     前記表示制御部は、前記部分画像を、前記表示領域のうち、前記ユーザが前記第1物体を視認する位置に表示させる、
     請求項1記載の情報処理装置。
    The predetermined object is a first object that the user gazes at,
    further comprising a tracking unit that tracks eye movements of the user,
    The object detection unit detects the first object from the captured image based on the user's eye movement tracked by the tracking unit,
    The partial image represents the first object in the captured image,
    The display control unit displays the partial image in the display area at a position where the user visually recognizes the first object.
    The information processing device according to claim 1.
  4.  前記表示制御部は、前記表示領域に写る前記部分画像の白色点の色温度を所定温度以下とする、
     請求項1記載の情報処理装置。
    The display control unit sets a color temperature of a white point of the partial image reflected in the display area to a predetermined temperature or less.
    The information processing device according to claim 1.
  5.  前記部分画像は、前記ユーザが視認する前記所定の物体の大きさと同じ大きさの画像であり、
     前記表示制御部は、前記部分画像を、前記表示領域に表示させる、
     請求項1記載の情報処理装置。
    The partial image is an image of the same size as the predetermined object visually recognized by the user,
    the display control unit displays the partial image in the display area;
    The information processing device according to claim 1.
  6.  前記表示制御部は、前記部分画像のうち、前記所定の物体の外縁を示す外縁画像を、前記表示領域のうち、前記ユーザが前記所定の物体の外縁を視認する位置に表示させる、
     請求項1記載の情報処理装置。
    The display control unit displays an outer edge image indicating an outer edge of the predetermined object among the partial images at a position in the display area where the user visually recognizes the outer edge of the predetermined object.
    The information processing device according to claim 1.
  7.  前記物体検出部は、前記ユーザと前記所定の物体との間の距離を検出し、
     前記表示制御部は、前記ユーザと前記所定の物体との間の距離が所定距離未満の場合に、前記部分画像を前記表示領域に表示させる、
     請求項1項記載の情報処理装置。
    The object detection unit detects a distance between the user and the predetermined object,
    The display control unit displays the partial image in the display area when a distance between the user and the predetermined object is less than a predetermined distance.
    The information processing device according to claim 1.
PCT/JP2023/002432 2022-03-17 2023-01-26 Information processing device WO2023176165A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022042374 2022-03-17
JP2022-042374 2022-03-17

Publications (1)

Publication Number Publication Date
WO2023176165A1 true WO2023176165A1 (en) 2023-09-21

Family

ID=88022762

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/002432 WO2023176165A1 (en) 2022-03-17 2023-01-26 Information processing device

Country Status (1)

Country Link
WO (1) WO2023176165A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141918A1 (en) * 2013-03-11 2014-09-18 コニカミノルタ株式会社 Wearable computer
JP2014174366A (en) * 2013-03-11 2014-09-22 Seiko Epson Corp Virtual image display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141918A1 (en) * 2013-03-11 2014-09-18 コニカミノルタ株式会社 Wearable computer
JP2014174366A (en) * 2013-03-11 2014-09-22 Seiko Epson Corp Virtual image display device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHOGO NISHIDA, KEI KANARI, MIE SATO: "An Examination of Information Presentation Based on User's Gaze with AR Glasses", ITE TECHNICAL REPORT, EIZO JOHO MEDIA GAKKAI, TOKYO, JP, vol. 46, no. 4 (ME2022-14), 12 February 2022 (2022-02-12), JP , pages 51 - 54, XP009548929, ISSN: 1342-6893 *

Similar Documents

Publication Publication Date Title
US11650416B2 (en) See-through computer display systems
US11809628B2 (en) See-through computer display systems
US20210382310A1 (en) Wearable image manipulation and control system with high resolution micro-displays and dynamic opacity augmentation in augmented reality glasses
AU2016402132B2 (en) Eyeball tracking module for video glasses
US8866702B1 (en) Use of optical display system as a visual indicator for a wearable computing device
US10261319B2 (en) Display of binocular overlapping images in a head mounted display
US9684374B2 (en) Eye reflection image analysis
CN106133674B (en) See-through computer display system
US9852506B1 (en) Zoom and image capture based on features of interest
EP2652940B1 (en) Comprehension and intent-based content for augmented reality displays
US9230171B2 (en) Object outlining to initiate a visual search
US8957916B1 (en) Display method
US9864198B2 (en) Head-mounted display
CN110275297B (en) Head-mounted display device, display control method, and recording medium
KR20180096434A (en) Method for displaying virtual image, storage medium and electronic device therefor
US20210389590A1 (en) Wearable image manipulation and control system with high resolution micro-displays and dynamic opacity augmentation in augmented reality glasses
US11575877B2 (en) Utilizing dual cameras for continuous camera capture
KR20160063001A (en) Combination structure of Head up display system and Driven State Monitoring
US20230258929A1 (en) See-through computer display systems
JP2022514011A (en) Eyepiece architecture that incorporates artifact mitigation
US20220299794A1 (en) Hyperextending hinge having fpc service loops for eyewear
US9934583B2 (en) Expectation maximization to determine position of ambient glints
WO2016101861A1 (en) Head-worn display device
WO2023176165A1 (en) Information processing device
WO2023203847A1 (en) Display control device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23770127

Country of ref document: EP

Kind code of ref document: A1