WO2023228585A1 - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
WO2023228585A1
WO2023228585A1 PCT/JP2023/013820 JP2023013820W WO2023228585A1 WO 2023228585 A1 WO2023228585 A1 WO 2023228585A1 JP 2023013820 W JP2023013820 W JP 2023013820W WO 2023228585 A1 WO2023228585 A1 WO 2023228585A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
control device
transmittance
glasses
virtual object
Prior art date
Application number
PCT/JP2023/013820
Other languages
English (en)
French (fr)
Inventor
裕一 市川
真治 木村
修 後藤
宏暢 藤野
拓郎 栗原
健吾 松本
泰士 山本
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2023228585A1 publication Critical patent/WO2023228585A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits

Definitions

  • the present invention relates to a display control device.
  • Patent Document 1 discloses a vehicle display device that displays on a display an image generated by photographing an object hidden by a sun visor with a camera. This vehicle display device acquires the current location and time of the vehicle from the GPS device. The vehicle display device uses a gyroscope to obtain the traveling direction of the vehicle. The vehicle display device estimates the position of the sun based on the current location of the vehicle and the current time. Further, the vehicle display device determines whether sunlight will shine through the front window based on the estimated position of the sun and the direction of travel of the vehicle. In other words, the vehicle display device determines whether or not the sun causes backlighting based on the position of the sun in front of the vehicle in the direction of travel.
  • the vehicle display device causes the camera to take a picture in the direction of backlighting.
  • the vehicle display device extracts a traffic light image from among the images generated by photography.
  • the vehicle display device displays the extracted image on a display provided in the sun visor.
  • XR glasses that are worn on the user's head are becoming popular.
  • a user views an augmented reality space or a mixed reality space in which a virtual object is superimposed on a real space through XR glasses.
  • a backlight condition occurs. For example, when a user looks up at a tall building, a backlit situation occurs where the sun is located in the user's field of view.
  • Conventional vehicle display devices determine whether a backlight condition has occurred by determining whether the sun is located in the direction in which the vehicle is traveling. However, since a user wearing XR glasses can move his or her head, it is not possible to determine whether a backlight condition is occurring based on the user's direction of travel.
  • An object of the present disclosure is to provide a display control device for glasses that improves user safety.
  • a display control device controls see-through type glasses.
  • the display control device is based on first position information indicating the position of the glass, direction information indicating the direction in which the glass faces the outside world, and second position information indicating the relative position of the sun with respect to the position of the glass.
  • a determining unit that determines a light-blocking range that blocks external light out of a visual field visible to the user through the glass;
  • the glass includes a lens and a light control device provided on a surface of the lens on which the external light enters, and the transmittance control unit corresponds to the light blocking range. The transmittance is adjusted for the area of the light control device.
  • the display control device can set a shade range, thereby ensuring the safety of the user. Improves sex.
  • FIG. 1 is a diagram showing the overall configuration of an information processing system 1 according to an embodiment.
  • FIG. 3 is a perspective view showing an example of the appearance of XR glasses 30-k.
  • FIG. 3 is a plan view showing a configuration example of a light control device 39.
  • FIG. FIG. 2 is a block diagram showing a configuration example of a terminal device 20-k.
  • FIG. 3 is an explanatory diagram showing partial regions R1 to R5 of the light control device 39; An explanatory diagram showing an example of a captured image Gk. An explanatory diagram showing a partial image Gkp obtained by extracting the entire light-shielding range C3 shown in FIG. 8 from the captured image Gk shown in FIG. 10A. An explanatory diagram showing an example of a partial image Gkp obtained by extracting an image of a sign from a light-shielding range C3.
  • FIG. 2 is an explanatory diagram showing an example of a viewing range W recognized by the user U[k].
  • FIG. 2 is an explanatory diagram showing an example of a viewing range W recognized by the user U[k].
  • FIG. 3 is an explanatory diagram showing an example in which a first virtual object and a second virtual object VO2 are displayed in a superimposed manner in real space as a partial image Gkp.
  • 13A is an explanatory diagram showing the relationship between the light shielding range C and the regions X1 to X4 in the captured image Gk shown in FIG. 13A.
  • FIG. 1 is a block diagram showing the overall configuration of an information processing system 1.
  • the information processing system 1 includes user devices 10-1, 10-2, ... 10-k, ... 10-j, and a management server 40.
  • Management server 40 is an example of an external device.
  • the management server 40 includes a location management server 40A that manages the location of a user device, and an object management server 40B that manages virtual objects.
  • j is any integer greater than or equal to 1.
  • k is any integer from 1 to j.
  • the user device 10-k includes a terminal device 20-k and XR glasses 30-k.
  • the terminal devices 20-1, 20-2, ...20-k, ...20-j have the same configuration
  • the XR glasses 30-1, 30-2, ...30-k, ...30-j have the same configuration. They have the same configuration.
  • the information processing system 1 may include a terminal device that does not have the same configuration as other terminal devices, or XR glasses that do not have the same configuration as other XR glasses.
  • the location management server 40A and the user device 10-k are communicably connected to each other via the communication network NW.
  • the object management server 40B and the user device 10-k are connected to be able to communicate with each other via the communication network NW.
  • the terminal device 20-k and the XR glasses 30-k are connected to be able to communicate with each other.
  • user U[k] uses user device 10-k. Users U[1], U[2], ...U[k-1], U[k+1], ...U[j] are user devices 10-1, 10-2, ...10-k-1, 10-k+1, . . . 10-j are used, respectively.
  • the terminal device 20-k is an example of a display control device that controls the XR glasses 30-k. Furthermore, the terminal device 20-k functions as a relay device that relays communication between the XR glasses 30-k and the position management server 40A and communication between the XR glasses 30-k and the object management server 40B.
  • the terminal device 20-k is configured by, for example, a smartphone or a tablet terminal.
  • the XR glasses 30-k are worn on the head of the user U[k].
  • the XR glasses 30-k are see-through glasses that can display virtual objects.
  • User U[k] visually recognizes the virtual object while viewing the real space through the XR glasses 30-k.
  • the virtual object is placed at a position in the virtual space that corresponds to a position in the real space.
  • the user U[k] recognizes an augmented reality space or a mixed reality space that is a combination of a real space and a virtual space.
  • Augmented reality space refers to a space in which virtual objects can be superimposed on real objects in real space.
  • Mixed reality space refers to a space where real objects and virtual objects in real space are related to each other.
  • augmented reality space virtual objects are simply superimposed on real objects.
  • interaction between virtual objects and real objects can be expressed by using a physical model of the virtual object. For example, in a mixed reality space, when a user throws a ball, which is a virtual object, at a wall, which is a real object, the ball, which is a virtual object, is shown bouncing off the wall, which is a real object.
  • the XR glasses 30-k shown in FIG. 1 include an imaging device 36 (see FIG. 4) that images the outside world.
  • the imaging device 36 generates a captured image Gk by performing imaging.
  • the captured image Gk is transmitted to the location management server 40A via the terminal device 20-k.
  • the location management server 40A receives the captured image Gk transmitted from the terminal device 20-k.
  • the position management server 40A identifies the position of the XR glasses 30-k and the direction in which the XR glasses 30-k face the outside world based on the captured image Gk.
  • the position management server 40A returns glass position information Pk indicating the specified position and direction information Dk indicating the specified direction to the terminal device 20-k.
  • the glass position information Pk is an example of first position information.
  • the location management server 40A stores a feature point map M.
  • the feature point map M is data expressing a plurality of feature points using a three-dimensional global coordinate system (world coordinate system).
  • the feature point map M is generated, for example, by extracting a plurality of feature points from an image obtained by performing imaging with a stereo camera.
  • positions in real space are expressed using a world coordinate system.
  • the location management server 40A extracts a plurality of feature points from the captured image Gk.
  • the position management server 40A determines the imaging position and imaging direction used to generate the captured image Gk by comparing the extracted multiple feature points with the multiple feature points stored in the feature point map M. Identify.
  • the position management server 40A returns glass position information Pk indicating the imaging position and direction information Dk indicating the imaging direction to the terminal device 20-k.
  • the XR glasses 30-k periodically acquire the glasses position information Pk and direction information Dk by periodically transmitting the captured image Gk to the position management server 40A.
  • the XR glasses 30-k track the local coordinates of the XR glasses 30-k in real time.
  • the XR glasses 30-k correct the position and direction of the XR glasses 30-k in real time using the glasses position information Pk and direction information Dk obtained from the position management server 40A. This correction allows the XR glasses 30-k to recognize the position and direction of the XR glasses 30-k expressed in the world coordinate system in real time.
  • information indicating the position generated by the correction will be referred to as glass position information Pck, and information indicating the direction generated by the correction will be referred to as direction information Dck.
  • the glass position information Pck is an example of first position information like the glass position information Pk.
  • the object management server 40B When the object management server 40B receives the glass position information Pck and direction information Dck from the user device 10-k, it executes rendering of the virtual object based on the glass position information Pck and direction information Dck.
  • the object management server 40B transmits the rendered virtual object to the terminal device 20-k.
  • the virtual object in this example is a three-dimensional image. Examples of virtual objects include, for example, information regarding disasters such as earthquakes and fires, information regarding traffic jams, and information regarding service areas on expressways.
  • the virtual object managed by the object management server 40B will be referred to as a second virtual object VO2.
  • FIG. 2 is an explanatory diagram showing an example of a mixed reality space that the user U[k] views through the XR glasses 30-k.
  • the second virtual object VO2 shown in FIG. 2 has an ellipsoidal shape.
  • the XR glasses 30-k include a light control device 39 (see FIG. 3) that adjusts the amount of incident external light, and controls the transmittance of the light control device 39 to improve visibility.
  • the XR glasses 30-k are see-through head-mounted displays that are worn on the user's head.
  • the XR glasses 30-k display virtual objects on the lenses 310A and 310B under the control of the terminal device 20-k.
  • FIG. 3 is a perspective view showing an example of the appearance of the XR glasses 30-k.
  • the XR glasses 30-k include temples 301 and 302, a bridge 303, frames 304 and 305, rims 306 and 307, lenses 310A and 310B, and an imaging lens LEN.
  • Bridge 303 interconnects rims 306 and 307.
  • An imaging lens LEN that constitutes the imaging device 36 shown in FIG. 4 is arranged on the bridge 303.
  • the imaging device 36 is, for example, a camera.
  • the frame 304 is provided with a display panel for the left eye and an optical member for the left eye.
  • the display panel is, for example, a liquid crystal panel or an organic EL (Electro Luminescence) panel.
  • the display panel for the left eye displays a projection image corresponding to a virtual object, for example, based on control from the terminal device 20-k.
  • the left eye optical member is an optical member that guides the light emitted from the left eye display panel to the lens 310A.
  • the frame 305 is provided with a display panel for the right eye and an optical member for the right eye.
  • the display panel for the right eye displays a projected image corresponding to a virtual object based on control from the terminal device 20-K, for example.
  • the optical member for the right eye is an optical member that guides the light emitted from the display panel for the right eye to the lens 310B.
  • Rim 306 holds lens 310A.
  • Rim 307 holds lens 310B.
  • Each of the lenses 310A and 310B has a half mirror.
  • the half mirrors included in the lenses 310A and 310B transmit the light representing the real space R, thereby guiding the light representing the real space R to the eyes of the user U[k]. Further, the half mirrors included in the lenses 310A and 310B reflect the light indicating the virtual object guided by the optical member toward the eyes of the user U[k].
  • the light in the real space that has passed through the half mirror and the light that represents the virtual object reflected by the half mirror are incident on the eyes of the user U[k], so that the user U[k] can see the virtual object in the real space. Perceive the object as being located. That is, the lenses 310A and 310B function as a transmissive display placed in front of the user U[k]'s eyeball.
  • the light control device 39 is fixed to the outer surface of the lens 310A and the outer surface of the lens 310B.
  • the outer surface of the lens 310A is the surface opposite to the surface facing the eyes of the user U[k] wearing the XR glasses 30-k, of the two surfaces of the planar lens 310A.
  • the outer surface of the lens 310B is the surface opposite to the surface facing the eyes of the user U[k] wearing the XR glasses 30-k, of the two surfaces of the planar lens 310B. That is, the light control device 39 is provided on the surface of each of the lenses 310A and 310B on which external light enters.
  • the light control device 39 adjusts the passage rate of external light passing through the lens 310A and the passing rate of external light passing through the lens 310B.
  • the light control device 39 is configured by, for example, a liquid crystal panel.
  • the light control device 39 By using the light control device 39, it is possible to adjust the amount of external light that enters the eyes of the user U[k] wearing the XR glasses 30-k. In glasses without the light control device 39, the visibility of the user U[k] decreases in backlit conditions.
  • the XR glasses 30-k can improve the visibility of the user U[k] by adjusting the transmittance of the light control device 39 according to the position of the sun and the like.
  • FIG. 4 is a block diagram showing an example of the electrical configuration of the XR glasses 30-k.
  • the XR glasses 30-k include a processing device 31, a storage device 32, a detection device 35, an imaging device 36, a communication device 37, a projection device 38, and a light control device 39. Each device is interconnected via a bus.
  • the processing device 31 includes one or more CPUs (Central Processing Units). One or more CPUs are an example of one or more processors. A processor and a CPU are each an example of a computer.
  • the processing device 31 may be configured by a circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array).
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • the storage device 32 is a recording medium that can be read by the processing device 31.
  • the storage device 32 includes, for example, nonvolatile memory and volatile memory. Examples of nonvolatile memories include ROM (Read Only Memory), EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Read Only Memory).
  • the volatile memory is, for example, RAM (Random Access Memory).
  • the storage device 32 stores a control program PR1.
  • the control program PR1 is a program for operating the XR glasses 30-k.
  • the detection device 35 detects the state of the XR glasses 30-k.
  • the detection device 35 includes, for example, an inertial sensor such as an acceleration sensor that detects acceleration and a gyro sensor that detects angular acceleration, and a geomagnetic sensor that detects orientation.
  • the acceleration sensor detects acceleration in a direction along each of the orthogonal X-axis, Y-axis, and Z-axis.
  • the gyro sensor detects angular acceleration for each of the X-axis, Y-axis, and Z-axis, with the axis being the central axis of rotation.
  • the detection device 35 can generate posture information indicating the posture of the XR glasses 30-k based on the output information of the gyro sensor.
  • the motion information which will be described later, includes acceleration information indicating the acceleration of each of the three axes and angular acceleration information indicating the angular acceleration of the three axes.
  • the detection device 35 outputs posture information indicating the posture of the XR glasses 30-k, motion information regarding the movement of the XR glasses 30-k, and orientation information indicating the direction of the XR glasses 30-k to the processing device 31.
  • the imaging device 36 includes, for example, an imaging optical system and an imaging element.
  • the imaging optical system is an optical system including at least one imaging lens LEN (see FIG. 3).
  • the imaging optical system may include various optical elements such as a prism, or may include a zoom lens, a focus lens, or the like.
  • the image sensor is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor.
  • the communication device 37 includes a communication interface for communicating with other devices.
  • the communication device 37 communicates with the terminal device 20-K using wireless communication or wired communication.
  • the communication device 37 communicates with the communication device 23 (see FIG. 6) of the terminal device 20-k using short-range wireless communication such as Bluetooth (registered trademark).
  • the projection device 38 includes lenses 310A and 310B, a display panel for the left eye, an optical member for the left eye, a display panel for the right eye, and an optical member for the right eye.
  • Lenses 310A and 310B function as a display placed in front of the user U[k]'s eyeball.
  • the projection device 38 displays a projection image corresponding to the virtual object on the left eye display panel and the right eye display panel under control from the terminal device 20-k.
  • the light control device 39 is composed of, for example, a transmissive liquid crystal panel.
  • a liquid crystal panel includes multiple pixels. In a liquid crystal panel, transmittance is controlled for each pixel.
  • a plurality of pixels is an example of a plurality of partial regions.
  • FIG. 5 is an explanatory diagram schematically showing a configuration example of the light control device 39.
  • the light control device 39 has a plurality of pixels 391 arranged vertically and horizontally.
  • the light control device 39 includes a plurality of pixel electrodes in one-to-one correspondence with the plurality of pixels 391, a common electrode common to the plurality of pixels 391, and a liquid crystal display provided between the common electrode and the plurality of pixel electrodes. Equipped with.
  • the common electrode and the plurality of pixel electrodes are each formed of a transparent electrode. Then, the transmittance is controlled for each pixel according to the voltage applied between each pixel electrode and the common electrode.
  • FIG. 6 is a block diagram showing an example of the configuration of the terminal device 20-k.
  • the terminal device 20-k includes a processing device 21, a storage device 22, a communication device 23, and a touch display 24. Each element of the terminal device 20-k is interconnected by one or more buses for communicating information.
  • the terminal device 20-k is an example of a display control device.
  • the processing device 21 is a processor that controls the entire terminal device 20-k. Further, the processing device 21 is configured using, for example, a single chip or a plurality of chips. The processing device 21 is configured using, for example, a central processing unit (CPU) that includes interfaces with peripheral devices, an arithmetic unit, registers, and the like. Note that some or all of the functions of the processing device 21 may be realized by hardware such as a DSP, ASIC, PLD, or FPGA. The processing device 21 executes various processes in parallel or sequentially.
  • CPU central processing unit
  • the storage device 22 is a recording medium that can be read and written by the processing device 21. Furthermore, the storage device 22 stores a plurality of programs including the control program PR2 executed by the processing device 21. Furthermore, the storage device 22 functions as a work area for the processing device 21.
  • the communication device 23 is hardware as a transmitting/receiving device for communicating with other devices.
  • the communication device 23 is also called, for example, a network device, a network controller, a network card, a communication module, or the like.
  • the communication device 23 may include a connector for wired connection and an interface circuit corresponding to the connector. Furthermore, the communication device 23 may include a wireless communication interface.
  • the touch display 24 is a device that displays images and text information. Furthermore, the touch display 24 functions as an input device that receives input operations from the user U[k].
  • the processing device 21 reads the control program PR2 from the storage device 22.
  • the processing device 21 functions as a first acquisition section 211, a second acquisition section 212, a calculation section 213, a determination section 214, a transmittance control section 215, an extraction section 216, and a display control section 217 by executing the control program PR2. do.
  • the first acquisition unit 211 uses the communication device 23 to transmit the captured image Gk to the position management server 40A, thereby acquiring the glass position information Pk and direction information Dk from the position management server 40A.
  • the second acquisition unit 212 uses the communication device 23 to acquire the second virtual object VO2 from the object management server 40B. More specifically, the second acquisition unit 212 acquires the second virtual object VO2 by transmitting the glass position information Pck and the direction information Dck to the object management server 40B.
  • the calculation unit 213 calculates sun position information indicating the relative position of the sun with respect to the position of the XR glasses 30-k based on the current date and time and the glass position information Pk or Pck.
  • Sun position information is an example of second position information.
  • the determining unit 214 uses glass position information Pk or Pck indicating the position of the XR glasses 30-k, direction information Dk or Dck indicating the direction in which the XR glasses 30-k faces the outside world, and the position of the XR glasses 30-k as a reference. Based on the sun position information indicating the relative position of the sun, a light-blocking range C that blocks external light is determined from among the visual field W visible to the user U[k] through the XR glasses 30-k.
  • FIG. 7 is an explanatory diagram showing an example of the relationship between the position of the XR glasses 30-k, the position of the sun, and the direction in which the XR glasses 30-k face the outside world.
  • the XR glasses 30-k are located at position P1 (x1, y1, z1).
  • the sun is located at position P2 (x2, y2, z2).
  • the relative position of the sun indicated by the sun position information is (x2-x1, y2-y1, z2-z1).
  • Line segment L is a line segment that connects the XR glass 30-k and the sun.
  • the XR glasses 30-k face direction D.
  • the angle formed by the direction D and the line segment L is " ⁇ ".
  • FIG. 2 shows an example of the visual field W that is visible to the user U[k] through the XR glasses 30-k.
  • the angle ⁇ is zero, the sun indicated by the point Q is located at the center of the viewing range W, as shown in FIG.
  • the determining unit 214 calculates the position of the sun in the viewing range W based on the glass position information Pk or Pck, the sun position information, and the direction information Dk or Dck.
  • the determining unit 214 determines the light shielding range C according to the calculation result. For example, the determining unit 214 may determine a circle centered on the position of the sun in the viewing range W as the shade range C.
  • FIG. 8 is an explanatory diagram showing an example of the relationship between the position of the sun in the viewing range W and the shading range C. In the viewing range W shown in FIG. 8, when the sun is located at a point Q1, the determining unit 214 determines a light shielding range C1 centered on the point Q1.
  • the determining unit 214 determines a shade range C2 centered on point Q2.
  • the determining unit 214 determines a shade range C3 centered on point Q3.
  • the determining unit 214 determines a shade range C4 centered on point Q4.
  • the determining unit 214 determines a shade range C5 centered on point Q5.
  • the radius of the light shielding ranges C1 to C5 was constant.
  • the determining unit 214 may reduce the area of the light shielding range C as the distance between the center of the viewing range W and the position of the sun becomes longer.
  • the shape of the light shielding range C is not limited to a circle, but may be an ellipse, a square, a rectangle, or a polygon.
  • the transmittance control unit 215 controls the transmittance of external light that passes through the XR glasses 30-k in the light-blocking range C determined by the determining unit 214.
  • the transmittance of external light is expressed by B/A, where "A" is the amount of external light that enters the XR glass 30-k, and "B" is the amount of external light that exits from the XR glass 30-k. Ru.
  • the transmittance control unit 215 adjusts the transmittance of the area of the light control device 39 corresponding to the light-blocking range C.
  • the transmittance control unit 215 controls the transmittance of each of the plurality of partial regions based on the position of the sun in the light control device 39.
  • the transmittance control unit 215 may minimize the transmittance of the light control device 39 at the center of the light-blocking range C, that is, at the position of the sun above the light control device 39.
  • the transmittance control unit 215 may gradually increase the transmittance of the light control device 39 as the distance from the center of the light-blocking range C increases. For example, as shown in FIG. 9, the transmittance control unit 215 sets the transmittance to 0% in the partial region R1 of the light control device 39, and sets the transmittance to 25% in the partial region R2 of the light control device 39.
  • the transmittance is set to 25% in the partial area R3 of the dimmer 39, the transmittance is set to 75% in the partial area R4 of the dimmer 39, and the transmittance is set to 75% in the partial area R5 of the dimmer 39. may be set to 100%.
  • the partial regions R1 to R4 are regions corresponding to the light shielding range C3 shown in FIG.
  • the partial region R5 is a region of the viewing range W other than the light shielding range C3.
  • the extraction unit 216 extracts a partial image Gkp corresponding to part or all of the light-shielding range C from the captured image Gk.
  • FIG. 10A is an explanatory diagram showing an example of a captured image Gk.
  • the captured image Gk shown in FIG. 10A is an image obtained by removing the second virtual object VO2 from the mixed reality space shown in FIG. 2.
  • FIG. 10B is a partial image Gkp obtained by extracting the entire light shielding range C3 shown in FIG. 8 from the captured image Gk shown in FIG. 10A.
  • FIG. 10C is an explanatory diagram showing an example of a partial image Gkp obtained by extracting the image of the sign from the light-shielding range C3.
  • the extraction unit 216 performs image recognition processing on the captured image Gk to extract the partial image Gkp.
  • the target of the image recognition process is a real object that makes the user U[k] aware of danger or a real object that may collide with the user U[k]. Examples of real objects that make the user U[k] aware of danger include, for example, signs and traffic lights. Examples of real objects that may collide with user U[k] include vehicles and people.
  • the image recognition process may use a learning model that has already been trained on images of real objects to be extracted.
  • the display control unit 217 displays the partial image Gkp as a first virtual object on the lenses 310A and 310B of the XR glasses 10-k. Specifically, the display control unit 217 transmits image information indicating the partial image Gkp to the XR glasses 30-k via the communication device 23. The XR glasses 30-k use the projection device 38 to project the partial image Gkp onto the lenses 310A and 310B based on the image information. The light control device 39 reduces the amount of external light that passes through the light shielding range C, and the partial image Gkp is projected, so that the user U[k] can recognize the partial image Gkp even in a backlit state. .
  • the user U[k] In a backlit state where the sun is located at the center of the viewing range W, the user U[k] is hardly able to perceive the outside world.
  • the imaging device 36 can control the exposure time, it can generate a clear captured image Gk.
  • the XR glasses 30-k simply project the captured image Gk using the projection device 38, external light will enter the eyes of the user U[k] via the lenses 310A and 310B. [k] is barely aware of the outside world.
  • the external light is attenuated by the light control device 39 in a backlit state, so that the user U[k] can perceive the external world.
  • the transmittance of the partial regions R1 to R4 shown in FIG. 9 is set to 0%
  • the captured image Gk shown in FIG. 10A is generated
  • the partial image Gkp is the image shown in FIG. 10B.
  • user U[k] recognizes the viewing range W shown in FIG. 11A.
  • the transmittance of partial regions R1 to R3 shown in FIG. 9 is set to 0%
  • the transmittance of partial region R4 is set to 50%
  • the captured image Gk shown in FIG. 10A is generated
  • the partial image Gkp Assume that the image is the image shown in FIG. 10C.
  • user U[k] recognizes the viewing range W shown in FIG. 11B.
  • the display control unit 217 displays the XR glass in a manner that allows the partial image Gkp, which is an example of the first virtual object, and the second virtual object VO2, which is an example of the first virtual object, to be distinguished from each other. It may also be displayed on 30-k.
  • the first virtual object and the second virtual object in a manner in which they can be identified from each other, the first virtual object generated corresponding to the real object existing in the real space and the object management server 40B are The user U[k] can easily recognize the second virtual object VO2.
  • the display control unit 217 displays the first virtual object in the first area corresponding to the light-blocking range C among the display areas of the lenses 310A and 310B, and displays the second virtual object in the first area of the display area of the lenses 310A and 310B. It may be displayed in a second area other than the area.
  • the viewing range W shown in FIG. 11A is displayed in the display area of the XR glasses 30-k, and an image on which the second virtual object VO2 shown in FIG. 2 is superimposed on this image is displayed in the display area.
  • FIG. 11C is an explanatory diagram showing an example in which an image in which the first virtual object, which is the partial image Gkp, and the second virtual object VO2 are superimposed on the real space is displayed.
  • the partial image Gkp is displayed in the first area corresponding to the light-blocking range C.
  • the partial regions R1, R2, R3, and R4 described above correspond to the first region.
  • partial region R5 corresponds to the second region.
  • partial image Gkp is displayed in the first area
  • second virtual object VO2 is displayed in the second area.
  • the display control unit 217 surrounds the outer edge of the second virtual object VO2 with a red frame, or causes the second virtual object VO2 to blink.
  • the display control unit 217 applies such effect processing to the second virtual object VO2, thereby displaying the first virtual object and the second virtual object in a manner that allows them to be distinguished from each other.
  • FIG. 12 is a flowchart showing an example of the operation of the terminal device 20-k.
  • step S10 the processing device 21 transmits a position direction request including the captured image Gk to the position management server 40A via the communication device 23. Further, the processing device 21 receives a location direction response from the location management server 40A via the communication device 23.
  • the position/direction response includes first position information indicating the position of the XR glasses 30-k and direction information indicating the direction in which the XR glasses 30-k face the outside world. Through this transmission and reception, the processing device 21 acquires the first position information and direction information.
  • step S11 the processing device 21 acquires the second virtual object VO2 from the object management server 40B. Specifically, the processing device 21 transmits an object request including first position information and direction information to the object management server 40B via the communication device 23. Further, the processing device 21 receives an object response including the second virtual object VO2 from the object management server 40B via the communication device 23. Through this transmission and reception, the processing device 21 acquires the second virtual object VO2.
  • step S12 the processing device 21 calculates sun position information indicating the relative position of the sun based on the current date and time and the glass position information Pk or Pck.
  • step S13 the processing device 21 determines the light-shielding range C.
  • the processing device 21 determines the visual field visible to the user U[k] via the XR glasses 30-k based on the glasses position information Pk or Pck, the direction information Dk or Dck, and the sun position information.
  • a light-blocking range C that blocks external light is determined.
  • the processing device 21 first calculates the position of the sun in the viewing range W based on the glass position information Pk or Pck, the sun position information, and the direction information Dk or Dck. The processing device 21 then determines the light-shielding range C according to the calculation result.
  • step S14 the processing device 21 adjusts the transmittance of the area of the light control device 39 corresponding to the light-blocking range C.
  • the processing device 21 controls the transmittance of each of the plurality of partial regions based on the position of the sun in the light control device 39.
  • the processing device 21 generates transmittance information that specifies the transmittance for each of the plurality of partial regions of the light control device 39.
  • the transmittance information specifies 100% transmittance for portions other than the light shielding range C.
  • the processing device 21 transmits the transmittance information to the XR glasses 30-k via the communication device 23.
  • the XR glasses 30-k control the transmittance of the light control device 39 based on the received transmittance information.
  • step S15 the processing device 21 extracts a partial image Gkp corresponding to part or all of the light-shielding range C from the captured image Gk.
  • the partial image Gkp may correspond to a part of the light-shielding range C, or may correspond to the entire light-shielding range C.
  • step S16 the processing device 21 generates a display image to be displayed on the XR glasses 30-k.
  • the processing device 21 generates a display image by combining the image of the second virtual object VO2 obtained in step S11 and the partial image Gkp extracted in step S15.
  • step S17 the processing device 21 transmits the display image to the XR glasses 30-k via the communication device 23.
  • the XR glasses 30-k project the received display image using the projection device 38, thereby allowing the user U[k] to view the augmented reality space or the mixed reality space.
  • the processing device 21 functions as the first acquisition unit 211 in step S10. Furthermore, the processing device 21 functions as the second acquisition unit 212 in step S11. Furthermore, the processing device 21 functions as the calculation unit 213 in step S12. Furthermore, the processing device 21 functions as the determining unit 214 in step S13. Furthermore, the processing device 21 functions as the transmittance control section 215 in step S14. Furthermore, the processing device 21 functions as the extraction unit 216 in step S15. Furthermore, the processing device 21 functions as the display control unit 217 in steps S16 and S17.
  • the terminal device 20-k is an example of a display control device that controls the see-through XR glasses 30-k.
  • the terminal device 20-k includes a determination section 214 and a transmittance control section 215.
  • the determining unit 214 includes glass position information Pk or Pck indicating the position of the XR glasses 30-k, direction information Dk or Dck indicating the direction in which the XR glasses 30-k faces the outside world, and solar position information indicating the position of the sun. Based on this, a light-blocking range C that blocks external light is determined out of the viewing range W that is visible to the user through the XR glasses 30-k.
  • the transmittance control unit 215 controls the transmittance of external light that passes through the XR glass 30-k in the determined light-blocking range C.
  • XR glasses 30-k include lenses 310A and 310B and a light control device 39.
  • the light control device 39 is provided on the surfaces of the lenses 310A and 310B on which external light enters.
  • the transmittance control unit 215 adjusts the transmittance of the area of the light control device 39 corresponding to the light-blocking range C.
  • the light-shielding range is determined by considering the direction in which the XR glasses 30-k face the outside world, rather than the traveling direction of the user U[k] wearing the XR glasses 30-k. C can be determined. Therefore, when the user U[k] wearing the XR glasses 30-k looks up while moving in a predetermined direction and the sun enters the viewing range W of the user U[k], the terminal device 20-k can set the shading range C. Therefore, the terminal device 20-k can improve the safety of the user U[k] wearing the XR glasses 30-k.
  • the XR glasses 30-k include an imaging device 36 that images the outside world.
  • the terminal device 20-k includes a first acquisition section 211 and a calculation section 213.
  • the first acquisition unit 211 acquires the glass position information Pk and the direction information Dk from the position management server 40A by transmitting the captured image Gk generated by the imaging device 36 to the position management server 40A.
  • the calculation unit 213 calculates the sun position information based on the current date and time and the glass position information Pk or Pck.
  • the terminal device 20-k Since the terminal device 20-k has the above configuration, it can acquire the glass position information Pk and direction information Dk from the position management server 40A.
  • the position management server 40A generates the glass position information Pk and the direction information Dk by comparing the plurality of feature points extracted from the captured image Gk and the plurality of feature points stored in the feature point map M.
  • the glass position information Pk generated by the verification is more accurate than the position information of the XR glasses 30-k acquired by the GPS device. Therefore, the terminal device 20-k can calculate solar position information with high accuracy.
  • the light control device 39 includes a plurality of pixels 391 corresponding to a plurality of partial regions.
  • the determining unit 214 determines the transmittance of each of the plurality of pixels 391. Since the terminal device 20-k determines the transmittance of each of the plurality of pixels 391, the transmittance can be precisely controlled depending on the backlight condition.
  • the XR glasses 30-k also include a projection device 38 that displays virtual objects on the lenses 310A and 310B.
  • the terminal device 20-k further includes an extraction section 216 and a display control section 217.
  • the extraction unit 216 extracts a partial image Gkp corresponding to part or all of the light-shielding range C from the captured image Gk.
  • Display control unit 217 displays partial image Gkp as a first virtual object on lenses 310A and 310B.
  • the terminal device 20-k displays the partial image Gkp on the lenses 310A and 310B, the user U[k] can recognize the real object existing in the real space corresponding to the shaded range C as the first virtual object. . Therefore, the terminal device 20-k can improve safety when using the XR glasses 30-k while protecting the eyes of the user U[k].
  • the terminal device 20-k also includes a second acquisition unit 212 that acquires the second virtual object VO2 from the object management server 40B.
  • the display control unit 217 causes the lenses 310A and 310B to display the first virtual object and the second virtual object VO2 in such a manner that they can be distinguished from each other.
  • the terminal device 20-k Since the terminal device 20-k has the above configuration, the first virtual object generated corresponding to a real object existing in real space and the second virtual object held by the object management server 40B are transferred to the user U. [k] can be easily recognized.
  • the display control unit 217 also causes the first virtual object to be displayed in the first area corresponding to the light-blocking range C among the display areas of the lenses 310A and 310B, and displays the second virtual object in the first area of the display areas. display in the second area other than the
  • the terminal device 20-k Since the terminal device 20-k has the above configuration, the area where the virtual object is displayed is distinguished according to the type of the virtual object. Therefore, the terminal device 20-k can easily make the user U[k] recognize the first virtual object and the second virtual object.
  • the XR glasses 30-k described above use the projection device 38 to display virtual objects on the lenses 310A and 310B.
  • the XR glasses 30-k provided the user U[k] with an augmented reality space or a mixed reality space by displaying virtual objects.
  • the present disclosure is not limited to the embodiments.
  • the present disclosure may be a glass that does not include the projection device 38. In this glass as well, the eyes of the user U[k] can be protected by blocking external light using the light control device 39.
  • the modified glasses by controlling the transmittance of the light control device 39 to be lower in a backlit state than in a frontlit state, the user U[k] can easily see the outside world. .
  • the determination unit 214 determined the transmittance of each of the plurality of partial regions of the light control device 39.
  • the present disclosure is not limited to the embodiments. That is, the determining unit 214 may uniformly determine the transmittance of the entire light control device 39.
  • the light control device 39 does not need to include a plurality of pixels 391, and has one common electrode, one pixel electrode, and a common electrode and a pixel electrode. It is only necessary to provide a liquid crystal to be sandwiched. In this case, the transmittance of the entire light control device 39 is uniformly controlled depending on the voltage applied to the common electrode and the pixel electrode.
  • the transmittance control unit 215 controlled the transmittance of each pixel 391 of the light control device 39 according to the relative position of the sun with respect to the XR glasses 30-k.
  • the transmittance control unit 215 calculates the brightness of the captured image Gk corresponding to each of the plurality of pixels 391 corresponding to the plurality of partial regions, and calculates the brightness of the captured image Gk corresponding to each of the plurality of pixels 391 corresponding to the position of the sun in the light control device 39 and each of the plurality of pixels 391.
  • the transmittance of each of the plurality of pixels 391 may be controlled based on the brightness of the captured image Gk.
  • the transmittance control unit 215 calculates the brightness distribution of the captured image Gk in areas X1, X2, and X3 shown in FIG. 13B. and is classified into area X4. It is assumed that the average luminance value of the region X1 is L1, the average luminance value of the region X2 is L2, the average luminance value of the region X3 is L3, and the average luminance value of the region X4 is L4. Furthermore, it is assumed that L1 to L4 have the following relationship. L1 ⁇ L2 ⁇ L3 ⁇ L4
  • the transmittance control unit 215 sets the transmittance Z1 of the region X1, the transmittance Z2 of the region X2, the transmittance Z3 of the region X3, and the transmittance Z4 of the region X4 based on the average luminances L1 to L4.
  • the transmittances Z1 to Z4 have the following relationship. Z1>Z2>Z3>Z4
  • the transmittance of the light control device 39 can be made smaller in areas with higher brightness. Therefore, according to the terminal device 20-k according to the third modification, the transmittance can be controlled in consideration of the brightness of the captured image Gk, compared to the case where the transmittance is controlled without considering the brightness of the captured image Gk. Therefore, the visibility of user U[k] is improved.
  • the light control device 39 was provided on the surfaces of the lenses 310A and 310B on which external light enters.
  • the present disclosure is not limited to the embodiments. That is, the light control device 39 may be provided spaced apart in the first direction from the surfaces of the lenses 310A and 310B on which external light enters.
  • the first direction is a direction from the user U[k]'s eyeball toward the surface on which external light enters.
  • the user device 10-k is configured by the terminal device 20-k and the XR glasses 30-k.
  • the present disclosure is not limited to the embodiments.
  • the XR glasses 30-k may include the terminal device 20-k.
  • the processing device 31 is an example of a display control device that controls the XR glasses 30-k.
  • the storage device 22 and the storage device 32 are exemplified as ROM and RAM, but they may also be flexible disks, magneto-optical disks (for example, compact disks, digital versatile disks, Blu-ray disks, etc.).
  • ray (registered trademark) disk) smart card
  • flash memory device e.g., card, stick, key drive
  • CD-ROM Compact Disc-ROM
  • register removable disk
  • hard disk floppy disk
  • magnetic strip database
  • server or other suitable storage medium.
  • the program may also be transmitted from a network via a telecommunications line. Further, the program may be transmitted from the communication network NW via a telecommunications line.
  • the information, signals, etc. described may be represented using any of a variety of different technologies.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. which may be referred to throughout the above description, may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may also be represented by a combination of
  • the input/output information may be stored in a specific location (for example, memory) or may be managed using a management table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.
  • the determination may be made using a value expressed using 1 bit (0 or 1) or a truth value (Boolean: true or false).
  • the comparison may be performed by comparing numerical values (for example, comparing with a predetermined value).
  • each of the functions illustrated in FIGS. 1 to 13B is realized by an arbitrary combination of at least one of hardware and software.
  • the method for realizing each functional block is not particularly limited. That is, each functional block may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (e.g. , wired, wireless, etc.) and may be realized using a plurality of these devices.
  • the functional block may be realized by combining software with the one device or the plurality of devices.
  • the programs exemplified in the above-described embodiments are instructions, instruction sets, codes, codes, regardless of whether they are called software, firmware, middleware, microcode, hardware description language, or by other names. Should be broadly construed to mean a segment, program code, program, subprogram, software module, application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc.
  • software, instructions, information, etc. may be sent and received via a transmission medium.
  • a transmission medium For example, if the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create a website, When transmitted from a server or other remote source, these wired and/or wireless technologies are included within the definition of transmission medium.
  • wired technology coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.
  • wireless technology infrared, microwave, etc.
  • the information, parameters, etc. described in this disclosure may be expressed using absolute values, relative values from a predetermined value, or other corresponding information. It may also be expressed as
  • the user devices 10-1 to 10-j, the terminal devices 20-1 to 20-j, and the XR glasses 30-1 to 30-j are mobile stations (MS). This includes some cases.
  • a mobile station is defined by a person skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable terminology. Further, in the present disclosure, terms such as “mobile station,” “user terminal,” “user equipment (UE),” and “terminal” may be used interchangeably.
  • connection refers to direct or indirect connections between two or more elements. Refers to any connection or combination and may include the presence of one or more intermediate elements between two elements that are “connected” or “coupled” to each other.
  • the coupling or connection between elements may be a physical coupling or connection, a logical coupling or connection, or a combination thereof.
  • connection may be replaced with "access.”
  • two elements may include one or more wires, cables, and/or printed electrical connections, as well as in the radio frequency domain, as some non-limiting and non-inclusive examples. , electromagnetic energy having wavelengths in the microwave and optical (both visible and non-visible) ranges.
  • determining and “determining” used in this disclosure may encompass a wide variety of operations.
  • “Judgment” and “decision” include, for example, judging, calculating, computing, processing, deriving, investigating, looking up, search, and inquiry. (e.g., searching in a table, database, or other data structure), and regarding an ascertaining as a “judgment” or “decision.”
  • judgment and “decision” refer to receiving (e.g., receiving information), transmitting (e.g., sending information), input, output, and access.
  • (accessing) may include considering something as a “judgment” or “decision.”
  • judgment and “decision” refer to resolving, selecting, choosing, establishing, comparing, etc. as “judgment” and “decision”. may be included.
  • judgment and “decision” may include regarding some action as having been “judged” or “determined.”
  • judgment (decision) may be read as “assuming", “expecting", “considering”, etc.
  • notification of prescribed information is not limited to explicit notification, but may also be done implicitly (for example, by not notifying the prescribed information). Good too.
  • Transmittance control section 216...Extraction unit, 217...Display control unit, 310A, 310B...Lens, 391...Pixel, C...Shading range, Dck, Dk...Direction information, Gk...Captured image, Gkp...Partial image, Pk, Pck...Glass position information , R1 to R5... partial area, VO2... second virtual object, W... viewing range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

端末装置は、シースルー方式のグラスの位置を示す第1位置情報と、前記グラスの外界を向く方向を示す方向情報と、前記グラスの位置を基準として太陽の相対位置を示す第2位置情報とに基づいて、視野範囲のうち、外光を遮光する遮光範囲を決定する決定部と、遮光範囲おいて外光の透過率を制御する透過率制御部とを備える。

Description

表示制御装置
 本発明は、表示制御装置に関する。
 特許文献1には、サンバイザによって隠される物体をカメラにより撮影することによって生成される画像を表示器に表示する車両用表示装置が開示されている。この車両用表示装置は、自動車の現在位置と現在の時刻をGPS装置から取得する。車両用表示装置は、ジャイロスコープを用いて自動車の進行方向を取得する。車両用表示装置は、自動車の現在位置と現在の時刻に基づいて、太陽の位置を推測する。更に、車両用表示装置は、推測した太陽の位置と自動車の進行方向とから、フロントウインドから太陽光が差し込むか否かを判断する。つまり、車両用表示装置は、進行方向の前方に太陽が位置することによって、その太陽が逆光を引き起こすか否かを判断する。逆光が引き起こされると判断した場合、車両用表示装置は、逆光となる方向においてカメラに撮影を実行させる。車両用表示装置は、撮影によって生成された映像のうちから信号機の映像を抽出する。車両用表示装置は、抽出された映像をサンバイザに設けられた表示器に表示する。
特開2006-260011号公報
 ところで、ユーザの頭部に装着されるXRグラスが普及しつつある。ユーザは、XRグラスを介して、現実空間に仮想オブジェクトが重畳された拡張現実空間又は複合現実空間を視認する。ユーザがXRグラスを装着した状態で市中を歩く場合に、ユーザの視界に太陽が入ると、逆光の状態が生じる。例えば、ユーザが高い建物を見上げた場合に、ユーザの視界に太陽が位置する逆光の状態が生じる。
 従来の車両用表示装置は、自動車の進行方向に太陽が位置するか否かを判断することによって逆光の状態が生じたか否かを判断していた。しかし、XRグラスを装着したユーザは、ユーザの頭部を動かすことができるため、ユーザの進行方向から逆光の状態が生じているかを判断することはできない。
 本開示は、ユーザの安全性を向上させるグラスの表示制御装置を提供することを目的とする。
 本開示に係る表示制御装置は、シースルー方式のグラスを制御する。表示制御装置は、前記グラスの位置を示す第1位置情報と、前記グラスの外界を向く方向を示す方向情報と、前記グラスの位置を基準として太陽の相対位置を示す第2位置情報とに基づいて、前記グラスを介してユーザに視認される視野範囲のうち、外光を遮光する遮光範囲を決定する決定部と、前記決定された遮光範囲おいて、前記グラスを透過する前記外光の透過率を制御する透過率制御部とを備え、前記グラスは、レンズ及び前記レンズの前記外光が入射する面に設けられた調光装置を含み、前記透過率制御部は、前記遮光範囲に対応する前記調光装置の領域に対して透過率を調整する。
 本開示によれば、グラスを装着したユーザが、所定の方向に進行中に見上げることによって、ユーザの視野範囲に太陽が入る状況において、表示制御装置は、遮光範囲を設定できるので、ユーザの安全性が向上する。
実施形態に係る情報処理システム1の全体構成を示す図。 ユーザU[k]がXRグラス30-kを介して視認する複合現実空間の一例を示す説明図。 XRグラス30-kの外観の一例を示す斜視図。 XRグラス30-kの構成例を示すブロック図。 調光装置39の構成例を示す平面図。 端末装置20-kの構成例を示すブロック図。 XRグラス30-kの位置、太陽の位置、及びXRグラス30-kの外界を向く方向の関係の一例を示す説明図。 視野範囲Wにおける太陽の位置Q1~Q5と遮光範囲C1~C5との関係の一例を示す説明図。 調光装置39の部分領域R1~R5を示す説明図。 撮像画像Gkの一例を示す説明図。 図10Aに示される撮像画像Gkから図8に示される遮光範囲C3の全部を抽出することによって得られた部分画像Gkpを示す説明図。 遮光範囲C3から、標識の画像を抽出することによって得られた部分画像Gkpの一例を示す説明図。 ユーザU[k]が認識する視野範囲Wの一例を示す説明図。 ユーザU[k]が認識する視野範囲Wの一例を示す説明図。 部分画像Gkpとして第1の仮想オブジェクトと第2の仮想オブジェクトVO2とが、現実空間に重畳して表示される一例を示す説明図。 端末装置20-kの動作例を示すフローチャート。 撮像画像Gkの一例を示す説明図。 図13Aに示される撮像画像Gkにおいて、遮光範囲C、及び領域X1~X4の関係を示す説明図。
1:実施形態
 以下、図1~図12を参照しつつ、情報処理システム1について説明する。
1.1:実施形態の構成
1.1.1:全体構成
 図1は、情報処理システム1の全体構成を示すブロック図である。図1に示されるように、情報処理システム1は、ユーザ装置10-1、10-2、…10-k、…10-j、及び管理サーバ40を備える。管理サーバ40は、外部装置の一例である。管理サーバ40は、ユーザ装置の位置を管理する位置管理サーバ40A、及び仮想オブジェクトを管理するオブジェクト管理サーバ40Bを含む。jは1以上の任意の整数である。kは1以上j以下の任意の整数である。ユーザ装置10-kは、端末装置20-k及びXRグラス30-kを備える。本実施形態において、ユーザ装置10-1、10-2、…10-k、…10-jは相互に同一の構成である。従って、端末装置20-1、20-2、…20-k、…20-jは相互に同一の構成であり、XRグラス30-1、30-2、…30-k、…30-jは相互に同一の構成である。但し、情報処理システム1は、他の端末装置と構成が同一でない端末装置、又は他のXRグラスと構成が同一でないXRグラスを含んでもよい。
 情報処理システム1において、位置管理サーバ40Aとユーザ装置10-kとは、通信網NWを介して互いに通信可能に接続される。オブジェクト管理サーバ40Bとユーザ装置10-kとは、通信網NWを介して互いに通信可能に接続される。また、端末装置20-kとXRグラス30-kとは互いに通信可能に接続される。なお、図1において、ユーザU[k]は、ユーザ装置10-kを利用する。ユーザU[1]、U[2]、…U[k-1]、U[k+1]、…U[j] は、ユーザ装置10-1、10-2、…10-k-1、10-k+1、…10-jをそれぞれ利用する。
 端末装置20-kは、XRグラス30-kを制御する表示制御装置の一例である。また、端末装置20-kは、XRグラス30-kと位置管理サーバ40Aとの通信及びXRグラス30-kとオブジェクト管理サーバ40Bとの通信を中継する中継装置として機能する。端末装置20-kは、例えば、スマートフォン又はタブレット端末によって構成される。
 XRグラス30-kは、ユーザU[k]の頭部に装着される。XRグラス30-kは、仮想オブジェクトを表示可能なシースルー方式のグラスである。ユーザU[k]は、XRグラス30-kを介して、現実空間を視認しながら仮想オブジェクトを視認する。仮想オブジェクトは、現実空間の位置に対応付けられた仮想空間の位置に配置される。ユーザU[k]は、XRグラス30-kを用いることによって、現実空間と仮想空間が複合された拡張現実空間又は複合現実空間を認識する。拡張現実空間とは、現実空間の実オブジェクトに仮想オブジェクトが重ねられることが可能な空間を意味する。複合現実空間とは、現実空間の実オブジェクトと仮想オブジェクトとが相互に関係する空間を意味する。拡張現実空間では、仮想オブジェクトは単に実オブジェクトに重畳される。これに対して、複合現実空間では、仮想オブジェクトの物理モデルを用いることによって、仮想オブジェクトと実オブジェクトとの間の相互の作用が表現できる。例えば、複合現実空間では、ユーザが仮想オブジェクトであるボールを実オブジェクトである壁に投げると、仮想オブジェクトであるボールが実オブジェクトである壁で跳ね返る様子が表現される。
 図1に示されるXRグラス30-kは、外界を撮像する撮像装置36(図4参照)を備える。撮像装置36は、撮像を実行することによって撮像画像Gkを生成する。撮像画像Gkは、端末装置20-kを介して位置管理サーバ40Aに送信される。位置管理サーバ40Aは、端末装置20-kから送信される撮像画像Gkを受信する。位置管理サーバ40Aは、撮像画像Gkに基づいて、XRグラス30-kの位置と、XRグラス30-kが外界を向く方向を特定する。位置管理サーバ40Aは、特定した位置を示すグラス位置情報Pk及び特定した方向を示す方向情報Dkを端末装置20-kへ返信する。グラス位置情報Pkは、第1位置情報の一例である。
 位置管理サーバ40Aは、特徴点マップMを記憶している。特徴点マップMは、複数の特徴点を三次元のグローバル座標系(ワールド座標系)によって表現したデータである。特徴点マップMは、例えば、ステレオカメラが撮像を実行することによって得られた画像から複数の特徴点を抽出することによって生成される。特徴点マップMでは、現実空間の位置はワールド座標系によって表現される。
 位置管理サーバ40Aは、撮像画像Gkから複数の特徴点を抽出する。位置管理サーバ40Aは、抽出した複数の特徴点を特徴点マップMに記憶されている複数の特徴点と照合することによって、撮像画像Gkを生成するために用いられた撮像位置と撮像方向とを特定する。位置管理サーバ40Aは、撮像位置を示すグラス位置情報Pk及び撮像方向を示す方向情報Dkを端末装置20-kへ返信する。
 XRグラス30-kは、撮像画像Gkを位置管理サーバ40Aに周期的に送信することによって、周期的にグラス位置情報Pk及び方向情報Dkを取得する。なお、XRグラス30-kは、XRグラス30-kのローカル座標をリアルタイムでトラッキングする。XRグラス30-kは、位置管理サーバ40Aから取得するグラス位置情報Pk及び方向情報Dkを用いて、リアルタイムにXRグラス30-kの位置及び方向の補正を実行する。この補正によって、XRグラス30-kは、リアルタイムにワールド座標系で表されるXRグラス30-kの位置及び方向を認識できる。以下の説明では、補正によって生成される位置を示す情報をグラス位置情報Pck、補正によって生成される方向を示す情報を方向情報Dckと称する。グラス位置情報Pckはグラス位置情報Pkと同様に第1位置情報の一例である。
 オブジェクト管理サーバ40Bは、ユーザ装置10-kからグラス位置情報Pck及び方向情報Dckを受信した場合、グラス位置情報Pck及び方向情報Dckに基づいて、仮想オブジェクトのレンダリングを実行する。オブジェクト管理サーバ40Bは、レンダリングされた仮想オブジェクトを端末装置20-kに送信する。この例の仮想オブジェクトは、三次元の画像である。仮想オブジェクトの例には、例えば、地震及び火災などの災害に関する情報、渋滞に関する情報、並びに高速道路におけるサービスエリアに関する情報が含まれる。オブジェクト管理サーバ40Bによって生成される仮想オブジェクトをXRグラス30-kが表示することによって、ユーザU[k]は、危険を回避することが可能になる。以下の説明では、オブジェクト管理サーバ40Bが管理する仮想オブジェクトを第2の仮想オブジェクトVO2と称する。
 図2は、ユーザU[k]が、XRグラス30-kを介して視認する複合現実空間の一例を示す説明図である。図2に示される第2の仮想オブジェクトVO2は、楕円体の形状をしている。図2に示される複合現実空間において、点Qに太陽が位置する場合、逆光の状態が生じる。逆光の状態では、ユーザU[k]は、第2の仮想オブジェクトVO2と現実空間に存在する標識100等の実オブジェクトを認識できない。そこで、XRグラス30-kは、入射する外光の光量を調整する調光装置39(図3参照)を備え、調光装置39の透過率を制御することによって、視認性を高めている。
1.1.2:XRグラスの構成
 XRグラス30-kは、ユーザの頭部に装着されるシースルー型のヘッドマウントディスプレイである。XRグラス30-kは、端末装置20-kの制御に基づいて、レンズ310A及び310Bに仮想オブジェクトを表示させる。
 図3は、XRグラス30-kの外観の一例を示す斜視図である。XRグラス30-kは、テンプル301及び302と、ブリッジ303と、フレーム304及び305と、リム306及び307と、レンズ310A及び310Bと、撮像レンズLENとを有する。
 ブリッジ303は、リム306及び307を相互に接続する。ブリッジ303には、図4に示される撮像装置36を構成する撮像レンズLENが配置されている。撮像装置36は、例えば、カメラである。
 フレーム304には、左眼用の表示パネルと左眼用の光学部材が設けられている。表示パネルは、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルである。左眼用の表示パネルは、例えば、端末装置20-kからの制御に基づいて、仮想オブジェクトに対応する投射画像を表示する。左眼用の光学部材は、左眼用の表示パネルから射出された光をレンズ310Aに導光する光学部材である。
 フレーム305には、右眼用の表示パネルと右眼用の光学部材が設けられている。右眼用の表示パネルは、例えば、端末装置20-Kからの制御に基づいて仮想オブジェクトに対応する投射画像を表示する。右眼用の光学部材は、右眼用の表示パネルから射出された光をレンズ310Bに導光する光学部材である。リム306は、レンズ310Aを保持する。リム307は、レンズ310Bを保持する。
 レンズ310A及び310Bの各々は、ハーフミラーを有する。レンズ310A及び310Bが有するハーフミラーは、現実空間Rを表す光を透過させることによって、現実空間Rを表す光をユーザU[k]の目に導く。また、レンズ310A及び310Bが有するハーフミラーは、光学部材によって導光された仮想オブジェクトを示す光をユーザU[k]の目に向けて反射する。ハーフミラーを透過した現実空間の光と、ハーフミラーによって反射された仮想オブジェクトを示す光とがユーザU[k]の目に入射されることによって、ユーザU[k]は、現実空間上に仮想オブジェクトが位置しているように知覚する。すなわち、レンズ310A及び310Bは、ユーザU[k]の眼球の前面に配置される透過型のディスプレイとして機能する。
 また、本実施形態では、レンズ310Aの外面及びレンズ310Bの外面に、調光装置39が固定される。レンズ310Aの外面とは、平面状のレンズ310Aが有する2つの面のうち、XRグラス30-kを装着したユーザU[k]の目と対向する面と反対側の面である。レンズ310Bの外面とは、平面状のレンズ310Bが有する2つの面のうち、XRグラス30-kを装着したユーザU[k]の目と対向する面と反対側の面である。即ち、調光装置39はレンズ310A及び310Bの各々が有する面のうち外光が入射する面に設けられている。調光装置39は、レンズ310Aを透過する外光の通過率及びレンズ310Bを透過する外光の通過率を調整する。調光装置39は、例えば、液晶パネルによって構成される。
 調光装置39を用いることによって、XRグラス30-kを装着したユーザU[k]の目に入射する外光の光量を調整できる。調光装置39を有しないグラスでは、逆光の状態において、ユーザU[k]の視認性が低下する。XRグラス30-kは太陽の位置等に応じて調光装置39の透過率を調整することによって、ユーザU[k]の視認性を向上できる。
 図4は、XRグラス30-kの電気的な構成例を示すブロック図である。XRグラス30-kは、処理装置31、記憶装置32、検出装置35、撮像装置36、通信装置37、投影装置38、及び調光装置39を備える。各装置は、バスを介して相互に接続される。
 処理装置31は、1または複数のCPU(Central Processing Unit)を含む。1又は複数のCPUは、1又は複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。処理装置31は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。
 記憶装置32は、処理装置31が読み取り可能な記録媒体である。記憶装置32は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置32は、制御プログラムPR1を記憶する。制御プログラムPR1は、XRグラス30-kを動作させるためのプログラムである。
 検出装置35は、XRグラス30-kの状態を検出する。検出装置35は、例えば、加速度を検出する加速度センサ及び角加速度を検出するジャイロセンサなどの慣性センサ、並びに、方位を検出する地磁気センサを含む。加速度センサは、直交するX軸、Y軸、及びZ軸の軸ごとに当該軸に沿う方向の加速度を検出する。ジャイロセンサは、X軸、Y軸、及びZ軸の軸ごとに当該軸を回転の中心軸とする角加速度を検出する。検出装置35は、ジャイロセンサの出力情報に基づいて、XRグラス30-kの姿勢を示す姿勢情報を生成できる。後述の動き情報は、3軸の加速度を各々示す加速度情報及び3軸の角加速度を各々示す角加速度情報を含む。検出装置35は、XRグラス30-kの姿勢を示す姿勢情報、及びXRグラス30-kの動きに関する動き情報、XRグラス30-kの方位を示す方位情報を処理装置31に出力する。
 撮像装置36は、例えば、撮像光学系および撮像素子を有する。撮像光学系は、少なくとも1つの撮像レンズLEN(図3参照)を含む光学系である。例えば、撮像光学系は、プリズム等の各種の光学素子を有してもよいし、ズームレンズまたはフォーカスレンズ等を有してもよい。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサーまたはCMOS(Complementary MOS)イメージセンサー等である。
 通信装置37は、他の装置と通信を行うための通信インターフェースを備える。通信装置37は、無線通信または有線通信を用いて端末装置20-Kと通信する。本実施形態において、通信装置37は、例えばBluetooth(登録商標)のような近距離無線通信を用いて端末装置20-kの通信装置23(図6参照)と通信する。
 投影装置38は、レンズ310A及び310B、左眼用の表示パネル、左眼用の光学部材、右眼用の表示パネル、および右眼用の光学部材を含む。レンズ310A及び310Bは、ユーザU[k]の眼球の前面に配置されるディスプレイとして機能する。投影装置38は、端末装置20-kからの制御に基づいて、仮想オブジェクトに対応する投射画像を左眼用の表示パネルおよび右眼用の表示パネルに表示する。
 調光装置39は、例えば、透過型の液晶パネルによって構成される。液晶パネルは、複数の画素を備える。液晶パネルでは、画素ごとに透過率が制御される。複数の画素は、複数の部分領域の一例である。図5は調光装置39の構成例を模式的に示す説明図である。図5に示されるように、調光装置39は、縦と横に配列された複数の画素391を有する。例えば、調光装置39は、複数の画素391と1対1に対応する複数の画素電極と、複数の画素391に共通する共通電極と、共通電極と複数の画素電極との間に設けられる液晶を備える。共通電極と複数の画素電極は、それぞれ、透明電極によって構成される。そして、各画素電極と共通電極との間に印加される電圧に応じて、透過率が画素ごとに制御される。
 1.1.3:端末装置の構成
 図6は、端末装置20-kの構成例を示すブロック図である。端末装置20-kは、処理装置21、記憶装置22、通信装置23、及びタッチディスプレイ24を備える。端末装置20-kの各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。端末装置20-kは、表示制御装置の一例である。
 処理装置21は、端末装置20-kの全体を制御するプロセッサである。また、処理装置21は、例えば、単数又は複数のチップを用いて構成される。処理装置21は、例えば、周辺装置とのインターフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置21が有する機能の一部又は全部を、DSP、ASIC、PLD、FPGA等のハードウェアによって実現してもよい。処理装置21は、各種の処理を並列的又は逐次的に実行する。
 記憶装置22は、処理装置21による読取及び書込が可能な記録媒体である。また、記憶装置22は、処理装置21が実行する制御プログラムPR2を含む複数のプログラムを記憶する。また、記憶装置22は、処理装置21のワークエリアとして機能する。
 通信装置23は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置23は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置23は、有線接続用のコネクターと、上記コネクターに対応するインターフェース回路を備えていてもよい。また、通信装置23は、無線通信インターフェースを備えていてもよい。
 タッチディスプレイ24は、画像及び文字情報を表示するデバイスである。また、タッチディスプレイ24は、ユーザU[k]からの入力操作を受け付ける入力装置として機能する。
 処理装置21は、記憶装置22から制御プログラムPR2を読み出す。 処理装置21は、制御プログラムPR2を実行することによって、第1取得部211、第2取得部212、算出部213、決定部214、透過率制御部215、抽出部216及び表示制御部217として機能する。
 第1取得部211は、通信装置23を用いて、撮像画像Gkを位置管理サーバ40Aに送信することによって、位置管理サーバ40Aからグラス位置情報Pk及び方向情報Dkを取得する。
 第2取得部212は、通信装置23を用いて、オブジェクト管理サーバ40Bから第2の仮想オブジェクトVO2を取得する。より具体的には、第2取得部212は、グラス位置情報Pck及び方向情報Dckをオブジェクト管理サーバ40Bに送信することによって、第2の仮想オブジェクトVO2を取得する。
 算出部213は、現在の日時及びグラス位置情報Pk又はPckに基づいて、XRグラス30-kの位置を基準として太陽の相対位置を示す太陽位置情報を算出する。太陽位置情報は第2位置情報の一例である。
 決定部214は、XRグラス30-kの位置を示すグラス位置情報Pk又はPckと、XRグラス30-kの外界を向く方向を示す方向情報Dk又はDckと、XRグラス30-kの位置を基準として太陽の相対位置を示す太陽位置情報とに基づいて、XRグラス30-kを介してユーザU[k]に視認される視野範囲Wのうち、外光を遮光する遮光範囲Cを決定する。
 図7は、XRグラス30-kの位置、太陽の位置、及びXRグラス30-kの外界を向く方向の関係の一例を示す説明図である。図7に示される例において、XRグラス30-kは、位置P1(x1,y1,z1)に位置する。太陽は、位置P2(x2,y2,z2)に位置する。太陽位置情報の示す太陽の相対位置は、(x2-x1, y2-y1, z2-z1)となる。線分LはXRグラス30-kと太陽とを結ぶ線分である。また、XRグラス30-kは方向Dを向いている。方向Dと線分Lとの為す角は「θ」である。
 完全な逆光状態では、方向Dと線分Lとが重なる。この結果、完全な逆光状態では、角θはゼロとなり、XRグラス30-kに入射する外光の光量が最大となる。図2に示される複合現実空間は、XRグラス30-kを介してユーザU[k]に視認される。従って、図2は、XRグラス30-kを介してユーザU[k]に視認される視野範囲Wの一例を示している。角θがゼロとなる場合は、図2に示されるように、点Qによって示される太陽が、視野範囲Wの中央に位置する。
 決定部214は、グラス位置情報Pk又はPck及び太陽位置情報、並びに方向情報Dk又はDckに基づいて、視野範囲Wにおける太陽の位置を算出する。決定部214は、算出結果に応じて遮光範囲Cを決定する。例えば、決定部214は、視野範囲Wにおける太陽の位置を中心とする円を遮光範囲Cとして決定してもよい。図8は、視野範囲Wにおける太陽の位置と遮光範囲Cとの関係の一例を示す説明図である。図8に示される視野範囲Wにおいて、決定部214は、点Q1に太陽が位置する場合、点Q1を中心とする遮光範囲C1を決定する。決定部214は、点Q2に太陽が位置する場合、点Q2を中心とする遮光範囲C2を決定する。決定部214は、点Q3に太陽が位置する場合、点Q3を中心とする遮光範囲C3を決定する。決定部214は、点Q4に太陽が位置する場合、点Q4を中心とする遮光範囲C4を決定する。決定部214は、点Q5に太陽が位置する場合、点Q5を中心とする遮光範囲C5を決定する。
 図8に示される例では、遮光範囲C1~C5の半径は一定であった。しかし、決定部214は、視野範囲Wの中心と太陽の位置との距離が長くなるにつれて、遮光範囲Cの面積を小さくしてもよい。また、遮光範囲Cの形状は、円に限定されず、楕円、正方形、長方形、又は多角形であってもよい。
 透過率制御部215は、決定部214によって決定された遮光範囲Cおいて、XRグラス30-kを透過する外光の透過率を制御する。外光の透過率は、XRグラス30-kに入射する外光の光量を「A」、XRグラス30-kから出射する外光の光量を「B」とした場合、B/Aによって表される。透過率制御部215は、遮光範囲Cに対応する調光装置39の領域に対して透過率を調整する。透過率制御部215は、調光装置39における太陽の位置に基づいて、複数の部分領域の各々についての透過率を制御する。
 透過率制御部215は、遮光範囲Cの中心、即ち、調光装置39上の太陽の位置において、調光装置39の透過率を最小としてもよい。透過率制御部215は、遮光範囲Cの中心からの距離が長いほど、調光装置39の透過率を次第に大きくしてもよい。透過率制御部215は、例えば、図9に示されるように、調光装置39の部分領域R1において透過率を0%に設定し、調光装置39の部分領域R2において透過率を25%に設定し、調光装置39の部分領域R3において透過率を25%に設定し、調光装置39の部分領域R4において透過率を75%に設定し、調光装置39の部分領域R5において透過率を100%に設定してもよい。部分領域R1~R4は、図8に示される遮光範囲C3に対応する領域である。部分領域R5は、視野範囲Wのうち遮光範囲C3以外の領域である。
 抽出部216は、撮像画像Gkから遮光範囲Cの一部又は全部に対応する部分画像Gkpを抽出する。図10Aは、撮像画像Gkの一例を示す説明図である。図10Aに示される撮像画像Gkは、図2に示される複合現実空間から第2の仮想オブジェクトVO2を除いた画像である。図10Bは、図10Aに示される撮像画像Gkから図8に示される遮光範囲C3の全部を抽出することによって得られた部分画像Gkpである。
 また、図10Cは、遮光範囲C3から、標識の画像を抽出することによって得られた部分画像Gkpの一例を示す説明図である。抽出部216は、撮像画像Gkから遮光範囲Cの一部に対応する部分画像Gkpを抽出するために、撮像画像Gkに画像認識処理を施して部分画像Gkpを抽出する。画像認識処理の対象は、ユーザU[k]に危険を認識させる実オブジェクト、又はユーザU[k]と衝突する可能性がある実オブジェクトである。ユーザU[k]に危険を認識させる実オブジェクトの例は、例えば、標識及び信号機を含む。ユーザU[k]と衝突する可能性がある実オブジェクトの例は、車両及び人を含む。画像認識処理には、抽出の対象となる実オブジェクトの画像を学習済みの学習モデルが用いられてもよい。
 表示制御部217は、部分画像Gkpを第1の仮想オブジェクトとして、XRグラス10-kのレンズ310A及び310Bに表示させる。具体的には、表示制御部217は、部分画像Gkpを示す画像情報を、通信装置23を介してXRグラス30-kに送信する。XRグラス30-kは、画像情報に基づいて、投影装置38を用いて部分画像Gkpをレンズ310A及び310Bに投影する。調光装置39が遮光範囲Cを透過する外光の光量を低下させ、且つ部分画像Gkpが投影されることによって、ユーザU[k]は、逆光の状態であっても部分画像Gkpを認識できる。
 視野範囲Wの中央に太陽が位置する逆光の状態においては、ユーザU[k]は、外界を認識することが殆どできない。一方、撮像装置36は、露光時間を制御できるので、鮮明な撮像画像Gkを生成できる。しかし、XRグラス30-kが、単に、投影装置38を用いて撮像画像Gkを投影するだけでは、外光がレンズ310A及び310Bを介してユーザU[k]の目に入射するので、ユーザU[k]は外界を殆ど認識できない。本実施形態では、逆光状態において調光装置39によって外光が減光されるので、ユーザU[k]は外界を認識できる。
 例えば、図9に示される部分領域R1~R4の透過率が0%に設定され、図10Aに示される撮像画像Gkが生成され、部分画像Gkpが図10Bに示される画像である場合を想定する。この想定では、ユーザU[k]は図11Aに示される視野範囲Wを認識する。
 例えば、図9に示される部分領域R1からR3の透過率が0%に設定され、部分領域R4の透過率が50%に設定され、図10Aに示される撮像画像Gkが生成され、部分画像Gkpが図10Cに示される画像である場合を想定する。この想定では、ユーザU[k]は図11Bに示される視野範囲Wを認識する。
 また、表示制御部217は、第1の仮想オブジェクトの一例である部分画像Gkpと第2取得部212がオブジェクト管理サーバ40Bから取得した第2の仮想オブジェクトVO2とを互いに識別できる態様で、XRグラス30-kに表示させてもよい。第1の仮想オブジェクトと第2の仮想オブジェクトとが互いに識別できる態様で表示されることによって、現実空間に存在する実オブジェクトに対応して生成された第1の仮想オブジェクトと、オブジェクト管理サーバ40Bが有する第2の仮想オブジェクトVO2とをユーザU[k]は、簡単に認識することができる。
 加えて、表示制御部217は、第1の仮想オブジェクトをレンズ310A及び310Bの表示領域のうち遮光範囲Cに対応する第1領域に表示させ、第2の仮想オブジェクトを、表示領域のうち第1領域以外の第2領域に表示させてもよい。仮想オブジェクトの種別に応じて仮想オブジェクトの表示領域を区別することによって、第1の仮想オブジェクトと第2の仮想オブジェクトとをユーザU[k]は、簡単に認識することができる。
 例えば、図11Aに示される視野範囲WがXRグラス30-kの表示領域に表示されており、この画像に、図2に示される第2の仮想オブジェクトVO2が重畳させた画像が表示領域に表示される場合を想定する。図11Cは部分画像Gkpである第1の仮想オブジェクトと第2の仮想オブジェクトVO2とが現実空間に重畳された画像が表示される一例を示す説明図である。図11Cに示されるように、部分画像Gkpは、遮光範囲Cに対応する第1領域に表示される。上述した部分領域R1、R2、R3及びR4は第1領域に対応する。また、部分領域R5は第2領域に対応する。図11Cに示される例では、部分画像Gkpが第1領域に表示され、第2の仮想オブジェクトVO2が第2領域に表示される。また、表示制御部217は、第2の仮想オブジェクトVO2の外縁を赤色の枠で囲む、あるいは、第2の仮想オブジェクトVO2を点滅させる。表示制御部217は、このような効果処理を第2の仮想オブジェクトVO2に施すことによって、第1の仮想オブジェクトと第2の仮想オブジェクトとが互いに識別できる態様で表示させる。
1.2:実施形態の動作
 以下、端末装置20-kの動作を説明する。図12は、端末装置20-kの動作例を示すフローチャートである。
 ステップS10において、処理装置21は、通信装置23を介して、撮像画像Gkを含む位置方向要求を位置管理サーバ40Aへ送信する。また、処理装置21は、通信装置23を介して、位置管理サーバ40Aから位置方向応答を受信する。位置方向応答には、XRグラス30-kの位置を示す第1位置情報及びXRグラス30-kが外界を向く方向を示す方向情報が含まれる。この送受信によって、処理装置21は、第1位置情報及び方向情報を取得する。
 ステップS11において、処理装置21は、オブジェクト管理サーバ40Bから第2の仮想オブジェクトVO2を取得する。具体的には、処理装置21は、通信装置23を介して、第1位置情報及び方向情報を含むオブジェクト要求を、オブジェクト管理サーバ40Bへ送信する。また、処理装置21は、通信装置23を介して、オブジェクト管理サーバ40Bから第2の仮想オブジェクトVO2を含むオブジェクト応答を受信する。この送受信によって、処理装置21は、第2の仮想オブジェクトVO2を取得する。
 ステップS12において、処理装置21は、現在の日時、及びグラス位置情報Pk又はPckに基づいて、太陽の相対位置を示す太陽位置情報を算出する。
 ステップS13において、処理装置21は、遮光範囲Cを決定する。この処理において、処理装置21は、グラス位置情報Pk又はPckと、方向情報Dk又はDckと、太陽位置情報とに基づいて、XRグラス30-kを介してユーザU[k]に視認される視野範囲Wのうち、外光を遮光する遮光範囲Cを決定する。具体的には、処理装置21は、まず、グラス位置情報Pk又はPck、及び太陽位置情報、並びに方向情報Dk又はDckに基づいて、視野範囲Wにおける太陽の位置を算出する。処理装置21は、続いて、算出結果に応じて遮光範囲Cを決定する。
 ステップS14において、処理装置21は、遮光範囲Cに対応する調光装置39の領域について透過率を調整する。この処理において、処理装置21は、調光装置39における太陽の位置に基づいて、複数の部分領域の各々についての透過率を制御する。具体的には、処理装置21は、調光装置39の複数の部分領域の各々について透過率を指定する透過率情報を生成する。なお、透過率情報は、遮光範囲C以外の部分については、100%の透過率を指定する。処理装置21は、通信装置23を介して、透過率情報をXRグラス30-kに送信する。XRグラス30-kは、受信した透過率情報に基づいて調光装置39の透過率を制御する。
 ステップS15において、処理装置21は、撮像画像Gkから遮光範囲Cの一部又は全部に対応する部分画像Gkpを抽出する。部分画像Gkpは遮光範囲Cの一部に対応してもよいし、あるいは、遮光範囲Cの全部に対応してもよい。
 ステップS16において、処理装置21は、XRグラス30-kに表示させる表示画像を生成する。この処理において、処理装置21は、ステップS11で取得した第2の仮想オブジェクトVO2の画像とステップS15で抽出した部分画像Gkpとを合成して表示画像を生成する。
 ステップS17において、処理装置21は、通信装置23を介して、表示画像をXRグラス30-kに送信する。XRグラス30-kは、投影装置38を用いて受信した表示画像を投影することによって、拡張現実空間又は複合現実空間をユーザU[k]に視認させる。
 以上の処理において、処理装置21は、ステップS10において第1取得部211として機能する。また、処理装置21は、ステップS11において第2取得部212として機能する。また、処理装置21は、ステップS12において算出部213として機能する。また、処理装置21は、ステップS13において決定部214として機能する。また、処理装置21は、ステップS14において透過率制御部215として機能する。また、処理装置21は、ステップS15において抽出部216として機能する。また、処理装置21は、ステップS16及びS17において表示制御部217として機能する。
1.3:実施形態が奏する効果
 以上の説明によれば、端末装置20-kは、シースルー方式のXRグラス30-kを制御する表示制御装置の一例である。端末装置20-kは、決定部214と、透過率制御部215とを備える。決定部214は、XRグラス30-kの位置を示すグラス位置情報Pk又はPckと、XRグラス30-kの外界を向く方向を示す方向情報Dk又はDckと、太陽の位置を示す太陽位置情報とに基づいて、XRグラス30-kを介してユーザに視認される視野範囲Wのうち、外光を遮光する遮光範囲Cを決定する。透過率制御部215は、決定された遮光範囲Cおいて、XRグラス30-kを透過する外光の透過率を制御する。XRグラス30-kは、レンズ310A及び310B並びに調光装置39を含む。調光装置39は、レンズ310A及び310Bの外光が入射する面に設けられている。透過率制御部215は、遮光範囲Cに対応する調光装置39の領域に対して透過率を調整する。
 端末装置20-kは、以上の構成を有するので、XRグラス30-kを装着したユーザU[k]の進行方向ではなく、XRグラス30-kの外界を向く方向を考慮して、遮光範囲Cを決定できる。このため、XRグラス30-kを装着したユーザU[k]が、所定の方向に進行中に見上げることによって、ユーザU[k]の視野範囲Wに太陽が入る状況において、端末装置20-kは遮光範囲Cを設定できる。よって、端末装置20-kは、XRグラス30-kを装着したユーザU[k]の安全性を向上させることができる。
 また、XRグラス30-kは、外界を撮像する撮像装置36を備える。端末装置20-kは、第1取得部211と、算出部213とを備える。第1取得部211は、撮像装置36が撮像を実行することによって生成された撮像画像Gkを位置管理サーバ40Aに送信することによって、位置管理サーバ40Aからグラス位置情報Pk及び方向情報Dkを取得する。算出部213は、現在の日時及びグラス位置情報Pk又はPckに基づいて、太陽位置情報を算出する。
 端末装置20-kは、以上の構成を有するので、位置管理サーバ40Aからグラス位置情報Pk及び方向情報Dkを取得できる。位置管理サーバ40Aは、撮像画像Gkから抽出した複数の特徴点と特徴点マップMに格納されている複数の特徴点とを照合することによって、グラス位置情報Pk及び方向情報Dkを生成する。照合によって生成されたグラス位置情報Pkは、GPS装置によって取得されるXRグラス30-kの位置情報よりも高精度である。よって、端末装置20-kは、太陽位置情報を高い精度で算出できる。
 また、調光装置39は、複数の部分領域に相当する複数の画素391を含む。決定部214は、複数の画素391の各々についての透過率を決定する。端末装置20-kは、複数の画素391の各々についての透過率を決定するので、逆光の状態に応じて、透過率を精細に制御できる。
 また、XRグラス30-kは、レンズ310A及び310Bに仮想オブジェクトを表示させる投影装置38を備える。端末装置20-kは、抽出部216と、表示制御部217とを更に備える。抽出部216は、撮像画像Gkから遮光範囲Cの一部又は全部に対応する部分画像Gkpを抽出する。表示制御部217は、部分画像Gkpを第1の仮想オブジェクトとして、レンズ310A及び310Bに表示させる。
 調光装置39によって遮光される遮光範囲Cの透過率が低い場合、ユーザU[k]の目を保護することができる。一方、遮光範囲Cにおいて、ユーザU[k]は現実空間を認識できなくなる。端末装置20-kは、部分画像Gkpをレンズ310A及び310Bに表示させるので、ユーザU[k]は、遮光範囲Cに対応する現実空間に存在する実オブジェクトを、第1の仮想オブジェクトとして認識できる。よって、端末装置20-kは、ユーザU[k]の目を保護しつつ、XRグラス30-kの利用時の安全性を向上できる。
 また、端末装置20-kは、オブジェクト管理サーバ40Bから第2の仮想オブジェクトVO2を取得する第2取得部212を備える。表示制御部217は、第1の仮想オブジェクトと第2の仮想オブジェクトVO2とを互いに識別できる態様で、レンズ310A及び310Bに表示させる。
 端末装置20-kは、以上の構成を有するので、現実空間に存在する実オブジェクトに対応して生成された第1の仮想オブジェクトと、オブジェクト管理サーバ40Bが有する第2の仮想オブジェクトとをユーザU[k]は、簡単に認識することができる。
 また、表示制御部217は、第1の仮想オブジェクトをレンズ310A及び310Bの表示領域のうち遮光範囲Cに対応する第1領域に表示させ、第2の仮想オブジェクトを、表示領域のうち第1領域以外の第2領域に表示させる。
 端末装置20-kは、以上の構成を有するので、仮想オブジェクトの種別に応じて仮想オブジェクトが表示される領域が区別される。よって、端末装置20-kは、第1の仮想オブジェクトと第2の仮想オブジェクトとをユーザU[k]に、簡単に認識させることができる。
2:変形例
 本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
2.1:変形例1
 上述したXRグラス30-kは、投影装置38を用いて、仮想オブジェクトをレンズ310A及び310Bに表示させた。XRグラス30-kは、仮想オブジェクトを表示することによって、拡張現実空間又は複合現実空間をユーザU[k]に提供した。しかし、本開示は、実施形態に限定されない。本開示は、投影装置38を備えないグラスであってもよい。このグラスにおいても調光装置39によって、外光を遮光することによって、ユーザU[k]の目を保護することができる。加えて、変形例のグラスにおいて、逆光の状態では順光の状態と比較して調光装置39の透過率を低く制御することによって、ユーザU[k]に外界を容易に視認させることができる。
2.2:変形例2
 上述した実施形態において、決定部214は、調光装置39の複数の部分領域の各々についての透過率を決定した。しかし、本開示は実施形態に限定されない。即ち、決定部214は、調光装置39の全体についての透過率を一律に決定してもよい。決定部214が透過率を一律に決定する場合、調光装置39は、複数の画素391を備える必要はなく、1個の共通電極と、1個の画素電極と、共通電極と画素電極とに挟持される液晶を備えればよい。この場合、共通電極と画素電極とに印加される電圧に応じて、調光装置39の全体について透過率が一律に制御される。
2.3:変形例3
 上述した実施形態において、透過率制御部215は、XRグラス30-kに対する太陽の相対位置に応じて調光装置39の各画素391の透過率を制御した。しかし、本開示はこれに限定されない。透過率制御部215は、複数の部分領域に相当する複数の画素391の各々に対応する撮像画像Gkの輝度を算出し、調光装置39における太陽の位置及び複数の画素391の各々に対応する撮像画像Gkの輝度に基づいて、複数の画素391の各々についての透過率を制御してもよい。
 例えば、図13Aに示される撮像画像Gkにおいて、決定部214によって図13Aに示される遮光範囲Cが設定された場合を想定する。ここで、透過率制御部215は、複数の画素391の各々に対応する撮像画像Gkの輝度を算出した結果、撮像画像Gkの輝度の分布が図13Bに示される領域X1、領域X2、領域X3及び領域X4に分類されたとする。領域X1の輝度の平均値はL1、領域X2の輝度の平均値はL2、領域X3の輝度の平均値はL3、領域X4の輝度の平均値はL4であるとする。また、L1~L4は以下の関係があるものとする。
 L1<L2<L3<L4
 この場合、透過率制御部215は、平均輝度L1~L4に基づいて、領域X1の透過率Z1、領域X2の透過率Z2、領域X3の透過率Z3及び領域X4の透過率Z4を設定する。透過率Z1~Z4には以下の関係がある。
 Z1>Z2>Z3>Z4
 以上のように透過率Z1~Z4が設定されることによって、輝度が高い領域ほど調光装置39の透過率を小さくできる。よって、変形例3に係る端末装置20-kによれば、撮像画像Gkの輝度を考慮して透過率を制御できるので、撮像画像Gkの輝度を考慮しないで透過率を制御する場合と比較して、ユーザU[k]の視認性が向上する。
2.4:変形例4
 上述した実施形態において、調光装置39は、レンズ310A及び310Bの外光が入射する面に設けられた。しかし、本開示は実施形態に限定されない。即ち、調光装置39は、レンズ310A及び310Bの外光が入射する面から、第1方向に離間して設けられてもよい。第1方向は、ユーザU[k]の眼球から外光が入射する面に向かう方向である。
2.5:変形例5
 上述した実施形態において、ユーザ装置10-kは、端末装置20-kとXRグラス30-kによって、構成された。しかし、本開示は実施形態に限定されない。例えば、XRグラス30-kが端末装置20-kを含んででもよい。この場合、XRグラス30-kを制御する表示制御装置の一例は、処理装置31である。
3:その他
(1)上述した実施形態では、記憶装置22、及び記憶装置32は、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NWから送信されてもよい。
(2)上述した実施形態において、説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)上述した実施形態において、判定は、1ビットを用いて表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1~図13Bに例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(7)上述した実施形態において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称を用いて呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
(10)上述した実施形態において、ユーザ装置10-1~10-j、端末装置20-1~20-j、及びXRグラス30-1~30-jは、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的な結合又は接続であっても、論理的な結合又は接続であっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」を用いて読み替えられてもよい。本開示において使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(13)本開示において使用される「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行う通知に限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本開示の記載は、例示説明を目的とし、本開示に対して何ら制限的な意味を有さない。
1…情報処理システム、10-1~10-j…ユーザ装置、21,31…処理装置、20-1~20-j…端末装置、30-1~30-j…XRグラス、36…撮像装置、39…調光装置、40A…位置管理サーバ、40B…オブジェクト管理サーバ、211…第1取得部、212…第2取得部、213…算出部、214…決定部、215…透過率制御部、216…抽出部、217…表示制御部、310A,310B…レンズ、391…画素、C…遮光範囲、Dck,Dk…方向情報、Gk…撮像画像、Gkp…部分画像、Pk,Pck…グラス位置情報、R1~R5…部分領域、VO2…第2の仮想オブジェクト、W…視野範囲。

Claims (7)

  1.  シースルー方式のグラスを制御する表示制御装置であって、
     前記グラスの位置を示す第1位置情報と、前記グラスの外界を向く方向を示す方向情報と、前記グラスの位置を基準として太陽の相対位置を示す第2位置情報とに基づいて、前記グラスを介してユーザに視認される視野範囲のうち、外光を遮光する遮光範囲を決定する決定部と、
     前記決定された遮光範囲おいて、前記グラスを透過する前記外光の透過率を制御する透過率制御部とを備え、
     前記グラスは、レンズ及び前記レンズの前記外光が入射する面に設けられた調光装置を含み、
     前記透過率制御部は、前記遮光範囲に対応する前記調光装置の領域に対して透過率を調整する、
     表示制御装置。
  2.  前記グラスは、外界を撮像する撮像装置を備え、
     前記撮像装置が撮像を実行することによって生成された撮像画像を外部装置に送信することによって、前記外部装置から前記第1位置情報及び前記方向情報を取得する第1取得部と、
     現在の日時及び前記第1位置情報に基づいて、前記第2位置情報を算出する算出部とを更に備える、
     請求項1に記載の表示制御装置。
  3.  前記調光装置は、複数の部分領域を含み、
     前記決定部は、前記調光装置の全体についての透過率を一律に決定するか、又は前記複数の部分領域の各々についての透過率を決定する、
     請求項2に記載の表示制御装置。
  4.  前記調光装置は、複数の部分領域を含み、
     前記透過率制御部は、
     前記複数の部分領域の各々に対応する撮像画像の輝度を算出し、
     前記調光装置における太陽の位置及び前記複数の部分領域の各々に対応する撮像画像の輝度に基づいて、前記複数の部分領域の各々についての透過率を制御する、
     請求項2に記載の表示制御装置。
  5.  前記グラスは、前記レンズに仮想オブジェクトを表示し、
     前記撮像画像から前記遮光範囲の一部又は全部に対応する部分画像を抽出する抽出部と、
     前記部分画像を第1の仮想オジェクトとして、前記レンズに表示させる表示制御部とを更に備える、
     請求項3に記載の表示制御装置。
  6.  外部装置から第2の仮想オジェクトを取得する第2取得部を更に備え、
     前記表示制御部は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとを互いに識別できる態様で、前記レンズに表示させる、
     請求項5に記載の表示制御装置。
  7.  外部装置から第2の仮想オジェクトを取得する第2取得部を更に備え、
     前記表示制御部は、
     前記第1の仮想オブジェクトを前記レンズの表示領域のうち前記遮光範囲に対応する第1領域に表示させ、
     前記第2の仮想オジェクトを、前記表示領域のうち前記第1領域以外の第2領域に表示させる、
     請求項5に記載の表示制御装置。
PCT/JP2023/013820 2022-05-24 2023-04-03 表示制御装置 WO2023228585A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022084775 2022-05-24
JP2022-084775 2022-05-24

Publications (1)

Publication Number Publication Date
WO2023228585A1 true WO2023228585A1 (ja) 2023-11-30

Family

ID=88919061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/013820 WO2023228585A1 (ja) 2022-05-24 2023-04-03 表示制御装置

Country Status (1)

Country Link
WO (1) WO2023228585A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412439A (en) * 1993-02-17 1995-05-02 Northrop Grumman Corporation Laser visor having overlying photosensors
JP2014228595A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 拡張現実空間表示装置
JP2016220042A (ja) * 2015-05-20 2016-12-22 株式会社リコー 視認装置、視認システム及び建造物の点検方法
US20210048676A1 (en) * 2019-08-15 2021-02-18 Magic Leap, Inc. Ghost Image Mitigation in See-Through Displays With Pixel Arrays
JP2021103341A (ja) * 2018-03-30 2021-07-15 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412439A (en) * 1993-02-17 1995-05-02 Northrop Grumman Corporation Laser visor having overlying photosensors
JP2014228595A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 拡張現実空間表示装置
JP2016220042A (ja) * 2015-05-20 2016-12-22 株式会社リコー 視認装置、視認システム及び建造物の点検方法
JP2021103341A (ja) * 2018-03-30 2021-07-15 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
US20210048676A1 (en) * 2019-08-15 2021-02-18 Magic Leap, Inc. Ghost Image Mitigation in See-Through Displays With Pixel Arrays

Similar Documents

Publication Publication Date Title
CN106327584B (zh) 一种用于虚拟现实设备的图像处理方法及装置
US10645374B2 (en) Head-mounted display device and display control method for head-mounted display device
KR20180096434A (ko) 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치
US9864198B2 (en) Head-mounted display
US9696798B2 (en) Eye gaze direction indicator
US20160357266A1 (en) Methods And Systems For Hands-Free Browsing In A Wearable Computing Device
US10109110B2 (en) Reality augmentation to eliminate, or de-emphasize, selected portions of base image
US8957916B1 (en) Display method
CN106919262A (zh) 增强现实设备
CN204595329U (zh) 头戴式显示装置
US11506902B2 (en) Digital glasses having display vision enhancement
JP3372926B2 (ja) ヘッドマウントディスプレイ装置およびヘッドマウントディスプレイシステム
US10761694B2 (en) Extended reality content exclusion
CN108828771A (zh) 可穿戴设备的参数调整方法、装置、穿戴设备及存储介质
KR20190066197A (ko) 스포츠 고글
WO2023228585A1 (ja) 表示制御装置
CN204695230U (zh) 头操作的电子眼镜
US11792371B2 (en) Projector with field lens
US20220197580A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
US11506898B1 (en) Polarized reflective pinhole mirror display
US11852500B1 (en) Navigation assistance for the visually impaired
CN117222932A (zh) 眼部佩戴设备投影仪亮度控制
JP2022102907A (ja) システム、管理装置、プログラム、及び管理方法
JP2017126009A (ja) 表示制御装置、表示制御方法、およびプログラム
WO2018145463A1 (zh) 一种实现增强现实的装置及方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811463

Country of ref document: EP

Kind code of ref document: A1