WO2021070692A1 - 表示制御装置、表示制御方法および表示制御プログラム - Google Patents

表示制御装置、表示制御方法および表示制御プログラム Download PDF

Info

Publication number
WO2021070692A1
WO2021070692A1 PCT/JP2020/037073 JP2020037073W WO2021070692A1 WO 2021070692 A1 WO2021070692 A1 WO 2021070692A1 JP 2020037073 W JP2020037073 W JP 2020037073W WO 2021070692 A1 WO2021070692 A1 WO 2021070692A1
Authority
WO
WIPO (PCT)
Prior art keywords
display control
display
virtual object
unit
control device
Prior art date
Application number
PCT/JP2020/037073
Other languages
English (en)
French (fr)
Inventor
智也 成田
茜 近藤
遼 深澤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2021070692A1 publication Critical patent/WO2021070692A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • the present disclosure relates to a display control device, a display control method, and a display control program.
  • a display device such as a head-mounted display (hereinafter, "HMD") that is attached to the user so that the display surface is located in front of the user.
  • HMD head-mounted display
  • Such a display device displays an object by a field sequential color method in which each color plane is divided in time and displayed, and updates the display position of the object to be displayed according to the movement of the user who wears the object (for example, Patent Document). 1).
  • an object of the present application is to provide a display control device, a display control method, and a display control program capable of reducing a decrease in visibility of a virtual object.
  • the display control device in order to solve the above-mentioned problems and achieve the object includes an acquisition unit, a drawing unit, an update unit, and a display control unit.
  • the acquisition unit acquires a posture signal regarding the posture of the field sequential color type display device.
  • the update unit updates the display position by moving the display position of the virtual object drawn by the drawing unit based on the posture signal acquired by the acquisition unit.
  • the display control unit relatively lowers the visibility of a predetermined color plane among the plurality of color planes of the virtual object as compared with other color planes. Let me.
  • FIG. 1 is a diagram showing an example of a display device according to an embodiment.
  • FIG. 2 is a schematic diagram of a color break. Note that FIG. 1 shows an example of the HMD.
  • the display device 10 is a display device that provides augmented reality (AR) by superimposing a virtual object on the real world and presenting it to the user.
  • AR augmented reality
  • the display device 10 has a display unit 11 and is arranged at a position in front of both eyes of the user so that the display unit 11 is located in front of the user when worn by the user. ..
  • the display device 10 may be monocular.
  • the display device 10 is a so-called sequential color type display device that displays each color plane of each pixel by dividing it in time.
  • the color plane has three colors of RGB will be described, but the present invention is not limited to this, and other colors such as W (white) may be included.
  • the display device 10 has, for example, a gyro sensor 12 and detects a posture signal regarding the posture and position of the user to be worn.
  • the display device 10 is not limited to the gyro sensor 12, and may include one or more sensors capable of detecting the movement of the display device 10, such as an acceleration sensor and a geomagnetic sensor. Further, the image captured by the user wearing the display device 10 may be analyzed to detect the movement of the user.
  • the display device 10 is a so-called see-through type display device that superimposes and displays the virtual object O on the real landscape Rw that the user can see through the display unit 11.
  • a color break becomes a problem.
  • the color break is composed of RGB of the virtual object O when the display position of the virtual object O displayed on the display unit 11 is moved on the display unit 11. This is a phenomenon in which each color plane is displayed separately.
  • the red (R) color plane, the green (G) color plane, and the blue (B) color plane are displayed at different times, so that each color plane is displayed separately. To. Therefore, each separated color plane is displayed as an afterimage, and the visibility of the virtual object O is lowered.
  • the solution to the color break is to make the switching speed to display each color plane sufficiently fast. However, in this case, it is necessary to change the display device itself, and it cannot be applied to the existing display device.
  • the color plane that becomes the afterimage is focused on, and the visibility of the color plane that becomes the afterimage is lowered to reduce the visibility of the color plane that becomes the afterimage. It was decided to suppress the decrease in the visibility of O.
  • FIG. 3 is a block diagram showing a configuration example of the display control device 1 according to the embodiment. Note that FIG. 3 also shows the display device 10. Further, the display control device 1 and the display device 10 can transmit and receive data in both directions wirelessly or by wire.
  • the display device 10 includes a display unit 11, a gyro sensor 12, and a camera 13.
  • the display unit 11 is composed of, for example, a half mirror or the like, has a light-transmitting display surface, and displays a virtual object O input from the display control device 1. Further, the display unit 11 outputs a vertical synchronization signal to the display control device 1 at the timing when the display of the virtual object is completed for each frame. The display unit 11 may notify the vertical synchronization signal for each color plane.
  • the gyro sensor 12 is a sensor that detects the angular velocity of three axes that detects the movement of the display device 10. As described above, since the display device 10 is an HMD, the gyro sensor 12 detects a change in the posture of the user wearing the display device 10 and sends a posture signal according to the detected posture to the display control device 1. Output.
  • the camera 13 is a camera that images the front of the display device 10. For example, the camera 13 captures an image of the actual landscape Rw that the user sees through the display unit 11, and outputs the captured image data to the display control device 1.
  • the display control device 1 includes a storage unit 2 and a control unit 3.
  • the display control device 1 may include a communication unit (not shown) for wirelessly or wiredly communicating with an external device, and an operation unit (not shown) for accepting user operations.
  • the storage unit 2 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk.
  • the storage unit 2 stores the threshold information 20 and the object information 21, and also has a buffer area 22.
  • the threshold value information 20 is information regarding a threshold value for determining whether or not to reduce the visibility of each color plane of the virtual object O. A specific example of the threshold information 20 will be described later with reference to FIG. 7.
  • the object information 21 is information about the virtual object O.
  • information regarding the shape of the virtual object O (including the three-dimensional shape), the brightness value of each color plane of each pixel displaying the virtual object O, and the like are stored in the storage unit 2 as object information 21.
  • the buffer area 22 is an area for temporarily storing the virtual object O drawn by the drawing unit 31 described later. For example, the virtual object O is overwritten in the buffer area 22 every time the drawing unit 31 draws.
  • the control unit 3 draws the virtual object O and outputs it to the display device 10, and updates the display position of the display device 10, that is, the display position of the virtual object O in response to a change in the posture of the user. Further, the control unit 3 suppresses a decrease in visibility of the virtual object O due to a color break caused by updating the display position of the virtual object O.
  • control unit 3 for example, a program stored in the display control device 1 is executed by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like with a RAM (Random Access Memory) or the like as a work area. It will be realized. Further, the control unit 3 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the control unit 3 includes an acquisition unit 30, a drawing unit 31, an update unit 32, and a display control unit 33, and realizes or executes an information processing function or operation described below. To do.
  • the internal configuration of the control unit 3 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it is a configuration for performing information processing described later.
  • the control unit 3 may be connected to a predetermined network by wire or wirelessly using, for example, a NIC (Network Interface Card) or the like, and may receive various information from an external server or the like via the network.
  • NIC Network Interface Card
  • the acquisition unit 30 acquires a posture signal regarding the posture of the display device 10. Specifically, the acquisition unit 30 acquires the angular velocity detected by the gyro sensor 12 as an attitude signal. The acquisition unit 30 outputs the acquired posture signal to the drawing unit 31 and the update unit 32.
  • the drawing unit 31 draws the virtual object O to be displayed on the display device 10.
  • the drawing unit 31 draws the virtual object O each time the vertical synchronization signal input from the display device 10 is acquired, and stores the virtual object O in the buffer area 22 of the storage unit 2.
  • the drawing unit 31 draws the virtual object O according to the posture (viewpoint) of the user. That is, the drawing unit 31 draws a virtual object O that is virtually visible to the current user.
  • the display control device 1 defines a global space with respect to the real world, and defines a local space with respect to the display area of the display device 10.
  • the global space is a space that does not change depending on the posture of the user
  • the local space is a space that changes with the posture of the user.
  • the coordinates in the global space are obtained from, for example, absolute angle (direction) information (data, position information obtained by GPS (Global Positioning System), and the coordinates in the local space are input from the gyro sensor 12. Obtained from the attitude signal.
  • the drawing unit 31 calculates the posture and size of the virtual object that is virtually visible to the user by converting the coordinates of the virtual object O defined in the global space into the coordinates of the local space. Then, the drawing unit 31 draws the virtual object O according to the calculated posture and size.
  • the update unit 32 updates the display position by moving the display position of the virtual object O drawn by the drawing unit 31 based on the posture signal acquired by the acquisition unit 30. That is, the update unit 32 updates the display position of the virtual object O according to the current viewpoint of the user.
  • the update unit 32 updates the display position of the virtual object O by moving the virtual object O localized in the global space in the local space according to the posture signal acquired by the acquisition unit 30. To do. As a result, the virtual object O appears to the user as if it were fixed in the global space via the display device 10.
  • the update unit 32 updates the display position at a cycle shorter than the drawing cycle by the drawing unit 31, and updates the display position of the virtual object O stored in the buffer area 22 by the drawing unit 31.
  • the display control device 1 acquires the posture signal in a cycle shorter than the acquisition cycle of the vertical synchronization signal, and updates the display position of the virtual object O based on the acquired posture signal.
  • the update unit 32 can display the virtual object O by following the change in the posture of the user by updating the display position of the virtual object O at a cycle shorter than the vertical synchronization signal.
  • FIG. 4 is a diagram showing an example of a change in the posture of the user.
  • FIG. 5 is a diagram showing an example of processing by the update unit 32 according to the embodiment.
  • the update unit 32 rotates the local space according to the amount of change ⁇ .
  • the display position of the virtual object O can be updated while the virtual object O is fixed in the global space.
  • the updating section 32 a virtual object O 1 movement amount ⁇ m displayed on the display position corresponding to the line of sight theta 0, by moving to the left, corresponding to the line of sight theta 1 It is moved to a virtual object O 2 to.
  • the movement amount ⁇ m is a value corresponding to the change amount ⁇ , and is a value calculated based on the distance to the virtual object O and the change amount ⁇ .
  • the update unit 32 may calculate the movement amount based on the change amount in the pitch direction and the low direction. Further, the movement amount ⁇ m may be calculated by changing the movement of the user back and forth and left and right.
  • the display control unit 33 When the display position is updated by the update unit 32, the display control unit 33 relatively lowers the visibility of a predetermined color plane among the plurality of color planes of the virtual object O as compared with other color planes. ..
  • the display control unit 33 lowers the brightness value of the low-luminance plane having a relatively low brightness value among the RGB color planes of the virtual object O, or prevents the low-luminance plane from being displayed. This reduces the visibility of the low-luminance plane. That is, the display control unit 33 reduces the visibility of the color plane that becomes an afterimage.
  • the display control unit 33 hypothetically increases the visibility of the high-luminance plane closest to the actual color of the virtual object O. That is, by reducing the visibility of the low-luminance plane among the plurality of color planes, it is possible to reduce the change in the color of the virtual object O.
  • the high-luminance plane is a color plane having a relatively large luminance value among a plurality of color planes.
  • FIG. 6 is a diagram showing an example of processing by the display control unit 33 according to the first embodiment.
  • FIG. 7 is a diagram showing an example of a threshold value for a posture signal.
  • FIG. 8 is a schematic diagram of the virtual object O when the display position is updated.
  • FIG. 6 shows the time-series changes of each color plane of one pixel in which the virtual object O is displayed.
  • the case where the update unit 32 does not update the display position of the virtual object O that is, the case where the posture of the user does not change is defined as "normal time”
  • the update unit 32 sets the display position of the virtual object O.
  • updating is defined as "at the time of update”.
  • the RGB color planes are sequentially switched and displayed.
  • the brightness value of each color plane in the normal state is set based on the color of the virtual object O.
  • the visibility of the low-luminance plane is lowered by lowering the brightness value of the low-luminance plane.
  • FIG. 6 a case where the R color plane and the G color plane are each low-luminance planes is shown, and a case where the brightness values of both color planes are lowered is shown.
  • the brightness value of the low-luminance plane may be set to "0" so that the low-luminance plane is not displayed. Further, it is possible to appropriately set how much the brightness value of the low-luminance plane is lowered.
  • the brightness value may be increased for the high-luminance plane having a relatively high brightness value. That is, the visibility of the high-luminance plane may be improved while reducing the visibility of the low-luminance plane.
  • the high-luminance plane is displayed more prominently than the low-luminance plane, so that it is possible to suppress a decrease in visibility of the virtual object O based on the low-luminance plane.
  • two color planes, the R color plane and the G color plane are set as low-luminance planes, but one low-luminance plane may be used.
  • the display control unit 33 determines whether or not to perform the above-mentioned processing (the processing for reducing the visibility of the low-luminance plane) according to the above-mentioned attitude signal.
  • FIG. 7 shows the correspondence between the rotational angular velocity indicated by the attitude signal and the display brightness of the low-luminance plane (corresponding to the above-mentioned luminance value).
  • the rotation angular velocity corresponds to the movement speed of the display position of the virtual object O updated by the update unit 32, and the faster the rotation angular velocity, the more likely the color break is to occur.
  • a first threshold value Th1 and a second threshold value Th2 smaller than the first threshold value Th1 are provided with respect to the rotational angular velocity.
  • the display control unit 33 gradually reduces the display brightness of the low-luminance plane when the rotation angle speed exceeds the first threshold value Th1, and then displays the low-luminance plane when the rotation angle speed exceeds the second threshold value Th2. The brightness is gradually increased to restore the display brightness.
  • the display control device 1 by providing a hysteresis region with respect to the rotation angular velocity, the number of times of switching the display brightness of the low-luminance plane is increased as compared with the case where the threshold value is one. Can be reduced.
  • the change in the display brightness of the low-brightness plane can be made difficult for the user to feel by gradually lowering the display brightness.
  • the rate of change of the display luminance can be appropriately set by an experiment or the like. Further, the rate of change may be set for each color plane that is a low-luminance plane, or may be set for each actual color of the virtual object O.
  • FIG. 9 is a flowchart showing a processing procedure executed by the display control device 1 according to the embodiment.
  • the processing procedure shown below is repeatedly executed by the control unit 3 every time a vertical synchronization signal is acquired.
  • step S101 when the display control device 1 first draws the virtual object O (step S101), whether or not there is a change in the rotational angular velocity based on the posture signal, that is, the change in the posture of the user. It is determined whether or not there is (step S102).
  • step S102 the display control device 1 determines whether or not the rotational angular velocity is equal to or greater than the threshold value when there is a change in the rotational angular velocity (steps S102, Yes) (step S103). That is, it is determined whether or not a color break occurs.
  • the display control device 1 determines the color of the virtual object O (step S104).
  • the color determination here is a process of selecting a low-luminance plane. Further, the display control device 1 may perform the process of step S104 in advance (for example, for each drawing of the virtual object O).
  • the display control device 1 performs the brightness limiting process on the selected low-luminance plane (step S105), updates the display position of the virtual object O according to the attitude signal (step S106), and ends the process.
  • step S102 ends when there is no change in the rotational angular velocity in the determination process of step S102 (steps S102, No), and when the rotational angular velocity is less than the threshold value in the determination process of step S103 (step S103). , No), the process proceeds to step S106.
  • FIG. 10 is a diagram showing an example of a blurred image according to the embodiment.
  • the display control unit 33 uses a blurred image with blurred edges for a predetermined color plane.
  • the display control device 1 reduces the visibility of each color plane by blurring the edges of each color plane when a color break occurs. It is possible to perform edge blurring processing on all color planes, but blurring the edges on only some color planes improves the overall appearance.
  • FIG. 11 is a diagram showing an example of processing by the display control unit 33 according to the second embodiment.
  • the display control unit 33 selects a color plane to be blurred based on the background color of the actual landscape Rw on which the virtual object O is displayed.
  • the background color of the actual landscape Rw can be obtained by analyzing the image data captured by the camera 13.
  • the display control unit 33 sets the display area Da on which the virtual object O is displayed.
  • the display area Da is, for example, a predetermined area centered on the display position of the current virtual object O. Therefore, for example, the display area Da moves together with the display position of the virtual object O.
  • the display control unit 33 calculates the leveling brightness for the actual landscape Rw in the display area Da.
  • the leveled luminance is a value obtained by leveling the brightness values of each of RGB of each pixel in the display area Da.
  • the display control unit 33 selects a color plane to be blurred based on the leveling luminance. Specifically, a color plane having a relatively low leveling brightness is selected as a color plane to be blurred. In other words, a color plane having a relatively high leveling brightness is selected as a color plane that is not subjected to blurring processing.
  • the display control unit 33 may determine the strength of the edge processing based on the background color. Specifically, it is assumed that the ratio of the RGB brightness values of the background color is (0.4, 0.6, 0.9).
  • the blurring process is performed at a ratio of 4; 6; 9 for each of the original RGB color planes.
  • the intensity of the blurring process for the color plane close to the background color it becomes easy to assimilate the color plane with the background color.
  • a blurred image that has undergone the blurring process may be prepared in advance and replaced when a color break occurs. As a result, it is possible to suppress the deterioration of the visibility of the virtual object O due to the color break while suppressing the processing load.
  • FIG. 12 is a flowchart showing a processing procedure executed by the display control device 1 according to the second implementer Eita. Since the process up to the process of step S104 shown in FIG. 12 is the same as that of FIG. 9, the process will be described from step S201 following step S104.
  • the display control device 1 analyzes the background image corresponding to the actual landscape Rw (step S201), and performs blurring processing on a predetermined color plane based on the analysis result of the background image (step S202). ). After that, the display control device 1 updates the display position (step S203), and ends the process.
  • step S201 is a process of selecting a color plane to be replaced with a blurring process or a blurred image
  • step S202 is a process of performing a blurring process or replacing the selected color plane with a blurred image.
  • the present invention is not limited to this. That is, when the virtual object O itself moves in the global space, a color break can occur. Therefore, the present invention may be applied when the virtual object O moves in the global space.
  • AR augmented reality
  • VR Virtual Reality
  • first embodiment and the second embodiment may be combined as appropriate. That is, for example, a color plane that lowers the brightness value or stops the display may be selected based on the leveling brightness of the display area Da.
  • FIG. 13 is a hardware configuration diagram showing an example of a computer 1000 that realizes the function of the display control device 1.
  • the computer 1000 has a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface 1500, and an input / output interface 1600.
  • Each part of the computer 1000 is connected by a bus 1050.
  • the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part. For example, the CPU 1100 expands the program stored in the ROM 1300 or the HDD 1400 into the RAM 1200 and executes processing corresponding to various programs.
  • the ROM 1300 stores a boot program such as a BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, a program that depends on the hardware of the computer 1000, and the like.
  • BIOS Basic Input Output System
  • the HDD 1400 is a computer-readable recording medium that non-temporarily records a program executed by the CPU 1100 and data used by the program.
  • the HDD 1400 is a recording medium for recording a program according to the present disclosure, which is an example of program data 1450.
  • the communication interface 1500 is an interface for the computer 1000 to connect to an external network 1550 (for example, the Internet).
  • the CPU 1100 receives data from another device or transmits data generated by the CPU 1100 to another device via the communication interface 1500.
  • the input / output interface 1600 is an interface for connecting the input / output device 1650 and the computer 1000.
  • the CPU 1100 receives data from an input device such as a keyboard or mouse via the input / output interface 1600. Further, the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input / output interface 1600. Further, the input / output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium (media).
  • the media is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.
  • an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk)
  • a magneto-optical recording medium such as an MO (Magneto-Optical disk)
  • a tape medium such as a magnetic tape
  • magnetic recording medium such as a magnetic tape
  • semiconductor memory for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.
  • the CPU 1100 of the computer 1000 realizes the functions of the acquisition unit 30 and the like by executing the program loaded on the RAM 1200.
  • the HDD 1400 stores the program related to the present disclosure and the data in the storage unit 2.
  • the CPU 1100 reads the program data 1450 from the HDD 1400 and executes the program, but as another example, these programs may be acquired from another device via the external network 1550.
  • the present technology can also have the following configurations.
  • An acquisition unit that acquires attitude signals related to the attitude of a field sequential color display device, and A drawing unit that draws a virtual object displayed on the display device,
  • An update unit that updates the display position by moving the display position of the virtual object drawn by the drawing unit based on the posture signal acquired by the acquisition unit.
  • a display control unit that relatively lowers the visibility of a predetermined color plane as compared with other color planes among the plurality of color planes of the virtual object.
  • a display control device The display control unit When the moving speed of the display position updated by the updating unit exceeds the threshold value, the visibility of the predetermined color plane is reduced.
  • the display control device according to (1) above.
  • the display control unit When the moving speed exceeds the threshold value, the visibility of the predetermined color plane is gradually reduced.
  • the drawing unit The virtual object is drawn each time the vertical synchronization signal is acquired.
  • the acquisition unit Acquires the attitude signal having a shorter acquisition cycle than the vertical synchronization signal.
  • the display control device according to any one of (1) to (3) above.
  • the update part The virtual object localized in the global space defined with respect to the real world is moved in the local space defined with respect to the display area of the display device.
  • the display control device according to any one of (1) to (4) above.
  • a buffer area for temporarily storing the virtual object drawn by the drawing unit is provided.
  • the update part The display position is updated with respect to the virtual object stored in the buffer area.
  • the display control device according to any one of (1) to (5) above. (7) The display control unit Among the plurality of color planes, the display brightness is lowered for the low-luminance plane having a relatively low brightness value. The display control device according to any one of (1) to (6) above. (8) The display control unit Among the plurality of color planes, the display is stopped for the low-luminance plane having a relatively low luminance value. The display control device according to any one of (1) to (7) above. (9) The display control unit Among the plurality of color planes, the display brightness is increased for the high-luminance plane having a relatively high brightness value. The display control device according to any one of (1) to (8) above.
  • the display control unit A blurring process for blurring the edges of the virtual object is performed on the predetermined color plane.
  • the display control device according to any one of (1) to (9) above.
  • (11) The display control unit Based on the background color of the virtual object, the predetermined color plane that reduces visibility is determined.
  • (12) The display control unit The intensity of the blurring process is determined based on the similarity between the plurality of color planes and the background color.
  • the display control unit The predetermined color plane is replaced with a blurred image that has been subjected to the blurring process in advance.
  • the display control unit When the moving speed exceeds the first threshold value, the visibility of the predetermined color plane is lowered, and when the moving speed falls below the second threshold value lower than the first threshold value, the predetermined color plane is lowered. End the process of reducing the visibility of The display control device according to any one of (1) to (13).
  • the acquisition unit The attitude signal is acquired from the gyro sensor installed in the display device.
  • the display control device according to any one of (1) to (14) above.
  • the computer Acquires the attitude signal related to the attitude of the field sequential color display device, Draw the virtual object displayed on the display device and draw it. By moving the display position of the drawn virtual object based on the acquired posture signal, the display position is updated.
  • the acquisition unit that acquires the attitude signal related to the attitude of the field sequential color display device of the computer, A drawing unit that draws a virtual object displayed on the display device, An update unit that updates the display position by moving the display position of the virtual object drawn by the drawing unit based on the posture signal acquired by the acquisition unit.
  • a display control unit that relatively lowers the visibility of a predetermined color plane as compared with other color planes among a plurality of color planes of the virtual object when the display position is updated by the update unit.
  • a display control program that works.
  • Display control device 10 Display device 12 Gyro sensor 13 Camera 20 Threshold information 21 Object information 22 Buffer area 30 Acquisition unit 31 Drawing unit 32 Update unit 33 Display control unit O Virtual object Rw Real landscape Th1 First threshold Th2 Second threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

表示制御装置(1)は、取得部(30)と、描画部(31)と、更新部(32)と、表示制御部(33)とを備える。取得部(30)は、フィールドシーケンシャルカラー方式の表示装置(10)を装着するユーザ(U)の姿勢または位置に関する姿勢信号を取得する。描画部(31)は、表示装置(10)に表示される仮想オブジェクトを描画する。更新部(32)は、取得部(31)によって取得された姿勢信号に基づいて、描画部(31)によって描画された仮想オブジェクトの表示位置を移動させることで、表示位置を更新する。表示制御部(34)は、更新部(32)によって表示位置が更新される場合に、仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる。

Description

表示制御装置、表示制御方法および表示制御プログラム
 本開示は、表示制御装置、表示制御方法および表示制御プログラムに関する。
 例えば、ヘッドマウントディスプレイ(Head Mounted Display。以下、「HMD」)のように、ユーザの前方に表示面が位置するように、ユーザに装着される表示装置がある。かかる表示装置は、各色プレーンを時間的に分割して表示するフィールドシーケンシャルカラー方式でオブジェクトを表示するとともに、装着するユーザの動きにあわせて、表示するオブジェクトの表示位置を更新する(例えば、特許文献1参照)。
特表2016-509245号公報
 しかしながら、フィールドシーケンシャルカラー方式において、ユーザの姿勢が所定の速度を超えて変化した場合、仮想オブジェクトの各色プレーンが分離して表示される、いわゆるカラーブレークが発生し、仮想オブジェクトの視認性が低下する。
 そこで、本願は、上記に鑑みてなされたものであって、仮想オブジェクトの視認性の低下を低減することができる表示制御装置、表示制御方法および表示制御プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために実施形態の一態様に係る表示制御装置は、取得部と、描画部と、更新部と、表示制御部とを備える。前記取得部は、フィールドシーケンシャルカラー方式の表示装置の姿勢に関する姿勢信号を取得する。前記更新部は、前記取得部によって取得された前記姿勢信号に基づいて、前記描画部によって描画された前記仮想オブジェクトの表示位置を移動させることで、前記表示位置を更新する。前記表示制御部は、前記更新部によって前記表示位置が更新される場合に、前記仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる。
 実施形態の一態様によれば、仮想オブジェクトの視認性の低下を低減することができる。
実施形態に係る表示装置の一例を示す図である。 カラーブレークの模式図である。 第1の実施形態に係る表示制御装置の構成例を示すブロック図である。 ユーザの姿勢の変化の一例を示す図である。 第1の実施形態に係る更新部による処理の一例を示す図である。 第1の実施形態に係る表示制御部による処理の一例を示す図である。 姿勢信号に対する閾値の一例を示す図である。 表示位置の更新時における仮想オブジェクトの模式図である。 第1の実施形態に係る表示制御装置が実行する処理手順を示すフローチャートである。 ぼかし画像の一例示す図である。 第2の実施形態に係る表示制御部による処理の一例を示す図である。 第2の実施形態に係る表示制御装置が実行する処理手順を示すフローチャートである。 表示制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[第1の実施形態]
 まず、図1および図2を用いて実施形態に係る表示装置の概要について説明する。図1は、実施形態に係る表示装置の一例を示す図である。図2は、カラーブレークの模式図である。なお、図1には、HMDの一例を示してしている。
 本実施形態に係る表示装置10は、実世界に仮想オブジェクトを重畳してユーザへ提示する拡張現実(AR;Augment Reality)を提供する表示装置である。図1に示すように、表示装置10は、表示部11を有し、ユーザに装着されたときにユーザの前方に表示部11が位置するように、ユーザの両目の前の位置に配置される。なお、表示装置10を単眼式とすることにしてもよい。
 また、表示装置10は、各画素の各色プレーンを時間的に分割して表示する、いわゆるシーケンシャルカラー方式の表示装置である。なお、以下では、色プレーンがRGBの3色である場合について説明するが、これに限定されるものではなく、W(白)など他の色を含むようにしてもよい。
 また、表示装置10は、図3にて後述するように、例えば、ジャイロセンサ12を有しており、装着するユーザの姿勢や位置に関する姿勢信号を検出する。なお、表示装置10は、ジャイロセンサ12に限られず、加速度センサや、地磁気センサなど、表示装置10の動きを検出することが可能な、1または2以上のセンサを備えていてもよい。また、表示装置10を装着するユーザを撮像した撮像画像を解析し、当該ユーザの動きを検出する構成とすることにしてもよい。
 また、図2の左図に示すように、表示装置10は、ユーザから表示部11を介して見える実風景Rwに仮想オブジェクトOを重畳して表示するいわゆるシースルー型の表示装置である。
 ところで、シーケンシャルカラー方式の表示装置においては、カラーブレークが問題となる。カラーブレークとは、例えば、図2の右図に示すように、表示部11に表示された仮想オブジェクトOの表示位置を表示部11上で移動させた場合に、仮想オブジェクトOのRGBでそれぞれ構成される各色プレーンが分離して表示される現象である。
 より詳しくは、シーケンシャルカラー方式では、赤(R)の色プレーン、緑(G)の色プレーン、青(B)の色プレーンそれぞれが異なる時刻に表示されるので、各色プレーンが分離して表示される。そのため、分離された各色プレーンが残像として表示されることになり、仮想オブジェクトOの視認性が低下する。
 カラーブレークの解決策として、各色プレーンを表示する切替速度を十分に速くすることが挙げられる。しかしながら、この場合、表示装置自体を変更する必要があり、既存の表示装置については適用することができない。
 そこで、実施形態に係る表示制御方法では、カラーブレークそのものを抑制するのではなく、残像となる色プレーンに着目し、残像となる色プレーンの視認性を低下させることで、カラーブレークに伴う仮想オブジェクトOの視認性の低下を抑制することとした。
 以下、本実施形態に係る表示制御装置、表示制御方法および表示制御プログラムについて詳細に説明する。
 次に、図3を用いて、第1の実施形態に係る表示制御装置1について説明する。図3は、実施形態に係る表示制御装置1の構成例を示すブロック図である。なお、図3には、表示装置10を併せて示す。また、表示制御装置1と表示装置10とは、無線又は有線により双方向にデータを送受信することできる。
 まず、表示装置10について説明する。図3に示すように、表示装置10は、表示部11、ジャイロセンサ12およびカメラ13を備える。表示部11は、例えば、ハーフミラー等で構成され、光透過型の表示面を有し、表示制御装置1から入力される仮想オブジェクトOを表示する。また、表示部11は、1フレームごとに仮想オブジェクトの表示が終了するタイミングで、垂直同期信号を表示制御装置1へ出力する。なお、表示部11は、色プレーンごとに垂直同期信号を通知することにしてもよい。
 ジャイロセンサ12は、表示装置10の動きを検出する3軸の角速度を検出するセンサである。上述のように、表示装置10は、HMDであることから、ジャイロセンサ12は、表示装置10を装着したユーザの姿勢の変化を検出し、検出した姿勢に応じた姿勢信号を表示制御装置1へ出力する。
 カメラ13は、表示装置10の前方を撮像するカメラである。例えば、カメラ13は、ユーザから表示部11を介して見える実風景Rwを撮像し、撮像した画像データを表示制御装置1へ出力する。
 続いて、表示制御装置1について説明する。図3に示すように、表示制御装置1は、記憶部2と、制御部3とを備える。なお、表示制御装置1は、外部装置と無線または有線で通信を行うための通信部(図示せず)や、ユーザの操作を受け付ける操作部(不図示)を備えていてもよい。
 記憶部2は、例えば、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示す例では、記憶部2は、閾値情報20と、オブジェクト情報21を記憶するとともに、バッファー領域22を有する。
 閾値情報20は、仮想オブジェクトOの各色プレーンの視認性を低下させるか否かを判定するための閾値に関する情報である。なお、閾値情報20の具体例については、図7を用いて後述する。
 オブジェクト情報21は、仮想オブジェクトOに関する情報である。例えば、仮想オブジェクトOの形状(3次元形状を含む)や、仮想オブジェクトOを表示する各画素の各色プレーンの輝度値等に関する情報等がオブジェクト情報21として記憶部2に記憶される。
 バッファー領域22は、後述する描画部31によって描画された仮想オブジェクトOを一時的に記憶する領域である。バッファー領域22には、例えば、描画部31による描画毎に仮想オブジェクトOが上書きされる。
 続いて、制御部3について説明する。制御部3は、仮想オブジェクトOを描画し、表示装置10へ出力するとともに、表示装置10、すなわち、ユーザの姿勢の変化に応じて、仮想オブジェクトOの表示位置を更新する。また、制御部3は、仮想オブジェクトOの表示位置の更新によって生じるカラーブレークに伴う仮想オブジェクトOの視認性の低下を抑制する。
 制御部3は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、表示制御装置1内部に記憶されたプログラムがRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部3は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
 図3に示すように、制御部3は、取得部30と、描画部31と、更新部32と、表示制御部33とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部3の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。なお、制御部3は、例えばNIC(Network Interface Card)等を用いて所定のネットワークと有線又は無線で接続し、ネットワークを介して、種々の情報を外部サーバ等から受信してもよい。
 取得部30は、表示装置10の姿勢に関する姿勢信号を取得する。具体的には、取得部30は、ジャイロセンサ12によって検出された角速度を姿勢信号として取得する。取得部30は、取得した姿勢信号を描画部31および更新部32へ出力する。
 描画部31は、表示装置10に表示する仮想オブジェクトOを描画する。描画部31は、表示装置10から入力される垂直同期信号の取得毎に、仮想オブジェクトOを描画し、記憶部2のバッファー領域22に格納する。
 この際、描画部31は、ユーザの姿勢(視点)に応じて、仮想オブジェクトOを描画する。つまり、描画部31は、現在のユーザから仮想的に見える仮想オブジェクトOを描画する。
 より詳しくは、本実施形態に係る表示制御装置1は、実世界に対してグローバル空間を定義し、表示装置10の表示領域に対してローカル空間を定義する。なお、グローバル空間は、ユーザの姿勢によって変わらない空間であり、ローカル空間は、ユーザの姿勢とともに変化する空間である。
 また、グローバル空間における座標は、例えば、絶対角度(方位)の情報(データ、GPS(Global Positioning System)により得られる位置情報によって得られる。また、ローカル空間における座標は、ジャイロセンサ12から入力される姿勢信号により得られる。
 描画部31は、グローバル空間において定義された仮想オブジェクトOの座標を、ローカル空間の座標に換算することで、ユーザから仮想的に見える仮想オブジェクトの姿勢や大きさを算出する。そして、描画部31は、算出した姿勢や大きさに応じて、仮想オブジェクトOを描画する。
 更新部32は、取得部30によって取得された姿勢信号に基づいて、描画部31によって描画された仮想オブジェクトOの表示位置を移動させることで、表示位置を更新する。つまり、更新部32は、ユーザの現在の視点にあわせて仮想オブジェクトOの表示位置を更新する。
 具体的には、更新部32は、グローバル空間上に定位した仮想オブジェクトOを、取得部30によって取得された姿勢信号に応じてローカル空間上で移動させることで、仮想オブジェクトOの表示位置を更新する。これにより、ユーザからは、表示装置10を介して、仮想オブジェクトOがグローバル空間上に固定されているかのように見えることになる。
 ここで、更新部32は、描画部31による描画周期よりも短い周期で表示位置の更新処理を行うとともに、描画部31によってバッファー領域22に格納された仮想オブジェクトOについて表示位置の更新を行う。
 すなわち、表示制御装置1は、垂直同期信号の取得周期よりも短い周期で姿勢信号を取得し、取得した姿勢信号に基づいて仮想オブジェクトOの表示位置を更新する。このように、更新部32は、垂直同期信号よりも短い周期で仮想オブジェクトOの表示位置を更新することで、ユーザの姿勢の変化に追従させて仮想オブジェクトOの表示することができる。
 ここで、図4および図5を用いて、更新部32による処理の一例について説明する。図4は、ユーザの姿勢の変化の一例を示す図である。図5は、実施形態に係る更新部32による処理の一例を示す図である。
 図4に示すように、ユーザUの視線が、仮想オブジェクトOを正面とする視線θから右側に変化量Δθだけ移動し、視線θへ変化したとする。この場合、更新部32は、変化量Δθにあわせてローカル空間を回転させる。
 これにより、仮想オブジェクトOをグローバル空間に固定した状態で、仮想オブジェクトOの表示位置を更新することができる。具体的には、図5に示すように、更新部32は、視線θに対応する表示位置に表示した仮想オブジェクトOを移動量Δmだけ、左側に移動させることで、視線θに対応する仮想オブジェクトOまで移動させる。
 すなわち、上記の例では、ユーザの視線が右側に移動したので、仮想オブジェクトOの表示位置を左側に移動させる。なお、移動量Δmは、変化量Δθに応じた値であり、仮想オブジェクトOまでの距離および変化量Δθに基づいて算出される値である。
 なお、上記の例では、視線の左右方向(ヨー方向)の変化量に基づいて移動量Δmを算出する場合について示したが、これに限定されるものではない。すなわち、更新部32は、ピッチ方向およびロー方向の変化量に基づいて移動量を算出することにしてもよい。また、ユーザの前後左右の移動を変化して、移動量Δmを算出することにしてもよい。
 図3の説明に戻り、表示制御部33について説明する。表示制御部33は、更新部32によって表示位置が更新される場合に、仮想オブジェクトOの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる。
 具体的には、表示制御部33は、仮想オブジェクトOのRGBの各色プレーンのうち、輝度値が相対的に低い低輝度プレーンの輝度値を下げる、または、低輝度プレーンについて表示しないようにすることで、低輝度プレーンの視認性を低下させる。つまり、表示制御部33は、残像となる色プレーンの視認性を低下させる。
 言い換えれば、表示制御部33は、仮想オブジェクトOの実際の色に最も近い高輝度プレーンの視認性を想定的に増加させる。つまり、複数の色プレーンのうち、低輝度プレーンの視認性を低下させることで、仮想オブジェクトOの色の変化を少なくすることができる。なお、高輝度プレーンとは、複数の色プレーンのうち、輝度値が相対的に大きい色プレーンである。
 ここで、図6~図8を用いて、表示制御部33による一連の処理について説明する。図6は、第1の実施形態に係る表示制御部33による処理の一例を示す図である。図7は、姿勢信号に対する閾値の一例を示す図である。図8は、表示位置の更新時における仮想オブジェクトOの模式図である。
 なお、図6には、仮想オブジェクトOが表示される1つの画素の各色プレーンの時系列的な変化を示す。また、以下では、更新部32が仮想オブジェクトOの表示位置を更新していない場合、すなわち、ユーザの姿勢に変化がない場合を「正常時」とし、更新部32が仮想オブジェクトOの表示位置を更新している場合を「更新時」として定義する。
 図6に示すように、正常時においては、RGBそれぞれの色プレーンを順次切り替えながら表示する。なお、正常時における各色プレーンの輝度値は、仮想オブジェクトOの色に基づき、それぞれ設定される。
 これに対して、更新時においては、低輝度プレーンの輝度値を下げることで、低輝度プレーンの視認性を低下させる。図6の例では、Rの色プレーンおよびGの色プレーンがそれぞれ低輝度プレーンである場合を示し、双方の色プレーンの輝度値を下げる場合を示す。
 この際、低輝度プレーンの輝度値を「0」にすることで、低輝度プレーンを表示しないようにすることにしてもよい。また、低輝度プレーンの輝度値をどの程度下げるかは、適宜設定することが可能である。
 また、この際、相対的に輝度値が高い高輝度プレーンについては、輝度値を上げることにしてもよい。つまり、低輝度プレーンの視認性を低下させつつ、高輝度プレーンの視認性を向上させることにしてもよい。
 これにより、高輝度プレーンが低輝度プレーンに比べて際立って表示されるので、低輝度プレーンに基づく仮想オブジェクトOの視認性の低下を抑制することができる。なお、図6の例では、Rの色プレーンおよびGの色プレーンの2つの色プレーンを低輝度プレーンとしたが、低輝度プレーンは1つであってもよい。
 続いて、図7を用いて、閾値について説明する。表示制御部33は、上記の処理(低輝度プレーンの視認性低下処理)を行うか否かを上記の姿勢信号に応じて判定する。なお、図7には、姿勢信号が示す回転角速度と、低輝度プレーンの表示輝度(上記の輝度値に対応)との対応関係を示す。
 なお、回転角速度は、更新部32によって更新される仮想オブジェクトOの表示位置の移動速度に対応し、回転角速度が速いほど、カラーブレークが発生しやすいことを示す。
 図7に示すように、回転角速度に対して、第1閾値Th1と、第1閾値Th1よりも小さい第2閾値Th2とが設けられる。表示制御部33は、回転角速度が第1閾値Th1を超えた場合に、低輝度プレーンの表示輝度を徐々に低下させ、その後、回転角速度が第2閾値Th2を上回った時点で低輝度プレーンの表示輝度を徐々に増加させて表示輝度を元に戻す。
 ここで、低輝度プレーンの表示輝度の切替えが頻繁に起こると、仮想オブジェクトOの色や表示輝度が変化するので、却って視認性の低下を招くおそれがある。これに対して、本実施形態に係る表示制御装置1では、回転角速度に対して、ヒステリシス領域を設けることで、閾値が1つである場合に比べて、低輝度プレーンの表示輝度の切替え回数を少なくすることができる。
 また、本実施形態に係る表示制御装置1では、徐々に表示輝度を低下させることで、低輝度プレーンの表示輝度の変化をユーザに感じ難くすることができる。なお、図7に示す例では、低輝度プレーンの表示輝度と時刻とが比例関係にある場合について示したが、これに限定されるものではない。すなわち、表示輝度の変化速度については、実験等による適宜設定することが可能である。また、かかる変化速度を低輝度プレーンとなる色プレーンごとに設定することにしてもよいし、あるいは、仮想オブジェクトOの実際の色ごとに設定することにしてもよい。
 上記の処理により、図8に示すように、表示部11に表示される仮想オブジェクトOにおいて、低輝度プレーンであるR、Gに対応する色プレーンを視認し難くすることができる。したがって、カラーブレークに伴う仮想オブジェクトOの視認性の低下を抑制することができる。
 次に、図9を用いて、第1の実施形態に係る表示制御装置1が実行する処理手順について説明する。図9は、実施形態に係る表示制御装置1が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、垂直同期信号の取得毎に制御部3によって繰り返し実行される。
 図9に示すように、まず、表示制御装置1は、仮想オブジェクトOを描画すると(ステップS101)、姿勢信号に基づいて、回転角速度に変化があるか否か、すなわち、ユーザの姿勢に変化があるか否かを判定する(ステップS102)。
 表示制御装置1は、ステップS102の判定において、回転角速度に変化があった場合(ステップS102,Yes)、続いて、回転角速度が閾値以上か否かを判定する(ステップS103)。つまり、カラーブレークが発生するか否かを判定する。
 表示制御装置1は、回転角速度が閾値以上である場合(ステップS103,Yes)、仮想オブジェクトOの色判定を行う(ステップS104)。なお、ここでの色判定とは、低輝度プレーンを選択する処理である。また、表示制御装置1は、ステップS104の処理について事前(例えば、仮想オブジェクトOの描画毎に)に行うことにしてもよい。
 続いて、表示制御装置1は、選択した低輝度プレーンについて輝度制限処理を行うとともに(ステップS105)、 姿勢信号に応じて仮想オブジェクトOの表示位置を更新し(ステップS106)、処理を終了する。
 また、表示制御装置1は、ステップS102の判定処理において、回転角速度に変化がない場合(ステップS102,No)、終了し、ステップS103の判定処理において、回転角速度が閾値未満である場合(ステップS103,No)、ステップS106へ移行する。
[第2の実施形態]
 ところで、上述した実施形態では、低輝度プレーンの表示輝度を相対的に下げることで、仮想オブジェクトOの視認性の低下を抑える場合について説明した。しかしながら、所定の色プレーンについて、エッジをぼかすことで、仮想オブジェクトOの視認性の低下を抑えることも可能である。以下、図10~図12を用いて、第2の実施形態に係る表示制御装置1について説明する。
 まず、図10を用いて、ぼかし画像について説明する。図10は、実施形態に係るぼかし画像の一例を示す図である。図10に示すように、第2の実施形態において、表示制御部33は、所定の色プレーンについて、エッジをぼかしたぼかし画像を用いる。
 つまり、第2の実施形態に係る表示制御装置1は、カラーブレークが生じる場合に、各色プレーンのエッジをぼかすことで、各色プレーンの視認性を低下させる。なお、全ての色プレーンについて、エッジのぼかし処理を行うことにしてもよいが、一部の色プレーンのみについてエッジをぼかした方が、全体の見栄えが向上する。
 また、表示制御部33は、例えば、仮想オブジェクトOを重畳する実風景Rwに基づいてぼかし処理を行う色プレーンを選択することができる。図11は、第2の実施形態に係る表示制御部33による処理の一例を示す図である。
 図11に示すように、表示制御部33は、仮想オブジェクトOが表示される実風景Rwの背景色に基づいて、ぼかし処理を行う色プレーンを選択する。なお、実風景Rwの背景色については、カメラ13によって撮像された画像データを解析することで得られる。
 具体的には、まず、表示制御部33は、仮想オブジェクトOが表示される表示領域Daを設定する。ここで、表示領域Daは、例えば、現在の仮想オブジェクトOの表示位置を中心とする所定領域である。このため、例えば、表示領域Daは、仮想オブジェクトOの表示位置とともに移動する。
 続いて、表示制御部33は、表示領域Daにおける実風景Rwについて平準化輝度を算出する。ここで、平準化輝度とは、表示領域Da内の各画素のRGBそれぞれの輝度値を平準化した値である。
 そして、表示制御部33は、平準化輝度に基づいて、ぼかし処理を行う色プレーンを選択する。具体的には、平準化輝度が相対的に低い色プレーンについて、ぼかし処理を行う色プレーンとして選択する。言い換えれば、平準化輝度が相対的に高い色プレーンについては、ぼかし処理を行わない色プレーンとして選択する。
 つまり、背景色に近い色プレーンのエッジをぼかすことで、背景色に対して、かかる色プレーンを目立たなくさせることができる。一方、背景色に近い色プレーンについては、エッジをぼかさずとも、背景色と同化しやすく、エッジが強調されにくい。
 このように、背景色に基づいて、エッジ処理を行う色プレーンを選択することで、全ての色プレーンに対してぼかし処理を行う場合に比べて、仮想オブジェクトOそのものの視認性の低下を抑制しつつ、カラーブレークに伴う仮想オブジェクトOの視認性を低下させることができる。
 また、表示制御部33は、エッジ処理の強度を背景色に基づいて決定することにしてもよい。具体的には、背景色のRGBの輝度値の比率が(0.4,0.6,0.9)である場合を想定する。
 この場合、例えば、元のRGBの各色プレーンに対して4;6;9の比率でぼかし処理を行う。この場合、背景色に近い色プレーンについてぼかし処理の強度を上げることで、かかる色プレーンを背景色と同化させやすくする。
 また、フレーム毎にぼかし処理を行うと、処理負荷が増加するため、例えば、ぼかし処理を施したぼかし画像を予め準備しておき、カラーブレークが生じる際に、差し替えを行うことにしてもよい。これにより、処理負荷を抑えつつ、カラーブレークに伴う仮想オブジェクトOの視認性の低下を抑えることができる。
 次に、図12を用いて、第2の実施形態に係る表示制御装置1が実行する処理手順について説明する。図12は、第2の実施家瑛多に係る表示制御装置1が実行する処理手順を示すフローチャートである。なお、図12に示すステップS104の処理までは、図9と同様であるため、ステップS104に続くステップS201から説明する。
 図12に示すように、表示制御装置1は、実風景Rwに対応する背景画像を解析し(ステップS201)、背景画像の解析結果に基づいて所定の色プレーンについて、ぼかし処理を行う(ステップS202)。その後、表示制御装置1は、表示位置を更新して(ステップS203)、処理を終了する。
 なお、ステップS201は、ぼかし処理またはぼかし画像へ差し替える色プレーンを選択する処理であり、ステップS202は、選択した色プレーンについてぼかし処理を行うまたはぼかし処理画像へ差し替えを行う処理である。
 ところで、上述した実施形態では、姿勢信号に基づいて、グローバル空間上に定位した仮想オブジェクトOの表示位置を更新する場合について説明したが、これに限定されるものではない。すなわち、仮想オブジェクトO自体がグローバル空間上を移動する場合に、カラーブレークは生じ得る。このため、本発明を仮想オブジェクトOがグローバル空間上を移動する場合に適用することにしてもよい。
 また、上述した実施形態では、ユーザに対してAR(拡張現実)を提供する場合について説明したが、これに限定されず、VR(Virtual Reality;仮想現実)を提供するものであってもよい。
 また、上述の第1の実施形態と、第2の実施形態とを適宜組み合わせることにしてもよい。すなわち、例えば、表示領域Daの平準化輝度に基づいて、輝度値を低下させる、または表示を停止する色プレーンを選択することにしてもよい。
 上述してきた各実施形態に係る情報処理装置、HMD、コントローラ等の情報機器は、例えば図13に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る表示制御装置1を例に挙げて説明する。図13は、表示制御装置1の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係るプログラムを記録する記録媒体である。
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が実施形態に係る表示制御装置1として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、取得部30等の機能を実現する。また、HDD1400には、本開示に係るプログラムや、記憶部2内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 フィールドシーケンシャルカラー方式の表示装置の姿勢に関する姿勢信号を取得する取得部と、
 前記表示装置に表示される仮想オブジェクトを描画する描画部と、
 前記取得部によって取得された前記姿勢信号に基づいて、前記描画部によって描画された前記仮想オブジェクトの表示位置を移動させることで、前記表示位置を更新する更新部と、
 前記更新部によって前記表示位置が更新される場合に、前記仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる表示制御部と
 を備える、表示制御装置。
(2)
 前記表示制御部は、
 前記更新部によって更新される前記表示位置の移動速度が閾値を超える場合に、前記所定の色プレーンについて視認性を低下させる、
 前記(1)に記載の表示制御装置。
(3)
 前記表示制御部は、
 前記移動速度が前記閾値を超えた場合に、前記所定の色プレーンの視認性を徐々に低下させる、
 前記(2)に記載の表示制御装置。
(4)
 前記描画部は、
 垂直同期信号の取得毎に前記仮想オブジェクトを描画し、
 前記取得部は、
 前記垂直同期信号よりも取得周期の短い前記姿勢信号を取得する、
 前記(1)~(3)のいずれかに記載の表示制御装置。
(5)
 前記更新部は、
 実世界に対して定義されたグローバル空間上に定位した前記仮想オブジェクトを前記表示装置の表示領域に対して定義されたローカル空間上で移動させる、
 前記(1)~(4)のいずれかに記載の表示制御装置。
(6)
 前記描画部によって描画された前記仮想オブジェクトを一時的に記憶するバッファー領域
 を備え、
 前記更新部は、
 前記バッファー領域に記憶された前記仮想オブジェクトに対して、前記表示位置を更新する、
 前記(1)~(5)のいずれかに記載の表示制御装置。
(7)
 前記表示制御部は、
 前記複数の色プレーンのうち、輝度値が相対的に低い低輝度プレーンについて、表示輝度を下げる、
 前記(1)~(6)のいずれかに記載の表示制御装置。
(8)
 前記表示制御部は、
 前記複数の色プレーンのうち、輝度値が相対的に低い低輝度プレーンについて、表示を停止する、
 前記(1)~(7)のいずれかに記載の表示制御装置。
(9)
 前記表示制御部は、
 前記複数の色プレーンのうち、輝度値が相対的に高い高輝度プレーンについて、表示輝度を上げる、
 前記(1)~(8)のいずれかに記載の表示制御装置。
(10)
 前記表示制御部は、
 前記所定の色プレーンについて、前記仮想オブジェクトのエッジをぼかすぼかし処理を行う、
 前記(1)~(9)のいずれかに記載の表示制御装置。
(11)
 前記表示制御部は、
 前記仮想オブジェクトの背景色に基づいて、視認性を低下させる前記所定の色プレーンを決定する、
 前記(10)に記載の表示制御装置。
(12)
 前記表示制御部は、
 前記複数の色プレーンと前記背景色との類似度に基づいて、前記ぼかし処理の強度を決定する、
 前記(11)に記載の表示制御装置。
(13)
 前記表示制御部は、
 前記所定の色プレーンについて予め前記ぼかし処理を行ったぼかし画像へ差し替える、
 前記(11)または前記(12)に記載の表示制御装置。
(14)
 前記表示制御部は、
 前記移動速度が第1閾値を超えた場合に、前記所定の色プレーンの視認性を低下させ、前記移動速度が前記第1閾値よりも低い第2閾値を下回った場合に、前記所定の色プレーンの視認性を低下させる処理を終了する、
 前記(1)~(13)のいずれかに記載の表示制御装置。
(15)
 前記取得部は、
 前記表示装置に設置されたジャイロセンサから前記姿勢信号を取得する、
 前記(1)~(14)のいずれかに記載の表示制御装置。
(16)
 コンピュータが、
 フィールドシーケンシャルカラー方式の表示装置の姿勢に関する姿勢信号を取得し、
 前記表示装置に表示される仮想オブジェクトを描画し、
 前記取得した前記姿勢信号に基づいて、前記描画した前記仮想オブジェクトの表示位置を移動させることで、前記表示位置を更新し、
 前記表示位置を更新する場合に、前記仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる、
 表示制御方法。
(17)
 コンピュータを
 フィールドシーケンシャルカラー方式の表示装置の姿勢に関する姿勢信号を取得する取得部と、
 前記表示装置に表示される仮想オブジェクトを描画する描画部と、
 前記取得部によって取得された前記姿勢信号に基づいて、前記描画部によって描画された前記仮想オブジェクトの表示位置を移動させることで、前記表示位置を更新する更新部と、
 前記更新部によって前記表示位置が更新される場合に、前記仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる表示制御部と
 として機能させる、表示制御プログラム。
   1  表示制御装置
  10  表示装置
  12  ジャイロセンサ
  13  カメラ
  20  閾値情報
  21  オブジェクト情報
  22  バッファー領域
  30  取得部
  31  描画部
  32  更新部
  33  表示制御部
   O  仮想オブジェクト
  Rw  実風景
  Th1 第1閾値
  Th2 第2閾値

Claims (17)

  1.  フィールドシーケンシャルカラー方式の表示装置の姿勢に関する姿勢信号を取得する取得部と、
     前記表示装置に表示される仮想オブジェクトを描画する描画部と、
     前記取得部によって取得された前記姿勢信号に基づいて、前記描画部によって描画された前記仮想オブジェクトの表示位置を移動させることで、前記表示位置を更新する更新部と、
     前記更新部によって前記表示位置が更新される場合に、前記仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる表示制御部と
     を備える、表示制御装置。
  2.  前記表示制御部は、
     前記更新部によって更新される前記表示位置の移動速度が閾値を超える場合に、前記所定の色プレーンについて視認性を低下させる、
     請求項1に記載の表示制御装置。
  3.  前記表示制御部は、
     前記移動速度が前記閾値を超えた場合に、前記所定の色プレーンの視認性を徐々に低下させる、
     請求項2に記載の表示制御装置。
  4.  前記描画部は、
     垂直同期信号の取得毎に前記仮想オブジェクトを描画し、
     前記取得部は、
     前記垂直同期信号よりも取得周期の短い前記姿勢信号を取得する、
     請求項1に記載の表示制御装置。
  5.  前記更新部は、
     実世界に対して定義されたグローバル空間上に定位した前記仮想オブジェクトを前記表示装置の表示領域に対して定義されたローカル空間上で移動させる、
     請求項1に記載の表示制御装置。
  6.  前記描画部によって描画された前記仮想オブジェクトを一時的に記憶するバッファー領域を備え、
     前記更新部は、
     前記バッファー領域に記憶された前記仮想オブジェクトに対して、前記表示位置を更新する、
     請求項1に記載の表示制御装置。
  7.  前記表示制御部は、
     前記複数の色プレーンのうち、輝度値が相対的に低い低輝度プレーンについて、表示輝度を下げる、
     請求項1に記載の表示制御装置。
  8.  前記表示制御部は、
     前記複数の色プレーンのうち、輝度値が相対的に低い低輝度プレーンについて、表示を停止する、
     請求項1に記載の表示制御装置。
  9.  前記表示制御部は、
     前記複数の色プレーンのうち、輝度値が相対的に高い高輝度プレーンについて、表示輝度を上げる、
     請求項1に記載の表示制御装置。
  10.  前記表示制御部は、
     前記所定の色プレーンについて、前記仮想オブジェクトのエッジをぼかすぼかし処理を行う、
     請求項1に記載の表示制御装置。
  11.  前記表示制御部は、
     前記仮想オブジェクトの背景色に基づいて、視認性を低下させる前記所定の色プレーンを決定する、
     請求項10に記載の表示制御装置。
  12.  前記表示制御部は、
     前記色プレーンと前記背景色との類似度に基づいて、前記ぼかし処理の強度を決定する、
     請求項11に記載の表示制御装置。
  13.  前記表示制御部は、
     前記所定の色プレーンについて予め前記ぼかし処理を行ったぼかし画像へ差し替える、
     請求項11に記載の表示制御装置。
  14.  前記表示制御部は、
     前記移動速度が第1閾値を超えた場合に、前記所定の色プレーンの視認性を低下させ、前記移動速度が前記第1閾値よりも低い第2閾値を下回った場合に、前記所定の色プレーンの視認性を低下させる処理を終了する、
     請求項2に記載の表示制御装置。
  15.  前記取得部は、
     記表示装置に設置されたジャイロセンサから前記姿勢信号を取得する、
     請求項1に記載の表示制御装置。
  16.  コンピュータが、
     フィールドシーケンシャルカラー方式の表示装置の姿勢に関する姿勢信号を取得し、
     前記表示装置に表示される仮想オブジェクトを描画し、
     前記取得した前記姿勢信号に基づいて、前記描画した前記仮想オブジェクトの表示位置を移動させることで、前記表示位置を更新し、
     前記表示位置を更新する場合に、前記仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる、
     表示制御方法。
  17.  コンピュータを
     フィールドシーケンシャルカラー方式の表示装置の姿勢に関する姿勢信号を取得する取得部と、
     前記表示装置に表示される仮想オブジェクトを描画する描画部と、
     前記取得部によって取得された前記姿勢信号に基づいて、前記描画部によって描画された前記仮想オブジェクトの表示位置を移動させることで、前記表示位置を更新する更新部と、
     前記更新部によって前記表示位置が更新される場合に、前記仮想オブジェクトの複数の色プレーンのうち、所定の色プレーンについて他の色プレーンに比べて視認性を相対的に低下させる表示制御部と
     として機能させる、表示制御プログラム。
PCT/JP2020/037073 2019-10-09 2020-09-30 表示制御装置、表示制御方法および表示制御プログラム WO2021070692A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019185838 2019-10-09
JP2019-185838 2019-10-09

Publications (1)

Publication Number Publication Date
WO2021070692A1 true WO2021070692A1 (ja) 2021-04-15

Family

ID=75437882

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037073 WO2021070692A1 (ja) 2019-10-09 2020-09-30 表示制御装置、表示制御方法および表示制御プログラム

Country Status (1)

Country Link
WO (1) WO2021070692A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
US20180268519A1 (en) * 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
US20180315362A1 (en) * 2017-05-01 2018-11-01 Pure Depth Inc. Head Tracking Based Field Sequential Saccadic Break Up Reduction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
US20180268519A1 (en) * 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
US20180315362A1 (en) * 2017-05-01 2018-11-01 Pure Depth Inc. Head Tracking Based Field Sequential Saccadic Break Up Reduction

Similar Documents

Publication Publication Date Title
KR102298378B1 (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN106502427B (zh) 虚拟现实系统及其场景呈现方法
CN110050250B (zh) 显示器同步的图像规整
KR102093619B1 (ko) 그래픽 프로세싱 유닛에서의 전자 디스플레이 안정화
US8456485B2 (en) Image processing apparatus and method, head mounted display, program, and recording medium
WO2020003860A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US12010288B2 (en) Information processing device, information processing method, and program
CN112384843B (zh) 动态面板掩膜
CN112805755B (zh) 信息处理装置、信息处理方法和记录介质
US11361455B2 (en) Systems and methods for facilitating the identifying of correspondences between images experiencing motion blur
US20210048680A1 (en) Small field of view display mitigation using transitional visuals
CN111292236A (zh) 使用交叉分辨率调整而减少中央凹注视渲染中的混叠伪像
CN111066081B (zh) 用于补偿虚拟现实的图像显示中的可变显示设备等待时间的技术
KR101947372B1 (ko) Hmd에 위치 보정 영상을 제공하는 방법 및 hmd에 위치 보정 영상을 표시하는 방법, 그리고 이를 이용한 위치 보정 영상을 표시하는 hmd
WO2021070692A1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
CN114788251A (zh) 在静态图像中编码立体闪屏
US11615767B2 (en) Information processing apparatus, information processing method, and recording medium
US20240257450A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US11961184B2 (en) System and method for scene reconstruction with plane and surface reconstruction
US20230215108A1 (en) System and method for adaptive volume-based scene reconstruction for xr platform applications
NZ756028A (en) Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power
NZ756028B2 (en) Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20874833

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20874833

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP