WO2024089785A1 - 表示デバイス、表示デバイスの制御方法 - Google Patents

表示デバイス、表示デバイスの制御方法 Download PDF

Info

Publication number
WO2024089785A1
WO2024089785A1 PCT/JP2022/039850 JP2022039850W WO2024089785A1 WO 2024089785 A1 WO2024089785 A1 WO 2024089785A1 JP 2022039850 W JP2022039850 W JP 2022039850W WO 2024089785 A1 WO2024089785 A1 WO 2024089785A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
control unit
state
user
Prior art date
Application number
PCT/JP2022/039850
Other languages
English (en)
French (fr)
Inventor
和樹 高橋
達彦 須山
数生 中村
紀行 田中
Original Assignee
シャープディスプレイテクノロジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープディスプレイテクノロジー株式会社 filed Critical シャープディスプレイテクノロジー株式会社
Priority to PCT/JP2022/039850 priority Critical patent/WO2024089785A1/ja
Publication of WO2024089785A1 publication Critical patent/WO2024089785A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • This disclosure relates to a display device having multiple self-luminous elements and a method for controlling the display device.
  • Patent Document 1 discloses an organic light-emitting display device that reduces the visibility of burn-in by moving the display position of an image on a panel at specified time intervals.
  • a display device includes a display panel including a plurality of self-luminous elements, a display control unit that controls the emission of the plurality of self-luminous elements individually to control the display of an image on the display panel, and a visibility sensor that detects a non-visible state from a user's state, in which the user is not viewing the display screen, the user's line of sight does not intersect with the display screen, or the distance between the user's viewpoint on the display screen and the position of the image is equal to or greater than a predetermined value, and when the visibility sensor detects the non-visible state, the display control unit changes the display position of at least a portion of the image on the display panel through control of the emission of the plurality of self-luminous elements.
  • a display device control method is a control method for a display device having a display panel including a plurality of self-luminous elements, and includes controlling the display of an image on the display panel through individual control of the emission of the plurality of self-luminous elements, detecting a non-visible state based on the state of the user, in which the user does not view the display screen, the user's line of sight does not intersect with the display screen, or the distance between the user's viewpoint on the display screen and the position of the image is equal to or greater than a predetermined value, and changing the display position of at least a portion of the image on the display panel through control of the emission of the plurality of self-luminous elements when the non-visible state is detected.
  • FIG. 1 is a schematic plan view of a display device according to a first embodiment.
  • 5 is a flowchart illustrating an example of a control method for the display device according to the first embodiment.
  • 5A and 5B are schematic diagrams of a display unit showing an example of a display position of an image on the display unit according to the first embodiment.
  • 10 is a flowchart illustrating an example of a control method for a display device according to a second embodiment.
  • 13 is a flowchart illustrating an example of a control method for a display device according to a third embodiment.
  • 13 is a schematic diagram of a display unit showing an example of a display position of an image on the display unit according to the third embodiment.
  • FIG. 13 is a flowchart illustrating an example of a control method for a display device according to a fourth embodiment.
  • 13 is a flowchart illustrating an example of a control method for a display device according to a fifth embodiment.
  • Display device> 1 is a schematic plan view of a display device according to the present embodiment, the display device 1 includes a display panel 2, a display control unit 3, a visual sensor 4, and a control unit 5.
  • the display panel 2 for example, comprises a rectangular display section 21 that forms the display screen of the display panel 2 when viewed from above, and a frame section 22 formed around the periphery of the display section 21.
  • the display panel 2 also comprises a plurality of self-light-emitting elements 23 in the display section 21, which are aligned in the vertical and horizontal directions when viewed from above, of the display device 1. Note that in FIG. 1, the self-light-emitting elements 23 are shown in a see-through manner.
  • the light emission of the self-luminous elements 23 is individually controlled by the display control unit 3, which will be described later.
  • the self-luminous elements 23 are formed, for example, on a substrate (not shown), and emit light to the side opposite the substrate through light emission control by the display control unit 3. In this way, the display device 1 realizes display on the display panel 2 by causing the self-luminous elements 23 to emit light individually using the display control unit 3.
  • the self-luminous elements 23 may be OLED elements having an organic material as a light-emitting material, or QLED elements having quantum dots as a light-emitting material, etc.
  • the display control unit 3 includes, for example, a first driver 31 and a second driver 32 located in the frame portion 22.
  • the first driver 31 applies signals to a plurality of first signal lines 33 that extend in the left-right direction when viewed from above of the display panel 2.
  • the second driver 32 applies signals to a plurality of second signal lines 34 that extend in the up-down direction when viewed from above of the display panel 2.
  • a drive circuit (not shown) is formed at each intersection of the first signal line 33 and the second signal line 34 of the substrate, and each drive circuit is electrically connected to each light-emitting element.
  • the display control unit 3 controls the drive circuits individually through the application of video signals to each signal line by the first driver 31 and the second driver 32, and thus individually controls the light emission of the light-emitting elements 23.
  • the display control unit 3 controls the emission of some of the plurality of self-luminous elements 23, and controls the display of the image 24 on the display panel 2.
  • the display control unit 3 does not cause some of the remaining self-luminous elements 23 to emit light.
  • some areas of the display panel 2 in a planar view become black display areas 25.
  • the display control unit 3 controls the positions of the self-luminous elements 23 that are to emit light, thereby controlling the display position of the image 24 through the control of the position of the black display area 25 in a planar view of the display panel 2.
  • the visibility sensor 4 detects the visibility state of the image 24 displayed by the display panel 2 by the user from the state of the user of the display device 1. In particular, the visibility sensor 4 detects a non-visual state from the state of the user.
  • a non-visible state refers to a state in which the user does not view image 24, or a state in which the user has a low degree of visibility of image 24.
  • a state in which the user has a low degree of visibility of image 24 refers to a state in which the user's line of sight does not intersect with display unit 21, which is the display screen, or a state in which the distance between the user's viewpoint on display unit 21 and the position of image 24 is equal to or greater than a predetermined value.
  • a state in which the user's line of sight does not intersect with the display unit 21, which is the display screen, and a state in which the distance between the user's viewpoint on the display unit 21 and the position of the image 24 is equal to or greater than a predetermined value can be considered to be a non-visible state in which the user has a low degree of visibility of the image 24.
  • a non-visible state in which the user does not view image 24 includes, for example, a state in which the user does not view image 24 because the user's eyelids are closed due to blinking or the like.
  • a non-visible state in which the user has a low degree of visibility of image 24 includes, for example, a state in which the user's viewpoint is located around image 24, in other words, a state in which the user's line of sight does not intersect with image 24.
  • the visibility sensor 4 includes, for example, a camera 41 formed on the display surface side of the display panel 2 in the frame portion 22, and a captured image analysis unit 42 formed inside the frame portion 22.
  • the camera 41 photographs the user by photographing the display surface side of the display panel 2.
  • the camera 41 may be a selfie camera mounted on the display device 1 to photograph the photographer using the camera 41.
  • the captured image analysis unit 42 detects the above-mentioned non-visual state by analyzing the captured image acquired by the camera 41 and detecting the viewing state of the image 24 by the user from the captured image.
  • the visibility sensor 4 is not limited to this, and may be various conventionally known sensors such as a viewpoint sensor that identifies the direction in which the user is looking, or a sensor that detects the user's blinking.
  • the captured image analysis unit 42 may detect the non-visible state, for example, by determining the position of the iris or pupil of the user's eyeball, or the opening or closing of the user's eyelids, from the captured image acquired by the camera 41.
  • the captured image analysis unit 42 may detect the non-visible state, for example, by determining the orientation of the user's face, head, or body, from the captured image acquired by the camera 41.
  • the specific method of analyzing the captured image by the captured image analysis unit 42 may be a conventionally known image analysis method, and is not particularly limited.
  • the control unit 5 controls the operation of the display panel 2, the display control unit 3, and the visibility sensor 4 included in the display device 1.
  • the control unit 5 may be formed in the frame portion 22 of the display panel 2, but is not limited to this, and the control unit 5 may be located outside the housing of the display device 1.
  • the control unit 5 may have communication means (not shown) for transmitting and receiving information to and from each part of the display device 1.
  • the display control unit 3 controls the display position of the image 24 on the display panel 2 based on the result of detection of the visibility state of the image 24 by the user by the visibility sensor 4. In particular, when the visibility sensor 4 detects a non-visible state, the display control unit 3 changes the display position of at least a part of the image 24 on the display panel 2 through control of the light emission of the self-luminous elements 23. In particular, the display control unit 3 may change the display position of at least a part of the image 24 by changing the positions on the display panel 2 of some of the components of the image 24 on the display panel 2.
  • FIG. 2 is a flowchart showing an example of a method for controlling the display device 1 according to this embodiment.
  • the flowchart showing an example of a method for controlling the display device 1 in this disclosure, including FIG. 2, describes a method for controlling the display device 1 through control of each part of the display device 1 by the control unit 5.
  • FIG. 3 is a schematic diagram of the display unit 21 showing an example of a display on the display panel 2 to show an example of the display position of the image 24 on the display panel 2 according to the present embodiment.
  • FIG. 3 shows schematic diagrams of the display unit 21 in a state in which the display panel 2 displays the image 24 as shown in schematic diagrams 61, 62, 63, and 64, in which the display positions of the image 24 on the display panel 2 are different from each other.
  • the schematic diagrams of the display unit 21 in this disclosure, including FIG. 3, are schematic diagrams in a plan view of the display unit 21, and the self-luminous elements 23 are shown in a see-through manner in these schematic diagrams.
  • the control method for the display device 1 shown in FIG. 2 is constantly and repeatedly executed while the display of the image 24 on the display panel 2 continues. Furthermore, the control unit 5, through the control of the display control unit 3, causes the display panel 2 to continue displaying the image 24 while the control method for the display device 1 shown in FIG. 2 is being executed. In other words, the control unit 5 causes the display control unit 3 to control the emission of each of the self-luminous elements 23, and control the display of the image 24 on the display panel 2.
  • the control method for the display device 1 shown in FIG. 2 may be constantly executed between when the display device 1 is powered on and off.
  • the control unit 5 causes the display panel 2 to display a moving image by continuously changing the content of the image 24 through the control of the display control unit 3 and continuing the display of the image 24 on the display panel 2.
  • the control unit 5 is assumed to have the display panel 2 display an image 24 as shown in the schematic diagram 61 of FIG. 3.
  • the image 24 is displayed in the upper left of the display unit 21, and a black display area 25 is formed on the right and lower ends of the display unit 21.
  • the control unit 5 may have the display panel 2 display an image 24 as shown in the schematic diagram 61 when the display device 1 is powered on.
  • control unit 5 causes the visibility sensor 4 to detect the visibility state of the image 24 by the user (step S1).
  • control unit 5 controls the visibility sensor 4 to cause the camera 41 to capture an image of the user, and causes the captured image analysis unit 42 to analyze the captured image acquired by the camera 41.
  • control unit 5 determines whether the visibility sensor 4 has detected the above-mentioned non-visual state based on the state of the user detected by the visibility sensor 4 in step S1 (step S2). In other words, the control unit 5 causes the visibility sensor 4 to detect the non-visual state based on the state of the user.
  • Step S3 may be performed by the control unit 5 identifying what display the display panel 2 is performing, for example, by the control unit 5 identifying the position of a signal line to which a video signal is applied by the display control unit 3.
  • control unit 5 causes the display control unit 3 to change the display position of the image 24 on the display panel 2 based on the display position of the image 24 on the display panel 2 (step S4).
  • step S4 the control unit 5 causes the display panel 2 to display the image 24 as shown in the schematic diagram 62 through the control of the display control unit 3.
  • the control unit 5 changes the display on the display panel 2 by, for example, causing the display control unit 3 to change the self-luminous elements that are not to emit light.
  • step S4 the display control unit 3 changes the display position of the image 24 on the display panel 2 through control of the emission of the self-luminous elements 23.
  • the display panel 2 displays the image 24 as shown in the schematic diagram 62
  • the display panel 2 displays the image 24 in the upper right corner of the display section 21. Therefore, in the schematic diagram 62, a black display area 25 is formed at the left end and lower end of the display section 21.
  • the control unit 5 changes the display on the display panel 2 from the display shown in the schematic diagram 61 to the display shown in the schematic diagram 62, thereby changing the display position of the image 24 on the display panel 2 from the upper left to the upper right of the display section 21.
  • Step S5 may be executed by the control unit 5 having the display control unit 3 maintain the positions of the self-luminous elements that are not to emit light.
  • step S4 following execution of step S4 or step S5, the control unit 5 continues to execute step S1.
  • step S4 after the control unit 5 changes or maintains the display position of the image 24 on the display panel 2 in step S4, it again causes the visibility sensor 4 to detect the visibility state of the image by the user. This causes the control unit 5 to repeatedly execute steps S1 to S5.
  • the control unit 5 causes the display panel 2 to display the image 24 as shown in the schematic diagram 63 in step S4. In other words, if the image 24 is displayed in the upper right corner of the display unit 21 in step S3, the control unit 5 changes the display position of the image 24 to the lower right corner of the display unit 21 in step S4.
  • the control unit 5 causes the display panel 2 to display the image 24 as shown in the schematic diagram 64 in step S4.
  • the control unit 5 changes the display position of the image 24 to the bottom left of the display unit 21 in step S4.
  • step S3 if the display panel 2 displays the image 24 as shown in the schematic diagram 64, in step S4 the control unit 5 causes the display panel 2 to display the image 24 as shown in the schematic diagram 61.
  • the control unit 5 changes the display position of the image 24 on the display panel 2 to the top left of the display unit 21 in step S4.
  • control unit 5 repeatedly changes the display on the display panel 2 to the displays shown in schematic diagrams 61, 62, 63, and 64, in that order. In this way, the control unit 5 periodically changes the display position of the image 24 on the display panel 2. For this reason, the control unit 5 may record the number of times that a non-visible state was detected in step S2 in a storage unit (not shown) or the like. In this case, the control unit 5 may identify the display position of the image 24 on the display panel 2 by reading out the number of times in step S3.
  • control unit 5 may record the display position of the image 24 at that time in a storage unit (not shown). In this case, when the display device 1 is powered on, the control unit 5 may cause the display panel 2 to display the image 24 at the display position of the image 24 that was recorded when the display device 1 was last powered off.
  • the display position of the image 24 on the display panel 2 is changed by the display control unit 3 every time the visibility sensor 4 detects the above-mentioned non-visible state. Therefore, the display device 1 can average out the total drive time of each of the self-light-emitting elements 23 depending on the position on the display panel 2, compared to a case where the image 24 is always displayed at the same position on the display panel 2. Therefore, the display device 1 can reduce burn-in of each of the self-light-emitting elements 23.
  • the change in the display position of the image 24 on the display panel 2 by the display control unit 3 is executed when the visibility sensor 4 detects a non-visible state as described above. Therefore, the display device 1 changes the display position of the image 24 on the display panel 2 in a state in which the user is not viewing the image 24 or the user's degree of visibility of the image 24 is low. Therefore, the display device 1 can change the display position while preventing the user from perceiving the change in the display position of the image 24 on the display panel 2.
  • the display device 1 can reduce burn-in of the self-luminous elements 23 while suppressing a decrease in the visibility of the image 24 for the user.
  • window frames of application software or icons are displayed at the edge of an image.
  • Such displays are difficult to move on the display panel, and often require the self-luminous elements to emit light at high brightness in order to display.
  • burn-in of the self-luminous elements 23 located at the edge of the display panel 2 may progress faster than the other self-luminous elements 23. Burn-in of the self-luminous elements 23 located at the edge of the display panel 2 tends to be more noticeable to the user than burn-in of the self-luminous elements 23 located near the center of the display panel 2.
  • the black display region 25 is located in at least a portion of the periphery of the image 24 when the display panel 2 is viewed in a plan view. This allows the display device 1 to efficiently suppress the progression of burn-in of the self-luminous elements 23 located at the peripheral edge of the display panel 2. Therefore, the display device 1 more efficiently suppresses the user's perception of burn-in of the self-luminous elements 23.
  • the display device 1 can prevent the self-luminous elements 23 from always emitting light at a high luminance, and prevent the user from perceiving burn-in of the self-luminous elements 23.
  • the state in which the user's eyelids are closed occurs relatively frequently due to the user blinking, etc. Also, the state in which the user's viewpoint is located around the image 24 occurs relatively frequently due to the user checking the surroundings of the display device 1, etc. Therefore, by including these states in the non-visible state, the display device 1 efficiently increases the frequency of changing the display position of the image 24 on the display panel 2.
  • step S4 the display control unit 3 changes the entire display position of the image 24 on the display panel 2. This makes it possible for the display device 1 to prevent the user from perceiving the boundary between the moved and unmoved parts of the image 24, compared to a case in which the display control unit 3 changes only the display position of a portion of the image 24 on the display panel 2. Therefore, the display device 1 can further reduce the deterioration of the visibility of the image 24 for the user, while reducing burn-in of the self-luminous elements 23.
  • the method of changing the display position of the image 24 on the display panel 2 by the display control unit 3 in step S4 is not limited to the above example.
  • the display panel 2 displays an image 24 that is black in most positions and can be displayed by illuminating some of the self-luminous elements 23.
  • the display control unit 3 may change only the display position of the parts of the image 24 on the display panel 2 that require the self-luminous elements 23 to emit light for display.
  • the image 24 is black at the boundary between the moved and unmoved parts of the image 24, the user will not easily perceive the boundary even if the display control unit 3 changes only the display position of a part of the image 24 on the display panel 2.
  • step S4 the display control unit 3 moves the position of the self-luminous element 23 to be made to emit light by one element in the vertical or horizontal direction of the display panel 2, but this is not limited to the above.
  • the display control unit 3 may move the position of the self-luminous element 23 to be made to emit light by two or more elements at a time, or may move it in a diagonal direction of the display panel 2.
  • the display panel 2 may have a plurality of pixels, each of which includes a plurality of light-emitting elements of different light colors, as the smallest unit for displaying the image 24.
  • the pixel may have a red light-emitting element, a green light-emitting element, and a blue light-emitting element.
  • the display control unit 3 may move the position of the image 24 by one or two or more pixels in the vertical or horizontal direction of the display panel 2.
  • the control unit 5 may change the above-mentioned displays on the display panel 2 in the reverse order.
  • the display panel 2 may display the image 24 in the center of the display unit 21, in other words, a black display area 25 may be formed all around the image 24.
  • the display control unit 3 may also cause all of the self-luminous elements 23 of the display panel 2 to emit light, and extract and display a portion of the image 24. In this case, the display control unit 3 may change the display position of the image 24 displayed on the display panel 2 by changing the portion of the image 24 to be displayed. In this case, since no black display area 25 is formed on the display panel 2, the display device 1 can display an image with higher resolution while keeping the number of light-emitting elements the same.
  • the visibility sensor 4 may detect the non-visible state based on the state of the user who is closest to the center of the display unit 21 in a planar view of the display panel 2. For example, when multiple users appear in a captured image acquired by the camera 41, the visibility sensor 4 may detect the non-visible state based on the state of the user who is closest to the center of the captured image.
  • the display device 1 can reduce burn-in of the self-luminous elements 23 while also reducing the deterioration of visibility of the image 24 for multiple users.
  • the display device 1 according to this embodiment has the same configuration as the display device 1 according to the previous embodiment.
  • the control method of the display device 1 according to this embodiment differs only partially from the control method of the display device 1 according to the previous embodiment.
  • the control method of the display device 1 according to this embodiment will be described with reference to FIG. 4.
  • FIG. 4 is a flowchart showing an example of the control method of the display device 1 according to this embodiment.
  • the control unit 5 causes the display control unit 3 to fix the display position of the image 24 on the display panel 2 for a predetermined waiting time (step S6).
  • step S6 in other words, until at least the predetermined waiting time has elapsed since the start of the execution of step S6, the control unit 5 fixes the display position of the image 24 on the display panel 2, regardless of whether or not the visibility sensor 4 detects a non-visible state.
  • step S6 After step S6 is completed, in other words, after a predetermined waiting time has elapsed since the start of execution of step S6, the control unit 5 may execute step S1. As described above, the control unit 5 repeatedly executes steps S1 to S6. As a result, when a predetermined waiting time has elapsed since the last time the display position of the image 24 on the display panel 2 was changed and the visibility sensor 4 detects a non-visible state, the control unit 5 executes the above-mentioned change in the display position.
  • the control unit 5 does not change the display position of the image 24 on the display panel 2 until a predetermined waiting time has elapsed since the last time the display position was changed. Therefore, even if there is variation in the interval at which a non-visible state is detected, the display device 1 can reduce the variation in the interval at which the display position of the image 24 is changed. Therefore, the display device 1 according to this embodiment more evens out the light emitting time of each of the self-luminous elements 23, and more efficiently reduces burn-in of each of the self-luminous elements 23.
  • the control unit 5 may stop the operation of the visibility sensor 4 during at least a portion of the period during which step S6 is being executed, in other words, during at least a portion of the period during which the display position of the image 24 on the display panel 2 is fixed by the display control unit 3. This allows the display device 1 to achieve power saving during the period during which the visibility sensor 4 operation is stopped, and also simplifies the control of the visibility sensor 4 by the control unit 5.
  • the display device 1 according to this embodiment has the same configuration as the display device 1 according to any of the embodiments described above.
  • the control method of the display device 1 according to this embodiment is only partially different from the control method of the display device 1 according to any of the embodiments described above.
  • the control method of the display device 1 according to this embodiment will be described with reference to Figs. 5 and 6 .
  • FIG. 5 is a flowchart showing an example of a method for controlling the display device 1 according to this embodiment.
  • FIG. 6 is a schematic diagram of the display unit 21 to show an example of the display position of the image 24 on the display panel 2 according to this embodiment.
  • FIG. 6 shows schematic diagrams of the display unit 21 in a state in which the display panels 2 are displaying the image 24 as shown in schematic diagrams 65, 66, and 67, in which the display positions of the image 24 on the display panel 2 are different from each other.
  • the control unit 5 is assumed to be causing the display panel 2 to display an image 24 as shown in schematic diagram 65 of FIG. 6.
  • the image 24 is displayed in the upper left of the display unit 21, and black display areas 25 are formed on the right and lower ends of the display unit 21.
  • the display panel 2 displays the image 24 as shown in schematic diagram 65, two columns of self-luminous elements 23 located at the right end of the display unit 21 and two rows of self-luminous elements 23 located at the lower end do not emit light.
  • control unit 5 first executes steps S1 and S2 described above. If the control unit 5 determines in step S2 that the visibility sensor has detected a non-visible state, the control unit 5 executes step S3 described above.
  • control unit 5 determines whether the visibility sensor 4 has detected a short-term non-visible state based on the visibility state detected by the visibility sensor 4 in step S1 (step S7).
  • the short-term non-visible state is a state in which the visibility sensor 4 estimates that the time until the end of the non-visible state is less than a predetermined time at the time when the visibility sensor 4 detects the non-visible state.
  • the short-term non-visible state includes a state in which it can be estimated that the user will return to a state in which he or she views the image 24 again within a predetermined time at the time when the visibility sensor 4 detects the non-visible state.
  • the short-term non-visible state includes a state in which it is estimated that the user is not viewing image 24 due to blinking. Also, for example, the short-term non-visible state includes a state in which it is estimated that the degree of visibility of image 24 is temporarily reduced due to the user viewing the vicinity of image 24.
  • the visibility sensor 4 detects, through analysis of the captured image, that the user's eyelids are closed as a non-visible state, it estimates that the user is blinking and estimates that non-visible state as a short-term non-visible state.
  • the visibility sensor 4 detects, through analysis of the captured image, that the user's viewpoint is located near the periphery of the image 24 as a non-visible state, it estimates that that non-visible state as a short-term non-visible state.
  • control unit 5 determines in step S7 that the visibility sensor has detected a short-term non-visible state, the control unit 5 causes the display control unit 3 to change the display position of the image 24 on the display unit 21 by a short distance based on the display position of the image 24 on the display unit 21 (step S8).
  • step S8 the control unit 5 controls the display control unit 3 to cause the display panel 2 to display the image 24 as shown in schematic diagram 66.
  • the control unit 5 moves the display position of the image 24 on the display panel 2 to the right by one row of the self-luminous elements 23 in a plan view of the display panel 2.
  • control unit 5 determines in step S7 that the visibility sensor has not detected a short-term non-visible state, the control unit 5 determines that the visibility sensor has detected a long-term non-visible state.
  • the long-term non-visible state is a state in which the visibility sensor 4 estimates that the time until the end of the non-visible state is greater than or equal to a predetermined time at the time when the visibility sensor 4 detects the non-visible state.
  • the long-term non-visible state includes a state in which it can be estimated that the user will not be viewing the image 24 for a predetermined time or more at the time when the visibility sensor 4 detects the non-visible state.
  • the long-term non-visible state includes a state in which it can be estimated that the user is checking the surroundings of the display device 1.
  • the visibility sensor 4 detects a state in which the user's viewpoint is greater than or equal to a predetermined distance away from the image 24 as a non-visible state by analyzing a captured image, it estimates that the non-visible state is a long-term non-visible state.
  • control unit 5 determines in step S7 that the visibility sensor has detected a long-term non-visible state, the control unit 5 causes the display control unit 3 to change the display position of the image 24 on the display panel 2 by a long distance based on the display position of the image 24 on the display panel 2 (step S9).
  • step S9 the control unit 5 moves the display position of the image 24 on the display panel 2 to the right by two columns of the self-luminous elements 23 in a plan view of the display panel 2.
  • step S9 the control unit 5 changes the display position of the image 24 on the display panel 2 by a distance greater than the distance by which the display position is changed in step S8.
  • the change distance of the display position of the image 24 in this disclosure may be, for example, the distance from the center of the image 24 before the change of the display position to the center of the image 24 after the change of the display position.
  • step S2 determines in step S2 that the visibility sensor has not detected a non-visible state
  • the control unit 5 executes step S5.
  • step S1 may execute step S1 again, or may execute step S6 described above. In this manner, the control unit 5 repeatedly executes each process shown in FIG. 5.
  • the movement direction of the image 24 may be determined according to the display position of the image 24 on the display panel 2 identified in step S3. For example, if the display panel 2 displays the image 24 as shown in schematic diagram 66 in step S3, the control unit 5 may cause the display panel 2 to display the image 24 as shown in schematic diagram 67 in step S8. Alternatively, if the display panel 2 displays the image 24 as shown in schematic diagram 66 in step S3, the control unit 5 may cause the display panel 2 to display the image 24 further downward than the display shown in schematic diagram 67 in step S9.
  • the period during which the user does not view the image 24 on the display panel 2 is short, and the display position of the image 24 is significantly changed since the user last viewed the image 24, a user who newly views the image 24 will likely perceive the change in the display position of the image 24.
  • the display position of the image 24 is significantly changed since the user last viewed the image 24, a user who newly views the image 24 will likely not perceive the change in the display position of the image 24.
  • the display device 1 changes the display position of the image 24 by a short distance when it detects a short-term non-viewing state in which the user is likely to perceive the change in the display position of the image 24.
  • the display device 1 changes the display position of the image 24 by a long distance when it detects a long-term non-viewing state in which the user is unlikely to perceive the change in the display position of the image 24. This allows the display device 1 to more efficiently achieve both suppression of the user's perception of the change in the display position of the image 24 and reduction of burn-in of each light-emitting element 23.
  • control unit 5 moves the display position of the image 24 by one element in step S8 and by two elements in step S9, but this is not limited to this.
  • the method of changing the display position of the image 24 by the control unit 5 in this embodiment is not particularly limited.
  • the display device 1 according to this embodiment has the same configuration as the display device 1 according to any of the embodiments described above.
  • the control method of the display device 1 according to this embodiment differs only partially from the control method of the display device 1 according to any of the embodiments described above.
  • the control method of the display device 1 according to this embodiment will be described with reference to Fig. 7.
  • Fig. 7 is a flowchart showing an example of the control method of the display device 1 according to this embodiment.
  • control unit 5 first executes steps S1 and S2 described above. If the control unit 5 determines in step S2 that the visibility sensor has detected a non-visible state, the control unit 5 executes step S3 described above.
  • control unit 5 determines whether the visibility sensor 4 has detected the first non-visible state based on the visibility state detected by the visibility sensor 4 in step S1 (step S10).
  • the first non-visible state is a state in which the visibility sensor 4 estimates that the image 24 is located in part of the user's field of vision.
  • the first non-visible state includes a state in which the user's degree of visibility of the image 24 is low and it is a non-visible state, but the image 24 has not moved completely outside the user's field of vision and it can be estimated that the image 24 remains in part of the user's field of vision.
  • the visibility sensor 4 detects, for example, by analyzing the captured image, that the distance between the user's viewpoint and the center of the image 24 is less than a predetermined distance, and detects the first non-visible state.
  • step S10 determines in step S10 that the visibility sensor has detected the first non-visible state
  • the control unit 5 executes the above-mentioned step S8. For example, if the display panel 2 is displaying the image 24 as shown in the schematic diagram 65 in step S3, the control unit 5 causes the display panel 2 to display the image 24 as shown in the schematic diagram 66 through the control of the display control unit 3 in step S8.
  • control unit 5 determines in step S10 that the visibility sensor has not detected the first non-visible state, the control unit 5 determines that the visibility sensor has detected the second non-visible state.
  • the second non-visible state is a state in which the visibility sensor 4 estimates that the image 24 is located outside the user's field of vision.
  • the second non-visible state includes a state in which the image 24 has completely moved outside the user's field of vision and it can be estimated that the image 24 no longer remains in the user's field of vision.
  • the visibility sensor 4 detects the second non-visible state, for example, by analyzing the captured image to detect that the distance between the user's viewpoint and the center of the image 24 is equal to or greater than a predetermined distance.
  • step S10 determines in step S10 that the visibility sensor has detected the second non-visible state
  • the control unit 5 executes the above-mentioned step S9. For example, if the display panel 2 is displaying the image 24 as shown in the schematic diagram 65 in step S3, the control unit 5 causes the display panel 2 to display the image 24 as shown in the schematic diagram 67 through the control of the display control unit 3 in step S9.
  • step S2 determines in step S2 that the visibility sensor has not detected a non-visible state
  • the control unit 5 executes step S5.
  • step S1 may execute step S1 again, or may execute step S6 described above. In this way, the control unit 5 repeatedly executes each process shown in FIG. 7.
  • the image 24 In general, even in a non-visible state, if the image 24 remains in part of the user's field of vision, the user will be more likely to perceive the change in the display position of the image 24 if the display position of the image 24 is changed significantly. On the other hand, if the image 24 has moved outside the user's field of vision, the user will be less likely to perceive the change in the display position of the image 24 even if the display position of the image 24 is changed significantly.
  • the display device 1 changes the display position of the image 24 by a short distance when it detects a first non-visible state in which the user can easily perceive the change in the display position of the image 24. Moreover, the display device 1 changes the display position of the image 24 by a long distance when it detects a second non-visible state in which the user cannot easily perceive the change in the display position of the image 24. This allows the display device 1 to more efficiently achieve both suppression of the user's perception of the change in the display position of the image 24 and reduction of burn-in of each light-emitting element 23.
  • control unit 5 may execute the above-mentioned step S7 before or after step S10.
  • the control unit 5 may execute step S7 prior to step S10.
  • the control unit 5 may omit execution of step S10 and execute step S8.
  • the control unit 5 may execute step S7 following step S10.
  • the control unit 5 may execute step S8 if a short-term non-visible state is detected in step S7, even if, for example, a second non-visible state is detected in step S10.
  • a short-term non-visible state is detected in step S7, but since image 24 is not in the user's field of view, a second non-visible state is detected in step S10.
  • a short-term non-visible state is detected, the user will be in a state where they view image 24 again within a predetermined time, regardless of whether image 24 is in the user's field of view.
  • the second non-visible state is detected in step S10, if the display position of image 24 is changed by a long distance, the user may perceive a change in the display position of image 24.
  • the display device 1 changes the display position of the image 24 by a short distance. This allows the display device 1 to more efficiently suppress the user's perception of the change in the display position of the image 24.
  • the display device 1 according to this embodiment has the same configuration as the display device 1 according to any of the embodiments described above.
  • the control method of the display device 1 according to this embodiment differs only partially from the control method of the display device 1 according to any of the embodiments described above.
  • the control method of the display device 1 according to this embodiment will be described with reference to Fig. 8.
  • Fig. 8 is a flowchart showing an example of the control method of the display device 1 according to this embodiment.
  • control unit 5 first executes steps S1 and S2 described above. If the control unit 5 determines in step S2 that the visibility sensor has detected a non-visible state, the control unit 5 executes step S3 described above.
  • control unit 5 determines whether the number of times the non-visible state is detected by the visibility sensor 4 per unit time is less than a predetermined value (step S11).
  • the control unit 5 may, for example, record the number of times step S3 is executed.
  • the control unit 5 may calculate the number of times the non-visible state is detected by the visibility sensor 4 per unit time from the number of times step S3 is executed within a predetermined time.
  • step S11 determines in step S11 that the number of non-visible states detected by the visibility sensor 4 per unit time is less than a predetermined value
  • step S8 determines in step S11 that the number of non-visible states detected by the visibility sensor 4 per unit time is equal to or greater than a predetermined value
  • step S9 determines in step S5.
  • step S1 may execute step S1 again, or may execute step S6 described above. As described above, the control unit 5 repeatedly executes each process shown in FIG. 8.
  • the display device 1 changes the display position of the image 24 by a short distance when it is estimated that the user is concentrating on viewing the image 24. Moreover, the display device 1 changes the display position of the image 24 by a long distance when it is estimated that the user is not concentrating on viewing the image 24. This allows the display device 1 to more efficiently achieve both suppression of the user's perception of the change in the display position of the image 24 and reduction of burn-in of each light-emitting element 23.
  • the control unit 5 according to each embodiment of the present disclosure may be realized by a computer.
  • the control program for the display device 1 for realizing the control unit 5 according to each embodiment of the present disclosure by a computer, and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present disclosure.
  • the display device 1 may include a computer having, as hardware for executing the above program, at least one control device including, for example, a processor, and at least one storage device including, for example, a non-volatile memory.
  • control device including, for example, a processor
  • storage device including, for example, a non-volatile memory.
  • the above program may be recorded on one or more computer-readable recording media, not on a temporary basis.
  • the recording media may or may not be included in the display device 1.
  • the above program may be supplied to the display device 1 via any wired or wireless transmission medium.
  • control unit 5 can be realized by a logic circuit.
  • a logic circuit for example, an integrated circuit in which a logic circuit that functions as at least a part of the control unit 5 is formed is also included in the scope of this disclosure.
  • each process described in each of the above embodiments may be executed by AI (Artificial Intelligence).
  • AI Artificial Intelligence
  • the AI may run on the control device, or may run on another device (such as an edge computer or a cloud server).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Electroluminescent Light Sources (AREA)

Abstract

表示デバイス(1)は、複数の自発光素子(23)を含む表示パネル(2)と、表示パネルによる画像(24)の表示を制御する表示制御部(3)と、視認センサ(4)と、を備える。視認センサは、ユーザの状態から、ユーザが表示画面を視認しない状態、ユーザの視線が表示画面と交差しない状態、または、ユーザの表示画面上の視点と画像の位置との距離が所定値以上である状態である非視認状態を検知する。表示制御部は、視認センサが非視認状態を検知した場合に、複数の自発光素子の発光の制御を通じて、表示パネルによる画像の少なくとも一部の表示位置を変更する。

Description

表示デバイス、表示デバイスの制御方法
 本開示は、自発光素子を複数備えた表示デバイス、および当該表示デバイスの制御方法に関する。
 自発光素子を備えた表示デバイスにおいて、同一画像の長時間の表示等、同一の自発光素子を長時間発光させることは、当該自発光素子の劣化に伴う表示デバイスの焼付きにつながるため、上記焼付きを低減する技術が提案されている。特許文献1は、パネル上の画像の表示位置を所定時間間隔で移動させることにより、焼付きの視認を抑制する有機発光ディスプレイ装置を開示する。
日本国特開2007-304318号
 特許文献1に記載されたディスプレイにおいて、ユーザが画像を視認している状態において画像の表示位置が移動した場合、ユーザが画像の表示位置の移動を知覚してしまい、ユーザによる画像の視認性が低下する場合がある。
 本開示の一実施形態に係る表示デバイスは、複数の自発光素子を含む表示パネルと、複数の前記自発光素子の発光を個々に制御して、前記表示パネルにおける画像の表示を制御する表示制御部と、ユーザの状態から、前記ユーザが表示画面を視認しない状態、前記ユーザの視線が表示画面と交差しない状態、または、前記ユーザの表示画面上の視点と前記画像の位置との距離が所定値以上である状態である非視認状態を検知する視認センサと、を備え、前記表示制御部は、前記視認センサが前記非視認状態を検知した場合に、複数の前記自発光素子の発光の制御を通じて、前記表示パネルにおける前記画像の少なくとも一部の表示位置を変更する。
 本開示の一実施形態に係る表示デバイスの制御方法は、複数の自発光素子を含む表示パネルを備えた表示デバイスの制御方法であって、複数の前記自発光素子の発光の個々の制御を通じた前記表示パネルにおける画像の表示の制御と、ユーザの状態に基づく、前記ユーザが表示画面を視認しない状態、前記ユーザの視線が表示画面と交差しない状態、または、前記ユーザの表示画面上の視点と前記画像の位置との距離が所定値以上である状態である非視認状態の検知と、前記非視認状態が検知された場合における、複数の前記自発光素子の発光の制御を通じた、前記表示パネルにおける前記画像の少なくとも一部の表示位置の変更と、を含む。
 ユーザによる画像の視認性の低下を抑制しつつ、自発光素子の焼付きを低減する。
実施形態1に係る表示デバイスの概略平面図である。 実施形態1に係る表示デバイスの制御方法の一例を示すフローチャートである。 実施形態1に係る表示部における画像の表示位置の一例を示す表示部の模式図である。 実施形態2に係る表示デバイスの制御方法の一例を示すフローチャートである。 実施形態3に係る表示デバイスの制御方法の一例を示すフローチャートである。 実施形態3に係る表示部における画像の表示位置の一例を示す表示部の模式図である。 実施形態4に係る表示デバイスの制御方法の一例を示すフローチャートである。 実施形態5に係る表示デバイスの制御方法の一例を示すフローチャートである。
 〔実施形態1〕
 <表示デバイス>
 図1は、本実施形態に係る表示デバイスの概略平面図である。図1に示すように、表示デバイス1は、表示パネル2と、表示制御部3と、視認センサ4と、制御部5と、を備える。
 表示パネル2は、例えば、表示パネル2の平面視において、表示パネル2の表示画面を形成する矩形の表示部21と、表示部21の周囲に形成された額縁部22とを備える。また、表示パネル2は、表示部21に複数の自発光素子23を、表示デバイス1の平面視における上下方向および左右方向に整列して備える。なお、図1においては、自発光素子23を透過して示している。
 自発光素子23は、後述する表示制御部3によって、個々に発光を制御される。自発光素子23は、例えば、図示しない基板上に形成され、表示制御部3による発光制御によって基板とは反対の側に光を発する。これにより、表示デバイス1は、表示制御部3により自発光素子23を個々に発光させて表示パネル2における表示を実現する。なお、自発光素子23は、有機材料を発光材料として有するOLED素子、または量子ドットを発光材料として有するQLED素子等であってもよい。
 表示制御部3は、例えば、額縁部22に位置する第1ドライバ31および第2ドライバ32を備える。例えば、第1ドライバ31は表示パネル2の平面視における左右方向に延伸する複数の第1信号線33に個々に信号を印加する。第2ドライバ32は表示パネル2の平面視における上下方向に延伸する複数の第2信号線34に個々に信号を印加する。
 例えば、上記基板の第1信号線33と第2信号線34との交点のそれぞれには、図示しない駆動回路がそれぞれ形成され、各駆動回路は各自発光素子と電気的に接続する。これにより、表示制御部3は、第1ドライバ31と第2ドライバ32とによる各信号線への映像信号の印加を通じて、駆動回路を個々に制御し、ひいては自発光素子23の発光を個々に制御する。
 表示制御部3は、例えば、複数の自発光素子23のうち一部の発光を制御し、表示パネル2における画像24の表示を制御する。一方、表示制御部3は、複数の自発光素子23のうち他の一部を発光させない。このため、表示パネル2の平面視における一部領域が黒表示領域25となる。表示制御部3は、発光させる自発光素子23の位置を制御することにより、表示パネル2の平面視における黒表示領域25の位置の制御を通じて、画像24の表示位置を制御する。
 視認センサ4は、表示デバイス1のユーザの状態から、ユーザによる表示パネル2が表示する画像24の視認状態を検知する。特に、視認センサ4は、上記ユーザの状態から非視認状態を検知する。
 本開示において、非視認状態とは、ユーザが画像24を視認していない状態、または、ユーザによる画像24の視認の度合いが低い状態を指す。ユーザによる画像24の視認の度合いが低い状態とは、ユーザの視線が表示画面である表示部21と交差しない状態、または、ユーザの表示部21上の視点と画像24の位置との距離が所定値以上である状態である。
 例えば、ユーザの視線が表示部21または表示部21の延長面上と交差する点と画像24の位置との距離が所定値以上である場合、ユーザの視界に画像24が存在しない、あるいは、ユーザの視界の端部にしか画像24が存在しない状態となる。したがって、ユーザの視線が表示画面である表示部21と交差しない状態、および、ユーザの表示部21上の視点と画像24の位置との距離が所定値以上である状態は、ユーザによる画像24の視認の度合いが低い非視認状態であるとみなせる。
 特に、本開示において、ユーザが画像24を視認していない非視認状態とは、例えば、ユーザの瞬き等によりユーザの瞼が閉じているために、ユーザが画像24を視認していない状態を含む。また、ユーザによる画像24の視認の度合いが低い非視認状態とは、例えば、ユーザの視点が画像24の周囲に位置する、換言すれば、ユーザの視線が画像24と交差しない状態を含む。
 視認センサ4は、例えば、額縁部22の表示パネル2の表示面の側に形成されたカメラ41と、額縁部22の内側に形成された撮影画像解析部42とを備える。カメラ41は、表示パネル2の表示面の側を撮影することにより、ユーザを撮影する。カメラ41は、カメラ41を用いる撮影者自身を撮影するために表示デバイス1に搭載されたセルフカメラであってもよい。撮影画像解析部42は、カメラ41により取得された撮影画像を解析することにより、撮影画像からユーザによる画像24の視認状態を検知することにより、上述した非視認状態を検知する。視認センサ4はこれに限られず、視点センサ等の、ユーザが視認する方向を特定するセンサ、あるいは、ユーザの瞬きを検知するセンサ等、従来公知の種々のセンサであってもよい。
 撮影画像解析部42は、例えば、カメラ41により取得された撮影画像から、ユーザの眼球の虹彩または瞳孔等の位置、あるいは、ユーザの瞼の開閉等の特定を通じて、非視認状態を検知してもよい。あるいは、撮影画像解析部42は、例えば、カメラ41により取得された撮影画像から、ユーザの顔、頭、または身体の向き等の特定を通じて、非視認状態を検知してもよい。撮影画像解析部42による撮影画像の解析の具体的手法は、従来公知の画像解析の手法を採用してもよく、特に限定されない。
 制御部5は、表示デバイス1が備える表示パネル2、表示制御部3、および視認センサ4の動作を制御する。例えば、制御部5は表示パネル2の額縁部22に形成されていてもよいが、これに限られず、制御部5は表示デバイス1の筐体の外部に位置してもよい。制御部5は表示デバイス1の各部と情報の授受を実行するための不図示の通信手段を有してもよい。
 <画像の表示位置の変更方法>
 表示制御部3は、視認センサ4によるユーザの画像24の視認状態の検知の結果に基づき、表示パネル2における画像24の表示位置を制御する。特に、表示制御部3は、視認センサ4が非視認状態を検知した場合に、自発光素子23の発光の制御を通じて、表示パネル2における画像24の少なくとも一部の表示位置を変更する。特に、表示制御部3は表示パネル2における画像24の構成要素のうち一部の表示パネル2上における位置を変更することにより、画像24の少なくとも一部の表示位置を変更してもよい。
 表示制御部3が画像24の表示位置を変更する具体的な方法について、図2および図3を参照した表示デバイス1の制御方法の一例の説明を通じて説明する。
 図2は、本実施形態に係る表示デバイス1の制御方法の一例を示すフローチャートである。図2を含む本開示における表示デバイス1の制御方法の一例を示すフローチャートでは、制御部5による表示デバイス1の各部の制御を通じて表示デバイス1を制御する方法を説明する。
 図3は、本実施形態に係る表示パネル2における画像24の表示位置の一例を示すための、表示パネル2における表示の一例を示す、表示部21の模式図である。図3においては、表示パネル2が、互いに表示パネル2における画像24の表示位置が異なる、模式図61、模式図62、模式図63、および模式図64に示すように画像24を表示している状態における表示部21の模式図をそれぞれ示す。図3を含む本開示における表示部21の模式図は表示部21の平面視における模式図であり、また、当該模式図においては自発光素子23を透過して示す。
 図2に示す表示デバイス1の制御方法は、表示パネル2における画像24の表示が継続する間、常時かつ繰り返し実行される。また、制御部5は表示制御部3の制御を通じて、図2に示す表示デバイス1の制御方法が実行される間、表示パネル2に画像24の表示を継続させる。換言すれば、制御部5は、表示制御部3に自発光素子23の発光の個々を制御させ、表示パネル2における画像24の表示を制御させる。例えば、図2に示す表示デバイス1の制御方法は、表示デバイス1の電源投入から電源切断の間に常に実行されていてもよい。例えば、制御部5は、表示制御部3の制御を通じて画像24の内容を連続して変更し、表示パネル2における画像24の表示を継続させることにより、表示パネル2に動画を表示させる。
 本実施形態に係る表示デバイス1の制御方法の開始時点においては、制御部5が表示パネル2に図3の模式図61に示すように画像24を表示させているものとする。この場合、模式図61に示すように、表示部21の左上に画像24が表示され、表示部21の右側端部および下側端部には、黒表示領域25が形成される。特に、表示パネル2が模式図61に示すように画像24を表示する場合、表示部21の右側端部に位置する自発光素子23の一列分および下側端部に位置する自発光素子23の一行分は発光していない。例えば、制御部5は、表示デバイス1の電源投入時において、表示パネル2に模式図61に示すように画像24を表示させてもよい。
 本実施形態に係る表示デバイス1の制御方法においては、はじめに、制御部5は視認センサ4にユーザによる画像24の視認状態を検知させる(ステップS1)。ステップS1において、制御部5は、例えば、視認センサ4の制御を通じて、カメラ41にユーザを撮影させ、カメラ41によって取得された撮影画像を撮影画像解析部42に解析させる。
 次いで、制御部5は、ステップS1において視認センサ4が検知したユーザの状態に基づき、視認センサ4が上述した非視認状態を検知したかを判定する(ステップS2)。換言すれば、制御部5は、視認センサ4に、ユーザの状態に基づいて、非視認状態の検知を実行させる。
 ステップS2において視認センサが非視認状態を検知したと制御部5が判定した場合、制御部5は、表示パネル2における画像24の表示位置を特定する(ステップS3)。ステップS3は、表示パネル2がどのような表示を行っているかを制御部5が特定することにより実行してもよく、例えば、表示制御部3により映像信号を印加されている信号線の位置を制御部5が特定することにより実行してもよい。
 ステップS3に次いで、制御部5は、表示パネル2における画像24の表示位置に基づき、表示制御部3に表示パネル2における画像24の表示位置を変更させる(ステップS4)。
 例えば、表示パネル2が模式図61に示す画像24の表示を実行している場合、ステップS4において、制御部5は表示制御部3の制御を通じて、表示パネル2に模式図62に示すように画像24を表示させる。制御部5による表示パネル2における表示の変更は、例えば、制御部5が表示制御部3に発光させない自発光素子を変更させることにより実行する。換言すれば、ステップS4において、表示制御部3は、自発光素子23の発光の制御を通じて、表示パネル2における画像24の表示位置を変更する。
 表示パネル2が模式図62に示すように画像24を表示する場合、表示パネル2は画像24を表示部21の最も右上に表示する。このため、模式図62において、表示部21の左側端部および下側端部には、黒表示領域25が形成される。換言すれば、表示パネル2が模式図62に示すように画像24を表示する場合、表示部21の左側端部に位置する自発光素子23の一列分および下側端部に位置する自発光素子23の一行分は発光していない。したがって、制御部5は表示パネル2における表示を模式図61に示す表示から模式図62に示す表示に変更することにより、表示パネル2における画像24の表示位置を、表示部21の左上から右上に変更する。
 一方、ステップS2において視認センサが非視認状態を検知していないと制御部5が判定した場合、制御部5は、表示パネル2における画像24の表示位置を維持する(ステップS5)。ステップS5は、制御部5が表示制御部3に発光させない自発光素子の位置を維持させることにより実行してもよい。
 本実施形態においては、ステップS4またはステップ5の実行に次いで、制御部5は引き続きステップS1を実行する。換言すれば、ステップS4において制御部5が表示パネル2における画像24の表示位置を変更または維持した後、再度視認センサ4にユーザによる画像の視認状態を検知させる。これにより、制御部5は、ステップS1からS5を繰り返し実行する。
 本実施形態に係るステップS3において表示パネル2が模式図62に示すように画像24を表示している場合、ステップS4において制御部5は表示パネル2に模式図63に示すように画像24を表示させる。換言すれば、ステップS3において画像24が表示部21の右上に表示されている場合、ステップS4において制御部5は、画像24の表示位置を表示部21の右下に変更する。
 同様に、本実施形態に係るステップS3において表示パネル2が模式図63に示すように画像24を表示している場合、ステップS4において制御部5は表示パネル2に模式図64に示すように画像24を表示させる。換言すれば、ステップS3において画像24が表示部21の右下に表示されている場合、ステップS4において制御部5は、画像24の表示位置を表示部21の左下に変更する。
 さらに、本実施形態に係るステップS3において表示パネル2が模式図64に示すように画像24を表示している場合、ステップS4において制御部5は表示パネル2に模式図61に示すように画像24を表示させる。換言すれば、ステップS3において画像24が表示部21の左下に表示されている場合、ステップS4において制御部5は、表示パネル2における画像24の表示位置を表示部21の左上に変更する。
 以上により、制御部5は、表示パネル2における表示を、模式図61、模式図62、模式図63、および模式図64のそれぞれに示す表示に、この順に繰り返し変更する。これにより、制御部5は、表示パネル2における画像24の表示位置を周期的に変更する。このため、制御部5は、ステップS2において非視認状態が検知された回数を図示しない記憶部等に記録してもよい。この場合、制御部5は、ステップS3において当該回数を読み出すことにより、表示パネル2における画像24の表示位置を特定してもよい。
 なお、制御部5は、表示デバイス1の電源切断時に、当該時点における画像24の表示位置を不図示の記憶部に記録してもよい。この場合、制御部5は、表示デバイス1の電源投入時、表示パネル2に、最後の表示デバイス1の電源切断時において記録された画像24の表示位置にて、画像24を表示させてもよい。
 <表示デバイスの奏する効果>
 上述の表示デバイス1の制御方法により、表示パネル2の画像24の表示位置は、視認センサ4が上述した非視認状態を検出する度に、表示制御部3により変更される。このため、表示デバイス1は、画像24が表示パネル2における同一の位置に常時表示される場合と比較して、表示パネル2における位置による各自発光素子23の総駆動時間を平準化できる。したがって、表示デバイス1は、各自発光素子23の焼付きを低減できる。
 さらに、本実施形態において、表示制御部3による表示パネル2の画像24の表示位置の変更は、上述の通り視認センサ4が非視認状態を検出する場合に実行される。このため、表示デバイス1は、ユーザが画像24を視認していない、または、ユーザによる画像24の視認の度合いが低い状態において、表示パネル2の画像24の表示位置を変更する。したがって、表示デバイス1は、ユーザに表示パネル2の画像24の表示位置の変更を知覚されることを抑制しつつ、当該表示位置を変更できる。
 ゆえに、表示デバイス1は、ユーザによる画像24の視認性の低下を抑制しつつ、自発光素子23の焼付きを低減できる。
 一般に、例えば、アプリケーションソフトのウインドウの枠、または、アイコン等は、画像の端部に表示される。このような表示は、表示パネルにおける位置が移動しにくく、また、表示のために自発光素子が高輝度にて発光する必要があることが多い。このため、複数の自発光素子23を有する表示パネル2を備えた表示デバイス1においては、表示パネル2の端部に位置する自発光素子23の焼付きの進行が他の自発光素子23と比較して早い場合がある。表示パネル2の端部に位置する自発光素子23の焼付きは、表示パネル2の中央付近に位置する自発光素子23の焼付きよりも、ユーザに知覚されやすい傾向にある。
 上述の表示デバイス1の制御方法によれば、黒表示領域25は表示パネル2の平面視において画像24の周囲の少なくとも一部に位置する。これにより、表示デバイス1は、表示パネル2の周囲端部に位置する自発光素子23の焼付きの進行を効率的に抑制することができる。ゆえに、表示デバイス1は、ユーザが自発光素子23の焼付きを知覚することをより効率的に抑制する。
 なお、常に画像24の表示のために駆動される表示部21の中央近傍に位置する自発光素子23においても、画像24の表示位置の変更に伴い、輝度の変動が生じる。このため、表示デバイス1は、当該自発光素子23についても、常に高い輝度にて発光させることを抑制でき、ユーザが自発光素子23の焼付きを知覚することを抑制する。
 ユーザの瞼が閉じている状態は、ユーザの瞬き等により、比較的頻繁に発生する。また、ユーザの視点が画像24の周囲に位置する状態についても、ユーザによる表示デバイス1の周囲の確認等により、比較的頻繁に発生する。したがって、これらの状態を非視認状態に含めることにより、表示デバイス1は、表示パネル2の画像24の表示位置の変更の頻度を効率的に高める。
 上述の表示デバイス1の制御方法によれば、ステップS4において、表示制御部3は表示パネル2の画像24の全体の表示位置を変更する。これにより、表示デバイス1は、表示制御部3が表示パネル2の画像24の一部の表示位置のみを変更する場合と比較して、画像24の移動した部分と移動していない部分との境界がユーザに知覚されることを防止できる。したがって、表示デバイス1は、自発光素子23の焼付きを低減しつつ、ユーザによる画像24の視認性の低下をさらに低減できる。
 なお、ステップS4における表示制御部3による表示パネル2の画像24の表示位置を変更方法は上述した例に限られない。例えば、表示パネル2が、ほとんどの位置において黒色であり一部の自発光素子23を発光させれば表示できる画像24を表示しているとする。この場合、表示制御部3は、表示パネル2の画像24のうち、表示のために自発光素子23を発光させる必要のある部分の表示位置のみを変更してもよい。例えば、画像24の移動した部分と移動していない部分との境界において画像24が黒色である場合には、表示制御部3が表示パネル2の画像24の一部の表示位置のみを変更しても、上記境界がユーザに知覚されにくい。
 上述の表示デバイス1の制御方法においては、ステップS4において、表示制御部3は、発光させる自発光素子23の位置を、表示パネル2の上下方向または左右方向に素子一個分移動させる例を説明したが、これに限られない。例えば、ステップS4において、表示制御部3は、発光させる自発光素子23の位置を、一度に素子二個分以上移動させてもよく、表示パネル2の斜め方向に移動させてもよい。
 表示パネル2は、互いに異なる発光色の発光素子を複数含む画素を、画像24の表示の最小単位として複数備えていてもよい。例えば、当該画素は赤色自発光素子、緑色自発光素子、および青色自発光素子を備えていてもよい。この場合、上述の表示デバイス1の制御方法においては、ステップS4において、表示制御部3は、画像24の位置を、表示パネル2の上下方向または左右方向に一画素分または二画素分以上移動させてもよい。
 本実施形態においては、表示パネル2における表示が、模式図61、模式図62、模式図63、および模式図64に示す表示に繰り返し変更される例を記載したが、これに限られない。例えば、制御部5は、表示パネル2における上述の表示を逆順に変更してもよい。また、表示パネル2は画像24を表示部21の中央に表示してもよく、換言すれば黒表示領域25が画像24の全周囲に形成されてもよい。
 また、表示制御部3は、表示パネル2の自発光素子23の全てを発光させ、画像24のうち一部を抜き出して表示させてもよい。この場合、表示制御部3は、表示させる画像24の部分を変更することにより、表示パネル2に表示させる画像24の表示位置を変更してもよい。この場合、表示パネル2には黒表示領域25が形成されないため、表示デバイス1は発光素子の個数をそのままにより高精細に画像を表示できる。
 視認センサ4が複数のユーザの状態を検知した場合、視認センサ4は、表示パネル2の平面視において表示部21の中心との距離が近いユーザの状態に基づき、上記非視認状態の検知を行ってもよい。例えば、視認センサ4は、カメラ41によって取得された撮影画像に複数のユーザが写っている場合、当該撮影画像の中心に最も近いユーザの状態に基づき、上記非視認状態の検知を行ってもよい。
 表示パネル2の平面視において表示部21の端部の側に位置するユーザは、中央部の側に位置するユーザよりも、表示パネル2との距離が遠く、また、画像24を視認する方向と表示パネル2の表示方向との差が大きい。このため、表示パネル2の平面視において表示部21の端部の側に位置するユーザは、中央部の側に位置するユーザよりも、画像24の表示位置の変更を知覚しにくい。したがって、上記構成により、表示デバイス1は、自発光素子23の焼付きを低減しつつ、複数のユーザによる画像24の視認性の低下についても低減できる。
 〔実施形態2〕
 <画像の表示位置の固定>
 本開示の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 本実施形態に係る表示デバイス1は、前実施形態に係る表示デバイス1と同一の構成を備える。本実施形態に係る表示デバイス1の制御方法は、前実施形態に係る表示デバイス1の制御方法と一部のみ異なる。本実施形態に係る表示デバイス1の制御方法について、図4を参照し説明する。図4は本実施形態に係る表示デバイス1の制御方法の一例を示すフローチャートである。
 本実施形態に係る表示デバイス1の制御方法においては、前実施形態にて説明したステップS4およびステップS5に次いで、制御部5が、表示制御部3に所定の待機時間だけ表示パネル2における画像24の表示位置を固定させる(ステップS6)。ステップS6の実行中、換言すれば、ステップS6の実行開始から少なくとも所定の待機時間が経過するまで、制御部5は、視認センサ4による非視認状態の検知の有無に関わらず、表示パネル2における画像24の表示位置を固定する。
 ステップS6の完了後、換言すれば、ステップS6の実行開始から所定の待機時間の経過後、制御部5は、ステップS1を実行してもよい。以上により、制御部5は、ステップS1からS6を繰り返し実行する。これにより、制御部5は、最後に表示パネル2における画像24の表示位置を変更してから所定の待機時間が経過した後、視認センサ4が非視認状態を検知した場合に、上記表示位置の変更を実行する。
 一般に、ユーザの瞬きの間隔、またはユーザが表示デバイス1の周囲を確認する間隔等、非視認状態が検知される間隔にはばらつきがある。しかしながら、本実施形態に係る表示デバイス1の制御方法によれば、制御部5は、最後に表示パネル2における画像24の表示位置を変更してから所定の待機時間が経過するまで、上記表示位置を変更しない。このため、非視認状態が検知される間隔にばらつきがある場合においても、表示デバイス1は、画像24の表示位置が変更される間隔のばらつきを低減できる。したがって、本実施形態に係る表示デバイス1は、各自発光素子23の発光時間をより平準化し、各自発光素子23の焼付きをより効率的に低減する。
 ステップS6の実行中の少なくとも一部の期間、換言すれば、表示制御部3により表示パネル2の画像24の表示位置が固定されている間の少なくとも一部の期間において、制御部5は視認センサ4の動作を停止させてもよい。これにより表示デバイス1は、視認センサ4の動作が停止する期間において省電化を達成でき、また、制御部5による視認センサ4の制御を簡素化できる。
 〔実施形態3〕
 <非視認状態の継続時間>
 本実施形態に係る表示デバイス1は、前述の何れかの実施形態に係る表示デバイス1と同一の構成を備える。本実施形態に係る表示デバイス1の制御方法は、前述の何れかの実施形態に係る表示デバイス1の制御方法と一部のみ異なる。本実施形態に係る表示デバイス1の制御方法について、図5および図6を参照し説明する。
 図5は本実施形態に係る表示デバイス1の制御方法の一例を示すフローチャートである。図6は、本実施形態に係る表示パネル2における画像24の表示位置の一例を示すための、表示部21の模式図である。図6においては、表示パネル2が、互いに表示パネル2における画像24の表示位置が異なる、模式図65、模式図66、および模式図67に示すように画像24を表示している状態における表示部21の模式図をそれぞれ示す。
 本実施形態に係る表示デバイス1の制御方法の開始時点において、制御部5は、表示パネル2に図6の模式図65に示すように画像24を表示させているものとする。この場合、模式図65に示すように、表示部21の左上に画像24が表示され、表示部21の右側端部および下側端部には、黒表示領域25が形成される。特に、表示パネル2が模式図65に示すように画像24を表示する場合、表示部21の右側端部に位置する自発光素子23の二列分および下側端部に位置する自発光素子23の二行分は発光していない。
 本実施形態に係る表示デバイス1の制御方法においては、はじめに、制御部5は、前述したステップS1およびS2を実行する。ステップS2において視認センサが非視認状態を検知したと制御部5が判定した場合、制御部5は、前述したステップS3を実行する。
 次いで、制御部5は、ステップS1において視認センサ4が検知した視認状態に基づき、視認センサ4が短期非視認状態を検知したかを判定する(ステップS7)。
 本実施形態において、短期非視認状態とは、視認センサ4による非視認状態の検知時点において、当該非視認状態の終了までの時間が所定時間未満であると視認センサ4が推定する状態である。換言すれば、短期非視認状態とは、視認センサ4による非視認状態の検知時点において、所定時間未満にてユーザが画像24を再度視認する状態に戻ると推定できる状態を含む。
 例えば、短期非視認状態は、ユーザが瞬きによって画像24を視認していないと推定される状態を含む。また、例えば、短期非視認状態は、ユーザが画像24の周囲近傍を視認することにより画像24の視認の度合いが一時的に低下していると推定される状態を含む。
 視認センサ4は、例えば、撮影画像の解析により、ユーザの瞼が閉じている状態を非視認状態として検知した場合、ユーザが瞬きをしていると推定し、当該非視認状態を短期非視認状態であると推定する。また、視認センサ4は、撮影画像の解析により、ユーザの視点が画像24の周囲近傍に位置する状態を非視認状態として検知した場合、当該非視認状態を短期非視認状態であると推定する。
 ステップS7において視認センサが短期非視認状態を検知したと制御部5が判定した場合、制御部5は、表示部21上の画像24の表示位置に基づき、表示制御部3に表示部21上の画像24の表示位置を短距離だけ変更させる(ステップS8)。
 例えば、ステップS3において表示パネル2が模式図65に示すように画像24を表示している場合、ステップS8において、制御部5は表示制御部3の制御を通じて、表示パネル2に模式図66に示すように画像24を表示させる。換言すれば、ステップS8において、制御部5は、表示パネル2の画像24の表示位置を、表示パネル2の平面視において自発光素子23の一列分のみ右方に移動させる。
 ステップS7において視認センサが短期非視認状態を検知していないと制御部5が判定した場合、制御部5は、視認センサが長期非視認状態を検知したと判定する。
 本実施形態において、長期非視認状態とは、視認センサ4による非視認状態の検知時点において、当該非視認状態の終了までの時間が所定時間以上であると視認センサ4が推定する状態である。換言すれば、長期非視認状態とは、視認センサ4による非視認状態の検知時点において、所定時間以上ユーザが画像24を視認しない状態が継続すると推定できる状態を含む。例えば、長期非視認状態は、ユーザが表示デバイス1の周囲を確認していると推定される状態を含む。視認センサ4は、例えば、撮影画像の解析により、ユーザの視点が画像24から所定距離以上離れた状態を非視認状態として検知した場合、当該非視認状態を長期非視認状態であると推定する。
 ステップS7において視認センサが長期非視認状態を検知したと制御部5が判定した場合、制御部5は、表示パネル2における画像24の表示位置に基づき、表示制御部3に表示パネル2における画像24の表示位置を長距離変更させる(ステップS9)。
 例えば、ステップS3において表示パネル2が模式図65に示すように画像24を表示している場合、ステップS9において、制御部5は表示制御部3の制御を通じて、表示パネル2に模式図67に示すように画像24を表示させる。換言すれば、ステップS9において、制御部5は、表示パネル2の画像24の表示位置を、表示パネル2の平面視において自発光素子23の二列分右方に移動させる。
 このため、ステップS9において、制御部5は、ステップS8における表示パネル2の画像24の表示位置を変更する距離よりも、当該表示位置をより長距離変更する。なお、本開示における画像24の表示位置の変更距離は、例えば、表示位置の変更前における画像24の中心から表示位置の変更後における画像24の中心までの距離であってもよい。
 ステップS2において視認センサが非視認状態を検知していないと制御部5が判定した場合、制御部5は、ステップS5を実行する。ステップS5、S8、またはS9に次いで、制御部5は、再度ステップS1を実行してもよく、上述したステップS6を実行してもよい。以上により、制御部5は、図5に示す各工程を繰り返し実行する。
 ステップS8、およびS9においては、ステップS3において特定された表示パネル2の画像24の表示位置に応じて、画像24の移動方向を決定してもよい。例えば、ステップS3において表示パネル2が模式図66に示すように画像24を表示している場合、ステップS8において制御部5は表示パネル2に模式図67に示すように画像24を表示させてもよい。あるいは、ステップS3において表示パネル2が模式図66に示すように画像24を表示している場合、ステップS9において制御部5は表示パネル2に模式図67に示す表示よりも画像24をさらに下方に移動させた表示を実行させてもよい。
 一般に、ユーザが表示パネル2の画像24を視認しない期間が短い場合、最後にユーザが画像24を視認してから大きく画像24の表示位置を変更すると、新たに画像24を視認したユーザが、当該画像24の表示位置の変更を知覚しやすい。一方、ユーザが表示パネル2の画像24を長時間視認しなかった場合、最後にユーザが画像24を視認してから大きく画像24の表示位置を変更しても、新たに画像24を視認したユーザは、当該画像24の表示位置の変更を知覚しにくい。
 本実施形態に係る表示デバイス1は、ユーザが画像24の表示位置の変更を知覚しやすい短期非視認状態を検出した場合に画像24の表示位置を短距離だけ変更する。また、表示デバイス1は、ユーザが画像24の表示位置の変更を知覚しにくい長期非視認状態を検出した場合に画像24の表示位置を長距離変更する。これにより、表示デバイス1は、ユーザによる画像24の表示位置の変更の知覚の抑制と、各自発光素子23の焼付きの低減とを、より効率よく両立できる。
 本実施形態において、制御部5は、ステップS8において画像24の表示位置を素子一個分、ステップS9において素子二個分移動させたが、これに限られない。ステップS9においてステップS8よりも画像24の表示位置が長距離変更される限り、本実施形態における制御部5による画像24の表示位置の変更方法は特に限定されない。
 〔実施形態4〕
 <画像の視認の度合い>
 本実施形態に係る表示デバイス1は、前述の何れかの実施形態に係る表示デバイス1と同一の構成を備える。本実施形態に係る表示デバイス1の制御方法は、前述の何れかの実施形態に係る表示デバイス1の制御方法と一部のみ異なる。本実施形態に係る表示デバイス1の制御方法について、図7を参照し説明する。図7は本実施形態に係る表示デバイス1の制御方法の一例を示すフローチャートである。
 本実施形態に係る表示デバイス1の制御方法においては、はじめに、制御部5は、前述したステップS1およびS2を実行する。ステップS2において視認センサが非視認状態を検知したと制御部5が判定した場合、制御部5は、前述したステップS3を実行する。
 次いで、制御部5は、ステップS1において視認センサ4が検知した視認状態に基づき、視認センサ4が第1非視認状態を検知したかを判定する(ステップS10)。
 本実施形態において、第1非視認状態とは、ユーザの視界の一部に画像24が位置すると視認センサ4が推定する状態である。換言すれば、第1非視認状態とは、ユーザによる画像24の視認の度合いが低く非視認状態ではあるものの、ユーザの視界の外に画像24が完全に移動したのではなく、ユーザの視界の一部に画像24が残存していると推定できる状態を含む。視認センサ4は、例えば、撮影画像の解析により、ユーザの視点と画像24の中心との距離が所定の距離未満であることを検知し、第1非視認状態を検知する。
 ステップS10において視認センサが第1非視認状態を検知したと制御部5が判定した場合、制御部5は、前述したステップS8を実行する。例えば、ステップS3において表示パネル2が模式図65に示すように画像24を表示している場合、ステップS8において、制御部5は表示制御部3の制御を通じて、表示パネル2に模式図66に示すように画像24を表示させる。
 ステップS10において視認センサが第1非視認状態を検知していないと制御部5が判定した場合、制御部5は、視認センサが第2非視認状態を検知したと判定する。
 本実施形態において、第2非視認状態とは、ユーザの視界の外側に画像24が位置すると視認センサ4が推定する状態である。換言すれば、第2非視認状態とは、ユーザの視界の外に画像24が完全に移動し、ユーザの視界に画像24が残存していないと推定できる状態を含む。視認センサ4は、例えば、撮影画像の解析により、ユーザの視点と画像24の中心との距離が所定の距離以上であることを検知し、第2非視認状態を検知する。
 ステップS10において視認センサが第2非視認状態を検知したと制御部5が判定した場合、制御部5は、前述したステップS9を実行する。例えば、ステップS3において表示パネル2が模式図65に示すように画像24を表示している場合、ステップS9において、制御部5は表示制御部3の制御を通じて、表示パネル2に模式図67に示すように画像24を表示させる。
 ステップS2において視認センサが非視認状態を検知していないと制御部5が判定した場合、制御部5は、ステップS5を実行する。ステップS5、S8、またはS9に次いで、制御部5は、再度ステップS1を実行してもよく、上述したステップS6を実行してもよい。以上により、制御部5は、図7に示す各工程を繰り返し実行する。
 一般に、非視認状態であっても、ユーザの視界の一部に画像24が残存している場合には、大きく画像24の表示位置を変更すると、ユーザが当該画像24の表示位置の変更を知覚しやすい。一方、ユーザの視界の外に画像24が移動している状態においては、大きく画像24の表示位置を変更しても、ユーザが当該画像24の表示位置の変更を知覚しにくい。
 本実施形態に係る表示デバイス1は、ユーザが画像24の表示位置の変更を知覚しやすい第1非視認状態を検出した場合に画像24の表示位置を短距離だけ変更する。また、表示デバイス1は、ユーザが画像24の表示位置の変更を知覚しにくい第2非視認状態を検出した場合に画像24の表示位置を長距離変更する。これにより、表示デバイス1は、ユーザによる画像24の表示位置の変更の知覚の抑制と、各自発光素子23の焼付きの低減とを、より効率よく両立できる。
 なお、本実施形態において、制御部5は、ステップS10の前後に上述したステップS7を実行してもよい。例えば、制御部5は、ステップS10に先立ちステップS7を実行してもよい。この場合、制御部5は、例えば、ステップS7において短期非視認状態が検出された場合、ステップS10の実行を省略してステップS8を実行してもよい。あるいは、制御部5は、ステップS10に次いでステップS7を実行してもよい。この場合、制御部5は、例えば、ステップS10において第2非視認状態が検出された場合であっても、ステップS7において短期非視認状態が検出された場合には、ステップS8を実行してもよい。
 例えば、ユーザが瞬きをした場合、ステップS7においては短期非視認状態が検出される一方、ユーザの視界には画像24が存在しないため、ステップS10においては第2非視認状態が検出される。短期非視認状態が検出された場合、視界に画像24が位置するか否かに関わらず、ユーザは所定時間未満にて再度画像24を視認する状態となる。この場合、ステップS10において第2非視認状態が検出されたとしても、画像24の表示位置を長距離変更した場合、ユーザが画像24の表示位置の変更を知覚する場合がある。
 上記構成により、表示デバイス1は、ステップS10において第2非視認状態が検出される場合であっても、ユーザの非視認状態の期間が所定時間未満であれば、画像24の表示位置を短距離だけ変更する。これにより、表示デバイス1は、ユーザによる画像24の表示位置の変更の知覚をさらに効率的に抑制できる。
 〔実施形態5〕
 <非視認状態の頻度>
 本実施形態に係る表示デバイス1は、前述の何れかの実施形態に係る表示デバイス1と同一の構成を備える。本実施形態に係る表示デバイス1の制御方法は、前述の何れかの実施形態に係る表示デバイス1の制御方法と一部のみ異なる。本実施形態に係る表示デバイス1の制御方法について、図8を参照し説明する。図8は本実施形態に係る表示デバイス1の制御方法の一例を示すフローチャートである。
 本実施形態に係る表示デバイス1の制御方法においては、はじめに、制御部5は、前述したステップS1およびS2を実行する。ステップS2において視認センサが非視認状態を検知したと制御部5が判定した場合、制御部5は、前述したステップS3を実行する。
 次いで、制御部5は、視認センサ4が単位時間当たりに検知した非視認状態の回数が所定値未満かを判定する(ステップS11)。制御部5は、例えば、ステップS3が実行された回数を記録してもよい。所定時間の間にステップS3が実行された回数から、視認センサ4が単位時間当たりに検知した非視認状態の回数を算出してもよい。
 ステップS11において視認センサ4が単位時間当たりに検知した非視認状態の回数が所定値未満であると制御部5が判定した場合、制御部5は、前述したステップS8を実行する。ステップS11において視認センサ4が単位時間当たりに検知した非視認状態の回数が所定値以上であると制御部5が判定した場合、制御部5は、前述したステップS9を実行する。ステップS2において視認センサが非視認状態を検知していないと制御部5が判定した場合、制御部5は、ステップS5を実行する。ステップS5、S8、またはS9に次いで、制御部5は、再度ステップS1を実行してもよく、上述したステップS6を実行してもよい。以上により、制御部5は、図8に示す各工程を繰り返し実行する。
 一般に、単位時間当たりの非視認状態の回数が少ない場合、ユーザの瞬きの頻度が少ない、ユーザが画像24から目線を外さない等、ユーザが画像24の視認に集中している場合が想定される。この場合において大きく画像24の表示位置を変更すると、ユーザが当該画像24の表示位置の変更を知覚しやすくなる。
 一方、単位時間当たりの非視認状態の回数が多い場合、ユーザの瞬きの頻度が多くなっている、ユーザが画像24からよく目線を外している等、ユーザが画像24の視認に集中していない場合が想定される。この場合においては、大きく画像24の表示位置を変更しても、ユーザが当該画像24の表示位置の変更を知覚しにくくなる。
 本実施形態に係る表示デバイス1は、ユーザが画像24の視認に集中していると推定される場合に画像24の表示位置を短距離だけ変更する。また、表示デバイス1は、ユーザが画像24の視認に集中していないと推定される場合に画像24の表示位置を長距離変更する。これにより、表示デバイス1は、ユーザによる画像24の表示位置の変更の知覚の抑制と、各自発光素子23の焼付きの低減とを、より効率よく両立できる。
 本開示の各実施形態に係る制御部5は、コンピュータによって実現してもよい。また、本開示の各実施形態に係る制御部5をコンピュータにて実現させるための、表示デバイス1の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本開示の範疇に入る。
 例えば、表示デバイス1は、上記プログラムを実行するためのハードウェアとして、例えばプロセッサを含む少なくとも1つの制御装置と、例えば不揮発性のメモリを含む少なくとも1つの記憶装置と、を有するコンピュータを備えていてもよい。この制御装置と記憶装置とにより上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現されてもよい。
 上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、表示デバイス1が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して表示デバイス1に供給されてもよい。
 また、制御部5の機能の一部または全部は、論理回路により実現することも可能である。例えば、制御部5の少なくとも一部として機能する論理回路が形成された集積回路も本開示の範疇に含まれる。この他にも、例えば量子コンピュータにより制御部5の機能を実現することも可能である。
 また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。
 本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 1  表示デバイス
 2  表示パネル
 3  表示制御部
 4  視認センサ
 5  制御部
 23 自発光素子
 24 画像
 41 カメラ
 42 撮影画像解析部

 

Claims (11)

  1.  複数の自発光素子を含む表示パネルと、
     複数の前記自発光素子の発光を個々に制御して、前記表示パネルにおける画像の表示を制御する表示制御部と、
     ユーザの状態から、前記ユーザが表示画面を視認しない状態、前記ユーザの視線が表示画面と交差しない状態、または、前記ユーザの表示画面上の視点と前記画像の位置との距離が所定値以上である状態である非視認状態を検知する視認センサと、を備え、
     前記表示制御部は、前記視認センサが前記非視認状態を検知した場合に、複数の前記自発光素子の発光の制御を通じて、前記表示パネルにおける前記画像の少なくとも一部の表示位置を変更する表示デバイス。
  2.  前記表示制御部は、前記視認センサが前記非視認状態を検知した場合に、前記表示パネルにおける前記画像の全体の表示位置を変更する請求項1に記載の表示デバイス。
  3.  前記視認センサは、少なくとも、前記非視認状態の検知時点において当該非視認状態の終了までの時間が所定時間未満であると推定される短期非視認状態と、前記非視認状態の検知時点において当該非視認状態の終了までの時間が所定時間以上であると推定される長期非視認状態と、を検知し、
     前記表示制御部は、前記表示位置を、前記視認センサが前記短期非視認状態を検知した場合よりも前記長期非視認状態を検知した場合においてより長距離変更する請求項1または2に記載の表示デバイス。
  4.  前記視認センサは、少なくとも、前記ユーザの視界の一部に前記画像が位置すると推定される第1非視認状態と、前記ユーザの視界の外側に前記画像が位置すると推定される第2非視認状態と、を検知し、
     前記表示制御部は、前記視認センサが前記第2非視認状態を検知した場合において、前記視認センサが前記第1非視認状態を検知した場合よりも前記表示位置をより長距離変更する請求項1から3の何れか1項に記載の表示デバイス。
  5.  前記表示制御部は、前記視認センサが単位時間当たりに検知した前記非視認状態の回数が所定値以上である場合において、当該回数が所定値未満である場合よりも前記表示位置をより長距離変更する請求項1から4の何れか1項に記載の表示デバイス。
  6.  前記非視認状態は、前記ユーザの瞼が閉じている状態を含む請求項1から5の何れか1項に記載の表示デバイス。
  7.  前記非視認状態は、前記ユーザの視点が前記画像の周囲に位置する状態を含む請求項1から6の何れか1項に記載の表示デバイス。
  8.  前記表示制御部は、前記表示位置を変更した後、前記非視認状態の検知の有無に関わらず少なくとも所定の待機時間以上前記表示位置を固定する請求項1から7の何れか1項に記載の表示デバイス。
  9.  前記表示制御部により前記表示位置が固定されている間の少なくとも一部の期間において、前記視認センサの動作が停止する請求項8に記載の表示デバイス。
  10.  前記視認センサは、前記ユーザを撮影するカメラと、前記カメラにより取得された撮影画像から前記非視認状態を検知する撮影画像解析部と、を含む請求項1から9の何れか1項に記載の表示デバイス。
  11.  複数の自発光素子を含む表示パネルを備えた表示デバイスの制御方法であって、
     複数の前記自発光素子の発光の個々の制御を通じた前記表示パネルにおける画像の表示の制御と、
     ユーザの状態に基づく、前記ユーザが表示画面を視認しない状態、前記ユーザの視線が表示画面と交差しない状態、または、前記ユーザの表示画面上の視点と前記画像の位置との距離が所定値以上である状態である非視認状態の検知と、
     前記非視認状態が検知された場合における、複数の前記自発光素子の発光の制御を通じた、前記表示パネルにおける前記画像の少なくとも一部の表示位置の変更と、を含む表示デバイスの制御方法。

     
PCT/JP2022/039850 2022-10-26 2022-10-26 表示デバイス、表示デバイスの制御方法 WO2024089785A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039850 WO2024089785A1 (ja) 2022-10-26 2022-10-26 表示デバイス、表示デバイスの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039850 WO2024089785A1 (ja) 2022-10-26 2022-10-26 表示デバイス、表示デバイスの制御方法

Publications (1)

Publication Number Publication Date
WO2024089785A1 true WO2024089785A1 (ja) 2024-05-02

Family

ID=90830334

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039850 WO2024089785A1 (ja) 2022-10-26 2022-10-26 表示デバイス、表示デバイスの制御方法

Country Status (1)

Country Link
WO (1) WO2024089785A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018131A (ja) * 2004-07-05 2006-01-19 Sony Corp 焼き付き補正装置、表示装置、画像処理装置及びプログラム
JP2007171700A (ja) * 2005-12-23 2007-07-05 Toshiba Corp 映像表示装置及び映像表示方法
JP2010117551A (ja) * 2008-11-13 2010-05-27 Seiko Epson Corp 電気泳動装置、その駆動方法、および電子機器
JP2011505594A (ja) * 2007-11-28 2011-02-24 グローバル オーエルイーディー テクノロジー リミティド ライアビリティ カンパニー 交互配置3tic補償を有するエレクトロルミネセント・ディスプレイ
US20160125777A1 (en) * 2014-10-30 2016-05-05 Dell Products L.P. Image Sticking Prevention Using an Information Handling System Webcam
JP2019200309A (ja) * 2018-05-16 2019-11-21 キヤノン株式会社 表示制御装置、表示制御方法、及びプログラム
WO2019229906A1 (ja) * 2018-05-30 2019-12-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像表示システム、画像生成方法およびコンピュータプログラム
US20210082375A1 (en) * 2017-12-20 2021-03-18 Samsung Electronics Co., Ltd. Electronic device and method for moving content display position on basis of coordinate information stored in display driver circuit

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018131A (ja) * 2004-07-05 2006-01-19 Sony Corp 焼き付き補正装置、表示装置、画像処理装置及びプログラム
JP2007171700A (ja) * 2005-12-23 2007-07-05 Toshiba Corp 映像表示装置及び映像表示方法
JP2011505594A (ja) * 2007-11-28 2011-02-24 グローバル オーエルイーディー テクノロジー リミティド ライアビリティ カンパニー 交互配置3tic補償を有するエレクトロルミネセント・ディスプレイ
JP2010117551A (ja) * 2008-11-13 2010-05-27 Seiko Epson Corp 電気泳動装置、その駆動方法、および電子機器
US20160125777A1 (en) * 2014-10-30 2016-05-05 Dell Products L.P. Image Sticking Prevention Using an Information Handling System Webcam
US20210082375A1 (en) * 2017-12-20 2021-03-18 Samsung Electronics Co., Ltd. Electronic device and method for moving content display position on basis of coordinate information stored in display driver circuit
JP2019200309A (ja) * 2018-05-16 2019-11-21 キヤノン株式会社 表示制御装置、表示制御方法、及びプログラム
WO2019229906A1 (ja) * 2018-05-30 2019-12-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像表示システム、画像生成方法およびコンピュータプログラム

Similar Documents

Publication Publication Date Title
US10325545B2 (en) Display panel, display apparatus and driving method thereof
US20200350377A1 (en) Terminal Device and Display Method
CN105992987B (zh) 包括在显示器中的相机
KR102127356B1 (ko) 투명 디스플레이 장치 및 그 제어 방법
CN109272935B (zh) 显示面板的驱动方法、驱动芯片及显示装置
US9019327B2 (en) Display device
TWI431584B (zh) 電子紙顯示器之驅動方法及其驅動裝置
US8791885B2 (en) Self-light-emitting display device, power consumption reduction method, and program
US9261705B2 (en) Display device and display system
JP2007133073A (ja) 自発光表示装置、発光条件制御装置、発光条件制御方法及びプログラム
KR102528996B1 (ko) 터치 디스플레이 장치
WO2021196839A1 (zh) 拍摄方法、电子设备及存储介质
US20210044756A1 (en) Display and imaging device
US20150130867A1 (en) Apparatus and method for controlling power
WO2024089785A1 (ja) 表示デバイス、表示デバイスの制御方法
US20120154466A1 (en) Display control apparatus and control method thereof
JP2009271392A (ja) 表示装置、表示装置の駆動回路、表示装置の駆動方法および電子機器
US20130321643A1 (en) Image display device and object detection device
CN110211537B (zh) 显示基板的驱动方法、驱动电路及显示装置
CN109740528B (zh) 图像处理方法、电子设备以及可读存储介质
US10522110B1 (en) Apparatuses, systems, and methods for measuring and adjusting the luminance of a head-mounted display
US11335279B2 (en) Display optimization method and a display apparatus
JP2004013115A (ja) 有機発光素子を用いた表示デバイスの駆動方法および駆動装置
US11972718B2 (en) Display device, electronic apparatus, and moving body
US11600235B1 (en) Scheme for operating under-display camera to prevent light interference from display