WO2013021864A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2013021864A1
WO2013021864A1 PCT/JP2012/069476 JP2012069476W WO2013021864A1 WO 2013021864 A1 WO2013021864 A1 WO 2013021864A1 JP 2012069476 W JP2012069476 W JP 2012069476W WO 2013021864 A1 WO2013021864 A1 WO 2013021864A1
Authority
WO
WIPO (PCT)
Prior art keywords
observer
unit
display
content
viewpoint
Prior art date
Application number
PCT/JP2012/069476
Other languages
English (en)
French (fr)
Inventor
誠 喜多
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2013021864A1 publication Critical patent/WO2013021864A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to a display device that can change the appearance of content according to the viewpoint of an observer.
  • a display device such as a liquid crystal display device has been conventionally known. Content is displayed on the display screen of the display device. The observer looks at the content displayed on the display screen.
  • the appearance of content does not change even if the observer's viewpoint moves. In other words, only the content viewed from a specific direction is displayed on the display screen. Therefore, even if the observer moves the viewpoint, only the content viewed from a specific direction is seen.
  • JP-A-7-306955 discloses a system for generating a three-dimensional illusion.
  • the computer receives data indicating the approximate position of the customer's viewpoint in the real world.
  • the customer's viewpoint moves to a new position relative to the screen, the appropriate video at that new position is generated by the computer and displayed on the screen.
  • the customer's viewpoint is estimated from the position of the customer in the room, and the estimated customer's viewpoint may be different from the actual customer's viewpoint.
  • the above publication complicates a system for obtaining data indicating a customer's viewpoint position.
  • An object of the present invention is to provide a display device that allows an observer to see content viewed from a direction different from a specific direction and easily associates the observer's viewpoint with the content display mode.
  • the display device of the present invention includes a display panel having a display area, a control unit that displays content in the display area, and a detection unit that is provided in front of an observer who views the content and detects the viewpoint of the observer.
  • the control unit includes: a field identification unit that identifies an observer's field of view based on a result detected by the detection unit; and a display mode of the content based on an observer's field of view identified by the field of vision identification unit And a display control unit that displays the content in the display area based on the display mode of the content determined by the display mode determination unit.
  • the display device of the present invention allows the viewer to see the content viewed from a direction different from the specific direction, and easily matches the viewer's viewpoint with the display mode of the content.
  • FIG. 1 is a functional block diagram showing an example of a schematic configuration of a display device as a first embodiment of the present invention.
  • FIG. 2 is a front view illustrating an example of the display device.
  • FIG. 3 is a plan view for explaining display mode data in the horizontal direction.
  • FIG. 4 is a side view for explaining the display mode data in the vertical direction.
  • FIG. 5 is an explanatory diagram showing how the detection unit detects the observer's viewpoint.
  • FIG. 6 is an explanatory diagram showing how the observer's viewpoint is specified based on the result detected by the detection unit.
  • FIG. 7 is a front view showing an example of content displayed in the display area.
  • FIG. 8 is a front view showing an example of content having a display mode different from that in FIG. FIG.
  • FIG. 9 is a front view showing another example of content that is different from the display mode shown in FIG.
  • FIG. 10 is a front view showing still another example of content having a display mode different from that in FIG.
  • FIG. 11 is a front view illustrating an example of content displayed in the display area.
  • 12 is a front view showing an example of content displayed in the display area when the observer moves from the position shown in FIG.
  • FIG. 13 is a front view showing an example of content displayed in the display area.
  • FIG. 14 is a front view showing an example of content displayed in the display area when the observer moves from the position shown in FIG.
  • FIG. 15 is a flowchart illustrating an example of the reference setting process executed by the control unit.
  • FIG. 16 is a flowchart illustrating an example of content display processing executed by the control unit.
  • FIG. 17 is a front view showing another example of content displayed in the display area when the observer moves from the position shown in FIG. It is a functional block diagram which shows an example of schematic structure of the viewpoint specific part employ
  • FIG. 19 is a functional block diagram illustrating an example of a schematic configuration of a display device according to the second embodiment of the present invention.
  • FIG. 20 is a front view illustrating an example of content displayed in the display area.
  • FIG. 21 is a front view showing an example of content displayed in the display area when the observer moves from the position shown in FIG.
  • FIG. 22 is a flowchart illustrating an example of an audio output process executed by the control unit.
  • a display device in front of a display panel having a display area, a control unit that displays content in the display area, and an observer who views the content, and detects the viewpoint of the observer And a control unit, based on a result of detection by the detection unit, a field of view specifying unit that identifies the field of view of the observer, and a field of view of the viewer specified by the field of view specifying unit, A display mode determination unit that determines a display mode of the content, and a display control unit that displays the content in the display area based on the display mode of the content determined by the display mode determination unit (first Constitution).
  • the field of view of the observer is specified based on the viewpoint of the observer.
  • the display mode of the content is determined based on the identified field of view of the observer. Therefore, the observer can see the content viewed from a direction different from the specific direction.
  • the detection unit is provided in front of the observer. Therefore, it becomes easy to detect an observer's viewpoint. As a result, it becomes easy to make the viewer's viewpoint correspond to the display mode of the content.
  • the control unit further includes a determination unit that determines whether or not the content data includes display mode data, and the content data includes the display mode data.
  • the determination unit determines that the visual field is included
  • the visual field specifying unit specifies an observer's visual field. In such a configuration, the observer's field of view is specified only when the content data includes display mode data. Therefore, the control unit does not have to perform useless processing.
  • control unit further includes a reference setting unit that sets a reference used when the visual field specifying unit compares the detection result with the detection result of the detection unit. is there. In such a configuration, it is possible to improve the accuracy when the visual field specifying unit specifies the visual field.
  • the control unit further includes a confirmation unit that confirms whether or not there is an observer in front of the display area, and the confirmation unit When it is confirmed that there is an observer in front of the display area, the visual field specifying unit specifies the visual field of the observer.
  • the visual field of the observer is specified only when the observer is located in front of the display area. Therefore, the control unit does not have to perform useless processing.
  • the fifth configuration is a configuration in which, in the fourth configuration, the confirmation unit confirms whether or not there is an observer in front of the display area based on a result detected by the detection unit. In such a configuration, it is not necessary to separately provide detection means used only for confirming whether or not there is an observer in front of the display area.
  • the display mode determination unit displays the content display mode. Is set to a predetermined display mode. In such a configuration, the content can be displayed even if the observer is not in front of the display area.
  • the seventh configuration further includes a speaker in any one of the first to sixth configurations, and the control unit outputs from the speaker based on the field of view of the observer specified by the field of view specifying unit.
  • the output mode determining unit that determines the output mode of the voice to be output and the voice control unit that outputs the voice from the speaker based on the output mode determined by the output mode determining unit.
  • the image displayed in the display area can be associated with the sound output from the speaker.
  • the control unit includes a plurality of the detection units, and the control unit is configured to detect an observer based on a result detected by each of the plurality of detection units. It is the structure further provided with the viewpoint specific
  • the viewpoint specifying unit includes a determination unit that determines whether or not there are a plurality of observers based on a result detected by the detection unit, and a plurality of observers.
  • the determination unit determines that it exists, an observer specifying unit that specifies an observer having the closest distance to the display panel among a plurality of observers, and an observer viewpoint specified by the observer specifying unit And a viewpoint determination unit for determining.
  • the display mode of the content is determined based on the field of view of a specific observer. Therefore, when each of the plurality of observers changes the viewpoint, it is possible to prevent the display mode of the content from changing each time.
  • FIG. 1 is a functional block diagram illustrating an example of a schematic configuration of the display device 10.
  • Display device 10 displays content. Specific examples of the display device 10 include displays such as a mobile phone, a portable information terminal, a television receiver, a laptop computer, a notebook computer, and a game machine.
  • the display device 10 includes a display panel 12, a detection unit 14, and a control unit 16.
  • the display panel 12 is, for example, a liquid crystal panel, a plasma display panel (PDP), an organic EL (electroluminescence) panel, an FED (Field Emission Display) panel, or the like.
  • the display panel 12 has a plurality of pixels (not shown). The plurality of pixels are formed in a matrix, for example. The formation area of the plurality of pixels becomes the display area 18 (see FIG. 2) of the display panel 12.
  • Each pixel may have a plurality of sub-pixels.
  • the plurality of sub-pixels are, for example, a red pixel, a green pixel, and a blue pixel.
  • the plurality of sub-pixels may further include a yellow pixel.
  • Detecting unit 14 detects the observer's viewpoint.
  • the observer looks at the content displayed in the display area 18.
  • the content may be a moving image or a still image.
  • the moving images are, for example, sports matches, stage plays, musician performances, etc., taken with a video camera or the like.
  • the still image is, for example, a landscape photographed with a video camera or the like, a graph created with a personal computer, or the like.
  • the detection unit 14 detects the viewpoint of the observer located in front of the display area 18, for example.
  • the observer positioned in front of the display area 18 refers to an observer that overlaps the display area 18 in the projection in the perpendicular direction of the display panel 12, for example.
  • it refers to an observer whose part of the face overlaps with the display area 18 in the perpendicular projection of the display panel 12, for example.
  • Detecting unit 14 has a function of photographing an observer's face, for example.
  • the detection unit 14 captures the face of the observer, for example, the position of the face, the position of the pupil, the orientation of the face, and the like can be known. As a result, the observer's viewpoint is detected.
  • the detection unit 14 has a function of measuring a distance from an observer, for example. Thereby, the distance from the detection part 14 to an observer is known.
  • the detection unit 14 may include, for example, a function of photographing an observer's face and a function of measuring a distance from the observer. Or you may provide separately the detection part 14 provided with the function which image
  • the field of view of the observer is specified.
  • the observer's field of view is, for example, a quadrangular pyramid defined by straight lines connecting the midpoints of the lines connecting the pupils of both eyes of the observer and the four corners of the display area 18 with the observer across the display area 18 Is the area inside the part located on the opposite side.
  • the field of view of the observer is a range that can be seen from the position where the observer is present in the area outside the window.
  • FIG. 1 shows only one detection unit 14 for easy understanding of the drawing, but it is preferable to provide a plurality of detection units 14. For example, in the example of FIG. 2, four detection units 14 are provided.
  • FIG. 2 is a front view of the display device 10.
  • the display device 10 includes a housing 20.
  • the housing 20 supports the display panel 12.
  • the housing 20 has an opening 22.
  • the opening 22 exposes the display area 18. Thereby, the observer can see the display area 18.
  • the detection unit 14 is provided around the display area 18. In other words, the detection unit 14 is provided in front of the observer. In the example of FIG. 2, one detection unit 14 is provided at each of the four corners of the housing 20 as viewed from the front.
  • the detection unit 14 may be provided inside the housing 20 or may be provided outside the housing 20.
  • the detection unit 14 is exposed through, for example, an opening formed in the housing 20.
  • the detection part 14 is provided in the surface of the housing 20, for example.
  • the detection unit 14 outputs a detection result.
  • the detection result is, for example, the image data of the observer's face and the distance from the detection unit 14 to the observer's face.
  • the detection result output by the detection unit 14 is input to the control unit 16.
  • the control unit 16 changes the display mode (appearance) of the content displayed in the display area 18 based on the detection result from the detection unit 14. In other words, the control unit 16 changes the display mode of the content based on the detection result from the detection unit 14.
  • the control unit 16 includes a storage unit 24.
  • the storage unit 24 stores content data displayed in the display area 18.
  • the storage unit 24 is, for example, a memory that temporarily stores content data sent from the outside.
  • the content data includes, for example, luminance data and display mode data.
  • Luminance data indicates the luminance of pixels that display content.
  • the luminance data is set corresponding to the display mode data.
  • the display mode data includes, for example, the direction in which the viewer views the content and the content viewed from the direction.
  • the display mode data includes, for example, horizontal display mode data and vertical display mode data.
  • display mode data for example, horizontal display mode data and vertical display mode data
  • FIGS. FIG. 3 and FIG. 4 show a state where the observer is looking at the cube 40 displayed in the content.
  • the horizontal display mode data is display mode data when viewing content from a direction inclined by an angle ⁇ H in the horizontal direction with respect to a straight line DL (reference line DL) extending in a predetermined direction.
  • the angle ⁇ H is an angle formed by the straight line VL extending in the direction in which the viewer 26 views the content and the reference line DL in the vertical projection.
  • the content viewed from the direction in which the reference line DL extends becomes the default content.
  • the straight line VL passes through the midpoint of a line segment connecting the pupils of both eyes of the observer 26.
  • a possible range of the angle ⁇ H is, for example, 0 to 90 degrees on each of the left and right sides of the reference line DL.
  • the display mode data in the vertical direction is display mode data when viewing content from a direction inclined by an angle ⁇ V in the vertical direction with respect to the reference line DL.
  • the angle ⁇ V is an angle formed by the straight line VL and the reference line DL in the horizontal projection.
  • the possible range of the angle ⁇ V is, for example, 0 to 90 degrees on both the upper and lower sides of the reference line DL.
  • the display mode of content is determined based on display mode data (for example, horizontal display mode data and vertical display mode data). A method of determining the content display mode will be described later.
  • control unit 16 further includes a determination unit 28.
  • the determination unit 28 checks what data is included in the content data. For example, the determination unit 28 determines whether the display data is included in the content data.
  • the control unit 16 further includes a confirmation unit 30.
  • the confirmation unit 30 confirms whether or not an observer is present in front of the display region 18 based on the result detected by the detection unit 14.
  • the confirmation unit 30 determines whether or not an observer exists by using pattern recognition, for example.
  • the confirmation unit 30 may confirm whether or not there is an observer in front of the display area 18 based on the detection result of one detection unit 14, or based on the detection results of the plurality of detection units 14. Then, it may be confirmed whether an observer is present in front of the display area 18. When it is confirmed whether or not an observer is present in front of the display area 18 based on the detection result of one detection unit 14, the observer is in front of the display area 18 based on the detection results of the plurality of detection units 14. Compared with the case where it is confirmed whether or not it exists, the time required to confirm whether or not an observer exists in front of the display region 18 can be shortened.
  • the control unit 16 further includes a viewpoint specifying unit 32.
  • the viewpoint specifying unit 32 specifies the observer's viewpoint based on the detection result of the detection unit 14.
  • the viewpoint specifying unit 32 specifies the viewpoint of the observer 26 by, for example, synthesizing the face of the observer 26 photographed by each detection unit 14.
  • the viewpoint specifying unit 32 may specify the observer's viewpoint using the detection result of the detection unit 14 that is referred to when the confirmation unit 30 confirms that an observer is present in front of the display area 18. .
  • the processing time can be shortened compared to the case of newly acquiring the detection result.
  • control unit 16 further includes a visual field specifying unit 34.
  • the visual field specifying unit 34 specifies the visual field of the observer based on the observer's viewpoint. In the present embodiment, the visual field specifying unit 34 specifies the visual field of the observer based on the viewpoint of the observer specified by the visual point specifying unit 32.
  • the control unit 16 further includes a reference setting unit 36.
  • the reference setting unit 36 sets the observer's viewpoint as a reference when the visual field specifying unit 34 specifies the observer's visual field.
  • the detection unit 14 detects the viewpoint of an observer who is directly in front of the display area 18 and separated from the display area 18 by a predetermined distance.
  • the reference setting unit 36 sets the observer's viewpoint as a reference observer's viewpoint.
  • the reference setting unit 36 identifies the observer's viewpoint based on the detected observer's viewpoint, and the identified observer's viewpoint Is set as the reference observer's viewpoint.
  • the control unit 16 further includes a display mode determination unit 38.
  • the display mode determination unit 38 determines the display mode of content based on the field of view specified by the field of view specifying unit 34.
  • the display mode determination unit 38 selects display mode data (horizontal display mode data and vertical display mode data) based on the field of view specified by the field of view specifying unit 34.
  • the display mode determination unit 38 determines the display mode of the content based on the selected display mode data.
  • FIG. 3, FIG. 4, and FIG. 7 to FIG. 10 show content that displays only one cube 40.
  • Fig. 7 shows the default content.
  • the front surface 40a of the cube 40 is visible.
  • the angle ⁇ H is in the range of 0 to 90 degrees
  • the angle ⁇ V is 0 degrees. Therefore, in the example of FIG. 3, as shown in FIG. 8, the cube 40 can see not only the front surface 40a but also the side surface 40b.
  • the cube 40 can see not only the front surface 40 a but also the upper surface 40 c as shown in FIG. 9.
  • the angle ⁇ H is in the range of 0 to 90 degrees
  • the angle ⁇ V is in the range of 0 to 90 degrees. Therefore, in the example in which FIG. 3 and FIG. 4 are combined, as shown in FIG. 10, the front surface 40a, the side surface 40b, and the upper surface 40c of the cube 40 can be seen.
  • Hidden parts become visible as the content appearance changes.
  • the fact that the hidden part is visible is not limited to the fact that the hidden part of the three-dimensional shape is visible as shown in FIGS.
  • the viewpoint of the observer 26 moves in a portion that is hidden by being located outside the display area 18. Including becoming visible.
  • FIGS. 11 and 12 show a personal computer display as an example of the display device 10. This display may be a desktop personal computer display or a notebook personal computer display.
  • a graph 42 created by a personal computer is displayed in the display area 18. As the viewpoint of the observer 26 moves from the position shown in FIG. 11 to the position shown in FIG. 12, a portion that cannot be seen at the position shown in FIG. 11 (the hidden portion of the leftmost graph 42) becomes visible.
  • FIGS. 13 and 14 show a television receiver as an example of the display device 10.
  • a baseball game is displayed in the display area 18.
  • the observer moves from the position shown in FIG. 13 to the position shown in FIG. 14, the player 44 that cannot be seen at the position shown in FIG. 13 becomes visible at the position shown in FIG.
  • control unit 16 further includes a display control unit 46.
  • the display control unit 46 displays the content in the display area 18 based on the content display mode determined by the display mode determination unit 38.
  • reference setting processing executed by the control unit 16 (reference setting unit 36) will be described with reference to FIG.
  • the reference setting process may be executed, for example, when the observer uses the display device for the first time, or may be executed at an arbitrary time desired by the observer.
  • control unit 16 determines whether or not there is an observer in front of the display area 18 in step (hereinafter, S) 11. When there is no observer (S11: NO), the control unit 16 (reference setting unit 36) ends the reference setting process.
  • control unit 16 determines the viewpoint of the reference observer in S12. Thereafter, the control unit 16 (reference setting unit 36) ends the reference setting process.
  • the control unit 16 may guide the observer to a predetermined position in the process of determining the viewpoint of the reference observer.
  • This guidance is realized, for example, by displaying a guidance display for guiding the observer to a predetermined position in the display area 18.
  • the guidance display and the guidance voice can be used in combination.
  • the content display process is repeatedly executed when content data is stored in the storage unit 24, for example.
  • step S21 the control unit 16 (determination unit 28) determines whether or not the content data includes display mode data.
  • the control unit 16 (confirmation unit 30) determines whether or not the observer is located in front of the display area 18 in S22.
  • the control unit 16 specifies the viewpoint of the observer in S23.
  • the control unit 16 specifies the visual field of the observer in S24.
  • control unit 16 determines the display mode of the content in S25.
  • control part 16 display control part 46
  • control unit 16 ends the content display process.
  • the control unit 16 determines whether the display mode data is included (S21: NO). If the display mode data is not included (S21: NO), the control unit 16 (display mode determination unit 38) sets the content display mode to default in S27. Then, the control part 16 performs the process after S26.
  • the display mode of the content is determined according to the viewpoint of the observer. Therefore, the observer can see the content viewed from a direction different from the predetermined direction.
  • the detection unit 14 is provided in front of the observer. This makes it easier to detect the observer's viewpoint. As a result, it becomes easy to make the viewer's viewpoint correspond to the display mode of the content.
  • the display device 10 is provided with a detection unit 14 that detects the viewpoint of the observer. Therefore, it is not necessary to separately prepare a device for detecting the observer's viewpoint in addition to the display device 10. As a result, a configuration for detecting the observer's viewpoint can be simplified.
  • the control part 16 does not need to perform an extra process.
  • the reference observer's viewpoint is set. Thereby, the detection accuracy of an observer's viewpoint improves.
  • the control part 16 does not need to perform an extra process.
  • the content display mode is set to the default. Thereby, even when the observer is not in front of the display area 18, the content can be displayed in the display area 18.
  • the observer's viewpoint is specified based on the result detected by each of the plurality of detection units 14. Thereby, the precision which pinpoints an observer's viewpoint improves.
  • the display mode of the content may be changed.
  • the content is not displayed in the area 48 that does not include the display mode data.
  • the area 48 not including the display mode data is displayed in black.
  • the viewpoint identification unit 32 includes a determination unit 50, an observer identification unit 52, and a viewpoint determination unit 54.
  • the determination unit 50 determines whether there are a plurality of observers based on the result detected by the detection unit 14. The determination unit 50 determines whether there are a plurality of observers by using pattern recognition, for example.
  • the observer specifying unit 52 specifies the observer having the closest distance from the display panel 12 among the plurality of observers. For example, the observer specifying unit 52 specifies the observer closest to the display panel 12 based on the distance from the observer among the results detected by the detection unit 14.
  • the viewpoint determination unit 54 determines the viewpoint of the observer specified by the observer specifying unit 52. For example, the viewpoint determination unit 54 determines the viewpoint of the observer identified by the observer identification unit 52 based on the image data of the face of the observer identified by the observer identification unit 52 among the results detected by the detection unit 14. decide.
  • the display mode of content is determined according to the viewpoint of a specific observer. Therefore, when each of the plurality of observers changes the viewpoint, it is possible to prevent the display mode of the content from changing each time.
  • a display device 56 according to a second embodiment of the present invention will be described with reference to FIG.
  • members and parts having the same structure as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment, and detailed descriptions thereof are omitted. To do.
  • a speaker 58 is provided as compared with the first embodiment.
  • the control part 60 differs compared with 1st Embodiment.
  • the control part 60 of this embodiment is further provided with the output mode determination part 62 and the audio
  • the output mode determination unit 62 changes the audio output mode based on the viewer's field of view specified by the field of view specifying unit 34.
  • the sound output mode is, for example, which speaker outputs sound when there are a plurality of speakers, how loud the sound is output, and the like.
  • the audio output mode is set corresponding to the content display mode.
  • data relating to an audio output mode is included in content data.
  • the data related to the audio output mode is set corresponding to the content display mode data, for example.
  • FIG. 20 and 21 a television receiver is shown as an example of the display device 56.
  • a baseball game is displayed in the display area 18.
  • the voice control unit 64 outputs a voice based on the voice output mode determined by the output mode determination unit 62.
  • the audio output process is repeatedly executed when content data is stored in the storage unit 24, for example.
  • the audio output process is executed in parallel with the content display process, for example.
  • control unit 60 determines whether or not the content data includes display mode data in S31.
  • display mode data is included (S31: YES)
  • control unit 60 confirmation unit 30 determines whether or not the observer is positioned in front of the display area 18 in S32.
  • the control unit 60 specifies the viewpoint of the observer in S33.
  • the control unit 60 specifies the visual field of the observer in S34.
  • control unit 60 determines a voice output mode.
  • control unit 60 audio control unit 64
  • control unit 60 ends the sound output process.
  • control unit 60 (output mode determination unit 62) sets the voice output mode to default in S37. Then, the control part 60 performs the process after S36.
  • a plurality of detection units 14 are provided, but for example, one detection unit 14 may be provided. In this case, it is not necessary to provide the viewpoint specifying unit 32.

Abstract

 観察者が特定の方向とは異なる方向から見たコンテンツを見ることができるとともに、観察者の視点とコンテンツの表示態様とを対応させ易い表示装置を提供することを、目的とする。表示領域(18)を有する表示パネル(12)と、表示領域(18)にコンテンツを表示する制御部(16)と、コンテンツを見る観察者の前方に設けられ、コンテンツを見る観察者の視点を検出する検出部(14)とを備える。制御部(16)は、検出部(14)が検出した結果に基づいて、観察者の視界を特定する視界特定部(34)と、視界特定部(34)が特定した観察者の視界に基づいて、コンテンツの表示態様を決定する表示態様決定部(38)と、表示態様決定部(38)が決定したコンテンツの表示態様に基づいて、コンテンツを表示領域(18)に表示する表示制御部(46)とを備える。

Description

表示装置
 本発明は、観察者の視点に応じてコンテンツの見え方を変化させることができる表示装置に関する。
 液晶表示装置等の表示装置が、従来から知られている。表示装置の表示画面には、コンテンツが表示される。観察者は、表示画面に表示されるコンテンツを見る。
 一般的に、観察者の視点が移動しても、コンテンツの見え方は変化しない。換言すれば、表示画面には、特定の方向から見たコンテンツしか表示されない。そのため、観察者は、その視点を移動させたとしても、特定の方向から見たコンテンツだけを見ることになる。
 なお、特開平7-306955号公報には、3次元イリュージョンを生み出すシステムが開示されている。このシステムでは、スクリーンに対して、客が部屋の床の格子上を移動すると、コンピュータが客の視点の現実世界におけるおおよその位置を示すデータを受理する。客の視点がスクリーンに対して新しい位置に移動した場合、その新しい位置における適切な映像がコンピュータによって生成され、スクリーンに表示される。
 しかしながら、上記公報においては、部屋の中における客の位置から客の視点を推定することになり、当該推定した客の視点と実際の客の視点とが異なる場合がある。加えて、上記公報では、客の視点位置を示すデータを得るためのシステムが複雑になる。
 本発明の目的は、観察者が特定の方向とは異なる方向から見たコンテンツを見ることができるとともに、観察者の視点とコンテンツの表示態様とを対応させ易い表示装置を提供することである。
 本発明の表示装置は、表示領域を有する表示パネルと、前記表示領域にコンテンツを表示する制御部と、前記コンテンツを見る観察者の前方に設けられ、観察者の視点を検出する検出部とを備え、前記制御部は、前記検出部が検出した結果に基づいて、観察者の視界を特定する視界特定部と、前記視界特定部が特定した観察者の視界に基づいて、前記コンテンツの表示態様を決定する表示態様決定部と、前記表示態様決定部が決定した前記コンテンツの表示態様に基づいて、前記コンテンツを前記表示領域に表示する表示制御部とを備える。
 本発明の表示装置は、観察者が特定の方向とは異なる方向から見たコンテンツを見ることができるとともに、観察者の視点とコンテンツの表示態様とを対応させ易い。
図1は、本発明の第1の実施形態としての表示装置の概略構成の一例を示す機能ブロック図である。 図2は、表示装置の一例を示す正面図である。 図3は、水平方向の表示態様データを説明するための平面図である。 図4は、垂直方向の表示態様データを説明するための側面図である。 図5は、検出部が観察者の視点を検出する様子を示す説明図である。 図6は、検出部が検出した結果に基づいて観察者の視点が特定される様子を示す説明図である。 図7は、表示領域に表示されるコンテンツの一例を示す正面図である。 図8は、図7とは表示態様が異なるコンテンツの一例を示す正面図である。 図9は、図7とは表示態様が異なるコンテンツの他の一例を示す正面図である。 図10は、図7とは表示態様が異なるコンテンツの更に別の一例を示す正面図である。 図11は、表示領域に表示されるコンテンツの一例を示す正面図である。 図12は、観察者が図11に示す位置から移動したときに、表示領域に表示されるコンテンツの一例を示す正面図である。 図13は、表示領域に表示されるコンテンツの一例を示す正面図である。 図14は、観察者が図13に示す位置から移動したときに、表示領域に表示されるコンテンツの一例を示す正面図である。 図15は、制御部が実行する基準設定処理の一例を示すフローチャートである。 図16は、制御部が実行するコンテンツ表示処理の一例を示すフローチャートである。 図17は、観察者が図13に示す位置から移動したときに、表示領域に表示されるコンテンツの他の一例を示す正面図である。 第1の実施形態の応用例2で採用される視点特定部の概略構成の一例を示す機能ブロック図である。 図19は、本発明の第2の実施形態としての表示装置の概略構成の一例を示す機能ブロック図である。 図20は、表示領域に表示されるコンテンツの一例を示す正面図である。 図21は、観察者が図20に示す位置から移動したときに、表示領域に表示されるコンテンツの一例を示す正面図である。 図22は、制御部が実行する音声出力処理の一例を示すフローチャートである。
 本発明の一実施形態に係る表示装置は、表示領域を有する表示パネルと、前記表示領域にコンテンツを表示する制御部と、前記コンテンツを見る観察者の前方に設けられ、観察者の視点を検出する検出部とを備え、前記制御部は、前記検出部が検出した結果に基づいて、観察者の視界を特定する視界特定部と、前記視界特定部が特定した観察者の視界に基づいて、前記コンテンツの表示態様を決定する表示態様決定部と、前記表示態様決定部が決定した前記コンテンツの表示態様に基づいて、前記コンテンツを前記表示領域に表示する表示制御部とを備える(第1の構成)。
 第1の構成においては、観察者の視点に基づいて、観察者の視界が特定される。特定された観察者の視界に基づいて、コンテンツの表示態様が決定される。そのため、観察者は、特定の方向とは異なる方向から見たコンテンツを見ることができる。
 ここで、第1の構成においては、検出部が観察者の前方に設けられる。そのため、観察者の視点を検出し易くなる。その結果、観察者の視点とコンテンツの表示態様とを対応させ易くなる。
 第2の構成は、前記第1の構成において、前記制御部は、前記コンテンツのデータが表示態様データを含むか否かを判定する判定部をさらに備え、前記コンテンツのデータが前記表示態様データを含むと前記判定部が判断した場合に、前記視界特定部が観察者の視界を特定する構成である。このような構成においては、コンテンツのデータが表示態様データを含む場合だけ、観察者の視界が特定される。そのため、制御部が無駄な処理をしなくて済む。
 第3の構成は、前記第1又は第2の構成において、前記制御部は、前記視界特定部が前記検出部の検出結果と比較する際に用いる基準を設定する基準設定部をさらに備える構成である。このような構成においては、視界特定部が視界を特定する際の精度を向上させることができる。
 第4の構成は、前記第1~第3の構成の何れか1つにおいて、前記制御部は、前記表示領域の前方に観察者がいるか否かを確認する確認部をさらに備え、前記確認部が前記表示領域の前方に観察者がいることを確認した場合に、前記視界特定部が観察者の視界を特定する構成である。このような構成においては、観察者が表示領域の前方に位置する場合だけ、観察者の視界が特定される。そのため、制御部が無駄な処理をしなくて済む。
 第5の構成は、前記第4の構成において、前記確認部は、前記検出部が検出した結果に基づいて、前記表示領域の前方に観察者がいるか否かを確認する構成である。このような構成においては、表示領域の前方に観察者がいるか否かを確認するためだけに用いる検出手段を別途設ける必要がなくなる。
 第6の構成は、前記第4又は第5の構成において、前記表示領域の前方に観察者がいないことを、前記確認部が確認した場合に、前記表示態様決定部が、前記コンテンツの表示態様を予め定められた表示態様に設定する構成である。このような構成においては、観察者が表示領域の前方にいなくても、コンテンツを表示することができる。
 第7の構成は、前記第1~第6の構成の何れか1つにおいて、スピーカをさらに備え、前記制御部は、前記視界特定部が特定した観察者の視界に基づいて、前記スピーカから出力される音声の出力態様を決定する出力態様決定部と、前記出力態様決定部が決定した出力態様に基づいて、前記スピーカから音声を出力する音声制御部とをさらに備える構成である。このような構成においては、表示領域に表示される画像と、スピーカから出力される音声とを対応させることができる。
 第8の構成は、前記第1~第7の構成の何れか1つにおいて、前記検出部を複数備え、前記制御部は、複数の前記検出部のそれぞれが検出した結果に基づいて、観察者の視点を特定する視点特定部をさらに備える構成である。このような構成においては、観察者の視点を特定する精度を向上させることができる。
 第9の構成は、前記第8の構成において、前記視点特定部は、前記検出部が検出した結果に基づいて、観察者が複数存在するか否かを判断する判断部と、観察者が複数存在すると前記判断部が判断した場合に、複数の観察者のうち前記表示パネルとの距離が最も近い観察者を特定する観察者特定部と、前記観察者特定部が特定した観察者の視点を決定する視点決定部とを備える構成である。このような構成においては、コンテンツの表示態様が特定の観察者の視界に基づいて決定される。そのため、複数の観察者のそれぞれが視点を変えた場合に、コンテンツの表示態様がその都度変わるのを防ぐことができる。
 以下、本発明のより具体的な実施形態について、図面を参照しながら説明する。なお、以下で参照する各図は、説明の便宜上、本発明の実施形態の構成部材のうち、本発明を説明するために必要な主要部材のみを簡略化して示したものである。従って、本発明に係る表示装置は、本明細書が参照する各図に示されていない任意の構成部材を備え得る。また、図中同一又は相当部分には、同一符号を付して、その説明は繰り返さない。
 [第1の実施形態]
 図1を参照して、本発明の第1の実施形態としての表示装置10について説明する。図1は、表示装置10の概略構成の一例を示す機能ブロック図である。
 表示装置10は、コンテンツを表示する。表示装置10の具体例としては、例えば、携帯電話機、携帯情報端末、テレビ受像機、ラップトップ型パソコン、ノートブック型パソコン、ゲーム機等のディスプレイがある。表示装置10は、表示パネル12と、検出部14と、制御部16とを備える。
 表示パネル12は、例えば、液晶パネル、プラズマディスプレイパネル(PDP)、有機EL(electroluminescence)パネル、FED(Field Emission Display)パネル等である。表示パネル12は、複数の画素(図示せず)を有する。複数の画素は、例えば、マトリクス状に形成されている。複数の画素の形成領域が、表示パネル12の表示領域18(図2参照)になる。
 各画素は、複数のサブ画素を有してもよい。複数のサブ画素は、例えば、赤色画素、緑色画素及び青色画素である。複数のサブ画素は、黄色画素をさらに含んでもよい。
 検出部14は、観察者の視点を検出する。観察者は、表示領域18に表示されるコンテンツを見る。コンテンツは、動画であってもよいし、静止画であってもよい。動画は、例えば、ビデオカメラ等で撮影したスポーツの試合、舞台劇、音楽家の演奏等である。静止画は、例えば、ビデオカメラ等で撮影した風景、パソコンで作成したグラフ等である。
 検出部14は、例えば、表示領域18の前方に位置する観察者の視点を検出する。表示領域18の前方に位置する観察者とは、例えば、表示パネル12の垂線方向の投影において、表示領域18と重なる観察者をいう。好ましくは、例えば、表示パネル12の垂線方向の投影において、顔の一部が表示領域18と重なる観察者をいう。
 検出部14は、例えば、観察者の顔を撮影する機能を有する。検出部14が観察者の顔を撮影することにより、例えば、顔の位置、瞳孔の位置、顔の向き等が判る。その結果、観察者の視点が検出される。
 検出部14は、例えば、観察者との距離を測定する機能を有する。これにより、検出部14から観察者までの距離が判る。
 検出部14は、例えば、観察者の顔を撮影する機能と、観察者との距離を測定する機能とを併せ備えてもよい。或いは、観察者の顔を撮影する機能を備えた検出部14と、観察者との距離を測定する機能を備えた検出部14とを別々に設けてもよい。この場合、これらの検出部14は、近接して配置することが望ましい。
 検出部14が検出した結果(例えば、検出部14が検出した観察者の視点と、検出部14が測定した観察者との距離)に基づいて、観察者の視界が特定される。観察者の視界は、例えば、観察者の両目の瞳孔を結ぶ線分の中点と、表示領域18の四隅とを結ぶ直線によって規定される四角錐のうち、表示領域18を挟んで観察者とは反対側に位置する部分の内側の領域である。換言すれば、観察者の視界は、例えば、表示領域18を窓と考えた場合、この窓の外側の領域のうち、観察者が現在いる位置から見える範囲である。
 図1では、図面を判り易くするために、1つの検出部14だけを示しているが、複数の検出部14を設けることが好ましい。例えば、図2の例では、4つの検出部14が設けられている。図2は、表示装置10の正面図である。
 図2に示すように、表示装置10は、筺体20を備える。筺体20は、表示パネル12を支持する。筺体20は、開口22を有する。開口22は、表示領域18を露出させる。これにより、観察者は表示領域18を見ることができる。
 検出部14は、表示領域18の周囲に設けられる。換言すれば、検出部14は、観察者の前方に設けられる。図2の例では、検出部14は、正面から見た筺体20の四隅に1つずつ設けられている。検出部14は、例えば、筺体20の内側に設けてもよいし、筺体20の外側に設けてもよい。筺体20の内側に検出部14を設ける場合、検出部14は、例えば、筺体20に形成された開口を通じて露出される。筺体20の外側に検出部14を設ける場合、検出部14は、例えば、筺体20の表面に設けられる。
 図1に示すように、検出部14は、検出結果を出力する。検出結果は、例えば、観察者の顔の画像データと、検出部14から観察者の顔までの距離である。
 検出部14が出力する検出結果は、制御部16に入力される。制御部16は、検出部14からの検出結果に基づいて、表示領域18に表示されるコンテンツの表示態様(見え方)を変更する。換言すれば、制御部16は、検出部14からの検出結果に基づいて、コンテンツの表示態様を変化させる。
 制御部16は、格納部24を備える。格納部24は、表示領域18に表示されるコンテンツのデータを格納する。格納部24は、例えば、外部から送られてくるコンテンツのデータを一時的に格納するメモリである。コンテンツのデータは、例えば、輝度データと、表示態様データとを含む。
 輝度データは、コンテンツを表示する画素の輝度を示す。輝度データは、表示態様データに対応して設定されている。
 表示態様データは、例えば、観察者がコンテンツをみる方向と、当該方向から見たコンテンツとを含む。表示態様データは、例えば、水平方向の表示態様データと、垂直方向の表示態様データとを含む。
 ここで、図3及び図4を参照しながら、表示態様データ(例えば、水平方向の表示態様データと、垂直方向の表示態様データ)について説明する。図3及び図4では、観察者がコンテンツに表示される立方体40を見ている状態が示されている。
 水平方向の表示態様データは、所定の方向に延びる直線DL(基準線DL)に対して、水平方向に角度θHだけ傾いた方向からコンテンツを見るときの表示態様データである。図3に示すように、角度θHは、観察者26がコンテンツを見る方向に延びる直線VLと、基準線DLとが、垂直方向の投影において為す角度である。基準線DLが延びる方向から見たコンテンツが、デフォルトのコンテンツになる。直線VLは、例えば、観察者26の両目の瞳孔を結ぶ線分の中点を通る。角度θHの取り得る範囲は、例えば、基準線DLの左右両側にそれぞれ、0~90度である。
 垂直方向の表示態様データは、基準線DLに対して、垂直方向に角度θVだけ傾いた方向からコンテンツを見るときの表示態様データである。図4に示すように、角度θVは、直線VLと、基準線DLとが、水平方向の投影において為す角度である。角度θVの取り得る範囲は、例えば、基準線DLの上下両側にそれぞれ、0~90度である。
 表示態様データ(例えば、水平方向の表示態様データと、垂直方向の表示態様データ)に基づいて、コンテンツの表示態様が決まる。コンテンツの表示態様を決定する方法については、後述する。
 図1に示すように、制御部16は、判定部28をさらに備える。判定部28は、どのようなデータがコンテンツのデータに含まれているかを確認する。判定部28は、例えば、コンテンツのデータに表示態様データが含まれているか否かを判定する。
 制御部16は、確認部30をさらに備える。確認部30は、例えば、検出部14が検出した結果に基づいて、表示領域18の前方に観察者が存在するか否かを確認する。確認部30は、例えば、パターン認識を利用することによって、観察者が存在するか否かを判断する。
 確認部30は、例えば、1つの検出部14の検出結果に基づいて表示領域18の前方に観察者が存在するか否かを確認してもよいし、複数の検出部14の検出結果に基づいて表示領域18の前方に観察者が存在するか否かを確認してもよい。1つの検出部14の検出結果に基づいて表示領域18の前方に観察者が存在するか否かを確認する場合、複数の検出部14の検出結果に基づいて表示領域18の前方に観察者が存在するか否かを確認する場合に比して、表示領域18の前方に観察者が存在するか否かを確認するのに要する時間を短くすることができる。
 制御部16は、視点特定部32をさらに備える。視点特定部32は、検出部14の検出結果に基づいて、観察者の視点を特定する。
 ここで、図5及び図6を参照しながら、視点特定部32が観察者26の視点を特定する方法について、もう少し詳しく説明する。図5に示すように、複数の検出部14のそれぞれが観察者26の顔を撮影する場合を考える。この場合、図6に示すように、各検出部14が撮影する観察者26の顔は、観察者26の顔を正面から撮影したものではない。そこで、視点特定部32は、例えば、各検出部14が撮影する観察者26の顔を合成する等して、観察者26の視点を特定する。
 視点特定部32は、表示領域18の前方に観察者が存在することを確認部30が確認する際に参照した検出部14の検出結果を利用して、観察者の視点を特定してもよい。この場合、既に取得した検出結果を利用することになるので、検出結果を新たに取得する場合に比して、処理時間を短くすることができる。
 図1に示すように、制御部16は、視界特定部34をさらに備える。視界特定部34は、観察者の視点に基づいて、観察者の視界を特定する。本実施形態では、視点特定部32が特定した観察者の視点に基づいて、視界特定部34が観察者の視界を特定する。
 制御部16は、基準設定部36をさらに備える。基準設定部36は、視界特定部34が観察者の視界を特定する際の基準となる観察者の視点を設定する。
 具体的には、例えば、表示領域18の真正面で、表示領域18から所定距離だけ離れた位置にいる観察者の視点を検出部14が検出する。基準設定部36は、当該観察者の視点を基準となる観察者の視点に設定する。複数の検出部14のそれぞれが観察者の視点を検出する場合、基準設定部36は、これらの検出された観察者の視点に基づいて、観察者の視点を特定し、特定した観察者の視点を基準となる観察者の視点に設定する。
 制御部16は、表示態様決定部38をさらに備える。表示態様決定部38は、視界特定部34が特定した視界に基づいて、コンテンツの表示態様を決定する。
 具体的には、表示態様決定部38は、視界特定部34が特定した視界に基づいて、表示態様データ(水平方向の表示態様データと、垂直方向の表示態様データ)を選択する。表示態様決定部38は、選択した表示態様データに基づいて、コンテンツの表示態様を決定する。
 ここで、図3、図4、図7~図10を参照しながら、表示態様決定部38がコンテンツの表示態様を決定する方法について、もう少し詳しく説明する。理解を容易にするために、図3、図4、図7~図10では、1つの立方体40だけを表示するコンテンツを示す。
 図7は、デフォルトのコンテンツを示す。図7では、立方体40の前面40aだけが見えている。ここで、例えば、観察者の視点が水平方向にのみ移動した場合を考える。この場合、角度θHは0~90度の範囲にあり、角度θVは0度である。そのため、図3の例では、立方体40は、図8に示すように、前面40aだけでなく、側面40bも見えるようになる。
 また、例えば、観察者の視点が垂直方向にのみ移動した場合を考える。この場合、角度θVは0~90度の範囲にあり、角度θHは0度である。そのため、図4の例では、立方体40は、図9に示すように、前面40aだけでなく、上面40cも見えるようになる。
 また、例えば、観察者の視点が水平方向と垂直方向とのそれぞれに移動した場合を考える。この場合、角度θHは0~90度の範囲にあり、角度θVは0~90度の範囲にある。そのため、図3及び図4を併せた例では、立方体40は、図10に示すように、前面40aと、側面40bと、上面40cとが見えるようになる。
 コンテンツの見え方が変化することにより、隠れていた部分が見えるようになる。隠れていた部分が見えるというのは、図7~図10に示すように、立体形状の隠れていた部分が見えることに限定されない。例えば、図11及び図12に示すように、或いは、図13及び図14に示すように、表示領域18の外側に位置することで隠れて見えなかった部分が、観察者26の視点が移動することで見えるようになることを含む。
 図11及び図12では、表示装置10の一例として、パソコンのディスプレイを示す。このディスプレイは、デスクトップ型パソコンのディスプレイであってもよいし、ノート型パソコンのディスプレイであってもよい。図11及び図12の例では、パソコンで作成したグラフ42が表示領域18に表示されている。観察者26の視点が図11に示す位置から図12に示す位置に移動することにより、図11の位置では見えなかった部分(左端のグラフ42の隠れていた部分)が見えるようになる。
 図13及び図14では、表示装置10の一例として、テレビ受像機を示す。図13及び図14の例では、野球の試合が表示領域18に表示されている。観察者が図13に示す位置から図14に示す位置に移動することにより、図13の位置では見えなかった選手44が、図14の位置では見えるようになる。
 図1に示すように、制御部16は、表示制御部46をさらに備える。表示制御部46は、表示態様決定部38が決定したコンテンツの表示態様に基づいて、コンテンツを表示領域18に表示する。
 続いて、図15を参照しながら、制御部16(基準設定部36)が実行する基準設定処理について説明する。基準設定処理は、例えば、観察者が表示装置を初めて使用する際に実行してもよいし、観察者が所望する任意の時期に実行してもよい。
 先ず、制御部16(基準設定部36)は、ステップ(以下、S)11において、表示領域18の前方に観察者がいるか否かを判定する。観察者がいない場合(S11:NO)、制御部16(基準設定部36)は、基準設定処理を終了する。
 観察者がいる場合(S11:YES)、制御部16(基準設定部36)は、S12において、基準となる観察者の視点を決定する。その後、制御部16(基準設定部36)は、基準設定処理を終了する。
 制御部16(基準設定部36)は、基準となる観察者の視点を決定する処理において、観察者を所定の位置に誘導してもよい。この誘導は、例えば、観察者を所定位置に誘導するための誘導表示を表示領域18に表示することで実現される。或いは、観察者を所定位置に誘導するための誘導音声をスピーカ(図示せず)から出力することで実現される。誘導表示と誘導音声とを併用することも、勿論、可能である。
 続いて、図16を参照しながら、制御部16が実行するコンテンツ表示処理について説明する。コンテンツ表示処理は、例えば、格納部24にコンテンツのデータが格納されている場合には、繰り返し実行される。
 先ず、制御部16(判定部28)は、S21において、コンテンツのデータが表示態様データを含むか否かを判定する。表示態様データを含む場合(S21:YES)、制御部16(確認部30)は、S22において、観察者が表示領域18の前方に位置するか否かを判定する。
 観察者が表示領域18の前方に位置すると判定された場合(S22:YES)、制御部16(視点特定部32)は、S23において、観察者の視点を特定する。次に、制御部16(視界特定部34)は、S24において、観察者の視界を特定する。
 続いて、制御部16(表示態様決定部38)は、S25において、コンテンツの表示態様を決定する。次に、制御部16(表示制御部46)は、S26において、表示領域18にコンテンツを表示する。その後、制御部16は、コンテンツ表示処理を終了する。
 表示態様データを含まない場合(S21:NO)、制御部16(表示態様決定部38)は、S27において、コンテンツの表示態様をデフォルトに設定する。その後、制御部16は、S26以降の処理を実行する。
 このような表示装置10においては、観察者の視点に応じて、コンテンツの表示態様が決定される。そのため、観察者は所定の方向とは異なる方向から見たコンテンツを見ることができる。
 ここで、表示装置10においては、検出部14が観察者の前方に設けられている。そのため、観察者の視点が検出し易くなる。その結果、観察者の視点とコンテンツの表示態様とを対応させ易くなる。
 また、表示装置10においては、観察者の視点を検出する検出部14が表示装置10に設けられている。そのため、観察者の視点を検出するための装置を、表示装置10の他に、別途用意する必要がなくなる。その結果、観察者の視点を検出するための構成を簡単にすることができる。
 コンテンツのデータが表示態様データを含む場合に、表示領域18の前方に観察者がいるか否かが確認される。これにより、制御部16が余計な処理を実行しなくて済む。
 基準となる観察者の視点が設定される。これにより、観察者の視点の検出精度が向上する。
 表示領域18の前方に観察者が存在する場合に、観察者の視界が特定される。これにより、制御部16が余計な処理を実行しなくて済む。
 検出部14が検出した結果に基づいて、表示領域18の前方に観察者がいるか否かが確認される。これにより、必要な部品点数を少なくすることができる。
 観察者が表示領域18の前方にいない場合、コンテンツの表示態様がデフォルトに設定される。これにより、観察者が表示領域18の前方にいない場合でも、表示領域18にコンテンツを表示することができる。
 複数の検出部14のそれぞれが検出した結果に基づいて、観察者の視点が特定される。これにより、観察者の視点を特定する精度が向上する。
 [第1の実施形態の応用例1]
 例えば、コンテンツの一部に表示態様データを含まない領域がある場合に、コンテンツの表示態様を変更してもよい。この場合、例えば、図17に示すように、当該表示態様データを含まない領域48には、コンテンツが表示されないようにする。具体的には、例えば、当該表示態様データを含まない領域48を黒表示にする。
 [第1の実施形態の応用例2]
 本応用例では、図18に示すように、視点特定部32が、判断部50と、観察者特定部52と、視点決定部54とを備える。
 判断部50は、検出部14が検出した結果に基づいて、観察者が複数存在するか否かを判断する。判断部50は、例えば、パターン認識を利用することによって、観察者が複数存在するか否かを判断する。
 観察者特定部52は、観察者が複数存在すると判断部50が判断した場合に、複数の観察者のうち表示パネル12との距離が最も近い観察者を特定する。観察者特定部52は、例えば、検出部14が検出した結果のうち、観察者との距離に基づいて、表示パネル12に最も近い観察者を特定する。
 視点決定部54は、観察者特定部52が特定した観察者の視点を決定する。視点決定部54は、例えば、検出部14が検出した結果のうち、観察者特定部52が特定した観察者の顔の画像データに基づいて、観察者特定部52が特定した観察者の視点を決定する。
 本応用例では、特定の観察者の視点に応じて、コンテンツの表示態様が決定される。そのため、複数の観察者のそれぞれが視点を変えた場合に、コンテンツの表示態様がその都度変わるのを防ぐことができる。
 [第2の実施形態]
 図19を参照しながら、本発明の第2の実施形態としての表示装置56について説明する。なお、以下の記載において、第1の実施形態と同様な構造とされた部材及び部位については、図中に、第1の実施形態と同一の符号を付すことにより、それらの詳細な説明を省略する。
 本実施形態では、第1の実施形態に比して、スピーカ58を備える。また、本実施形態では、第1の実施形態に比して、制御部60が異なる。本実施形態の制御部60は、第1の実施形態に比して、出力態様決定部62と、音声制御部64とをさらに備える。
 出力態様決定部62は、視界特定部34が特定した観察者の視界に基づいて、音声の出力態様を変更する。音声の出力態様は、例えば、スピーカが複数ある場合に何れのスピーカから音声を出力するか、音声をどれくらいの大きさで出力するか等である。音声の出力態様は、コンテンツの表示態様に対応して設定される。本実施形態では、音声の出力態様に関するデータが、コンテンツのデータに含まれている。音声の出力態様に関するデータは、例えば、コンテンツの表示態様データに対応して設定されている。
 ここで、図20及び図21を参照しながら、音声の出力態様が変化する一例について説明する。図20及び図21では、表示装置56の一例として、テレビ受像機を示す。図20及び図21の例では、野球の試合が表示領域18に表示されている。
 観察者26が図20に示す位置にいるときに、表示領域18の外側の隠れて見えない部分から小さな音声が出力される場合を考える。この場合、音声の発生源を観察者26が確認しようとして、観察者26が図21に示す位置に移動したとする。図21に示す位置では、それまで隠れていた選手44が見えるようになる。それに伴い、音声が大きくなる。その結果、観察者26は、表示領域18の外側に隠れていて見えなかった選手44が、音声の発生源であると認識できる。
 音声制御部64は、出力態様決定部62が決定した音声の出力態様に基づいて、音声を出力する。
 続いて、図22を参照しながら、制御部60が実行する音声出力処理について説明する。音声出力処理は、例えば、格納部24にコンテンツのデータが格納されている場合には、繰り返し実行される。音声出力処理は、例えば、コンテンツ表示処理と並行して実行される。
 先ず、制御部60(判定部28)は、S31において、コンテンツのデータが表示態様データを含むか否かを判定する。表示態様データを含む場合(S31:YES)、制御部60(確認部30)は、S32において、観察者が表示領域18の前方に位置するか否かを判定する。
 観察者が表示領域18の前方に位置すると判定された場合(S32:YES)、制御部60(視点特定部32)は、S33において、観察者の視点を特定する。次に、制御部60(視界特定部34)は、S34において、観察者の視界を特定する。
 続いて、制御部60(出力態様決定部62)は、S35において、音声の出力態様を決定する。次に、制御部60(音声制御部64)は、S36において、スピーカ58から音声を出力する。その後、制御部60は、音声出力処理を終了する。
 表示態様データを含まない場合(S31:NO)、制御部60(出力態様決定部62)は、S37において、音声の出力態様をデフォルトに設定する。その後、制御部60は、S36以降の処理を実行する。
 以上、本発明の実施形態について、詳述してきたが、これらはあくまでも例示であって、本発明は、上述の実施形態によって、何等、限定されない。
 例えば、前記第1及び第2の実施形態では、検出部14が複数設けられていたが、例えば、検出部14は1つであってもよい。この場合、視点特定部32を設ける必要はない。

Claims (9)

  1.  表示領域を有する表示パネルと、
     前記表示領域にコンテンツを表示する制御部と、
     前記コンテンツを見る観察者の前方に設けられ、観察者の視点を検出する検出部とを備え、
     前記制御部は、
     前記検出部が検出した結果に基づいて、観察者の視界を特定する視界特定部と、
     前記視界特定部が特定した観察者の視界に基づいて、前記コンテンツの表示態様を決定する表示態様決定部と、
     前記表示態様決定部が決定した前記コンテンツの表示態様に基づいて、前記コンテンツを前記表示領域に表示する表示制御部とを備える、表示装置。
  2.  前記制御部は、前記コンテンツのデータが表示態様データを含むか否かを判定する判定部をさらに備え、
     前記コンテンツのデータが前記表示態様データを含むと前記判定部が判断した場合に、前記視界特定部が観察者の視界を特定する、請求項1に記載の表示装置。
  3.  前記制御部は、前記視界特定部が前記検出部の検出結果と比較する際に用いる基準を設定する基準設定部をさらに備える、請求項1又は2に記載の表示装置。
  4.  前記制御部は、前記表示領域の前方に観察者がいるか否かを確認する確認部をさらに備え、
     前記確認部が前記表示領域の前方に観察者がいることを確認した場合に、前記視界特定部が観察者の視界を特定する、請求項1~3の何れか1項に記載の表示装置。
  5.  前記確認部は、前記検出部が検出した結果に基づいて、前記表示領域の前方に観察者がいるか否かを確認する、請求項4に記載の表示装置。
  6.  前記表示領域の前方に観察者がいないことを、前記確認部が確認した場合に、前記表示態様決定部が、前記コンテンツの表示態様を予め定められた表示態様に設定する、請求項4又は5に記載の表示装置。
  7.  スピーカをさらに備え、
     前記制御部は、
     前記視界特定部が特定した観察者の視界に基づいて、前記スピーカから出力される音声の出力態様を決定する出力態様決定部と、
     前記出力態様決定部が決定した出力態様に基づいて、前記スピーカから音声を出力する音声制御部とをさらに備える、請求項1~6の何れか1項に記載の表示装置。
  8.  前記検出部を複数備え、
     前記制御部は、複数の前記検出部のそれぞれが検出した結果に基づいて、観察者の視点を特定する視点特定部をさらに備える、請求項1~7の何れか1項に記載の表示装置。
  9.  前記視点特定部は、
     前記検出部が検出した結果に基づいて、観察者が複数存在するか否かを判断する判断部と、
     観察者が複数存在すると前記判断部が判断した場合に、複数の観察者のうち前記表示パネルとの距離が最も近い観察者を特定する観察者特定部と、
     前記観察者特定部が特定した観察者の視点を決定する視点決定部とを備える、請求項8に記載の表示装置。
PCT/JP2012/069476 2011-08-09 2012-07-31 表示装置 WO2013021864A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011174276A JP2014199963A (ja) 2011-08-09 2011-08-09 表示装置
JP2011-174276 2011-08-09

Publications (1)

Publication Number Publication Date
WO2013021864A1 true WO2013021864A1 (ja) 2013-02-14

Family

ID=47668376

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/069476 WO2013021864A1 (ja) 2011-08-09 2012-07-31 表示装置

Country Status (2)

Country Link
JP (1) JP2014199963A (ja)
WO (1) WO2013021864A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097854A (ja) * 2016-09-29 2017-06-01 株式会社スクウェア・エニックス プログラム、記録媒体、コンテンツ提供装置及び制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349921A (ja) * 2005-06-15 2006-12-28 Mitsubishi Electric Corp 画像表示装置
JP2007052304A (ja) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp 映像表示システム
JP2008225364A (ja) * 2007-03-15 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置及び情報提示方法
JP2010072477A (ja) * 2008-09-19 2010-04-02 Toshiba Tec Corp 画像表示装置、画像表示方法及びプログラム
JP2011090400A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像表示装置および方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349921A (ja) * 2005-06-15 2006-12-28 Mitsubishi Electric Corp 画像表示装置
JP2007052304A (ja) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp 映像表示システム
JP2008225364A (ja) * 2007-03-15 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置及び情報提示方法
JP2010072477A (ja) * 2008-09-19 2010-04-02 Toshiba Tec Corp 画像表示装置、画像表示方法及びプログラム
JP2011090400A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像表示装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JP2014199963A (ja) 2014-10-23

Similar Documents

Publication Publication Date Title
US11301199B2 (en) Multi-viewpoint switched shooting system and method
JP6511386B2 (ja) 情報処理装置および画像生成方法
CN105589199A (zh) 显示装置、显示装置的控制方法以及程序
US8576468B2 (en) Scanning projector with dynamic scan angle
JP6845111B2 (ja) 情報処理装置および画像表示方法
US20140256429A1 (en) Image display system and head-mounted display device
JP2008097599A (ja) 模擬視差および視野変化を伴う仮想ウィンドウの方法、システム、およびコンピュータ・プログラムが記録された記録媒体(模擬視差および視野変化を伴う仮想ウィンドウ)
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
TW201708883A (zh) 電子系統、可攜式顯示裝置及導引裝置
JP6126271B1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
US11720996B2 (en) Camera-based transparent display
JP2014219948A (ja) 表示制御システム、表示制御装置、表示制御プログラム、および表示制御方法
US10792567B2 (en) Terminal device, system, program, and method
JP6474278B2 (ja) 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
US20140232829A1 (en) Image processing system based on stereo image
US20180054568A1 (en) Display control method and program for executing the display control method on computer
JP2010153983A (ja) 投影型映像表示装置および該方法
KR20180051202A (ko) 디스플레이장치 및 그 제어방법
KR20200056721A (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
JP2012142804A (ja) 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
US20120327114A1 (en) Device and associated methodology for producing augmented images
WO2018139073A1 (ja) 表示制御装置、第2の表示装置、表示制御装置の制御方法、および制御プログラム
WO2013021864A1 (ja) 表示装置
JP2017208808A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
KR101665363B1 (ko) 가상현실, 증강현실 및 홀로그램을 혼합한 인터랙티브 콘텐츠 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12822435

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12822435

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP