WO2014037972A1 - 表示装置、表示方法及びプログラム - Google Patents

表示装置、表示方法及びプログラム Download PDF

Info

Publication number
WO2014037972A1
WO2014037972A1 PCT/JP2012/005613 JP2012005613W WO2014037972A1 WO 2014037972 A1 WO2014037972 A1 WO 2014037972A1 JP 2012005613 W JP2012005613 W JP 2012005613W WO 2014037972 A1 WO2014037972 A1 WO 2014037972A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
viewer
line
display
sight direction
Prior art date
Application number
PCT/JP2012/005613
Other languages
English (en)
French (fr)
Inventor
成暁 三浦
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US14/425,509 priority Critical patent/US20150206338A1/en
Priority to CN201280075537.3A priority patent/CN104603717A/zh
Priority to EP12884241.6A priority patent/EP2894608A4/en
Priority to PCT/JP2012/005613 priority patent/WO2014037972A1/ja
Publication of WO2014037972A1 publication Critical patent/WO2014037972A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Definitions

  • the present invention relates to a display device that displays an image, a display method, and a program.
  • a technique for causing a user (viewer) to stereoscopically view a 3D (three-dimensional) image such as an image (still image, moving image) on a flat display unit For example, there is a technique for applying a visual effect that makes an object in a two-dimensional (2D) image appear three-dimensionally.
  • the technique using polygons is an example of this technique.
  • An object of the present invention is to be able to display an image according to the line-of-sight direction of a viewer viewing the screen.
  • Display means for displaying an image
  • Gaze direction determining means for determining a gaze direction of a viewer who faces the display means and looks at the screen
  • Image generating means for generating an image as seen from the line-of-sight direction determined by the line-of-sight direction determining means
  • Display control means for causing the display means to display an image generated by the image generation means
  • a display device comprising:
  • another aspect of the present invention provides: Against the computer, A function for determining the line-of-sight direction of the viewer who sees the screen facing the display means for displaying an image; A function of generating an image in a state as seen from the determined gaze direction; A function of displaying the generated image on the display means; A program to realize
  • the present invention it is possible to display an image according to the line-of-sight direction of a viewer viewing the screen, and to realize an image display rich in reality without using a special 3D display device. It becomes possible.
  • FIG. (1) is a diagram showing image data (three-dimensional model image) of a three-dimensional model, and (2) shows a case where the three-dimensional model image displayed on the display unit 6 is viewed from the horizontal direction.
  • Figure. (1) shows a case where the three-dimensional model image displayed on the display unit 6 is viewed from an obliquely upward direction (in the figure, obliquely upward 30 ° direction).
  • (2) is an obliquely downward direction (in the figure, The figure which showed the case where it sees from diagonally downward 30 degrees direction.
  • the flowchart which showed the gaze display control process which changes a display image according to a viewer's gaze direction.
  • FIG. 1 is a diagram showing coordinate values and angles that change in accordance with the positional relationship between the viewer and the in-camera 8
  • (2) is a diagram showing coordinate values in a captured image obtained by photographing the viewer.
  • FIG. 1 is a block diagram showing basic components of the mobile phone.
  • This mobile phone has a voice call function for sending and receiving voice data and calling, and a TV (telephone) phone function for sending and receiving real-time images (partner image and self-image) in addition to voice.
  • a telephone call can be made between the two.
  • the mobile phone is provided with a camera function, an e-mail function, an Internet connection function, and the like.
  • the central control unit 1 operates by supplying power from a power supply unit 2 having a secondary battery, and controls the overall operation of the mobile phone according to various programs in the storage unit 3.
  • the storage unit 3 includes a program storage unit M1, an image storage unit M2, and the like. Note that the storage unit 3 is not limited to a built-in storage unit, and may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card. The upper storage area may be included.
  • the program storage unit M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIGS. 5 and 6, and stores information necessary for the program. Yes.
  • the image storage unit M2 stores images taken by the camera function, images downloaded from the Internet, and the like.
  • the wireless communication unit 4 transmits and receives data to and from the nearest base station during a call function, an e-mail function, an Internet connection function, and the like.
  • a signal is received from the receiving side of the baseband unit. Is demodulated into a reception baseband signal, and then voice is output from the speaker SP for call via the voice signal processing unit 15, and input voice data from the microphone MC for call is received from the voice signal processing unit 5 and transmitted. After encoding into a baseband signal, it is given to the transmission side of the baseband part and transmitted from the antenna.
  • the display unit 6 displays character information, a standby image, an image, and the like, for example, using a high-definition liquid crystal or an organic EL (Electro Luminescence) display.
  • the operation unit 7 inputs dial input, character input, command input, and the like, and the central control unit 1 executes processing according to an input operation signal from the operation unit 7.
  • the in-camera 8 is disposed on the surface side of the casing constituting the mobile phone, and is a camera imaging unit for a TV phone that photographs a user's (viewer) 's own face, etc. It is a camera imaging part which is arrange
  • the in-camera 8 and the out-camera 9 include a photographing lens, a lens / mirror block such as a mirror, an image sensor, and a driving system thereof, a distance measuring sensor, a light amount sensor, an analog processing circuit, a signal processing circuit, a compression / expansion circuit Adjusting and controlling the optical zoom and controlling the driving of the autofocus function.
  • FIG. 2 is an external perspective view of the mobile phone.
  • the cellular phone has two housings (an operation unit housing 11 and a display unit housing 12) attached to be openable and closable (foldable), and the two housings 11 and 12 are opened (open style). ),
  • the operation unit 7 is disposed on the surface side of the operation unit housing 11,
  • the display unit 6 is disposed on the surface side of the display unit housing 12,
  • the in-camera 8 is disposed in the vicinity thereof. It is installed.
  • the in-camera 8 is disposed in the vicinity of one end side in the longitudinal direction (upper side in the figure) in a state where the display unit 6 is oriented in a portrait screen with a portrait orientation. The face of the viewer (user) who faces the unit 6 and looks at the screen is photographed.
  • FIG. 3A is a diagram illustrating image data of a three-dimensional model (three-dimensional model image).
  • a three-dimensional model image displayed on the screen of the display unit 6 is viewed from the horizontal direction, and the three-dimensional model image is displayed in a state where only the front portion is visible.
  • FIG. 4A shows a case where the three-dimensional model image displayed on the screen of the display unit 6 is viewed from an obliquely upward direction (an obliquely upward 30 ° direction in the figure). The image is displayed in a state where the front portion and the upper surface portion are visible.
  • FIG. 4 (2) shows a case of viewing from an obliquely downward direction (in the figure, an obliquely downward 30 ° direction), and the three-dimensional model image is displayed in a state in which the front part and the bottom part are visible.
  • the appearance of the three-dimensional model image is changed according to the line-of-sight direction of the viewer who faces the display unit 6 and views the screen.
  • the central control unit 1 performs a process of changing the display image according to a predetermined user operation in a state where the two casings 11 and 12 are opened (open style), that is, according to the viewing direction of the viewer (
  • a visual line display control process is instructed by a user operation, a viewer who views the display unit 6 is photographed by the in-camera 8, and the captured image is analyzed to identify the position of the viewer's eyes. ing. Then, the line-of-sight direction is determined according to the position of the eyes, and an image as seen from the line-of-sight direction is generated and displayed on the display unit 6.
  • FIGS. 5 and 6 are flowcharts showing the characteristic operation of the first embodiment of the overall operation of the mobile phone.
  • step S1 the central control unit 1 reads an image to be displayed (three-dimensional model image) from the image storage unit M2 or the like (step S1), and drives the in-camera 8 to perform forward shooting (step S2). In this case, a viewer viewing the screen facing the display unit 6 is photographed by the in-camera 8. Then, the central control unit 1 performs image recognition that identifies the position of the viewer's eyes by analyzing the captured image (step S3).
  • the face and eye positions are recognized by comprehensively judging the face outline and the shape and positional relationship of the baht (eyes, mouth, nose, forehead, etc.) forming the face while analyzing the captured image.
  • this image recognition function is a technique that is generally used in cameras, and this embodiment uses the well-known technique, a detailed description thereof will be omitted. Shall.
  • a process of determining the visual line direction of the viewer and converting the position of the eyes into coordinate values in the same space as the three-dimensional model image is performed on the Y axis and the X axis, respectively.
  • the process for the Y axis (steps S4 to S9) is performed, and then the process for the X axis (steps S10 to S14 in FIG. 6) is performed.
  • the processing (steps S4 to S9) and the processing for the X axis (steps S10 to S14 in FIG. 6) are basically the same processing.
  • FIG. 7 is a diagram for explaining the processing with respect to the Y axis, and shows the case where the position of the viewer's eyes is “shifted” in the vertical direction (vertical direction) with respect to the optical axis (horizontal) direction of the in-camera 8.
  • the direction perpendicular to the screen of the display unit 6 is the Z axis (third axis) of the three-dimensional coordinate system
  • the Y axis (second axis) It is shown that the angle ⁇ of the upper eye position with respect to the Z-axis is the viewing direction of the viewer.
  • FIG. 7A is a diagram showing coordinate values y and z and angles ⁇ and ⁇ max that change in accordance with the positional relationship between the viewer and the in-camera 8
  • FIG. 7B is a photograph of the viewer. It is the figure which showed the coordinate values y and ymax within the picked-up image.
  • the photographing surface (imaging device) of the in-camera 8 is made to coincide with the display surface of the display unit 6 and be in the same vertical plane.
  • the central control unit 11 calculates y / ymax (step S4).
  • y is a coordinate value on the Y axis corresponding to the eye position
  • ymax is a coordinate value on the Y axis corresponding to the angle of view ( ⁇ max) of the in-camera 8.
  • the specific numerical values of y and ymax are unknown, but the ratio of y and ymax (y / ymax) can be treated as a known value, so this known value and the fixed value ⁇ max of the in-camera 8 Are used to calculate the viewing direction (angle of eye position) ⁇ and tan ⁇ of the viewer according to the following equation (step S5).
  • tan ⁇ (y / ymax) tan ( ⁇ max)
  • itself is obtained by an arc tangent or the like.
  • the distance z on the Z axis from the in-camera 8 to the viewer's face is acquired (step S6).
  • the distance z is obtained by using the autofocus function of the in-camera 8, but this function is a well-known technique that is generally used in the camera, and therefore the description thereof will be given. Omitted.
  • the distance z from the in-camera 8 to the face of the viewer may be calculated approximately from the distance between the left eye and the right eye in the captured image.
  • the distance z from the in-camera 8 to the viewer's face may be calculated approximately from the size of the face in the captured image.
  • the distance z may be determined as a value arbitrarily set by a user operation, for example, 30 cm.
  • FIG. 8 is a diagram showing a case where the optical axis of the in-camera 8 and the screen center position of the display unit 6 are “deviation”.
  • the optical axis of the in-camera 8 is “deviation” with respect to the screen center position of the display unit 6, if the value of the deviation amount is “y deviation”, the viewer's eye position y is Correction (addition) is made by “y deviation” (step S8).
  • the position coordinates y and z are converted to coordinate values in the same space as the three-dimensional model image (step S9).
  • the coordinate values y and z may be multiplied by the ratio determined by the developer at the time of creating (designing) the 3D model image.
  • the z-coordinate value when the three-dimensional model image is arranged so as to be seen 1 cm behind the screen is determined to be minus one.
  • the values of y and z (unit: cm) may be obtained in consideration of the depth (1 cm) of the image.
  • FIG. 9 illustrates a case where the position of the viewer's eyes is “deviation” in the left-right direction (horizontal direction) with respect to the optical axis (horizontal) direction of the in-camera 8.
  • the vertical direction (the optical axis direction of the in-camera 8) is the Z-axis of the three-dimensional coordinate system
  • the angle ⁇ of the eye position on the X-axis with respect to the Z-axis is the viewing direction of the viewer. ing.
  • FIG. 9 (1) is a diagram showing coordinate values x and z and angles ⁇ and ⁇ max that change in accordance with the positional relationship between the viewer and the in-camera 8, and FIG. It is the figure which showed coordinate value x and xmax in the picked-up image.
  • the photographing surface (imaging device) of the in-camera 8 is in the same vertical plane with the display surface of the display unit 6 being coincident.
  • the central control unit 11 calculates x / xmax (step S10).
  • x is a coordinate value on the X-axis corresponding to the eye position
  • xmax is a coordinate value on the X-axis corresponding to the angle of view ( ⁇ max) of the in-camera 8.
  • the viewing direction (angle of the eye position) ⁇ and tan ⁇ of the viewer is calculated according to the following equation (step S11).
  • tan ⁇ (x / xmax) tan ( ⁇ max)
  • itself is obtained by an arc tangent or the like.
  • the viewer's eye position x in real space is calculated according to the following equation (Ste S12).
  • x z * tan ⁇
  • the optical axis of the in-camera 8 is “deviation” with respect to the screen center position of the display unit 6, if the deviation amount is “x deviation”, the eye position x of the viewer is set to “x deviation”.
  • Correction is performed (step S13). After obtaining the eye position coordinates x and z in the real space in this way, the position coordinates x and z are converted into coordinate values in the same space as the three-dimensional model image (step S14).
  • step S15 After obtaining the coordinate values (eye positions) x, y, z in the same space as the 3D model image in this way, the 3D model image is viewed from this eye position. In this manner, the three-dimensional model image is rotated on the three-dimensional coordinate system, and the rotated image is displayed on the display unit 6 (step S15). Thereafter, it is checked whether or not an instruction to switch images has been issued (step S16), or whether or not an instruction to end the line-of-sight display control has been given (step S18).
  • step S16 when a switching operation by a user (viewer) operation is performed or when an elapse of a predetermined time is detected during slideshow display (YES in step S16), an image to be displayed (three-dimensional model image) After selecting (step S17), the process returns to step S1 in FIG. Further, when the end operation by the user (viewer) operation is performed or when the slide show end time has been detected at the time of slide show display (YES in step S18), the flow of FIG. 5 and FIG. 6 is exited.
  • an image in a state as seen from the viewing direction of a viewer who faces the display unit 6 and looks at the screen is generated and displayed.
  • An image corresponding to the direction can be displayed, and even if a special display device for 3D is not used, a viewer can see an image like a 3D display, and the image display is rich in reality. Can be realized.
  • the gaze direction on the screen is changed so that you can look into the displayed image from any direction, such as up, down, left, or right, in the same way as the action of looking at an actual object in real space while changing the gaze direction
  • the image is changed to a state as seen from the direction of the line of sight, for example, when a certain character is displayed on the entire display unit 6, the character is displayed from below. If the viewer approaches the screen and wants to look into the screen and takes action to look at the character from below, the image can be changed to a state of looking into from below.
  • the visual line direction of the viewer is determined based on the image captured by the in-camera 8 that captures the viewer facing the display unit 6, the visual line direction of the viewer is reliably and easily determined by image recognition. be able to.
  • the Y-axis The angle of the upper eye position with respect to the Z axis and the angle of the eye position on the X axis with respect to the Z axis are determined as the viewing direction of the viewer, and the image data of the three-dimensional model is rotated based on the viewing direction.
  • an image in a state as seen from the line-of-sight direction is generated. Therefore, an image in a state as seen from the line-of-sight direction can be obtained simply by rotating the image data of the three-dimensional model. Can do.
  • the position of the viewer's eyes is specified based on the viewing direction of the viewer and the distance from the display unit 6 to the viewer, and an image in a state where the object is viewed from the position of the eyes is generated. Therefore, it is not necessary for the viewer to keep the image viewing distance constant, and even if viewed from a distance or near, an image is displayed as if the object is viewed from that position. There is no need to be aware of the distance from the section 6.
  • FIG. 10 is a diagram for explaining an angle ⁇ from the screen of the display unit 6 to the position of the viewer's eyes and an angle ⁇ from the image having a depth to the position of the viewer's eyes.
  • the position of the eyes of the viewer is “deviation” in the vertical direction (vertical direction) with respect to the optical axis (horizontal) direction of the in-camera 8
  • the direction perpendicular to the screen of the display unit 6 ( The optical axis direction of the in-camera 8) is the Z axis of the three-dimensional coordinate system
  • the angle of the eye position on the Y axis with respect to the Z axis is the viewing direction of the viewer.
  • the angle ⁇ from the screen of the display unit 6 to the position of the viewer's eyes is obtained.
  • A indicates the depth (known value) from the screen of the display unit 6 to the image.
  • an angle ⁇ from an image having a depth to the eye position of the viewer is obtained.
  • the depth from each image to the position of the eye of the viewer is taken into consideration for each image.
  • the angle ⁇ is obtained.
  • FIG. 10 shows a case where the angle of the eye position on the Y axis with respect to the Z axis is obtained, but the angle of the eye position on the X axis with respect to the Z axis can be basically obtained in the same manner.
  • the angle from the image having the depth to the position of the viewer's eyes is set as the line-of-sight direction. It is possible to determine the angle (gaze direction) even for images with the same angle as in the act of looking at an actual object in real space while changing the gaze direction. It is possible to change to an image that will be in a correct state.
  • the angle of the eye position on the Y axis with respect to the Z axis is obtained, and the angle of the eye position on the X axis with respect to the Z axis is obtained. You may make it ask. In other words, it may be possible to look only in the vertical direction or to look only in the horizontal direction.
  • the angle ⁇ , ⁇ of the eye position reaches a predetermined angle or more (for example, 70 ° or more)
  • a predetermined angle or more for example, 70 ° or more
  • an image on the back side of the cuboid is generated and displayed, or the contents of the cuboid figure, for example, the cuboid is displayed.
  • an image inside the house may be generated and displayed.
  • the viewer's line-of-sight direction is specified with reference to the in-camera 8, and the three-dimensional model image is viewed from the position of the eyes.
  • the model image is rotated and displayed.
  • the 3D technology A rendering display (for example, OpenGL / Direct3D) may be used to generate the image while calculating how the object looks.
  • the present invention may be applied to a foldable mobile phone, and the type is not limited. Moreover, you may make it image
  • the display device may be a mobile terminal device such as a digital camera (compact camera), a PDA, a music player, or a game machine.
  • the present invention is not limited to the terminal device, and can be similarly applied to a television receiver, a personal computer (for example, a notebook PC, a tablet PC, and a desktop PC).
  • the “apparatus” and “unit” shown in the first and second embodiments described above may be separated into a plurality of cases by function, and are not limited to a single case.
  • each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.
  • FIG. 11 is a configuration diagram of the appendix 1 (functional block diagram of the present invention).
  • the invention described in appendix 1 Means 100 for displaying an image (display unit 6 in FIG. 1);
  • a line-of-sight direction determining unit 101 in FIG. 1, the central control unit 1, the in-camera 8, and the program storage unit M2 that determines the line-of-sight direction of a viewer who faces the display unit 100 and views the screen;
  • An image generation unit 102 (in FIG.
  • a display device comprising: According to Supplementary Note 1, since an image in a state as seen from the viewing direction of a viewer who faces the display unit 100 and looks at the screen is generated and displayed, an image corresponding to the viewing direction is displayed. Even if an expensive liquid crystal display device for 3D is not used, a viewer can see an image like a 3D display and can realize an image display rich in reality. It becomes possible.
  • the image generation unit generates an image in a state as seen from the changed line-of-sight direction when the line-of-sight direction with respect to the displayed image is changed.
  • Appendix 3 It further comprises imaging means for photographing the viewer facing the display means, The line-of-sight direction determining means determines the line-of-sight direction of the viewer based on the image taken by the imaging means.
  • the line-of-sight direction determining means identifies the position of the viewer's eyes by analyzing the image taken by the imaging means, and sets the direction perpendicular to the screen of the display means to the third in the three-dimensional coordinate system. In the case of an axis, the angle of the eye position on the second axis with respect to the third axis is determined as the viewing direction of the viewer.
  • the line-of-sight direction determining means identifies the position of the viewer's eyes by analyzing the image taken by the imaging means, and sets the direction perpendicular to the screen of the display means to the third in the three-dimensional coordinate system. In the case of an axis, the angle of the eye position on the first axis with respect to the third axis is determined as the viewing direction of the viewer.
  • the image generation unit generates an image in a state as seen from the line-of-sight direction by rotating the image data of the three-dimensional model based on the line-of-sight direction determined by the line-of-sight direction determination unit.
  • the display device according to any one of appendix 1 to appendix 5, wherein the display device is configured as described above.
  • Appendix 7 Identifying means for identifying the position of the viewer's eyes based on the viewing direction of the viewer determined by the viewing direction determining means and the distance from the display means to the viewer; Further comprising The image generating means generates an image in a state as seen from the position of the eye of the viewer specified by the specifying means;
  • the display device according to any one of appendix 1 to appendix 6, wherein the display device is configured as described above.
  • Appendix 8 Determine the visual line direction of the viewer in consideration of the depth of the image from the screen of the visual line direction determination means and the display means, The image generating means generates an image in a state as seen from the line-of-sight direction by the line-of-sight direction determining means;
  • the display device according to any one of appendix 1 to appendix 7, wherein the display device is configured as described above.
  • the line-of-sight direction determining means determines the line-of-sight direction of the viewer for each image in consideration of the depth from the screen for each image when a plurality of images are displayed on the display means,
  • the image generation unit generates an image for each image as seen from the line-of-sight direction determined for each image by the line-of-sight direction determination unit.

Abstract

【課題】 画面を見る視認者の視線方向に応じた画像を表示できるようにする。 【解決手段】中央制御部1は、表示部6に対面する視認者を撮影するインカメラ8により撮影された画像に基づいて視認者の視線方向を決定する。この表示部6に対面してその画面を見る視認者の視線方向から見られているような状態の画像を生成して表示部6に表示させる。これによって表示されている画像に対する視線方向が変えられた場合に、その変えられた視線方向から見られているような状態の画像に変更することができる。

Description

表示装置、表示方法及びプログラム
 本発明は、画像を表示する表示装置、表示方法及びプログラムに関する。
 従来、平面状の表示部に画像(静止画、動画)などの画像を3D(3次元)表示することによりユーザ(視認者)に立体視させるようにした技術としては、各種の技術があり、例えば、2次元(2D)画像の中のオブジェクトを立体的に見せるような視覚効果を施すようにした技術がある。なお、ポリゴンを利用した技術は、この技術の一例である。また、視認者の右目と左目の視差を利用した技術もある。すなわち、互いに少しずらした右目用の画像と左目用の画像を用意し、それら2つの画像を同時に表示させた際に、右目用の画像は右目で見えて左目では見えないように、左目用の画像は左目で見えて右目では見えないようにするために、光の経路を遮断する電子式の視差バリア(スイッチング液晶パネル)を適切な位置に配置することによって画像を立体に見せるようにした技術であるが、3D用の高価な液晶表示装置を必要とするほかに、視野角が制限されて非常に狭いという問題があった。
 また、上述のような3D専用の表示装置を使用せずに画像を立体視することができるようにした技術として、例えば、X軸、Y軸、Z軸の各軸回りにおける筐体の回転角度を検出し、各回転角度に応じた画像を3次元表示させるようにした技術(ゲーム装置)が知られている(特許文献1参照)。
特開2002-298160号公報
 しかしながら、上述した関連する技術(特許文献1の技術)にあっては、操作者が筐体を傾かせるという操作が行われることにより表示部内の画像を変化させるようにしたもので、筐体を動かすことを前提とした技術であり、しかも、筐体をどの方向にどの程度、傾かせたらどのように画像が変化するかは、何回も操作してみなければ、把握することができず、使い慣れるまでに相当の時間を要することになる。更に、実際の物体を視線方向を変えて覗き込むという行為のように、表示されている画像を上下左右などの任意の方向から覗き込むように視線方向を変えて見たとしても、筐体を動かさなければ、その画像を変化させることはできなかった。
 本発明の課題は、画面を見る視認者の視線方向に応じた画像を表示できるようにすることである。
 上述した課題を解決するために本発明の一つの態様は、
 画像を表示する表示手段と、
 前記表示手段に対面してその画面を見る視認者の視線方向を決定する視線方向決定手段と、
 前記視線方向決定手段により決定された視線方向から見られているような状態の画像を生成する画像生成手段と、
 前記画像生成手段により生成された画像を前記表示手段に表示させる表示制御手段と、
 を備えたことを特徴とする表示装置。
 上述した課題を解決するために本発明の他の態様は、
 コンピュータに対して、
 画像を表示する表示手段に対面にその画面を見る視認者の視線方向を決定する機能と、
 前記決定された視線方向から見られているような状態の画像を生成する機能と、
 前記生成された画像を前記表示手段に表示させる機能と、
 を実現させるためのプログラム。
 本発明によれば、画面を見る視認者の視線方向に応じた画像を表示することができ、3D用の特別な表示装置を使用しなくても、リアリティに富んだ画像表示を実現することが可能となる。
表示装置として適用した携帯電話機の基本的な構成要素を示したブロック図。 携帯電話機の外観斜視図。 (1)は、三次元モデルの画像データ(三次元モデル画像)を示した図、(2)は、表示部6に表示されている三次元モデル画像を水平方向から見ている場合を示した図。 (1)は、表示部6に表示されている三次元モデル画像を斜め上方向(図中、斜め上30°方向)から見ている場合を示し(2)は、斜め下方向(図中、斜め下30°方向)から見ている場合を示した図。 視認者の視線方向に応じて表示画像を変化させる視線表示制御処理を示したフローチャート。 図5に続く動作を示したフローチャート。 視認者の目の位置がインカメラ8の光軸(水平)方向に対して上下方向(垂直方向)に“ズレ”ている場合を示した図。 インカメラ8の光軸と表示部6の画面中心位置とが“ズレ”ている場合を示した図。 (1)は、視認者とインカメラ8との位置関係に応じて変化する座標値と角度を示した図、(2)は、視認者を撮影した撮影画像内での座標値を示した図。 第2実施形態を説明するための図。 本発明の機能を説明するための機能ブロック図。
 以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
 先ず、図1~図9を参照して本発明の第1実施形態を説明する。
 この実施形態は、表示装置として携帯電話機に適用した場合を例示したもので、図1は、この携帯電話機の基本的な構成要素を示したブロック図である。
 この携帯電話機には、音声データを送受信して通話する音声通話機能のほか、音声以外にリアルタイム画像(相手画像、自分画像)を送受信して通話するTV(テレビ)電話機能を備え、相手側との間でTV電話による通話が可能となっている。更に、携帯電話機には、カメラ機能、電子メール機能、インターネット接続機能などが備えられている。
 中央制御部1は、二次電池を備えた電源部2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこの携帯電話機の全体動作を制御する中央演算処理装置やメモリなどを有している。この記憶部3には、プログラム記憶部M1、画像記憶部M2などが設けられている。なお、記憶部3は、内蔵型の記憶部に限らず、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しない所定の外部サーバ上の記憶領域を含むようにしてもよい。プログラム記憶部M1は、図5及び図6に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。画像記憶部M2には、カメラ機能により撮影された画像やインターネットからダウンロードした画像などが記憶されている。
 無線通信部4は、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局との間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調したのち、音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部5から取り込み、送信ベースバンド信号に符号化したのち、ベースバンド部の送信側に与えてアンテナから発信出力させる。表示部6は、例えば、高精細液晶又は有機EL(Electro Luminescence)ディスプレイで、文字情報、待受画像、画像などを表示する。
 操作部7は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部1は、この操作部7からの入力操作信号に応じた処理を実行する。インカメラ8は、携帯電話機を構成する筺体の表面側に配設されていて、ユーザ(視認者)己の顔などを撮影するTV電話用のカメラ撮像部であり、また、アウトカメラ9は、筺体の裏面側に配設されていて、外界を撮影するカメラ撮像部である。インカメラ8、アウトカメラ9は、撮影レンズ、ミラーなどのレンズ・ミラーブロック、撮像素子、その駆動系のほか、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路などを備え、光学ズームを調整制御したり、オートフォーカス機能の駆動を制御したりする。
 図2は、携帯電話機の外観斜視図である。
 携帯電話機は、2つの筐体(操作部筐体11、表示部筐体12)が開閉可能(折り畳み可能)に取り付けられたもので、この2つの筐体11、12を開いた状態(オープンスタイル)において、操作部筐体11の表面側には操作部7が配設され、表示部筐体12の表面側には表示部6が配設されていると共にその近傍にはインカメラ8が配設されている。この場合、インカメラ8は、図示のように、表示部6が縦長となる縦画面の向きとした状態において、その長手方向一端側(図中、上側)の近傍に配設されており、表示部6に対面してその画面を見る視認者(ユーザ)の顔を撮影するようにしている。
 図3(1)は、三次元モデルの画像データ(三次元モデル画像)を例示した図で、図示の例では、直方体の図形を示しているが、キャラクタなどであってもよい。図3(2)は、表示部6の画面に表示されている三次元モデル画像を水平方向から見ている場合を示し、三次元モデル画像は、その正面部のみが見える状態で表示される。
 これに対して図4(1)は、表示部6の画面に表示されている三次元モデル画像を斜め上方向(図中、斜め上30°方向)から見ている場合を示し、三次元モデル画像は、その正面部及び上面部が見える状態で表示される。図4(2)は、斜め下方向(図中、斜め下30°方向)から見ている場合を示し、三次元モデル画像は、その正面部及び下面部が見える状態で表示される。このように本実施形態では、表示部6に対面してその画面を見る視認者の視線方向に応じて三次元モデル画像の見え方を変化させるようにしている。
 中央制御部1は、2つの筐体11、12を開いた状態(オープンスタイル)において、所定のユーザ操作が行われた場合、つまり、視認者の視線方向に応じて表示画像を変化させる処理(視線表示制御処理)がユーザ操作により指示された場合に、表示部6を見る視認者をインカメラ8により撮影させた後、この撮影画像を解析して視認者の目の位置を特定するようにしている。そして、この目の位置に応じて視線方向を決定し、この視線方向から見られているような状態の画像を生成して、表示部6に表示させるようにしている。すなわち、実空間上において実際の物体を視線方向を変えて覗き込むという行為と同様に、表示されている画像を上下左右などの任意の方向から覗き込むように視線方向が変えられた場合に、その変えられた視線方向から見られているような状態の画像を生成して、表示させるようにしている。
 次に、第1実施形態における携帯電話機の動作概念を図5及び図6に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。図5及び図6は、携帯電話機の全体動作のうち第1実施形態の特徴的な動作を示したフローチャートで、この図5及び図6のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。
 図5及び図6は、視認者の視線方向に応じて表示画像を変化させる視線表示制御処理を示したフローチャートである。
 先ず、中央制御部1は、表示対象の画像(三次元モデル画像)を画像記憶部M2などから読み出すと共に(ステップS1)、インカメラ8を駆動して前方撮影を行わせる(ステップS2)。この場合、表示部6に対面してその画面を見ている視認者がインカメラ8により撮影されることになる。そして、中央制御部1は、この撮影画像を解析することにより視認者の目の位置を特定する画像認識を行う(ステップS3)。なお、撮影画像を解析しながら顔の輪郭や顔を形成するバーツ(目、口、鼻、額など)の形や位置関係などを総合的に判断して、顔及び目の位置を認識するようにしているが、この画像認識の機能は、カメラにおいて一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。
 次に、視認者の視線方向を決定してその目の位置を三次元モデル画像と同じ空間の座標値に変換する処理をY軸及びX軸に対してそれぞれ実行する。先ず、図5及び図6のフローではY軸に対する処理(ステップS4~S9)を行った後、X軸に対する処理(図6のステップS10~S14)を行うようにしているが、このY軸に対する処理(ステップS4~S9)とX軸に対する処理(図6のステップS10~S14)とは、基本的に同様の処理である。
 図7は、Y軸に対する処理を説明するための図で、視認者の目の位置がインカメラ8の光軸(水平)方向に対して上下方向(垂直方向)に“ズレ”ている場合を図示したもので、表示部6の画面に対して垂直な方向(インカメラ8の光軸方向)を3次元座標系のZ軸(第3軸)とした場合に、Y軸(第2軸)上の目の位置のZ軸に対する角度θが視認者の視線方向となることを示している。なお、3次元座標系のX軸を第1軸、Y軸を第2軸、Z軸を第3軸としているが、これらの関係に限るものではない(以下、同様)。図7(1)は、視認者とインカメラ8との位置関係に応じて変化する座標値y、z及び角度θ、θmaxを示した図であり、図7(2)は、視認者を撮影した撮影画像内での座標値y、ymaxを示した図である。なお、図7では図示省略したが、インカメラ8の撮影面(撮像素子)が表示部6の表示面と一致して同一の垂直面内にあるようにしている。
 先ず、中央制御部11は、Y軸に対する処理を開始すると、y/ymaxの算出を行う(ステップS4)。ここで、yは、目の位置を相当するY軸上の座標値であり、ymaxは、インカメラ8の画角(θmax)に相当するY軸上の座標値である。この場合、y、ymaxの具体的な数値は不明であるが、y、ymaxの比(y/ymax)は既知の値として取り扱うことができるため、この既知の値とインカメラ8の固定値θmaxとを使用して、視認者の視線方向(目の位置の角度)θ、tanθを次式にしたがって算出する(ステップS5)。
 tanθ=(y/ymax)tan(θmax)
 なお、θ自体はアークタンジェントなどで求める。
 次に、インカメラ8から視認者の顔までのZ軸上の距離zを取得する(ステップS6)。この場合、本実施形態ではインカメラ8のオートフォーカス機能を使用して距離zを取得するようにしているが、この機能はカメラにおいて一般的に用いられている周知技術であるため、その説明は省略する。なお、撮影画像内での左目と右目の間の距離から概算的にインカメラ8から視認者の顔までの距離zを算出するようにしてもよい。また、撮影画像内での顔の大きさから概算的にインカメラ8から視認者の顔までの距離zを算出するようにしてもよい。更には、距離zをユーザ操作により任意に設定された値、例えば、一律に30cmなどとして決めておいてもよい。このようにしてインカメラ8から視認者の顔までの実空間内での距離zが決まると、この距離zを使用して、実空間内での視認者の目の位置yを次式にしたがって算出する(ステップS7)。
 y=z*tanθ
 図8は、インカメラ8の光軸と表示部6の画面中心位置とが“ズレ”ている場合を示した図である。このように表示部6の画面中心位置に対してインカメラ8の光軸が“ズレ”ている場合に、そのズレ量の値を“yズレ”とすると、視認者の目の位置yをこの“yズレ”分補正(加算)する(ステップS8)。このようにして実空間内における目の位置座標y、zを求めた後は、この位置座標y、zを三次元モデル画像と同じ空間上の座標値に変換する(ステップS9)。例えば、三次元モデル画像の作成時(デザイン時)に、その開発者が決めた比率を座標値y、zに乗じるようにするようにしてもよい。なお、表示部6の画面中心位置を三次元座標系の原点とした場合において、例えば、三次元モデル画像が画面から1cm奥に見えるように配置されているときのz座標値をマイナス1と決めておくと、その画像の奥行き(1cm)を考慮して、y、z(単位、cm)の値を求めるようにしてもよい。
 このようにしてY軸に対する処理(ステップS4~S9)によって三次元モデル画像と同じ空間上の座標値y、zを求めた後は、X軸に対する処理(ステップS10~S18)を実行する。図9は、視認者の目の位置がインカメラ8の光軸(水平)方向に対して左右方向(水平方向)に“ズレ”ている場合を図示したもので、表示部6の画面に対して垂直な方向(インカメラ8の光軸方向)を3次元座標系のZ軸とした場合に、X軸上の目の位置のZ軸に対する角度θが視認者の視線方向となることを示している。図9(1)は、視認者とインカメラ8との位置関係に応じて変化する座標値x、zと角度θ、θmaxを示した図であり、図9(2)は、視認者を撮影した撮影画像内での座標値x、xmaxを示した図である。なお、この場合においてもインカメラ8の撮影面(撮像素子)が表示部6の表示面とが一致して同一の垂直面内となっている。
 先ず、中央制御部11は、x/xmaxを算出する(ステップS10)。ここで、xは、目の位置を相当するX軸上の座標値であり、xmaxは、インカメラ8の画角(θmax)に相当するX軸上の座標値である。そして、視認者の視線方向(目の位置の角度)θ、tanθを次式にしたがって算出する(ステップS11)。
 tanθ=(x/xmax)tan(θmax)
 なお、θ自体はアークタンジェントなどで求める。
 次に、上述のステップS6で取得したインカメラ8から視認者の顔までのZ軸上の距離zに基づいて、実空間内での視認者の目の位置xを次式にしたがって算出する(ステップS12)。
 x=z*tanθ
 そして、表示部6の画面中心位置に対してインカメラ8の光軸が“ズレ”ている場合、そのズレ量を“xズレ”とすると、視認者の目の位置xを“xズレ”分補正(加算)する(ステップS13)。このようにして実空間内における目の位置座標x、zを求めた後は、この位置座標x、zを三次元モデル画像と同じ空間上の座標値に変換する(ステップS14)。
 このようにして三次元モデル画像と同じ空間上の座標値(目の位置)x、y、zを求めた後は、この目の位置から三次元モデル画像を見られているような状態となるように三次元モデル画像を三次元座標系上で回転させてその回転後の画像を表示部6に表示させる(ステップS15)。その後、画像の切り替えが指示されたかを調べたり(ステップS16)、視線表示制御の終了が指示されたかを調べたりする(ステップS18)。いま、例えば、ユーザ(視認者)操作による切替操作が行われたとき又はスライドショ表示時では一定時間の経過が検出されたときには(ステップS16でYES)、表示対象の画像(三次元モデル画像)を選択した後(ステップS17)、図5のステップS1に戻り、以下、上述の動作を繰り返す。また、ユーザ(視認者)操作による終了操作が行われたとき又はスライドショ表示時ではスライドショ終了時間の経過が検出されたときには(ステップS18でYES)、図5及び図6のフローから抜ける。
 以上のように、第1実施形態においては、表示部6に対面してその画面を見る視認者の視線方向から見られているような状態の画像を生成して表示するようにしたので、視線方向に応じた画像を表示することができ、3D用の特別な表示装置を使用しなくても、視認者にあっては3D表示のような画像を見ることができ、リアリティに富んだ画像表示を実現することが可能となる。
 また、実空間上で実際の物体を視線方向を変えて覗き込むという行為と同様に、表示されている画像を上下左右などの任意の方向から覗き込むように画面に対する視線方向が変えられた場合に、その覗き込まれた視線方向から見られているような状態の画像に変更するようにしたので、例えば、あるキャラクタが表示部6の全体に表示されている状態において、そのキャラクタを下から覗き込みたいと、視認者が画面に近付き、下からキャラクタを見るような行動を起こすと、その下から覗き込んだような状態の画像に変更することができる。
 表示部6に対面する視認者を撮影するインカメラ8により撮影された画像に基づいて視認者の視線方向を決定するようにしたので、画像認識により視認者の視線方向を確実かつ容易に決定することができる。
 インカメラ8により撮影された画像を解析することにより視認者の目の位置を特定すると共に、表示部6の画面に対して垂直な方向を3次元座標系のZ軸とした場合に、Y軸上の目の位置のZ軸に対する角度と、X軸上の目の位置のZ軸に対する角度を視認者の視線方向として決定し、この視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成するようにしたので、3次元モデルの画像データを回転させるだけで、視線方向から見られているような状態の画像を得ることができる。
 また、視認者の視線方向と表示部6から視認者までの距離に基づいて視認者の目の位置を特定しその目の位置から物体を見られているような状態の画像を生成するようにしたので、視認者にあっては画像を見る距離を一定に保つ必要がなく、遠く又は近くから見ても、その位置から物体を見られているような状態の画像が表示されるので、表示部6からの距離を意識する必要がなくなる。
(実施形態2)
 以下、この発明の第2実施形態について図10を参照して説明する。
 なお、上述した第1実施形態においては、表示部6の画面から視認者の目の位置までの角度θ、tanθを求めようにしたが、この第2実施形態にあっては、表示部6の画面から表示画像の位置までの奥行きを画像毎に考慮して、奥行きを持った各画像から視認者の目の位置までの角度φ、tanφを求めようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
 図10は、表示部6の画面から視認者の目の位置までの角度θと、奥行きを持った画像から視認者の目の位置までの角度φを説明するための図である。ここで、視認者の目の位置がインカメラ8の光軸(水平)方向に対して上下方向(垂直方向)に“ズレ”ている場合において、表示部6の画面に対して垂直な方向(インカメラ8の光軸方向)を3次元座標系のZ軸とすると共に、Y軸上の目の位置のZ軸に対する角度を視認者の視線方向としている。そして、表示部6の画面から視認者の目の位置までの角度θを求めた後、奥行きを持った画像から視認者の目の位置までの角度φを求めるようにしている。ここで、図中、Aは、表示部6の画面からの画像までの奥行き(既知の値)を示している。
 すなわち、
 tanθ=y/z…(1)
 tanφ=y/(z+A)…(2)
 この両式(1)、(2)にyが共通しているため、ztanθ=(z+A)*tanφ
 したがって、tanφ=(z/(z+A))*tanθ
 ここで、z、θは、上述した第1実施形態と同様にして求められるため、奥行きを持った画像から視認者の目の位置までの角度φが得られる。その際、表示部6の画面から奥行きを持った画像を複数表示させる場合には、各画像までの奥行きを画像毎に考慮して、奥行きを持った各画像から視認者の目の位置までの角度φを求めるようにしている。なお、図10は、Y軸上の目の位置のZ軸に対する角度を求める場合を示したが、X軸上の目の位置のZ軸に対する角度も基本的には同様に求めることができる。
 以上のように、第2実施形態においては、表示部6の画面から画像までの奥行きを考慮して、奥行きを持った画像から視認者の目の位置までの角度を視線方向としたので、奥行きを持った画像であっても、角度(視線方向)を求めることができ、実空間上で実際の物体を視線方向を変えて覗き込むという行為と同様に、視認者の視線方向から見たような状態となるような画像に変更することが可能となる。
 また、表示部6の画面から奥行きを持った画像を複数表示させる場合には、各画像までの奥行きを画像毎に考慮して、奥行きを持った各画像から視認者の目の位置までの角度を求めるようにしたので、画像毎に見え方が変わり、更に、リアリティに富んだ画像表示が可能となる。
 なお、上述した各実施形態においては、Y軸上の目の位置のZ軸に対する角度を求めると共に、X軸上の目の位置のZ軸に対する角度を求めるようにしたが、そのいずれか一方を求めるようにしてもよい。つまり、上下方向のみ覗き込めるようにしたり、左右方向のみ覗き込めるようにしたりするようにしてもよい。
 また、目の位置の角度θ、φが所定角以上(例えば、70°以上)に達した場合には、直方体の裏側の画像を生成して表示させたり、直方体図形の中身、例えば、直方体が家の外観モデルであれば、家の中の画像を生成して表示させたりするようにしてもよい。
 また、上述した各実施形態においては、インカメラ8を基準にして視認者の視線方向を特定して、この目の位置から三次元モデル画像を見られているような状態となるように三次元モデル画像を回転させて表示するようにしたが、例えば、仮想カメラを視認者の目の位置y、zに設定すると共に、仮想カメラの視野を表示部6の画面に向けた状態において、3D技術のレンダリング表示(例えば、OpenGL/Direct3Dなど)を使用して、物体の見え方を計算しながらその画像を作成するようにしてもよい。
 上述した各実施形態においては、折り畳み型の携帯電話機に適用した場合を示したが、2軸タイプの携帯電話機などに適用してもよく、そのタイプは問わない。また、インカメラ8に限らず、携帯電話機とは別のカメラ(例えば、外部機器)を使用して視認者を撮影するようにしてもよい。
 また、上述した各実施形態においては、インカメラ8で視認者を撮影してその視線方向を特定するようにした場合を例示したが、例えば、角速度センサ、加速度センサなどを使用して筐体の回転角度を求めて、その方向から見られているような状態の画像を生成するようにしてもよい。
 上述した各実施形態においては、表示装置として携帯電話機に適用した場合を示したが、デジタルカメラ(コンパクトカメラ)、PDA、音楽プレイヤ、ゲーム機などの携帯端末装置であってもよく、更に、携帯端末装置に限らず、テレビ受像機、パーソナルコンピュータ(例えば、ノートPC、タブレットPC、ディスクトップPC)などにも同様に適用することができる。
 その他、上述した第1及び第2実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。
 上記の各実施形態の一部又は全部は、以下の付記のように記載され得るが、これに限定されるものではない。
 以下、本発明の諸態様を付記としてまとめて記載する。
(付記1)
 図11は、付記1の構成図(本発明の機能ブロック図)である。
 この図に示すように付記1に記載の発明は、
 画像を表示する手段100(図1では表示部6)と、
 前記表示手段100に対面してその画面を見る視認者の視線方向を決定する視線方向決定手段101(図1では中央制御部1、インカメラ8、プログラム記憶部M2)と、
 前記視線方向決定手段101により決定された視線方向から見られているような状態の画像を生成する画像生成手段102(図1では中央制御部1、プログラム記憶部M2、画像記憶部M2)と、
 前記画像生成手段102により生成された画像を前記表示手段100に表示させる表示制御手段103(図1では中央制御部1、プログラム記憶部M2、表示部6)と、
 を備えたことを特徴とする表示装置。
 付記1によれば、表示手段100に対面してその画面を見る視認者の視線方向から見られているような状態の画像を生成して表示するようにしたので、視線方向に応じた画像を表示することができ、3D用の高価な液晶表示装置を使用しなくても、視認者にあっては3D表示のような画像を見ることができ、リアリティに富んだ画像表示を実現することが可能となる。
(付記2)
 前記画像生成手段は、表示されている画像に対する視線方向が変えられた場合に、その変えられた視線方向から見られているような状態の画像を生成する、
 ようにしたことを特徴とする付記1に記載の表示装置。
(付記3)
 前記表示手段に対面する視認者を撮影する撮像手段を更に備え、
 前記視線方向決定手段は、前記撮像手段により撮影された画像に基づいて視認者の視線方向を決定する、
 ようにしたことを特徴とする付記1あるいは付記2に記載の表示装置。
(付記4)
 前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第2軸上の目の位置の第3軸に対する角度を視認者の視線方向として決定する、
 ようにしたことを特徴とする付記3に記載の表示装置。
(付記5)
 前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第1軸上の目の位置の第3軸に対する角度を視認者の視線方向として決定する、
 ようにしたことを特徴とする付記3あるいは付記3に記載の表示装置。
(付記6)
 前記画像生成手段は、前記視線方向決定手段により決定された視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する、
 ようにしたことを特徴とする付記1~付記5のいずれかに記載の表示装置。
(付記7)
 前記視線方向決定手段により決定された視認者の視線方向と前記表示手段から視認者までの距離に基づいて視認者の目の位置を特定する特定手段と、
 を更に備え、
 前記画像生成手段は、前記特定手段により特定された視認者の目の位置から見られているような状態の画像を生成する、
 ようにしたことを特徴とする付記1~付記6のいずれかに記載の表示装置。
(付記8)
 前記視線方向決定手段、前記表示手段の画面から画像の奥行きを考慮して視認者の視線方向を決定し、
 前記画像生成手段は、前記視線方向決定手段により視線方向から見られているような状態の画像を生成する、
 ようにしたことを特徴とする付記1~付記7のいずれかに記載の表示装置。
(付記9)
 前記視線方向決定手段は、前記表示手段に複数の画像が表示されている場合に画像毎に画面からの奥行きを考慮して画像毎に視認者の視線方向をそれぞれ決定し、
 前記画像生成手段は、前記視線方向決定手段により画像毎に決定された視線方向から見られているような状態の画像を画像毎にそれぞれ生成する、
 ようにしたことを特徴とする付記8に記載の表示装置。
(付記10)
 画像を表示する表示手段に対面してその画面を見る視認者の視線方向を決定し、
 前記決定した視線方向から見られているような状態の画像を生成し、
 前記生成した画像を前記表示手段に表示する、
 ようにしたことを特徴とする表示方法。
(付記11)
 コンピュータに対して、
 画像を表示する表示手段に対面にその画面を見る視認者の視線方向を決定する機能と、
 前記決定された視線方向から見られているような状態の画像を生成する機能と、
 前記生成された画像を前記表示手段に表示させる機能と、
 を実現させるためのプログラム。
 付記10によれば、付記1と同様の効果を有し、更に、付記1の機能をソフトウェア(プログラム)の形で提供することができる。
 1 中央制御部
 3 記憶部
 6 表示部
 7 操作部
 8 インカメラ
 11 操作部筐体
 12 表示部筐体
 M1 プログラム記憶部
 M2 画像記憶部

Claims (11)

  1.  画像を表示する表示手段と、
     前記表示手段に対面してその画面を見る視認者の視線方向を決定する視線方向決定手段と、
     前記視線方向決定手段により決定された視線方向から見られているような状態の画像を生成する画像生成手段と、
     前記画像生成手段により生成された画像を前記表示部に表示させる表示制御手段と、
     を備えたことを特徴とする表示装置。
  2.  前記画像生成手段は、表示されている画像に対する視線方向が変えられた場合に、その変えられた視線方向から見られているような状態の画像を生成する、
     ようにしたことを特徴とする請求項1に記載の表示装置。
  3.  前記表示手段に対面する視認者を撮影する撮像手段を更に備え、
     前記視線方向決定手段は、前記撮像手段により撮影された画像に基づいて視認者の視線方向を決定する、
     ようにしたことを特徴とする請求項1あるいは請求項2に記載の表示装置。
  4.  前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第2軸上の目の位置の第3軸に対する角度を視認者の視線方向として決定する、
     ようにしたことを特徴とする請求項3に記載の表示装置。
  5.  前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第1軸上の目の位置の第3軸に対する角度を視認者の視線方向として決定する、
     ようにしたことを特徴とする請求項3あるいは請求項4に記載の表示装置。
  6.  前記画像生成手段は、前記視線方向決定手段により決定された視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する、
     ようにしたことを特徴とする請求項1~請求項5のいずれかに記載の表示装置。
  7.  前記視線方向決定手段により決定された視認者の視線方向と前記表示手段から視認者までの距離に基づいて視認者の目の位置を特定する特定手段と、
     を更に備え、
     前記画像生成手段は、前記特定手段により特定された視認者の目の位置から見られているような状態の画像を生成する、
     ようにしたことを特徴とする請求項1~請求項6のいずれかに記載の表示装置。
  8.  前記視線方向決定手段、前記表示手段の画面から画像の奥行きを考慮して視認者の視線方向を決定し、
     前記画像生成手段は、前記視線方向決定手段により視線方向から見られているような状態の画像を生成する、
     ようにしたことを特徴とする請求項1~請求項7のいずれかに記載の表示装置。
  9.  前記視線方向決定手段は、前記表示手段に複数の画像が表示されている場合に画像毎に画面からの奥行きを考慮して画像毎に視認者の視線方向をそれぞれ決定し、
     前記画像生成手段は、前記視線方向決定手段により画像毎に決定された視線方向から見られているような状態の画像を画像毎にそれぞれ生成する、
     ようにしたことを特徴とする請求項8に記載の表示装置。
  10.  画像を表示する表示手段に対面してその画面を見る視認者の視線方向を決定し、
     前記決定した視線方向から見られているような状態の画像を生成し、
     前記生成した画像を前記表示手段に表示する、
     ようにしたことを特徴とする表示方法。
  11.  コンピュータに対して、
     画像を表示する表示手段に対面にその画面を見る視認者の視線方向を決定する機能と、
     前記決定された視線方向から見られているような状態の画像を生成する機能と、
     前記生成された画像を前記表示手段に表示させる機能と、
     を実現させるためのプログラム。
PCT/JP2012/005613 2012-09-05 2012-09-05 表示装置、表示方法及びプログラム WO2014037972A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/425,509 US20150206338A1 (en) 2012-09-05 2012-09-05 Display device, display method, and program
CN201280075537.3A CN104603717A (zh) 2012-09-05 2012-09-05 显示装置、显示方法以及程序
EP12884241.6A EP2894608A4 (en) 2012-09-05 2012-09-05 DISPLAY DEVICE, DISPLAY PROCEDURE AND PROGRAM
PCT/JP2012/005613 WO2014037972A1 (ja) 2012-09-05 2012-09-05 表示装置、表示方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/005613 WO2014037972A1 (ja) 2012-09-05 2012-09-05 表示装置、表示方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2014037972A1 true WO2014037972A1 (ja) 2014-03-13

Family

ID=50236626

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005613 WO2014037972A1 (ja) 2012-09-05 2012-09-05 表示装置、表示方法及びプログラム

Country Status (4)

Country Link
US (1) US20150206338A1 (ja)
EP (1) EP2894608A4 (ja)
CN (1) CN104603717A (ja)
WO (1) WO2014037972A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016154711A1 (en) 2015-03-31 2016-10-06 Cae Inc. Multifactor eye position identification in a display system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012442A (ja) * 2013-06-28 2015-01-19 ソニー株式会社 撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム
JP6492531B2 (ja) * 2014-10-27 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
EP3205084B1 (en) * 2014-12-09 2018-05-23 FotoNation Limited Image processing method
CN105592306A (zh) * 2015-12-18 2016-05-18 深圳前海达闼云端智能科技有限公司 一种三维立体显示处理方法和装置
CN105704475B (zh) * 2016-01-14 2017-11-10 深圳前海达闼云端智能科技有限公司 一种曲面二维屏幕的三维立体显示处理方法和装置
CN110035270A (zh) * 2019-02-28 2019-07-19 努比亚技术有限公司 一种3d图像显示方法、终端及计算机可读存储介质
CN113079364A (zh) * 2021-03-24 2021-07-06 纵深视觉科技(南京)有限责任公司 一种静态对象的立体显示方法、装置、介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2002298160A (ja) 2001-03-29 2002-10-11 Namco Ltd 携帯型画像生成装置、プログラム及び情報記憶媒体
JP2008078846A (ja) * 2006-09-20 2008-04-03 Taro Isayama 立体表示処理装置および立体表示処理方法
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040075735A1 (en) * 2002-10-17 2004-04-22 Koninklijke Philips Electronics N.V. Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device
KR100654615B1 (ko) * 2004-02-07 2006-12-07 (주)사나이시스템 액정 패널 전산 모사에 있어서 디스플레이 영상의 관찰자시야각 의존성을 파노라믹하게 출력하는 방법
EP1983884B1 (en) * 2006-01-26 2016-10-26 Nokia Technologies Oy Eye tracker device
JP2011090400A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像表示装置および方法、並びにプログラム
CN103026388A (zh) * 2011-04-28 2013-04-03 松下电器产业株式会社 图像生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2002298160A (ja) 2001-03-29 2002-10-11 Namco Ltd 携帯型画像生成装置、プログラム及び情報記憶媒体
JP2008078846A (ja) * 2006-09-20 2008-04-03 Taro Isayama 立体表示処理装置および立体表示処理方法
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016154711A1 (en) 2015-03-31 2016-10-06 Cae Inc. Multifactor eye position identification in a display system
EP3278321A4 (en) * 2015-03-31 2018-09-26 CAE Inc. Multifactor eye position identification in a display system

Also Published As

Publication number Publication date
EP2894608A4 (en) 2016-01-20
CN104603717A (zh) 2015-05-06
US20150206338A1 (en) 2015-07-23
EP2894608A1 (en) 2015-07-15

Similar Documents

Publication Publication Date Title
WO2014037972A1 (ja) 表示装置、表示方法及びプログラム
US10019849B2 (en) Personal electronic device with a display system
US9595127B2 (en) Three-dimensional collaboration
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20180114353A1 (en) Integrating Real World Conditions into Virtual Imagery
JP5357238B2 (ja) 携帯端末機及びその動作制御方法
US9530249B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
RU2623201C2 (ru) Мобильное устройство отображения
CN113168007A (zh) 用于增强现实的系统和方法
US20120162384A1 (en) Three-Dimensional Collaboration
US20120293549A1 (en) Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method
US20110304615A1 (en) Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
JP2011090400A (ja) 画像表示装置および方法、並びにプログラム
JP2004040445A (ja) 3d表示機能を備える携帯機器、及び3d変換プログラム
JP5379200B2 (ja) 携帯端末機及びその動作制御方法
EP3960261A1 (en) Object construction method and apparatus based on virtual environment, computer device, and readable storage medium
JP2012221259A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5896445B2 (ja) 表示装置、表示方法及びプログラム
EP2471583B1 (en) Display control program, display control method, and display control system
EP2926196A1 (en) Method and system for capturing a 3d image using single camera
CN111095348A (zh) 基于摄像头的透明显示器
JP2018056889A (ja) 表示端末、表示方法、及びプログラム
JP2012175358A (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
JP5739670B2 (ja) 画像表示プログラム、装置、システムおよび方法
WO2023231666A1 (zh) 信息交互方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12884241

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14425509

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP