WO2011114567A1 - 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 - Google Patents

立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 Download PDF

Info

Publication number
WO2011114567A1
WO2011114567A1 PCT/JP2010/069275 JP2010069275W WO2011114567A1 WO 2011114567 A1 WO2011114567 A1 WO 2011114567A1 JP 2010069275 W JP2010069275 W JP 2010069275W WO 2011114567 A1 WO2011114567 A1 WO 2011114567A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
dominant eye
unit
stereoscopic
viewpoint image
Prior art date
Application number
PCT/JP2010/069275
Other languages
English (en)
French (fr)
Inventor
聡司 柳田
三沢 充史
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2012505443A priority Critical patent/JP5450791B2/ja
Priority to CN201080065556.9A priority patent/CN102812420B/zh
Priority to US13/581,617 priority patent/US9164621B2/en
Publication of WO2011114567A1 publication Critical patent/WO2011114567A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Definitions

  • the present invention relates to a stereoscopic display device, a stereoscopic imaging device, and a dominant eye determination method, and more particularly to a technique for determining a user's dominant eye using a stereoscopic display device.
  • an operation component is displayed three-dimensionally on the screen, and when an operator touches the touch panel, an operation instruction to the operation component displayed stereoscopically on the stereoscopic display device is detected based on coordinate data indicating the touch position,
  • an apparatus that changes a parallax image of an operation component formed by a stereoscopic synthesis unit and changes the shape of the operation component that is stereoscopically displayed on a stereoscopic display device (Patent Document 1).
  • the operation component is a push button type switch image
  • touching the switch image on the touch panel to turn it on / off changes the switch image to stereoscopic display or planar display according to the on / off state.
  • the operability is improved.
  • Patent Document 2 an operation panel device capable of improving operability by displaying a stereoscopic parallax image on a display unit and switching to a planar image before an operation is performed on a touch panel.
  • the gaze direction of the driver's eyes is detected, and the result of the detection is compared with the standard gaze movement pattern in a normal driving state according to the road situation in which the vehicle travels during the detection period.
  • a gaze direction detection device that determines which of the directions is closer to the gaze movement pattern and judges that the gaze direction closer to the gaze movement pattern is the dominant eye (Patent Document 3).
  • FIG. 28A when a 3D display object is touched and operated, the place where the 3D display object is touched is actually the left viewpoint image (FIG. 28B), A position corresponding to the stereoscopic display object on either one of the right viewpoint images ((C) of FIG. 28) is touched.
  • Which of the corresponding part on the left viewpoint image and the corresponding part on the right viewpoint image is closer to the place touched on the stereoscopic display object depends on the user's dominant eye. It is known that a person with a right-handed eye agrees or is very close to a place where he / she feels touching a 3D display object (3D image) and a right viewpoint image (2D image). Similarly, a person with a dominant left eye knows that the location of the left viewpoint image (2D image) is identical or very close.
  • Patent Document 2 Since the invention described in Patent Document 2 is switched to a planar image (2D image) before an operation is performed on the touch panel, it is not assumed that the touch panel is operated on the stereoscopic image.
  • Patent Document 3 there is a description of determining the driver's dominant eye using a gaze direction detection unit or the like that detects the gaze direction of both eyes of the driver, but a gaze direction detection unit or the like is necessary, Cannot easily determine the dominant eye.
  • the present invention has been made in view of such circumstances, and a user's dominant eye can be easily determined using a stereoscopic display device, and a stereoscopic result intended by the user can be determined by using the determination result.
  • 3D display apparatus and 3D imaging apparatus capable of acquiring position coordinates on a display screen and improving operability in a coordinate position input device such as a touch panel, a dominant eye determination method, and a dominant one used for this
  • An object is to provide an eye determination program and a recording medium thereof.
  • a stereoscopic display device includes a stereoscopic display unit that displays a stereoscopic image including a left viewpoint image and a right viewpoint image, and a display surface of the stereoscopic display unit.
  • the acquired position coordinates based on the reference coordinates and the acquired position coordinates of each dominant eye determination image made up of the acquisition unit and the left viewpoint image and the right viewpoint image are the reference coordinates of the left viewpoint image.
  • the input position coordinates are acquired via the coordinate input unit. Based on the acquired position coordinates and the respective reference coordinates of each dominant eye determination image, “whether the acquired position coordinates are closer to the reference coordinates of the left viewpoint image or the right viewpoint image”.
  • the user's dominant eye is determined accordingly. This is because "the position coordinates input on the dominant eye determination image composed of the left viewpoint image and the right viewpoint image are the reference coordinates of the viewpoint image on the dominant eye side of the user among the reference coordinates of the left viewpoint image and the right viewpoint image. It is based on the fact that it is close to coordinates.
  • the stereoscopic display device is the stereoscopic display device according to the first aspect, wherein the display control unit displays an icon image for operation on the stereoscopic display unit as the dominant eye determination image. It is characterized by. According to this, when a normal icon image click operation is performed, the dominant eye determination can be automatically performed inside without making the user aware of the dominant eye determination at all, and the determination result is transferred to other controls. You can make use of it.
  • the stereoscopic display device is the stereoscopic display device according to the first aspect, wherein the display control unit includes a button image such as a start button or a login button on the stereoscopic display unit as the dominant eye determination image. Is displayed. Since the user performs a touch operation on the button image displayed on the stereoscopic display unit without being aware of the dominant eye determination, the stereoscopic display device according to the third aspect is used internally without being aware of the dominant eye determination. It is possible to automatically determine the dominant eye. It is preferable that the button image be touched without fail, such as a start button or a login button.
  • the stereoscopic display device is the stereoscopic display device according to the first aspect, wherein the display control unit includes a slide bar image including a knob for operation in the stereoscopic display unit as the dominant eye determination image. Is displayed. The user's dominant eye can be determined based on the position at which the knob of the slide bar is touched.
  • the stereoscopic display device is the stereoscopic display device according to the first aspect, wherein the display control unit displays a line drawing on the stereoscopic display unit as the dominant eye determination image, and the determination unit includes: The average distance between the coordinates of each contour line of each dominant eye determination image made up of the left viewpoint image and the right viewpoint image showing the line drawing and the coordinates obtained continuously by the coordinate input unit by tracing the line drawing
  • the dominant eye of the user who traces the line drawing is determined based on the above.
  • the user's dominant eye is determined based on whether the traced locus is close to the line drawing of the left viewpoint image or the line drawing of the right viewpoint image.
  • the picture, figure, etc. which are easy to trace are preferable.
  • the stereoscopic display device is the stereoscopic display device according to the first aspect, wherein the display control unit displays an incomplete picture or figure on the stereoscopic display unit as the dominant eye determination image.
  • the determination unit completes the unfinished picture or figure by the reference coordinates of each dominant eye judgment image composed of a left viewpoint image and a right viewpoint image showing the incomplete picture or figure, and the coordinate input part.
  • the added user's dominant eye is determined on the basis of the position coordinates of the picture or figure added as described above.
  • the user's dominant eye is determined based on whether the position coordinates of the picture or figure added to the unfinished picture or figure of the left viewpoint image and the right viewpoint image are close to the left viewpoint image or the right viewpoint image. I am doing so.
  • the stereoscopic display device is the stereoscopic display device according to any one of the first to sixth aspects, wherein the determination unit is configured to input a position coordinate of a user who has input the position coordinates via the coordinate input unit. If the dominant eye cannot be determined, the right eye is determined as the dominant eye. That is, when the dominant eye cannot be determined, the right eye is more dominant than the left eye, so the right eye is determined as the dominant eye, and even a little misjudgment is made. I have to.
  • the stereoscopic display device is the stereoscopic display device according to any one of the first to seventh aspects, and includes a storage registration unit that stores and registers information about the user's dominant eye in the device. It is characterized by. The user's dominant eye information can be registered in the apparatus, thereby eliminating the need to determine the dominant eye every time.
  • the stereoscopic display device is the stereoscopic display device according to the eighth aspect, wherein the storage registration unit automatically stores and registers dominant eye information based on a determination result by the determination unit. It is characterized by that.
  • the stereoscopic imaging device is the stereoscopic display device according to the eighth or ninth aspect, wherein the storage registration unit receives dominant information of the user by an instruction input from the user. It has an information input unit, and stores and registers information on the user's dominant eye received by the dominant eye information input unit.
  • the user's dominant eye information can be automatically registered, or the user can determine and register the dominant eye by himself.
  • a stereoscopic display device is the stereoscopic display device according to any of the eighth to tenth aspects, wherein the position coordinates of a desired target image on the stereoscopic image displayed on the stereoscopic display unit.
  • a position input unit that receives the position coordinates via the coordinate input unit, and the position coordinates received by the position input unit are registered in the storage registration unit of the left viewpoint image and the right viewpoint image of the stereoscopic image It is characterized in that it is handled as a coordinate position on the viewpoint image on the dominant eye side corresponding to the information on the dominant eye.
  • difference of the position coordinate which the user intended and the position coordinate on the viewpoint image which the apparatus side judges can be reduced, and the operability of the said coordinate input part can be aimed at.
  • the stereoscopic display device is the stereoscopic display device according to any one of the first to eleventh aspects, wherein the coordinate input unit is a touch panel provided on a display surface of the stereoscopic display unit. It is characterized by being.
  • a stereoscopic display device is the stereoscopic display device according to any of the eighth to twelfth aspects, and causes the stereoscopic display unit to display a stereoscopic image including a left viewpoint image and a right viewpoint image.
  • a display mode switching unit that switches between a 3D display mode and a 2D display mode for displaying any one of a left viewpoint image and a right viewpoint image constituting the stereoscopic image, and the display control unit includes: When switching to the 2D display mode by the display mode switching unit, based on the user's dominant eye information registered in the storage registration unit, the viewpoint image on the user's dominant eye side of the left viewpoint image and the right viewpoint image Is displayed on the stereoscopic display unit.
  • the stereoscopic display device is the stereoscopic display device according to the thirteenth aspect, wherein the coordinate input unit is a touch panel provided on a display surface of the stereoscopic display unit, and the display mode switching The unit is characterized by alternately switching between the 2D display mode and the 3D display mode every time a touch is detected by the touch panel. Thereby, switching between the 2D display mode and the 3D display mode can be easily performed.
  • the coordinate input unit is a touch panel provided on a display surface of the stereoscopic display unit
  • the display mode switching The unit is characterized by alternately switching between the 2D display mode and the 3D display mode every time a touch is detected by the touch panel. Thereby, switching between the 2D display mode and the 3D display mode can be easily performed.
  • the stereoscopic display device is the stereoscopic display device according to the thirteenth aspect, wherein the display mode switching unit switches to the 2D display mode when a touch is detected by the touch panel, and the touch panel If no touch is detected by the above, or if no touch is detected for a certain period of time, the mode is switched to the 3D display mode.
  • the display mode switching unit switches to the 2D display mode when a touch is detected by the touch panel, and the touch panel If no touch is detected by the above, or if no touch is detected for a certain period of time, the mode is switched to the 3D display mode.
  • a stereoscopic display device is the stereoscopic display device according to any of the eighth to fifteenth aspects, wherein a stereoscopic image composed of a left viewpoint image and a right viewpoint image displayed on the stereoscopic display unit is displayed.
  • a parallax amount detection unit that detects right and left parallax amounts, and a parallax amount that exceeds a predetermined parallax amount or a parallax amount specified by a user as a double of the parallax amounts detected by the parallax amount detection unit
  • a region extraction unit that extracts a region having an amount, and a stereoscopic image of the region extracted by the region extraction unit, a dominant eye side viewpoint image corresponding to information on a user's dominant eye registered in the storage registration unit
  • an image replacement unit that replaces only with.
  • a region with a large amount of parallax may appear double. Since a 2D image is better than a double-viewed image, the double-viewed region is replaced with a dominant-eye viewpoint image (2D image).
  • the area to be replaced with the 2D image may be automatically extracted as an area exceeding a preset amount of parallax, or an area that the user looks double may be designated by the coordinate input unit. .
  • a stereoscopic imaging device is a stereoscopic imaging device including the stereoscopic display device according to any of the eighth to sixteenth aspects, a 2D imaging mode for capturing a two-dimensional image, and a left viewpoint image.
  • a shooting mode switching unit that switches between a 3D shooting mode for shooting a stereoscopic image including a right viewpoint image and the 2D shooting mode when the shooting mode switching unit switches to the 2D shooting mode.
  • a control unit that causes the stereoscopic display unit to display a viewpoint image on the dominant eye side corresponding to the information on the dominant eye of the user registered in the storage registration unit.
  • An eighteenth aspect of the present invention is a dominant eye determination method using a stereoscopic display device having a stereoscopic display unit and a coordinate input unit for inputting desired position coordinates on the display surface of the stereoscopic display unit,
  • the stereoscopic display unit is a dominant eye determination image including a left viewpoint image and a right viewpoint image for determining a user's dominant eye, wherein the dominant eye determination image represents different reference coordinates in the left viewpoint image and the right viewpoint image.
  • the step of acquiring the position coordinates input by the user via the coordinate input unit with respect to the dominant eye determination image displayed on the stereoscopic display unit The acquired position coordinates based on the respective reference coordinates of each dominant eye determination image and the acquired position coordinates, depending on whether the reference coordinates of the left viewpoint image or the reference coordinates of the right viewpoint image are closer seat Is characterized in that it comprises a step of determining the dominant eye of the user who inputs the position coordinates via the input unit.
  • the nineteenth aspect of the present invention provides a program that causes the stereoscopic display device to execute the dominant eye determination method according to the eighteenth aspect.
  • a twentieth aspect of the present invention provides a recording medium on which a computer-readable code of a dominant eye determination program according to the nineteenth aspect is recorded.
  • the user's dominant eye can be easily determined simply by inputting a desired position coordinate to the dominant eye determination image for dominant eye determination stereoscopically displayed on the stereoscopic display unit. Can do.
  • the determination result when a desired position coordinate on the stereoscopic image is input, the position coordinate intended by the user can be acquired, and the operability of the coordinate input unit such as a touch panel can be obtained. Improvements can be made.
  • FIG. 1 is a block diagram showing a first embodiment of a stereoscopic display device according to the present invention
  • FIG. 2 is a flowchart showing dominant eye determination processing and storage / registration of dominant eye information
  • FIG. 3 is a diagram showing a dominant eye determination image and a state of touching the dominant eye determination image
  • FIG. 4 is a diagram used for explaining a method of calculating the left viewpoint difference DL and the right viewpoint difference DR
  • FIG. 5 is a block diagram showing a second embodiment of the stereoscopic display device according to the present invention
  • FIG. 6 is a flowchart showing a processing procedure for determining position coordinates on the stereoscopic image touched by the user
  • FIG. 1 is a block diagram showing a first embodiment of a stereoscopic display device according to the present invention
  • FIG. 2 is a flowchart showing dominant eye determination processing and storage / registration of dominant eye information
  • FIG. 3 is a diagram showing a dominant eye determination image and a state of touching the dominant eye determination image
  • FIG. 7 is a diagram showing whether the touched position on the stereoscopic image is a position on the left viewpoint image or a position on the right viewpoint image;
  • FIG. 8 is a block diagram showing a third embodiment of the stereoscopic display device according to the present invention;
  • FIG. 9 is a flowchart showing a processing procedure when switching from a stereoscopic image (3D image) display state to a left viewpoint image or a right viewpoint image 2D image;
  • FIG. 10 is a diagram showing display switching from a stereoscopic image (3D image) display state to a user's dominant eye viewpoint image (2D image);
  • FIG. 11 is a flowchart showing a fourth embodiment of the present invention;
  • FIG. 12 is a diagram showing display switching between a stereoscopic image (3D image) and a user's dominant eye viewpoint image (2D image) according to the fourth embodiment of the present invention
  • FIG. 13 is a block diagram showing an embodiment (fifth embodiment) of a stereoscopic photographing apparatus according to the present invention
  • FIG. 14 is a diagram showing a stereoscopic photographing apparatus for displaying a through image according to the fifth embodiment of the present invention
  • FIG. 15 is a flowchart showing a processing procedure when a stereoscopic image or a 2D image is captured by the stereoscopic imaging device
  • FIG. 16 is a block diagram showing a sixth embodiment of a stereoscopic display device according to the present invention
  • FIG. 17 is a diagram showing a state where an object (subject) separated in the depth direction is photographed by the stereoscopic photographing device;
  • FIG. 18 is a flow chart showing a sixth embodiment of the present invention;
  • FIG. 19 is a diagram illustrating a state in which a part of the left viewpoint image in which the parallax increases is replaced with a corresponding part of the right viewpoint image;
  • FIG. 20 is a diagram showing a state in which a button image is used as a dominant eye determination image and the dominant eye determination image is touched;
  • FIG. 21 is a diagram showing a display screen when a uniaxial slide bar image is used as a dominant eye determination image;
  • FIG. 22 is a diagram showing a state of using a single-axis type slide bar image as a dominant eye determination image and touching the dominant eye determination image;
  • FIG. 23 is a diagram showing a display screen of the stereoscopic display unit when a biaxial slide bar image is used as the dominant eye determination image;
  • FIG. 24 is a diagram showing a display screen of the stereoscopic display unit when a line drawing showing a rabbit is used as the dominant eye determination image;
  • FIG. 25 is a diagram showing a display screen of the stereoscopic display unit when an incomplete picture (a rabbit image without ears) is used as the dominant eye determination image;
  • FIG. 26 is a diagram showing a state in which an insufficient image (ear image) is added to the dominant eye determination image displayed on the display screen of the stereoscopic display unit;
  • FIG. 27 is a flow chart showing a seventh embodiment of the present invention;
  • FIG. 28 is a diagram illustrating a relationship between a place where the user thinks that the user touches the stereoscopic image and a position where the user actually touches the left and right viewpoint images.
  • FIG. 1 is a block diagram showing a first embodiment of a stereoscopic display device according to the present invention.
  • the stereoscopic display device 1 mainly includes a memory unit 10, a display control unit 12, a stereoscopic display unit 14, a speaker unit 16, an input / output unit 18, a recording medium recording unit 20, a touch panel 22, and a dominant eye.
  • the determination processing unit 24 is configured.
  • the memory unit 10 includes a flash memory, a RAM, and the like.
  • the dominant eye determination program according to the present invention, firmware, a dominant eye determination image for dominant eye determination including a left viewpoint image and a right viewpoint image, and each dominant eye determination image. It stores reference coordinates and user's dominant eye information, and functions as a memory for temporarily storing image data for display displayed on the stereoscopic display unit 14.
  • the dominant eye determination program or the like may be a program stored in a magneto-optical recording medium such as an HDD or CD / DVD / BD.
  • the display control unit 12 has a dominant-eye determination image, a stereoscopic image (3D image), a dominant-eye viewpoint image (2D image), a normal 2D image, and the like for the GUI. This is a part for displaying an image or the like, and a central processing unit (CPU) or the like is considered.
  • CPU central processing unit
  • the stereoscopic display unit 14 is a liquid crystal monitor that can display two viewpoint images (left viewpoint image and right viewpoint image) as directional images each having a predetermined directivity by a parallax barrier.
  • a device using a lenticular lens, or a device capable of separately viewing the left viewpoint image and the right viewpoint image by applying dedicated glasses such as polarized glasses or liquid crystal shutter glasses is applied. it can.
  • the speaker unit 16 generates sound based on the sound data when reproducing an image with sound (still image, moving image).
  • the input / output unit 18 is an interface for inputting / outputting information such as image data to / from an external device such as a personal computer.
  • the recording medium recording unit 20 reads and writes image data and the like with respect to a removable recording medium 30 such as a memory card.
  • the touch panel 22 is provided on the display surface of the stereoscopic display unit 14, and when the user touches an arbitrary position on the touch panel 22, the two-dimensional coordinate data of the touched position is converted to the dominant eye determination processing unit 24 and the stereoscopic touch. It is sent to the position coordinate determination unit 26.
  • the dominant eye determination processing unit 24 determines the dominant eye of the user who touched the touch panel 22 based on the coordinate data of the touched position acquired from the touch panel 22 during the dominant eye determination process. Details of the dominant eye determination will be described later.
  • FIG. 2 is a flowchart showing dominant eye determination processing and storage / registration of dominant eye information.
  • the dominant eye determination method and dominant eye determination program according to the present invention will be described with reference to the flowchart shown in FIG.
  • Step S10 Starts dominant eye setting / judgment.
  • the determination of the dominant eye is automatically performed during the process of the touch panel operation by the user when the start button is operated or the date is set when the stereoscopic display device 1 is actually started up. This is ideal, but it may be started by selecting a menu for dominant eye setting / determination.
  • Step S12 When the dominant eye setting / determination is started, the display control unit 12 first causes the stereoscopic display unit 14 to display a screen for selecting whether or not the user inputs information on the dominant eye.
  • the process proceeds to step S14, and in the case where the user does not input (in the case of “No”), the process proceeds to step S16. Transition.
  • the display control unit 12 causes the stereoscopic display unit 14 to display “Is the dominant eye right or left?” And prompts the user to select the dominant eye.
  • the user selects his / her dominant eye, information on the selected dominant eye is read, stored in the memory unit 10 or the recording medium 30, and the process ends.
  • Step S16 The display control unit 12 causes the stereoscopic display unit 14 to display a screen for selecting whether to use the previous dominant eye determination result or saved dominant eye information. If the previous or stored dominant eye information is used, the process proceeds to step S18. If not used, the process proceeds to step S20.
  • Step S18 The dominant eye information is read from the memory unit 10 or the recording medium 30 and the processing is terminated.
  • Step S20 The display control unit 12 causes the stereoscopic display unit 14 to display a screen for selecting whether to perform dominant eye determination.
  • the process proceeds to step S22, and when the dominant eye determination is performed, the process proceeds to step S24.
  • Step S24 As shown in FIG. 3, the display control unit 12 causes the stereoscopic display unit 14 to display a dominant eye determination image and a letter “please press the center of the cross”.
  • the dominant eye determination image is a stereoscopic image including a left viewpoint image and a right viewpoint image.
  • the dominant eye determination image is a mark image with a cross in a circle.
  • the dominant eye determination image and the reference coordinates (the center coordinates of the cross) of each image are stored in the memory unit 10.
  • the dominant eye determination image is not limited to that of this embodiment, and may be any image having a parallax as long as the user can specify the place to be pressed.
  • one or more icon images for operation displayed on the stereoscopic display unit 14 may be used as the dominant eye determination image. According to this, when a touch operation, a click operation, or the like of an icon image is performed, the dominant eye determination can be automatically performed inside.
  • Step S26 The dominant eye determination processing unit 24 detects whether or not the dominant eye determination image on the screen of the stereoscopic display unit 14 is pressed (whether or not the touch panel 22 is touched). When it is not pressed for a predetermined time or longer (in the case of “No”), the process proceeds to Step S28, and when it is pressed (in the case of “Yes”), the process proceeds to Step S30.
  • Step S28 If the dominant eye determination processing unit 24 determines that it is not possible to detect that the dominant eye determination image has been pressed, the dominant eye determination processing unit 24 determines the dominant eye as the right eye, reads the determination result, stores it in the memory unit 10 or the recording medium 30, and ends. To do. This is because there are more people with right-handed eyes than people with left-handed eyes, so by making the right eye dominant, it is possible to reduce determination errors even a little.
  • the dominant eye determination processing unit 24 acquires the pressed position coordinates of the dominant eye determination image via the touch panel 22, and based on the position coordinates and the reference positions of the left viewpoint image and the right viewpoint image of the dominant eye determination image. To determine the user's dominant eye.
  • the left viewpoint difference DL and the right viewpoint difference DR are calculated as shown in FIG. 4 and the following [Expression 1] and [Expression 2].
  • the left eye is determined as the dominant eye
  • the user's dominant information determined in this way is stored in the memory unit 10 or the recording medium 30 and the process is terminated.
  • the dominant eye can be determined by simply touching the dominant eye determination image displayed on the stereoscopic display unit 14, and the result can be registered.
  • FIG. 5 is a block diagram showing a second embodiment of the stereoscopic display device according to the present invention.
  • symbol is attached
  • the stereoscopic display device 2 of the second embodiment is different from that of the first embodiment in that a stereoscopic touch position coordinate determination unit 26 is added.
  • the stereoscopic touch position coordinate determination unit 26 determines the position coordinates on the stereoscopic image touched by the user based on the user's dominant eye information and the coordinate data of the touched position acquired from the touch panel 22.
  • FIG. 6 is a flowchart showing a processing procedure for determining the position coordinates on the stereoscopic image touched by the user, and will be described with reference to the flowchart shown in FIG.
  • Step S40 The stereoscopic display by the stereoscopic display device 2 is started. At the start of stereoscopic display, it is assumed that the user's dominant eye information is registered in the memory unit 10 or the recording medium 30 as described above.
  • the three-dimensional touch position coordinate determination unit 26 reads user's dominant eye information registered in advance from the memory unit 10 or the recording medium 30.
  • Step S44 The display control unit 12 reads a stereoscopic image from the memory unit 10 or the recording medium 30 or reads a stereoscopic image from an external device via the input / output unit 18 and causes the stereoscopic display unit 14 to display the read stereoscopic image. .
  • Step S46 The user touches the touch panel 22 when operating the displayed stereoscopic image, but the stereoscopic touch position coordinate determination unit 26 determines whether the user has touched the screen (touch panel 22) of the stereoscopic display unit 14. To do. And if it is detected that it was touched, it will change to Step S48.
  • Step S48 The coordinates (x, y) on the touched touch panel 22 are read as coordinates on the viewpoint image on the user's dominant eye side of the displayed stereoscopic image and stored in the memory unit 10.
  • the zoom center can be correctly indicated, and when a soft button, various icons, etc. are displayed stereoscopically, an erroneous operation such as a soft button Can be prevented.
  • FIG. 8 is a block diagram showing a third embodiment of the stereoscopic display device according to the present invention.
  • symbol is attached
  • the stereoscopic display device 3 of the third embodiment is different from that of the first embodiment in that a 3D / 2D display mode switching unit 28 is added.
  • the 3D / 2D display mode switching unit 28 selects either the left viewpoint image or the right viewpoint image when switching from the stereoscopic image (3D image) to the left viewpoint image of the 3D image or the 2D image of the right viewpoint image. Whether to display it is instructed to switch based on the user's dominant eye information.
  • FIG. 9 is a flowchart showing a processing procedure when switching from a stereoscopic image (3D image) display state to a left viewpoint image or a right viewpoint image 2D image, and will be described below with reference to the flowchart shown in FIG.
  • Step S50 The stereoscopic display by the stereoscopic display device 3 is started. It is assumed that the user's dominant eye information is registered in the memory unit 10 or the recording medium 30 at the start of stereoscopic display.
  • Step S52 The 3D / 2D display mode switching unit 28 reads user's dominant eye information registered in advance from the memory unit 10 or the recording medium 30.
  • Step S54 The display control unit 12 reads a stereoscopic image from the memory unit 10 or the recording medium 30 or reads a stereoscopic image from an external device via the input / output unit 18 and displays the read stereoscopic image (3D image) as a stereoscopic display unit. 14 is displayed.
  • Step S56 The user can issue a switching instruction from a stereoscopic image (3D image) to a left viewpoint image or a right viewpoint image by pressing a display mode switching button or a touch panel 22 (not shown).
  • the display control unit 12 determines whether or not there is a switching instruction from the 3D image to the 2D image by the user, and when there is no switching instruction to the 2D image (in the case of “No”), the display control unit 12 proceeds to step S54. If there is a switching instruction (if “Yes”), the process proceeds to step S58.
  • Step S58 When switching from a 3D image to a 2D image, the 3D / 2D display mode switching unit 28 stereoscopically displays a viewpoint image (2D image) on the user's dominant eye side based on the user's dominant eye information read in step S52. 3D display unit that displays on the unit 14 or instructs the display control unit 12 which one of the left viewpoint image and the right viewpoint image to be displayed, and displays only the viewpoint image on the user's dominant eye side. 14 is displayed.
  • the dominant eye is the right eye as shown in FIG. 10
  • the dominant eye viewpoint A right viewpoint image (2D image) as an image is displayed.
  • Step S60 The display control unit 12 determines whether or not there is a switching instruction from the 2D image to the 3D image by the user, and when there is no switching instruction to the 3D image (in the case of “No”), the display control unit 12 proceeds to step S58 and switches to the 3D image. If there is a switching instruction (if “Yes”), the process proceeds to step S54.
  • FIG. 11 is a flowchart showing the fourth embodiment of the present invention.
  • the configuration of the stereoscopic display device is the same as that of the third embodiment shown in FIG. 8, and only the processing contents are different as will be described later.
  • description will be given according to the flowchart shown in FIG.
  • Step S70 The stereoscopic display by the stereoscopic display device is started. It is assumed that the user's dominant eye information is registered in the memory unit 10 or the recording medium 30 at the start of stereoscopic display.
  • Step S72 The 3D / 2D display mode switching unit 28 reads user's dominant eye information registered in advance from the memory unit 10 or the recording medium 30.
  • Step S74 It is determined whether the first mode for 2D display when the touch panel 22 is continuously touched or the second mode for switching between 3D display and 2D display each time the touch panel 22 is touched is determined. This determination is based on a method of determining each mode based on a user's mode selection operation on the menu screen or the like displayed on the stereoscopic display unit 14 or by selecting and registering one of the modes in advance, and based on the registered mode. A method of discriminating them can be considered.
  • step S72 switches between 3D display and 2D display each time the touch panel 22 is touched.
  • step S84 switches between 3D display and 2D display each time the touch panel 22 is touched.
  • Step S76 The display control unit 12 reads a stereoscopic image from the memory unit 10 or the recording medium 30 or reads a stereoscopic image from an external device via the input / output unit 18 and displays the read stereoscopic image (3D image) as a stereoscopic display unit. 14 is displayed.
  • Step S78 The display control unit 12 determines whether or not the user is touching the touch panel 22 during the display of the stereoscopic image (3D image). If the touch panel 22 is touched (in the case of “Yes”), the process proceeds to step S80. If the touch panel 22 is not touched (in the case of “No”), the process proceeds to step S76.
  • Step S80 When switching from a 3D image to a 2D image, the 3D / 2D display mode switching unit 28 stereoscopically displays a viewpoint image (2D image) on the user's dominant eye side based on the user's dominant eye information read in step S72. 3D display unit that displays on the unit 14 or instructs the display control unit 12 which one of the left viewpoint image and the right viewpoint image to be displayed, and displays only the viewpoint image on the user's dominant eye side. 14 is displayed.
  • Step S82 The display control unit 12 determines whether or not the user is touching the touch panel 22 during display of the viewpoint image (2D image) on the user's dominant eye side. If the touch panel 22 is touched (in the case of “Yes”), the process proceeds to step S80. If the touch panel 22 is not touched (in the case of “No”), the process proceeds to step S76.
  • step S82 is not limited to the case where no touch is detected by the touch panel 22, but may be a case where no touch is detected for a certain period of time. According to this, it is possible to prevent switching to a 3D image during a series of touch panel operations.
  • Step S84 The display control unit 12 reads a stereoscopic image from the memory unit 10 or the recording medium 30 as in step S76, or reads a stereoscopic image from an external device via the input / output unit 18, and reads the stereoscopic image (3D image) that has been read. ) Is displayed on the stereoscopic display unit 14.
  • Step S86 The display control unit 12 determines whether or not the user has touched (clicked) the touch panel 22 during the display of the stereoscopic image (3D image). When the touch panel 22 is clicked (in the case of “Yes”), the process proceeds to step S88. When the touch panel 22 is not clicked (in the case of “No”), the process proceeds to step S84.
  • Step S88 When the touch panel 22 is one-touched (one-click) during display of the stereoscopic image (3D image), the display control unit 12 determines the user's dominant side from the stereoscopic image (3D image) displayed on the stereoscopic display unit 14. To display the viewpoint image (2D image).
  • the right viewpoint image (2D image) on the dominant eye side can be displayed from the stereoscopic image (3D image) by one touch of the touch panel 22.
  • Step S90 The display control unit 12 determines whether or not the user touches (clicks) the touch panel 22 while the user's dominant eye viewpoint image (2D image) is displayed.
  • the touch panel 22 is clicked (in the case of “Yes”), the process proceeds to step S84, and when not clicked (in the case of “No”), the process proceeds to step S88.
  • a stereoscopic image (3D image) and a dominant-eye viewpoint image (2D image) can be alternately switched and displayed by a single touch on the touch panel 22 (one click), improving operability. To do.
  • FIG. 13 is a block diagram showing an embodiment (fifth embodiment) of a stereoscopic photographing apparatus according to the present invention.
  • symbol is attached
  • a stereoscopic imaging device 5 illustrated in FIG. 13 is a device having the stereoscopic display device 1 illustrated in FIG. 1.
  • a stereoscopic imaging unit 32 and a 2D through image display viewpoint selection unit. 34 is provided.
  • the stereoscopic photographing unit 32 is a pair of left and right photographing units that can simultaneously photograph, for example, two viewpoint images (a left viewpoint image and a right viewpoint image), and the left viewpoint image and the right viewpoint image captured by the stereoscopic photographing unit 32. Is recorded on the recording medium 30 after image processing as appropriate.
  • the stereoscopic display unit 14 is provided on the back surface of the stereoscopic imaging device 5, and functions as a display device when reproducing stereoscopic images, and is continuously captured by the stereoscopic imaging unit 32 during imaging.
  • a 3D image or 2D image (through image) as a moving image is displayed and functions as a viewfinder.
  • the stereoscopic imaging device 5 has a 3D imaging mode for imaging a stereoscopic image (3D image) and a 2D imaging mode for imaging a 2D image of a left viewpoint image or a right viewpoint image.
  • a shooting mode switching unit for selection is provided.
  • the 2D through image display viewpoint selection unit 34 selects either the left viewpoint image or the right viewpoint image when switching from the through image of the stereoscopic image (3D image) to the through image of the 2D image of the left viewpoint image or the right viewpoint image. Whether to display a through image of an image is instructed to switch based on the user's dominant eye information.
  • FIG. 15 is a flowchart illustrating a processing procedure when a stereoscopic image or a 2D image is captured by the stereoscopic imaging device 5, and will be described below with reference to the flowchart illustrated in FIG.
  • Step S100 The stereoscopic image taking device 5 starts taking a through image. It is assumed that the user's dominant eye information is registered in the memory unit 10 or the recording medium 30 at the start of photographing.
  • Step S102 The 2D through image display viewpoint selection unit 34 reads user's dominant eye information registered in advance from the memory unit 10 or the recording medium 30.
  • Step S104 The stereoscopic imaging device 5 determines whether or not the shooting mode switching button from the 3D shooting mode to the 2D shooting mode is pressed. If the button for switching to the 2D shooting mode is pressed (in the case of “Yes”), the process proceeds to step S106. If the button is not pressed (in the case of “No”), the process proceeds to step S108.
  • Step S106 Based on the user's dominant eye information read in step S102, the 2D through image display viewpoint selecting unit 34 causes the stereoscopic image capturing unit 32 to capture a viewpoint image (2D image) on the user's dominant eye side, and the through image is displayed. It is displayed on the stereoscopic display unit 14.
  • a right viewpoint image (2D image) is displayed on the stereoscopic display unit 14 as a through image.
  • the shutter release button is pressed, only the viewpoint image (2D image) on the user's dominant eye side is captured and recorded on the recording medium 30.
  • the stereoscopic imaging device 5 continuously captures a stereoscopic image (left and right two viewpoint images) by the stereoscopic imaging unit 32, and displays the captured stereoscopic image (3D image) on the stereoscopic display unit 14 as a through image.
  • a stereoscopic image (3D image) is captured and recorded on the recording medium 30.
  • the viewpoint image (2D image) on the dominant side of the user can be displayed on the stereoscopic display unit 14, and the ease of shooting the 2D image can be improved. improves.
  • the user looks at things with his dominant eye there is an advantage that the user is less tired because there is no sense of incongruity and a large amount of information can be acquired.
  • this method is not limited to the still image shooting mode, but can also be applied to display when switching between a 3D image and a 2D image in the moving image shooting mode.
  • FIG. 16 is a block diagram showing a sixth embodiment of a stereoscopic display device according to the present invention.
  • symbol is attached
  • the stereoscopic display device 6 of the sixth embodiment is different from the first embodiment in that an image replacement unit 36 is added.
  • the stereoscopic image of the subject portion is displayed on the dominant eye side.
  • the quality of the stereoscopic image is improved.
  • the image replacement unit 36 illustrated in FIG. 16 includes a parallax amount detection unit that detects the right and left parallax amounts of the stereoscopic image (3D image), and a predetermined parallax amount (specified number of pixels) among the detected parallax amounts. Or a region extraction unit that extracts a subject region that exceeds the parallax amount of the double-viewed region designated by the user, and the stereoscopic image of the extracted subject region is read from the memory unit 10 or the recording medium 30. Only the dominant-eye viewpoint image corresponding to the pre-registered user's dominant eye information is replaced.
  • FIG. 18 is a flowchart showing the sixth embodiment of the present invention, which will be described with reference to the flowchart shown in FIG.
  • Step S110 The stereoscopic display by the stereoscopic display device 6 is started. It is assumed that the user's dominant eye information is registered in the memory unit 10 or the recording medium 30 at the start of stereoscopic display.
  • the image replacement unit 36 reads user's dominant eye information registered in advance from the memory unit 10 or the recording medium 30.
  • Step S114 The display control unit 12 causes the stereoscopic display unit 14 to display a screen for accepting an instruction input for automatically selecting a replacement part or in a replacement mode (whether it is a replacement mode in which a replacement part is manually specified). Prompt.
  • the process proceeds to step S116, and when the replacement mode for manually specifying the replacement part is selected (“No” In the case), the process proceeds to step S122.
  • the region extraction unit of the image replacement unit 36 obtains a location where the parallax amount is equal to or larger than a preset parallax amount from the stereoscopic image.
  • the preset amount of parallax may be set to 10 pixels by default, for example, and the default value may be arbitrarily set by the user. This is because the fusion limit that can be stereoscopically viewed varies depending on the user.
  • Step S118 Based on the user's dominant eye information read in step S112, the image replacement unit 36 replaces the viewpoint image that is not the user's dominant eye side of the determined location with the viewpoint image (2D image) of the user's dominant eye side. .
  • the image of the cylindrical portion of the left viewpoint image is the right viewpoint image. Replace with the image of the cylindrical part of.
  • Step S120 The display control unit 12 causes the stereoscopic display unit 14 to display the stereoscopic image that has been replaced in step S118. Thereby, there is no place that looks double, and the quality of the stereoscopic image can be improved.
  • This method is based on the idea that “2D images are better than double-looking”.
  • Step S122 When the replacement mode for manually specifying the replacement portion is selected, the stereoscopic display device 6 accepts an input of a range that looks double according to an instruction on the touch panel 22 by the user.
  • Step S124 The image replacement unit 36, based on the user's dominant eye information read in step S112, the stereoscopic image of the range (input place) received in step S122, the viewpoint image that is not the dominant eye side of the user at the input place, The viewpoint image (2D image) on the user's dominant eye side is replaced.
  • the viewpoint image (2D image) on the user's dominant eye side is replaced.
  • Step S126 The display control unit 12 causes the stereoscopic display unit 14 to display the stereoscopic image that has been replaced in step S124. Thereby, there is no place where the range is specified by the user, and the quality of the stereoscopic image can be improved.
  • the touch panel 22 on the stereoscopic display device 6 is used as a coordinate input device for position coordinates arbitrarily input by the user. Even if a cursor is displayed in 2D, the cursor is moved with a cross key or the like and a position coordinate is input by pressing an OK button, or a spatial sensor for detecting a user's fingertip position is applied as a coordinate input device. Good.
  • FIG. 20 is a diagram showing a dominant eye determination image and a state in which the dominant eye determination image is touched, and a modification example in which an operation button image is used instead of the mark image having a cross in the circle shown in FIG. 1 is shown.
  • an image showing buttons for operation such as a start button and a login button is displayed on the stereoscopic display unit 14 as a dominant eye determination image.
  • This button image is composed of a left viewpoint image and a right viewpoint image having a predetermined parallax, and has reference coordinates (center coordinates of the button image) of each image.
  • the display control unit 12 causes the stereoscopic display unit 14 to display a button image as a dominant eye determination image and a letter “please press the button”.
  • a button image that must be pressed such as a start button or a login button, it is not necessary to display the characters “please press the button”, and the button name or the like may be displayed.
  • the dominant eye is automatically determined on the device side, and the result can be registered.
  • the final dominant eye is determined by majority determination of the dominant eye determination results respectively determined by touch operations of a plurality of button images (which may be the same type of button images or different types of button images). You may make it perform determination.
  • FIGS. 21 and 22 are diagrams showing a modified example 2 of the dominant eye determination image.
  • FIG. 21 shows a display screen of the stereoscopic display unit 14, and
  • FIG. 22 touches the dominant eye determination image displayed on the display screen. It shows how it is.
  • an image (slide bar image) showing five uniaxial slide bars is displayed on the stereoscopic display unit 14 as the dominant eye determination image.
  • These slide bar images are made up of slide bar images that adjust the parallax amount, brightness, contrast, white balance, and volume of the stereoscopic image, and each slide bar image has a left viewpoint image and a right image with a predetermined parallax. It is composed of viewpoint images and has reference coordinates (center coordinates of the knob of the slide bar image) of each image.
  • the display control unit 12 causes the stereoscopic display unit 14 to display the above slide bar image as the dominant eye determination image and the characters “Please make various adjustments”.
  • the dominant eye determination processing unit 24 When the user touches the slider of the slide bar image and moves (drags) the knob, adjustment corresponding to the position of the knob is performed, and the dominant eye determination processing unit 24 first applies the knob of the slide bar image.
  • the touched position coordinates are acquired via the touch panel 22, and the user's handedness is based on the position coordinates and the position of the knob of the slide bar image (the reference positions of the left viewpoint image and the right viewpoint image of the knob before the touch).
  • Judge the eyes This dominant eye determination method can be performed in the same manner as the method described based on FIG. 4 and [Expression 1] and [Expression 2].
  • the dominant eye is automatically determined on the device side, and the result can be registered.
  • the final dominant eye determination may be performed by majority determination of the dominant eye determination result determined based on each touch operation.
  • FIG. 23 is a diagram showing a modified example 3 of the dominant eye determination image, and shows a biaxial slide bar image.
  • the stereoscopic display unit 14 displays an image (slide bar image) indicating a biaxial slide bar as the dominant eye determination image.
  • This slide bar image adjusts the contrast of the stereoscopic image by the position of the left and right direction of the knob, and adjusts the brightness of the stereoscopic image by the position of the vertical direction. It is composed of a right viewpoint image and has reference coordinates (center coordinates of the knob of the slide bar image) of each image.
  • the dominant eye determination processing unit 24 displays the slide bar image.
  • the two-dimensional position coordinates that are first touched by the knob are obtained via the touch panel 22, and the position coordinates and the position of the slider of the slide bar image (the respective reference positions of the left viewpoint image and the right viewpoint image of the knob before touching). )
  • This dominant eye determination method can be performed in the same manner as the method described based on FIG. 4 and [Expression 1] and [Expression 2].
  • joystick image that can be viewed stereoscopically may be used instead of the two-axis type slide bar image of the third modification.
  • FIG. 24 is a diagram showing a modified example 4 of the dominant eye determination image. In this example, a line drawing showing a rabbit is shown.
  • a stereoscopically visible line drawing is displayed on the stereoscopic display unit 14 as the dominant eye determination image.
  • This line drawing is for the user to trace the outline, and is composed of a left viewpoint image and a right viewpoint image having a predetermined parallax, and has coordinates of the outline of the line drawing in each image. Yes.
  • the dominant eye determination processing unit 24 acquires the coordinates of the traced locus via the touch panel 22, and the coordinates of the traced locus and the coordinates of the outline of the line drawing ( The dominant eye of the user is determined based on the coordinates of each contour line of the left viewpoint image and the right viewpoint image.
  • This dominant eye determination method uses the average distance of the shortest distance between the traced trajectory coordinates and the contour line coordinates of the left viewpoint image of the line drawing, and the average distance of the shortest distance between the contour line coordinates of the right viewpoint image of the line drawing. The user's dominant eye is determined based on the smaller of these average distances (that is, whether the traced trace is close to the line drawing of the left viewpoint image or the line drawing of the right viewpoint image).
  • FIGS. 25 and 26 are diagrams showing a modified example 5 of the dominant eye determination image.
  • FIG. 25 shows a display screen of the stereoscopic display unit 14, and
  • FIG. 26 is insufficient for the dominant eye determination image displayed on the display screen. It shows how an image is added.
  • an incomplete picture or figure (in FIG. 25, an image of a rabbit without ears) is displayed on the stereoscopic display unit 14 as the dominant eye determination image.
  • This earless rabbit image is for the user to draw a missing part (ear), and is composed of a left viewpoint image and a right viewpoint image having a predetermined parallax, and in each image, It has the coordinates of the outline of the head (the part where the ear is drawn).
  • the display control unit 12 displays an image of a rabbit without ears as a dominant eye determination image on the stereoscopic display unit 14 and also displays the characters “please add rabbit ears”.
  • the display control unit 12 displays the drawn rabbit ear.
  • the dominant eye determination processing unit 24 obtains the coordinates of the drawn rabbit's ear trajectory (particularly the base of the ear) via the touch panel 22, and displays the drawn rabbit's ear.
  • the user's dominant eye is determined based on the coordinates of the ears and the coordinates of the contour lines of the left viewpoint image and the right viewpoint image of the rabbit head.
  • the base of the rabbit ear drawn as shown in FIG. 26 matches (or is close to) the outline of the left viewpoint image of the head of the rabbit, or matches the outline of the right viewpoint image.
  • the user's dominant eye is determined based on whether the user is (or close)
  • the user draws the rabbit ears.
  • the present invention is not limited to this.
  • An image (part image) of the rabbit ears is prepared in advance, and the rabbit image is dragged. You may make it attach to a head.
  • the incomplete picture is not limited to the rabbit picture without ears, and may be any picture.
  • a figure for example, one lacking one side of a polygon may be used. .
  • the dominant eye is automatically determined on the device side while enjoying drawing, and the result can be registered.
  • FIG. 27 is a flowchart showing the seventh embodiment of the present invention, and will be described below with reference to the flowchart shown in FIG.
  • Step S130 The dominant eye setting / determination by the stereoscopic display device 6 is started.
  • Step S132 When the dominant eye setting / determination is started, first, the display control unit 12 (see FIG. 1) displays a menu for selecting the dominant eye determination method on the stereoscopic display unit 14, and allows the user to select a desired dominant eye determination method. Let them choose.
  • the menu of the dominant eye determination method the dominant eye determination method using the button image of FIG. 20, the dominant eye determination method using the slide bar image of FIG. 21, an unfinished picture (the rabbit picture without ears of FIG. 25)
  • a dominant eye determination method using a default, a dominant dominant eye determination method for example, a dominant eye determination method using the dominant eye determination image shown in FIG. 3), and the like are presented and can be selected as appropriate.
  • Step S134 When the default dominant eye determination method is selected, the process shifts to the processing of the default dominant eye determination method. If the dominant eye determination is not performed, the process is terminated without performing the dominant eye determination.
  • Step S136 When the dominant eye determination method using the button image of FIG. 20 is selected in step S132, the display control unit 12 displays the button image as the dominant eye determination image on the three-dimensional display unit 14, and “ “Please press” is displayed.
  • the dominant eye determination processing unit 24 acquires the pressed position coordinates of the button image via the touch panel 22, and whether the position coordinates are close to the reference position of the left viewpoint image of the button image. Alternatively, the user's dominant eye determination is performed depending on whether the right viewpoint image is close to the reference position, the dominant eye determination result is stored, and the process ends.
  • Step S140 When the dominant eye determination method using the slide bar image of FIG. 21 is selected in step S132, the display control unit 12 displays the slide bar image as the dominant eye determination image on the stereoscopic display unit 14, and “ “Please make various adjustments” is displayed.
  • Step S142 When the user touches and operates the slide bar image knob, the dominant eye determination processing unit 24 acquires the first touched position coordinate via the touch panel 22, and this position coordinate is the position of the slide bar image knob. The user's dominant eye determination is performed based on whether the position is before the operation and is close to the position of the knob of the left viewpoint image or the position of the knob of the right viewpoint image.
  • step S132 when the dominant eye determination method using the rabbit picture without ears of FIG. 25 is selected, the display control unit 12 displays the rabbit picture without ears as the dominant eye determination image on the stereoscopic display unit 14. Is displayed, and the text “Please add rabbit ears” is displayed.
  • the dominant eye determination processing unit 24 acquires the coordinates of the base part of the ears of the added rabbit via the touch panel 22, and the coordinates of the base part of the ear are the ears.
  • the coordinates of the contour line of the head of the rabbit without an eye which is close to the coordinates of the contour line of the head of the left viewpoint image or close to the coordinates of the head line of the right viewpoint image make a determination, save the dominant eye determination result, and exit.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本発明の一の態様によれば、ユーザがタッチパネル(22)が設けられた立体表示部(14)に立体視表示された左視点画像及び右視点画像からなる利き目判定画像にタッチすると、そのタッチされた位置座標がタッチパネル(22)を介して取得される。利き目判定処理部(24)は、前記取得されたタッチ位置の座標と各利き目判定画像の基準座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じてユーザの利き目を判定する。これは、「立体視される利き目判定画像上でタッチした場所は、ユーザの利き目側の視点画像の基準座標に近くなる」という事実に基づいている。これにより立体表示装置を利用して簡単にユーザの利き目を判定することができ、また、その判定結果を利用することでユーザが意図した位置座標を取得可能にする。

Description

立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
 本発明は立体表示装置及び立体撮影装置並びに利き目判定方法に係り、特に立体表示装置を使用してユーザの利き目を判定する技術に関する。
 従来、操作部品を立体的に画面に表示し、操作者がタッチパネルにタッチすると、立体表示装置で立体視表示された操作部品への操作指示をそのタッチ位置を示す座標データに基づいて検出し、立体視合成部で形成される操作部品の視差像を変更し、立体表示装置に立体視表示される操作部品の形体を変化させる装置が提案されている(特許文献1)。例えば、操作部品が押しボタン型のスイッチの画像の場合、タッチパネルでそのスイッチの画像にタッチしてオン/オフさせると、オン/オフに応じてスイッチの画像を立体視表示又は平面表示に変更し、これにより操作性を向上させるようにしている。
 また、立体視差画像を表示部に表示し、タッチパネル上で操作が行われる前に平面画像に切り替えることによって、操作性の向上を図ることが可能な操作パネル装置が提案されている(特許文献2)。
 一方、運転者の両目の視線方向を検出し、その検出結果と、その検出期間に車両が進行した道路状況に応じた正常な運転状態における標準的な視線移動パターンとを比較し、両目の視線方向のうち、どちらが視線移動パターンに近いかを判定し、視線移動パターンにより近い方の視線方向を利き目であると判断するようにした視線方向検出装置が提案されている(特許文献3)。
特開平10-105735号公報 特開2004-280496号公報 特開2006-293909号公報
 図28の(A)に示すように立体表示物をタッチして操作するとき、立体表示物をタッチしたと思っている場所は、実際には左視点画像(図28の(B))か、右視点画像(図28の(C))のいずれか一方の視点画像上の立体表示物に対応する箇所を触っている。左視点画像上の対応箇所と右視点画像上の対応箇所のどちらが立体表示物上でタッチした場所に近いかと言うと、それはユーザの利き目に依存する。右目が利き目の人は、立体表示物(3D画像)をタッチしたと思った場所と右視点画像(2D画像)の場所とが一致もしくは非常に近いことが分かっている。同様に、左目が利き目の人は、左視点画像(2D画像)の場所が一致もしくは非常に近いことが分かっている。
 特許文献1に記載の発明は、立体表示物をタッチパネルで操作する際、上記のようにユーザの利き目によりタッチ位置に位置ずれが生じることについては何ら考慮されていない。
 特許文献2に記載の発明は、タッチパネル上で操作が行われる前に平面画像(2D画像)に切り替えるため、立体視画像上でタッチパネルを操作することは想定していない。
 一方、特許文献3には、運転者の両目の視線方向を検出する視線方向検出手段等を使用して運転者の利き目を判断する記載があるが、視線方向検出手段等が必要であり、簡単に利き目を判断することができない。
 本発明はこのような事情に鑑みてなされたもので、立体表示装置を利用して簡単にユーザの利き目を判定することができ、また、その判定結果を利用することでユーザが意図した立体表示画面上の位置座標を取得することができ、タッチパネル等の座標位置入力用デバイスでの操作性の向上を図ることができる立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びにその記録媒体を提供することを目的とする。
 前記目的を達成するために本発明の第1の態様に係る立体表示装置は、左視点画像及び右視点画像からなる立体視画像を表示する立体表示部と、前記立体表示部の表示面上の所望の位置座標を入力する座標入力部と、ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる表示制御部と、前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する取得部と、前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する判定部と、を備えたことを特徴としている。
 前記立体表示部に立体視表示された利き目判定画像に対して前記座標入力部を介してユーザにより位置座標を入力すると、その入力された位置座標が前記座標入力部を介して取得される。この取得された位置座標と各利き目判定画像の各々の基準座標とに基づいて、「前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いか」に応じてユーザの利き目を判定するようにしている。これは、「左視点画像及び右視点画像からなる利き目判定画像上で入力した位置座標は、これらの左視点画像及び右視点画像の基準座標のうち、ユーザの利き目側の視点画像の基準座標に近くなる」という事実に基づいている。
 本発明の第2の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のアイコン画像を表示させることを特徴としている。これによれば、通常のアイコン画像のクリックの操作が行われると、ユーザに利き目判定を全く意識させずに内部で自動的に利き目判定を行うことができ、その判定結果を他の制御に活かすことができる。
 本発明の第3の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部にスタートボタン、ログインボタン等のボタン画像を表示させることを特徴としている。ユーザは、前記立体表示部に表示されるボタン画像を利き目判定を意識せずにタッチ操作するため、第3の態様に係る立体表示装置は、ユーザに利き目判定を意識させずに内部で自動的に利き目判定を行うことができる。尚、ボタン画像としては、例えばスタートボタンやログインボタンのように必ずタッチするものが好ましい。
 本発明の第4の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のつまみを含むスライドバー画像を表示させることを特徴としている。前記スライドバーのつまみにタッチする位置によりユーザの利き目判定を行うことができる。
 本発明の第5の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に線画を表示させ、前記判定部は、前記線画を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の輪郭線の座標と、前記線画をなぞることにより前記座標入力部により連続して取得された座標との平均距離に基づいて前記線画をなぞったユーザの利き目を判定することを特徴としている。前記立体表示部に表示される線画をなぞると、なぞった軌跡が左視点画像の線画に近いか、右視点画像の線画に近いかによりユーザの利き目を判定するようにしている。尚、線画としては、なぞりやすい絵、図形等が好ましい。
 本発明の第6の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に未完成の絵又は図形を表示させ、前記判定部は、前記未完成の絵又は図形を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と、前記座標入力部により前記未完成の絵又は図形が完成するように追加された絵又は図形の位置座標とに基づいて前記追加したユーザの利き目を判定することを特徴としている。左視点画像及び右視点画像の未完成の絵又は図形に対して追加される絵又は図形の位置座標が、左視点画像に近いか、又は右視点画像に近いかによりユーザの利き目を判定するようにしている。
 本発明の第7の態様に係る立体表示装置は第1乃至第6の態様のいずれかに係る立体表示装置において、前記判定部は、前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定することができなかった場合には右目を利き目として判定することを特徴としている。即ち、利き目の判定ができなかった場合には、右目を利き目とする人が左目を利き目とする人よりも多いため、右目を利き目として判定し、少しでも判定ミスを低減するようにしている。
 本発明の第8の態様に係る立体表示装置は第1乃至第7の態様のいずれかに係る立体表示装置において、ユーザの利き目の情報を装置内部に保存登録する保存登録部を備えたことを特徴としている。ユーザの利き目の情報を装置内に登録することができ、これにより毎回利き目の判定を行う必要がなくなる。
 本発明の第9の態様に係る立体表示装置は第8の態様に係る立体表示装置において、前記保存登録部は、前記判定部による判定結果に基づいて自動的に利き目の情報を保存登録することを特徴としている。
 本発明の第10の態様に係る立体撮像装置は第8又は第9の態様に係る立体表示装置において、前記保存登録部は、ユーザからの指示入力により該ユーザの利き目の情報を受け付ける利き目情報入力部を有し、前記利き目情報入力部により受け付けたユーザの利き目の情報を保存登録することを特徴としている。
 第9又は第10の態様によれば、ユーザの利き目の情報を自動的に登録し、又はユーザが自分で利き目を判断して登録することができる。
 本発明の第11の態様に係る立体表示装置は第8乃至第10の態様のいずれかに係る立体表示装置において、前記立体表示部に表示された立体視画像上の所望の対象画像の位置座標を前記座標入力部を介して受け付ける位置入力部を備え、前記位置入力部により受け付けた位置座標を、前記立体視画像の左視点画像及び右視点画像のうちの前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像上の座標位置として取り扱うことを特徴としている。これにより、ユーザが意図した位置座標と装置側が判断する視点画像上の位置座標とのずれを低減することができ、前記座標入力部の操作性の向上を図ることができる。
 本発明の第12の態様に係る立体表示装置は第1乃至第11の態様のいずれかに係る立体表示装置において、前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであることを特徴としている。
 本発明の第13の態様に係る立体表示装置は第8乃至第12の態様のいずれかに係る立体表示装置において、前記立体表示部に左視点画像及び右視点画像からなる立体視画像を表示させる3D表示モードと、前記立体視画像を構成する左視点画像及び右視点画像のうちのいずれか一方の視点画像を表示させる2D表示モードとを切り替える表示モード切替部を備え、前記表示制御部は、前記表示モード切替部により2D表示モードへの切替時に、前記保存登録部に登録されたユーザの利き目の情報に基づいて前記左視点画像及び右視点画像のうちのユーザの利き目側の視点画像を前記立体表示部に表示させることを特徴としている。
 これにより、立体視画像(3D画像)から左視点画像又は右視点画像のいずれかの視点画像(2D画像)への表示切替時の見易さを向上させることができる。
 本発明の第14の態様に係る立体表示装置は第13の態様に係る立体表示装置において、前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであり、前記表示モード切替部は、前記タッチパネルによりタッチが検知されるごとに前記2D表示モードと3D表示モードとを交互に切り替えることを特徴としている。これにより、2D表示モードと3D表示モードとの切り替えを簡単に行うことができる。
 本発明の第15の態様に係る立体表示装置は第13の態様に係る立体表示装置において、前記表示モード切替部は、前記タッチパネルによりタッチが検知されると、前記2D表示モードに切り替え、前記タッチパネルによりタッチが検知されないと、又は一定時間以上タッチが検知されないと、前記3D表示モードに切り替えることを特徴としている。これにより、タッチパネルに触れ続けている場合、又は一定時間以上の間隔を空けずに連続的にタッチパネルを操作している場合には、利き目側の視点画像(2D画像)のみが表示されるため、操作性が向上する。
 本発明の第16の態様に係る立体表示装置は第8乃至第15の態様のいずれかに係る立体表示装置において、前記立体表示部に表示させる左視点画像及び右視点画像からなる立体視画像の左右の視差量を検出する視差量検出部と、前記視差量検出部により検出された視差量のうち、予め設定された視差量又はユーザにより指定された二重に見える領域の視差量を越える視差量を有する領域を抽出する領域抽出部と、前記領域抽出部により抽出された領域の立体視画像を、前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像のみに置き換える画像置換え部と、を備えたことを特徴としている。
 立体視画像内で視差量の大きい領域が二重に見える場合がある。二重に見えるよりは、2D画像の方が良いため、二重に見える領域を利き目側の視点画像(2D画像)に置き換えるようにしている。ここで、2D画像に置き換える領域は、予め設定された視差量を越える領域として自動抽出するようにしてもよいし、ユーザが二重に見える領域を前記座標入力部で指定するようにしてもよい。
 本発明の第17の態様に係る立体撮像装置は第8乃至第16の態様のいずれかに係る立体表示装置を備えた立体撮影装置において、2次元画像を撮影する2D撮影モードと、左視点画像と右視点画像からなる立体視画像を撮影する3D撮影モードとを切り替える撮影モード切替部と、前記撮影モード切替部により前記2D撮影モードに切り替えられると、前記左視点画像及び右視点画像のうち前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像を前記立体表示部にスルー画像として表示させる制御部と、を備えたことを特徴としている。
 これによれば、立体撮影装置による2D撮影モードによる2D画像の撮影がしやすくなるとともに、利き目の方が疲れにくく、撮影者は情報量を多く取得することができる。
 本発明の第18の態様は、立体表示部と、前記立体表示部の表示面上の所望の位置座標を入力する座標入力部とを有する立体表示装置を使用した利き目判定方法であって、ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる工程と、前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する工程と、前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する工程と、を含むことを特徴としている。
 本発明の第19の態様は、第18の態様に係る利き目判定方法を前記立体表示装置に実行させるプログラムを提供する。
 本発明の第20の態様は、第19の態様に係る利き目判定プログラムのコンピュータ読取可能なコードを記録した記録媒体を提供する。
 本発明によれば、立体表示部に立体視表示された利き目判定用の利き目判定画像に対してユーザが所望の位置座標を指示入力するだけで、簡単にユーザの利き目を判定することができる。また、この判定結果を利用することで、立体視画像上の所望の位置座標を入力する場合に、ユーザが意図した位置座標を取得することができ、タッチパネル等の座標入力部での操作性の向上を図ることができる。
図1は本発明に係る立体表示装置の第1の実施の形態を示すブロック図であり; 図2は利き目判定処理と利き目情報の保存・登録を示すフローチャートであり; 図3は利き目判定画像とその利き目判定画像にタッチする様子を示す図であり; 図4は左視点差分DL,右視点差分DRの算出方法を説明するために用いた図であり; 図5は本発明に係る立体表示装置の第2の実施の形態を示すブロック図であり; 図6はユーザがタッチした立体視画像上の位置座標を決定する処理手順を示すフローチャートであり; 図7は立体視画像上でタッチした位置が左視点画像上の位置か右視点画像上の位置かを示す図であり; 図8は本発明に係る立体表示装置の第3の実施の形態を示すブロック図であり; 図9は立体視画像(3D画像)の表示状態から左視点画像又は右視点画像の2D画像に切り替える場合の処理手順を示すフローチャートであり; 図10は立体視画像(3D画像)の表示状態からユーザの利き目側の視点画像(2D画像)への表示切替を示す図であり; 図11は本発明の第4の実施の形態を示すフローチャートであり; 図12は本発明の第4の実施の形態による立体視画像(3D画像)とユーザの利き目側の視点画像(2D画像)との表示切替を示す図であり; 図13は本発明に係る立体撮影装置の実施の形態(第5の実施の形態)を示すブロック図であり; 図14は本発明の第5の実施の形態によりスルー画を表示する立体撮影装置を示す図であり; 図15は立体撮影装置で立体視画像又は2D画像を撮影する場合の処理手順を示すフローチャートであり; 図16は本発明に係る立体表示装置の第6の実施の形態を示すブロック図であり; 図17は立体撮影装置により奥行き方向に離れた物体(被写体)を撮影する様子を示す図であり; 図18は本発明の第6の実施の形態を示すフローチャートであり; 図19は視差が大きくなる左視点画像の一部の画像を、右視点画像の対応する一部の画像に置き換える様子を示す図であり; 図20は利き目判定画像としてボタン画像を使用し、その利き目判定画像にタッチする様子を示す図であり; 図21は利き目判定画像として1軸のスライドバー画像を使用する場合の表示画面を示す図であり; 図22は利き目判定画像として1軸タイプのスライドバー画像を使用し、その利き目判定画像にタッチする様子を示す図であり; 図23は利き目判定画像として2軸タイプのスライドバー画像を使用する場合の立体表示部の表示画面を示す図であり; 図24は利き目判定画像としてウサギを示す線画を使用する場合の立体表示部の表示画面を示す図であり; 図25は利き目判定画像として未完成の絵(耳のないウサギの画像)を使用する場合の立体表示部の表示画面を示す図であり; 図26は立体表示部の表示画面に表示されている利き目判定画像に不足する画像(耳の画像)を追加する様子を示す図であり; 図27は本発明の第7の実施の形態を示すフローチャートであり; 図28は立体視画像上でタッチしたと思っている場所と、左右の視点画像上で実際にタッチされた位置との関係を示す図である。
 以下、添付図面に従って本発明に係る立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体の実施の形態について説明する。
 <第1の実施の形態>
 図1は本発明に係る立体表示装置の第1の実施の形態を示すブロック図である。図1に示すように、この立体表示装置1は、主としてメモリー部10、表示制御部12、立体表示部14、スピーカー部16、入出力部18、記録媒体記録部20、タッチパネル22、及び利き目判定処理部24から構成されている。
 メモリー部10は、フラッシュメモリー、RAM等を含み、本発明に係る利き目判定プログラム、ファームウエア、左視点画像及び右視点画像からなる利き目判定用の利き目判定画像、各利き目判定画像の基準座標、及びユーザの利き目情報を記憶するとともに、立体表示部14に表示する表示用の画像データ等を一時記憶するメモリーとして機能する。なお上記利き目判定プログラム等は、HDDやCD/DVD/BD等の光磁気記録媒体に記憶されたものを用いるようにしてもよい。
 表示制御部12は、立体表示部14に利き目判定用の利き目判定画像、立体視画像(3D画像)、利き目側の視点画像(2D画像)、通常の2D画像、その他、GUI用の画像等を表示させる部分であり、中央処理装置(CPU)などが考えられる。
 立体表示部14は、2視点画像(左視点画像、右視点画像)をパララックスバリアによりそれぞれ所定の指向性をもった指向性画像として表示できる液晶モニタである。尚、立体表示部14としては、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで左視点画像と右視点画像とを個別に見ることができるものなどが適用できる。
 スピーカー部16は、音声付き画像(静止画、動画)の再生時に音声データに基づいて音声を発生する。入出力部18は、パソコン等の外部機器との間で画像データ等の情報を入出力するインターフェースである。記録媒体記録部20は、メモリカード等の着脱自在な記録媒体30に対して画像データ等の読み書きを行う。
 タッチパネル22は、立体表示部14の表示面上に設けられており、ユーザがタッチパネル22上の任意の位置にタッチすると、そのタッチした位置の2次元座標データが利き目判定処理部24及び立体タッチ位置座標決定部26に送出される。
 利き目判定処理部24は、利き目判定処理時にタッチパネル22から取得されるタッチした位置の座標データに基づいてタッチパネル22をタッチしたユーザの利き目を判定する。尚、この利き目判定の詳細につては後述する。
 図2は利き目判定処理と利き目情報の保存・登録を示すフローチャートである。以下、図2に示すフローチャートにしたがって本発明に係る利き目判定方法・利き目判定プログラム等について説明する。
 [ステップS10]
 利き目設定・判定を開始する。利き目の判定は、実際には立体表示装置1を立ち上げた時などに、スタートボタンの操作や日付け設定などを行うときに、ユーザがタッチパネル操作を行う処理の中で自動的に行われるのが理想であるが、利き目設定・判定のメニューを選択することで開始するようにしてもよい。
 [ステップS12]
 表示制御部12は、利き目設定・判定が開始されると、まず立体表示部14に利き目の情報をユーザが入力か否かを選択する画面を表示させる。ここで、タッチパネル22でユーザが利き目の情報を入力する場合(「Yes」の場合)には、ステップS14に遷移し、ユーザが入力しない場合(「No」の場合)には、ステップS16に遷移する。
 [ステップS14]
 表示制御部12は、立体表示部14に「利き目は右ですか?左ですか?」を表示させ、ユーザに利き目の選択を促す。ユーザが自分の利き目を選択すると、その選択した利き目の情報を読み込み、メモリー部10又は記録媒体30に保存して終了する。
 [ステップS16]
 表示制御部12は、立体表示部14に前回の利き目判定結果もしくは、保存済みの利き目の情報を使うかを選択する画面を表示させる。前回又は保存済みの利き目の情報を使う場合には、ステップS18に遷移し、使わない場合にはステップS20に遷移する。
 [ステップS18]
 利き目情報をメモリー部10又は記録媒体30から読み込み終了する。
 [ステップS20]
 表示制御部12は、立体表示部14に利き目判定を行うか否かを選択させる画面を表示させる。利き目判定を行わない場合にはステップS22に遷移し、利き目の判定を行う場合にはステップS24に遷移する。
 [ステップS22]
 利き目の設定を行わずに終了する。
 [ステップS24]
 図3に示すように表示制御部12は、立体表示部14に利き目判定画像と、「十字の中心を押してください」という文字を表示させる。
 この利き目判定画像は、左視点画像及び右視点画像からなる立体視画像であり、この実施形態では、丸に十字が入ったマーク画像である。尚、利き目判定画像及び各画像の基準座標(十字の中心座標)は、メモリー部10に保存されている。また、利き目判定画像は、この実施形態のものに限らず、視差を持つ画像であり、ユーザの押す場所が指定できるものであれば如何なるものでもよい。
 例えば、立体表示部14に表示される操作用の1ないし複数のアイコン画像を利き目判定画像として利用するようにしてもよい。これによれば、アイコン画像のタッチ操作、クリック操作等が行われているときに、内部で自動的に利き目判定を行うことができる。
 [ステップS26]
 利き目判定処理部24は、立体表示部14の画面上の利き目判定画像が押されたか否か(タッチパネル22がタッチされたか否か)を検知する。所定時間以上、押されない場合(「No」の場合)には、ステップS28に遷移し、押された場合(「Yes」の場合)には、ステップS30に遷移する。
 [ステップS28]
 利き目判定処理部24は、利き目判定画像が押されたことが検知できないと判断すると、利き目を右目として判定し、その判定結果を読み込んでメモリー部10又は記録媒体30に保存して終了する。これは、右目を利き目とする人が左目を利き目とする人よりも多いため、右目を利き目とすることで、少しでも判定ミスを低減するためである。
 [ステップS30]
 利き目判定処理部24は、利き目判定画像の押された位置座標をタッチパネル22を介して取得し、この位置座標と利き目判定画像の左視点画像及び右視点画像の各基準位置とに基づいてユーザの利き目を判定する。
 即ち、図4及び下記の[数1]式、[数2]に示すように左視点差分DL,右視点差分DRを算出する。
 [数1]
 左視点差分DL=|((1)左視点画像の押された座標)-((2)左視点画像の十字の中心)|

Figure JPOXMLDOC01-appb-I000001
 [数2]
 右視点差分DR=|((1)右視点画像の押された座標)-((2)右視点画像の十字の中心)|
        
Figure JPOXMLDOC01-appb-I000002
 そして、DL<DRの場合は、左目を利き目と判定し、DR≦DLの場合は、右目を利き目と判定する。尚、DR=DLの場合には、利き目の判定は不能であるが、この場合には、ステップS28と同様に、利き目を右目として判定する。
 このようにして判定したユーザの利き目の情報をメモリー部10又は記録媒体30に保存して終了する。
 本方法を使用すると、立体表示部14に表示された利き目判定画像をタッチするだけで、利き目の判別ができ、その結果を登録することができる。
 <第2の実施の形態>
 図5は本発明に係る立体表示装置の第2の実施の形態を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図5に示すように第2の実施の形態の立体表示装置2は、第1の実施の形態のものに比べて立体タッチ位置座標決定部26が追加されている点で相違する。
 立体タッチ位置座標決定部26は、ユーザの利き目の情報とタッチパネル22から取得されるタッチした位置の座標データとに基づいてユーザがタッチした立体視画像上の位置座標を決定する。
 図6はユーザがタッチした立体視画像上の位置座標を決定する処理手順を示すフローチャートであり、以下、図6に示すフローチャートにしたがって説明する。
 [ステップS40]
 立体表示装置2による立体視表示を開始する。尚、立体視表示の開始時には、前述したようにメモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
 [ステップS42]
 立体タッチ位置座標決定部26は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
 [ステップS44]
 表示制御部12は、メモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像を立体表示部14に表示させる。
 [ステップS46]
 ユーザは、表示された立体視画像を操作する際にタッチパネル22をタッチするが、立体タッチ位置座標決定部26は、ユーザが立体表示部14の画面(タッチパネル22)をタッチしたか否かを判定する。そして、タッチされたことが検知されると、ステップS48に遷移する。
 [ステップS48]
 タッチされたタッチパネル22上の座標(x,y)を、表示されている立体視画像のうちのユーザの利き目側の視点画像上の座標として読み込み、メモリー部10に保存する。
 即ち、図7に示すように利き目が右目の場合、立体表示部14に表示された立体視画像(左視点画像及び右視点画像)上の任意の位置がタッチされると、そのタッチ座標(x,y)は、右視点画像上の座標として扱う。これにより、ユーザが立体視画像上でタッチしたと思った場所と、実際にタッチ位置として検知される視点画像上の場所とのずれがなくなり、又はずれを低減することができ、タッチパネル22による立体視画像の操作性が向上する。
 例えば、ある被写体にタッチし、その被写体をズーム表示させる場合に、ズーム中心を正しく指示することができ、また、ソフトボタンや各種アイコン等が立体視表示されている場合に、ソフトボタン等の誤操作を防止することができる。
 <第3の実施の形態>
 図8は本発明に係る立体表示装置の第3の実施の形態を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図8に示すように第3の実施の形態の立体表示装置3は、第1の実施の形態のものに比べて3D・2D表示モード切替部28が追加されている点で相違する。
 3D・2D表示モード切替部28は、立体視画像(3D画像)からその3D画像の左視点画像又は右視点画像の2D画像への切替時に、左視点画像又は右視点画像のいずれの視点画像を表示させるかをユーザの利き目情報に基づいて切替指示するものである。
 図9は立体視画像(3D画像)の表示状態から左視点画像又は右視点画像の2D画像に切り替える場合の処理手順を示すフローチャートであり、以下、図9に示すフローチャートにしたがって説明する。
 [ステップS50]
 立体表示装置3による立体視表示を開始する。尚、立体視表示の開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
 [ステップS52]
 3D・2D表示モード切替部28は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
 [ステップS54]
 表示制御部12は、メモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像(3D画像)を立体表示部14に表示させる。
 [ステップS56]
 ユーザは、図示しない表示モード切替えボタン又はタッチパネル22などを押して、立体視画像(3D画像)から左視点画像又は右視点画像の2D画像への切替え指示を行うことができる。表示制御部12は、ユーザによる3D画像から2D画像への切替指示の有無を判別し、2D画像への切替指示がない場合(「No」の場合)にはステップS54に遷移させ、2D画像への切替指示がある場合(「Yes」の場合)にはステップS58に遷移させる。
 [ステップS58]
 3D・2D表示モード切替部28は、3D画像から2D画像に切り替える場合には、ステップS52で読み込んだユーザの利き目情報に基づいてそのユーザの利き目側の視点画像(2D画像)を立体表示部14に表示させ、又は表示制御部12に対して左視点画像又は右視点画像のうちのいずれの視点画像を表示させるかの指示を与え、ユーザの利き目側の視点画像のみを立体表示部14に表示させる。
 図10に示すように利き目が右目であるとすると、立体表示部14に表示された立体視画像(3D画像)から左視点画像又は右視点画像の2D画像に切り替える場合、利き目側の視点画像である右視点画像(2D画像)を表示させる。
 [ステップS60]
 表示制御部12は、ユーザによる2D画像から3D画像への切替指示の有無を判別し、3D画像への切替指示がない場合(「No」の場合)にはステップS58に遷移させ、3D画像への切替指示がある場合(「Yes」の場合)にはステップS54に遷移させる。
 本方法を使用すると、立体視画像(3D画像)の表示状態から2D画像に表示切替をするときに、表示モードの切り替わりに伴う違和感を低減することができ、見易さを向上させることができる。
 <第4の実施の形態>
 図11は本発明の第4の実施の形態を示すフローチャートである。尚、立体表示装置の構成は、図8に示した第3の実施の形態のものと同一であり、後述するように処理内容のみが相違する。以下、図11に示すフローチャートにしたがって説明する。
 [ステップS70]
 立体表示装置による立体視表示を開始する。尚、立体視表示の開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
 [ステップS72]
 3D・2D表示モード切替部28は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
 [ステップS74]
 タッチパネル22にタッチし続けているときに2D表示する第1のモードにするか、タッチパネル22をタッチするごとに3D表示と2D表示とを切り替える第2のモードにするかを判別する。この判別は、立体表示部14に表示されたメニュー画面等で毎回ユーザによるモードの選択操作に基づいて判別する方法や、事前にいずれか一方のモードを選択登録し、その登録されたモードに基づいて判別する方法が考えられる。
 タッチし続けているときに2D表示する第1のモードが選択された場合(「Yes」の場合)には、ステップS72に遷移し、タッチパネル22をタッチするごとに3D表示と2D表示とを切り替える第2のモードが選択された場合(「No」の場合)には、ステップS84に遷移する。
 [ステップS76]
 表示制御部12は、メモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像(3D画像)を立体表示部14に表示させる。
 [ステップS78]
 表示制御部12は、立体視画像(3D画像)の表示中にユーザがタッチパネル22にタッチしているか否かを判別する。タッチパネル22にタッチしている場合(「Yes」の場合)には、ステップS80に遷移し、タッチしていない場合(「No」の場合)には、ステップS76に遷移する。
 [ステップS80]
 3D・2D表示モード切替部28は、3D画像から2D画像に切り替える場合には、ステップS72で読み込んだユーザの利き目情報に基づいてそのユーザの利き目側の視点画像(2D画像)を立体表示部14に表示させ、又は表示制御部12に対して左視点画像又は右視点画像のうちのいずれの視点画像を表示させるかの指示を与え、ユーザの利き目側の視点画像のみを立体表示部14に表示させる。
 [ステップS82]
 表示制御部12は、ユーザの利き目側の視点画像(2D画像)の表示中にユーザがタッチパネル22にタッチしているか否かを判別する。タッチパネル22にタッチしている場合(「Yes」の場合)には、ステップS80に遷移し、タッチしていない場合(「No」の場合)には、ステップS76に遷移する。
 これにより、ユーザがタッチパネル22を連続操作している期間中は、2D画像の表示が維持され、操作時の画面の見易さ、操作性が向上する。尚、ステップS82での「タッチしていない」の判断は、タッチパネル22によりタッチが検知されない場合に限らず、一定時間以上タッチが検知されない場合としてもよい。これによれば、一連のタッチパネルの操作中に3D画像に切り替わるのを防止することができる。
 [ステップS84]
 表示制御部12は、ステップS76と同様にメモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像(3D画像)を立体表示部14に表示させる。
 [ステップS86]
 表示制御部12は、立体視画像(3D画像)の表示中にユーザがタッチパネル22にタッチ(クリック)したか否かを判別する。タッチパネル22をクリックした場合(「Yes」の場合)には、ステップS88に遷移し、クリックしていない場合(「No」の場合)には、ステップS84に遷移する。
 [ステップS88]
 表示制御部12は、立体視画像(3D画像)の表示中にタッチパネル22がワンタッチ(ワンクリック)されると、立体表示部14に表示された立体視画像(3D画像)からユーザの利き目側の視点画像(2D画像)の表示に切り替える。
 図12に示すように利き目が右目であるとすると、タッチパネル22のワンタッチにより立体視画像(3D画像)から利き目側の右視点画像(2D画像)を表示させることができる。
 [ステップS90]
 表示制御部12は、ユーザの利き目側の視点画像(2D画像)の表示中にユーザがタッチパネル22にタッチ(クリック)したか否かを判別する。タッチパネル22をクリックした場合(「Yes」の場合)には、ステップS84に遷移し、クリックしない場合(「No」の場合)には、ステップS88に遷移する。
 本方法を使用すると、タッチパネル22へのタンタッチ(ワンクリック)で、立体視画像(3D画像)と利き目側の視点画像(2D画像)とを交互に切り替え表示させることができ、操作性が向上する。
 <第5の実施の形態>
 図13は本発明に係る立体撮影装置の実施の形態(第5の実施の形態)を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図13に示す立体撮影装置5は、図1に示した立体表示装置1を持つ装置であり、図1に示した立体表示装置1の他に、立体撮影部32及び2Dスルー画表示視点選択部34を備えている。
 立体撮影部32は、例えば2視点画像(左視点画像及び右視点画像)を同時に撮影することができる左右一対の撮影部であり、この立体撮影部32により撮影された左視点画像及び右視点画像は、適宜画像処理されたのち記録媒体30に記録される。
 立体表示部14は、図14に示すように立体撮影装置5の背面に設けられており、立体視画像の再生時の表示用デバイスとして機能するとともに、撮影時には立体撮影部32により連続して撮影される動画としての3D画像又は2D画像(スルー画)を表示し、ビューファインダとして機能する。
 また、この立体撮影装置5は、立体視画像(3D画像)を撮影する3D撮影モードと、左視点画像又は右視点画像の2D画像を撮影する2D撮影モードとを有し、これらの撮影モードを選択するための撮影モード切替部を備えている。
 2Dスルー画表示視点選択部34は、立体視画像(3D画像)のスルー画から左視点画像又は右視点画像の2D画像のスルー画への切替時に、左視点画像又は右視点画像のいずれの視点画像のスルー画を表示させるかを、ユーザの利き目情報に基づいて切替指示するものである。
 図15は上記立体撮影装置5により立体視画像又は2D画像を撮影する場合の処理手順を示すフローチャートであり、以下、図15に示すフローチャートにしたがって説明する。
 [ステップS100]
 立体撮影装置5によりスルー画の撮影を開始する。尚、撮影開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
 [ステップS102]
 2Dスルー画表示視点選択部34は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
 [ステップS104]
 立体撮影装置5は、3D撮影モードから2D撮影モードへの撮影モード切替ボタンが押されたか否かを判別する。2D撮影モードに切り替えるボタンが押された場合(「Yes」の場合)には、ステップS106に遷移させ、押されていない場合(「No」の場合)には、ステップS108に遷移させる。
 [ステップS106]
 2Dスルー画表示視点選択部34は、ステップS102で読み込んだユーザの利き目情報に基づいてそのユーザの利き目側の視点画像(2D画像)を立体撮像部32により撮影させるとともに、そのスルー画を立体表示部14に表示させる。
 図14に示すように利き目が右目であるとすると、立体表示部14にスルー画として右視点画像(2D画像)を表示させる。ここで、シャッタレリーズボタンが押下されると、ユーザの利き目側の視点画像(2D画像)のみが撮影され、記録媒体30に記録される。
 [ステップS108]
 立体撮影装置5は、立体撮影部32により立体視画像(左右の2視点画像)を連続的に撮影し、この撮影した立体視画像(3D画像)をスルー画として立体表示部14に表示させる。ここで、シャッタレリーズボタンが押下されると、立体視画像(3D画像)が撮影され、記録媒体30に記録される。
 本方法によれば、2D撮影モード時にスルー画を表示する場合にユーザの利き目側の視点画像(2D画像)を立体表示部14に表示することができ、2D画像の撮影のし易さが向上する。また、ユーザは利き目で物を見る方が、違和感がないため疲れにくく、情報量を多く取得することができる利点がある。
 尚、本方法は、静止画の撮影モードに限らず、動画の撮影モード時における3D画像と2D画像の切り替え時の表示にも適用することができる。
 <第6の実施の形態>
 図16は本発明に係る立体表示装置の第6の実施の形態を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図16に示すように第6の実施の形態の立体表示装置6は、第1の実施の形態のものに比べて画像置換え部36が追加されている点で相違する。
 図17に示すように立体撮影装置5により奥行き方向に離れた物体(被写体)を撮影すると、極端に近い物体は視差量が大きく、立体視できずに二重に見えるだけになり、立体視画像としては品位が下がる。
 そこで、本発明の第6の実施の形態では、視差が指定画素以上の被写体を自動指定し、もしくはユーザが二重に見える被写体を指定した場合、その被写体部分の立体視画像を利き目側の視点画像に置き替えることで、立体視画像の品質を向上させる。
 即ち、図16に示す画像置換え部36は、立体視画像(3D画像)の左右の視差量を検出する視差量検出部と、検出された視差量のうち予め設定された視差量(指定画素数)、又はユーザにより指定された二重に見える領域の視差量を越える被写体領域を抽出する領域抽出部とを有し、抽出された被写体領域の立体視画像を、メモリー部10又は記録媒体30から予め登録されたユーザの利き目の情報に対応する利き目側の視点画像のみに置き換えるようにしている。
 図18は本発明の第6の実施の形態を示すフローチャートであり、以下、図18に示すフローチャートにしたがって説明する。
 [ステップS110]
 立体表示装置6による立体視表示を開始する。尚、立体視表示の開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
 [ステップS112]
 画像置換え部36は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
 [ステップS114]
 表示制御部12は、自動で置換え部分を選択するか置換えモードか否か(手動で置換え部分を指定する置換えモードか)の指示入力を受け付ける画面を立体表示部14に表示させ、ユーザの入力を促す。自動で置換え部分を選択する置換えモードが選択された場合((「Yes」の場合)には、ステップS116に遷移し、手動で置換え部分を指定する置換えモードが選択された場合(「No」の場合)には、ステップS122に遷移する。
 [ステップS116]
 画像置換え部36の領域抽出部は、立体視画像から視差量が予め設定された視差量以上となる場所を求める。予め設定される視差量としては、例えばデフォルトで10画素と設定しておき、このデフォルト値をユーザが任意に設定できるようにしてもよい。これは、ユーザにより立体視できる融合限界が異なるからである。
 [ステップS118]
 画像置換え部36は、ステップS112で読み込んだユーザの利き目情報に基づいて、前記求めた場所のユーザの利き目側でない視点画像を、ユーザの利き目側の視点画像(2D画像)に置き替える。
 図19に示すように円柱部分の左右の視点画像の視差が予め設定された視差量よりも大きく、またユーザの利き目が右目であるとすると、左視点画像の円柱部分の画像を右視点画像の円柱部分の画像に置き替える。
 [ステップS120]
 表示制御部12は、ステップS118で置換え済みの立体視画像を立体表示部14に表示させる。これにより二重に見える場所がなくなり、立体視画像の品質を向上させることができる。
 本方法は、「二重に見えるよりは、2D画像の方が良い」という考えに基づいている。
 [ステップS122]
 立体表示装置6は、手動で置換え部分を指定する置換えモードが選択された場合には、ユーザによるタッチパネル22での指示により二重に見える範囲の入力を受け付ける。
 [ステップS124]
 画像置換え部36は、ステップS122で受け付けた範囲(入力場所)の立体視画像を、ステップS112で読み込んだユーザの利き目情報に基づいて、前記入力場所のユーザの利き目側でない視点画像を、ユーザの利き目側の視点画像(2D画像)に置き替える。尚、ユーザがタッチパネル22上で二重に見える範囲を指定した場合に、その指定された範囲と同じ視差量を有する範囲を抽出し、この抽出した範囲のユーザの利き目側でない視点画像を、ユーザの利き目側の視点画像(2D画像)に置き替えるようにしてもよい。
 [ステップS126]
 表示制御部12は、ステップS124で置換え済みの立体視画像を立体表示部14に表示させる。これによりユーザにより範囲指定された二重に見える場所がなくなり、立体視画像の品質を向上させることができる。
 尚、この実施の形態では、立体表示装置6上のタッチパネル22をユーザが任意に入力する位置座標の座標入力用デバイスとして使用する場合について説明したが、これに限らず、立体表示装置6上にカーソルを2D表示させ、このカーソルを十字キー等により移動させるとともにOKボタンを押すことにより位置座標を入力させるものや、ユーザの指先位置を検出する空間センサなどを座標入力用デバイスとして適用してもよい。
 [利き目判定画像及びタッチ入力の変形例]
 <変形例1>
 図20は利き目判定画像とその利き目判定画像にタッチする様子を示す図であり、図3に示した丸に十字が入ったマーク画像の代わりに、操作用のボタン画像を使用する変形例1に関して示している。
 図20に示す変形例1では、利き目判定画像として、スタートボタンやログインボタン等の操作用のボタンを示す画像(ボタン画像)を立体表示部14に表示させる。このボタン画像は、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像の基準座標(ボタン画像の中心座標)を有している。
 表示制御部12(図1参照)は、立体表示部14に利き目判定画像としてのボタン画像と、「ボタンを押してください」という文字を表示させる。尚、スタートボタンやログインボタンのように必ず押すことになるボタン画像の場合には、「ボタンを押してください」という文字を表示させる必要はなく、ボタン名等を表示させればよい。
 ユーザが立体表示部14に立体視表示されたボタン画像を押すと、そのボタン画像の押下に対応する処理(スタートやログイン)が行われるとともに、利き目判定処理部24は、ボタン画像の押された位置座標をタッチパネル22を介して取得し、この位置座標とボタン画像の左視点画像及び右視点画像の各基準位置とに基づいてユーザの利き目を判定する。この利き目判定方法は、図4及び[数1]式、[数2]に基づいて説明した方法と同様に行うことができる。
 本方法によれば、立体表示部14に表示された通常使用されるボタン画像をタッチするだけで、利き目の判別が機器側で自動的に行われ、その結果を登録することができる。
 尚、利き目判定の精度を上げるために、複数のボタン画像(同種のボタン画像又は異種のボタン画像のいずれでもよい)のタッチ操作によりそれぞれ判定した利き目判定結果の多数決により最終的な利き目判定を行うようにしてもよい。
 <変形例2>
 図21及び図22は利き目判定画像の変形例2を示す図であり、図21は立体表示部14の表示画面を示し、図22は表示画面に表示されている利き目判定画像にタッチしている様子を示している。
 図21及び図22に示す変形例2では、利き目判定画像として、5つの1軸タイプのスライドバーを示す画像(スライドバー画像)を立体表示部14に表示させる。これらのスライドバー画像は、立体視画像の視差量、明るさ、コントラスト、ホワイトバランス及び音量をそれぞれ調整するスライドバー画像からなり、各スライドバー画像は、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像の基準座標(スライドバー画像のつまみの中心座標)を有している。
 表示制御部12(図1参照)は、立体表示部14に利き目判定画像としての上記のスライドバー画像と、「各種調整をしてください」という文字を表示させる。
 ユーザがスライドバー画像のつまみにタッチし、つまみを移動させる(ドラッグする)と、そのつまみの位置に対応する調整が行われるとともに、利き目判定処理部24は、スライドバー画像のつまみに最初にタッチされた位置座標をタッチパネル22を介して取得し、この位置座標とスライドバー画像のつまみの位置(タッチ前のつまみの左視点画像及び右視点画像の各基準位置)とに基づいてユーザの利き目を判定する。この利き目判定方法は、図4及び[数1]式、[数2]に基づいて説明した方法と同様に行うことができる。
 本方法によれば、立体表示部14に表示された調整用のスライドバー画像をタッチ操作するだけで、利き目の判別が機器側で自動的に行われ、その結果を登録することができる。
 尚、複数のスライドバー画像がタッチ操作された場合には、各タッチ操作に基づいて判定した利き目判定結果の多数決により最終的な利き目判定を行うようにしてもよい。
 <変形例3>
 図23は利き目判定画像の変形例3を示す図であり、2軸タイプのスライドバー画像に関して示している。
 図23に示す変形例3では、利き目判定画像として、2軸タイプのスライドバーを示す画像(スライドバー画像)を立体表示部14に表示させる。このスライドバー画像は、つまみの左右方向の位置により立体視画像のコントラストを調整し、上下方向の位置により立体視画像の明るさを調整するものであり、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像の基準座標(スライドバー画像のつまみの中心座標)を有している。
 ユーザがスライドバー画像のつまみにタッチし、つまみを2次元面内で移動させる(ドラッグする)と、そのつまみの位置に対応する調整が行われるとともに、利き目判定処理部24は、スライドバー画像のつまみに最初にタッチされた2次元の位置座標をタッチパネル22を介して取得し、この位置座標とスライドバー画像のつまみの位置(タッチ前のつまみの左視点画像及び右視点画像の各基準位置)とに基づいてユーザの利き目を判定する。この利き目判定方法は、図4及び[数1]式、[数2]に基づいて説明した方法と同様に行うことができる。
 尚、上記変形例3の2軸タイプのスライドバー画像の代わりに、立体視可能なジョイスティック画像を使用するようにしてもよい。
 <変形例4>
 図24は利き目判定画像の変形例4を示す図であり、この例ではウサギを示す線画に関して示している。
 図24に示す変形例4では、利き目判定画像として、立体視可能な線画を立体表示部14に表示させる。この線画は、 ユーザにその輪郭をなぞってもらうためのものであり、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像における線画の輪郭線の座標を有している
 ユーザが立体表示部14に表示された線画をなぞると、利き目判定処理部24は、なぞった軌跡の座標をタッチパネル22を介して取得し、なぞった軌跡の座標と線画の輪郭線の座標(左視点画像及び右視点画像の各輪郭線の座標)とに基づいてユーザの利き目を判定する。この利き目判定方法は、なぞった軌跡の座標と、線画の左視点画像の輪郭線の座標との最短距離の平均距離、及び線画の右視点画像の輪郭線の座標との最短距離の平均距離を求め、これらの平均距離のうちの小さい方(即ち、なぞった軌跡が左視点画像の線画に近いか、右視点画像の線画に近いか)によりユーザの利き目を判定する。
 尚、線画としては、なぞりやすい絵や円などの簡単な図形が好ましい。また、線画の全ての輪郭線をなぞらなくてもユーザの利き目判定を行うことができる。
 <変形例5>
 図25及び図26は利き目判定画像の変形例5を示す図であり、図25は立体表示部14の表示画面を示し、図26は表示画面に表示されている利き目判定画像に不足する画像を追加する様子を示している。
 図25及び図26に示す変形例5では、利き目判定画像として、未完成の絵又は図形(図25では、耳のないウサギの画像)を立体表示部14に表示させる。この耳のないウサギの画像は、ユーザに不足するパーツ(耳)を描画してもらうためのものであり、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像における頭部(耳が描画される部分)の輪郭線の座標を有している。
 表示制御部12(図1参照)は、立体表示部14に利き目判定画像として、耳のないウサギの画像を表示させるとともに、「ウサギの耳を書き加えてください」という文字を表示させる。
 ユーザが立体表示部14に表示された耳のないウサギの画像に対して、タッチパネル22上で指(又はタッチペン)によりウサギの耳を描画すると、表示制御部12は、描画されたウサギの耳を立体表示部14に2D表示させ、一方、利き目判定処理部24は、描画されたウサギの耳の軌跡(特に耳の付け根部分)の座標をタッチパネル22を介して取得し、描画されたウサギの耳の座標と、ウサギの頭部の左視点画像及び右視点画像の輪郭線の座標とに基づいてユーザの利き目を判定する。
 即ち、図26に示すように描画されたウサギの耳の付け根が、ウサギの頭部の左視点画像の輪郭線に一致している(又は近い)か、又は右視点画像の輪郭線に一致している(又は近い)かによりユーザの利き目を判定する。
 尚、この例では、ユーザがウサギの耳を描画するようにしているが、これに限らず、予めウサギの耳の画像(パーツ画像)を用意しておき、そのパーツ画像をドラッグしてウサギの頭部に付けるようにしてもよい。また、未完成の絵は耳のないウサギの絵に限らず、任意のものでよく、また、絵に限らず、図形(例えば、多角形の一辺が欠けているもの)を使用してもよい。
 本方法によれば、描画を楽しみながら利き目の判別が機器側で自動的に行われ、その結果を登録することができる。
 <第7の実施形態>
 図27は本発明の第7の実施の形態を示すフローチャートであり、以下、図27に示すフローチャートにしたがって説明する。
 [ステップS130]
 立体表示装置6による利き目設定・判定を開始させる。
 [ステップS132]
 利き目設定・判定が開始されると、まず、表示制御部12(図1参照)は、利き目判定方法を選択させるメニューを立体表示部14に表示させ、ユーザに所望の利き目判定方法を選択させる。利き目判定方法のメニューとして、図20のボタン画像を使用した利き目判定方法、図21のスライドバー画像を使用した利き目判定方法、未完成の絵(図25の耳のないウサギの絵)を使用した利き目判定方法、デフォルトの利き目判定方法(例えば、図3に示した利き目判定画像を使用した利き目判定方法)等が提示され、適宜選択できるようになっている。
 [ステップS134]
 デフォルトの利き目判定方法が選択された場合には、そのデフォルトの利き目判定方法の処理に遷移させる。また、利き目判定を行わない場合には、利き目判定を行わずに終了させる。
 [ステップS136]
 ステップS132において、図20のボタン画像を使用した利き目判定方法が選択された場合には、表示制御部12は、立体表示部14に利き目判定画像としてボタン画像を表示するとともに、「ボタンを押してください」という文字を表示させる。
 [ステップS138]
 ユーザによりボタン画像が押されると、利き目判定処理部24は、ボタン画像の押された位置座標をタッチパネル22を介して取得し、この位置座標がボタン画像の左視点画像の基準位置に近いか、又は右視点画像の基準位置に近いかによりユーザの利き目判定を行い、利き目判定結果を保存して終了する。
 [ステップS140]
 ステップS132において、図21のスライドバー画像を使用した利き目判定方法が選択された場合には、表示制御部12は、立体表示部14に利き目判定画像としてスライドバー画像を表示するとともに、「各種調整をしてください」という文字を表示させる。
 [ステップS142]
 ユーザによりスライドバー画像のつまみがタッチされて操作されると、利き目判定処理部24は、最初にタッチされた位置座標をタッチパネル22を介して取得し、この位置座標がスライドバー画像のつまみの操作前の位置であって、左視点画像のつまみの位置に近いか、又は右視点画像のつまみの位置に近いかによりユーザの利き目判定を行い、利き目判定結果を保存して終了する。
 [ステップS144]
 ステップS132において、図25の耳のないウサギの絵を使用した利き目判定方法が選択された場合には、表示制御部12は、立体表示部14に利き目判定画像として耳のないウサギの絵を表示するとともに、「ウサギの耳を書き加えてください」という文字を表示させる。
 [ステップS146]
 ユーザによりウサギの耳が書き加えられると、利き目判定処理部24は、書き加えられたウサギの耳の付け根部分の座標をタッチパネル22を介して取得し、この耳の付け根部分の座標が、耳のないウサギの頭部の輪郭線の座標であって、左視点画像の頭部の輪郭線の座標に近いか、又は右視点画像の頭部の輪郭線の座標に近いかによりユーザの利き目判定を行い、利き目判定結果を保存して終了する。
 尚、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 1、2、3、4、6…立体表示装置、5…立体撮影装置、10…メモリー部、12…表示制御部、14…立体表示部、16…スピーカー部、18…入出力部、20…記録媒体記録部、22…タッチパネル、24…利き目判定処理部、26…立体タッチ位置座標決定部、28…3D・2D表示モード切替部、30…記録媒体、32…立体撮影部、34…2Dスルー画表示視点選択部、36…画像置換え部

Claims (20)


  1.  左視点画像及び右視点画像からなる立体視画像を表示する立体表示部と、
     前記立体表示部の表示面上の所望の位置座標を入力する座標入力部と、
     ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる表示制御部と、
     前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する取得部と、
     前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する判定部と、
     を備えたことを特徴とする立体表示装置。

  2.  前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のアイコン画像を表示させることを特徴とする請求項1に記載の立体表示装置。

  3.  前記表示制御部は、前記利き目判定画像として前記立体表示部にスタートボタン、ログインボタン等のボタン画像を表示させることを特徴とする請求項1に記載の立体表示装置。

  4.  前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のつまみを含むスライドバー画像を表示させることを特徴とする請求項1に記載の立体表示装置。

  5.  前記表示制御部は、前記利き目判定画像として前記立体表示部に線画を表示させ、
     前記判定部は、前記線画を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の輪郭線の座標と、前記線画をなぞることにより前記座標入力部により連続して取得された座標との平均距離に基づいて前記線画をなぞったユーザの利き目を判定することを特徴とする請求項1に記載の立体表示装置。

  6.  前記表示制御部は、前記利き目判定画像として前記立体表示部未完成の絵又は図形を表示させ、
     前記判定部は、前記未完成の絵又は図形を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と、前記座標入力部により前記未完成の絵又は図形が完成するように追加された絵又は図形の位置座標とに基づいて前記追加したユーザの利き目を判定することを特徴とする請求項1に記載の立体表示装置。

  7.  前記判定部は、前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定することができなかった場合には右目を利き目として判定することを特徴とする請求項1から6のいずれかに記載の立体表示装置。

  8.  ユーザの利き目の情報を装置内部に保存登録する保存登録部を備えたことを特徴とする請求項1から7のいずれかに記載の立体表示装置。

  9.  前記保存登録部は、前記判定部による判定結果に基づいて自動的に利き目の情報を保存登録することを特徴とする請求項8に記載の立体表示装置。

  10.  前記保存登録部は、ユーザからの指示入力により該ユーザの利き目の情報を受け付ける利き目情報入力部を有し、前記利き目情報入力部により受け付けたユーザの利き目の情報を保存登録することを特徴とする請求項8又は9に記載の立体表示装置。

  11.  前記立体表示部に表示された立体視画像上の所望の対象画像の位置座標を前記座標入力部を介して受け付ける位置入力部を備え、
     前記位置入力部により受け付けた位置座標を、前記立体視画像の左視点画像及び右視点画像のうちの前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像上の座標位置として取り扱うことを特徴とする請求項8から10のいずれかに記載の立体表示装置。

  12.  前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであることを特徴とする請求項1から11のいずれかに記載の立体表示装置。

  13.  前記立体表示部に左視点画像及び右視点画像からなる立体視画像を表示させる3D表示モードと、前記立体視画像を構成する左視点画像及び右視点画像のうちのいずれか一方の視点画像を表示させる2D表示モードとを切り替える表示モード切替部を備え、
     前記表示制御部は、前記表示モード切替部により2D表示モードへの切替時に、前記保存登録部に登録されたユーザの利き目の情報に基づいて前記左視点画像及び右視点画像のうちのユーザの利き目側の視点画像を前記立体表示部に表示させることを特徴とする請求項8から12のいずれかに記載の立体表示装置。

  14.  前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであり、
     前記表示モード切替部は、前記タッチパネルによりタッチが検知されるごとに前記2D表示モードと3D表示モードとを交互に切り替えることを特徴とする請求項13に記載の立体表示装置。

  15.  前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであり、
     前記表示モード切替部は、前記タッチパネルによりタッチが検知されると、前記2D表示モードに切り替え、前記タッチパネルによりタッチが検知されないと、又は一定時間以上タッチが検知されないと、前記3D表示モードに切り替えることを特徴とする請求項13に記載の立体表示装置。

  16.  前記立体表示部に表示させる左視点画像及び右視点画像からなる立体視画像の左右の視差量を検出する視差量検出部と、
     前記視差量検出部により検出された視差量のうち、予め設定された視差量又はユーザにより指定された二重に見える領域の視差量を越える視差量を有する領域を抽出する領域抽出部と、
     前記領域抽出部により抽出された領域の立体視画像を、前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像のみに置き換える画像置換え部と、
     を備えたことを特徴とする請求項8から15のいずれかに記載の立体表示装置。

  17.  請求項8から16のいずれかに記載の立体表示装置を備えた立体撮影装置において、
     2次元画像を撮影する2D撮影モードと、左視点画像と右視点画像からなる立体視画像を撮影する3D撮影モードとを切り替える撮影モード切替部と、
     前記撮影モード切替部により前記2D撮影モードに切り替えられると、前記左視点画像及び右視点画像のうち前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像を前記立体表示部にスルー画像として表示させる制御部と、
     を備えたことを特徴とする立体撮影装置。

  18.  立体表示部と、前記立体表示部の表示面上の所望の位置座標を入力する座標入力部とを有する立体表示装置を使用した利き目判定方法であって、
     ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる工程と、
     前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する工程と、
     前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する工程と、
     を含むことを特徴とする立体表示装置を使用した利き目判定方法。

  19.  請求項18に記載の利き目判定方法を前記立体表示装置に実行させる利き目判定プログラム。

  20.  請求項19に記載のプログラムのコンピュータ読取可能なコードを記録した記録媒体。
PCT/JP2010/069275 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 WO2011114567A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012505443A JP5450791B2 (ja) 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
CN201080065556.9A CN102812420B (zh) 2010-03-18 2010-10-29 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法
US13/581,617 US9164621B2 (en) 2010-03-18 2010-10-29 Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010062869 2010-03-18
JP2010-062869 2010-03-18
JP2010147509 2010-06-29
JP2010-147509 2010-06-29

Publications (1)

Publication Number Publication Date
WO2011114567A1 true WO2011114567A1 (ja) 2011-09-22

Family

ID=44648686

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/069275 WO2011114567A1 (ja) 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体

Country Status (4)

Country Link
US (1) US9164621B2 (ja)
JP (1) JP5450791B2 (ja)
CN (1) CN102812420B (ja)
WO (1) WO2011114567A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257682A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP2013073449A (ja) * 2011-09-28 2013-04-22 Fujifilm Corp タッチパネル機能付き立体画像表示装置、及びタッチパネル
US20130106694A1 (en) * 2010-06-29 2013-05-02 Fujifilm Corporation Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
WO2013077338A1 (ja) * 2011-11-21 2013-05-30 株式会社ニコン 表示装置、表示制御プログラム
JP2014035550A (ja) * 2012-08-07 2014-02-24 Nintendo Co Ltd 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
JP2014171220A (ja) * 2012-02-07 2014-09-18 Olympus Corp 表示装置及び電子機器
EP2801198B1 (en) * 2012-01-04 2023-10-11 InterDigital Madison Patent Holdings, SAS Processing 3d image sequences

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101783259B1 (ko) * 2010-12-31 2017-10-10 삼성디스플레이 주식회사 데이터 보상 방법 및 이를 수행하는 데이터 보상 장치 및 상기 데이터 보상 장치를 포함하는 표시 장치
KR20130008334A (ko) * 2011-07-12 2013-01-22 삼성전자주식회사 입체 영상 표시 제어를 위한 주시각 제어 방법 및 이를 지원하는 단말기
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
EP2831699A1 (en) * 2012-03-30 2015-02-04 Sony Mobile Communications AB Optimizing selection of a media object type in which to present content to a user of a device
US9189095B2 (en) * 2013-06-06 2015-11-17 Microsoft Technology Licensing, Llc Calibrating eye tracking system by touch input
US9846486B2 (en) * 2013-06-27 2017-12-19 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
WO2015179539A1 (en) 2014-05-20 2015-11-26 The Schepens Eye Research Institute, Inc. Quantification of inter-ocular suppression in binocular vision impairment
CN104378621A (zh) * 2014-11-25 2015-02-25 深圳超多维光电子有限公司 立体场景处理方法及装置
CN106405832A (zh) * 2015-08-12 2017-02-15 毛颖 一种可消除色差的头戴式显示装置
CN106265006B (zh) * 2016-07-29 2019-05-17 维沃移动通信有限公司 一种主视眼的矫正装置的控制方法及移动终端
US10878620B2 (en) * 2018-03-14 2020-12-29 Magic Leap, Inc. Display systems and methods for clipping content to increase viewing comfort
JP7146585B2 (ja) * 2018-11-13 2022-10-04 本田技研工業株式会社 視線検出装置、プログラム、及び、視線検出方法
JP7178888B2 (ja) * 2018-12-03 2022-11-28 ルネサスエレクトロニクス株式会社 情報入力装置
JP2021131490A (ja) * 2020-02-20 2021-09-09 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
IT202000022120A1 (it) 2020-09-18 2020-12-18 Univ Degli Studi Di Trento Sistema e procedimento di quantificazione della dominanza oculare

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2009094726A (ja) * 2007-10-05 2009-04-30 Fujifilm Corp 画像記録装置及び画像記録方法
JP2009229752A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417768C2 (de) * 1994-05-20 1998-09-10 Juergen Prof Dr Med Lamprecht Verfahren und Vorrichtung zum Projizieren von Bildinformationen bei Personen mit durch eine Abweichung der Stellung ihrer Sehachse verursachten Störungen des Sehens
JPH10105735A (ja) 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
US20060098282A1 (en) * 2002-07-02 2006-05-11 Mccart John R Visual media
JP2004280496A (ja) 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
JP2006293909A (ja) 2005-04-14 2006-10-26 Denso Corp 運転者の視線方向検出装置
SI3329838T1 (sl) * 2007-10-23 2020-12-31 Mcgill University, Office Of Technology Transfer, Ocena in terapija binokularnega vida
JP4657331B2 (ja) * 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
JP5375830B2 (ja) * 2008-09-29 2013-12-25 パナソニック株式会社 映像信号処理装置
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US8878912B2 (en) * 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
US8284235B2 (en) * 2009-09-28 2012-10-09 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images
US8830164B2 (en) * 2009-12-14 2014-09-09 Panasonic Intellectual Property Corporation Of America User interface device and input method
JP2013521941A (ja) * 2010-03-12 2013-06-13 ヴァイキング・システムズ・インコーポレーテッド 立体的可視化システム
JP5704854B2 (ja) * 2010-07-26 2015-04-22 オリンパスイメージング株式会社 表示装置
US9191659B2 (en) * 2011-11-16 2015-11-17 Christie Digital Systems Usa, Inc. Collimated stereo display system
US8880336B2 (en) * 2012-06-05 2014-11-04 Apple Inc. 3D navigation
KR101931085B1 (ko) * 2012-09-03 2018-12-21 삼성디스플레이 주식회사 입체 영상 표시 장치
WO2014106219A1 (en) * 2012-12-31 2014-07-03 Burachas Giedrius Tomas User centric interface for interaction with visual display that recognizes user intentions
US9319662B2 (en) * 2013-01-16 2016-04-19 Elwha Llc Systems and methods for differentiating between dominant and weak eyes in 3D display technology
US20130258463A1 (en) * 2013-03-11 2013-10-03 Allan Thomas Evans System, method, and apparatus for enhancing stereoscopic images
US20140253698A1 (en) * 2013-03-11 2014-09-11 Allan Thomas Evans System, apparatus, and method for enhancing stereoscopic images
US20130182086A1 (en) * 2013-03-11 2013-07-18 Allan Thomas Evans Apparatus for enhancing stereoscopic images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2009094726A (ja) * 2007-10-05 2009-04-30 Fujifilm Corp 画像記録装置及び画像記録方法
JP2009229752A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257682A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
US8599246B2 (en) 2010-06-11 2013-12-03 Nintendo Co., Ltd. Storage medium storing display controlling program, display controlling apparatus, display controlling method and display controlling system
US9086742B2 (en) * 2010-06-29 2015-07-21 Fujifilm Corporation Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
US20130106694A1 (en) * 2010-06-29 2013-05-02 Fujifilm Corporation Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
JP2013073449A (ja) * 2011-09-28 2013-04-22 Fujifilm Corp タッチパネル機能付き立体画像表示装置、及びタッチパネル
WO2013077338A1 (ja) * 2011-11-21 2013-05-30 株式会社ニコン 表示装置、表示制御プログラム
CN104054044A (zh) * 2011-11-21 2014-09-17 株式会社尼康 显示装置及显示控制程序
JPWO2013077338A1 (ja) * 2011-11-21 2015-04-27 株式会社ニコン 表示装置、表示制御プログラム
RU2658790C2 (ru) * 2011-11-21 2018-06-22 Никон Корпорейшн Устройство отображения и программа управления отображением
CN110119203A (zh) * 2011-11-21 2019-08-13 株式会社尼康 显示装置及显示控制程序
EP2801198B1 (en) * 2012-01-04 2023-10-11 InterDigital Madison Patent Holdings, SAS Processing 3d image sequences
JP2014171220A (ja) * 2012-02-07 2014-09-18 Olympus Corp 表示装置及び電子機器
JP2014035550A (ja) * 2012-08-07 2014-02-24 Nintendo Co Ltd 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法

Also Published As

Publication number Publication date
US9164621B2 (en) 2015-10-20
CN102812420A (zh) 2012-12-05
JP5450791B2 (ja) 2014-03-26
US20120320047A1 (en) 2012-12-20
CN102812420B (zh) 2016-01-20
JPWO2011114567A1 (ja) 2013-06-27

Similar Documents

Publication Publication Date Title
JP5450791B2 (ja) 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
TWI463392B (zh) 影像處理裝置,影像處理方法及程式
US10205869B2 (en) Video processing apparatus, control method, and recording medium
US8441435B2 (en) Image processing apparatus, image processing method, program, and recording medium
KR101347232B1 (ko) 화상인식장치 및 조작판정방법, 그리고 컴퓨터 판독가능한 매체
JP4657331B2 (ja) 3次元表示時における指示位置設定装置および方法並びにプログラム
TWI534661B (zh) 畫像辨識裝置及操作判定方法以及電腦程式
JP5263355B2 (ja) 画像表示装置及び撮像装置
US9075442B2 (en) Image processing apparatus, method, and computer-readable storage medium calculation size and position of one of an entire person and a part of a person in an image
KR101797260B1 (ko) 정보 처리 장치, 정보 처리 시스템 및 정보 처리 방법
JP6339887B2 (ja) 画像表示装置
JP2011081480A (ja) 画像入力システム
JP5693708B2 (ja) 立体表示装置、指示受付方法及びプログラムならびにその記録媒体
US20160224200A1 (en) Image processing apparatus and method, and computer program product
JP2010181556A (ja) 画像表示装置及び方法
JP2012015619A (ja) 立体表示装置及び立体撮影装置
JP5864043B2 (ja) 表示装置、操作入力方法、操作入力プログラム、及び記録媒体
JP7362312B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP5140719B2 (ja) 3次元表示時における指示位置設定装置および方法並びにプログラム
JP2015118652A (ja) 画像表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080065556.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10847974

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012505443

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13581617

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10847974

Country of ref document: EP

Kind code of ref document: A1