WO2013145860A1 - 表示制御装置、表示制御方法およびプログラム - Google Patents

表示制御装置、表示制御方法およびプログラム Download PDF

Info

Publication number
WO2013145860A1
WO2013145860A1 PCT/JP2013/052458 JP2013052458W WO2013145860A1 WO 2013145860 A1 WO2013145860 A1 WO 2013145860A1 JP 2013052458 W JP2013052458 W JP 2013052458W WO 2013145860 A1 WO2013145860 A1 WO 2013145860A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image data
unit
display control
user
Prior art date
Application number
PCT/JP2013/052458
Other languages
English (en)
French (fr)
Inventor
祐平 滝
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/387,377 priority Critical patent/US20150062313A1/en
Publication of WO2013145860A1 publication Critical patent/WO2013145860A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present disclosure relates to a display control device, a display control method, and a program.
  • 3D display devices that allow a user to perceive a stereoscopic image by displaying a left-eye image (L image) and a right-eye image (R image) are in circulation.
  • this 3D display device the effect of enhancing the user's presence is obtained, but eye strain is likely to occur.
  • Eye strain There are various causes of eye strain, but examples include crosstalk caused by a mixture of L and R images, and a flicker phenomenon caused by insufficient switching speed of the liquid crystal shutter. For this reason, improvements have been made to the frame rate of liquid crystals and shutter glasses, but the problem of eye strain has not been sufficiently solved.
  • Patent Document 1 discloses a parallax conversion device that performs parallax adjustment of an L image and an R image by shifting the L image and / or the R image in the horizontal direction.
  • the user's fatigue can be improved to some extent by adjusting the parallax and devising the viewing method.
  • the fatigue of the user increases as the viewing time of the stereoscopically displayed video becomes longer.
  • the present disclosure proposes a new and improved display control apparatus, display control method, and program capable of reducing the user's eye strain.
  • the evaluation unit that evaluates the difference between the image data for the left eye and the image data for the right eye that constitutes the image data, and the display using the image data is planarized according to the evaluation result by the evaluation unit.
  • a display control device including a determination unit that determines which one of a display method and a stereoscopic display method is used.
  • a display control method includes determining whether to perform a display method or a stereoscopic display method.
  • the computer is configured to evaluate the difference between the left-eye image data and the right-eye image data constituting the image data, and the image data according to the evaluation result by the evaluation unit.
  • a program is provided for functioning as a determination unit that determines whether the display used is a flat display method or a stereoscopic display method.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration only the same reference numerals are given.
  • the display device 100 includes: A. An evaluation unit (a pop-out amount calculation unit 120) for evaluating a difference between the image data for the left eye and the image data for the right eye constituting the image data; B. A determination unit (display method determination unit 124) that determines whether display using the image data is performed in a flat display method or a stereoscopic display method according to an evaluation result by the evaluation unit; Is provided.
  • An evaluation unit a pop-out amount calculation unit 120
  • a determination unit display method determination unit 124 that determines whether display using the image data is performed in a flat display method or a stereoscopic display method according to an evaluation result by the evaluation unit; Is provided.
  • FIG. 1 is an explanatory diagram showing a configuration of a display system according to an embodiment of the present disclosure.
  • the display system according to the embodiment of the present disclosure includes a display device 100 and shutter glasses 200.
  • the display device 100 includes a display unit 110 on which an image is displayed.
  • the display device 100 allows the user to perceive a stereoscopic image (3D image) by displaying the left-eye image (L image) and the right-eye image (R image) on the display unit 110.
  • the display device 100 includes an imaging unit 114 that captures an area in which the display device 100 can be viewed. By analyzing the captured image obtained by the imaging unit 114, the user who views the display device 100 can be recognized.
  • the shutter glasses 200 include, for example, a right-eye image transmission unit 212 and a left-eye image transmission unit 214 that are liquid crystal shutters.
  • the shutter glasses 200 perform an opening / closing operation of the right-eye image transmission unit 212 and the left-eye image transmission unit 214 in accordance with a signal transmitted from the display device 100.
  • the user sees the light emitted from the display unit 110 through the right-eye image transmission unit 212 and the left-eye image transmission unit 214 of the shutter glasses 200, so that the left-eye image and the right-eye image displayed on the display unit 110 are displayed.
  • An image can be perceived as a 3D image.
  • the display device 100 is shown as an example of the display control device, but the display control device is not limited to such an example.
  • the display control device is a PC (Personal Computer), a home video processing device (DVD recorder, VCR, etc.), a PDA (Personal Digital Assistant), a home game machine, a mobile phone, a mobile video processing device, a portable. It may be an information processing device such as a game machine.
  • the display control device may be a display installed in a movie theater or a public place.
  • a control method that uses a shutter operation to allow the left eye image to be perceived by the left eye and the right eye image to be perceived by the right eye will be described. It is not limited to such an example.
  • the same effect can be obtained by using a polarizing filter for the left eye and a polarizing filter for the right eye.
  • the user's fatigue can be improved to some extent by adjusting the parallax and devising the viewing method.
  • the fatigue of the user increases as the viewing time of the video displayed in 3D becomes longer.
  • the display device 100 according to each embodiment of the present disclosure has been created with the above circumstances in mind.
  • the display device 100 according to each embodiment of the present disclosure can reduce eyestrain of the user.
  • the display device 100 according to each embodiment of the present disclosure will be sequentially described in detail.
  • FIG. 2 is an explanatory diagram showing the configuration of the display device 100 according to the first embodiment.
  • the display device 100 according to the first embodiment includes a display unit 110, an imaging unit 114, a pop-out amount calculation unit 120, a display method determination unit 124, a setting unit 128, and display control.
  • Unit 132, shutter control unit 136, and infrared communication unit 140 Since the display unit 110 and the imaging unit 114 are as described in “1. Basic configuration of display system”, detailed description thereof is omitted here.
  • the pop-out amount calculation unit 120 receives a 3D video signal including image data including L image data and R image data. This 3D video signal may be a received video signal or a video signal read from a storage medium. The pop-out amount calculation unit 120 evaluates the difference between the L image data and the R image data included in the 3D video signal. For example, the pop-out amount calculation unit 120 calculates the pop-out amount from the display unit 110 at a position perceived by the user that an image exists when 3D display is performed based on L image data and R image data.
  • a specific example of the method for calculating the pop-out amount will be described with reference to FIG.
  • FIG. 3 is an explanatory diagram showing a method of calculating the amount of image pop-up. As illustrated in FIG. 3, when the R image and the L image are displayed at different positions on the display unit 110, the user intersects the straight line connecting the right eye and the R image and the straight line connecting the left eye and the L image. It is perceived that an image exists at (perceived position P hereinafter).
  • the distance between the perceived position P and the display unit 110 is the distance E between the user's left eye and right eye shown in FIG. Is calculated according to the following formula, for example, using the distance D and the difference X between the L image and the R image.
  • Pop-up amount S D ⁇ X / (X + E)
  • the distance E between the user's left eye and the right eye and the distance D between the user and the display unit 110 can be estimated from the captured image obtained by the imaging unit 114.
  • the distance E between the user's left eye and the right eye and the distance D between the user and the display unit 110 may be values set in advance.
  • the difference X between the L image and the R image can be specified by various methods.
  • the pop-out amount calculation unit 120 can extract the feature points of the L image and the R image, and specify the difference X by a stereo matching method that measures the deviation of the feature points.
  • the stereo matching method performs edge extraction of an image based on a luminance value, extracts edge strength, edge direction, and the like as feature points, and measures a difference between similar edge points, It includes a region-based method for analyzing the degree of pattern matching for each certain image region and measuring the shift between similar image regions.
  • the pop-out amount calculation unit 120 may divide the 3D video signal every unit time and calculate the average value of the pop-out amount in the section.
  • the display method determination unit 124 determines whether or not a sufficient stereoscopic effect is obtained when 3D display is performed based on the 3D video signal. When it is determined that a sufficient stereoscopic effect is obtained, the display method determination unit 124 performs 3D. The display control unit 132 is instructed to execute display. On the other hand, the display method determination unit 124 instructs the display control unit 132 to execute 2D display when it is determined that sufficient stereoscopic effect cannot be obtained even when 3D display is performed.
  • the display method determination unit 124 determines whether or not a sufficient stereoscopic effect is obtained when 3D display is performed, based on the pop-out amount S calculated by the pop-out amount calculation unit 120. To do. Here, it is considered that the stereoscopic effect increases as the pop-out amount S calculated by the pop-out amount calculation unit 120 increases. Therefore, when the pop-out amount S calculated by the pop-out amount calculation unit 120 is equal to or greater than a threshold th set by the setting unit 128 described later, the display method determination unit 124 causes the display control unit 132 to execute 3D display. Instruct. On the other hand, when the pop-out amount S is less than the threshold th, the display method determination unit 124 instructs the display control unit 132 to perform 2D display.
  • the display method determination unit 124 performs 2D for the image data.
  • the display control unit 132 is instructed to execute display.
  • the display method determination unit 124 is instructed to execute display.
  • the setting unit 128 sets a threshold th used by the display method determination unit 124 to determine the display method. For example, if the user has been watching for a long time, it is considered that the user has accumulated fatigue. For this reason, the setting unit 128 may increase the threshold th as the viewing of the user becomes longer. With such a configuration, it is possible to reduce the frequency with which 3D display is performed when the user views for a long time.
  • a specific description will be given with reference to FIG.
  • FIG. 5 is an explanatory diagram showing the relationship between the threshold th and the viewing time.
  • the setting unit 128 may continuously increase the threshold th as the viewing time becomes longer.
  • 3D display is performed from t1 to t2.
  • the pop-out amount S is relatively high and the threshold th remains at the initial value, In the vicinity of t3 where 3D display is performed, the pop-out amount S is less than the increased threshold th, so 3D display is not performed. In this way, by continuously increasing the threshold th as the viewing time becomes longer, 3D display becomes difficult to be performed, and thus it is possible to reduce the user's eye strain.
  • the method for setting the threshold th is not limited to the method using the viewing time. For example, since the user of a child is anxious about the effect of 3D video on the development of visual functions, the setting unit 128 determines whether the user is an adult or a child. If the user is a child, the user is a user. The threshold th may be set to a higher value than when an is an adult. Whether the user is an adult or a child can be estimated based on a captured image obtained by the imaging unit 114.
  • the setting unit 128 includes video additional information (for example, video genre and time length) included in the 3D video signal, input from a sensor that can acquire a viewing environment, information on the user's living body (sight, contact wear or glasses wear). , Age, distance between eyes), or the type of the display device 100 (mobile terminal, stationary device, screen), or the like, may be set. Further, the setting unit 128 may set the threshold th to a value designated by the user in accordance with a user operation.
  • video additional information for example, video genre and time length
  • the setting unit 128 may set the threshold th to a value designated by the user in accordance with a user operation.
  • the display control unit 132 controls the display of the display unit 110 in accordance with the display method instructed from the display method determination unit 124. Specifically, when the display method instructed from the display method determination unit 124 is the 3D display method, the display control unit 132 causes the display unit 110 to perform 3D display based on the L image and the R image, thereby determining the display method. When the display method instructed from the unit 124 is the 2D display method, the display unit 110 may perform 2D display based on the L image or the R image.
  • the display control unit 132 when the display method is switched, the display control unit 132 generates an interpolated image in which the difference between the L image and the R image is suppressed, and causes the display unit 110 to display the interpolated image in the process of switching the display method.
  • the display control unit 132 decreases the difference between the L image and the R image for a plurality of consecutive frames as the display timing is earlier, and gradually increases the L image and the R image. Continuous switching may be realized by relaxing the degree of suppression of the difference.
  • the display control unit 132 can also switch the display method according to various mathematical laws or statistical laws such as linear complementation and nonlinear complementation.
  • the display control unit 132 may use other methods in order to reduce the user's burden and discomfort associated with switching. For example, when switching from the 2D display method to the 3D display method, the display control unit 132 blurs the image with the earlier display timing for a plurality of consecutive frames, and gradually sharpens the image, so that the same as above An effect can be obtained.
  • the shutter control unit 136 When the display method instructed by the display method determination unit 124 is the 3D display method, the shutter control unit 136 generates a shutter control signal that controls the shutter operation of the shutter glasses 200.
  • the right eye image transmission unit 212 and the left eye image transmission unit 214 are opened and closed based on a shutter control signal generated by the shutter control unit 136 and emitted from the infrared communication unit 140.
  • the left-eye image transmitting unit 214 is opened while the left-eye image is displayed on the display unit 110, and the right-eye is displayed while the right-eye image is displayed on the display unit 110.
  • the shutter operation is performed so that the image transmission unit 212 is opened.
  • FIG. 6 is a flowchart showing the operation of the display device 100 according to the first embodiment.
  • the pop-out amount calculation unit 120 is based on L image data and R image data included in the 3D video signal.
  • an image pop-out amount S is calculated (S208).
  • the display method determination unit 124 determines whether or not the pop-out amount S calculated by the pop-out amount calculation unit 120 is greater than or equal to the threshold th set by the setting unit 128 (S212). Then, when the pop-out amount S is less than the threshold th set by the setting unit 128 (S212 / yes), the display method determination unit 124 instructs the display control unit 132 to display in the 2D display method (S216). Accordingly, the display control unit 132 causes the display unit 110 to perform 2D display (S220).
  • the display method determination unit 124 instructs the display control unit 132 to execute 3D display (S224). Following this, the display control unit 132 causes the display unit 110 to perform 3D display (S228).
  • the display device 100 repeats the above-described processing of S204 to S228 until the display based on the 3D video signal is completed (S232).
  • the display control unit 132 may superimpose on the screen a notification window for notifying the user of the current display method.
  • a specific description will be given with reference to FIG.
  • FIG. 7 is an explanatory diagram showing a specific example of the notification window.
  • the notification window 30 when the display method is the 2D display method is such that the 2D video signal is supplied from the source object 32 and the 3D video signal indicating that the supplied video signal is a 3D video signal. It includes a 2D display notification object 34 indicating that it is generated, and a device object 36 indicating that the display device 100 is performing display based on the 2D video signal.
  • the notification window 40 when the display method is the 3D display method includes the supply source object 42 indicating that the supplied video signal is a 3D video signal, and the display device 100 3D.
  • a device object 46 indicating that display based on the video signal is being performed is included.
  • the display control unit 132 may control the notification window 30 or the notification window 40 to be displayed for a predetermined time when the display method is switched.
  • the user can easily grasp whether the current display method is the 2D display method or the 3D display method based on the notification window 30.
  • the notification method of the display method is not limited to the method described above.
  • the light emitting unit 112 may be provided on the front surface of the display device 100, and the light emitting unit 112 may emit light when the display method is a 3D display method. With such a configuration, it is possible to notify the user of the display method without hindering viewing of the content image displayed on the display unit 110.
  • the shutter control unit 136 may stop the shutter operation of the shutter glasses 200. Note that it is possible to determine whether or not the user's attention has deviated from the display device 100 by recognizing the user's line of sight from the captured image obtained by the imaging unit 114. With this configuration, the user can comfortably use other devices without attaching / detaching the shutter glasses 200.
  • the display control unit 132 may stop the 3D display by the display unit 110. Further, the display device 100 may turn off the power of the display device 100 when the user's attention deviates from the display device 100. With this configuration, the power consumption of the display device 100 can be reduced.
  • FIG. 9 is an explanatory diagram showing the configuration of the display device 100 ′ according to the second embodiment.
  • the display device 100 ′ according to the second embodiment includes a display unit 110, an imaging unit 114, a pop-out amount calculation unit 120, a display method determination unit 126, a setting unit 128, a display A control unit 132, a shutter control unit 136, an infrared communication unit 140, an analysis unit 144, and a variation pattern storage unit 148 are provided.
  • the display unit 110, the imaging unit 114, the pop-out amount calculation unit 120, the setting unit 128, the display control unit 132, and the shutter control unit 136 are the same as described in “2. First Embodiment”. The detailed description in is omitted.
  • the display device 100 ′ acquires user biometric information such as a pulse and a facial muscle movement from the user's device.
  • user biometric information such as a pulse and a facial muscle movement
  • the user's biological information may be acquired by the shutter glasses 200 worn by the user, and the infrared communication unit 140 may receive the user's biological information from the shutter glasses 200.
  • the analysis unit 144 analyzes an image pattern that gives the user a feeling of fatigue based on a change in the user's biological information. For example, when the biometric information of the user indicates that the user feels tired, the analysis unit 144 has a variation pattern of the difference between the L image and the R image displayed when the biometric information is obtained, that is, Analyze the fluctuation pattern of the pop-out amount. Then, the variation pattern storage unit 148 stores the variation pattern obtained by the analysis of the analysis unit 144. For example, the variation pattern includes a pattern in which the increase / decrease of the pop-out amount is repeated three times within a unit period.
  • the display method determination unit 126 determines whether or not the variation pattern of the pop-out amount calculated by the pop-out amount calculation unit 120 matches the variation pattern stored in the variation pattern storage unit 148.
  • the display method determination unit 126 performs the 2D display on the display control unit 132. Is instructed to execute.
  • a 3D display condition tailored to the individual user is automatically created based on the user's biometric information obtained while the user is viewing the 3D image.
  • the display method can be determined according to the 3D display condition.
  • unnecessary driving of 3D display and shutter glasses can be suppressed by estimating the user's line-of-sight direction, so that power consumption can be reduced.
  • 3D display conditions tailored to the individual user are automatically created based on the user's biometric information obtained while the user is viewing the 3D image, and the 3D display is performed.
  • the display method can be determined according to the conditions.
  • each step in the processing of the display device 100 of the present specification does not necessarily have to be processed in time series in the order described as a flowchart.
  • each step in the processing of the display device 100 may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • the determination unit When the evaluation unit evaluates that the difference satisfies the threshold condition, it is determined that the display is performed by the stereoscopic display method, The display control apparatus according to (1), wherein when the evaluation unit evaluates that the difference does not satisfy a threshold condition, the display is determined to be performed by the flat display method.
  • the display control device according to (2) further including a setting unit that sets the threshold condition.
  • the display control device includes: A storage unit for storing a specific variation pattern of the difference;
  • the determination unit is configured to determine whether the variation pattern of the difference between the left-eye image data and the right-eye image data of the target image data matches the specific variation pattern stored in the storage unit.
  • the display control apparatus according to (1), wherein the determination is performed.
  • the display control device includes: An analysis unit that analyzes the left-eye image data and the right-eye image data of the image data in which the biological information of the user shows a specific reaction when the stereoscopic display method is performed, and extracts the specific variation pattern
  • the display control device according to (8) further including: (11)
  • the display control device further includes a display control unit that controls display of the display device according to a determination result by the determination unit, The display control unit generates an interpolated image in which a difference between the left-eye image data and the right-eye image data is suppressed when the display method is switched between the flat display method and the stereoscopic display method.
  • the display control device according to any one of (1) to (10), wherein the interpolation image is displayed on the display device in a process of switching the display method. (12) Evaluating the difference between the image data for the left eye and the image data for the right eye constituting the image data; According to the evaluation result of the difference, determining whether to perform display using the image data by a display method of a flat display method or a stereoscopic display method; Including a display control method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザの眼精疲労を軽減する。 【解決手段】画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部と、前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部と、 を備える、表示制御装置。

Description

表示制御装置、表示制御方法およびプログラム
 本開示は、表示制御装置、表示制御方法およびプログラムに関する。
 近日、左目用画像(L画像)および右目用画像(R画像)を表示することによりユーザに立体視画像を知覚させることが可能な3D表示装置が流通している。この3D表示装置では、ユーザの臨場感を高めるという効果が得られる一方、眼精疲労が生じやすい。眼精疲労の要因は多様であるが、一例として、L画像およびR画像の混在により生じるクロストーク、および液晶シャッターの切替え速度の不足により生じるフリッカー現象などが挙げられる。このため、液晶のフレームレートの改善や、シャッターメガネの改良などが行われているが、眼精疲労の問題は十分に解決されていない。
 また、表示の過度な飛び出しや、視差の変化が大きい場合にはユーザの疲労が重くなる。このような観点から、快適な3D表示を行うための技術が研究されている。例えば、特許文献1には、L画像および/またはR画像を水平方向にシフトさせることにより、L画像およびR画像の視差調整を行う視差変換装置が開示されている。
 また、眼精疲労の発生は、表示方式や機器だけでなく、映像を視聴するユーザの個別の特性や、ユーザの視聴方法にも依存すると考えられている。このような事情から、視聴方法や機器に対するガイドラインも発行されている。例えば、官民協力により3D産業の発展を進める3Dコンソーシアムは、立体視映像の視聴に関するガイドラインを作成し、立体視画像の快適な視聴の実現を目指している。
特開2011-55022号公報
 上記のように、視差調整を行うことや、視聴方法を工夫することにより、ユーザの疲労をある程度改善することが可能である。しかし、視差調整や視聴方法の工夫を行っても、立体視表示された映像の視聴時間が長くなるにつれて、ユーザの疲労は大きくなってしまう。
 そこで、本開示では、ユーザの眼精疲労を軽減することが可能な、新規かつ改良された表示制御装置、表示制御方法およびプログラムを提案する。
 本開示によれば、画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部と、前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部と、を備える、表示制御装置が提供される。
 また、本開示によれば、画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価することと、前記差分の評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定することと、を含む、表示制御方法が提供される。
 また、本開示によれば、コンピュータを、画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部と、前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部と、として機能させるための、プログラムが提供される。
 以上説明したように本開示によれば、ユーザの眼精疲労を軽減することができる。
本開示の実施形態による表示システムの構成を示した説明図である。 第1の実施形態による表示装置の構成を示した説明図である。 画像の飛び出し量の算出方法を示した説明図である。 表示方式の判定例を示した説明図である。 閾値thと視聴時間の関係を示した説明図である。 第1の実施形態による表示装置の動作を示したフローチャートである。 通知ウィンドウの具体例を示した説明図である。 表示方式の他の通知例を示した説明図である。 第2の実施形態による表示装置の構成を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.表示システムの基本構成
  2.第1の実施形態
   2-1.第1の実施形態による表示装置の構成
   2-2.第1の実施形態による表示装置の動作
   2-3.補足
  3.第2の実施形態
  4.むすび
  <<1.表示システムの基本構成>>
 本開示による技術は、一例として「2.第1の実施形態」~「3.第2の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、表示制御装置としての機能を含む各実施形態による表示装置100は、
A.画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部(飛び出し量算出部120)と、
B.前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部(表示方式判定部124)と、
を備える。
 以下では、まず、このような各実施形態において共通する表示システムの基本構成について図1および図2を参照して説明する。
 図1は、本開示の実施形態による表示システムの構成を示した説明図である。図1に示したように、本開示の実施形態による表示システムは、表示装置100およびシャッタ眼鏡200を備える。
 図1に示したように、表示装置100は、画像が表示される表示部110を備える。表示装置100は、左眼用画像(L画像)および右眼用画像(R画像)を表示部110に表示することにより、ユーザに立体視画像(3D画像)を知覚させることができる。また、表示装置100は、表示装置100を視聴可能な範囲を撮像する撮像部114を備える。この撮像部114により得られる撮像画像を解析することにより、表示装置100を視聴するユーザを認識することが可能となる。
 シャッタ眼鏡200は、例えば液晶シャッタからなる右眼用画像透過部212及び左眼用画像透過部214を含む。シャッタ眼鏡200は、表示装置100から送出される信号に応じて、右眼用画像透過部212及び左眼用画像透過部214の開閉動作を実行する。ユーザは、シャッタ眼鏡200の右眼用画像透過部212及び左眼用画像透過部214を通して、表示部110から発する光を見ることで、表示部110に表示される左眼用画像および右眼用画像を3D画像として知覚することが出来る。
 一方、通常の2D画像が表示部110に表示されている場合は、ユーザはそのまま表示部110から出射される光を見ることで、表示部110に表示される画像を通常の2D画像として知覚することができる。
 なお、図1では、表示制御装置の一例として表示装置100を示したが、表示制御装置はかかる例に限定されない。例えば、表示制御装置は、PC(Personal Computer)、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、携帯電話、携帯用映像処理装置、携帯用ゲーム機器などの情報処理装置であってもよい。また、表示制御装置は、映画館や公共の場に設置されているディスプレイであってもよい。
 また、本明細書においては、左眼用画像が左眼によって知覚され、右眼用画像が右眼によって知覚されるようにするためにシャッタ動作を利用する制御方式を説明するが、制御方式はかかる例に限定されない。例えば、左眼用の偏光フィルタおよび右眼用の偏光フィルタを用いることによっても同等な効果を得ることが可能である。
 (背景)
 しかし、3D表示機能を有する一般的な表示装置では、表示の過度な飛び出しや、視差の変化が大きい場合にはユーザの疲労が重くなる。このような観点から、快適な3D表示を行うための技術が研究されている。例えば、L画像および/またはR画像を水平方向にシフトさせることにより、L画像およびR画像の視差調整を行う技術が知られている。また、眼精疲労の発生は、表示方式や機器だけでなく、映像を視聴するユーザの個別の特性や、ユーザの視聴方法にも依存すると考えられている。このような事情から、視聴方法や機器に対するガイドラインも発行されている。例えば、官民協力により3D産業の発展を進める3Dコンソーシアムは、立体視映像の視聴に関するガイドラインを作成し、立体視画像の快適な視聴の実現を目指している。
 上記のように、視差調整を行うことや、視聴方法を工夫することにより、ユーザの疲労をある程度改善することが可能である。しかし、視差調整や視聴方法の工夫を行っても、3D表示された映像の視聴時間が長くなるにつれて、ユーザの疲労は大きくなってしまう。
 そこで、上記事情を一着眼点にして本開示の各実施形態による表示装置100を創作するに至った。本開示の各実施形態による表示装置100は、ユーザの眼精疲労を軽減することが可能である。以下、このような本開示の各実施形態による表示装置100について順次詳細に説明する。
  <<2.第1の実施形態>>
   <2-1.第1の実施形態による表示装置の構成>
 図2は、第1の実施形態による表示装置100の構成を示した説明図である。図2に示したように、第1の実施形態による表示装置100は、表示部110と、撮像部114と、飛び出し量算出部120と、表示方式判定部124と、設定部128と、表示制御部132と、シャッタ制御部136と、赤外線通信部140と、を備える。表示部110および撮像部114については「1.表示システムの基本構成」において説明した通りであるので、ここでの詳細な説明を省略する。
 (飛び出し量算出部)
 飛び出し量算出部120には、L画像データおよびR画像データからなる画像データを含む3D映像信号が入力される。この3D映像信号は、受信された映像信号であってもよいし、記憶媒体から読み出された映像信号であってもよい。飛び出し量算出部120は、この3D映像信号に含まれるL画像データおよびR画像データの差分を評価する。例えば、飛び出し量算出部120は、L画像データおよびR画像データに基づいて3D表示を行った場合に画像が存在するとユーザが知覚する位置の、表示部110からの飛び出し量を算出する。以下、図3を参照し、この飛び出し量の算出方法の具体例を説明する。
 図3は、画像の飛び出し量の算出方法を示した説明図である。図3に示したように、R画像およびL画像が表示部110の異なる位置に表示されると、ユーザは、右眼とR画像を結ぶ直線、および、左眼とL画像を結ぶ直線の交点(以下、知覚位置P)に画像が存在すると知覚する。
 この知覚位置Pと表示部110との距離、すなわち、知覚位置Pの表示部110からの飛び出し量Sは、図3に示したユーザの左眼と右眼の間隔E、ユーザと表示部110との距離D、およびL画像およびR画像の差分Xを用い、例えば以下の数式に従って算出される。
     飛び出し量S=D×X/(X+E)
 なお、ユーザの左眼と右眼の間隔E、ユーザと表示部110との距離Dは、撮像部114により得られる撮像画像から推定することが可能である。また、ユーザの左眼と右眼の間隔E、ユーザと表示部110との距離Dは、事前に設定された値であってもよい。
 また、L画像およびR画像の差分Xは、多様な手法により特定可能である。例えば、飛び出し量算出部120は、L画像とR画像の特徴点を抽出し、特徴点のズレを計測するステレオマッチング手法により差分Xを特定することができる。より詳細には、ステレオマッチング手法は、輝度値に基づいて画像のエッジ抽出を行い、エッジ強度およびエッジ方向などを特徴点として抽出し、類似のエッジ点同士のズレを計測する特徴ベース法や、ある一定の画像領域ごとにパターンの一致度合いを解析して、類似の画像領域同士のズレを計測する領域ベース法を含む。
 また、上記では飛び出し量が知覚位置Pおよび表示部110の距離である例を説明したが、本実施形態はかかる例に限定されない。例えば、図3に示した輻輳角θを飛び出し量として扱うことも可能である。また、飛び出し量算出部120は、3D映像信号を単位時間ごとに区切り、区間内の飛び出し量の平均値を算出してもよい。
 (表示方式判定部)
 表示方式判定部124は、3D映像信号に基づいて3D表示を行った場合に十分な立体視効果が得られるか否かを判定し、十分な立体視効果が得られると判定された場合に3D表示の実行を表示制御部132に指示する。一方、表示方式判定部124は、3D表示を行っても十分な立体視効果が得られないと判定した場合、2D表示の実行を表示制御部132に指示する。
 より具体的に説明すると、表示方式判定部124は、3D表示を行った場合に十分な立体視効果が得られるか否かを、飛び出し量算出部120により算出された飛び出し量Sに基づいて判定する。ここで、飛び出し量算出部120により算出された飛び出し量Sが大きいほど立体視効果が大きくなると考えられる。このため、表示方式判定部124は、飛び出し量算出部120により算出された飛び出し量Sが、後述する設定部128により設定された閾値th以上である場合、3D表示の実行を表示制御部132に指示する。一方、表示方式判定部124は、飛び出し量Sが閾値th未満である場合、2D表示の実行を表示制御部132に指示する。
 例えば、ある画像データに基づく3D表示の知覚位置が図4に示した位置P1である場合、位置P1の飛び出し量Sは閾値th未満であるので、表示方式判定部124は、当該画像データについて2D表示の実行を表示制御部132に指示する。一方、当該画像データに基づく3D表示の知覚位置が図4に示した位置P2である場合、位置P2の飛び出し量Sは閾値th以上であるので、表示方式判定部124は、当該画像データについて3D表示の実行を表示制御部132に指示する。
 (設定部)
 設定部128は、表示方式判定部124が表示方式の判定に用いる閾値thを設定する。例えば、ユーザの視聴が長時間に及んでいる場合、ユーザに疲労が蓄積していると考えられる。このため、設定部128は、ユーザの視聴が長くなるにつれて、閾値thを高くしてもよい。かかる構成により、ユーザの視聴が長時間に及んでいる場合に3D表示が行われる頻度を少なくすることが可能となる。以下、図5を参照して具体的に説明する。
 図5は、閾値thと視聴時間の関係を示した説明図である。図5に示したように、設定部128は、視聴時間が長くなるにつれて閾値thを連続的に増加させてもよい。図5に示した例では、t1~t2の飛び出し量Sが閾値thを上回るのでt1~t2において3D表示が行われるが、比較的飛び出し量Sが高く、閾値thが初期値のままであれば3D表示が行われるt3付近では、増加した閾値thを飛び出し量Sが下回るので、3D表示が行われない。このように、視聴時間が長くなるにつれて閾値thを連続的に増加させることにより、3D表示が行われ難くなるので、ユーザの眼精疲労を軽減することが可能となる。
 なお、閾値thの設定手法は上記の視聴時間を用いる手法に限られない。例えば、子供のユーザは3D映像による視覚機能発達への影響が不安視されるので、設定部128は、ユーザが成人であるか子供であるかを判定し、ユーザが子供である場合にはユーザが成人である場合よりも閾値thを高い値に設定してもよい。なお、ユーザが成人であるか子供であるかは、撮像部114により得られる撮像画像に基づいて推定することが可能である。
 その他、設定部128は、3D映像信号に含まれる映像付加情報(例えば、映像のジャンル、時間長)、視聴環境を取得できるセンサーからの入力、ユーザの生体に関する情報(視力、コンタクト着用or眼鏡着用、年齢、眼の間の距離)、または表示装置100の種別(携帯端末、据え置き式装置、スクリーン)などを加味して閾値thを設定してもよい。さらに、設定部128は、ユーザ操作に従い、ユーザにより指定された値に閾値thを設定してもよい。
 (表示制御部)
 表示制御部132は、表示方式判定部124から指示される表示方式に従って表示部110の表示を制御する。具体的には、表示制御部132は、表示方式判定部124から指示された表示方式が3D表示方式である場合、L画像およびR画像に基づき表示部110に3D表示を行わせ、表示方式判定部124から指示された表示方式が2D表示方式である場合、L画像またはR画像に基づき表示部110に2D表示を行わせてもよい。
 ここで、表示制御部132は、表示方式の切り替え時、L画像およびR画像の差分が抑制された補間画像を生成し、表示方式の切替えの過程において補間画像を表示部110に表示させる。かかる構成により、ユーザに意識されずに表示方式を切り替えることができるので、切り替えに伴うユーザの負担や違和感を緩和することができる。
 例えば、2D表示方式から3D表示方式への切り替え時、表示制御部132は、連続する複数フレームについて、表示タイミングの早いフレームほどL画像とR画像の差分を小さくし、徐々にL画像とR画像の差分の抑制の程度を緩和することにより、連続的な切り替えを実現してもよい。また、表示制御部132は、線型的な補完、非線形な補完など様々な数学的法則または統計的法則に従って表示方式を切り替えることも可能である。
 なお、表示制御部132は、切り替えに伴うユーザの負担や違和感を緩和するために、他の手法を用いてもよい。例えば、表示制御部132は、2D表示方式から3D表示方式への切り替え時、連続する複数フレームについて、表示タイミングの早いフレームほど画像をボカし、徐々に画像を鮮明にすることにより、上記同様の効果を得ることが可能である。
 (シャッタ制御部、赤外線通信部)
 シャッタ制御部136は、表示方式判定部124から指示された表示方式が3D表示方式である場合、シャッタ眼鏡200のシャッタ動作を制御するシャッタ制御信号を生成する。シャッタ眼鏡200では、シャッタ制御部136で生成され、赤外線通信部140から発せされるシャッタ制御信号に基づいて、右眼用画像透過部212及び左眼用画像透過部214の開閉動作を実行する。具体的には、表示部110に左眼用画像が表示されている間には左眼用画像透過部214が開かれ、表示部110に右眼用画像が表示されている間には右眼用画像透過部212が開かれるようにシャッタ動作が実行される。
   <2-2.第1の実施形態による表示装置の動作>
 以上、第1の実施形態による表示装置100の構成を説明した。続いて、図6を参照し、第1の実施形態による表示装置100の動作を整理する。
 図6は、第1の実施形態による表示装置100の動作を示したフローチャートである。図6に示したように、まず、飛び出し量算出部120に3D映像信号が入力されると(S204)、飛び出し量算出部120は、3D映像信号に含まれるL画像データおよびR画像データに基づいて3D表示を行った場合の画像の飛び出し量Sを算出する(S208)。
 続いて、表示方式判定部124が、飛び出し量算出部120により算出された飛び出し量Sが、設定部128により設定された閾値th以上であるか否かを判定する(S212)。そして、表示方式判定部124は、飛び出し量Sが設定部128により設定された閾値th未満である場合(S212/yes)、2D表示方式での表示を表示制御部132に指示する(S216)。これに従い、表示制御部132は、表示部110に2D表示を実行させる(S220)。
 一方、表示方式判定部124は、飛び出し量Sが閾値th以上である場合(S212/no)、3D表示の実行を表示制御部132に指示する(S224)。これに従い、表示制御部132は、表示部110に3D表示を実行させる(S228)。そして、表示装置100は、3D映像信号に基づく表示を終了するまで上述したS204~S228の処理を繰り返す(S232)。
   <2-3.補足>
 以上、本開示の第1の実施形態による表示装置100の構成および動作を説明した。以下、第1の実施形態に関して補足する。
 (表示方式の通知)
 表示制御部132は、現在の表示方式をユーザに通知するための通知ウィンドウを画面に重畳してもよい。以下、図7を参照して具体的に説明する。
 図7は、通知ウィンドウの具体例を示した説明図である。図7に示したように、表示方式が2D表示方式である場合の通知ウィンドウ30は、供給される映像信号が3D映像信号であることを示す供給源オブジェクト32、3D映像信号から2D映像信号が生成されていることを示す2D表示通知オブジェクト34、および表示装置100が2D映像信号に基づく表示を行っていることを示す装置オブジェクト36を含む。
 一方、図7に示したように、表示方式が3D表示方式である場合の通知ウィンドウ40は、供給される映像信号が3D映像信号であることを示す供給源オブジェクト42、および表示装置100が3D映像信号に基づく表示を行っていることを示す装置オブジェクト46を含む。また、表示制御部132は、通知ウィンドウ30または通知ウィンドウ40を、表示方式の切り替え時に一定時間の間表示するよう制御してもよい。
 ユーザは、このような通知ウィンドウ30に基づいて、現在の表示方式が2D表示方式および3D表示方式のいずれであるかを容易に把握することが可能である。
 なお、表示方式の通知方法は上述した方法に限定されない。例えば、図8に示したように表示装置100の前面に発光部112を設け、表示方式が3D表示方式である場合に発光部112を発光させてもよい。かかる構成により、表示部110に表示されるコンテンツ画像の視聴を妨げることなく、表示方式をユーザに通知することが可能となる。
 (ユーザの視線に基づく制御)
 表示装置100で3D表示を行っている間に、ユーザの注意が携帯端末などの他の装置に移る場合がある。この間、シャッタ眼鏡200のシャッタ動作が継続していると、ユーザが他の装置を見る際にチラつきが生じてしまう。また、ユーザが表示装置100を見ていない間に表示装置100で3D表示を行う意義は少ない。
 そこで、シャッタ制御部136は、ユーザの注意が表示装置100から逸れた場合には、シャッタ眼鏡200のシャッタ動作を停止させてもよい。なお、撮像部114により得られる撮像画像からユーザの視線を認識することにより、ユーザの注意が表示装置100から逸れたか否かを判定することが可能である。かかる構成により、ユーザは、シャッタ眼鏡200を脱着することなく他の装置を快適に利用することが可能となる。
 また、表示制御部132は、ユーザの注意が表示装置100から逸れた場合には、表示部110による3D表示を停止させてもよい。さらに、表示装置100は、ユーザの注意が表示装置100から逸れた場合には表示装置100の電源をオフしてもよい。かかる構成により、表示装置100の消費電力を削減することができる。
  <<3.第2の実施形態>>
 以上、本開示の第1の実施形態を説明した。続いて、本開示の第2の実施形態を説明する。
 図9は、第2の実施形態による表示装置100’の構成を示した説明図である。図9に示したように、第2の実施形態による表示装置100’は、表示部110と、撮像部114と、飛び出し量算出部120と、表示方式判定部126と、設定部128と、表示制御部132と、シャッタ制御部136と、赤外線通信部140と、解析部144と、変動パターン記憶部148と、を備える。なお、表示部110、撮像部114、飛び出し量算出部120、設定部128、表示制御部132、およびシャッタ制御部136については「2.第1の実施形態」で説明した通りであるので、ここでの詳細な説明を省略する。
 第2の実施形態による表示装置100’は、ユーザの利用機器から、脈拍や表情筋の動きなどのユーザの生体情報を取得する。例えば、ユーザが着用するシャッタ眼鏡200によりユーザの生体情報を取得し、赤外線通信部140が、シャッタ眼鏡200からユーザの生体情報を受信してもよい。
 解析部144は、ユーザの生体情報の変化に基づき、ユーザに疲労感を与える画像パターンを解析する。例えば、解析部144は、ユーザの生体情報がユーザに疲労感が生じたことを示す場合、当該生体情報が得られたときに表示されていたL画像およびR画像の差分の変動パターン、すなわち、飛び出し量の変動パターンを解析する。そして、変動パターン記憶部148は、解析部144の解析により得られた変動パターンを記憶する。例えば、変動パターンとしては、飛び出し量の増減が単位期間内に3回繰り返されるパターンなどが挙げられる。
 表示方式判定部126は、飛び出し量算出部120により算出される飛び出し量の変動パターンが、変動パターン記憶部148に記憶されている変動パターンに合致するか否かを判定する。ここで、飛び出し量算出部120により算出される飛び出し量の変動パターンが、変動パターン記憶部148に記憶されている変動パターンに合致する場合、3D表示によりユーザに疲労感を与えてしまうと考えられる。このため、表示方式判定部126は、飛び出し量算出部120により算出される飛び出し量の変動パターンが、変動パターン記憶部148に記憶されている変動パターンに合致する場合、表示制御部132に2D表示の実行を指示する。
 上述した本開示の第2の実施形態によれば、ユーザが3D画像を視聴している間に得られたユーザの生体情報に基づいてユーザ個人に合わせた3D表示条件を自動的に作成し、当該3D表示条件に従って表示方式を判定することが可能となる。
   <<4.むすび>>
 以上説明したように、本開示の実施形態によれば、3D表示が行われる時間を削減できるので、ユーザの眼精疲労を軽減することが可能である。また、本開示の実施形態によれば、表示方式の切り替えが連続的に行われるので、切り替えに伴うユーザの負担や違和感を緩和することができる。
 また、本開示の実施形態によれば、ユーザの視線方向の推定により、不必要な3D表示やシャッタ眼鏡の駆動を抑えることができるので、消費電力を削減することが可能である。また、本開示の実施形態によれば、ユーザが3D画像を視聴している間に得られたユーザの生体情報に基づいてユーザ個人に合わせた3D表示条件を自動的に作成し、当該3D表示条件に従って表示方式を判定することが可能となる。
 さらには、3D表示によるユーザの眼精疲労を軽減することができるので、3D表示の悪影響を懸念するユーザに対して3D表示の魅力をアピールすることが可能となる。その結果、本開示の実施形態は3D表示産業の発展に寄与する。
 なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、本明細書の表示装置100の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、表示装置100の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、表示装置100に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した表示装置100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
 また、以下のような構成も本開示の技術的範囲に属する。
(1)
 画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部と、
 前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部と、
を備える、表示制御装置。
(2)
 前記判定部は、
 前記評価部により前記差分が閾値条件を満たすと評価された場合に前記表示を前記立体視表示方式で行うと判定し、
 前記評価部により前記差分が閾値条件を満たさないと評価された場合に前記表示を前記平面表示方式で行うと判定する、前記(1)に記載の表示制御装置。
(3)
 前記表示制御装置は、前記閾値条件を設定する設定部をさらに備える、前記(2)に記載の表示制御装置。
(4)
 前記設定部は、前記画像データを用いた表示を行う表示装置のユーザによる前記表示装置の連続使用時間に基づいて前記閾値条件を設定する、前記(3)に記載の表示制御装置。
(5)
 前記設定部は、前記連続使用時間が長くなるほど前記閾値条件を満たす前記差分の範囲を狭くする、前記(4)に記載の表示制御装置。
(6)
 前記設定部は、前記画像データを用いた表示を行う表示装置のユーザの属性に基づいて前記閾値条件を設定する、前記(3)~(5)のいずれか一項に記載の表示制御装置。
(7)
 前記設定部は、前記ユーザが子供である場合、前記ユーザが成人である場合よりも前記閾値条件を満たす前記差分の範囲を狭くする、前記(6)に記載の表示制御装置。
(8)
 前記設定部は、ユーザ操作に従って前記閾値条件を設定する、前記(3)に記載の表示制御装置。
(9)
 前記表示制御装置は、
 前記差分の特定の変動パターンを記憶する記憶部をさらに備え、
 前記判定部は、対象の画像データの左眼用画像データおよび右眼用画像データの差分の変動パターンが前記記憶部に記憶されている前記特定の変動パターンに合致するか否かに基づいて前記判定を行う、前記(1)に記載の表示制御装置。
(10)
 前記表示制御装置は、
 前記立体視表示方式による表示を行った時にユーザの生体情報が特定の反応を示した画像データの左眼用画像データおよび右眼用画像データを解析して前記特定の変動パターンを抽出する解析部をさらに備える、前記(8)に記載の表示制御装置。
(11)
 前記表示制御装置は、前記判定部による判定結果に従って表示装置の表示を制御する表示制御部をさらに備え、
 前記表示制御部は、前記平面表示方式と前記立体視表示方式との間での表示方式の切替える場合、前記左眼用画像データおよび前記右眼用画像データの差分が抑制された補間画像を生成し、前記表示方式の切替えの過程において前記補間画像を前記表示装置に表示させる、前記(1)~(10)のいずれか一項に記載の表示制御装置。
(12)
 画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価することと、
 前記差分の評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定することと、
を含む、表示制御方法。
(13)
 コンピュータを、
 画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部と、
 前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部と、
として機能させるための、プログラム。
(14)
 前記判定部は、
 前記評価部により前記差分が閾値条件を満たすと評価された場合に前記表示を前記立体視表示方式で行うと判定し、
 前記評価部により前記差分が閾値条件を満たさないと評価された場合に前記表示を前記平面表示方式で行うと判定する、前記(13)に記載のプログラム。
(15)
 前記コンピュータに、
 前記閾値条件を設定する設定部としてさらに機能させる、前記(14)に記載のプログラム。
(16)
 前記設定部は、前記画像データを用いた表示を行う表示装置のユーザによる前記表示装置の連続使用時間に基づいて前記閾値条件を設定する、前記(14)または(15)に記載のプログラム。
(17)
 前記設定部は、前記画像データを用いた表示を行う表示装置のユーザの属性に基づいて前記閾値条件を設定する、前記(14)~(16)のいずれか一項に記載のプログラム。
100、100’ 表示装置
110 表示部
112 発光部
114 撮像部
120 量算出部
124、126 表示方式判定部
128 設定部
132 表示制御部
136 シャッタ制御部
140 赤外線通信部
144 解析部
148 変動パターン記憶部
200 シャッタ眼鏡
212 右眼用画像透過部
214 左眼用画像透過部
 
 

Claims (17)

  1.  画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部と、
     前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部と、
    を備える、表示制御装置。
  2.  前記判定部は、
     前記評価部により前記差分が閾値条件を満たすと評価された場合に前記表示を前記立体視表示方式で行うと判定し、
     前記評価部により前記差分が閾値条件を満たさないと評価された場合に前記表示を前記平面表示方式で行うと判定する、請求項1に記載の表示制御装置。
  3.  前記表示制御装置は、前記閾値条件を設定する設定部をさらに備える、請求項2に記載の表示制御装置。
  4.  前記設定部は、前記画像データを用いた表示を行う表示装置のユーザによる前記表示装置の連続使用時間に基づいて前記閾値条件を設定する、請求項3に記載の表示制御装置。
  5.  前記設定部は、前記連続使用時間が長くなるほど前記閾値条件を満たす前記差分の範囲を狭くする、請求項4に記載の表示制御装置。
  6.  前記設定部は、前記画像データを用いた表示を行う表示装置のユーザの属性に基づいて前記閾値条件を設定する、請求項3に記載の表示制御装置。
  7.  前記設定部は、前記ユーザが子供である場合、前記ユーザが成人である場合よりも前記閾値条件を満たす前記差分の範囲を狭くする、請求項6に記載の表示制御装置。
  8.  前記設定部は、ユーザ操作に従って前記閾値条件を設定する、請求項3に記載の表示制御装置。
  9.  前記表示制御装置は、
     前記差分の特定の変動パターンを記憶する記憶部をさらに備え、
     前記判定部は、対象の画像データの左眼用画像データおよび右眼用画像データの差分の変動パターンが前記記憶部に記憶されている前記特定の変動パターンに合致するか否かに基づいて前記判定を行う、請求項1に記載の表示制御装置。
  10.  前記表示制御装置は、
     前記立体視表示方式による表示を行った時にユーザの生体情報が特定の反応を示した画像データの左眼用画像データおよび右眼用画像データを解析して前記特定の変動パターンを抽出する解析部をさらに備える、請求項8に記載の表示制御装置。
  11.  前記表示制御装置は、前記判定部による判定結果に従って表示装置の表示を制御する表示制御部をさらに備え、
     前記表示制御部は、前記平面表示方式と前記立体視表示方式との間での表示方式の切替える場合、前記左眼用画像データおよび前記右眼用画像データの差分が抑制された補間画像を生成し、前記表示方式の切替えの過程において前記補間画像を前記表示装置に表示させる、請求項1に記載の表示制御装置。
  12.  画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価することと、
     前記差分の評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定することと、
    を含む、表示制御方法。
  13.  コンピュータを、
     画像データを構成する左眼用画像データおよび右眼用画像データの差分を評価する評価部と、
     前記評価部による評価結果に応じて、前記画像データを用いた表示を平面表示方式または立体視表示方式のいずれの表示方式で行うかを判定する判定部と、
    として機能させるための、プログラム。
  14.  前記判定部は、
     前記評価部により前記差分が閾値条件を満たすと評価された場合に前記表示を前記立体視表示方式で行うと判定し、
     前記評価部により前記差分が閾値条件を満たさないと評価された場合に前記表示を前記平面表示方式で行うと判定する、請求項13に記載のプログラム。
  15.  前記コンピュータに、
     前記閾値条件を設定する設定部としてさらに機能させる、請求項14に記載のプログラム。
  16.  前記設定部は、前記画像データを用いた表示を行う表示装置のユーザによる前記表示装置の連続使用時間に基づいて前記閾値条件を設定する、請求項15に記載のプログラム。
  17.  前記設定部は、前記画像データを用いた表示を行う表示装置のユーザの属性に基づいて前記閾値条件を設定する、請求項15に記載のプログラム。
PCT/JP2013/052458 2012-03-30 2013-02-04 表示制御装置、表示制御方法およびプログラム WO2013145860A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/387,377 US20150062313A1 (en) 2012-03-30 2013-02-04 Display control device, display control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012080993 2012-03-30
JP2012-080993 2012-03-30

Publications (1)

Publication Number Publication Date
WO2013145860A1 true WO2013145860A1 (ja) 2013-10-03

Family

ID=49259145

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/052458 WO2013145860A1 (ja) 2012-03-30 2013-02-04 表示制御装置、表示制御方法およびプログラム

Country Status (2)

Country Link
US (1) US20150062313A1 (ja)
WO (1) WO2013145860A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099300A (ja) * 1995-06-26 1997-01-10 Matsushita Electric Ind Co Ltd 立体表示装置
JPH11355808A (ja) * 1998-06-04 1999-12-24 Olympus Optical Co Ltd 映像システム
JP2011028633A (ja) * 2009-07-28 2011-02-10 Sony Corp 情報処理装置及び方法、並びに、プログラム
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
JP2011124941A (ja) * 2009-12-14 2011-06-23 Mitsubishi Electric Corp 3次元映像生成装置及び3次元映像生成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
BRPI0914482A2 (pt) * 2008-10-28 2015-10-27 Koninkl Philips Electronics Nv sistema de exibição tridimensional, método de operação para um sistema de exibição tridimensional e produto de programa de computador
JP2011138354A (ja) * 2009-12-28 2011-07-14 Sony Corp 情報処理装置および情報処理方法
JP4951076B2 (ja) * 2010-03-05 2012-06-13 株式会社東芝 表示装置、システム、及びメガネに関する

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099300A (ja) * 1995-06-26 1997-01-10 Matsushita Electric Ind Co Ltd 立体表示装置
JPH11355808A (ja) * 1998-06-04 1999-12-24 Olympus Optical Co Ltd 映像システム
JP2011028633A (ja) * 2009-07-28 2011-02-10 Sony Corp 情報処理装置及び方法、並びに、プログラム
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
JP2011124941A (ja) * 2009-12-14 2011-06-23 Mitsubishi Electric Corp 3次元映像生成装置及び3次元映像生成方法

Also Published As

Publication number Publication date
US20150062313A1 (en) 2015-03-05

Similar Documents

Publication Publication Date Title
US9041782B2 (en) Multiple-viewer auto-stereoscopic 3D display apparatus
WO2013145861A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP5817639B2 (ja) 映像フォーマット判別装置及び映像フォーマット判別方法、並びに映像表示装置
US20110304689A1 (en) Remote user control for stereoscopic display
WO2012071073A1 (en) Adaptive 3-d shuttering devices
Daly et al. Perceptual issues in stereoscopic signal processing
JP2011188118A (ja) 表示装置、システム、及びメガネに関する
JP2014500674A (ja) 適応的な両眼差をもつ3dディスプレイのための方法およびシステム
US20120105608A1 (en) Method, shutter glasses, and apparatus for controlling environment brightness received by shutter glasses
TWI432013B (zh) 立體影像顯示方法及影像時序控制器
KR20130116075A (ko) 영상 표시 장치
KR101994322B1 (ko) 디스패리티 설정 방법 및 대응하는 디바이스
KR100704634B1 (ko) 사용자의 위치에 따른 입체 영상을 디스플레이하는 장치 및방법
EP2466362A2 (en) Method and apparatus for providing stereoscopic image
JP5250701B2 (ja) 照明制御装置、照明制御装置を用いる照明装置及び照明システム並びに照明制御装置とともに利用される表示装置及び眼鏡装置
JP5400901B2 (ja) 眼鏡装置及び映像システム
EP2587814A1 (en) Depth adaptation for multi-view system
WO2013145860A1 (ja) 表示制御装置、表示制御方法およびプログラム
JP5573426B2 (ja) 音声処理装置、音声処理方法、およびプログラム
US20130016187A1 (en) Method and apparatus for auto-convergence for stereoscopic images and videos
CN102316333A (zh) 显示系统与提示系统
JPWO2011099298A1 (ja) 表示装置、眼鏡装置及び映像システム
EP2563025A2 (en) Three-dimensional display apparatus
KR101343551B1 (ko) 눈 깜박임 측정을 통해 입체감을 조절하는 3차원 영상 표시 장치
EP2549760A2 (en) Method for improving three-dimensional display quality

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13769740

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14387377

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13769740

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP

NENP Non-entry into the national phase

Ref country code: DE