JPWO2012131937A1 - Measuring device, stereoscopic image display device, and measuring method - Google Patents

Measuring device, stereoscopic image display device, and measuring method Download PDF

Info

Publication number
JPWO2012131937A1
JPWO2012131937A1 JP2013506943A JP2013506943A JPWO2012131937A1 JP WO2012131937 A1 JPWO2012131937 A1 JP WO2012131937A1 JP 2013506943 A JP2013506943 A JP 2013506943A JP 2013506943 A JP2013506943 A JP 2013506943A JP WO2012131937 A1 JPWO2012131937 A1 JP WO2012131937A1
Authority
JP
Japan
Prior art keywords
image
unit
display
stereoscopic
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013506943A
Other languages
Japanese (ja)
Other versions
JP5725159B2 (en
Inventor
佐藤 輝幸
輝幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2012131937A1 publication Critical patent/JPWO2012131937A1/en
Application granted granted Critical
Publication of JP5725159B2 publication Critical patent/JP5725159B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

測定装置は、裸眼での立体画像を表示する表示部に対し、第1画像及び第2画像による立体画像を表示させる制御後に、制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、表示部に表示された画像を見るユーザの眼位を撮像する撮像部と、第3画像と、第3画像へ変更される前の前記第1画像または第2画像とを見るユーザの眼位の変化を、撮像部が撮像する撮像画像から測定する測定部と、を備える。The measurement apparatus has a property of removing one of the images to be controlled after the control for displaying the stereoscopic image by the first image and the second image on the display unit that displays the stereoscopic image with the naked eye. A display control unit that changes to an image, an imaging unit that captures the eye position of a user who views the image displayed on the display unit, a third image, and the first image or the second image before being changed to the third image A measuring unit that measures a change in the eye position of the user who views the image from a captured image captured by the imaging unit.

Description

本発明は、裸眼での立体画像を表示制御する測定装置、立体画像表示装置及び測定方法に関する。   The present invention relates to a measurement apparatus, a stereoscopic image display apparatus, and a measurement method for controlling display of a stereoscopic image with the naked eye.

両眼視による立体画像を鑑賞する際に、眼精疲労が起きることが知られている。このため立体映像制作における安全ガイドラインが周知されており、一例としては視差量をつけすぎないことが万人向けのコンテンツを制作する上で推奨されている。   It is known that eye strain occurs when viewing stereoscopic images by binocular vision. For this reason, safety guidelines for producing stereoscopic video are well known, and as an example, it is recommended that content with a parallax amount not be excessively applied when producing content for everyone.

しかし、立体視は個人差があるものであり、そのガイドラインを守ると立体感に乏しいと感じる人がいる一方で、ガイドライン内であっても長時間視聴し続けると疲れが発生する人、しない人が現れる。   However, there is a difference between individuals in stereoscopic vision, and there are people who feel that the stereoscopic effect is poor if they follow the guidelines, while those who do not feel tired if they keep watching for a long time even within the guidelines, those who do not Appears.

両眼視の特性を計測する従来技術としては、三次元物体の提示位置に対する輻輳と眼の屈折状態の応答を測定し、「眼の屈折状態と輻輳の不一致」について調べる手法がある。   As a conventional technique for measuring the characteristics of binocular vision, there is a method of measuring the response of the convergence and the refractive state of the eye to the presentation position of the three-dimensional object, and examining “the mismatch between the refractive state of the eye and the convergence”.

また、眼精疲労を起こさないディスプレイとして、観察者の眼の調節や輻輳がどのような状態にあるかに直接依拠して左眼用映像および右眼用映像を提示する手法がある。   Further, as a display that does not cause eyestrain, there is a method of presenting a left-eye image and a right-eye image that directly depends on the state of eye adjustment or convergence of the observer.

さらに、瞳孔間隔から両眼の焦点位置を求め、「調節と輻輳の不一致」の範囲になったら、視差補正を行う手法がある。虹彩間間隔から両眼の注視点を求め、時間積算して閾値を超えたら、疲労状態と判定して警告を発する手法がある。   Further, there is a method of obtaining parallax correction when the focal position of both eyes is obtained from the pupil interval and the range of “mismatch between adjustment and convergence” is entered. There is a method of obtaining a warning point by determining a fatigue state when a gazing point of both eyes is obtained from an inter-iris interval, and time integration is performed and a threshold value is exceeded.

特許4223314号公報Japanese Patent No. 42223314 特許3771964号公報Japanese Patent No. 377964 特開2004−333661号公報JP 2004-333661 A 特開2006−267578号公報JP 2006-267578 A

従来技術は、眼球の輻輳調節状態を監視し、鑑賞時における疲労をみるものである。ここで、図1は、輻輳調節の不一致を説明するための図である。図1では、ディスプレイのスクリーン10面に交差性視差のついた立体映像が表示されている。図1に示す場合、右目R1には左側の絵11、左目L1には右側の絵12が入ってきて、脳の中で像を結んだ結果、スクリーン10より飛び出した位置に立体映像13が定位することを示している。   The conventional technology monitors the eyeball's convergence adjustment state and observes fatigue during viewing. Here, FIG. 1 is a diagram for explaining the mismatch of the congestion adjustment. In FIG. 1, a stereoscopic image with crossing parallax is displayed on the screen 10 of the display. In the case shown in FIG. 1, the left picture 11 enters the right eye R <b> 1 and the right picture 12 enters the left eye L <b> 1, and as a result of forming an image in the brain, the stereoscopic image 13 is localized at a position protruding from the screen 10. It shows that

このとき、目のピント(調節)は、左目L1、右目R1ともスクリーン10上の画像にあっており、一方で立体像として像を結んだ位置に目の寄り目がおきている。この寄り目になる機能を輻輳と呼ぶ。   At this time, the focus (adjustment) of the eyes is in the image on the screen 10 for both the left eye L1 and the right eye R1. This function that becomes a cross-over is called congestion.

自然界のものをみるとき、寄り目で見たものにピントを合わせる。これが2眼式立体画像では一致しないことから、自然なものでは感じない疲労感につながるとされる。   When looking at things in nature, focus on what you see with a cross-eyed eye. Since this does not match in a binocular stereoscopic image, it is considered that it leads to a feeling of fatigue that is not felt in a natural thing.

以上のように、輻輳調節の不一致は、眼精疲労の原因になるが、同じ鑑賞時間でも人によって疲れやすさが違う。よって、従来技術では、鑑賞者の立体視に対する適性といったことは加味されていなかった。したがって、立体視に対する個人特性を測定できていないという問題があった。   As described above, the discrepancy in convergence adjustment causes eye strain, but the ease of fatigue varies depending on the person even during the same viewing time. Therefore, the prior art does not take into consideration the applicability of the viewer to stereoscopic vision. Therefore, there has been a problem that personal characteristics for stereoscopic vision cannot be measured.

そこで、開示の技術は、上記問題点に鑑みてなされたものであり、立体視に対する個人特性を適切に測定することができる測定装置、立体画像表示装置及び測定方法を提供することを目的とする。   Therefore, the disclosed technology has been made in view of the above-described problems, and an object thereof is to provide a measuring device, a stereoscopic image display device, and a measuring method that can appropriately measure personal characteristics for stereoscopic vision. .

開示の一態様における測定装置は、裸眼での立体画像を表示する表示部に対し、第1画像及び第2画像による立体画像を表示させる制御後に、制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、表示部に表示された画像を見るユーザの眼位を撮像する撮像部と、第3画像と、第3画像へ変更される前の前記第1画像または第2画像とを見るユーザの眼位の変化を、撮像部が撮像する撮像画像から測定する測定部と、を備える
開示の他の態様における立体画像表示装置は、裸眼での立体画像を表示する表示部と、第1画像及び第2画像による立体画像を前記表示部に表示させる制御をした後に、制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、第3画像と、第3画像へ変更される前の第1画像または第2画像とを見るユーザの眼位の変化を、撮像部が撮像する撮像画像から測定する測定部と、を備え、表示制御部は、測定部による測定結果に基づいて、表示部に表示させる立体画像の視差を調整する。
The measuring device according to one aspect of the disclosure has a property of removing congestion on one of the images to be controlled after the control for displaying the stereoscopic image by the first image and the second image on the display unit that displays the stereoscopic image with the naked eye. A display control unit that changes to a third image, an imaging unit that captures the eye position of a user who views the image displayed on the display unit, a third image, and the first image before the change to the third image A stereoscopic image display apparatus according to another aspect of the disclosure includes a measuring unit that measures a change in the eye position of a user who views the image or the second image from a captured image captured by the imaging unit. Display control for controlling the display unit to display a stereoscopic image based on the first image and the second image on the display unit, and then changing one of the controlled images to a third image having a property of eliminating congestion Part, third image, third image A measurement unit that measures a change in the eye position of the user who views the first image or the second image before being changed to a captured image captured by the imaging unit, and the display control unit measures by the measurement unit Based on the result, the parallax of the stereoscopic image displayed on the display unit is adjusted.

開示の技術によれば、立体視に対する個人特性を適切に測定することができる。   According to the disclosed technology, it is possible to appropriately measure personal characteristics for stereoscopic vision.

輻輳調整の不一致を説明するための図。The figure for demonstrating the mismatch of congestion adjustment. 両眼視における輻輳を説明するための図。The figure for demonstrating the convergence in binocular vision. 輻輳を除去することで発生する眼位のズレを説明するための図。The figure for demonstrating the shift | offset | difference of the eye position which generate | occur | produces by removing congestion. 裸眼二眼式のディスプレイの一例を示す図。The figure which shows an example of a naked-eye binocular display. 右目に対し黒画像を表示し、右目を監視する例を示す図。The figure which shows the example which displays a black image with respect to a right eye, and monitors a right eye. 実施例1における測定装置の構成の一例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a configuration of a measurement apparatus according to the first embodiment. 眼位の変化を示す図。The figure which shows the change of an eye position. 眼位の変化と画像上のピクセルとの関係の一例を示す図。The figure which shows an example of the relationship between the change of an eye position, and the pixel on an image. 実施例1における測定処理の一例を示すフローチャート。3 is a flowchart illustrating an example of measurement processing according to the first embodiment. 実施例2における立体画像表示装置の構成の一例を示すブロック図。FIG. 9 is a block diagram illustrating an example of a configuration of a stereoscopic image display device according to a second embodiment. 個人特性ファイルの一例をテーブル形式で表す図。The figure showing an example of a personal characteristic file in a table format. 視差調整の一例を示す図。The figure which shows an example of parallax adjustment. 視差角の一例を示す図。The figure which shows an example of a parallax angle. 画面上視差Ddを求めるための相似関係を示す図。The figure which shows the similarity relationship for calculating | requiring the parallax Dd on a screen. 奥行き寄りの視差調整の一例を示す図。The figure which shows an example of parallax adjustment near a depth. 飛び出し寄りの視差調整の一例を示す図。The figure which shows an example of the parallax adjustment of popping out. 実施例2における表示制御処理(その1)の一例を示すフローチャート。9 is a flowchart illustrating an example of display control processing (part 1) in the second embodiment. 実施例2における表示制御処理(その2)の一例を示すフローチャー。9 is a flowchart showing an example of display control processing (part 2) in the second embodiment. 実施例3における立体画像表示装置の構成の一例を示すブロック図。FIG. 10 is a block diagram illustrating an example of a configuration of a stereoscopic image display device according to a third embodiment. 実施例3における立体画像表示装置の処理の一例を示すフローチャート。9 is a flowchart illustrating an example of processing of a stereoscopic image display device according to a third embodiment. 変形例における画像処理装置の構成の一例を示すブロック図。The block diagram which shows an example of a structure of the image processing apparatus in a modification.

100 測定装置
101、201、301 表示制御部
102 第1記憶部
103 表示部
104 撮像部
105 測定部
106、202、303 第2記憶部
200、300 立体画像表示装置
201 表示制御部
202 第2記憶部
302 虹彩認証部
DESCRIPTION OF SYMBOLS 100 Measuring apparatus 101, 201, 301 Display control part 102 1st memory | storage part 103 Display part 104 Imaging part 105 Measuring part 106,202,303 2nd memory | storage part 200,300 Stereoscopic image display apparatus 201 Display control part 202 2nd memory | storage part 302 Iris Authentication Department

まず、人間の眼球の輻輳の動きについて説明する。図2は、両眼視における輻輳を説明するための図である。図2に示す例では、3つの輻輳の機能について説明する。
(1)緊張性輻輳
緊張性輻輳は、まぶたをあけると光が入る刺激による輻輳をいう
(2)調整性輻輳
調整性輻輳は、ピント調整をすることで誘起される輻輳をいう。
(3)融像性輻輳
融像性輻輳は、頭の中で左右2つの像がひとつになるようにする輻輳をいう。
First, the movement of human eyeball convergence will be described. FIG. 2 is a diagram for explaining convergence in binocular vision. In the example shown in FIG. 2, three congestion functions will be described.
(1) Tension congestion Tension congestion refers to congestion caused by light that enters when the eyelids are opened. (2) Adjustable congestion adjustment congestion refers to congestion induced by adjusting the focus.
(3) Fusion vergence Fused vergence refers to vergence in which two left and right images become one in the head.

輻輳機能は、緊張がなければ外側に開散した状態から、筋肉をつかって(1)、(2)、(3)の順に内側に向けていく機能といえる。   It can be said that the convergence function is a function in which the muscles are directed inward in the order of (1), (2), and (3) from the state of spreading outward when there is no tension.

次に、図3は、輻輳を除去することで発生する眼位のズレを説明するための図である。図3に示す例では、両目が近距離の物体20を一点に見つめた状態で、片目(例えば右目R1)を遮蔽板21により遮蔽することで輻輳(例えば、融像性輻輳)を除去する。   Next, FIG. 3 is a diagram for explaining a shift in eye position that occurs when congestion is removed. In the example shown in FIG. 3, congestion (for example, fusion convergence) is removed by shielding one eye (for example, the right eye R1) with the shielding plate 21 with both eyes looking at the object 20 at a short distance.

この場合、そのままの眼位を保つことができる人もいれば、輻輳が緩んで外側(黒目が離れる方向)に開いていく人もいることが知られている。後者の人は斜位と呼ばれる。斜位の人は、日常近いものを見るときに斜位になるのを目の筋肉で食い止めながら両眼視を行う。例えば、斜位を持つような人は、飛び出しの立体視に対しては疲れやすいといえる。   In this case, it is known that there are people who can keep the eye position as it is, and there are people who loosen the convergence and open to the outside (the direction in which the black eyes leave). The latter person is called oblique. An oblique person performs binocular vision while holding the oblique position with his eye muscles when looking at something close to everyday life. For example, it can be said that a person who has an oblique position is easily tired from the stereoscopic view of popping out.

この眼球の動きをカメラのようなイメージセンサで追跡すれば、個人による眼位のズレを測定することができる。しかし、HMD(Head Mounted Display)を含むメガネ式の立体では、その眼球が覆われてしまい、黒目部分の追跡が難しくなる。   By tracking the movement of the eyeball with an image sensor such as a camera, it is possible to measure the eye position shift by the individual. However, in an eyeglass-type solid including an HMD (Head Mounted Display), the eyeball is covered, making it difficult to track the black eye part.

そこで、以下に説明する実施例では、裸眼式の立体画像表示装置を用いる。図4は、裸眼二眼式のディスプレイの一例を示す図である。図4に示すように、液晶パネル25の前に視差バリア26を設ける。液晶パネル25では、例えば、奇数列に左目用の画像、偶数列には右目用の画像を表示し、その画像を、視差バリア26で、左右の目に振り分けている。なお、画像は、静止画、動画(映像)を含む。   Therefore, in the embodiment described below, a naked-eye type stereoscopic image display device is used. FIG. 4 is a diagram illustrating an example of an autostereoscopic display. As shown in FIG. 4, a parallax barrier 26 is provided in front of the liquid crystal panel 25. In the liquid crystal panel 25, for example, an image for the left eye is displayed in the odd-numbered column and an image for the right eye is displayed in the even-numbered column, and the image is distributed to the left and right eyes by the parallax barrier 26. The image includes a still image and a moving image (video).

図4に示すように裸眼二眼式は、クロストークのない快適な視域(場所と観察距離)は限られるという特性をもつ。適切な場所や観察距離でなければ立体画像が適切に見ることができないからである。   As shown in FIG. 4, the autostereoscopic type has a characteristic that a comfortable viewing area (location and observation distance) without crosstalk is limited. This is because a stereoscopic image cannot be viewed properly unless it is at an appropriate location and observation distance.

よって、裸眼式の立体画像表示装置では、ディスプレイ位置に対して眼球位置はほぼ固定されると言える。視域の制限は、例えば、手に持つことができるという携帯型デバイスであればそれほどその制限を感じさせるものではない。   Therefore, it can be said that in the autostereoscopic image display apparatus, the eyeball position is substantially fixed with respect to the display position. For example, if the portable device is capable of being held in the hand, the restriction of the viewing zone does not feel that much.

図5は、右目に対し黒画像を表示し、右目を監視する例を示す図である。図5に示すように、両眼視状態から片側画像を黒画像にすることで、輻輳(例えば、融像性輻輳)を除去する。黒画像は、光を遮断するため輻輳を除去する性質を有する画像である。   FIG. 5 is a diagram illustrating an example in which a black image is displayed for the right eye and the right eye is monitored. As shown in FIG. 5, convergence (for example, fusion convergence) is removed by making the one-sided image black from the binocular viewing state. The black image is an image having a property of removing congestion in order to block light.

輻輳を除去する性質を有する画像は、黒画像に限定されるわけではなく、物体が含まれていない単色画像などでもよい。また、単色画像でも、直前に表示していた立体画像と同じ背景色を有する単色画像などがふさわしい。   An image having the property of eliminating congestion is not limited to a black image, and may be a single color image that does not include an object. Further, even a single color image is suitable as a single color image having the same background color as the stereoscopic image displayed immediately before.

図5に示す場合の黒目の様子を、裸眼での立体画像表示装置に取り付けたカメラ30で追跡することで、眼位のズレを測定することができる。この測定手法では、裸眼であるから眼位を直接観察することができる。また、視域が制限されることで、立体画像表示装置と目との距離がある程度固定されることで、カメラ30で黒目を観察しやすいという利点もある。   By tracking the state of the black eye in the case shown in FIG. 5 with the camera 30 attached to the stereoscopic image display device with the naked eye, the displacement of the eye position can be measured. In this measurement method, the eye position can be directly observed because the eye is naked. Further, since the viewing area is limited, the distance between the stereoscopic image display device and the eyes is fixed to some extent, so that there is an advantage that it is easy to observe the black eyes with the camera 30.

以上により、立体画像に対する疲労のしやすさの個人差を測定することができる。以下、上記の考えに基づく各実施例について、図面に基づいて説明する。   As described above, it is possible to measure individual differences in the ease of fatigue of a stereoscopic image. Hereinafter, each Example based on said idea is described based on drawing.

[実施例1]
<構成>
図6は、実施例1における測定装置100の構成の一例を示すブロック図である。図6に示す測定装置100は、表示制御部101、第1記憶部102、撮像部104、測定部105、第2記憶部106を備える。表示制御部101は、表示部103に接続されている。なお、表示部103は、測定装置に100に含まれてもよい。
[Example 1]
<Configuration>
FIG. 6 is a block diagram illustrating an example of the configuration of the measurement apparatus 100 according to the first embodiment. The measurement apparatus 100 illustrated in FIG. 6 includes a display control unit 101, a first storage unit 102, an imaging unit 104, a measurement unit 105, and a second storage unit 106. The display control unit 101 is connected to the display unit 103. The display unit 103 may be included in the measurement apparatus 100.

表示制御部101は、裸眼二眼式の表示部103に対し、例えばテスト画像を第1記憶部102から取得し、取得したテスト画像をシーケンシャルに表示するよう制御する。また、表示制御部101は、テスト画像を表示制御した後に、眼位を測定するタイミングを表すタイミング信号を測定部105に出力する。   The display control unit 101 controls the autostereoscopic display unit 103 to acquire, for example, a test image from the first storage unit 102 and display the acquired test image sequentially. Further, the display control unit 101 outputs a timing signal indicating the timing for measuring the eye position to the measurement unit 105 after performing display control of the test image.

第1記憶部102は、テスト画像を記憶する。テスト画像は、始めは左右の画像(第1及び第2画像ともいう)で立体画像を表す画像であり、その立体画像の後に、一方の画像が、輻輳を除去する性質を有する画像に変更される画像(第3画像ともいう)である。また、テスト画像は、一方の画像を所定時間第3画像に変更した後に元の画像に戻し、その次に他方の画像を、所定時間第3画像に変更してもよい。これは、左右の目それぞれに対して、第3画像を表示するためである。第3画像は、前述したように、物体が含まれない単色画像であり、黒色のベタ画像が望ましい。また、第3画像は、第1及び第2画像と背景色が同じ単色画像でもよい。   The first storage unit 102 stores test images. The test image is initially an image representing a stereoscopic image with left and right images (also referred to as first and second images). After the stereoscopic image, one image is changed to an image having a property of removing congestion. Image (also referred to as a third image). Alternatively, the test image may be changed to the third image after changing one image to the third image for a predetermined time, and then the other image may be changed to the third image for the predetermined time. This is because the third image is displayed for each of the left and right eyes. As described above, the third image is a monochrome image that does not include an object, and is preferably a black solid image. The third image may be a single color image having the same background color as the first and second images.

表示部103は、裸眼での立体画像を表示可能とする表示装置である。表示部103は、表示制御部101により表示制御される画像を表示する。表示部103は、例えば、図4や5で説明したような液晶パネル25や視差バリア26を有する。   The display unit 103 is a display device that can display a stereoscopic image with the naked eye. The display unit 103 displays an image whose display is controlled by the display control unit 101. The display unit 103 includes, for example, the liquid crystal panel 25 and the parallax barrier 26 described with reference to FIGS.

表示部103は、鑑賞者(ユーザ)に正対して位置する。表示部103は、例えば携帯型デバイスの一部であれば、画素ピッチが小さく、鑑賞者が手に持って適切に鑑賞できる視域の位置に据えることになる。この距離は、表示部103の性能で定められている。   The display unit 103 is positioned facing the viewer (user). For example, if the display unit 103 is a part of a portable device, the pixel pitch is small, and the display unit 103 is placed at a position in the viewing zone where the viewer can appropriately hold it. This distance is determined by the performance of the display unit 103.

撮像部104は、例えばCCD(Charge
Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)を有するイメージセンサである。撮像部104は、例えば、表示部103の上部などに取り付けられ、鑑賞者の目(眼位)を撮像する。撮像部104は、鑑賞者の目の部分を撮像し、キャプチャされた撮像画像を測定部105に出力する。
The imaging unit 104 is, for example, a CCD (Charge
An image sensor having a coupled device (CMOS) or a complementary metal oxide semiconductor (CMOS). The imaging unit 104 is attached to, for example, an upper part of the display unit 103 and images the viewer's eyes (eye position). The imaging unit 104 images the viewer's eyes and outputs the captured image to the measurement unit 105.

測定部105は、表示制御部101から取得したタイミング信号に同期して、撮像画像から黒目の眼位の変化を測定する。眼位とは、ここでは、黒目の位置を表す。タイミング信号は、例えば、立体画像を表示して数秒後に出力され、第3画像に変更してから5秒後などに出力される。   The measurement unit 105 measures a change in the eye position of the black eye from the captured image in synchronization with the timing signal acquired from the display control unit 101. Here, the eye position represents the position of the black eye. The timing signal is output, for example, several seconds after displaying a stereoscopic image, and is output five seconds after changing to the third image.

第2記憶部106は、測定部105による眼位の測定結果を記憶する。   The second storage unit 106 stores the measurement result of the eye position by the measurement unit 105.

(眼位測定処理)
次に、測定部105による眼位測定処理について説明する。図7は、眼位の変化を示す図である。図7に示す例は、撮像部104により撮像された眼球の位置を示す。
(Eye position measurement process)
Next, the eye position measurement process by the measurement unit 105 will be described. FIG. 7 is a diagram illustrating changes in eye position. The example illustrated in FIG. 7 illustrates the position of the eyeball imaged by the imaging unit 104.

図7(A)は、はじめに提示した両眼融像のテスト画像鑑賞中の黒目の様子を示す。そして、一方の画像(右目用の画像)を例えば黒画像にする。つまり、図7(A)に示す右目R2の輻輳を除去する。   FIG. 7A shows a state of black eyes during viewing of a test image of the binocular fusion presented first. Then, one image (the image for the right eye) is made a black image, for example. That is, the congestion of the right eye R2 shown in FIG.

図7(B)は、輻輳の除去後、黒目の位置がずれた様子を示す。図7(B)に示す右目R3の黒目は、図7(A)に示す右目R2の黒目の位置よりも外側にずれている。この黒目の位置ズレを、測定部105が測定する。この黒目の位置ズレは、眼位の変化であり、例えば、画像のピクセル数で表すことができる。一般的に、角度にして例えば5度以上黒目がずれる人は、立体視が得意ではないとして要注意とされている。   FIG. 7B shows a state in which the position of the black eye is shifted after the congestion is removed. The black eye of the right eye R3 shown in FIG. 7B is shifted outward from the position of the black eye of the right eye R2 shown in FIG. The measurement unit 105 measures the misalignment of the black eye. This misalignment of the black eye is a change in eye position, and can be represented by, for example, the number of pixels in the image. In general, it is considered that a person whose black eyes are shifted by, for example, 5 degrees or more in angle is not good at stereoscopic viewing.

図8は、眼位の変化と画像上のピクセルとの関係の一例を示す図である。図8に示す例では、鑑賞距離Vd=300mm、両眼融像のテスト画像の定位位置Wd=220mm、眼間距離Ce=63mm、眼球の直径Re=24mmとする。また、輻輳角θ1=16度、閾値θ2=5度とする。眼間距離は、一般的には65mmであるが、寄り目状態になっているので、ここでは63mmとする。   FIG. 8 is a diagram illustrating an example of the relationship between changes in eye position and pixels on an image. In the example shown in FIG. 8, the viewing distance Vd = 300 mm, the binocular fusion test image localization position Wd = 220 mm, the interocular distance Ce = 63 mm, and the eyeball diameter Re = 24 mm. Also, the convergence angle θ1 = 16 degrees and the threshold θ2 = 5 degrees. The interocular distance is generally 65 mm, but it is 63 mm here because it is in a crossed eye state.

このとき、見合う角度θ3は、(θ1/2)−θ2=(16/2)−5=3度になる。ここで、見合う角度と三角関数とを用いて、眼位の変化は2.1mmと計算される。   At this time, the matching angle θ3 is (θ1 / 2) −θ2 = (16/2) −5 = 3 degrees. Here, using the matching angle and trigonometric function, the change in eye position is calculated as 2.1 mm.

また、撮像部104の水平画角と横解像度とから、ピクセル数と幅mmとの対応が定まる。例えば、水平画角60度、横解像度1600ピクセルの場合を考える。この場合、次の式により、ピクセル数と幅mmとの比Raが算出される。
L1=2×300×tan(60/2) ・・・式(1)
L1=200×√3
比Raは、L1/ピクセル数により算出される。
比Ra=200×√3/1600 ・・・式(2)
=0.216mm/pixel
これにより、閾値θ2=5度だけ黒目が変化したときのピクセル数は、2.1/0.216=9.722となり、約10ピクセル相当であると判断できる。このように、測定部105は、眼位のズレをピクセル数で表すことができる。
Further, the correspondence between the number of pixels and the width mm is determined from the horizontal angle of view and the horizontal resolution of the imaging unit 104. For example, consider a case where the horizontal field angle is 60 degrees and the horizontal resolution is 1600 pixels. In this case, the ratio Ra between the number of pixels and the width mm is calculated by the following equation.
L1 = 2 × 300 × tan (60/2) (1)
L1 = 200 × √3
The ratio Ra is calculated by L1 / number of pixels.
Ratio Ra = 200 × √3 / 1600 Expression (2)
= 0.216 mm / pixel
Thereby, the number of pixels when the black eye changes by the threshold θ2 = 5 degrees is 2.1 / 0.216 = 9.722, and it can be determined that it corresponds to about 10 pixels. As described above, the measurement unit 105 can represent the displacement of the eye position with the number of pixels.

<動作>
次に、実施例1における測定装置100の動作について説明する。図9は、実施例1における測定処理の一例を示すフローチャートである。図9に示すステップS101で、表示制御部101は、第1記憶部102に記憶される両眼融像のテスト画像を読み出し、表示部103にテスト画像を表示するよう制御する。テスト画像は、例えば、1つの物体が立体視されるような左右の画像(第1及び第2画像)である。表示制御部101は、眼位を測定するタイミングを知らせるタイミング信号を測定部105に出力する。ここでのタイミング信号は、例えば、テスト画像の立体画像が表示された後に、立体画像を認識するのにかかる数秒後に出力される。
<Operation>
Next, the operation of the measurement apparatus 100 in the first embodiment will be described. FIG. 9 is a flowchart illustrating an example of the measurement process according to the first embodiment. In step S <b> 101 shown in FIG. 9, the display control unit 101 reads the binocular fusion test image stored in the first storage unit 102 and controls the display unit 103 to display the test image. The test images are, for example, left and right images (first and second images) in which one object is stereoscopically viewed. The display control unit 101 outputs a timing signal notifying the timing for measuring the eye position to the measurement unit 105. The timing signal here is output, for example, several seconds after the stereoscopic image of the test image is displayed, after which the stereoscopic image is recognized.

ステップS102で、表示制御部101は、立体視されるテスト画像を表示制御してから一定時間経過した後、例えば、輻輳(例えば、融像性輻輳)を除去する性質を有する画像(第3画像)を第1記憶部102から読出し、一方の画像(例えば第1画像)を、この第3画像に変更するよう制御する。第3画像は、ここでは、黒画像とする。表示制御部101は、第3画像に変更した後、眼位を測定するタイミングを知らせるタイミング信号を測定部105に出力する。ここでのタイミング信号は、例えば、テスト画像の第3画像が表示された後に、輻輳が除去されるのにかかる所定時間(例えば5秒)後に出力される。   In step S102, the display control unit 101 performs, for example, an image (third image) having a property of removing congestion (for example, fusion convergence) after a predetermined time has elapsed since display control of the stereoscopically viewed test image. ) Is read from the first storage unit 102, and one image (for example, the first image) is controlled to be changed to the third image. Here, the third image is a black image. After changing to the third image, the display control unit 101 outputs a timing signal notifying the timing for measuring the eye position to the measurement unit 105. The timing signal here is output, for example, after a predetermined time (for example, 5 seconds) required to remove congestion after the third image of the test image is displayed.

ステップS103で、撮像部104は、鑑賞者の目の動きを撮影し、監視する。撮影時に撮像された画像は、順次測定部105に出力される。   In step S103, the imaging unit 104 captures and monitors the movement of the viewer's eyes. Images captured at the time of shooting are sequentially output to the measurement unit 105.

ステップS104で、測定部105は、表示制御部101から取得したタイミング信号に基づき、眼位のズレを測定する。例えば、測定部105は、第1及び第2画像のタイミング信号に同期して眼位を測定する。   In step S <b> 104, the measurement unit 105 measures the eye position deviation based on the timing signal acquired from the display control unit 101. For example, the measurement unit 105 measures the eye position in synchronization with the timing signals of the first and second images.

また、測定部105は、第3画像のタイミング信号に同期して眼位を測定する。例えば、測定部105は、第3画像に変更される前の眼位の位置と、第3画像に変更されて所定時間経った後の眼位の位置とから、眼位のズレを測定する。   The measuring unit 105 measures the eye position in synchronization with the timing signal of the third image. For example, the measurement unit 105 measures the eye position deviation from the position of the eye position before being changed to the third image and the position of the eye position after being changed to the third image after a predetermined time.

所定時間は、例えば、目が外に開く場合に、一般的にかかる時間(例えば5秒)を設定すればよい。測定部105は、テスト画像の変更前後における眼位の位置の差分をとるなどして眼位のズレを測定する。   The predetermined time may be set to a time generally required (for example, 5 seconds) when the eyes are opened outside, for example. The measuring unit 105 measures the positional deviation of the eye position by, for example, taking a difference in the position of the eye position before and after the test image is changed.

ステップS105で、表示制御部101は、再度立体視させるため、表示制御する画像を立体視されるテスト画像に戻してから一定時間経過した後、多方の画像(例えば第2画像)を、第3画像に変更するよう制御する。第3画像に変更し、眼位を測定するタイミングを知らせるタイミング信号を測定部105に出力する。   In step S <b> 105, the display control unit 101 returns the image to be displayed to the test image to be stereoscopically viewed for a certain period of time, and then displays the multiple images (for example, the second image) as the third in order to make the stereoscopic view again. Control to change to an image. The timing signal is changed to the third image, and a timing signal notifying the timing for measuring the eye position is output to the measurement unit 105.

ステップS106で、撮像部104は、鑑賞者の目の動きを撮影し、監視する。撮影時に撮像された画像は、順次測定部105に出力される。   In step S106, the imaging unit 104 captures and monitors the movement of the viewer's eyes. Images captured at the time of shooting are sequentially output to the measurement unit 105.

ステップS107で、測定部105は、表示制御部101から取得したタイミング信号に基づき、眼位のズレを測定する。例えば、測定部105は、第1及び第2画像のタイミング信号に同期して眼位の位置を測定し、第3画像のタイミング信号に同期して眼位の位置を測定する。測定部105は、テスト画像の変更前後における眼位の位置の差分をとるなどして眼位のズレを測定する。これにより、片目毎の眼位のズレを測定することができる。片目毎の眼位のズレは、第2記憶部106に記憶される。   In step S <b> 107, the measurement unit 105 measures the eye position deviation based on the timing signal acquired from the display control unit 101. For example, the measurement unit 105 measures the position of the eye position in synchronization with the timing signals of the first and second images, and measures the position of the eye position in synchronization with the timing signal of the third image. The measuring unit 105 measures the positional deviation of the eye position by, for example, taking a difference in the position of the eye position before and after the test image is changed. Thereby, the shift | offset | difference of the eye position for every eye can be measured. The shift in eye position for each eye is stored in the second storage unit 106.

以上、実施例1によれば、立体視に対する個人特性を適切に測定することができる。また、裸眼による立体視は視域が限られるので、撮像部104は、適切に目の位置を撮影することができる。   As described above, according to the first embodiment, it is possible to appropriately measure personal characteristics for stereoscopic vision. In addition, since the viewing area is limited for stereoscopic viewing with the naked eye, the imaging unit 104 can appropriately capture the eye position.

[実施例2]
次に、実施例2における立体画像表示装置について説明する。実施例2では、実施例1において測定した立体視に対する個人特性を用いて、立体画像の視差を調整する。例えば、立体視が得意な人は、飛び出し方向に立体視させるようにし、立体視が不得手な人は奥行き方向に立体視させるようにする。
[Example 2]
Next, the stereoscopic image display apparatus in Example 2 will be described. In the second embodiment, the parallax of the stereoscopic image is adjusted using the personal characteristics for the stereoscopic vision measured in the first embodiment. For example, a person who is good at stereoscopic vision is stereoscopically viewed in the pop-out direction, and a person who is not good at stereoscopic vision is stereoscopically viewed in the depth direction.

<構成>
図10は、実施例2における立体画像表示装置200の構成の一例を示すブロック図である。図10に示す構成で、図6に示す構成と同様の構成のものは同じ符号を付し、その説明を省略する。以下、主に表示制御部201、第2記憶部202について説明する。測定部105は、片目毎の測定結果を第2記憶部202に書き込む。
<Configuration>
FIG. 10 is a block diagram illustrating an example of the configuration of the stereoscopic image display apparatus 200 according to the second embodiment. In the configuration illustrated in FIG. 10, the same configuration as the configuration illustrated in FIG. 6 is denoted by the same reference numeral, and the description thereof is omitted. Hereinafter, the display control unit 201 and the second storage unit 202 will be mainly described. The measurement unit 105 writes the measurement result for each eye in the second storage unit 202.

第2記憶部202は、個人特性ファイルを記憶する。個人特性ファイルは、片目毎の眼位のズレの対称性などにより立体視の得手不得手を判定するファイルである。   The second storage unit 202 stores a personal characteristic file. The personal characteristic file is a file for determining whether or not a person is good at stereoscopic viewing based on the symmetry of the eye position shift for each eye.

図11は、個人特性ファイルの一例をテーブル形式で表す図である。図11に示すように、眼位のズレ量が閾値未満の場合、ズレ量は小とし、眼位のズレ量が閾値以上である場合、ズレ量は大とする。この閾値は、例えば、角度で表すと5度とする。また、閾値は、角度に相当するピクセル数で表してもよい。   FIG. 11 is a diagram illustrating an example of the personal characteristic file in a table format. As shown in FIG. 11, the amount of deviation is small when the amount of deviation of the eye position is less than the threshold, and the amount of deviation is large when the amount of deviation of the eye position is greater than or equal to the threshold. For example, this threshold is 5 degrees in terms of an angle. The threshold value may be expressed by the number of pixels corresponding to the angle.

また、左右の目のズレ量に対称性があるか否かで立体視の得手不得手、立体視弱者を判定することができる。対称性がある場合は「良好」、対称性がない場合は「不良」とする。   Further, it is possible to determine whether a person is poor in stereoscopic vision or weak in stereoscopic vision depending on whether or not the amount of deviation between the left and right eyes is symmetrical. When there is symmetry, “good”, and when there is no symmetry, “bad”.

例えば、左右の眼位のズレ量がともに小さくて対称性がある場合、立体視を得意とし、立体視表示に眼精疲労を感じにくいと判定できる。この場合、立体視が得意であるため、飛び出し方向(飛び出し寄り)に左右の画像の視差が調整されればよい。   For example, when both the right and left eye positions are small and symmetrical, it is possible to determine that they are good at stereoscopic viewing and are less likely to feel eye strain in the stereoscopic display. In this case, since he is good at stereoscopic viewing, the parallax between the left and right images may be adjusted in the pop-out direction (close to the pop-out).

また、左右の眼位のズレ量が大きくて対称性がある場合、立体視は可能であるが、立体視表示に眼精疲労を感じやすいと判定できる。この場合、立体視が不得手なため、奥行き方向(奥行き寄り)に左右の画像の視差が調整されればよい。   In addition, when there is a large amount of misalignment between the right and left eye positions, stereoscopic vision is possible, but it can be determined that eye strain is easily felt in the stereoscopic display. In this case, since stereoscopic vision is not good, the parallax between the left and right images may be adjusted in the depth direction (close to the depth).

なお、飛び出し寄りの調整とは、左画像を右へ、右画像を左へシフトし、交差性の視差をつけることを意味する。また、奥行き寄りの調整とは、左画像を左へ、右画像を右へシフトし、同側性の視差をつけることを意味する。   Note that the adjustment for jumping out means that the left image is shifted to the right and the right image is shifted to the left to add crossing parallax. Further, the adjustment closer to the depth means shifting the left image to the left and the right image to the right to add an ipsilateral parallax.

また、左右の眼位のズレが例えば、一方は「大」、他方は「小」である場合、立体視弱者と判定できる。この場合、立体表示に注意を促すなどの措置をとることができる。   For example, when the displacement between the left and right eye positions is “large” on one side and “small” on the other side, it can be determined that the person is visually impaired. In this case, it is possible to take measures such as calling attention to stereoscopic display.

第2記憶部202は、図11に示すような判定が行われた、個人の眼位のズレ量を用いた個人特性ファイル(ズレ小で良好、ズレ大で良好、又は不良)を記憶しておくようにしてもよい。   The second storage unit 202 stores a personal characteristics file (a small deviation is good, a large deviation is good, or a bad) using the individual eye position deviation amount, which is determined as shown in FIG. You may make it leave.

図10に戻り、表示制御部201は、片目毎の眼位のズレを測定するのは実施例1と同様である。表示制御部201は、第2記憶部202に記憶された測定結果(立体視に対する個人特性)に基づいて、表示制御部201に入力される立体映像(例えば、テレビ番組、映画など)の視差を調整する。   Returning to FIG. 10, the display control unit 201 measures the displacement of the eye position for each eye as in the first embodiment. The display control unit 201 calculates the parallax of the stereoscopic video (for example, a television program, a movie, etc.) input to the display control unit 201 based on the measurement result (personal characteristics with respect to stereoscopic vision) stored in the second storage unit 202. adjust.

図12は、視差調整の一例を示す図である。図12に示す例では、画像41は、左画像を示し、画像42は、右画像を示す。表示制御部201は、立体画像を飛び出し方向に調整する場合は、左画像41を右へシフトし、右画像42を左へシフトし、立体画像43になるよう視差を調整する。   FIG. 12 is a diagram illustrating an example of parallax adjustment. In the example shown in FIG. 12, the image 41 shows a left image, and the image 42 shows a right image. When adjusting the stereoscopic image in the pop-out direction, the display control unit 201 shifts the left image 41 to the right, shifts the right image 42 to the left, and adjusts the parallax so that the stereoscopic image 43 is obtained.

表示制御部201は、立体画像を奥行き方向に調整する場合は、左画像41を左へ、右画像42を右へシフトし、立体画像44になるように調整する。なお、調整量は、飛び出し方向の場合も、奥行き方向の場合も立体表示のガイドラインで決められる所定値以内で調整するようにすればよい。   When adjusting the stereoscopic image in the depth direction, the display control unit 201 shifts the left image 41 to the left and the right image 42 to the right so that the stereoscopic image 44 is obtained. Note that the adjustment amount may be adjusted within a predetermined value determined by the guideline for stereoscopic display in both the pop-out direction and the depth direction.

表示制御部201は、左右の眼位のズレが対称でなく、「立体視注意」の場合は、2D(Dimension)表示を切り替え可能にしたり、鑑賞時間を短くしたり、鑑賞自体に留意するよう字幕テロップを出したりするなどの表示制御を行う。   The display control unit 201 makes it possible to switch between 2D (Dimension) display, shorten the viewing time, and pay attention to the viewing itself when the left-right eye position is not symmetrical and “stereoscopic attention” is set. Display control such as subtitle telop.

(視差調整処理)
次に、図13〜16を用いて、表示制御部201における視差調整処理について説明する。図13は、視差角の一例を示す図である。図13〜16で示す例では、鑑賞距離Vd=300mm、眼球直径Re=24mm、ディスプレイ面を見たときの眼間距離Ceを64mmとする。
(Parallax adjustment processing)
Next, the parallax adjustment process in the display control unit 201 will be described with reference to FIGS. FIG. 13 is a diagram illustrating an example of the parallax angle. In the examples shown in FIGS. 13 to 16, the viewing distance Vd = 300 mm, the eyeball diameter Re = 24 mm, and the interocular distance Ce when viewing the display surface is 64 mm.

このとき、表示部103(ディスプレイ)を見合う角度βは12.2度となる。さらに表示する立体画像のコンテンツの視差の条件として±1度の視差以内という条件をつけると、α=13.2度、γ=11.2度となる。   At this time, the angle β for matching the display unit 103 (display) is 12.2 degrees. Furthermore, if a condition of within ± 1 degree of parallax is added as the parallax condition of the stereoscopic image content to be displayed, α = 13.2 degrees and γ = 112 degrees.

ここで、α、γの視差角での立体定位位置、Pn、Ppを考える。表示部103と眼球の眼底のつくる三角形の底辺Beは、次の式で求められる。
Be=64×(Vd+Re)/Vd=69.1(mm) ・・・式(3)
この三角形の底辺Beとα(ないしγ)の角をなす二等辺三角形の底辺Beに下ろしてできる直角三角形を用いると、次の式が成り立つ。
(Be/2)/(Vd−Pn+Re)=tan(13.2/2) ・・・式(4)
これにより、Pnは、25.3mmと求められる。
Here, the stereo localization positions Pn and Pp at the parallax angles α and γ are considered. The base Be of a triangle formed by the display unit 103 and the fundus of the eyeball is obtained by the following equation.
Be = 64 × (Vd + Re) /Vd=69.1 (mm) (3)
When a right triangle formed by lowering the base Be of an isosceles triangle that forms an angle of α (or γ) with the base Be of this triangle, the following equation is established.
(Be / 2) / (Vd−Pn + Re) = tan (13.2 / 2) (4)
Thereby, Pn is calculated | required with 25.3 mm.

同様にして、視差角γと直角三角形を用いると、次の式が成り立つ。
(Be/2)/(Vd+Pp+Re)=tan(11.2/2) ・・・式(5)
これにより、Ppは、28.5mmと求められる。
Similarly, when a parallax angle γ and a right triangle are used, the following equation is established.
(Be / 2) / (Vd + Pp + Re) = tan (11.2 / 2) (5)
Thereby, Pp is calculated | required with 28.5 mm.

図14は、画面上視差Ddを求めるための相似関係を示す図である。図14に示す定位位置Sdの画面上の視差Ddは、点線枠の三角形51と斜線の三角形52との三角形の相似を用いると次の関係が成り立つ。
Dd=Be×Sd/(Vd+Sd+Re) ・・・式(6)
この式(6)は、Sd<0の場合は飛出しのときを表す。Sd=−Pnの場合、Dd=−5.85、Sd=Ppの場合、Dd=5.59である。
FIG. 14 is a diagram illustrating a similarity relationship for obtaining the on-screen parallax Dd. The disparity Dd on the screen at the localization position Sd shown in FIG. 14 has the following relationship using the triangle similarity between the dotted-line frame triangle 51 and the diagonal triangle 52.
Dd = Be × Sd / (Vd + Sd + Re) (6)
This equation (6) represents the time of jumping out when Sd <0. When Sd = −Pn, Dd = −5.85, and when Sd = Pp, Dd = 5.59.

図15は、奥行き寄りの視差調整の一例を示す図である。図15に示す例のように、奥行き寄りに視差を調整する場合、表示制御部201は、例えば、Pnの半分の位置を表示部103面になるように視差を調整する。この場合、Sd=−Pn/2を代入して、Dd=−2.82となる。   FIG. 15 is a diagram illustrating an example of parallax adjustment closer to the depth. When the parallax is adjusted closer to the depth as in the example illustrated in FIG. 15, for example, the display control unit 201 adjusts the parallax so that the position of half of Pn becomes the surface of the display unit 103. In this case, Sd = −Pn / 2 is substituted and Dd = −2.82.

このDdを0にするように表示制御部201は視差調節する(+2.82)と、もっとも奥にあった定位の位置の視差量Ddが5.59+2.82=8.41のとき、以下の式からSdが求められる。
8.41=Be×Sd/(Vd+Sd+Re) ・・・式(7)
Sdは、44.8となり、Ppより大きくなるので確かに奥行きが増えている。
When the display control unit 201 adjusts the parallax so as to set this Dd to 0 (+2.82), when the parallax amount Dd at the farthest localization position is 5.59 + 2.82 = 8.41 Sd is obtained from the equation.
8.41 = Be × Sd / (Vd + Sd + Re) (7)
Sd is 44.8, which is larger than Pp, so the depth is certainly increasing.

図16は、飛び出し寄りの視差調整の一例を示す図である。図16に示す例のように、飛び出し寄りに視差を調整する場合、表示制御部201は、例えば、Ppの半分の位置を表示部103面になるように視差を調整する。この場合、Sd=Pp/2を代入して、Dd=2.92となる。   FIG. 16 is a diagram illustrating an example of parallax adjustment close to popping out. When the parallax is adjusted closer to the pop-out as in the example illustrated in FIG. 16, for example, the display control unit 201 adjusts the parallax so that the position of half of Pp becomes the surface of the display unit 103. In this case, Sd = Pp / 2 is substituted and Dd = 2.92.

このDdを0にするように表示制御部201は視差調節する(−2.92)と、もっとも手前にあった定位の位置の視差量Ddが−5.85−2.92=−8.77のとき、以下の式からSdが求められる。
−8.77=Be×(−Sd)/(Vd−Sd+Re) ・・・式(8)
Sdは36.22となり、Pnより大きくなるので確かに飛び出しが増えている。
When the display control unit 201 adjusts the parallax so that this Dd is set to 0 (−2.92), the parallax amount Dd at the most localized position is −5.85−2.92 = −8.77. In this case, Sd is obtained from the following equation.
−8.77 = Be × (−Sd) / (Vd−Sd + Re) (8)
Since Sd is 36.22, which is larger than Pn, the pop-out certainly increases.

<動作>
次に、実施例2における立体画像表示装置の動作について説明する。実施例2における立体画像表示装置は、実施例1と同様の測定処理を行い、測定結果に基づいて、立体画像表示制御処理を行う。以下では立体画像表示制御処理について説明する。実施例2における立体画像表示制御処理は、複数考えられるが、以下では2つの例を説明する。
<Operation>
Next, the operation of the stereoscopic image display apparatus according to the second embodiment will be described. The stereoscopic image display apparatus according to the second embodiment performs measurement processing similar to that of the first embodiment, and performs stereoscopic image display control processing based on the measurement result. Hereinafter, the stereoscopic image display control process will be described. A plurality of stereoscopic image display control processes in the second embodiment can be considered, but two examples will be described below.

(表示制御処理(その1))
図17は、実施例2における表示制御処理(その1)の一例を示すフローチャートである。図17に示すステップS201で、表示制御部201は、測定された鑑賞者の立体視に対する個人特性(測定結果)を第2記憶部202から読み出す。
(Display control processing (part 1))
FIG. 17 is a flowchart illustrating an example of display control processing (part 1) in the second embodiment. In step S <b> 201 shown in FIG. 17, the display control unit 201 reads the measured personal characteristics (measurement result) of the viewer's stereoscopic vision from the second storage unit 202.

読み出した測定結果が、例えば、「ズレ大で良好」であり、奥行き寄りの調整を示せば、表示制御部201は、表示部103より手前の位置(Sd<0)で、新たに0視差としたい定位位置Sdを決める。   If the read measurement result is, for example, “large deviation and good” and indicates an adjustment closer to the depth, the display control unit 201 newly sets 0 parallax at a position (Sd <0) before the display unit 103. The localization position Sd to be determined is determined.

読み出した測定結果が、「ズレ小で良好」であり、飛び出し寄りの調整を示せば、表示制御部201は、表示部103より奥の位置(Sd>0)で、新たに0視差としたい定位位置Sdを決める。   If the read measurement result is “small and good” and shows an adjustment of the pop-up, the display control unit 201 is positioned to be newly set to 0 parallax at a position (Sd> 0) behind the display unit 103. The position Sd is determined.

ステップS202で、表示制御部201は、Sdの画面上の視差量Ddを式(6)により求める。   In step S202, the display control unit 201 obtains the parallax amount Dd on the screen of Sd by Expression (6).

ステップS203で、表示制御部201は、表示部103の大きさと解像度とから、Ddを表示部103の画面上のピクセル値に換算する。表示制御部201は、式(1)や式(2)の考えに基づき、ピクセル値を求めることができる。   In step S <b> 203, the display control unit 201 converts Dd into a pixel value on the screen of the display unit 103 based on the size and resolution of the display unit 103. The display control unit 201 can obtain a pixel value based on the idea of Expression (1) or Expression (2).

ステップS204で、表示制御部201は、求めたピクセル数が負ならば、左右の画像を各々ピクセル数の半分ずつ同側方向にシフトする。また、表示制御部201は、求めたピクセル数が正ならば、左右の画像を各々ピクセル数の半分ずつ交差方向にシフトする。   In step S204, if the calculated number of pixels is negative, the display control unit 201 shifts the left and right images in the same direction by half the number of pixels. If the obtained number of pixels is positive, the display control unit 201 shifts the left and right images in the crossing direction by half the number of pixels.

なお、表示制御部201は、測定結果が、「不良」を示す場合、2D表示に切り替え可能にしたり、鑑賞時間を短くしたりなどの注意喚起を行うよう制御してもよい。   Note that, when the measurement result indicates “defective”, the display control unit 201 may perform control so as to call attention such as enabling switching to 2D display or shortening the viewing time.

(表示制御処理(その2))
図18は、実施例2における表示制御処理(その2)の一例を示すフローチャートである。図18に示す処理は、眼位のズレ(変化量)に応じて視差量を調整する処理である。
(Display control processing (part 2))
FIG. 18 is a flowchart illustrating an example of display control processing (part 2) in the second embodiment. The process illustrated in FIG. 18 is a process of adjusting the parallax amount according to the eye position shift (change amount).

図18に示すステップS301で、表示制御部201は、左右の眼位の変化量を第2記憶部202から読み出す。ここで、左の眼位の変化量をΔ(L)、右の眼位の変化量をΔ(R)とする。   In step S <b> 301 illustrated in FIG. 18, the display control unit 201 reads the amount of change in the left and right eye positions from the second storage unit 202. Here, the change amount of the left eye position is Δ (L), and the change amount of the right eye position is Δ (R).

表示制御部201は、変化量Δ(L)とΔ(R)とが対称か否かを判定する。対称の判定は、前述したように、閾値よりも小さい同士、又は閾値よりも大きい同士の場合に対称と判定し、一方が閾値よりも小さい、他方が閾値よりも大きい場合を非対称とする。対称であれば(ステップS301−YES)ステップS302に進み、非対象であれば(ステップS301−NO)ステップS306に進む。   The display control unit 201 determines whether or not the change amounts Δ (L) and Δ (R) are symmetric. As described above, the determination of symmetry is determined to be symmetric when the values are smaller than the threshold or larger than the threshold, and the case where one is smaller than the threshold and the other is larger than the threshold is asymmetric. If it is symmetric (step S301-YES), it will progress to step S302, and if it is non-object (step S301-NO), it will progress to step S306.

ステップS302で、表示制御部201は、新たに0視差としたい定位位置Sdを次の式により求める。
Sd=−K×(眼位変化量Δ−閾値Th) ・・・式(9)
K:定数
眼位変化量Δ:眼位変化量Δ(L)とΔ(R)の大きい方
閾値Th:図8に示す例で説明すると、5度に対応する変位2.1mmをピクセル換算した値
なお、定数Kは、図8に示す例で説明すると、眼位変化量Δは最大で8度(平行視)であることを勘案して、そのときに視差角1度の飛び出し量となるように定める。また、眼位変化量Δは、Δ(L)とΔ(R)との平均でもよい。
In step S302, the display control unit 201 obtains a localization position Sd that is to be newly set to 0 parallax by the following equation.
Sd = −K × (eye position change amount Δ−threshold Th) Expression (9)
K: Constant eye position change amount Δ: Eye position change amount Δ (L) and Δ (R) having a larger threshold value Th: In the example shown in FIG. 8, a displacement of 2.1 mm corresponding to 5 degrees is converted into a pixel. Value Note that the constant K is an amount of protrusion with a parallax angle of 1 degree in consideration of the fact that the eye position change amount Δ is 8 degrees at maximum (parallel viewing), as explained in the example shown in FIG. Determine as follows. Further, the eye position change amount Δ may be an average of Δ (L) and Δ (R).

ステップS303からステップS305は、ステップS202からステップS204までの処理と同様である。   Steps S303 to S305 are the same as the processes from step S202 to step S204.

ステップS306で、表示制御部201は、左右の眼位の変化量が非対称であるので、例えば、鑑賞者に対して立体視の注意喚起を促す画面を表示するよう制御する。   In step S306, the display control unit 201 performs control so as to display, for example, a screen that urges the viewer to call attention to stereoscopic viewing because the change amount of the left and right eye positions is asymmetric.

以上の処理により、表示制御部201は、閾値5度を基準として、それより眼位変化量の大きいものは、Sd<0なる定位位置が表示部103上で0視差となるよう視差調整量を可変に制御することができる。一方、表示制御部201は、閾値より眼位変化量の小さいものは、Sd>0なる定位位置が表示部103上で0視差となるように、眼位変化量に応じて視差調整量を可変に制御することができる。   With the above processing, the display control unit 201 sets the parallax adjustment amount so that the localization position where Sd <0 is 0 parallax on the display unit 103 when the eye position change amount is larger than the threshold value of 5 degrees. It can be variably controlled. On the other hand, the display control unit 201 changes the parallax adjustment amount according to the eye position change amount so that the position where the eye position change amount is smaller than the threshold value is 0 parallax on the display unit 103 at the localization position where Sd> 0. Can be controlled.

以上、実施例2によれば、実施例1において測定した立体視に対する個人特性を用いて、立体画像の視差を調整することができる。例えば、立体視が得意な人は、飛び出し方向に立体視させるようにし、立体視が不得手な人は奥行き方向に立体視させるようにすることができる。また、実施例2によれば、眼位の変化量に応じて視差量を調整することができる。   As described above, according to the second embodiment, the parallax of the stereoscopic image can be adjusted using the personal characteristics with respect to the stereoscopic vision measured in the first embodiment. For example, a person who is good at stereoscopic vision can be stereoscopically viewed in the pop-out direction, and a person who is not good at stereoscopic vision can be stereoscopically viewed in the depth direction. Further, according to the second embodiment, the amount of parallax can be adjusted according to the amount of change in eye position.

[実施例3]
次に、実施例3における立体画像表示装置300について説明する。実施例3では、撮像した画像内の目の虹彩を用いて個人認証を行い、虹彩と測定結果(個人特性)とを関連付けて管理する。
[Example 3]
Next, the stereoscopic image display apparatus 300 in Example 3 will be described. In the third embodiment, personal authentication is performed using the iris of the eye in the captured image, and the iris and the measurement result (personal characteristic) are associated and managed.

<構成>
図19は、実施例3における立体画像表示装置300の構成の一例を示すブロック図である。図19に示す立体画像表示装置300において、図6と同様の構成を示すものは同じ符号を付し、その説明を省略する。
<Configuration>
FIG. 19 is a block diagram illustrating an example of a configuration of the stereoscopic image display apparatus 300 according to the third embodiment. In the stereoscopic image display device 300 shown in FIG. 19, the same reference numerals are given to the same components as those in FIG. 6, and description thereof is omitted.

虹彩認証部302は、撮像部104により撮像される撮像画像を取得し、撮像画像に含まれる目を用いて、第2記憶部303にアクセスして虹彩認証を行う。虹彩の認証処理は、公知の技術を用いればよい。第2記憶部303は、例えば、虹彩による個人認証データベースを備える。   The iris authentication unit 302 acquires a captured image captured by the imaging unit 104, accesses the second storage unit 303 using the eyes included in the captured image, and performs iris authentication. A known technique may be used for the iris authentication process. The second storage unit 303 includes, for example, a personal authentication database using irises.

虹彩認証部302は、虹彩認証が成功し、虹彩に測定結果が対応付けられている場合は、測定結果を取得し、表示制御部301に出力する。虹彩認証が成功するとは、第2記憶部303に既に虹彩が記憶されている場合などをいう。   When the iris authentication is successful and the measurement result is associated with the iris, the iris authentication unit 302 acquires the measurement result and outputs it to the display control unit 301. The phrase “successful iris authentication” refers to a case where the iris is already stored in the second storage unit 303.

虹彩認証部302は、認証が成功しても測定結果が対応付けられていない場合や新規に虹彩を登録する場合などに、表示制御部301にテスト画像を表示するよう要求する。   The iris authentication unit 302 requests the display control unit 301 to display a test image when the measurement result is not associated even when the authentication is successful or when an iris is newly registered.

第2記憶部303は、虹彩の認証情報と、測定結果とを関連付けて管理する。
例えば、第2記憶部303は、虹彩と、個人情報と、その個人の立体視に対する個人特性とを関連付けて管理する。
The second storage unit 303 manages iris authentication information and measurement results in association with each other.
For example, the second storage unit 303 manages the iris, personal information, and personal characteristics of the individual with respect to stereoscopic vision in association with each other.

表示制御部301は、虹彩認証部302からテスト画像の表示要求を受けた場合、前述したようにテスト画像を表示制御する。これにより、個人特性の測定が始まり、それ以降の処理は、実施例2で説明した通りである。   When receiving a test image display request from the iris authentication unit 302, the display control unit 301 controls the display of the test image as described above. Thereby, the measurement of the personal characteristics starts, and the subsequent processing is as described in the second embodiment.

表示制御部301は、虹彩認証部302から測定結果を取得した場合、その測定結果に基づいて入力される立体画像の視差を調整する。   When the display control unit 301 acquires the measurement result from the iris authentication unit 302, the display control unit 301 adjusts the parallax of the stereoscopic image input based on the measurement result.

<動作>
次に、実施例3における立体画像表示装置300の動作について説明する。図20は、実施例3における立体画像表示装置300の処理の一例を示すフローチャートである。
<Operation>
Next, the operation of the stereoscopic image display apparatus 300 according to the third embodiment will be described. FIG. 20 is a flowchart illustrating an example of processing of the stereoscopic image display apparatus 300 according to the third embodiment.

図20に示すステップS401で、撮像部104は、鑑賞者の目近傍を撮影し、撮像した撮像画像を虹彩認証部302に出力する。   In step S <b> 401 illustrated in FIG. 20, the imaging unit 104 captures the vicinity of the viewer's eyes, and outputs the captured image to the iris authentication unit 302.

ステップS402で、虹彩認証部302は、撮像画像に含まれる虹彩に基づいて、虹彩認証を行う。   In step S402, the iris authentication unit 302 performs iris authentication based on the iris included in the captured image.

ステップS403で、虹彩認証部302は、認証した虹彩に対する測定結果が第2記憶部303にあるか否かを判定する。測定結果が記憶されていれば(ステップS403−YES)ステップS405に進み、測定結果が記憶されていなければ(ステップS403−NO)ステップS404に進む。   In step S <b> 403, the iris authentication unit 302 determines whether a measurement result for the authenticated iris is in the second storage unit 303. If the measurement result is stored (step S403-YES), the process proceeds to step S405. If the measurement result is not stored (step S403-NO), the process proceeds to step S404.

ステップS404では、図9に示す測定処理が行われる。   In step S404, the measurement process shown in FIG. 9 is performed.

ステップS405では、図17又は図18に示す表示制御処理が行われる。いずれの表示制御処理が行われるかは、表示制御部301に予め設定されていればよい。   In step S405, the display control process shown in FIG. 17 or 18 is performed. Which display control processing is performed may be set in the display control unit 301 in advance.

以上、実施例3によれば、虹彩認証を行うことで、虹彩に関連付けて測定結果が既に記憶されている場合は、毎回測定処理を行わなくてもよい。また、虹彩認証部は、実施例2に備える例について説明したが、実施例1における測定装置に備えるようにしてもよい。   As described above, according to the third embodiment, if the measurement result is already stored in association with the iris by performing the iris authentication, the measurement process may not be performed every time. Moreover, although the iris authentication part demonstrated the example with which Example 2 is provided, you may make it provide with the measuring apparatus in Example 1. FIG.

[変形例]
図21は、変形例における画像処理装置400の構成の一例を示すブロック図である。図21に示すように、画像処理装置400は、制御部401、主記憶部402、補助記憶部403、ドライブ装置404、入力部406、表示制御部407、撮像部408を備える。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
[Modification]
FIG. 21 is a block diagram illustrating an example of the configuration of the image processing apparatus 400 according to the modification. As illustrated in FIG. 21, the image processing apparatus 400 includes a control unit 401, a main storage unit 402, an auxiliary storage unit 403, a drive device 404, an input unit 406, a display control unit 407, and an imaging unit 408. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部401は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部401は、主記憶部402や補助記憶部403に記憶されたプログラムを実行する演算装置であり、入力部406や記憶装置からデータを受け取り、演算、加工した上で、表示制御部407や記憶装置などに出力する。   The control unit 401 is a CPU that controls each device, calculates data, and processes in a computer. The control unit 401 is an arithmetic device that executes a program stored in the main storage unit 402 or the auxiliary storage unit 403. The control unit 401 receives data from the input unit 406 or the storage device, calculates, and processes the display control unit. 407 and the storage device.

また、制御部401は、補助記憶部403などに記憶されている測定処理プログラム、又は表示制御処理プログラムを実行し、実施例において説明した処理を行う。   In addition, the control unit 401 executes a measurement processing program or a display control processing program stored in the auxiliary storage unit 403 or the like, and performs the processing described in the embodiment.

主記憶部402は、ROM(Read Only
Memory)やRAM(Random
Access Memory)などであり、制御部401が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
The main storage unit 402 is a ROM (Read Only
Memory) and RAM (Random
Access Memory), which is a storage device that stores or temporarily stores programs and data such as OS (Operating System) and application software, which are basic software executed by the control unit 401.

補助記憶部403は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 403 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software or the like.

ドライブ装置404は、記録媒体405、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。   The drive device 404 reads the program from the recording medium 405, for example, a flexible disk, and installs it in the storage device.

また、記録媒体405に、所定のプログラムを格納し、この記録媒体405に格納されたプログラムはドライブ装置404を介して画像処理装置400にインストールされる。インストールされた所定のプログラムは、画像処理装置400により実行可能となる。   A predetermined program is stored in the recording medium 405, and the program stored in the recording medium 405 is installed in the image processing apparatus 400 via the drive device 404. The installed predetermined program can be executed by the image processing apparatus 400.

入力部406は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部406は、ユーザが制御部401に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。   The input unit 406 includes a keyboard having cursor keys, numeric input, various function keys, and the like, and a mouse and a slice pad for performing key selection on the display screen of the display unit. An input unit 406 is a user interface for a user to give an operation instruction to the control unit 401 or input data.

表示制御部407は、LCD(Liquid
Crystal Display)等の表示部に対し、制御部401から入力される表示データに応じた表示処理を制御する。表示制御部407の処理は、制御部401による処理であってもよい。
The display control unit 407 is an LCD (Liquid
For a display unit such as Crystal Display), display processing corresponding to display data input from the control unit 401 is controlled. The processing of the display control unit 407 may be processing by the control unit 401.

撮像部408は、例えばCCD(Charge
Coupled Device)を有し、例えば左右の目を含む撮像画像を生成する。撮像部408により撮像された撮像画像に対し、制御部401により、各実施例で説明した眼位のズレが測定される。
The imaging unit 408 is, for example, a CCD (Charge
For example, a captured image including left and right eyes is generated. For the captured image captured by the image capturing unit 408, the control unit 401 measures the eye position shift described in each embodiment.

画像処理装置400は、例えばカメラを有する表示装置、携帯端末装置などである。また、画像処理装置400は、撮像部408を備える裸眼立体表示機能を有する携帯型の情報処理装置であってもよい。   The image processing device 400 is, for example, a display device having a camera, a mobile terminal device, or the like. The image processing apparatus 400 may be a portable information processing apparatus having an autostereoscopic display function that includes the imaging unit 408.

なお、各実施例では、説明上裸眼二眼式を用いて説明したが、多眼式であっても、二眼の映像データを多眼の表示画素に分割して表示できれば、二眼式に限定されるものではない。   In each embodiment, the explanation was made using a naked-eye binocular system. However, even in the case of a multi-view system, if the binocular video data can be divided into multi-view display pixels and displayed, the binocular system is used. It is not limited.

前述した各実施例で説明した測定部や表示制御部は、例えば、制御部401により実現されうる。また、各実施例における各部を1又は複数の半導体集積化回路として、携帯端末装置や撮影装置や情報処理装置などに実装することも可能である。   The measurement unit and the display control unit described in each embodiment described above can be realized by the control unit 401, for example. In addition, each unit in each embodiment can be implemented as one or a plurality of semiconductor integrated circuits in a portable terminal device, a photographing device, an information processing device, or the like.

また、前述した実施例で説明した測定処理や表示制御処理を実現するためのプログラムを記録媒体に記録することで、実施例での測定処理や表示制御処理をコンピュータに実施させることができる。   Further, by recording a program for realizing the measurement process and the display control process described in the above-described embodiment on a recording medium, the measurement process and the display control process in the embodiment can be performed by a computer.

また、このプログラムを記録媒体に記録し、このプログラムが記録された記録媒体をコンピュータや携帯端末装置に読み取らせて、前述した処理を実現させることも可能である。なお、記録媒体は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   It is also possible to record the program on a recording medium and cause the computer or portable terminal device to read the recording medium on which the program is recorded to realize the above-described processing. The recording medium is a recording medium for recording information optically, electrically or magnetically, such as a CD-ROM, flexible disk, magneto-optical disk, etc., and information is electrically recorded such as ROM, flash memory, etc. Various types of recording media such as a semiconductor memory can be used.

以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。   Although the embodiments have been described in detail above, the invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope described in the claims. It is also possible to combine all or a plurality of the components of the above-described embodiments.

Claims (9)

裸眼での立体画像を表示する表示部に対し、第1画像及び第2画像による立体画像を表示させる制御後に、前記制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、
前記表示部に表示された画像を見るユーザの眼位を撮像する撮像部と、
前記第3画像と、前記第3画像へ変更される前の前記第1画像または前記第2画像とを見る前記ユーザの眼位の変化を、前記撮像部が撮像する撮像画像から測定する測定部と、
を備える測定装置。
After the control for displaying the stereoscopic image by the first image and the second image on the display unit that displays the stereoscopic image with the naked eye, the one image to be controlled is changed to the third image having the property of removing the congestion. A display control unit;
An imaging unit for imaging the eye position of a user who views the image displayed on the display unit;
A measurement unit that measures a change in the eye position of the user who views the third image and the first image or the second image before being changed to the third image, from a captured image captured by the imaging unit. When,
A measuring apparatus comprising:
前記第3画像は、黒色の単色画像である請求項1記載の測定装置。   The measuring apparatus according to claim 1, wherein the third image is a black monochromatic image. 前記第3画像は、前記第1及び第2画像の背景と同じ色の単色画像である請求項1記載の測定装置。   The measuring apparatus according to claim 1, wherein the third image is a single-color image having the same color as a background of the first and second images. 裸眼での立体画像を表示する表示部と、
第1画像及び第2画像による立体画像を前記表示部に表示させる制御をした後に、前記制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、
前記第3画像と、前記第3画像へ変更される前の前記第1画像または前記第2画像とを見る前記ユーザの眼位の変化を、前記撮像部が撮像する撮像画像から測定する測定部と、を備え、
前記表示制御部は、
前記測定部による測定結果に基づいて、前記表示部に表示させる立体画像の視差を調整する立体画像表示装置。
A display unit for displaying a stereoscopic image with the naked eye;
A display control unit that changes the one image to be controlled to a third image having a property of removing congestion after performing control to display a stereoscopic image by the first image and the second image on the display unit;
A measurement unit that measures a change in the eye position of the user who views the third image and the first image or the second image before being changed to the third image, from a captured image captured by the imaging unit. And comprising
The display control unit
A stereoscopic image display device that adjusts a parallax of a stereoscopic image to be displayed on the display unit based on a measurement result by the measurement unit.
前記表示制御部は、
前記測定結果に基づいて左右の目の眼位の変化が対称である場合に、前記立体画像が立体視されるよう視差を調整する請求項4記載の立体画像表示装置。
The display control unit
The stereoscopic image display apparatus according to claim 4, wherein the parallax is adjusted so that the stereoscopic image is stereoscopically viewed based on the measurement result when the changes in the eye positions of the left and right eyes are symmetrical.
前記表示制御部は、
前記左右の目の眼位の変化が所定値より小さく、かつ対称である場合、前記立体画像が飛び出る方向に立体視されるよう視差を調整し、前記左右の目の眼位の変化が前記所定値より大きく、かつ対称である場合、前記立体画像が奥行き方向に立体視されるよう視差を調整する請求項5記載の立体画像表示装置。
The display control unit
When the change in the eye position of the left and right eyes is smaller than a predetermined value and symmetric, the parallax is adjusted so that the stereoscopic image is stereoscopically viewed in the direction of popping out, and the change in the eye position of the left and right eyes The stereoscopic image display apparatus according to claim 5, wherein the parallax is adjusted so that the stereoscopic image is stereoscopically viewed in the depth direction when the value is larger than the value and symmetric.
虹彩と前記測定結果とを関連付けて記憶する記憶部と、
前記撮像画像内の虹彩を用いて認証を行い、該虹彩に対応する測定結果が前記記憶部に記憶されていない場合、前記表示制御部に表示要求を行う認証部と、をさらに備え、
前記表示制御部は、
前記認証部から表示要求を受けた場合、前記表示部に対して前記第1画像、前記第2画像及び前記第3画像を表示させる制御をする請求項4乃至6いずれか一項に記載の立体画像表示装置。
A storage unit for storing the iris and the measurement result in association with each other;
An authentication unit that performs authentication using the iris in the captured image and, when the measurement result corresponding to the iris is not stored in the storage unit, further includes an authentication unit that makes a display request to the display control unit;
The display control unit
The solid according to any one of claims 4 to 6, wherein when a display request is received from the authentication unit, the display unit is controlled to display the first image, the second image, and the third image. Image display device.
前記認証部は、
前記撮像画像内の虹彩に対応する測定結果が前記記憶部に記憶されている場合、前記虹彩に対応する測定結果を前記記憶部から取得し、該測定結果を前記表示制御部に出力する請求項7記載の立体画像表示装置。
The authentication unit
The measurement result corresponding to the iris is acquired from the storage unit when the measurement result corresponding to the iris in the captured image is stored in the storage unit, and the measurement result is output to the display control unit. 7. The stereoscopic image display device according to 7.
裸眼での立体画像を表示する表示部に対し、第1画像及び第2画像による立体画像を表示させる制御後に、前記制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更し、
前記表示部に表示された画像を見るユーザの眼位を撮像部により撮像し、
前記第3画像と、前記第3画像へ変更される前の前記第1画像または前記第2画像とを見る前記ユーザの眼位の変化を、前記撮像部が撮像する撮像画像から測定する処理をコンピュータが実行する測定方法。
After the control for displaying the stereoscopic image with the first image and the second image on the display unit that displays the stereoscopic image with the naked eye, the one image to be controlled is changed to the third image having a property of removing the congestion. ,
Imaging the eye position of the user who sees the image displayed on the display unit by the imaging unit,
A process of measuring a change in the eye position of the user who views the third image and the first image or the second image before being changed to the third image from a captured image captured by the imaging unit. A measurement method performed by a computer.
JP2013506943A 2011-03-30 2011-03-30 Measuring device, stereoscopic image display device, and measuring method Expired - Fee Related JP5725159B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/058016 WO2012131937A1 (en) 2011-03-30 2011-03-30 Measurement device, stereoscopic image display device and measurement method

Publications (2)

Publication Number Publication Date
JPWO2012131937A1 true JPWO2012131937A1 (en) 2014-07-24
JP5725159B2 JP5725159B2 (en) 2015-05-27

Family

ID=46929762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013506943A Expired - Fee Related JP5725159B2 (en) 2011-03-30 2011-03-30 Measuring device, stereoscopic image display device, and measuring method

Country Status (2)

Country Link
JP (1) JP5725159B2 (en)
WO (1) WO2012131937A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2629694T3 (en) * 2012-10-22 2017-08-14 Realvision S.R.L. Device network for conducting optical / optometric / ophthalmological tests and procedure for controlling said device network
US9182817B2 (en) * 2013-03-12 2015-11-10 Intel Corporation Techniques for automated evaluation of 3D visual content
GB2618354A (en) * 2022-05-05 2023-11-08 Envisics Ltd Head-up display

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06197868A (en) * 1992-12-31 1994-07-19 Canon Inc Eye refraction meter
JP3771964B2 (en) * 1996-03-12 2006-05-10 オリンパス株式会社 3D image display device
JPH11155814A (en) * 1997-11-28 1999-06-15 Nidek Co Ltd Visual function inspecting device
JP2000013818A (en) * 1998-06-23 2000-01-14 Nec Corp Stereoscopic display device and stereoscopic display method
JP3647376B2 (en) * 2001-01-31 2005-05-11 キヤノン株式会社 Viewpoint position detection apparatus, viewpoint position detection method, and stereoscopic image display system
JP2004333661A (en) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> Stereoscopic image display device, stereoscopic image display method, and stereoscopic image display program
JP2005230459A (en) * 2004-02-23 2005-09-02 Tsuneto Iwasaki Method for measuring convergent accommodation to convergence ratio using three-dimensional display
JP2008077008A (en) * 2006-09-25 2008-04-03 Casio Comput Co Ltd Display device
JP2008278302A (en) * 2007-05-01 2008-11-13 Sharp Corp Television receiver and viewing information acquiring apparatus
JP5266126B2 (en) * 2009-03-31 2013-08-21 富士フイルム株式会社 Image display apparatus and method, and program

Also Published As

Publication number Publication date
JP5725159B2 (en) 2015-05-27
WO2012131937A1 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
US8648876B2 (en) Display device
JP4787905B1 (en) Image processing apparatus and method, and program
JP5515301B2 (en) Image processing apparatus, program, image processing method, recording method, and recording medium
US20110316987A1 (en) Stereoscopic display device and control method of stereoscopic display device
EP2472304A2 (en) Head-mounted display
JP2012010309A (en) Stereoscopic moving image display device, and operation method of the same
US9167223B2 (en) Stereoscopic video processing device and method, and program
US20140139647A1 (en) Stereoscopic image display device
WO2022267573A1 (en) Switching control method for glasses-free 3d display mode, and medium and system
JP6024159B2 (en) Information presenting apparatus, information presenting system, server, information presenting method and program
JP4634863B2 (en) Stereoscopic image generation apparatus and stereoscopic image generation program
JP5725159B2 (en) Measuring device, stereoscopic image display device, and measuring method
CN109799899A (en) Interaction control method, device, storage medium and computer equipment
JP2010171628A (en) Image processing device, program, image processing method, recording method, and recording medium
JP5990939B2 (en) Stereoscopic training support device, stereoscopic training support system, image processing device, image processing method, and program
JPWO2012157177A1 (en) Congestion capability determination device and method
JP4787369B1 (en) Image processing apparatus and method, and program
AU2011348147B2 (en) Method and system for disparity adjustment during stereoscopic zoom
TW201244457A (en) 3D video camera and associated control method
JP2010267192A (en) Touch control device for three-dimensional imaging
WO2013042392A1 (en) Three-dimensional image evaluation device
JP2001218231A (en) Device and method for displaying stereoscopic image
JP2018191079A (en) Multifocal visual output method, multifocal visual output apparatus
JP2011211754A (en) Image processing apparatus and method, and program
WO2011114767A1 (en) Three-dimensional image display device, three-dimensional imaging device, television receiver, game device, recording medium, and method of transmitting three-dimensional image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R150 Certificate of patent or registration of utility model

Ref document number: 5725159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees