JPWO2012131937A1 - Measuring device, stereoscopic image display device, and measuring method - Google Patents
Measuring device, stereoscopic image display device, and measuring method Download PDFInfo
- Publication number
- JPWO2012131937A1 JPWO2012131937A1 JP2013506943A JP2013506943A JPWO2012131937A1 JP WO2012131937 A1 JPWO2012131937 A1 JP WO2012131937A1 JP 2013506943 A JP2013506943 A JP 2013506943A JP 2013506943 A JP2013506943 A JP 2013506943A JP WO2012131937 A1 JPWO2012131937 A1 JP WO2012131937A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- stereoscopic
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000005259 measurement Methods 0.000 claims abstract description 69
- 230000008859 change Effects 0.000 claims abstract description 30
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 210000001508 eye Anatomy 0.000 claims description 134
- 230000008569 process Effects 0.000 claims description 22
- 238000000691 measurement method Methods 0.000 claims description 3
- 239000007787 solid Substances 0.000 claims description 3
- 210000000554 iris Anatomy 0.000 description 27
- 238000012545 processing Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 21
- 238000012360 testing method Methods 0.000 description 20
- 235000002673 Dioscorea communis Nutrition 0.000 description 10
- 241000544230 Dioscorea communis Species 0.000 description 10
- 208000035753 Periorbital contusion Diseases 0.000 description 10
- 210000005252 bulbus oculi Anatomy 0.000 description 9
- 230000004807 localization Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000004927 fusion Effects 0.000 description 7
- 208000003464 asthenopia Diseases 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003447 ipsilateral effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000029664 specification of symmetry Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/18—Stereoscopic photography by simultaneous viewing
- G03B35/24—Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
測定装置は、裸眼での立体画像を表示する表示部に対し、第1画像及び第2画像による立体画像を表示させる制御後に、制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、表示部に表示された画像を見るユーザの眼位を撮像する撮像部と、第3画像と、第3画像へ変更される前の前記第1画像または第2画像とを見るユーザの眼位の変化を、撮像部が撮像する撮像画像から測定する測定部と、を備える。The measurement apparatus has a property of removing one of the images to be controlled after the control for displaying the stereoscopic image by the first image and the second image on the display unit that displays the stereoscopic image with the naked eye. A display control unit that changes to an image, an imaging unit that captures the eye position of a user who views the image displayed on the display unit, a third image, and the first image or the second image before being changed to the third image A measuring unit that measures a change in the eye position of the user who views the image from a captured image captured by the imaging unit.
Description
本発明は、裸眼での立体画像を表示制御する測定装置、立体画像表示装置及び測定方法に関する。 The present invention relates to a measurement apparatus, a stereoscopic image display apparatus, and a measurement method for controlling display of a stereoscopic image with the naked eye.
両眼視による立体画像を鑑賞する際に、眼精疲労が起きることが知られている。このため立体映像制作における安全ガイドラインが周知されており、一例としては視差量をつけすぎないことが万人向けのコンテンツを制作する上で推奨されている。 It is known that eye strain occurs when viewing stereoscopic images by binocular vision. For this reason, safety guidelines for producing stereoscopic video are well known, and as an example, it is recommended that content with a parallax amount not be excessively applied when producing content for everyone.
しかし、立体視は個人差があるものであり、そのガイドラインを守ると立体感に乏しいと感じる人がいる一方で、ガイドライン内であっても長時間視聴し続けると疲れが発生する人、しない人が現れる。 However, there is a difference between individuals in stereoscopic vision, and there are people who feel that the stereoscopic effect is poor if they follow the guidelines, while those who do not feel tired if they keep watching for a long time even within the guidelines, those who do not Appears.
両眼視の特性を計測する従来技術としては、三次元物体の提示位置に対する輻輳と眼の屈折状態の応答を測定し、「眼の屈折状態と輻輳の不一致」について調べる手法がある。 As a conventional technique for measuring the characteristics of binocular vision, there is a method of measuring the response of the convergence and the refractive state of the eye to the presentation position of the three-dimensional object, and examining “the mismatch between the refractive state of the eye and the convergence”.
また、眼精疲労を起こさないディスプレイとして、観察者の眼の調節や輻輳がどのような状態にあるかに直接依拠して左眼用映像および右眼用映像を提示する手法がある。 Further, as a display that does not cause eyestrain, there is a method of presenting a left-eye image and a right-eye image that directly depends on the state of eye adjustment or convergence of the observer.
さらに、瞳孔間隔から両眼の焦点位置を求め、「調節と輻輳の不一致」の範囲になったら、視差補正を行う手法がある。虹彩間間隔から両眼の注視点を求め、時間積算して閾値を超えたら、疲労状態と判定して警告を発する手法がある。 Further, there is a method of obtaining parallax correction when the focal position of both eyes is obtained from the pupil interval and the range of “mismatch between adjustment and convergence” is entered. There is a method of obtaining a warning point by determining a fatigue state when a gazing point of both eyes is obtained from an inter-iris interval, and time integration is performed and a threshold value is exceeded.
従来技術は、眼球の輻輳調節状態を監視し、鑑賞時における疲労をみるものである。ここで、図1は、輻輳調節の不一致を説明するための図である。図1では、ディスプレイのスクリーン10面に交差性視差のついた立体映像が表示されている。図1に示す場合、右目R1には左側の絵11、左目L1には右側の絵12が入ってきて、脳の中で像を結んだ結果、スクリーン10より飛び出した位置に立体映像13が定位することを示している。
The conventional technology monitors the eyeball's convergence adjustment state and observes fatigue during viewing. Here, FIG. 1 is a diagram for explaining the mismatch of the congestion adjustment. In FIG. 1, a stereoscopic image with crossing parallax is displayed on the
このとき、目のピント(調節)は、左目L1、右目R1ともスクリーン10上の画像にあっており、一方で立体像として像を結んだ位置に目の寄り目がおきている。この寄り目になる機能を輻輳と呼ぶ。
At this time, the focus (adjustment) of the eyes is in the image on the
自然界のものをみるとき、寄り目で見たものにピントを合わせる。これが2眼式立体画像では一致しないことから、自然なものでは感じない疲労感につながるとされる。 When looking at things in nature, focus on what you see with a cross-eyed eye. Since this does not match in a binocular stereoscopic image, it is considered that it leads to a feeling of fatigue that is not felt in a natural thing.
以上のように、輻輳調節の不一致は、眼精疲労の原因になるが、同じ鑑賞時間でも人によって疲れやすさが違う。よって、従来技術では、鑑賞者の立体視に対する適性といったことは加味されていなかった。したがって、立体視に対する個人特性を測定できていないという問題があった。 As described above, the discrepancy in convergence adjustment causes eye strain, but the ease of fatigue varies depending on the person even during the same viewing time. Therefore, the prior art does not take into consideration the applicability of the viewer to stereoscopic vision. Therefore, there has been a problem that personal characteristics for stereoscopic vision cannot be measured.
そこで、開示の技術は、上記問題点に鑑みてなされたものであり、立体視に対する個人特性を適切に測定することができる測定装置、立体画像表示装置及び測定方法を提供することを目的とする。 Therefore, the disclosed technology has been made in view of the above-described problems, and an object thereof is to provide a measuring device, a stereoscopic image display device, and a measuring method that can appropriately measure personal characteristics for stereoscopic vision. .
開示の一態様における測定装置は、裸眼での立体画像を表示する表示部に対し、第1画像及び第2画像による立体画像を表示させる制御後に、制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、表示部に表示された画像を見るユーザの眼位を撮像する撮像部と、第3画像と、第3画像へ変更される前の前記第1画像または第2画像とを見るユーザの眼位の変化を、撮像部が撮像する撮像画像から測定する測定部と、を備える
開示の他の態様における立体画像表示装置は、裸眼での立体画像を表示する表示部と、第1画像及び第2画像による立体画像を前記表示部に表示させる制御をした後に、制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、第3画像と、第3画像へ変更される前の第1画像または第2画像とを見るユーザの眼位の変化を、撮像部が撮像する撮像画像から測定する測定部と、を備え、表示制御部は、測定部による測定結果に基づいて、表示部に表示させる立体画像の視差を調整する。The measuring device according to one aspect of the disclosure has a property of removing congestion on one of the images to be controlled after the control for displaying the stereoscopic image by the first image and the second image on the display unit that displays the stereoscopic image with the naked eye. A display control unit that changes to a third image, an imaging unit that captures the eye position of a user who views the image displayed on the display unit, a third image, and the first image before the change to the third image A stereoscopic image display apparatus according to another aspect of the disclosure includes a measuring unit that measures a change in the eye position of a user who views the image or the second image from a captured image captured by the imaging unit. Display control for controlling the display unit to display a stereoscopic image based on the first image and the second image on the display unit, and then changing one of the controlled images to a third image having a property of eliminating congestion Part, third image, third image A measurement unit that measures a change in the eye position of the user who views the first image or the second image before being changed to a captured image captured by the imaging unit, and the display control unit measures by the measurement unit Based on the result, the parallax of the stereoscopic image displayed on the display unit is adjusted.
開示の技術によれば、立体視に対する個人特性を適切に測定することができる。 According to the disclosed technology, it is possible to appropriately measure personal characteristics for stereoscopic vision.
100 測定装置
101、201、301 表示制御部
102 第1記憶部
103 表示部
104 撮像部
105 測定部
106、202、303 第2記憶部
200、300 立体画像表示装置
201 表示制御部
202 第2記憶部
302 虹彩認証部DESCRIPTION OF
まず、人間の眼球の輻輳の動きについて説明する。図2は、両眼視における輻輳を説明するための図である。図2に示す例では、3つの輻輳の機能について説明する。
(1)緊張性輻輳
緊張性輻輳は、まぶたをあけると光が入る刺激による輻輳をいう
(2)調整性輻輳
調整性輻輳は、ピント調整をすることで誘起される輻輳をいう。
(3)融像性輻輳
融像性輻輳は、頭の中で左右2つの像がひとつになるようにする輻輳をいう。First, the movement of human eyeball convergence will be described. FIG. 2 is a diagram for explaining convergence in binocular vision. In the example shown in FIG. 2, three congestion functions will be described.
(1) Tension congestion Tension congestion refers to congestion caused by light that enters when the eyelids are opened. (2) Adjustable congestion adjustment congestion refers to congestion induced by adjusting the focus.
(3) Fusion vergence Fused vergence refers to vergence in which two left and right images become one in the head.
輻輳機能は、緊張がなければ外側に開散した状態から、筋肉をつかって(1)、(2)、(3)の順に内側に向けていく機能といえる。 It can be said that the convergence function is a function in which the muscles are directed inward in the order of (1), (2), and (3) from the state of spreading outward when there is no tension.
次に、図3は、輻輳を除去することで発生する眼位のズレを説明するための図である。図3に示す例では、両目が近距離の物体20を一点に見つめた状態で、片目(例えば右目R1)を遮蔽板21により遮蔽することで輻輳(例えば、融像性輻輳)を除去する。
Next, FIG. 3 is a diagram for explaining a shift in eye position that occurs when congestion is removed. In the example shown in FIG. 3, congestion (for example, fusion convergence) is removed by shielding one eye (for example, the right eye R1) with the
この場合、そのままの眼位を保つことができる人もいれば、輻輳が緩んで外側(黒目が離れる方向)に開いていく人もいることが知られている。後者の人は斜位と呼ばれる。斜位の人は、日常近いものを見るときに斜位になるのを目の筋肉で食い止めながら両眼視を行う。例えば、斜位を持つような人は、飛び出しの立体視に対しては疲れやすいといえる。 In this case, it is known that there are people who can keep the eye position as it is, and there are people who loosen the convergence and open to the outside (the direction in which the black eyes leave). The latter person is called oblique. An oblique person performs binocular vision while holding the oblique position with his eye muscles when looking at something close to everyday life. For example, it can be said that a person who has an oblique position is easily tired from the stereoscopic view of popping out.
この眼球の動きをカメラのようなイメージセンサで追跡すれば、個人による眼位のズレを測定することができる。しかし、HMD(Head Mounted Display)を含むメガネ式の立体では、その眼球が覆われてしまい、黒目部分の追跡が難しくなる。 By tracking the movement of the eyeball with an image sensor such as a camera, it is possible to measure the eye position shift by the individual. However, in an eyeglass-type solid including an HMD (Head Mounted Display), the eyeball is covered, making it difficult to track the black eye part.
そこで、以下に説明する実施例では、裸眼式の立体画像表示装置を用いる。図4は、裸眼二眼式のディスプレイの一例を示す図である。図4に示すように、液晶パネル25の前に視差バリア26を設ける。液晶パネル25では、例えば、奇数列に左目用の画像、偶数列には右目用の画像を表示し、その画像を、視差バリア26で、左右の目に振り分けている。なお、画像は、静止画、動画(映像)を含む。
Therefore, in the embodiment described below, a naked-eye type stereoscopic image display device is used. FIG. 4 is a diagram illustrating an example of an autostereoscopic display. As shown in FIG. 4, a
図4に示すように裸眼二眼式は、クロストークのない快適な視域(場所と観察距離)は限られるという特性をもつ。適切な場所や観察距離でなければ立体画像が適切に見ることができないからである。 As shown in FIG. 4, the autostereoscopic type has a characteristic that a comfortable viewing area (location and observation distance) without crosstalk is limited. This is because a stereoscopic image cannot be viewed properly unless it is at an appropriate location and observation distance.
よって、裸眼式の立体画像表示装置では、ディスプレイ位置に対して眼球位置はほぼ固定されると言える。視域の制限は、例えば、手に持つことができるという携帯型デバイスであればそれほどその制限を感じさせるものではない。 Therefore, it can be said that in the autostereoscopic image display apparatus, the eyeball position is substantially fixed with respect to the display position. For example, if the portable device is capable of being held in the hand, the restriction of the viewing zone does not feel that much.
図5は、右目に対し黒画像を表示し、右目を監視する例を示す図である。図5に示すように、両眼視状態から片側画像を黒画像にすることで、輻輳(例えば、融像性輻輳)を除去する。黒画像は、光を遮断するため輻輳を除去する性質を有する画像である。 FIG. 5 is a diagram illustrating an example in which a black image is displayed for the right eye and the right eye is monitored. As shown in FIG. 5, convergence (for example, fusion convergence) is removed by making the one-sided image black from the binocular viewing state. The black image is an image having a property of removing congestion in order to block light.
輻輳を除去する性質を有する画像は、黒画像に限定されるわけではなく、物体が含まれていない単色画像などでもよい。また、単色画像でも、直前に表示していた立体画像と同じ背景色を有する単色画像などがふさわしい。 An image having the property of eliminating congestion is not limited to a black image, and may be a single color image that does not include an object. Further, even a single color image is suitable as a single color image having the same background color as the stereoscopic image displayed immediately before.
図5に示す場合の黒目の様子を、裸眼での立体画像表示装置に取り付けたカメラ30で追跡することで、眼位のズレを測定することができる。この測定手法では、裸眼であるから眼位を直接観察することができる。また、視域が制限されることで、立体画像表示装置と目との距離がある程度固定されることで、カメラ30で黒目を観察しやすいという利点もある。
By tracking the state of the black eye in the case shown in FIG. 5 with the
以上により、立体画像に対する疲労のしやすさの個人差を測定することができる。以下、上記の考えに基づく各実施例について、図面に基づいて説明する。 As described above, it is possible to measure individual differences in the ease of fatigue of a stereoscopic image. Hereinafter, each Example based on said idea is described based on drawing.
[実施例1]
<構成>
図6は、実施例1における測定装置100の構成の一例を示すブロック図である。図6に示す測定装置100は、表示制御部101、第1記憶部102、撮像部104、測定部105、第2記憶部106を備える。表示制御部101は、表示部103に接続されている。なお、表示部103は、測定装置に100に含まれてもよい。[Example 1]
<Configuration>
FIG. 6 is a block diagram illustrating an example of the configuration of the
表示制御部101は、裸眼二眼式の表示部103に対し、例えばテスト画像を第1記憶部102から取得し、取得したテスト画像をシーケンシャルに表示するよう制御する。また、表示制御部101は、テスト画像を表示制御した後に、眼位を測定するタイミングを表すタイミング信号を測定部105に出力する。
The
第1記憶部102は、テスト画像を記憶する。テスト画像は、始めは左右の画像(第1及び第2画像ともいう)で立体画像を表す画像であり、その立体画像の後に、一方の画像が、輻輳を除去する性質を有する画像に変更される画像(第3画像ともいう)である。また、テスト画像は、一方の画像を所定時間第3画像に変更した後に元の画像に戻し、その次に他方の画像を、所定時間第3画像に変更してもよい。これは、左右の目それぞれに対して、第3画像を表示するためである。第3画像は、前述したように、物体が含まれない単色画像であり、黒色のベタ画像が望ましい。また、第3画像は、第1及び第2画像と背景色が同じ単色画像でもよい。
The
表示部103は、裸眼での立体画像を表示可能とする表示装置である。表示部103は、表示制御部101により表示制御される画像を表示する。表示部103は、例えば、図4や5で説明したような液晶パネル25や視差バリア26を有する。
The
表示部103は、鑑賞者(ユーザ)に正対して位置する。表示部103は、例えば携帯型デバイスの一部であれば、画素ピッチが小さく、鑑賞者が手に持って適切に鑑賞できる視域の位置に据えることになる。この距離は、表示部103の性能で定められている。
The
撮像部104は、例えばCCD(Charge
Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)を有するイメージセンサである。撮像部104は、例えば、表示部103の上部などに取り付けられ、鑑賞者の目(眼位)を撮像する。撮像部104は、鑑賞者の目の部分を撮像し、キャプチャされた撮像画像を測定部105に出力する。The
An image sensor having a coupled device (CMOS) or a complementary metal oxide semiconductor (CMOS). The
測定部105は、表示制御部101から取得したタイミング信号に同期して、撮像画像から黒目の眼位の変化を測定する。眼位とは、ここでは、黒目の位置を表す。タイミング信号は、例えば、立体画像を表示して数秒後に出力され、第3画像に変更してから5秒後などに出力される。
The
第2記憶部106は、測定部105による眼位の測定結果を記憶する。
The
(眼位測定処理)
次に、測定部105による眼位測定処理について説明する。図7は、眼位の変化を示す図である。図7に示す例は、撮像部104により撮像された眼球の位置を示す。(Eye position measurement process)
Next, the eye position measurement process by the
図7(A)は、はじめに提示した両眼融像のテスト画像鑑賞中の黒目の様子を示す。そして、一方の画像(右目用の画像)を例えば黒画像にする。つまり、図7(A)に示す右目R2の輻輳を除去する。 FIG. 7A shows a state of black eyes during viewing of a test image of the binocular fusion presented first. Then, one image (the image for the right eye) is made a black image, for example. That is, the congestion of the right eye R2 shown in FIG.
図7(B)は、輻輳の除去後、黒目の位置がずれた様子を示す。図7(B)に示す右目R3の黒目は、図7(A)に示す右目R2の黒目の位置よりも外側にずれている。この黒目の位置ズレを、測定部105が測定する。この黒目の位置ズレは、眼位の変化であり、例えば、画像のピクセル数で表すことができる。一般的に、角度にして例えば5度以上黒目がずれる人は、立体視が得意ではないとして要注意とされている。
FIG. 7B shows a state in which the position of the black eye is shifted after the congestion is removed. The black eye of the right eye R3 shown in FIG. 7B is shifted outward from the position of the black eye of the right eye R2 shown in FIG. The
図8は、眼位の変化と画像上のピクセルとの関係の一例を示す図である。図8に示す例では、鑑賞距離Vd=300mm、両眼融像のテスト画像の定位位置Wd=220mm、眼間距離Ce=63mm、眼球の直径Re=24mmとする。また、輻輳角θ1=16度、閾値θ2=5度とする。眼間距離は、一般的には65mmであるが、寄り目状態になっているので、ここでは63mmとする。 FIG. 8 is a diagram illustrating an example of the relationship between changes in eye position and pixels on an image. In the example shown in FIG. 8, the viewing distance Vd = 300 mm, the binocular fusion test image localization position Wd = 220 mm, the interocular distance Ce = 63 mm, and the eyeball diameter Re = 24 mm. Also, the convergence angle θ1 = 16 degrees and the threshold θ2 = 5 degrees. The interocular distance is generally 65 mm, but it is 63 mm here because it is in a crossed eye state.
このとき、見合う角度θ3は、(θ1/2)−θ2=(16/2)−5=3度になる。ここで、見合う角度と三角関数とを用いて、眼位の変化は2.1mmと計算される。 At this time, the matching angle θ3 is (θ1 / 2) −θ2 = (16/2) −5 = 3 degrees. Here, using the matching angle and trigonometric function, the change in eye position is calculated as 2.1 mm.
また、撮像部104の水平画角と横解像度とから、ピクセル数と幅mmとの対応が定まる。例えば、水平画角60度、横解像度1600ピクセルの場合を考える。この場合、次の式により、ピクセル数と幅mmとの比Raが算出される。
L1=2×300×tan(60/2) ・・・式(1)
L1=200×√3
比Raは、L1/ピクセル数により算出される。
比Ra=200×√3/1600 ・・・式(2)
=0.216mm/pixel
これにより、閾値θ2=5度だけ黒目が変化したときのピクセル数は、2.1/0.216=9.722となり、約10ピクセル相当であると判断できる。このように、測定部105は、眼位のズレをピクセル数で表すことができる。Further, the correspondence between the number of pixels and the width mm is determined from the horizontal angle of view and the horizontal resolution of the
L1 = 2 × 300 × tan (60/2) (1)
L1 = 200 × √3
The ratio Ra is calculated by L1 / number of pixels.
Ratio Ra = 200 × √3 / 1600 Expression (2)
= 0.216 mm / pixel
Thereby, the number of pixels when the black eye changes by the threshold θ2 = 5 degrees is 2.1 / 0.216 = 9.722, and it can be determined that it corresponds to about 10 pixels. As described above, the
<動作>
次に、実施例1における測定装置100の動作について説明する。図9は、実施例1における測定処理の一例を示すフローチャートである。図9に示すステップS101で、表示制御部101は、第1記憶部102に記憶される両眼融像のテスト画像を読み出し、表示部103にテスト画像を表示するよう制御する。テスト画像は、例えば、1つの物体が立体視されるような左右の画像(第1及び第2画像)である。表示制御部101は、眼位を測定するタイミングを知らせるタイミング信号を測定部105に出力する。ここでのタイミング信号は、例えば、テスト画像の立体画像が表示された後に、立体画像を認識するのにかかる数秒後に出力される。<Operation>
Next, the operation of the
ステップS102で、表示制御部101は、立体視されるテスト画像を表示制御してから一定時間経過した後、例えば、輻輳(例えば、融像性輻輳)を除去する性質を有する画像(第3画像)を第1記憶部102から読出し、一方の画像(例えば第1画像)を、この第3画像に変更するよう制御する。第3画像は、ここでは、黒画像とする。表示制御部101は、第3画像に変更した後、眼位を測定するタイミングを知らせるタイミング信号を測定部105に出力する。ここでのタイミング信号は、例えば、テスト画像の第3画像が表示された後に、輻輳が除去されるのにかかる所定時間(例えば5秒)後に出力される。
In step S102, the
ステップS103で、撮像部104は、鑑賞者の目の動きを撮影し、監視する。撮影時に撮像された画像は、順次測定部105に出力される。
In step S103, the
ステップS104で、測定部105は、表示制御部101から取得したタイミング信号に基づき、眼位のズレを測定する。例えば、測定部105は、第1及び第2画像のタイミング信号に同期して眼位を測定する。
In step S <b> 104, the
また、測定部105は、第3画像のタイミング信号に同期して眼位を測定する。例えば、測定部105は、第3画像に変更される前の眼位の位置と、第3画像に変更されて所定時間経った後の眼位の位置とから、眼位のズレを測定する。
The measuring
所定時間は、例えば、目が外に開く場合に、一般的にかかる時間(例えば5秒)を設定すればよい。測定部105は、テスト画像の変更前後における眼位の位置の差分をとるなどして眼位のズレを測定する。
The predetermined time may be set to a time generally required (for example, 5 seconds) when the eyes are opened outside, for example. The measuring
ステップS105で、表示制御部101は、再度立体視させるため、表示制御する画像を立体視されるテスト画像に戻してから一定時間経過した後、多方の画像(例えば第2画像)を、第3画像に変更するよう制御する。第3画像に変更し、眼位を測定するタイミングを知らせるタイミング信号を測定部105に出力する。
In step S <b> 105, the
ステップS106で、撮像部104は、鑑賞者の目の動きを撮影し、監視する。撮影時に撮像された画像は、順次測定部105に出力される。
In step S106, the
ステップS107で、測定部105は、表示制御部101から取得したタイミング信号に基づき、眼位のズレを測定する。例えば、測定部105は、第1及び第2画像のタイミング信号に同期して眼位の位置を測定し、第3画像のタイミング信号に同期して眼位の位置を測定する。測定部105は、テスト画像の変更前後における眼位の位置の差分をとるなどして眼位のズレを測定する。これにより、片目毎の眼位のズレを測定することができる。片目毎の眼位のズレは、第2記憶部106に記憶される。
In step S <b> 107, the
以上、実施例1によれば、立体視に対する個人特性を適切に測定することができる。また、裸眼による立体視は視域が限られるので、撮像部104は、適切に目の位置を撮影することができる。
As described above, according to the first embodiment, it is possible to appropriately measure personal characteristics for stereoscopic vision. In addition, since the viewing area is limited for stereoscopic viewing with the naked eye, the
[実施例2]
次に、実施例2における立体画像表示装置について説明する。実施例2では、実施例1において測定した立体視に対する個人特性を用いて、立体画像の視差を調整する。例えば、立体視が得意な人は、飛び出し方向に立体視させるようにし、立体視が不得手な人は奥行き方向に立体視させるようにする。[Example 2]
Next, the stereoscopic image display apparatus in Example 2 will be described. In the second embodiment, the parallax of the stereoscopic image is adjusted using the personal characteristics for the stereoscopic vision measured in the first embodiment. For example, a person who is good at stereoscopic vision is stereoscopically viewed in the pop-out direction, and a person who is not good at stereoscopic vision is stereoscopically viewed in the depth direction.
<構成>
図10は、実施例2における立体画像表示装置200の構成の一例を示すブロック図である。図10に示す構成で、図6に示す構成と同様の構成のものは同じ符号を付し、その説明を省略する。以下、主に表示制御部201、第2記憶部202について説明する。測定部105は、片目毎の測定結果を第2記憶部202に書き込む。<Configuration>
FIG. 10 is a block diagram illustrating an example of the configuration of the stereoscopic
第2記憶部202は、個人特性ファイルを記憶する。個人特性ファイルは、片目毎の眼位のズレの対称性などにより立体視の得手不得手を判定するファイルである。
The
図11は、個人特性ファイルの一例をテーブル形式で表す図である。図11に示すように、眼位のズレ量が閾値未満の場合、ズレ量は小とし、眼位のズレ量が閾値以上である場合、ズレ量は大とする。この閾値は、例えば、角度で表すと5度とする。また、閾値は、角度に相当するピクセル数で表してもよい。 FIG. 11 is a diagram illustrating an example of the personal characteristic file in a table format. As shown in FIG. 11, the amount of deviation is small when the amount of deviation of the eye position is less than the threshold, and the amount of deviation is large when the amount of deviation of the eye position is greater than or equal to the threshold. For example, this threshold is 5 degrees in terms of an angle. The threshold value may be expressed by the number of pixels corresponding to the angle.
また、左右の目のズレ量に対称性があるか否かで立体視の得手不得手、立体視弱者を判定することができる。対称性がある場合は「良好」、対称性がない場合は「不良」とする。 Further, it is possible to determine whether a person is poor in stereoscopic vision or weak in stereoscopic vision depending on whether or not the amount of deviation between the left and right eyes is symmetrical. When there is symmetry, “good”, and when there is no symmetry, “bad”.
例えば、左右の眼位のズレ量がともに小さくて対称性がある場合、立体視を得意とし、立体視表示に眼精疲労を感じにくいと判定できる。この場合、立体視が得意であるため、飛び出し方向(飛び出し寄り)に左右の画像の視差が調整されればよい。 For example, when both the right and left eye positions are small and symmetrical, it is possible to determine that they are good at stereoscopic viewing and are less likely to feel eye strain in the stereoscopic display. In this case, since he is good at stereoscopic viewing, the parallax between the left and right images may be adjusted in the pop-out direction (close to the pop-out).
また、左右の眼位のズレ量が大きくて対称性がある場合、立体視は可能であるが、立体視表示に眼精疲労を感じやすいと判定できる。この場合、立体視が不得手なため、奥行き方向(奥行き寄り)に左右の画像の視差が調整されればよい。 In addition, when there is a large amount of misalignment between the right and left eye positions, stereoscopic vision is possible, but it can be determined that eye strain is easily felt in the stereoscopic display. In this case, since stereoscopic vision is not good, the parallax between the left and right images may be adjusted in the depth direction (close to the depth).
なお、飛び出し寄りの調整とは、左画像を右へ、右画像を左へシフトし、交差性の視差をつけることを意味する。また、奥行き寄りの調整とは、左画像を左へ、右画像を右へシフトし、同側性の視差をつけることを意味する。 Note that the adjustment for jumping out means that the left image is shifted to the right and the right image is shifted to the left to add crossing parallax. Further, the adjustment closer to the depth means shifting the left image to the left and the right image to the right to add an ipsilateral parallax.
また、左右の眼位のズレが例えば、一方は「大」、他方は「小」である場合、立体視弱者と判定できる。この場合、立体表示に注意を促すなどの措置をとることができる。 For example, when the displacement between the left and right eye positions is “large” on one side and “small” on the other side, it can be determined that the person is visually impaired. In this case, it is possible to take measures such as calling attention to stereoscopic display.
第2記憶部202は、図11に示すような判定が行われた、個人の眼位のズレ量を用いた個人特性ファイル(ズレ小で良好、ズレ大で良好、又は不良)を記憶しておくようにしてもよい。
The
図10に戻り、表示制御部201は、片目毎の眼位のズレを測定するのは実施例1と同様である。表示制御部201は、第2記憶部202に記憶された測定結果(立体視に対する個人特性)に基づいて、表示制御部201に入力される立体映像(例えば、テレビ番組、映画など)の視差を調整する。
Returning to FIG. 10, the
図12は、視差調整の一例を示す図である。図12に示す例では、画像41は、左画像を示し、画像42は、右画像を示す。表示制御部201は、立体画像を飛び出し方向に調整する場合は、左画像41を右へシフトし、右画像42を左へシフトし、立体画像43になるよう視差を調整する。
FIG. 12 is a diagram illustrating an example of parallax adjustment. In the example shown in FIG. 12, the
表示制御部201は、立体画像を奥行き方向に調整する場合は、左画像41を左へ、右画像42を右へシフトし、立体画像44になるように調整する。なお、調整量は、飛び出し方向の場合も、奥行き方向の場合も立体表示のガイドラインで決められる所定値以内で調整するようにすればよい。
When adjusting the stereoscopic image in the depth direction, the
表示制御部201は、左右の眼位のズレが対称でなく、「立体視注意」の場合は、2D(Dimension)表示を切り替え可能にしたり、鑑賞時間を短くしたり、鑑賞自体に留意するよう字幕テロップを出したりするなどの表示制御を行う。
The
(視差調整処理)
次に、図13〜16を用いて、表示制御部201における視差調整処理について説明する。図13は、視差角の一例を示す図である。図13〜16で示す例では、鑑賞距離Vd=300mm、眼球直径Re=24mm、ディスプレイ面を見たときの眼間距離Ceを64mmとする。(Parallax adjustment processing)
Next, the parallax adjustment process in the
このとき、表示部103(ディスプレイ)を見合う角度βは12.2度となる。さらに表示する立体画像のコンテンツの視差の条件として±1度の視差以内という条件をつけると、α=13.2度、γ=11.2度となる。 At this time, the angle β for matching the display unit 103 (display) is 12.2 degrees. Furthermore, if a condition of within ± 1 degree of parallax is added as the parallax condition of the stereoscopic image content to be displayed, α = 13.2 degrees and γ = 112 degrees.
ここで、α、γの視差角での立体定位位置、Pn、Ppを考える。表示部103と眼球の眼底のつくる三角形の底辺Beは、次の式で求められる。
Be=64×(Vd+Re)/Vd=69.1(mm) ・・・式(3)
この三角形の底辺Beとα(ないしγ)の角をなす二等辺三角形の底辺Beに下ろしてできる直角三角形を用いると、次の式が成り立つ。
(Be/2)/(Vd−Pn+Re)=tan(13.2/2) ・・・式(4)
これにより、Pnは、25.3mmと求められる。Here, the stereo localization positions Pn and Pp at the parallax angles α and γ are considered. The base Be of a triangle formed by the
Be = 64 × (Vd + Re) /Vd=69.1 (mm) (3)
When a right triangle formed by lowering the base Be of an isosceles triangle that forms an angle of α (or γ) with the base Be of this triangle, the following equation is established.
(Be / 2) / (Vd−Pn + Re) = tan (13.2 / 2) (4)
Thereby, Pn is calculated | required with 25.3 mm.
同様にして、視差角γと直角三角形を用いると、次の式が成り立つ。
(Be/2)/(Vd+Pp+Re)=tan(11.2/2) ・・・式(5)
これにより、Ppは、28.5mmと求められる。Similarly, when a parallax angle γ and a right triangle are used, the following equation is established.
(Be / 2) / (Vd + Pp + Re) = tan (11.2 / 2) (5)
Thereby, Pp is calculated | required with 28.5 mm.
図14は、画面上視差Ddを求めるための相似関係を示す図である。図14に示す定位位置Sdの画面上の視差Ddは、点線枠の三角形51と斜線の三角形52との三角形の相似を用いると次の関係が成り立つ。
Dd=Be×Sd/(Vd+Sd+Re) ・・・式(6)
この式(6)は、Sd<0の場合は飛出しのときを表す。Sd=−Pnの場合、Dd=−5.85、Sd=Ppの場合、Dd=5.59である。FIG. 14 is a diagram illustrating a similarity relationship for obtaining the on-screen parallax Dd. The disparity Dd on the screen at the localization position Sd shown in FIG. 14 has the following relationship using the triangle similarity between the dotted-
Dd = Be × Sd / (Vd + Sd + Re) (6)
This equation (6) represents the time of jumping out when Sd <0. When Sd = −Pn, Dd = −5.85, and when Sd = Pp, Dd = 5.59.
図15は、奥行き寄りの視差調整の一例を示す図である。図15に示す例のように、奥行き寄りに視差を調整する場合、表示制御部201は、例えば、Pnの半分の位置を表示部103面になるように視差を調整する。この場合、Sd=−Pn/2を代入して、Dd=−2.82となる。
FIG. 15 is a diagram illustrating an example of parallax adjustment closer to the depth. When the parallax is adjusted closer to the depth as in the example illustrated in FIG. 15, for example, the
このDdを0にするように表示制御部201は視差調節する(+2.82)と、もっとも奥にあった定位の位置の視差量Ddが5.59+2.82=8.41のとき、以下の式からSdが求められる。
8.41=Be×Sd/(Vd+Sd+Re) ・・・式(7)
Sdは、44.8となり、Ppより大きくなるので確かに奥行きが増えている。When the
8.41 = Be × Sd / (Vd + Sd + Re) (7)
Sd is 44.8, which is larger than Pp, so the depth is certainly increasing.
図16は、飛び出し寄りの視差調整の一例を示す図である。図16に示す例のように、飛び出し寄りに視差を調整する場合、表示制御部201は、例えば、Ppの半分の位置を表示部103面になるように視差を調整する。この場合、Sd=Pp/2を代入して、Dd=2.92となる。
FIG. 16 is a diagram illustrating an example of parallax adjustment close to popping out. When the parallax is adjusted closer to the pop-out as in the example illustrated in FIG. 16, for example, the
このDdを0にするように表示制御部201は視差調節する(−2.92)と、もっとも手前にあった定位の位置の視差量Ddが−5.85−2.92=−8.77のとき、以下の式からSdが求められる。
−8.77=Be×(−Sd)/(Vd−Sd+Re) ・・・式(8)
Sdは36.22となり、Pnより大きくなるので確かに飛び出しが増えている。When the
−8.77 = Be × (−Sd) / (Vd−Sd + Re) (8)
Since Sd is 36.22, which is larger than Pn, the pop-out certainly increases.
<動作>
次に、実施例2における立体画像表示装置の動作について説明する。実施例2における立体画像表示装置は、実施例1と同様の測定処理を行い、測定結果に基づいて、立体画像表示制御処理を行う。以下では立体画像表示制御処理について説明する。実施例2における立体画像表示制御処理は、複数考えられるが、以下では2つの例を説明する。<Operation>
Next, the operation of the stereoscopic image display apparatus according to the second embodiment will be described. The stereoscopic image display apparatus according to the second embodiment performs measurement processing similar to that of the first embodiment, and performs stereoscopic image display control processing based on the measurement result. Hereinafter, the stereoscopic image display control process will be described. A plurality of stereoscopic image display control processes in the second embodiment can be considered, but two examples will be described below.
(表示制御処理(その1))
図17は、実施例2における表示制御処理(その1)の一例を示すフローチャートである。図17に示すステップS201で、表示制御部201は、測定された鑑賞者の立体視に対する個人特性(測定結果)を第2記憶部202から読み出す。(Display control processing (part 1))
FIG. 17 is a flowchart illustrating an example of display control processing (part 1) in the second embodiment. In step S <b> 201 shown in FIG. 17, the
読み出した測定結果が、例えば、「ズレ大で良好」であり、奥行き寄りの調整を示せば、表示制御部201は、表示部103より手前の位置(Sd<0)で、新たに0視差としたい定位位置Sdを決める。
If the read measurement result is, for example, “large deviation and good” and indicates an adjustment closer to the depth, the
読み出した測定結果が、「ズレ小で良好」であり、飛び出し寄りの調整を示せば、表示制御部201は、表示部103より奥の位置(Sd>0)で、新たに0視差としたい定位位置Sdを決める。
If the read measurement result is “small and good” and shows an adjustment of the pop-up, the
ステップS202で、表示制御部201は、Sdの画面上の視差量Ddを式(6)により求める。
In step S202, the
ステップS203で、表示制御部201は、表示部103の大きさと解像度とから、Ddを表示部103の画面上のピクセル値に換算する。表示制御部201は、式(1)や式(2)の考えに基づき、ピクセル値を求めることができる。
In step S <b> 203, the
ステップS204で、表示制御部201は、求めたピクセル数が負ならば、左右の画像を各々ピクセル数の半分ずつ同側方向にシフトする。また、表示制御部201は、求めたピクセル数が正ならば、左右の画像を各々ピクセル数の半分ずつ交差方向にシフトする。
In step S204, if the calculated number of pixels is negative, the
なお、表示制御部201は、測定結果が、「不良」を示す場合、2D表示に切り替え可能にしたり、鑑賞時間を短くしたりなどの注意喚起を行うよう制御してもよい。
Note that, when the measurement result indicates “defective”, the
(表示制御処理(その2))
図18は、実施例2における表示制御処理(その2)の一例を示すフローチャートである。図18に示す処理は、眼位のズレ(変化量)に応じて視差量を調整する処理である。(Display control processing (part 2))
FIG. 18 is a flowchart illustrating an example of display control processing (part 2) in the second embodiment. The process illustrated in FIG. 18 is a process of adjusting the parallax amount according to the eye position shift (change amount).
図18に示すステップS301で、表示制御部201は、左右の眼位の変化量を第2記憶部202から読み出す。ここで、左の眼位の変化量をΔ(L)、右の眼位の変化量をΔ(R)とする。
In step S <b> 301 illustrated in FIG. 18, the
表示制御部201は、変化量Δ(L)とΔ(R)とが対称か否かを判定する。対称の判定は、前述したように、閾値よりも小さい同士、又は閾値よりも大きい同士の場合に対称と判定し、一方が閾値よりも小さい、他方が閾値よりも大きい場合を非対称とする。対称であれば(ステップS301−YES)ステップS302に進み、非対象であれば(ステップS301−NO)ステップS306に進む。
The
ステップS302で、表示制御部201は、新たに0視差としたい定位位置Sdを次の式により求める。
Sd=−K×(眼位変化量Δ−閾値Th) ・・・式(9)
K:定数
眼位変化量Δ:眼位変化量Δ(L)とΔ(R)の大きい方
閾値Th:図8に示す例で説明すると、5度に対応する変位2.1mmをピクセル換算した値
なお、定数Kは、図8に示す例で説明すると、眼位変化量Δは最大で8度(平行視)であることを勘案して、そのときに視差角1度の飛び出し量となるように定める。また、眼位変化量Δは、Δ(L)とΔ(R)との平均でもよい。In step S302, the
Sd = −K × (eye position change amount Δ−threshold Th) Expression (9)
K: Constant eye position change amount Δ: Eye position change amount Δ (L) and Δ (R) having a larger threshold value Th: In the example shown in FIG. 8, a displacement of 2.1 mm corresponding to 5 degrees is converted into a pixel. Value Note that the constant K is an amount of protrusion with a parallax angle of 1 degree in consideration of the fact that the eye position change amount Δ is 8 degrees at maximum (parallel viewing), as explained in the example shown in FIG. Determine as follows. Further, the eye position change amount Δ may be an average of Δ (L) and Δ (R).
ステップS303からステップS305は、ステップS202からステップS204までの処理と同様である。 Steps S303 to S305 are the same as the processes from step S202 to step S204.
ステップS306で、表示制御部201は、左右の眼位の変化量が非対称であるので、例えば、鑑賞者に対して立体視の注意喚起を促す画面を表示するよう制御する。
In step S306, the
以上の処理により、表示制御部201は、閾値5度を基準として、それより眼位変化量の大きいものは、Sd<0なる定位位置が表示部103上で0視差となるよう視差調整量を可変に制御することができる。一方、表示制御部201は、閾値より眼位変化量の小さいものは、Sd>0なる定位位置が表示部103上で0視差となるように、眼位変化量に応じて視差調整量を可変に制御することができる。
With the above processing, the
以上、実施例2によれば、実施例1において測定した立体視に対する個人特性を用いて、立体画像の視差を調整することができる。例えば、立体視が得意な人は、飛び出し方向に立体視させるようにし、立体視が不得手な人は奥行き方向に立体視させるようにすることができる。また、実施例2によれば、眼位の変化量に応じて視差量を調整することができる。 As described above, according to the second embodiment, the parallax of the stereoscopic image can be adjusted using the personal characteristics with respect to the stereoscopic vision measured in the first embodiment. For example, a person who is good at stereoscopic vision can be stereoscopically viewed in the pop-out direction, and a person who is not good at stereoscopic vision can be stereoscopically viewed in the depth direction. Further, according to the second embodiment, the amount of parallax can be adjusted according to the amount of change in eye position.
[実施例3]
次に、実施例3における立体画像表示装置300について説明する。実施例3では、撮像した画像内の目の虹彩を用いて個人認証を行い、虹彩と測定結果(個人特性)とを関連付けて管理する。[Example 3]
Next, the stereoscopic
<構成>
図19は、実施例3における立体画像表示装置300の構成の一例を示すブロック図である。図19に示す立体画像表示装置300において、図6と同様の構成を示すものは同じ符号を付し、その説明を省略する。<Configuration>
FIG. 19 is a block diagram illustrating an example of a configuration of the stereoscopic
虹彩認証部302は、撮像部104により撮像される撮像画像を取得し、撮像画像に含まれる目を用いて、第2記憶部303にアクセスして虹彩認証を行う。虹彩の認証処理は、公知の技術を用いればよい。第2記憶部303は、例えば、虹彩による個人認証データベースを備える。
The
虹彩認証部302は、虹彩認証が成功し、虹彩に測定結果が対応付けられている場合は、測定結果を取得し、表示制御部301に出力する。虹彩認証が成功するとは、第2記憶部303に既に虹彩が記憶されている場合などをいう。
When the iris authentication is successful and the measurement result is associated with the iris, the
虹彩認証部302は、認証が成功しても測定結果が対応付けられていない場合や新規に虹彩を登録する場合などに、表示制御部301にテスト画像を表示するよう要求する。
The
第2記憶部303は、虹彩の認証情報と、測定結果とを関連付けて管理する。
例えば、第2記憶部303は、虹彩と、個人情報と、その個人の立体視に対する個人特性とを関連付けて管理する。The
For example, the
表示制御部301は、虹彩認証部302からテスト画像の表示要求を受けた場合、前述したようにテスト画像を表示制御する。これにより、個人特性の測定が始まり、それ以降の処理は、実施例2で説明した通りである。
When receiving a test image display request from the
表示制御部301は、虹彩認証部302から測定結果を取得した場合、その測定結果に基づいて入力される立体画像の視差を調整する。
When the
<動作>
次に、実施例3における立体画像表示装置300の動作について説明する。図20は、実施例3における立体画像表示装置300の処理の一例を示すフローチャートである。<Operation>
Next, the operation of the stereoscopic
図20に示すステップS401で、撮像部104は、鑑賞者の目近傍を撮影し、撮像した撮像画像を虹彩認証部302に出力する。
In step S <b> 401 illustrated in FIG. 20, the
ステップS402で、虹彩認証部302は、撮像画像に含まれる虹彩に基づいて、虹彩認証を行う。
In step S402, the
ステップS403で、虹彩認証部302は、認証した虹彩に対する測定結果が第2記憶部303にあるか否かを判定する。測定結果が記憶されていれば(ステップS403−YES)ステップS405に進み、測定結果が記憶されていなければ(ステップS403−NO)ステップS404に進む。
In step S <b> 403, the
ステップS404では、図9に示す測定処理が行われる。 In step S404, the measurement process shown in FIG. 9 is performed.
ステップS405では、図17又は図18に示す表示制御処理が行われる。いずれの表示制御処理が行われるかは、表示制御部301に予め設定されていればよい。
In step S405, the display control process shown in FIG. 17 or 18 is performed. Which display control processing is performed may be set in the
以上、実施例3によれば、虹彩認証を行うことで、虹彩に関連付けて測定結果が既に記憶されている場合は、毎回測定処理を行わなくてもよい。また、虹彩認証部は、実施例2に備える例について説明したが、実施例1における測定装置に備えるようにしてもよい。 As described above, according to the third embodiment, if the measurement result is already stored in association with the iris by performing the iris authentication, the measurement process may not be performed every time. Moreover, although the iris authentication part demonstrated the example with which Example 2 is provided, you may make it provide with the measuring apparatus in Example 1. FIG.
[変形例]
図21は、変形例における画像処理装置400の構成の一例を示すブロック図である。図21に示すように、画像処理装置400は、制御部401、主記憶部402、補助記憶部403、ドライブ装置404、入力部406、表示制御部407、撮像部408を備える。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。[Modification]
FIG. 21 is a block diagram illustrating an example of the configuration of the
制御部401は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部401は、主記憶部402や補助記憶部403に記憶されたプログラムを実行する演算装置であり、入力部406や記憶装置からデータを受け取り、演算、加工した上で、表示制御部407や記憶装置などに出力する。
The
また、制御部401は、補助記憶部403などに記憶されている測定処理プログラム、又は表示制御処理プログラムを実行し、実施例において説明した処理を行う。
In addition, the
主記憶部402は、ROM(Read Only
Memory)やRAM(Random
Access Memory)などであり、制御部401が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。The
Memory) and RAM (Random
Access Memory), which is a storage device that stores or temporarily stores programs and data such as OS (Operating System) and application software, which are basic software executed by the
補助記憶部403は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
The
ドライブ装置404は、記録媒体405、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。
The
また、記録媒体405に、所定のプログラムを格納し、この記録媒体405に格納されたプログラムはドライブ装置404を介して画像処理装置400にインストールされる。インストールされた所定のプログラムは、画像処理装置400により実行可能となる。
A predetermined program is stored in the
入力部406は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部406は、ユーザが制御部401に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。
The
表示制御部407は、LCD(Liquid
Crystal Display)等の表示部に対し、制御部401から入力される表示データに応じた表示処理を制御する。表示制御部407の処理は、制御部401による処理であってもよい。The
For a display unit such as Crystal Display), display processing corresponding to display data input from the
撮像部408は、例えばCCD(Charge
Coupled Device)を有し、例えば左右の目を含む撮像画像を生成する。撮像部408により撮像された撮像画像に対し、制御部401により、各実施例で説明した眼位のズレが測定される。The imaging unit 408 is, for example, a CCD (Charge
For example, a captured image including left and right eyes is generated. For the captured image captured by the image capturing unit 408, the
画像処理装置400は、例えばカメラを有する表示装置、携帯端末装置などである。また、画像処理装置400は、撮像部408を備える裸眼立体表示機能を有する携帯型の情報処理装置であってもよい。
The
なお、各実施例では、説明上裸眼二眼式を用いて説明したが、多眼式であっても、二眼の映像データを多眼の表示画素に分割して表示できれば、二眼式に限定されるものではない。 In each embodiment, the explanation was made using a naked-eye binocular system. However, even in the case of a multi-view system, if the binocular video data can be divided into multi-view display pixels and displayed, the binocular system is used. It is not limited.
前述した各実施例で説明した測定部や表示制御部は、例えば、制御部401により実現されうる。また、各実施例における各部を1又は複数の半導体集積化回路として、携帯端末装置や撮影装置や情報処理装置などに実装することも可能である。
The measurement unit and the display control unit described in each embodiment described above can be realized by the
また、前述した実施例で説明した測定処理や表示制御処理を実現するためのプログラムを記録媒体に記録することで、実施例での測定処理や表示制御処理をコンピュータに実施させることができる。 Further, by recording a program for realizing the measurement process and the display control process described in the above-described embodiment on a recording medium, the measurement process and the display control process in the embodiment can be performed by a computer.
また、このプログラムを記録媒体に記録し、このプログラムが記録された記録媒体をコンピュータや携帯端末装置に読み取らせて、前述した処理を実現させることも可能である。なお、記録媒体は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。 It is also possible to record the program on a recording medium and cause the computer or portable terminal device to read the recording medium on which the program is recorded to realize the above-described processing. The recording medium is a recording medium for recording information optically, electrically or magnetically, such as a CD-ROM, flexible disk, magneto-optical disk, etc., and information is electrically recorded such as ROM, flash memory, etc. Various types of recording media such as a semiconductor memory can be used.
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。 Although the embodiments have been described in detail above, the invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope described in the claims. It is also possible to combine all or a plurality of the components of the above-described embodiments.
Claims (9)
前記表示部に表示された画像を見るユーザの眼位を撮像する撮像部と、
前記第3画像と、前記第3画像へ変更される前の前記第1画像または前記第2画像とを見る前記ユーザの眼位の変化を、前記撮像部が撮像する撮像画像から測定する測定部と、
を備える測定装置。After the control for displaying the stereoscopic image by the first image and the second image on the display unit that displays the stereoscopic image with the naked eye, the one image to be controlled is changed to the third image having the property of removing the congestion. A display control unit;
An imaging unit for imaging the eye position of a user who views the image displayed on the display unit;
A measurement unit that measures a change in the eye position of the user who views the third image and the first image or the second image before being changed to the third image, from a captured image captured by the imaging unit. When,
A measuring apparatus comprising:
第1画像及び第2画像による立体画像を前記表示部に表示させる制御をした後に、前記制御する一方の画像を、輻輳を除去する性質を有する第3画像に変更する表示制御部と、
前記第3画像と、前記第3画像へ変更される前の前記第1画像または前記第2画像とを見る前記ユーザの眼位の変化を、前記撮像部が撮像する撮像画像から測定する測定部と、を備え、
前記表示制御部は、
前記測定部による測定結果に基づいて、前記表示部に表示させる立体画像の視差を調整する立体画像表示装置。A display unit for displaying a stereoscopic image with the naked eye;
A display control unit that changes the one image to be controlled to a third image having a property of removing congestion after performing control to display a stereoscopic image by the first image and the second image on the display unit;
A measurement unit that measures a change in the eye position of the user who views the third image and the first image or the second image before being changed to the third image, from a captured image captured by the imaging unit. And comprising
The display control unit
A stereoscopic image display device that adjusts a parallax of a stereoscopic image to be displayed on the display unit based on a measurement result by the measurement unit.
前記測定結果に基づいて左右の目の眼位の変化が対称である場合に、前記立体画像が立体視されるよう視差を調整する請求項4記載の立体画像表示装置。The display control unit
The stereoscopic image display apparatus according to claim 4, wherein the parallax is adjusted so that the stereoscopic image is stereoscopically viewed based on the measurement result when the changes in the eye positions of the left and right eyes are symmetrical.
前記左右の目の眼位の変化が所定値より小さく、かつ対称である場合、前記立体画像が飛び出る方向に立体視されるよう視差を調整し、前記左右の目の眼位の変化が前記所定値より大きく、かつ対称である場合、前記立体画像が奥行き方向に立体視されるよう視差を調整する請求項5記載の立体画像表示装置。The display control unit
When the change in the eye position of the left and right eyes is smaller than a predetermined value and symmetric, the parallax is adjusted so that the stereoscopic image is stereoscopically viewed in the direction of popping out, and the change in the eye position of the left and right eyes The stereoscopic image display apparatus according to claim 5, wherein the parallax is adjusted so that the stereoscopic image is stereoscopically viewed in the depth direction when the value is larger than the value and symmetric.
前記撮像画像内の虹彩を用いて認証を行い、該虹彩に対応する測定結果が前記記憶部に記憶されていない場合、前記表示制御部に表示要求を行う認証部と、をさらに備え、
前記表示制御部は、
前記認証部から表示要求を受けた場合、前記表示部に対して前記第1画像、前記第2画像及び前記第3画像を表示させる制御をする請求項4乃至6いずれか一項に記載の立体画像表示装置。A storage unit for storing the iris and the measurement result in association with each other;
An authentication unit that performs authentication using the iris in the captured image and, when the measurement result corresponding to the iris is not stored in the storage unit, further includes an authentication unit that makes a display request to the display control unit;
The display control unit
The solid according to any one of claims 4 to 6, wherein when a display request is received from the authentication unit, the display unit is controlled to display the first image, the second image, and the third image. Image display device.
前記撮像画像内の虹彩に対応する測定結果が前記記憶部に記憶されている場合、前記虹彩に対応する測定結果を前記記憶部から取得し、該測定結果を前記表示制御部に出力する請求項7記載の立体画像表示装置。The authentication unit
The measurement result corresponding to the iris is acquired from the storage unit when the measurement result corresponding to the iris in the captured image is stored in the storage unit, and the measurement result is output to the display control unit. 7. The stereoscopic image display device according to 7.
前記表示部に表示された画像を見るユーザの眼位を撮像部により撮像し、
前記第3画像と、前記第3画像へ変更される前の前記第1画像または前記第2画像とを見る前記ユーザの眼位の変化を、前記撮像部が撮像する撮像画像から測定する処理をコンピュータが実行する測定方法。After the control for displaying the stereoscopic image with the first image and the second image on the display unit that displays the stereoscopic image with the naked eye, the one image to be controlled is changed to the third image having a property of removing the congestion. ,
Imaging the eye position of the user who sees the image displayed on the display unit by the imaging unit,
A process of measuring a change in the eye position of the user who views the third image and the first image or the second image before being changed to the third image from a captured image captured by the imaging unit. A measurement method performed by a computer.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/058016 WO2012131937A1 (en) | 2011-03-30 | 2011-03-30 | Measurement device, stereoscopic image display device and measurement method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012131937A1 true JPWO2012131937A1 (en) | 2014-07-24 |
JP5725159B2 JP5725159B2 (en) | 2015-05-27 |
Family
ID=46929762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013506943A Expired - Fee Related JP5725159B2 (en) | 2011-03-30 | 2011-03-30 | Measuring device, stereoscopic image display device, and measuring method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5725159B2 (en) |
WO (1) | WO2012131937A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2629694T3 (en) * | 2012-10-22 | 2017-08-14 | Realvision S.R.L. | Device network for conducting optical / optometric / ophthalmological tests and procedure for controlling said device network |
US9182817B2 (en) * | 2013-03-12 | 2015-11-10 | Intel Corporation | Techniques for automated evaluation of 3D visual content |
GB2618354A (en) * | 2022-05-05 | 2023-11-08 | Envisics Ltd | Head-up display |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06197868A (en) * | 1992-12-31 | 1994-07-19 | Canon Inc | Eye refraction meter |
JP3771964B2 (en) * | 1996-03-12 | 2006-05-10 | オリンパス株式会社 | 3D image display device |
JPH11155814A (en) * | 1997-11-28 | 1999-06-15 | Nidek Co Ltd | Visual function inspecting device |
JP2000013818A (en) * | 1998-06-23 | 2000-01-14 | Nec Corp | Stereoscopic display device and stereoscopic display method |
JP3647376B2 (en) * | 2001-01-31 | 2005-05-11 | キヤノン株式会社 | Viewpoint position detection apparatus, viewpoint position detection method, and stereoscopic image display system |
JP2004333661A (en) * | 2003-05-02 | 2004-11-25 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image display device, stereoscopic image display method, and stereoscopic image display program |
JP2005230459A (en) * | 2004-02-23 | 2005-09-02 | Tsuneto Iwasaki | Method for measuring convergent accommodation to convergence ratio using three-dimensional display |
JP2008077008A (en) * | 2006-09-25 | 2008-04-03 | Casio Comput Co Ltd | Display device |
JP2008278302A (en) * | 2007-05-01 | 2008-11-13 | Sharp Corp | Television receiver and viewing information acquiring apparatus |
JP5266126B2 (en) * | 2009-03-31 | 2013-08-21 | 富士フイルム株式会社 | Image display apparatus and method, and program |
-
2011
- 2011-03-30 JP JP2013506943A patent/JP5725159B2/en not_active Expired - Fee Related
- 2011-03-30 WO PCT/JP2011/058016 patent/WO2012131937A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP5725159B2 (en) | 2015-05-27 |
WO2012131937A1 (en) | 2012-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8648876B2 (en) | Display device | |
JP4787905B1 (en) | Image processing apparatus and method, and program | |
JP5515301B2 (en) | Image processing apparatus, program, image processing method, recording method, and recording medium | |
US20110316987A1 (en) | Stereoscopic display device and control method of stereoscopic display device | |
EP2472304A2 (en) | Head-mounted display | |
JP2012010309A (en) | Stereoscopic moving image display device, and operation method of the same | |
US9167223B2 (en) | Stereoscopic video processing device and method, and program | |
US20140139647A1 (en) | Stereoscopic image display device | |
WO2022267573A1 (en) | Switching control method for glasses-free 3d display mode, and medium and system | |
JP6024159B2 (en) | Information presenting apparatus, information presenting system, server, information presenting method and program | |
JP4634863B2 (en) | Stereoscopic image generation apparatus and stereoscopic image generation program | |
JP5725159B2 (en) | Measuring device, stereoscopic image display device, and measuring method | |
CN109799899A (en) | Interaction control method, device, storage medium and computer equipment | |
JP2010171628A (en) | Image processing device, program, image processing method, recording method, and recording medium | |
JP5990939B2 (en) | Stereoscopic training support device, stereoscopic training support system, image processing device, image processing method, and program | |
JPWO2012157177A1 (en) | Congestion capability determination device and method | |
JP4787369B1 (en) | Image processing apparatus and method, and program | |
AU2011348147B2 (en) | Method and system for disparity adjustment during stereoscopic zoom | |
TW201244457A (en) | 3D video camera and associated control method | |
JP2010267192A (en) | Touch control device for three-dimensional imaging | |
WO2013042392A1 (en) | Three-dimensional image evaluation device | |
JP2001218231A (en) | Device and method for displaying stereoscopic image | |
JP2018191079A (en) | Multifocal visual output method, multifocal visual output apparatus | |
JP2011211754A (en) | Image processing apparatus and method, and program | |
WO2011114767A1 (en) | Three-dimensional image display device, three-dimensional imaging device, television receiver, game device, recording medium, and method of transmitting three-dimensional image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5725159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |