JPH06105808A - 奥行き知覚分析装置 - Google Patents

奥行き知覚分析装置

Info

Publication number
JPH06105808A
JPH06105808A JP4259461A JP25946192A JPH06105808A JP H06105808 A JPH06105808 A JP H06105808A JP 4259461 A JP4259461 A JP 4259461A JP 25946192 A JP25946192 A JP 25946192A JP H06105808 A JPH06105808 A JP H06105808A
Authority
JP
Japan
Prior art keywords
observer
movement
eye
depth perception
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4259461A
Other languages
English (en)
Other versions
JPH074343B2 (ja
Inventor
Kenya Uomori
謙也 魚森
Mitsuo Yamada
光穗 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R SHICHOKAKU KIKO KENKYUSHO KK
ATR SHICHOKAKU KIKO KENKYUSHO
Original Assignee
A T R SHICHOKAKU KIKO KENKYUSHO KK
ATR SHICHOKAKU KIKO KENKYUSHO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R SHICHOKAKU KIKO KENKYUSHO KK, ATR SHICHOKAKU KIKO KENKYUSHO filed Critical A T R SHICHOKAKU KIKO KENKYUSHO KK
Priority to JP4259461A priority Critical patent/JPH074343B2/ja
Priority to US08/029,481 priority patent/US5357293A/en
Priority to EP93104472A priority patent/EP0590231B1/en
Priority to DE69315300T priority patent/DE69315300T2/de
Priority to KR1019930005235A priority patent/KR960013318B1/ko
Priority to CA002094650A priority patent/CA2094650C/en
Publication of JPH06105808A publication Critical patent/JPH06105808A/ja
Publication of JPH074343B2 publication Critical patent/JPH074343B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Abstract

(57)【要約】 【目的】 この発明はリアルタイムで客観的に観察者の
奥行き知覚を測定し、ステレオ画像の評価に利用できる
ような奥行き知覚分析装置を提供することを主要な特徴
とする。 【構成】 画像表示モニタ5に観察者が奥行きを知覚す
るための遠点画像Cと近点の画像Dとを表示し、そのと
きの観察者の眼球の動きを眼球運動検出部2で検出す
る。演算部1は検出された眼球の速度と加速度とを用い
てサッカード成分を除去し、輻輳開散運動のみを抽出
し、輻輳開散運動の振幅,輻輳角の変化,左右の眼球運
動の速度,加速度の相互相関を演算して観察者の奥行き
知覚を判別する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は奥行き知覚分析装置に
関し、特に、観察者の奥行き知覚を分析してステレオ画
像に対して評価を行なうような奥行き知覚分析装置に関
する。
【0002】
【従来の技術】従来より、ステレオ画像の奥行き間を評
価するために、主観的に評価することが一般的に行なわ
れている。その一例は佐藤が発表した電子情報通信学会
論文集「両眼交互提示による立体視の検討」MBE88
−188,第193頁〜第198頁に掲載されている。
【0003】この論文では、両眼交互刺激による立体視
実験の結果を発表している。すなわち、3×3ピクセル
のランダムなドットパターンをカラーCRT上に表示し
て、このランダムなドットパターンの中央部をターゲッ
トとして移動して視差を与え、提示時間を変化させ、観
察者によってターゲットが背景の手前にあるか奥にある
かを判断するようにしたものである。
【0004】
【発明が解決しようとする課題】しかしながら、この論
文による手法は心理物理学的手法によって観察者の奥行
き知覚を計測するものであり、1条件あたり数十回の試
行を繰返し行なう必要があり、さらにうまく測定法を設
定しなければ、計測そのものに観察者の主観が入込むお
それがある。また、測定結果を導出するのに多くの計算
を要するため、リアルタイムで計測することが困難であ
るという欠点があった。
【0005】それゆえに、この発明の主たる目的は、リ
アルタイムで客観的に観察者の奥行き知覚を測定し、ス
テレオ画像の評価に利用できるような奥行き知覚分析装
置を提供することである。
【0006】
【課題を解決するための手段】請求項1に係る発明は、
観察者の奥行き知覚を分析するための奥行き知覚分析装
置であって、観察者に奥行きを知覚させるための視標を
提示する視標提示手段と、観察者の両目の眼球運動を検
出する眼球運動検出手段と、眼球運動検出手段によって
検出された眼球運動の速度または加速度とを用いてサッ
カード成分を除去し、輻輳開散運動のみを抽出し、輻輳
開散運動の振幅,輻輳角の変化,左右の眼球運動の速
度,加速度の相互相関を演算して、観察者の奥行き知覚
を判別する演算手段とを備えて構成される。
【0007】請求項2に係る発明は、さらに観察者の頭
部運動を検出する頭部運動検出手段を含み、演算手段
は、検出された頭部運動と眼球運動とに応じて、輻輳開
散運動の振幅、輻輳角の変化、左右の眼球運動の速度、
加速度の相互相関を演算して観察者の奥行き知覚を判別
する。
【0008】請求項3に係る発明では、演算手段は、相
互相関の演算結果に基づいて、観察者の左右の目のうち
のいずれが速く動いたかを評価し、効き目を判定する。
【0009】請求項4に係る発明では、視標提示手段
は、観察者に対してステレオ画像を提示するステレオ画
像提示手段と、ステレオ画像のうち片方の目に対応する
画像を運動させて両眼視差を発生させる画像制御手段と
を含み、演算手段は、観察者がステレオ画像を注視して
いるときの眼球運動検出手段の検出出力に応じて、奥行
き知覚を判別する.
【0010】
【作用】この発明に係る奥行き知覚分析装置は、観察者
が奥行きを知覚させるための視標を注視しているときの
眼球運動を検出し、その眼球運動の速度と加速度とを用
いてサッカード成分を除去して輻輳開散運動のみを抽出
し、輻輳開散運動の振幅,輻輳角の変化,左右の眼球運
動の速度,加速度の相互相関を演算して観察者の奥行き
知覚を判別することにより、リアルタイムで奥行き知覚
を客観的に評価することができる。
【0011】
【実施例】図1はこの発明の一実施例のブロック図であ
る。図1において、観察者の両目の眼球運動を検出する
ために、眼球運動検出部2が設けられ、その検出出力は
信号処理回路3に与えられて信号処理され、眼球運動デ
ータが演算部1に与えられる。観察者の前方には較正ボ
ード4が設けられる。較正ボード4は眼球運動検出部2
のキャリブレーションを行なうものである。較正ボード
4の後方には画像表示モニタ5が設けられる。画像表示
モニタ5は観察者に対して遠点の画像と近点の画像を表
示する。演算部1は観察者が画像表示モニタ5の遠点の
画像から近点の画像に視線を移動したときの眼球運動検
出部2で検出された眼球運動データを解析し、観察者の
奥行き知覚を判別する。
【0012】図2は図1に示した眼球運動検出部をゴー
グルへ装着した例を示す図であり、図3は眼球運動検出
部の具体例を示す図である。
【0013】図1に示した眼球運動検出部2は図2に示
すようにゴーグルに装着され、このゴーグルを観察者が
装着する。眼球運動検出部2は強膜検出法を用いたもの
であり、左目および右目の眼球の動きを検出するために
検出部21,22が設けられている。それぞれの検出部
21,22は図3(a)に示すように、眼球23に対し
て中央に設けられた発光ダイオード24と、その両側に
設けられたフォトダイオード25,26とを含む。発光
ダイオード24は比較的指向性の広い±21゜程度のも
のが用いられ、フォトダイオード25,26は指向性の
鋭い±10゜程度のものが用いられる。発光ダイオード
24から眼球23に投射された光は黒目28と白目27
とで反射率が異なり、この反射率の違いをオペアンプ2
9で増幅し、差をとれば図3(b)に示すように水平
(左右)の出力となり、図3(c)に示すようにオペア
ンプ30で和をとれば垂直(上下)の出力となる。な
お、眼球運動検出部2は上述の強膜検出法に限ることな
く、コンタクトレンズを用いたものやテレビカメラを用
いたものなどであってもよい。
【0014】図4は眼球運動検出部で検出された眼球運
動データの一例を示す図であり、図5は輻輳角を説明す
るための図であり、図6は図1に示した画像表示モニタ
に表示される画像の一例を示す図である。
【0015】画像表示モニタ5には図6に示すように、
遠点の画像Cと近点の画像Dが表示されており、観察者
が遠点の画像Cから近点の画像Dに視線を動かしたとき
の、眼球運動検出部2で検出された眼球運動データは図
4に示すようになる。図4においてaは水平方向の左目
の眼球運動Xeye−Lを示し、bは右目の眼球運動X
eye−Rを示し、cは輻輳角を示している。
【0016】ここで、輻輳角とは左目の視線角度−右目
の視線角度であり、図5に示すように、観察者が遠点の
画像Cを注視しているときの輻輳角はαC となり、近点
の画像Dを注視しているときの輻輳角はαD となる。図
5から明らかなように、観察者からの距離が近い近点の
画像Dの場合の輻輳角αD は大きく、遠点の画像Cを注
視しているときの輻輳角αC は小さくなる、。すなわ
ち、奥行き方向の視線移動は輻輳角の変化によって表わ
される。ここで、再度図4の輻輳角の変化cを見ると、
観察者は画像表示モニタ5の表面上を視線移動し、視距
離はほとんど変化していないにもかかわらず、画面上の
近点の画像Dを見たときに輻輳角が増加している。この
ように、奥行きの感じられるような画像を見た場合に
も、輻輳角の変化が発生する。そして、このような輻輳
角の変化を伴うような眼球運動を輻輳開散運動と呼んで
いる。これは、右目と左目がそれぞれ反対の方向に運動
するものである。しかしながら、この輻輳角変化は、も
ともと奥行き感が観察者に発生し、そのときに誘起され
る眼球運動であるため、もう少し長く画像表示モニタ5
を見ていると、画像表示モニタ5の表面を見ているだけ
なので視距離が変化していないことに気付き、輻輳角は
元に戻ってしまう。つまり、このような輻輳角の変化が
あった場合、すなわち輻輳開散運動が発生した場合には
奥行き知覚が発生している(奥行き感が感じられてい
る)と考えられる。
【0017】図7はこの発明の一実施例の動作を説明す
るためのフロー図であり、図8は図7に示したサッカー
ドの除去ステップのより具体的なフロー図であり、図9
はサッカードの除去方法を説明するための図であり、図
10はサッカードの検出方法を説明するための図であ
る。
【0018】次に、図7〜図10を参照して、この発明
の一実施例の動作についてより詳細に説明する。まず、
図1に示すように、観察者の前方に較正ボード4が設置
され、キャリブレーションが行なわれる。このキャリブ
レーションにおいては、較正ボード4に固定された予め
視線方向が既知である視標を観察者が順次注視する。こ
のとき、演算部1は信号処理回路3の出力から視線位置
に変換するための係数を演算してキャリブレーションを
行なう。このキャリブレーションが終了すると、較正ボ
ード4を除去し、画像表示モニタ5に図6に示すような
遠点の画像Cと近点の画像Dとを表示する。観察者がこ
の遠点の画像Cから近点の画像Dに視点を移動させたと
きの眼球運動が眼球運動検出部2によって検出され、信
号処理回路3を介して演算部1に眼球運動データが入力
される。演算部1はこの眼球運動データに基づいて、視
線を演算する。その後、サッカードの除去を行なう。
【0019】ここで、眼球運動はサッカードとよばれる
高速な跳躍眼球運動と、比較的ゆっくりな輻輳開散運
動,追従眼球運動(物体を追従する場合に起こるスムー
ズな運動)に分けられれる。一般的には、図9(a)に
示すように、これら3種類の眼球運動が混合されて実際
の眼球運動となっている。図9(a)において、#がサ
ッカードを示している。奥行き知覚を測定する目的か
ら、この中からまずサッカード成分を除去する必要があ
る。これには2つの方法があり、サッカードは通常左
右同じ振幅で発生することが多いため、左右の視線角度
の差である輻輳角を計算し、これの変化を測定する。
サッカードは左右非対称に現れる場合もあるため、左右
それぞれの眼球運動測定結果に対してサッカード成分を
除去し、それから輻輳角を計算し、これの変化を測定す
る。前者は計算が簡単であり、右の視線角度−左の視線
角度を計算すればよい。後者はサッカード除去のため
に、まず、眼球運動の速度または加速度を計算する。
【0020】ここで、図8〜図10を参照してサッカー
ドを除去する方法についてより詳細に説明する。演算部
1は時間iを1にセットし、オフセットを0にセットす
る。そして、演算部1は、 V(i)=(E(i)−E(i−1))/Δt より速度V(i)を演算する。ここで、E(i)は視線
方向の角度である。演算部1は、速度V(i)がしきい
値THよりも大きいか否かを判別し、速度V(i)がし
きい値THよりも大きければ、図10(b)に示すよう
にサッカードが発生したと判定し、その速度V(i)を
オフセット値に加算してサッカードの大きさを演算し、
視線方向の角度E(i)からサッカードを減算する。次
に、時間iを+1し、時間iがN以下であれば、上述の
動作を繰返し、時間iがNになると動作を終了する。ま
た、図10(c)のように加速度があるしきい値THZ
よりも大きいとき、サッカードが発生したと判別しても
よい。
【0021】この図8に示した例は、眼球運動の時系列
データの隣同士のデータの差分をとり、これがしきい値
THよりも大きい場合には、サッカードが発生している
と判断し、時刻i=0からのサッカード成分の積算値オ
フセットを計算し、これを図9(a)に示す測定データ
V(i)からサッカードの大きさ分S1〜S5を差引く
ことにより、図9(b)に示したようなサッカードを除
去した眼球運動波形が得られる。この処理の後、左右の
視線の角度が引き算され、輻輳角の時間変化が得られ
る。
【0022】上述のごとくして、2つのどちらかの手法
を用いて輻輳角の時間変化を得、これを基にしてその振
幅,変化(微分値)が計算され、輻輳開散運動の発生の
有無が分析される。
【0023】図11は奥行き知覚の発生の有無を説明す
るための波形図である。図11(a)に示すように、時
刻t=0で図6に示した近点の画像Dを注視し始めたと
すると、輻輳角はある時間後に増加し、また元に戻る。
このときの輻輳角の振幅(視線移動前の値と最大値の差
分)Xを測定して、この値によって奥行き知覚が発生し
たか否かが判断される。たとえば、この値Xの絶対値が
あるしきい値よりも大きければ奥行き知覚が発生したと
判断される。また、輻輳角の変化データの標準偏差また
は分散を計算し、これが大きければ奥行き知覚が発生し
たと考えることもできる。また、図11(b)に示すよ
うに、輻輳角の時間変化データの速度(1次微分)およ
び図11(c)に示す加速度(2次微分)を計算し、こ
れらの最大値の絶対値または標準偏差または分散を用
い、これがあるしきい値よりも大きいかどうかを判断す
ることによって、奥行き知覚が発生していることを判断
することもできる。
【0024】また、観賞している画像が動画像である場
合に、奥行き知覚が発生したかどうかを判断するのに、
輻輳開散運動のような両目が反対方向に動く運動が発生
し、奥行き知覚が発生したか、追従眼球運動のような両
目が同じ方向に動く運動が発生し、奥行き方向には物体
が運動しないように知覚されたかを測定する方法もあ
る。この測定の1方法として、眼球の視線方向またはこ
れの時間に関する1次微分(速度)または2次微分(加
速度)を計算して、これの時間変化をグラフに示し、左
右の眼球の動きが反対方向か同じ方向であるかを判断す
れば、奥行き知覚の発生を判断できる。
【0025】また、輻輳開散運動(奥行き知覚の発生と
相関がある)と共同運動の発生(奥行き知覚が発生せず
単なる2次元的な動きと相関がある)の有無の測定法と
して、左右目の速度,加速度の相互相関関数を測定する
方法もある。図6に示した画像が動画であった場合、眼
球運動としては前述のサッカード,輻輳開散運動,追従
運動の3種類が発生する。まず、前述の手法を用いて、
左右の視線角度の差分またはそれぞれの目の眼球運動の
サッカードが除去された後に輻輳角が計算される。その
後、左右それぞれの視線方向の角度の速度(1次微分)
または加速度成分(2次微分)が計算され、これらの相
互関係が計算される。時刻t=t0での相互相関の計算
式は
【0026】
【数1】
【0027】で表される。ただし、2N+1が測定した
い時間区間中の眼球運動のサンプリング個数となり、i
=−N〜Nとなる。
【0028】図12は眼球運動をサンプリングする方法
を説明するための図である。前述の式においてτは予め
設定された値−τ1〜τ1の値について、相互相関ψ
(τ)が求められる。また、t0の位置を変化させて相
互相関ψ(τ)の変化が求められる。R,Lはそれぞれ
右目,左目の視線方向の速度または加速度である。
【0029】この場合、輻輳開散運動が発生した場合に
は相互相関ψの値は負の値をとり、大きく反応するほど
絶対値が大きな値をとる。これが奥行き知覚の発生の程
度と正の相関を持つ。すなわち、相互相関ψが負の方向
に大きいほど、強い奥行き知覚が発生したことになる。
また、追従眼球運動のような両目が同じ方向に運動する
場合(これを一般的共同運動と呼んでいる)には、相互
相関ψが正の値を持つ。これは奥行き知覚があまり生起
されず、観察者が単なる2次元的な認識をしている度合
を示している。
【0030】図13は相互相関ψ(τ)の測定例を示す
図である。この図13において、観察者から視距離10
00mmの遠点から300mmの近点まで、奥行き方向
に視線を動かしたときの、視線方向の角度の速度の相互
相関の測定例であり、時刻0.5秒から近点へ注意を向
けている。図13(a)はτ,時間t,相互相関関数ψ
の関係を3次元プロットしたものであり、図13(b)
は相互相関関数ψを正の値の方向を白で示し、負の方向
を黒で表した図である。図13から明らかなように、ど
の程度奥行き知覚が発生したか(どの程度輻輳開散方向
に眼球が動いたか)を定量的に、連続量で取扱うことが
できる。すなわち、図13(b)で黒く表示された時間
において、奥行き知覚が強く発生していることになる。
また、相互相関ψのあるしきい値よりも小さい値をとる
部分のみを抽出し、奥行き知覚が強く発生していると考
えてもよい。また、最初の時間1.5秒までで反応は終
了し、その後眼球はほぼ一点を注視し、時間4秒以降は
再び波形が変化しており、他の方向に視線を動かしたこ
とが分かる。
【0031】また、τ軸方向のデータは左右目の反応が
同時にはない場合、すなわち左右目の動きが何らかの影
響で時間差ができた場合に、輻輳開散方向に眼球が反応
したか、もしくは共同方向に反応したかをを定量的に連
続量で取扱うときに有効である。τ=0の場合のみにつ
いて計算しただけでは、両目の反応が時間差を持った場
合に黒い部分がτ方向に平行移動してしまい、評価不能
になってしまう。
【0032】さらに、このことを利用して、効き目の効
果(どちらの目が先に反応しているかなど)を測定する
こともできる。図13(b)に示す黒い部分(輻輳開散
運動が発生している、すなわち奥行き知覚が生じている
場所)に中心線mを引くと、これとτ軸の交点Aが両目
の反応の時間ずれτdを表わす。図13(b)では、約
0.05秒左目の反応が遅れていることになる。すなわ
ち、右目が先に反応しており、反応の速さで計った効き
目は右目であるといえる。そして、この時間ずれτdの
大きさは効き目の強さと相関があると考えられるため、
τdの値の絶対値が大きいほど効き目の効果が大きいと
いえる。
【0033】図14は図13の直線mを決定する方法を
説明するための図である。図14(b)に示すグラフ
は、図13(b)を模式的に表わしたものであり、図1
4(c)はτの値それぞれについて、相互相関ψをtに
ついて積分した図であり、図14(a)はtの値それぞ
れについて、相互相関ψをτについて積分したものであ
る。図14(c)に示すグラフで相互相関ψが極小値を
持つ点をτdとすれば、直線mが決定される。また、図
14(a)に示すグラフで相互相関ψが極小値を持つ点
をtdとすると、tdは平均して両目が反応を始めた時
刻を表わし、眼球運動の潜時も測定できることになる。
また、極小値を用いずに、図14のような井戸型の関
数、たとえばψ=B×(τ−τd)2 +C(τd,B,
Cは定数)をフィッティングし、τdを求めてもよい。
tdについても同様である。
【0034】また、効き目の効果が予め大きくないこと
が分かっている場合には、τ=0の場合のみについて計
算して分析してもよい。上述のごとく、この実施例によ
れば、観察者の奥行き知覚の発生の強さを定量的に測定
できる。
【0035】図15はこの発明の他の実施例のブロック
図である。この図15に示した実施例は、視標として立
体画像を表示し、観察者の奥行き近くを測定するように
したものである。立体画像を表示する例としては、種々
考えられているが、この図15に示した実施例では、立
体画像生成装置10によって立体画像信号を生成して立
体画像提示装置8に立体画像を表示し、観察者は立体画
像観賞用液晶シャッタメガネ9を介して立体画像を観察
する。
【0036】図16は立体画像を表示するためのタイミ
ング図である。図16(a)に示すように、立体画像提
示装置8には、右(R)画像と左(L)画像が交互に表
示され、これに合せて立体画像観賞用液晶シャッタメガ
ネ9は図16(b)に示すように、右目用の画像が立体
画像提示装置8に表示されているときには、右目の液晶
シャッタが透明になり、図16(c)に示すように左目
の液晶シャッタは遮光状態になる。左目用の画像が表示
されている時間では、左右反対の動作になる。このよう
にして、立体画像を注視しているときの眼球運動が眼球
運動検出部2によって検出され、前述の実施例と同様に
して、奥行き知覚が分析される。この実施例において、
前述の実施例と異なる点は立体画像の構成方法にある。
これについて、以下説明する。
【0037】図17および図18は単純な点の3D空間
内の奥行き方向の運動を説明するための図である。図1
7(a)において、左右目とそれぞれの目に対する点画
像のスクリーン上の位置が●で示され、またこれらによ
って仮想的に知覚される点の3D空間内の位置が○で示
されている。最初にAの位置に点が見えていたとし、こ
れが点Bまで運動したものとする。このとき、表示スク
リーン上の動きは図17(b)に示すように、それぞれ
の点が反対方向に同じ距離だけ運動することになり、左
右目の水平視差がDR=DLとなっている。このとき、
両目はこの点を追従するが、輻輳開散運動により、両方
の目は内側に回転する。このとき、通常輻輳開散運動が
発生し、点の奥行き方向の運動知覚である奥行き知覚が
伴っているが、輻輳開散運動が生起しているにもかかわ
らず、奥行き知覚が伴わない場合もある。運動があった
場合のみ、すなわち動画像を観察した場合のみに、輻輳
開散運動が奥行き知覚を伴っているかどうかが保証され
ないことが起こる。そのような場合には、輻輳開散運動
は単なる点の追従を行なっている結果になる。この実施
例では、奥行き方向に運動する被写体を目で追従する場
合に、奥行き知覚発生から誘起される輻輳開散運動のみ
を測定し、奥行き知覚測定の測定誤差を低減する効果が
ある。
【0038】このことを避けるために、立体画像の奥行
き方向の運動の作成の仕方として、片方の水平視差、た
とえば図18に示すように、DL=0となるように設定
される。この場合、左目にとっては点は静止しており、
左目の視線方向上の点の運動になる。ここで、図17に
おいては、点が両目の中心Cと点Aを結ぶ線上で運動す
るが、図18では、左目の視線上を運動する違いがある
が、両目間隔は6.5cm程度であり、スクリーンまで
の視距離は数m以上の設定とすることが一般的であるの
で、この違いは余り問題にはならない。
【0039】このような設定において、両目眼球運動が
測定されれば、この場合、原理上は左目が動く必要がな
く、右目のみが動き、輻輳開散運動が発生しないように
思われるが、DRが約1゜以下のような小さな視差変化
の場合、左右非対称ではあるが左目も反応し、奥行き知
覚が成立した場合には輻輳開散運動が発生し、単なる2
次元的な運動のみしか知覚されない場合、すなわち奥行
き方向の運動が知覚されない状態では、両目が同じ方向
に反応して共同運動する。
【0040】このことを利用すれば、単なる奥行き方向
の点の追従ではなく、奥行き知覚が発生している状態で
の輻輳開散運動のみを測定することができる。解析手法
としては、前述の実施例とまったく同じ手法を用いるこ
とができる。すなわち、サッカード除去後の輻輳角の変
化の測定,両目眼球運動の速度,加速度の相互相関を計
算することにより、立体画像で構成された奥行き方向に
運動する物体に対する観察者の奥行き知覚を定量的に測
定できる。また、点画像のみではなく、運動物体の画像
を複数の点で表示すれば、大きさを有する物体の奥行き
方向の運動に対する奥行き知覚も測定できる。
【0041】上述のごとく、この実施例によれば、奥行
き方向の物体運動に対する追従眼球運動による妨害を低
減し、奥行き知覚発生によって誘起された輻輳開散運動
のみを測定でき、高精度な奥行き知覚の強さの測定がで
きる。
【0042】図19はこの発明のさらに他の実施例のブ
ロック図であり、図20は図19に示した頭部運動検出
部の具体例を示す図である。
【0043】図19に示した実施例は、観察者の頭部運
動も検出するようにしたものであり、そのために頭部運
動検出部6と頭部運動制御回路7とが設けられ、それ以
外の構成は図1に示した実施例と同じである。頭部運動
検出部6は図20に示すように、ソース61となる直交
コイルと、センサ62となる直交コイルを含む。頭部運
動制御回路7は制御部71とドライブ回路72と検出回
路73とを含む。ドライブ回路72は制御部71からの
指令に応じて、ソース61の直交コイルを駆動して磁界
を発生させる。頭部運動検出部6を装着した観察者が動
くと、センサ62に電圧が誘起され、この電圧を検出回
路73が検出し、その検出出力を制御部71が演算する
ことにより、頭部の移動に応じたデータが出力される。
なお、頭部運動検出部6は前述の図2に示したゴーグル
に装着される。
【0044】図21は観察者を中心とした頭部座標系に
ついてその原理を示す図である。次に、図21を参照し
て、頭部運動検出部6によって検出される頭部座標系に
ついて説明する。頭部座標系は図21(a)に示すよう
に、観察者の観察対象に対する平行移動により実現され
るXYZ座標系と、図21(b)に示す頭部の回転運動
に基づく極座標系の2つが考えられる。それぞれの座標
系の頭部移動量を(Hx,Hy,Hz),(Hψ,H
φ,Hθ)と定義する。ここでは、一例として観察対象
に近付く方向をY軸とし、水平移動方向をX軸とし、垂
直移動方向をZ軸とした。HφはX軸の回転、すなわち
首を上下に傾ける運動を示し、HθはY軸の回転、すな
わち左肩から右肩へと一旦首を傾ける運動を示す。Hψ
はZ軸内の回転であり、首を左右に回転する運動であ
る。
【0045】頭部の水平移動(Hx,Hy,Hz)によ
り視線が変化するが、これを眼球回転角(Ex,Ey)
に換算すると、次式が得られる。
【0046】 Ex=180/π・tan-1Hx/(D+Hy)…(1) Ey=180/π・tan-1Hz/(D+Hy)…(2 ただし、D:観察者から注視点までの距離 首を左肩方向または右肩方向にHθ傾けると、眼球運動
系の座標が回転する。したがって、Hθだけ傾いた眼球
運動座標系(Xe,Ye)を元の観察対象に直交した座
標系(Xe′,Ye′)に変換する必要がある。
【0047】 Xe′=Xe・cosHθ+Ye・sinHθ…(3) Ye′=−Xe・sinHθ+Ye・cosHθ…(4) 頭部運動により実現される視線の動き(Xh,Yh)は
第(1)式および第(2)式より次の第(5)式および
第(6)式で表わされる。
【0048】 Xh=Ex+Hψ…(5) Yh=Ey+Hφ…(6) したがって、頭の動きを考慮した視線の動き(Vx,V
y)は第(3)式〜第(6)式より、次の第(7)式お
よび第(8)式で表わされる。
【0049】 Vx=Xe′+Xh…(7) Vy=Ye′+Yh…(8) 上述の第(7)式および第(8)式を用いることによ
り、頭部運動と眼球運動とを組合せて通常の視線の動き
を再現することができる。
【0050】図22はこの発明のさらに他の実施例の動
作を説明するためのフロー図である。この実施例では、
前述の図7の実施例と同様にして、キャリブレーション
が行なわれた後、視標が提示され、そのときの観察者の
眼球の動きが眼球運動検出部2で検出されるとともに、
頭部運動検出部6によって観察者の頭部の動きが検出さ
れる。演算部1は検出された頭部運動データと眼球運動
データとに基づいて、前述の第(1)式〜第(8)式の
演算を行ない、図7に示した実施例と同様にして、パラ
メータを演算する。具体的には、図7に示した実施例に
おけるXeye,Yeyeに代えて、第(7)式および
第(8)式で求められた視線の動きVx,Vyを用いて
奥行き知覚の分析が行なわれる。この解析方法について
は、図7に示した実施例とまったく同じである。
【0051】上述のごとく、この実施例によれば、頭部
運動も検出するようにしているため、第1の実施例のよ
うに顎台により観察者を固定して、観察者の身体の動き
による眼球運動成分による視線位置の測定妨害をなくす
必要がないため、観察者の頭部が自由な状態で測定でき
るため、負担が小さく、測定が楽に行なうことができる
という利点がある。したがって、より自然に近い状態で
の奥行き知覚を測定できる。
【0052】
【発明の効果】以上のように、この発明によれば、観察
者に奥行きを知覚させるための視標を提示したときの観
察者の両目の眼球運動を検出し、検出された眼球運動の
速度と加速度等を用いてサッカード成分を除去し、輻輳
開散運動のみを抽出し、輻輳開散運動の振幅,変化,左
右の眼球運動の速度,加速度の相互相関を演算してリア
ルタイムで客観的に観察者の奥行き知覚を測定するよう
にしたので、ステレオ画像の評価に利用することができ
る。
【図面の簡単な説明】
【図1】この発明の一実施例のブロック図である。
【図2】図1に示した眼球運動検出部をゴーグルへ装着
した例を示す図である。
【図3】眼球運動検出部の具体例を示す図である。
【図4】眼球運動検出部によって検出された眼球運動デ
ータの一例を示す図である。
【図5】輻輳角を説明するための図である。
【図6】図1に示した画像表示モニタに表示される画像
の一例を示す図である。
【図7】この発明の一実施例の動作を説明するためのフ
ロー図である。
【図8】図7に示したサッカードの除去ステップのより
具体的なフロー図である。
【図9】サッカードの除去方法を説明するための図であ
る。
【図10】サッカードの検出方法を説明するための図で
ある。
【図11】奥行き知覚の発生の有無を説明するための波
形図である。
【図12】眼球運動をサンプリングする方法を説明する
ための図である。
【図13】相互相関ψ(τ)の測定例を示す図である。
【図14】図13の直線mを決定する方法を説明するた
めの図である。
【図15】この発明の他の実施例のブロック図である。
【図16】立体画像を表示するためのタイミング図であ
る。
【図17】単純な点の3D区間内の奥行き方向の運動を
説明するための図である。
【図18】水平視差を0にしたときの奥行き方向の運動
を説明するための図である。
【図19】この発明のさらに他の実施例のブロック図で
ある。
【図20】図19に示した頭部運動検出部の一例を示す
図である。
【図21】頭部座標系を説明するための図である。
【図22】この発明のその他の実施例の動作を説明する
ためのフロー図である。
【符号の説明】
1 演算部 2 眼球運動検出部 3 信号処理回路 4 較正ボード 5 画像表示モニタ 6 頭部運動検出部 7 頭部運動制御回路 8 立体画像提示装置 9 立体画像観察用液晶シャッタメガネ 10 立体画像生成装置 24 発光ダイオード 25,26 フォトダイオード 29,30 オペアンプ 61 ソース 62 センサ 71 制御部 72 ドライブ回路 73 検出回路

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 観察者の奥行き知覚を分析するための奥
    行き知覚分析装置であって、 前記観察者に奥行きを知覚させるための視標を提示する
    視標提示手段、 前記観察者の両目の眼球運動を検出する眼球運動検出手
    段、および前記眼球運動検出手段によって検出された眼
    球運動の速度または加速度とを用いてサッカード成分を
    除去し、輻輳開散運動のみを抽出し、前記輻輳開散運動
    の振幅,輻輳角の変化,左右の眼球運動の速度,加速度
    の相互相関を演算して、前記観察者の奥行き知覚を判別
    する演算手段を備えた、奥行き知覚分析装置。
  2. 【請求項2】 さらに、前記観察者の頭部運動を検出す
    る頭部運動検出手段を含み、 前記演算手段は、前記頭部運動検出手段によって検出さ
    れた頭部運動と前記眼球運動検出手段によって検出され
    た眼球運動とに応じて、前記輻輳開散運動の振幅、輻輳
    角の変化、左右の眼球運動の速度、加速度の相互相関を
    演算して前記観察者の奥行き知覚を判別することを特徴
    とする、請求項1の奥行き知覚分析装置。
  3. 【請求項3】 前記演算手段は、前記相互相関の演算結
    果に基づいて前記観察者の左右の目のうちのいずれが速
    く動いたかを判別することを特徴とする、請求項1また
    は2の奥行き知覚分析装置。
  4. 【請求項4】 前記視標提示手段は、 前記観察者に対するステレオ画像を提示するステレオ画
    像提示手段と、 前記ステレオ画像のうち片方の目に対応する画像を運動
    させて両眼視差を発生させる画像制御手段とを含み、 前記演算手段は、前記観察者が前記ステレオ画像を注視
    しているときの前記眼球運動検出手段の検出出力に応じ
    て、奥行き知覚を判別することを特徴とする、請求項1
    の奥行き知覚分析装置。
JP4259461A 1992-09-29 1992-09-29 奥行き知覚分析装置 Expired - Fee Related JPH074343B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP4259461A JPH074343B2 (ja) 1992-09-29 1992-09-29 奥行き知覚分析装置
US08/029,481 US5357293A (en) 1992-09-29 1993-03-11 Apparatus for analyzing depth perception
EP93104472A EP0590231B1 (en) 1992-09-29 1993-03-18 An apparatus for analyzing depth perception
DE69315300T DE69315300T2 (de) 1992-09-29 1993-03-18 Analysengerät der Tiefenwahrnehmung
KR1019930005235A KR960013318B1 (ko) 1992-09-29 1993-03-31 속깊이 지각 분석 장치
CA002094650A CA2094650C (en) 1992-09-29 1993-04-22 Apparatus for analyzing depth perception

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4259461A JPH074343B2 (ja) 1992-09-29 1992-09-29 奥行き知覚分析装置

Publications (2)

Publication Number Publication Date
JPH06105808A true JPH06105808A (ja) 1994-04-19
JPH074343B2 JPH074343B2 (ja) 1995-01-25

Family

ID=17334393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4259461A Expired - Fee Related JPH074343B2 (ja) 1992-09-29 1992-09-29 奥行き知覚分析装置

Country Status (6)

Country Link
US (1) US5357293A (ja)
EP (1) EP0590231B1 (ja)
JP (1) JPH074343B2 (ja)
KR (1) KR960013318B1 (ja)
CA (1) CA2094650C (ja)
DE (1) DE69315300T2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017677A (ja) * 2000-07-07 2002-01-22 Hamamatsu Photonics Kk 輻輳角測定装置
JP2006141862A (ja) * 2004-11-24 2006-06-08 Saga Univ 視線方向特定システム
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
JP2012129896A (ja) * 2010-12-17 2012-07-05 New Opto Corp 立体画像分析装置
JP2015518402A (ja) * 2012-04-24 2015-07-02 ウニベルシタ デ バルセローナ 注意測定方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5462739A (en) * 1991-11-21 1995-10-31 Yeda Research And Development Co., Ltd. Microdelivery device and method for enhanced drug administration to the eye
US5644324A (en) * 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
JP3010121B2 (ja) * 1994-06-29 2000-02-14 ジューキ株式会社 ミシンの針受け装置
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
WO1996036271A1 (de) * 1995-05-15 1996-11-21 Leica Ag Verfahren und vorrichtung zum parallelen erfassen von sehinformation
JPH08322004A (ja) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd 立体視ディスプレイ装置
DE19624135C2 (de) * 1996-06-17 2000-05-11 Fraunhofer Ges Forschung Verfahren und Vorrichtung zur objektiven Erfassung der Augenbewegung einer Person in Abhängigkeit von der dreidimensionalen Bewegung eines von ihr betrachteten Objekts
US5861936A (en) * 1996-07-26 1999-01-19 Gillan Holdings Limited Regulating focus in accordance with relationship of features of a person's eyes
JP2000507071A (ja) * 1996-12-19 2000-06-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オートステレオグラムを表示する方法及び装置
US6139152A (en) * 2000-02-28 2000-10-31 Ghahramani; Bahador Electronic depth perception testing system and apparatus for conducting depth perception tests
US6652458B2 (en) * 2000-06-20 2003-11-25 The Mclean Hospital Corporation ADHD detection by eye saccades
KR20030087101A (ko) * 2002-05-06 2003-11-13 고종선 안구운동 분석을 위한 새로운 저속도 측정 방법
US7959674B2 (en) * 2002-07-16 2011-06-14 Medtronic, Inc. Suture locking assembly and method of use
US20050110950A1 (en) * 2003-03-13 2005-05-26 Thorpe William P. Saccadic motion sensing
US20060250322A1 (en) * 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US20080058681A1 (en) * 2006-08-30 2008-03-06 Casali Henry Eloy S Portable system for monitoring the position of a patient's head during videonystagmography tests (VNG) or electronystagmography (ENG)
US7802883B2 (en) 2007-12-20 2010-09-28 Johnson & Johnson Vision Care, Inc. Cosmetic contact lenses having a sparkle effect
US8398239B2 (en) 2009-03-02 2013-03-19 Honeywell International Inc. Wearable eye tracking system
US8002408B2 (en) * 2009-08-03 2011-08-23 Nike, Inc. Anaglyphic depth perception training or testing
FR2958528B1 (fr) * 2010-04-09 2015-12-18 E Ye Brain Systeme optique de suivi de mouvements oculaires et dispositif support associe
KR101046677B1 (ko) * 2011-03-15 2011-07-06 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프
FR2972911B1 (fr) * 2011-03-25 2013-04-05 Essilor Int Dispositif et procede de determination de l'oeil directeur d'un patient
WO2012160741A1 (ja) * 2011-05-20 2012-11-29 パナソニック株式会社 視覚疲労度測定装置、その方法、視覚疲労度測定システムおよび3次元メガネ
USD745596S1 (en) * 2013-11-08 2015-12-15 Ebs Technologies Gmbh Stimulation glasses
CN104750234B (zh) * 2013-12-27 2018-12-21 中芯国际集成电路制造(北京)有限公司 可穿戴智能设备及可穿戴智能设备的互动方法
ES2851300T3 (es) * 2014-07-07 2021-09-06 Neurolens Inc Sistema para medir la disparidad de fijación visual
CN105496347B (zh) * 2016-01-12 2017-06-06 哈尔滨学院 视深度电子测量装置
US9681801B1 (en) 2017-01-09 2017-06-20 Marvin Efron Efron stereopter
CN112949370A (zh) * 2019-12-10 2021-06-11 托比股份公司 眼睛事件检测

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2168308A (en) * 1939-08-08 Testing perception of space
US2340856A (en) * 1940-05-11 1944-02-08 Jr Adelbert Ames Demonstrating and testing visual space perception
US3984156A (en) * 1974-09-12 1976-10-05 Narco Scientific Industries, Inc. Objective plotting of visual fields by eye movement monitoring
SU625687A1 (ru) * 1977-01-05 1978-09-30 Казанский Ордена Трудового Красного Знамени Государственный Университет Имени В.И.Ульянова-Ленина Устройство дл регистрации и перемещени взора
FR2437819A1 (fr) * 1978-10-05 1980-04-30 Essilor Int Dispositif optique propre a permettre de solliciter l'accommodation et/ou la convergence d'un sujet
EP0125808A3 (en) * 1983-04-18 1986-01-29 Lee S. Weinblatt Eye movement monitoring technique
US4613219A (en) * 1984-03-05 1986-09-23 Burke Marketing Services, Inc. Eye movement recording apparatus
US4729652A (en) * 1985-11-04 1988-03-08 Eye Research Institute Of Retina Foundation Apparatus and method for determining angular orientation of eye
US4838681A (en) * 1986-01-28 1989-06-13 George Pavlidis Method and means for detecting dyslexia
US4889422A (en) * 1986-01-28 1989-12-26 George Pavlidis Method and means for detecting dyslexia
DD250657A1 (de) * 1986-07-01 1987-10-21 Magdeburg Medizinische Akad Geraet zur bestimmung der panumareale und stereosehschaerfe
JPH04193255A (ja) * 1990-11-27 1992-07-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk 眼球制御系の解析装置
JPH0653107B2 (ja) * 1992-07-09 1994-07-20 株式会社エイ・ティ・アール視聴覚機構研究所 視線検出を用いた医療診断装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017677A (ja) * 2000-07-07 2002-01-22 Hamamatsu Photonics Kk 輻輳角測定装置
JP2006141862A (ja) * 2004-11-24 2006-06-08 Saga Univ 視線方向特定システム
JP4654434B2 (ja) * 2004-11-24 2011-03-23 国立大学法人佐賀大学 視線方向特定システム
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
JP2012129896A (ja) * 2010-12-17 2012-07-05 New Opto Corp 立体画像分析装置
JP2015518402A (ja) * 2012-04-24 2015-07-02 ウニベルシタ デ バルセローナ 注意測定方法

Also Published As

Publication number Publication date
KR960013318B1 (ko) 1996-10-04
EP0590231B1 (en) 1997-11-19
US5357293A (en) 1994-10-18
DE69315300D1 (de) 1998-01-02
DE69315300T2 (de) 1998-04-09
JPH074343B2 (ja) 1995-01-25
EP0590231A3 (en) 1995-04-05
CA2094650A1 (en) 1994-03-30
EP0590231A2 (en) 1994-04-06
CA2094650C (en) 1997-04-22
KR940007535A (ko) 1994-04-27

Similar Documents

Publication Publication Date Title
JPH06105808A (ja) 奥行き知覚分析装置
US11412993B2 (en) System and method for scanning anatomical structures and for displaying a scanning result
Holloway Registration error analysis for augmented reality
EP2857939B1 (en) Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
US20180246590A1 (en) Eye tracking using structured light
So et al. A metric to quantify virtual scene movement for the study of cybersickness: Definition, implementation, and verification
Duchowski et al. 3-D eye movement analysis
Palmisano Consistent stereoscopic information increases the perceived speed of vection in depth
CN105324794A (zh) 头部和眼睛跟踪
US20140327613A1 (en) Improved three-dimensional stereoscopic rendering of virtual objects for a moving observer
JP2007528743A (ja) 口腔内画像化システム
WO2009136207A1 (en) Display of 3-dimensional objects
JP5869770B2 (ja) 視覚認知検査システム、訓練システムおよび支援システム
Duchowski et al. 3D eye movement analysis for VR visual inspection training
CN106709398A (zh) 凝视分析方法与装置
KR101383797B1 (ko) 3차원 디스플레이 장치에서 사용자의 입체 시력을 측정하기 위한 시스템 및 그 방법
JPH0449943A (ja) 眼球運動分析装置
JP6199038B2 (ja) 視線分析装置
JP7276823B2 (ja) 視覚認知機能評価システム
Sprague et al. The importance of accurate VR head registration on skilled motor performance
JPH07129095A (ja) 3次元画像情報端末装置
CN110881981A (zh) 一种基于虚拟现实技术的阿尔兹海默症辅助检测系统
JP7269617B2 (ja) 顔画像処理装置、画像観察システム、及び瞳孔検出システム
CN116958225B (zh) 一种基于单向玻璃虚实结合的深度感知检测方法及系统
Urano et al. Eye gaze estimation based on ellipse fitting and three-dimensional model of eye for “Intelligent Poster”

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19950711

LAPS Cancellation because of no payment of annual fees