JPH10327432A - 立体画像表示装置 - Google Patents

立体画像表示装置

Info

Publication number
JPH10327432A
JPH10327432A JP9147300A JP14730097A JPH10327432A JP H10327432 A JPH10327432 A JP H10327432A JP 9147300 A JP9147300 A JP 9147300A JP 14730097 A JP14730097 A JP 14730097A JP H10327432 A JPH10327432 A JP H10327432A
Authority
JP
Japan
Prior art keywords
image
area
depth
motion vector
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9147300A
Other languages
English (en)
Other versions
JP3802653B2 (ja
Inventor
Seiichiro Tabata
端 誠 一 郎 田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP14730097A priority Critical patent/JP3802653B2/ja
Priority to US09/082,303 priority patent/US6411326B1/en
Publication of JPH10327432A publication Critical patent/JPH10327432A/ja
Application granted granted Critical
Publication of JP3802653B2 publication Critical patent/JP3802653B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • G02B30/35Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers using reflective optical elements in the optical path between the images and the observer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【課題】検出精度の高い視線検出器を用いなくてもよく
軽量で安価に製作可能なうえ極めて見やすい立体画像を
安定に得る。 【解決手段】立体画像を表わす信号を入力する手段(31,
32,33.メモリ等)と、入力信号による立体画像の経時的
変化を検出する画像変化検出手段(36)と、その検出結果
に基づいて画像領域中の特定の部分領域を観察者が注視
する蓋然性の高い領域として指定する注視予測領域決定
手段(37)と、指定された特定の部分領域内に表示される
画像の奥行きを検出する奥行き検出手段(38,39)と、検
出された情報に基づいて前記立体画像の奥行きに係る量
を制御する奥行き制御手段(40)と、奥行きに係る量が制
御された立体画像を表わす信号を立体画像表示手段(3)
に被表示立体画像信号として出力する手段(41,42)とを
備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、入力手段により入
力した立体画像を表わす信号について画像の奥行きに係
る奥行き量を制御したのち、立体画像表示を行なう立体
画像表示装置に関する。
【0002】
【従来の技術】視覚表示装置やそのシステムとして、画
像を立体視できるように表示する立体視ディスプレイは
既知であり、種々のものが提案されている。しかし、従
来の立体視ディスプレイでは、画像表示面の奥行き位置
と融像奥行き位置とが異なるために、観察者の眼球の輻
輳とピント調節とに矛盾した状態が起こることがあっ
た。この矛盾量が大きくなると、人間は立体画像を一つ
のものとして知覚できなくなる。
【0003】この問題を解決する手段として、従来から
幾つかの提案がなされている。特開平3-292093号(セイ
コーエプソン)には、視線検出器を用いて観察者の注視
点を検出し、この注視点での奥行き情報からレンズを動
かして視度を変える手段が示されている。この手段は、
画像表示面の奥行き位置と融像奥行き位置とが一致する
ように、「画像表示面の奥行き位置」を制御するもので
ある。
【0004】また、特開平7-167633号(松下電器産業)
には、視線検出器を用いて観察者の注視点を検出し、こ
の注視点での奥行きが立体画像表示部の表面もしくは表
面から指定された距離だけ離れた位置に再現するように
視差を制御する手段が示されている。この手段は、画像
表示面の奥行き位置と融像奥行き位置とが一致するよう
に、「融像奥行き位置」を制御するものである。
【0005】
【発明が解決しようとする課題】上記従来の技術は、両
者とも観察者の注視点を検出し、注視点での奥行き情報
から立体画像の奥行き位置を制御するという点で共通し
ている。しかしながら上記のようなものでは、観察者の
注視点を正確に検出する必要があるため、検出精度の高
い視線検出器を必要とし、装置が高価格なものになって
しまうと言う問題がある。更に、視線検出器の重量分だ
け重くなるため、立体画像表示装置として例えば頭部装
着型表示装置(以下HMDと略称する)を適用する場合
には、軽量であることが強く望まれているHMDの重量
を大きくしてしまうという問題が生じる。
【0006】尚、特開平6-225197号「ビデオカメラによ
る監視装置」(日本電信電話)には、監視領域内にある
対象物を自動認識し、注目すべき対象を自動的に追跡す
る装置が開示されている。しかしながら上記の監視装置
は、立体画像の奥行きを調整するために注目すべき対象
を自動認識するものではなく、このような構成を有する
立体画像表示装置はこれまでに存在していない。
【0007】そこで、本発明の目的は、格別に検出精度
の高い視線検出器を用いなくても、観察者が注視するで
あろう注視点(画像領域)が予測され、その予測された
注視点における画像の奥行き情報に基づいて立体画像の
奥行き制御が行なわれ、極めて見やすい立体画像を安定
に得ることのできる立体画像表示装置を提供することに
ある。
【0008】
【課題を解決するための手段】本発明による立体画像表
示装置は、立体画像を表わす信号の供給を受けるための
入力手段と、上記入力手段により受けた信号による立体
画像の経時的な変化を検出する画像変化検出手段と、上
記画像変化検出手段による検出結果に基づいて画像領域
中の特定の部分領域を観察者が注視する蓋然性の高い領
域として指定する注視予測領域決定手段と、上記注視予
測領域決定手段によって指定される特定の部分領域内に
表示される画像の奥行きを表わす情報を得る奥行き検出
手段と、上記奥行き検出手段により得た画像の奥行きを
表わす情報に基づいて上記入力手段により受けた信号に
よる立体画像の奥行きに係る量を制御する奥行き制御手
段と、上記奥行き制御手段によって上記奥行きに係る量
が制御された立体画像を表わす信号を、適用された立体
画像表示手段に被表示立体画像信号として出力し得る出
力手段とを備えて構成される。…………(1)
【0009】ここで、前記(1)に記載の装置であり、
加えて、上記注視予測領域決定手段は、上記画像変化検
出手段による検出結果に基づいて被検出画像全体の中で
特異な検出結果が得られる特定の部分領域が存在すると
きには該特定の部分領域を当該注視予測領域として指定
し、特異な検出結果が得られる特定の部分領域が存在し
ないときには予め設定した所定領域を当該注視予測領域
として指定するように構成される。
…………(2)
【0010】また、前記(2)に記載の装置であり、加
えて、複数の各小領域毎に、画像の経時変化を検出する
画像動き量検出手段を有してなり、且つ、上記注視予測
領域決定手段は、上記複数の小領域のうち画像変化検出
手段によって検出される画像の経時変化の値が特異な値
を示す小領域を、当該注視予測領域として指定するよう
に構成される。 …………(3)
【0011】更に、前記(1)に記載の装置であり、加
えて、複数の各小領域毎に画像の経時変化を表わす動き
ベクトルを検出する動きベクトル検出手段を有してな
り、且つ、上記注視予測領域決定手段は、上記複数の小
領域のうち上記画像変化検出手段によって検出される自
己の動きベクトルが適用された視線検出手段によって検
出された観察者の視点の動きを表わす視点動きベクトル
に、実質的に等しい小領域を当該注視予測領域として指
定するように構成される。…………(4)
【0012】更にまた、前記(1)に記載の装置であ
り、加えて、上記画像変化検出手段は、上記被検出画像
全体の中で画像の経時変化が認められる変化領域と該経
時変化が認められない無変化領域とに区分する画像領域
区分手段を備えてなり、且つ、上記注視予測領域決定手
段は、上記変化領域と無変化領域とを比較してこれら双
方の領域のうち何れかの領域を当該注視予測領域として
指定するように構成されている。
…………(5)
【0013】
【発明の実施の形態】
(第1実施形態)本実施形態は、画面中において一部だ
け画像の変化が異なる領域を求め、その求めた領域を観
察者が注視するであろうと予測し、その予測した当該領
域内にある画像の奥行き距離を求め、これに基づいて立
体画像の観察における視距離と輻輳距離とが合致するよ
うに制御するものである。尚、本実施形態では視差のあ
る左画像と右画像とを総称して立体画像と呼ぶことにす
る。
【0014】図1は本発明の第1実施形態に係る立体画
像表示装置の構成(概要)を示す図である。図1に示す
如くこの立体画像表示装置は、立体画像生成装置1と、
立体画像処理装置2と、立体画像表示器3とからなる。
立体画像生成装置1は、立体画像信号SA(左画像信
号,右画像信号)を生成し、左右の音声信号と共に出力
する装置であり、これにはビデオ再生機、立体画像信号
受信器、コンピュータ等の画像生成装置、ステレオカメ
ラなどが含まれる。
【0015】立体画像処理装置2は、立体画像生成装置
1からの立体画像信号SAを受信し所定の画像処理を行
なう。この画像処理には、受信した立体画像の経時的変
化から観察者の注視点を予測する注視予測処理と、その
予測した注視点に存在する画像の奥行き距離を検出する
奥行き検出処理と、立体画像の奥行きを制御する奥行き
制御処理とが含まれている。この立体画像処理装置2に
よって奥行き制御された立体画像SBは、電力と共に立
体画像表示器3へ送られる。
【0016】立体画像表示器3は、入力した奥行き制御
済みの立体画像の表示を行なうものであり、本実施形態
においては図1に示すような頭部装着型表示装置(以下
HMDと略称する)を用いている。このHMD3の内部
には、観察者の左眼球及び右眼球にそれぞれ対応する左
右の表示素子と、左右の接眼光学系とが組み込まれてい
る。尚、HMD3から立体画像処理装置2に対して視線
方向信号SCが必要に応じて送信され得るものとなって
いる。
【0017】図2はHMD3の光学系の構成を示す図で
ある。尚、図2に示すものは、一方の眼球(左眼球)に
対する光学系であり、これと同じものが、他方の眼球
(右眼球)に対しても組み込まれている。奥行き制御さ
れた左右画像信号のうちの左画像信号SLが左用LCD
11に供給されると、左画像が左用LCD11の表示面
上に表示される。10はバックライトである。上記表示
画像は、以下の接眼光学系によって拡大されて左眼球1
5に導かれる。
【0018】図2に示されている接眼光学系はプリズム
型の光学系である。LCD11の表示面からの光はプリ
ズム12に入射し、ハーフミラー13を透過し、凹面ミ
ラー14によって反射される。この反射光はハーフミラ
ー13の裏面で反射され、眼球15に入射する。ここ
で、LCD11の表示面上の画像は、図示の如く拡大虚
像面16を形成する。観察者はこの虚像面16を観察す
ることになる。この拡大虚像面16から眼球15までの
距離Iは接眼光学系とLCD11の表示面までの距離に
よって決定される。本実施形態では拡大虚像面16から
眼球15までの距離Iを視距離と呼ぶ。また、立体画像
の融像位置は左右画像の持つ視差によって決定される。
本実施形態では、この立体画像の融像位置から接眼レン
ズの主平面までの距離を輻輳距離と呼ぶ。
【0019】尚、本実施形態では立体画像表示器として
HMD3を例示したが、必ずしもHMD3に限られるも
のではない。例えば『3次元画像の基礎』(1995年、泉
武博監修、NHK放送技術研究所編、(株)オーム社発
行、pp.130〜178 )に記載されている表示装置(シャッ
ター切り替え方式やレンチキュラー方式等の各種立体T
V)等を、立体画像表示器として適用可能である。
【0020】これらの立体TVにおける視距離は、CR
T等の表示画面から観察者の眼球までの距離となり、輻
輳距離は融像位置から観察者の眼球までの距離となる。
図3は本実施形態の動作を示すフロー図である。このフ
ロー図は、図1に示す立体画像生成装置1から左右画像
が出力されたのち、立体画像処理装置2による画像処
理、およびHMD3による画像表示動作までを示すもの
である。以下、図4以降の図も適時参照しながら本実施
形態の装置の動作を説明する。
【0021】[ステップS1]立体画像生成生装置1から
出力された立体画像信号SAである左右画像信号が立体
画像処理装置2に順次入力し受信される。今、図4の
(a)に示す左画像フレームm−1(L)と図4の
(b)に示す右画像フレームm−1(R)とを受信した
のち、同図(c)に示す左画像フレームm(L)と同図
(d)に示す右画像フレームm(R)とを受信したとす
る。
【0022】ここに示す画像例は、図面上、右方向に走
行している自動車を追尾してステレオ撮影した場合の画
像例である。したがって同図(a)に対する同図(c)
の自動車画像位置は変化していない。一方、背景画像は
左方向に変化している。以上のことは同図(b)と同図
(d)との間でも同じことが言える。
【0023】また、カメラ近方に位置していると想定さ
れる自動車は、同図(a)に示す左画像の画像位置より
も、同図(b)に示す右画像の画像位置が左にずれてい
る。つまり視差を持っている。一方、背景はカメラから
無限遠に位置していると想定されるため、同図(a)と
同図(b)の画像位置は一致している。つまり視差が0
となっている。同図(c)と(d)についても同じこと
が言える。
【0024】[ステップS2]時刻の異なる画像間の動き
ベクトルを検出する。ここでは、左画像フレームまたは
右画像フレームのいずれかを用いる。例えば左画像を用
いるものとし、図4では同図(a)の画像に対する同図
(c)の画像の動きベクトルを検出する。動きベクトル
の検出法としては、それぞれの画像を小領域のブロック
に分割し、各ブロック毎にテンプレートマッチング処理
を行なう。このような処理を行なうことにより、結果と
して同図(e)に示す如き動きベクトルが求まる。
【0025】この図4の(e)は、自動車の画像が位置
している領域が動きベクトル0、つまり動きがなく、そ
の他の画像が位置している領域は左方向の動きベクトル
つまり左方向へ画像が変化していることを表している。
【0026】[ステップS3]観察者が注視するであろう
と予測される画像領域(注視予測領域と呼ぶ)が決定さ
れる。具体的には、画面中にある多数の動きベクトルの
中で一部だけ動きベクトルが異なる領域が選定される。
図4の(e)の場合は点線枠で囲った部分だけが他の動
きベクトルとは異なる。したがって、この領域が注視予
測領域であると判断する。
【0027】図4の(e)の場合とは逆に、例えば図5
のように画面の一部だけが動きベクトルを有し、その他
の動きベクトルが0である場合には、動きベクトルを有
する領域を注視予測領域とする。
【0028】また、図6のように、画面の一部の画像自
体が変化した場合には、その変化した領域のみが動きベ
クトルが得られない異常値となる。この場合は、その異
常値を呈した領域を注視予測領域とする。
【0029】上記した例は、いずれも画面中に存在する
多数の動きベクトルの中で、一部だけ動きベクトルが他
とは異なる領域が存在している例であり、その一部だけ
動きベクトルが異なる領域を注視予測領域として選定す
る。
【0030】尚、図7のように、一つの画面中に一部だ
け動きベクトルの異なる領域が複数(図7の場合は2箇
所)存在する場合には、画面の中央に近い方を注視予測
領域として選択する。また、画像がほとんど変化しない
場合、動きベクトルの違いが相対的に小さく略0値とな
る。このような場合には、画面中央部の所定面積の領域
を注視予測領域とする。
【0031】更に、図8のように、例えば車窓から見た
風景のように、画面全体が一様に一方の側から他方の側
へ変化している場合には、動きベクトルが全て同じベク
トル値を有する。このような場合には、画面の中央位置
から動きベクトル量とは逆方向に一定幅だけシフトした
位置を注視予測領域とする。すなわち観察者は動きに関
して、いわば上流側(図示例では新たな画像が出現して
くる左側)に注目する傾向をもつ。したがって上記の如
く「動きベクトル量とは逆方向に一定幅シフトした位
置」を注視予測領域とすることが妥当と言える。
【0032】図9は、上述したステップS3における
「注視予測領域決定」の判断過程を示すフロー図であ
る。
【0033】[ステップS4]注視予測領域内の画像の奥
行き距離を求める。画像の奥行き距離を求める方法には
幾つかあるが、その代表的なもの三つを以下に例示す
る。 (1)相関方式;注視予測領域において左画像フレームと
右画像フレームとの相関計算を行ない、視差を導出す
る。 (2)距離信号付加方式;画像領域毎に予め奥行き距離を
表す信号を付加しておく。そして注視予測領域を選定す
ることで、その領域に対応した奥行き距離信号を特定す
る。 (3)測距方式;注視予測領域の方向にある物体の奥行き
距離を検出する。この検出には、ステレオカメラに設け
られている測距センサや、コンピュータグラフィックス
のZバッファ値を用いる。
【0034】ここでは、上記(1)の相関方式で奥行き距
離を求める場合について、前述の図4を用いて説明す
る。同図(f)に示すように、フレームm(L)の左画
像における注視予測領域は、ステップS3で既に定まっ
ている。そこで点線で囲った領域に対応する部分が右画
像m(R)のどの位置に存在するかを相関演算すること
によって求める。相関演算の例としては、同図(f)の
点線で囲った画像をテンプレートとし、同図(g)に示
すフレームm(R)の点線で囲った画像に対してテンプ
レートマッチングを行なう。ここで、同図(g)の点線
の領域は、同図(f)に示すように、点線の領域を中心
として左右方向に拡大した領域となっている。
【0035】相関演算した結果、例えば図10の(a)
に示すように、ある相関ピーク値を有する相関シフト量
から対応部分がわかる。結果として、図4の(g)の斜
線を施した領域が、同図(f)の点線枠で囲った画像と
対応していることがわかる。次に、同図(f)の点線領
域の中心位置のX座標xLと同図(g)の斜線領域の中
心位置のX座標xRとのずれ(xLーxR)を求める。
ここで、X座標とは、画像の横方向の位置を示す。この
ずれ(xLーxR)がいわゆる視差であり、奥行き距離
を表している。図10の(a)の場合においては、相関
ピーク値の相関シフト量がそのまま視差(xLーxR)
を示す。
【0036】ところで図4の(f)の中に奥行きの異な
る複数の画像が含まれている場合もあり得る。この場合
には、相関演算の結果、複数の視差値が出力される。こ
のような場合においては、以下のようにして最終的な視
差を決定する。 (1)視差の大きい方を最終的な視差とする。つまり近方
の視差を選択する。図10の(b)のように、二つある
相関ピークのうち、相関シフト量の大きい方を選択す
る。 (2)複数の視差の平均値を最終的な視差とする。図10
の(c)のように、二つある相関ピークの相関シフト量
の平均値とする。 (3)視差を求める際の相関ピークの大きい方の視差を最
終的な視差とする。コントラストの低い画像の場合に
は、左右画像の相関ピークは小さくなる。一方、コント
ラストがはっきりしている画像領域や、一箇所にデータ
値が集まっている場合には相関ピークは高くなる。よっ
て観察者は、後者の方を注視するものと予測し、相関ピ
ークの高い方の画像の視差を最終的な視差とする。図1
0の(d)のように相関ピーク値の高い方の相関シフト
量を視差とする。
【0037】[ステップS5]奥行き距離の信号に基づい
て視距離と輻輳距離とが一致するように、立体画像の奥
行き制御を行なう。この奥行き制御の制御方式は、大き
く分けると次の2通りとなる。 (1)輻輳距離制御方式;左右画像を水平方向にシフトす
ることにより、輻輳距離が目標の輻輳距離(=視距離)
となるように制御する方式。 (2)視距離制御方式;視距離が奥行き距離と一致するよ
うに視距離を制御する方式(例えば、HMD3の接眼光
学系における表示素子とレンズとの距離を制御するもの
等)。
【0038】ここでは、上記 (1)輻輳距離制御方式につ
いて説明する。まず、立体画像観察時の視差と輻輳距離
Lとの関係について説明する。
【0039】図11に示すように、左表示面21の水平
位置XL と右表示面22の水平位置XR とに像を表示し
たとき、点Bの位置でXL とXR の像は一致する。この
点Bから左右の接眼レンズ23,24の主平面までの距
離を輻輳距離Lとする。このときのXL とXR は次式
(1)(2)で表される。 XL ={ d+(−H)}/L・tanθ …(1) XR ={−d+(−H)}/L・tanθ …(2) dは左右レンズの中間点(原点)から左右レンズのそれ
ぞれの中心点(左右の主点C,E)までの距離である
(右眼側は正、左眼側は負の値となる)。θはレンズの
半画角である。また、−Hは、点Bの水平位置である。
【0040】ここで、左表示面21の水平位置XL と右
表示面22の水平位置XR とは、表示領域における光軸
との交差点を0として、図12に示すように表示領域の
水平長さを「2」として規格化している。式(1)は、
図11における点A、点B及び点Cによって作られる三
角形と、左表示面21での原点0と点XL と点Cとによ
って作られる三角形とが相似であることから導くことが
できる。式(2)も同様に、点D、点B及び点Eによっ
て作られる三角形と、右表示面22での原点0と点XR
と点Eとによって作られる三角形とが相似であることか
ら導くことができる。上記二つの式から次式が導かれ
る。 XL −XR =2d/L・tanθ …(3) 上式(3)は視差(XL-XR )と輻輳距離Lとの関係を
表している。よって輻輳距離Lと視距離Iとが一致する
ための視差の条件は次式(4)で表せる。 XL −XR =2d/I・tanθ …(4)
【0041】前記奥行き制御方式のうち、 (1)輻輳距離
制御方式では、視差(XL-XR )が常に上式(4)を満
たすように視差制御が行なわれる。その制御の仕方とし
てはステップS5で求めた視差(XL-XR )と、式
(4)の差分だけ画像全体を水平方向にシフトする。そ
の左画像のシフト量SLと右画像のシフト量SRとは例え
ば次式となる。 SL=−(XL −XR )+d/I・tanθ …(5) SR=−(XL −XR )−d/I・tanθ …(6)
【0042】ここで、SLとSRの符号「−」は左水平方
向シフトを示し、符号「+」は右水平方向シフトを示し
ている。視差(XL−XR )が目標視差よりも大きい
時、つまり輻輳距離Lが視距離Iよりも近方にあるとき
は、左画像を右方向へシフトし右画像を左方向へシフト
して、輻輳距離Lと視距離Iとを一致させる。これとは
逆に視差(XL−XR )が目標視差よりも小さい時、つ
まり輻輳距離Lが視距離Iよりも遠方にあるときは、左
画像を左方向へシフトし右画像を右方向へシフトして、
輻輳距離Lと視距離Iとを一致させる。
【0043】このステップS5ではステップS4で求め
た自動車画像の視差(XL−XR )に基づいて式(5)
(6)の演算を実行し、シフト量SLとSRとを求め、画
像シフトを行なう。図4の例では、自動車画像の視差
(XL−XR )が目標視差よりも大きい時は、同図
(h)(i)に示すように左画像を左方向へシフトさ
せ、右画像を右方向へシフトさせる。
【0044】[ステップS6]立体画像処理装置2で奥行
き制御された左右画像信号がHMD3に供給され、HM
D3によって上記奥行き制御された左右画像信号の表示
が行なわれる。以下、これらのステップS1〜S6まで
が繰り返される。
【0045】図13は、図4に示した画像例について上
述した如く処理した立体画像を観察する場合の状況を示
す図である。図13に示すように、自動車像が虚像面上
で融像し、背景が遠方に融像した状態で、左方向へ流れ
ていく立体画像を観察することができる。
【0046】図14は第1実施形態における立体画像処
理装置2の内部構成を示すブロック図である。尚、図1
4の左上に、二点鎖線で囲ったブロック60(視線検出
器61からの信号を視線ベクトル演算部62で演算して
出力するブロック)は、第4実施形態の構成を示すため
に付加された部分であり、第1実施形態の構成には直接
関係がない。
【0047】図14に示すように立体画像生成装置1か
らの左画像信号および右画像信号を受信すると、この左
右画像信号から分離された垂直同期信号が、各ブロック
の処理タイミングを制御するためのタイミング制御部3
1へ入力する。尚、図14に示されている符合TCは、
上記垂直同期信号に相当する信号を示している。
【0048】上記左右画像信号は、A/D変換器32,
33でA/D変換された後、切換えスイッチ34,35
を介してメモリ1〜メモリ5へ選択的に供給されるものと
なっている。左画像信号はメモリ1とメモリ2とメモリ3
のうちいずれかに記憶される。これらの各メモリへの記
憶動作は、切換えスイッチ34によりフィールド毎また
はフレーム毎に交互にスイッチングされながら実行され
る。したがって、メモリ1〜メモリ3には、1フィールド
毎または1フレーム毎に異なった画像が記憶される。
【0049】今、時刻mにおいてメモリ1には左画像m
(L)が記憶され、メモリ2には左画像m−1(L)が記
憶されるものとする。また、メモリ3には次のフレーム
左画像m+1(L)が記憶されるものとする。
【0050】一方、右画像もメモリ4及びメモリ5に対
し、切換えスイッチ35によりスイッチングされて記憶
される。ここではメモリ4には右画像m(R)が記憶さ
れ、メモリ5には右画像m+1(R)が記憶されるもの
とする。
【0051】次に、メモリ1〜メモリ3のうち、二つのメ
モリ内に記憶されている両画像が比較され動きベクトル
を演算される。時刻mではメモリ1とメモリ2とが選択さ
れ、m(L)画像信号とm-1(L)画像信号とが動きベ
クトル検出部へ出力される。ここで、選択されるメモリ
番号は時刻に応じて順次切り替わる。(以上がステップ
S1に相当。尚、ステップS1では全ブロックのベクト
ルの各値を得てそれらの平均を求める。)
【0052】動きベクトル検出部36は、両画像を複数
のブロックに分割し、一方の画像内のブロックと相関の
高いブロックをもう一方の画像内から探す。両画像にお
けるブロックの位置の差が動きベクトルとなる。この演
算処理は各ブロック毎に行なわれ、各ベクトル信号が注
視予測領域決定部37に入力する。(以上がステップ2
に相当)
【0053】注視予測領域決定部37は、前述したよう
に図9に示すフロー図にしたがって注視予測領域の演算
を行なう。以下、図9に示すフロー図について説明す
る。
【0054】ステップS3ー1では、全体の動きベクト
ルの中で一部だけ異なるベクトルがあるか否かを判定す
る。この判定は先ず全体の動きベクトルの分散値を求
め、その分散値が規定の値を超えるか否かを確認するこ
とによって行なわれる。ここで、分散値とは、複数に分
割した各画像ブロック毎の動きベクトルのバラツキ度合
をいう。
【0055】ステップS3ー2では、ステップS3ー1
で一部だけ異なるベクトルがあると判定されたとき、そ
のベクトル領域が一つなのか複数なのかを判定する。こ
の判定は、動きベクトルの偏差(バラツキの幅)の90%
以上偏位している動きベクトルがあるか否かを検索し、
90%以上偏位している動きベクトルが存在している画面
上の座標位置を見つけ、いわゆるラベリングを行ない、
このラベリングを行なった数が一つか複数かで判定する
ものである。
【0056】ステップS3ー3では、前記ステップS3
ー2での判定結果が「一つ」である場合、当該ラベリン
グされた一つのブロック番号に相当する信号を注視予測
領域信号として相関演算部38へ出力する。
【0057】一方、ステップS3ー4では、ステップS
3ー2での判定結果が「複数」である場合、各ラベルの
中心座標を演算し、その中心座標が画面中央に近い方の
ラベルにおけるブロック番号に相当する信号を注視予測
領域信号として相関演算部38へ出力する。
【0058】前記ステップS3ー1において、一部だけ
異なる動きベクトルは存在しないと判定された場合に
は、ステップS3ー5へ移る。ステップS3ー5では、
全体の動きベクトルの平均値が0であるか否かを判定す
る。ステップS3ー6では、ステップS3ー5で全体の
動きベクトルの平均値が0であると判定されたとき、予
め注視予測領域決定部内に記憶されている画面中央部に
おけるブロック番号に相当する信号を、注視予測領域信
号として相関演算部38へ出力する。ステップS3ー7
では、ステップS3ー5で全体の動きベクトルの平均値
が0でないと判定されたとき、上述のブロック番号を動
きベクトル平均値の反対方向にシフトしたブロック番号
に相当する信号を注視予測領域信号として相関演算部3
8へ出力する。
【0059】以上が注視予測領域決定部37の動作であ
る。次に相関演算部38について説明する。相関演算部
38は、前記した如く注視予測領域として決定されたブ
ロック番号を、そのままメモリ1〜メモリ3のいずれかに
出力する。時刻mにおいては左画像m(L)が記憶され
ているメモリ1へ出力する。一方、右画像に対しては、
先ほどのブロック番号に予め相関演算部38が記憶して
いる水平冗長ブロック数分α(視差相応の見込みずれ
量。これだけのマージン領域αを広げてブロック番号で
特定される領域を全てカバーし得る領域Zを特定し、そ
の上で左右のずれ量の比較を行なう必要があるからであ
る。)を付加して、メモリ4、メモリ5のいずれかに出力
する。時刻mにおいては、右画像m(R)が記憶されて
いるメモリ4へ出力する。メモリ1とメモリ4は受信した
ブロック番号内の画像信号を相関演算部38に返す。そ
して相関演算部38は左画像信号をテンプレートにし
て、1ブロックづつ左画像をシフトして右画像信号との
減算を行なう。ここで、減算値が小さいほど相関値は高
い。相関演算部38は、各シフト量に対する減算値を視
差演算部39へ出力する。
【0060】視差演算部39では、図10に示す視差決
定法に基づき、減算値を利用して最終的な視差値を求め
る。視差値はシフト量演算部40へ出力される。(ステ
ップ4に相当)
【0061】シフト量演算部40では、式(5)(6)
の演算を行なって左画像用シフト量と右画像用シフト量
を求める。各シフト量は左右それぞれの画像読み出し制
御部41,42へ出力され、各画像読み出し制御部4
1,42は、各メモリ内の画像信号をシフト量だけシフ
トして読み出す。(ステップ5に相当)
【0062】読み出された左右画像信号は、D/A変換
器43,44によりそれぞれD/A変換されたたのち、
HMD3の左右表示素子にそれぞれ供給されて表示され
る。(ステップ6に相当)
【0063】上述した第1実施形態は、動きベクトルを
検出し、画面中において一部だけ画像の変化が異なる領
域を求め、その領域内にある画像の奥行き距離を求め、
立体画像観察における視距離と輻輳距離とが合致するよ
う制御するものである。本実施形態によれば、視線検出
器を用いる必要がないので、装置全体を小型に、しかも
安価に得ることができる。
【0064】「第2実施形態」(左右画像の動きベクト
ル検知) 第1実施形態では動きベクトルを左右画像の一方のみに
ついて求めたが、この第2実施形態では、第1実施形態
の一部を変形し、左右画像の双方に動きベクトルを求め
るようにしたものである。
【0065】図15に示す画像例では、同図(a)
(c)に示す左画像について同図(e)に示す動きベク
トルを求めると共に、同図(b)(d)に示す右画像に
ついても同図(f)に示す動きベクトルを求める。そし
て、同図(g)(h)に示すように、それぞれの注視予
測領域を決定する。
【0066】次に、それぞれの注視予測領域の中心座標
xL、xRを求める。そして、これらの座標xLとxR
との差(xLーxR)を視差と定める。このように第2
実施形態では相関演算を行なわない。
【0067】図16は第2実施形態における立体画像処
理装置の内部構成を示すブロック図である。左右画像と
もに、注視予測領域決定部37までは共通である。この
ため共通部分は二点鎖線で囲み一方を省略した。左右そ
れぞれの注視予測領域決定部37からは中心座標値xL
とxRとが視差演算部39へ出力される。視差演算部3
9では(xL−xR)を行ない、その結果をシフト量演
算部40へ出力する。後の処理は第1実施形態の場合と
同じなので説明は省略する。
【0068】本実施形態では、相関演算を行なわずに視
差量を求め得るので、処理時間を短くて済むというメリ
ットがある。
【0069】「第3実施形態」(フィールド順次対応) 第3実施形態は、第1実施形態の一部を変形し、フィー
ルド順次(またはフレーム順次)立体映像に対して有効
なものとした例である。すなわち、時刻の異なる左右画
像間の動きベクトルを検出し、注視点を予測して視差を
求めるようにする。
【0070】図17は第3実施形態の処理動作を示すフ
ロー図である。このフロー図について、図18に示す画
像処理例を参照しながら説明する。尚、本実施形態で
は、図18の(a)(b)(c)に示すように、右画像
フレーム番号m−1(R)、左画像フレームm(L)、
右画像フレームm+1(R)…と言う具合に、左右画像
を交互に受信するものとする。
【0071】[ステップS11]左画像フレームm(L)
を受信する。 [ステップS12]右画像フレーム番号m−1(R)に対
する左画像フレームm(L)の動きベクトルmをブロッ
ク毎に求める。すなわち隣接フィールド区間どうしの比
較(左用フィールドと右用フィールドとの間の比較)で
動きベクトルを求める。したがってこの結果は左右の視
差を含んだものとなる。図18の(d)は上記結果例を
示す。背景画像については左方向の動きベクトルが現れ
る。また、車の画像領域については視差分の動きベクト
ルが現れる。 [ステップS13]右画像フレームm+1(R)を受信す
る。
【0072】[ステップS14]左画像フレーム番号m
(L)に対する右画像フレーム番号m+1(R)の動き
ベクトルをブロック毎に求める。図18の(e)はその
結果例を示す。背景画像については、(d)と同様に左
方向の動きベクトルが現れる。一方、車の画像領域につ
いては、(d)とは逆方向の視差分の動きベクトルが現
れる。
【0073】[ステップS15]図18の(d)の動きベ
クトルと、同図(e)の動きベクトルとについて、ブロ
ック毎の平均値を求める。等速運動をする物体について
は視差分がキャンセルされるためこのようにする。図1
8の(f)はその結果を示している。背景画像について
は左方向の動きベクトルが現れ、車の画像に関しては動
きベクトルが0となる。
【0074】[ステップS16]得られた動きベクトルの
平均を用いて第1実施形態と同様の注視予測領域の決定
を行なう。図18の場合には、等速運動をする物体につ
いては視差分がキャンセルされるため動きベクトルが0
値である領域を注視予測領域とする。
【0075】[ステップS17]図18の(d)の動きベ
クトルから同図(e)の動きベクトルをブロック毎に差
分し1/2にする。こうすることにより背景に関する動
きがキャンセルされ、視差ベクトルが現われる。図18
の(g)はその結果を示している。図示の如く背景画像
についてはベクトル値が0となり、車の画像に関しては
右方向の視差ベクトルが現れる。この視差ベクトル値が
車の画像の奥行き情報となる。この後のステップは第1
実施形態の場合と同じであるため説明を省略する。
【0076】図19は第3実施形態における立体画像処
理装置の内部構成を示すブロック図である。フィールド
毎に交互に受信した左右画像信号はA/D変換器50に
よりA/D変換されたのち、メモリ1、メモリ2、メモリ
3に記憶されていく。
【0077】今、時刻mにおいて、メモリ1にはフィー
ルド画像m(L)が記憶され、メモリ2にはフィールド
画像m−1(R)が記憶されており、そして次のフィー
ルド画像m+1(R)がメモリ3に記憶されるものとす
る。三つのメモリのうち二つのメモリが選択され、その
内容が動きベクトル検出部36へ出力される。
【0078】時刻mにおいては、メモリ1とメモリ2とが
選択され、読み出された画像信号が動きベクトル検出部
36に入力する。動きベクトル検出部36は、選択され
た二つのメモリの画像における動きベクトルを検出して
出力する。この出力された動きベクトルは第1動きベク
トルメモリ51に記憶される。次の時刻m+1になる
と、メモリ1とメモリ3とが選択され、両画像の動きベク
トルが検出される。この検出された動きベクトルは第2
の動きベクトルメモリ52に記憶される。
【0079】次に、第1,第2の動きベクトルメモリ5
1,52に記憶されている各動きベクトルの信号は、動
きベクトル加算器53へ出力される。動きベクトル加算
器53で加算された結果は、注視予測領域決定部37へ
出力される。注視予測領域決定部37は、図14に示す
第1実施形態の構成ブロック図における注視予測領域決
定部37と同じ働きをする。注視予測領域決定部37
は、演算結果が相対的に特異な値を示す領域を識別し、
その領域のブロック番号を視差演算部39へ出力する。
【0080】一方、第1,第2の動きベクトルメモリ5
1,52に記憶されている各動きベクトルは、動きベク
トル減算器54にも出力される。この動きベクトル減算
器54による減算結果は視差演算部39へ出力される。
視差演算部39では、注視予測領域決定部37から受信
したブロック番号における動きベクトルと動きベクトル
減算器54から受信した減算の結果とに基づいて視差を
決定する。決定された視差信号は、シフト量演算部40
へ出力され、シフト量が演算される。この演算されたシ
フト量に応じて、メモリ1〜メモリ3に記憶されている画
像が、表示用読み出し制御部55によってシフトされた
状態で読み出される。読み出された画像は、D/A変換
器56でD/A変換された後、切替え器57によりフィ
ールド毎に左表示素子と右表示素子への出力に切替られ
て送出される。
【0081】第3実施形態においては、フィールド順次
立体画像に対応する如く構成されており、第1実施形態
における相関演算部38の働きを、動きベクトル検出部
36が兼ねた構成となっているため、全体のブロック数
が少なくて済み、安価に製作できるという利点を持つ。
【0082】「第4実施形態」(視線動きベクトルを利
用) 第4実施形態は、第1実施形態の一部を変形し、動画像
間の動きベクトルと観察者の視線の動きベクトルとを検
出し、両者の比較から注視予測領域を決定するようにし
た例である。
【0083】観察者の視線の動きベクトルを検出する方
法として、HMD3に設けた視線検出器を利用する。た
だしこの視線検出器は、従来用いられていたような、視
線の絶対座標を調べるのものではなく、視線の相対的な
変動を検出する目的で用いるものである。よって高精度
なものである必要はなく、また、視線の絶対座標を割り
出すためのキャリブレーション等も不要である。
【0084】図20は第4実施形態の動作を示すフロー
図である。図3に示した第1実施形態の動作を示すフロ
ー図との比較から分かるように、「観察者の視線の動き
ベクトルの検出」(ステップS23)が新たに加わった
ことと、「立体画像の奥行き制御」(ステップS5)の
代わりに「視距離と輻輳距離との合致制御」(ステップ
S26)が加わったことの二点が大きく異なるだけで他
はほぼ同様である。
【0085】第1実施形態の場合と同様に、まず動きベ
クトルを検出し、同時に観察者の視線の動きベクトルを
検出する。そして全体の動きベクトルの中で、視線の動
きベクトルと同じベクトルを有する画像領域を決定し、
この画像領域を注視予測領域とする。
【0086】尚、ステップS23における「観察者の視
線の動きベクトルの検出」は、視線方向角の変化Δθを
精度よく検出することは比較的容易であるが、視線方向
の絶対値を検出することは困難である。したがって本実
施形態では、上記Δθに相応する動きベクトルが、画面
内のブロックのいずれの位置に対応するかに基づいて注
視予測領域を特定することにした。この結果、例えば図
21の(c)に示すような動きベクトルが現れる。
【0087】次に、フレーム間での視線の動きベクトル
を検出する。その検出の結果、視線の動きベクトルが、
例えば図21の(d)に示す如く右向きであれば、図2
1の(c)に示す如く、注視予測領域は動きベクトルが
右向きの領域となる。
【0088】第4実施形態における立体画像処理装置の
内部構成を示すブロック図は、図14の左上に、一点鎖
線で囲ったブロック60(視線検出器61からの信号を
視線ベクトル演算部62で演算して出力するブロック)
が付加された状態の全体ブロック図に相当するものとな
る。
【0089】第4実施形態は、第1実施形態のように画
像のみから注視予測領域を決定するのではなく、視線の
動きを検出する視線検出器61を用いて注視予測領域を
決定するように構成されているので、注視する領域が観
察者によって大きく変わる場合であっても、より的確に
対応できるという利点を持つ。
【0090】「第5実施形態」(周辺のみの動きベクト
ル) 第5実施形態は、第1実施形態の一部を変形し、動きベ
クトルを画像の周辺のみについて検出し、画像周辺にお
いて、一部だけ動きベクトルの異なる領域がある場合に
は、その領域を注視予測領域となし、ない場合には画面
中央を注視予測領域とするものである。
【0091】図22は第5実施形態の動作を示すフロー
図である。また、図23は上記フロー図の説明に用いる
処理画像例を示す図である。 [ステップS31]左右画像信号を、例えば図23の
(a)(b)(c)(d)の順で順次受信する。 [ステップS32]画像中央領域内の画像に対する奥行き
距離を演算する。図23の(e)(f)に示すように、
左右画像の中央領域の画像を用いて相関演算を行ない、
視差1を求める。 [ステップS33]画像領域の周辺画像についてのみ、動
きベクトルを検出する。図23の(g)に示すような動
きベクトルが表れる。
【0092】[ステップS34]第1実施形態の注視予測
領域決定と同じ処理を用い注視予測領域を選定する。す
なわち周辺画像領域内における特異な動きベクトルを示
す領域を特定(判定)する。図23の(g)における点
線で囲んだ部分が注視予測領域となる。 [ステップS35]第1実施形態の場合と同様に、上記注
視予測領域に関する奥行き距離を演算する。図23の
(h)(i)に示すように、相関演算を行ない視差2を
求める。 [ステップS36]ステップS32で得られた画像中央奥
行き距離と、ステップS35で得られた注視予測領域奥
行き距離とに基づいて、立体画像の奥行き制御値を決定
する。その決定方法としては、図10に示した決定方法
と同じ方法を用いる。
【0093】尚、ステップS34で、一部だけ動きベク
トルの異なる画像領域が見つからなかった場合には、画
像中央の奥行き距離をもって奥行き制御を行なう。ま
た、ステップS34で、一部だけ動きベクトルの異なる
画像領域が見つかった場合には、図23に示した二つの
視差値、つまり視差1と視差2とを用い、以下の三つの方
法により最終視差値を求める。 (1)観察者からみて手前側にある画像を注視するであろ
うという判断に基づいて、視差の大きい方を最終的な視
差とする。 (2)どちらも見ている場合もあり得るため、そのような
ケースに対応する為、複数の視差の平均値を最終的な視
差とする。 (3)相関比較においてマッチングの度合いが高い方、は
っきりした画像部分に注目するであろうという判断に基
づき、視差を求める際の相関ピークが大きい方の視差を
最終的な視差とする。 この後の処理は第1実施形態の場合と同じである。
【0094】図24は第5実施形態における立体画像処
理装置の内部構成を示すブロック図である。図14に対
して以下の点が異なっている。
【0095】一対のA/D変換器32,33によるA/
D変換後の左右画像信号がそれぞれ二つに分岐される。
そして一方の左右画像信号は、図14の場合と同じ処理
が行なわれる。ただし動きベクトル検出は周辺画像につ
いてのみ行なわれる。周辺画像の動きベクトル検出部3
6は周辺部データの抽出と、抽出したデータ値の比較
(動き検出)との双方を行なう。すなわち動きベクトル
検出部36は、メモリ1〜メモリ3から周辺画像信号のみ
を受信し、動きベクトルを検出した後、注視予測領域決
定部37へ供給される。
【0096】他方、分岐されたもう一方の左右画像信号
は、画像中央抽出部71によって画像中央の画像信号の
みを抽出される。抽出された画像中央の画像信号は、相
関演算部72に入力し、画像中央のみについての左右画
像の相関演算が行なわれる。その結果は視差演算部39
に出力される。視差演算部39では、上記相関演算部7
2および図14で説明した相関演算部38からの相関演
算の結果を用い、前述した決定方法により最終視差値を
決定する。この後の処理は第1実施形態の場合と同じで
ある。
【0097】本実施形態では、画像周辺部だけの動きベ
クトルの検出と、最も注視する確率の高い画像中央部の
奥行き距離の演算とが同時平行して行なわれることか
ら、全体の処理時間を大幅に短縮できるという利点があ
る。また、本実施形態においては前記最終視差値を求め
る三つの方法(1)(2)(3)が加味された注視予測領域の弁
別が行なわれる為、より目的に合致した判別がなされ得
る利点がある。
【0098】「第6実施形態」(精度の低い視線検出器
で選択) 第6実施形態は、第1実施形態の一部を変形し、注視予
測領域決定において、動きベクトルの異なる領域が複数
存在する場合に、視線検出器での観察者の視線信号を用
いて、複数のうちどれかを決定する。ここで用いる視線
検出器は、絶対座標として視線位置が可能であるが,検
出角度精度が±5°程度のかなり低い精度のものでも使
用可能である。
【0099】図25の(a)〜(c)に示すように、動
きベクトルの異なる二つの領域M,Nがある場合におい
て、観察者が同図(d)に示すように、画面中央下部を
見ているという情報を精度の低い視線検出器(例えば角
度精度±5°程度のもの)で検出したとき、当該画面中
央下部の領域内にある方の動きベクトルを選択するもの
である。
【0100】本実施形態は、第1実施形態のように画像
だけから注視予測領域を決定するものではないので、注
視する領域が観察者によって大きく変わる場合において
も、的確に対応できるという利点を持つ。
【0101】「第7実施形態」本実施形態では、第1実
施形態で用いた動きベクトルの代わりにエッジ差分画像
を用い、画面中において一部だけ画像の変化が異なる領
域を求め、その領域を観察者が注視するであろうと予測
する。その後、第1実施形態と同様に注視予測領域内に
ある画像の奥行き距離を求め、立体画像観察における視
距離と輻輳距離とが合致するように制御する。
【0102】この第7実施形態に係る立体画像表示装置
の構成(概要)は、図1及び図2に示した第1実施形態
の構成と同じなので、その説明は省略する。
【0103】図26は第7実施形態の動作を示すフロー
図である。このフロー図は、図1に示す立体画像生成装
置1から左右画像が出力されたのち、立体画像処理装置
2による画像処理、およびHMD3による画像表示動作
までを示すものである。以下他の図も適時参照しながら
本実施形態の装置の動作を説明する。
【0104】[ステップS41]立体画像生成装置1から
出力された左右画像信号は、立体画像処理装置2に順次
受信される。今、第1実施形態と同様に、図4の(a)
(b)に示す左画像フレームm−1(L)と右画像フレ
ームm−1(R)を受信した後、同図の(c)(d)に
示す左画像フレームm(L)と右画像フレームm(R)
とを受信したとする。これらの画像は既に説明したよう
に、自動車は画面上の所定位置にあって動かず背景のみ
が移動する画像である。
【0105】[ステップS42]立体画像処理装置2は受
信した画像を順次エッジ抽出を行ない、エッジ画像を生
成する。図27の(a)(b)(c)(d)は、それぞ
れ図4の(a)(b)(c)(d)に対応するエッジ画
像である。これらのエッジ画像は2値化されており、エ
ッジ部分が「1」で、それ以外が「0」である。 [ステップS43]フレーム間におけるエッジ画像の変形
部分を検出する。検出方法として、現フレームのエッジ
画像から前フレームのエッジ画像を減算し差分画像を生
成する。ここで差分の結果、負の値となるものは0値と
する。
【0106】図27の場合は、同図(c)の左画像フレ
ームm(L)のエッジ画像から同図(a)の左画像フレ
ームm−1(L)を減算する。同図(e)は減算により
得られた画像を示している。同図(e)に示す如く、静
止した車の画像は消える。また、結果がマイナスになる
ところの画像も消える。また、右画像フレームについて
も同様に、同図(d)の右画像フレームm(R)のエッ
ジ画像から同図(b)の右画像フレームm−1(R)を
減算する。同図(f)は減算により得られる画像を示し
ている。どちらも背景画像に関するエッジ画像が抽出さ
れている。ステップS43の処理により生成される画像
を、本実施形態では「変形エッジ画像」と呼ぶことにす
る。
【0107】[ステップS44]このステップS44で
は、フレーム間において変形していない部分の検出を行
なう。その検出方法としては、現フレームのエッジ画像
からステップS43で検出した変形エッジ画像を減算
し、差分画像を生成する。図27の(g)(h)はそれ
ぞれ同図(c)から(e)を減算した画像と、同図
(d)から(f)を減算した画像である。どちらも自動
車に関するエッジ画像が抽出されている。ステップS4
4の処理によって生成される画像を、本実施形態では
「固定エッジ画像」と呼ぶことにする。
【0108】[ステップS45]このステップS45は第
1実施形態のステップS3の注視予測領域の決定に相当
する。本実施形態では、ステップS43で求めた変化エ
ッジ画像と、ステップS44で求めた固定エッジ画像の
うち、どちらに観察者が注目する画像情報が入っている
かを予想する。その予想は、エッジが一箇所に集中して
いる方を注視するものと予測する方法を用いて行なう。
【0109】具体的な処理方法としては、「1」の値を
示す点の画像内での分布状況を検出する。しかるのち変
形エッジ画像と固定エッジ画像のいずれの分布の広がり
が小であるかを判別する。これは分布の小さい方が画面
内における特異な領域である蓋然性が高いとの思想に基
づいている。そこで分布の広がりの小さい方を選ぶ。分
布の広がりがほぼ同じ場合には平均値がより画像中央座
標に近い方を選ぶ。
【0110】図28の場合には、同図(e)と(g)を
比較し、(g)の方がエッジの分布の広がりが小さいの
で、固定エッジ画像である(g)を選択する。同様に右
画像についても同図(f)と(h)を比較し、(h)の
方がエッジの分布の広がりがが小さいので、固定エッジ
画像である(h)を選択する。勿論、図28のように自
動車が画面上を移動する画像の場合には、変形エッジ画
像である同図(e)又は(f)を選択する。
【0111】このように変形エッジ画像又は固定エッジ
画像を選択し、選択したエッジ画像における上記平均座
標値を中心とした予め定めた面積の領域を注視予測領域
とする。
【0112】図27の場合には、同図(g)(h)に示
した点線で囲んだ領域を注視予測領域とする。また、変
形エッジ画像と固定エッジ画面とのいずれかのデータ数
の総和(例えば小区分毎に弁別するときの全画面につい
て「1」となる箇所の総和)が予め設定したデータ数よ
りも少ない場合には、他方の画像を選択する。つまり少
ない方の画像は判断の基礎として用いない。これは画面
全体が一様に変化している場合や静止画の場合に適応可
能とする為である。
【0113】例えば、図29に示すように、画面が一様
に変化する場合には、変形エッジ画像である同図(e)
(f)は、ほぼ現フレームのエッジ画像(c)(d)と
同じであり、固定エッジ画像である(g)(h)はエッ
ジが現れない。この場合には(g)(h)のデータ数の
総和は小さいので変形エッジ画像である(e)(f)が
選択される。
【0114】一方、図30に示すような静止画の場合に
は、図29とは逆になる。すなわち変形エッジ画像であ
る(e)(f)はエッジが現れない。この場合には、固
定エッジ画像である(g)(h)が選択される。
【0115】このように変形エッジ画像か固定エッジ画
像かを選択し、選択したエッジ画像において予め定めて
ある画面中央領域を注視予測領域とする。前記した図2
9の場合は、(e)(f)の点線で囲んだ領域が注視予
測領域である。
【0116】図31は、上述したステップS45におけ
る画像選択操作を示すフロー図である。本実施形態のよ
うに変形エッジ画像と固定エッジ画像とを生成し、いず
れを注視するかについて自動認識することにより、上記
のような各種画像に幅広く対応できる。
【0117】図26に説明を戻す。 [ステップS46]ステップS45で選択した方の画像に
ついて奥行き距離を求める。奥行き距離の求め方は第1
実施形態のステップS4と同様である。 [ステップS47]奥行き距離の信号に基づいて視距離と
輻輳距離とが合致するように制御する。この制御の方法
は第1実施形態のステップS5と同様である。 [ステップS48]左右画像を表示する。第1実施形態の
ステップS6と同じである。以下、これらステップS4
1〜S48までを繰り返す。
【0118】図32は第7実施形態における立体画像処
理装置の内部構成を示すブロック図である。尚、図32
において、二点鎖線枠で囲んだ左右画像に対応する前処
理部は同じ構成であるため、右画像側内部構成の図示を
省略した。
【0119】立体画像生成装置1から到来した左右画像
信号は、一方においてA/D変換器32,33によりA
/D変換されたのち、前処理部80,90に入力する。
上記左右画像信号から分離された同期信号は、各ブロッ
クの処理タイミングを制御するためのタイミング制御部
31へ供給される。
【0120】前処理部80に入力した左画像信号は、ス
イッチ34により各フレーム毎にスイッチングされて、
メモリ1〜メモリ3のいずれかに記憶される。このため各
メモリには1フレーム毎に異なった画像が記憶される。
時刻mにおいて、メモリ1には左画像m(L)が記憶さ
れ、メモリ2には左画像m−1(L)が記憶されたとす
る。又メモリ3には次のフレーム左画像m+1(L)が
記憶されるものとする。右画像についても左画像と同じ
である。(ステップS41に相当)
【0121】次に、メモリ1〜メモリ3から読み出された
各画像は、スイッチ81を介してエッジ処理部82へ順
次入力し、ここでエッジ画像が生成される。上記エッジ
処理は、前述したようにエッジ部分を「1」、それ以外
を「0」とする2値化処理である。生成されたエッジ画
像は、変形エッジ画像生成部83と固定エッジ画像生成
部84へと出力される。(ステップS42に相当)
【0122】変形エッジ画像生成部83では、順次受信
されるエッジ画像を用いて、エッジ画像の減算を行な
う。時刻mにおいては、変形エッジ画像生成部はm−1
(R)のエッジ画像を記憶しており、今受信したm
(R)のエッジ画像からこのm−1(R)のエッジ画像
を減算する。この減算したエッジ画像信号を固定エッジ
画像生成部84と注視予測領域決定部85へ出力する。
(ステップS43に相当)
【0123】固定エッジ画像生成部84では、順次受信
するエッジ画像について、変形エッジ画像生成部83か
ら順次受信する変形エッジ画像を減算し,固定エッジ画
像を生成する。生成された固定エッジ画像は注視予測領
域決定部85へ出力される。(ステップS44に相当)
【0124】注視予測領域決定部85では、変形エッジ
画像と固定エッジ画像とを用いて注視予測領域を決定す
る。この注視予測領域決定部85では、図31に示すフ
ローに基づいた注視予測領域の演算が行なわれる。結果
として、注視予測領域のエッジ画像が相関演算部38へ
出力される。右画像においても同様の処理が行なわれ右
画像の注視予測領域のエッジ画像が相関演算部38へ出
力される。(ステップS45に相当)
【0125】相関演算部38では、左右のエッジ画像の
相関演算が行なわれる。この相関演算は、第1実施形態
の相関演算と同じであるため説明を省略する。結果とし
て、相関シフト量に対する相関値が視差演算部39へ出
力される。視差演算部39では、第1実施形態と同様の
作業を行ない最終的な視差値を求める。視差値はシフト
量演算部40へ出力される。(ステップS46に相当)
【0126】シフト量演算部40は、第1実施形態と同
様に、式(5)(6)の演算を行なって、左画像用シフ
ト量と右画像用シフト量とを求め、各シフト量を左右そ
れぞれの画像読み出し制御部41,42へ出力する。各
画像読み出し制御部41,42は、各メモリ内の画像信
号をシフト量分だけシフトして読み出す。(ステップS
47に相当)
【0127】この様にシフトして読み出された左右画像
信号は、D/A変換器43,44によりD/A変換され
たのち、HMD3内の左右表示素子に供給され表示され
る。(ステップS48に相当)
【0128】第7実施形態は、エッジ画像の差分を検出
し、画面中において一部だけ画像の変化が異なる領域を
求め、その領域内にある画像の奥行き距離を求め、立体
画像観察における視距離と輻輳距離とが合致するよう制
御するものである。本実施形態によれば、視線検出器を
用いる必要がないので装置全体を小型にでき、安価に製
作し得る。また、本実施形態では差分演算処理を用いる
ので、動きベクトルを用いる第1実施形態に比べると、
処理時間が速いという利点がある。
【0129】「第8実施形態」(固定・変形ともに視差
を求める) この第8実施形態は、第7実施形態の一部を変形した例
である。前記第7実施形態では、変形エッジ画像と固定
エッジ画像との選択において、エッジデータ値が一箇所
に集まっている方を選んだが、この第8実施形態では、
変形エッジ画像に関する視差と、固定エッジ画像に関す
る視差とを比較し、その比較結果を最終的な視差とする
ものである。
【0130】図33を用いて説明する。同図の(e)
(f)で示した変形エッジ画像と、同図の(g)(h)
で示した固定エッジ画像とを導くところまでは、第7実
施形態と同じである。次に左右の変形エッジ画像を相関
演算して視差を求めると共に、左右の固定エッジ画像を
相関演算して視差を求める。そして、求めた二つの視差
値を用いて最終的な視差量を決定する。その決定は以下
に示す如く第7実施形態の場合と同様の決定方法によ
る。
【0131】(1)視差の大きい方を最終的な視差とす
る。つまり近方の視差を選択する。図33の場合には、
固定エッジ画像の視差を最終的視差とする。 (2)変形エッジ画像の視差と固定エッジ画像の視差との
平均値を最終的な視差とする。 (3)視差を求める際の相関ピークの大きい方の視差を最
終的な視差とする。背景画像のようにデータ値が画面全
体に散らばっている場合には、左右画像の相関ピークは
小さくなる。一方、コントラストがはっきりしている画
像領域や、一箇所にデータ値が集まっている場合には、
相関ピークは高くなる。よって観察者は後者の方を注視
すると予測し、相関ピークの高い方の画像の視差を最終
的な視差とする。図33の場合には、固定エッジ画像の
視差を最終的視差とする。
【0132】図34は第8実施形態における立体画像処
理装置の内部構成を示すブロック図である。尚、左右画
像ともに変形エッジ画像と固定エッジ画像とを求めるま
では、第7実施形態におけるブロック図と同じである。
その後、左右の変形エッジ画像を受信し相関を行なう変
形エッジ画像相関演算部101と、左右の固定エッジ画
像を受信し相関を行なう固定エッジ画像相関演算部10
2とが、第7実施形態の注視予測領域決定部65および
相関演算部38の代わりに加わっている。
【0133】第8実施形態においては、注視予測領域決
定とその後の相関演算作業を行なう代わりに、二つの相
関演算作業を同時に並行して行なえるので、処理時間が
速くなるという利点がある。
【0134】「第9実施形態」(太線エッジ画像を用い
て変化の大きさを分別) この第9実施形態は、第7実施形態の一部を変形したも
のである。この第9実施形態では、動画像の中から変化
のない画像と、少し変化する画像と、大きく変化する画
像との三つの画像を抽出して分割する。そして三つの画
像から観察者が注視するであろう画像を選択する。その
方法を実行するために、エッジ画像として新たにエッジ
線の太いエッジ画像を追加生成する。
【0135】図35はその画像例である。同図の(a)
(b)(c)(d)は、それぞれ受信したm−1(L)
画像、m−1(R)画像、m(L)画像、m(R)画
像、の各エッジ画像である。ここで画像内の円は動きの
ない画像であり、自動車画像は画像間で大きな変化のあ
る画像であり、それ以外の背景画像は画像間で少し変化
する画像である。また、同図の(e)(f)(g)
(h)は、同図の(a)(b)(c)(d)の各エッジ
画像を、公知の太線化処理によって太線化した画像であ
る。
【0136】次に、通常のエッジ画像を用いて画像間で
変化のないエッジ画像を生成する。生成方法としては、
通常のエッジ画像間の乗算を行なう。図35の場合に
は、同図の(a)と(c)との乗算を行ない、結果とし
て同図(i)を得る。変化のない画像部分は乗算しても
値は「1」となり、変化のある画像部分は乗算すると値
は「0」となり、結果として変化のないエッジ画像部分
だけが抽出される。結局ここでは円のエッジ画像だけが
残る。同様に、同図の(b)と(d)の乗算を行ない、
結果として同図の(j)を得る。ここで生成した画像を
固定エッジ画像と呼ぶことにする。
【0137】次に、現フレームの太線化エッジ画像から
前フレームの太線化エッジ画像を減算し、差分画像を生
成する。差分の結果、負の値となるものは0値とする。
図35の場合、同図(g)に示したフレームm(L)の
太線化エッジ画像から,同図(e)に示したフレームm
−1(L)の太線化エッジ画像を減算する。この減算の
結果得られる画像は同図(k)に示すものとなる。つま
り減算の結果として、動きのないエッジ画像は消去さ
れ、動きが大きい画像ほどエッジ線の太い画像が得られ
る。これは動きが大きいほど両画像のエッジのずれが大
きくなるためである。又右画像フレームについても同様
の処理を行なうことにより、同図の(l)に示す画像が
得られる。
【0138】次に、太線化エッジ画像の差分画像を、予
め定めたエッジ線幅を基準として、エッジ線の幅の違い
により二つに分別する。太線化エッジ画像による動き検
出では、その線幅内での微細な動きに関しては動き幅を
含んだ情報(もとの線幅に対し減算によりオーバラップ
部については減じられるが、残る線幅部分があるため、
この線幅で微細な動きの程度を計り知ることができる)
を得ることができる。第7実施形態のように、細線のみ
で動き検出を行なうと、微細な動きに対しても直ちに対
応するエッジ部(細線)のオーバラップ状態から抜け出
るために、太線同士のオーバラップ部は生じず、動き幅
(程度)に関する情報は得られないことになる。
【0139】図35の(k)の画像の中からエッジ線の
細い画像部分だけを抽出することにより、同図の(m)
が得られる。また、エッジ線の画像部分だけを抽出する
ことにより、同図の(o)が得られる。エッジ線の細い
画像は、少し変化のある画像であり、ここでは小変形エ
ッジ画像と呼ぶ。他方、エッジ線の太い画像は、大きな
変化のある画像であり、ここでは大変形エッジ画像と呼
ぶ。右画像についても同様の処理を行なうことにより、
同図の(n)及び(p)が得られる。
【0140】次に、上述の如く得られた固定エッジ画像
と、小変形エッジ画像と、大変形エッジ画像とを用い
て、第7実施形態におけるステップS45と同じ処理を
行なうことにより、注視予測領域を決定する。図35の
場合には大変形エッジ画像が選択される。後の処理は第
7実施形態と同じである。
【0141】図36は第9実施形態における立体画像処
理装置の内部構成を示すブロック図である。第7実施形
態におけるブロック図(図32)と異なる点は、変形エ
ッジ画像生成部83の代わりに、エッジ線太線化部11
1と、差分画像生成部112と、エッジ線幅検出部11
3と、小変形エッジ画像生成部114と、大変形エッジ
画像生成部115とが組み込まれている点である。第9
実施形態においては、画像を、固定エッジ画像と、小変
形エッジ画像と、大変形エッジ画像との3種類に分別し
た例を示したが、エッジ線幅の分別判断を更に細かく
し、4種類、5種類〜…と増やしても良い。すなわち図
36に示されている小変形エッジ画像生成部114およ
び大変形エッジ画像生成部115を、「小変形エッジ画
像生成部」「中変形エッジ画像生成部」「大変形エッジ
画像生成部」〜…という具合に増設する事により実現可
能である。このようにエッジ画像の種類を増やすほど、
画像の変化の大きさをより細かく分別することが可能と
なる。
【0142】第9実施形態によれば、画像の変化の大き
さに応じて画像を分別することができるため、注視予測
領域をより正確に決定することが出来る。
【0143】「第10実施形態」(ラインメモリ) この第10実施形態は第7実施形態の一部を変形したも
のである。第10実施形態では、第7実施形態と同様の
シフト量演算結果に応じて画像データ伝送路に介挿され
たラインメモリの読み出しタイミングを制御する事によ
って、左右各出力段のD/A変換器に供給される当該画
像データに対し、所要の視差に対応したシフトを与え
る。
【0144】図37は第10実施形態における立体画像
処理装置の内部構成を示すブロック図である。この実施
形態では画像信号そのものを記憶しておく必要がないの
で、第7実施形態で必要としたメモリ1〜メモリ3が不要
となる。その代わり画像シフトを行なう為のラインメモ
リ120を用意する必要がある。画像信号は二つに分岐
され、一方はエッジ処理部へ供給され、もう一方はライ
ンメモリ120へ供給される。そして第7実施形態と同
様の処理が行なわれ、求めたシフト量の信号は左右表示
用画像読み出し制御部41,42に出力される。ここで
ラインメモリ120に記憶されているのは画像mではな
く数フレーム後の画像である。
【0145】第10実施形態は、視差が大きく変化しな
い立体画像に対しては有効である。そしてメモリとして
はラインメモリ120だけでよいので安価に製作できる
という利点をもつ。尚、全実施形態において、立体画像
処理装置2の左右画像信号を直接立体画像表示器3に出
力するのみならず、一旦、記録媒体に左右画像信号を記
録して、その後、この記録媒体中の左右画像信号を読み
出して立体画像表示器3で表示しても良い。
【0146】以下、前述実施形態に示された本発明の構
成と効果を列挙する。
【0147】[1](全実施形態に対応) (構成)立体画像を表わす信号の供給を受けるための入
力手段(31,32,33,メモリ等)と、上記入力手
段により受けた信号による立体画像の経時的な変化を検
出する画像変化検出手段(36)と、上記画像変化検出
手段による検出結果に基づいて画像領域中の特定の部分
領域を観察者が注視する蓋然性の高い領域として指定す
る注視予測領域決定手段(37)と、上記注視予測領域
決定手段によって指定される特定の部分領域内に表示さ
れる画像の奥行きを表わす情報を得る奥行き検出手段
(38,39)と、上記奥行き検出手段により得た画像
の奥行きを表わす情報に基づいて、上記入力手段により
受けた信号による立体画像の奥行きに係る量を制御する
奥行き制御手段(40)と、上記奥行き制御手段によっ
て上記奥行きに係る量が制御された立体画像を表わす信
号を適用された立体画像表示手段(3)に被表示立体画
像信号として出力し得る出力手段(41,42)と、を
備えてなることを特徴とする立体画像表示装置。
【0148】(効果)立体動画像の経時的変化が検出さ
れ、その変化に基づいて観察者が注視するであろう画像
領域が決定され、その画像領域内にある像の奥行き情報
から立体動画像の奥行きが制御されるので、検出精度の
高い視線検出器を使うことなしに観察者にとって見やす
い立体動画像が得られる。
【0149】[2](第1〜第3実施形態および第5〜
10実施形態に対応) (構成)前記注視予測領域決定手段は、前記画像変化検
出手段による検出結果に基づいて被検出画像全体の中で
特異な検出結果が得られる特定の部分領域が存在すると
きには当該特定の部分領域を当該注視予測領域として指
定し、特異な検出結果が得られる特定の部分領域が存在
しないときには予め設定した所定領域を当該注視予測領
域として指定するように構成されたものであることを特
徴とする[1]に記載の立体画像表示装置。
【0150】(効果)画像の中で像の変化が異なる領域
が検出され、その領域が注目されるものと予測されるの
で、いろいろなシーン(画像が一部動いている、画像が
一部変化していない、一様に変化する、静止画)にも適
切に対応できる。 [3](第1〜第3実施形態および第5、第6実施形態
に対応)
【0151】(構成)前記画像変化検出手段は、被検出
画像全体を複数の各小領域に分割してなる該複数の各小
領域毎に、画像の経時変化を検出する画像動き量検出手
段を有してなり、且つ前記注視予測領域決定手段は、前
記複数の小領域のうち画像変化検出手段によって検出さ
れる画像の経時変化の値が特異な値を示す小領域を当該
注視予測領域として指定するように構成されたものであ
ることを特徴とする[2]に記載の立体画像表示装置。
【0152】(効果)画像の中で像の変化が異なる領域
を検出し、その領域を注視予測領域と定めるので、いろ
いろなシーン(画像が一部動いている、画像が一部変化
していない)にも適切に対応できる。
【0153】[4](第4実施形態に対応) (構成)前記画像変化検出手段は、被検出画像全体を複
数の各小領域に分割してなる該複数の各小領域毎に画像
の経時変化を表わす動きベクトルを検出する動きベクト
ル検出手段を有してなり、且つ、前記注視予測領域決定
手段は、前記複数の小領域のうち前記画像変化検出手段
によって検出される自己の動きベクトルが適用された視
線検出手段によって検出された観察者の視点の動きを表
わす視点動きベクトルに、実質的に等しい小領域を当該
注視予測領域として指定するように構成されたものであ
ることを特徴とする[1]に記載の立体画像表示装置。
【0154】(効果)観察者の視点の変化を検出する手
段と、画像の変化を検出する手段とから注視領域が検出
されるので、観察者の個人差にも十分適応して注視領域
を決定することができる。
【0155】[5](第7実施形態に対応) (構成)前記画像変化検出手段は、前記被検出画像全体
の中で画像の経時変化が認められる変化領域と該経時変
化が認められない無変化領域とに区分する画像領域区分
手段を備えてなり、且つ、前記注視予測領域決定手段
は、上記変化領域と無変化領域とを比較してこれら双方
の領域のうち何れかの領域を当該注視予測領域として指
定するように構成されたものであることを特徴とする
[1]に記載の立体画像表示装置。
【0156】(効果)画像の中での像の変化量によって
領域が分解され、その分解された領域のいずれを注視す
るかが予測されるので、いろいろなシーン(画像が一部
動いている、画像が一部変化していない)にも適切に対
応できる。
【0157】以上の他、本願における種々の局面で見た
発明を以下列挙する。
【0158】(1)請求項1の「奥行きに係る量」に関
して(上記記載項目「0041」に対応):上記奥行き
制御手段は、上記奥行きに係る量としての上記被表示立
体画像信号による左眼用画像と右眼用画像との視差を制
御対象とした制御動作を行うものであることを特徴とす
る請求項1記載の立体画像表示装置。
【0159】(2)請求項1の「奥行きに係る量」に関
して(上記記載項目「0037」に対応):上記奥行き
制御手段は、上記奥行きに係る量としての上記被表示立
体画像信号による画像に対する視度を制御対象とした制
御動作を行うものであることを特徴とする請求項1記載
の立体画像表示装置。
【0160】(3)請求項3の「画像変化検出手段」に
関して(上記記載項目「0024」に対応):上記画像
変化検出手段は、テンプレート・マッチングを利用した
検出動作を行うものであることを特徴とする請求項3記
載の立体画像表示装置。
【0161】(4)請求項1の「注視予測領域決定手
段」に関して(図8及び上記記載項目「0031」に対
応):上記画像変化検出手段は、被検出画像全体を複数
の各小領域に分割してなる該複数の各小領域毎に画像の
経時変化を表わす動きベクトルを検出する動きベクトル
検出手段を有してなり、且つ、上記注視予測領域決定手
段は、上記複数の各小領域毎の各動きベクトルが実質的
に一様であるときには、当該画像の中央位置から一つの
上記ベクトルとは逆方向に所定幅だけ変位した位置にあ
る小領域を当該注視予測領域として指定するように構成
されたものであることを特徴とする請求項1記載の立体
画像表示装置。
【0162】(5)図9及び上記記載項目「0053」
〜「0058」に対応;上記画像変化検出手段は、被検
出画像全体を複数の各小領域に分割してなる該複数の各
小領域毎に画像の経時変化を表わす動きベクトルを検出
する動きベクトル検出手段を有してなり、且つ、上記注
視予測領域決定手段は、上記複数の各小領域毎複の各動
きベクトルの値のばらつきの分布域を認識し、該分布域
が所定幅以上の広がりを有するときには、この分布域内
の所定領域を逸脱した値を示す動きベクトルに対応する
領域の一又は複数の連なりでなる領域群毎にラベリング
を施し、このラベリングが施された領域群のうちの所定
の一の領域群を当該注視予測領域として指定し、上記分
布域が所定幅以上の広がりを有しないときには、当該画
像内の所定の領域又は当該画像の中央位置から各ベクト
ルの平均値相応の量だけ該ベクトルとは逆方向に変位し
た位置にある小領域を当該注視予測領域として指定する
ように構成されたものであることを特徴とする請求項1
記載の立体画像表示装置。
【0163】(6)第2実施形態に関して(図15と図
16及び上記記載項目「0064」〜「0068」に対
応):立体画像を表わす信号の供給を受けるための入力
手段と、上記入力手段により受けた信号による立体画像
を構成する左眼用画像及び右眼用画像の各経時的な変化
を夫々検出する画像変化検出手段と、上記画像変化検出
手段による検出結果に基づいて当該左眼用画像及び右眼
用画像の領域中の各特定の部分領域を夫々観察者が注視
する蓋然性の高い左眼用画像特定領域及び右眼用画像特
定領域として各指定する注視予測領域決定手段と、上記
左眼用画像特定領域及び右眼用画像特定領域の各中心座
標の位置のずれの程度に基づいて視差データを算出する
視差算出手段と、上記視差算出手段により得た視差デー
タに基づいて上記入力手段により受けた信号による立体
画像の奥行きに係る量を制御する奥行き制御手段と、上
記奥行き制御手段によって上記奥行きに係る量が制御さ
れた立体画像を表わす信号を、適用された立体画像表示
手段に被表示立体画像信号として出力し得る出力手段
と、を備えてなることを特徴とする立体画像表示装置。
【0164】(7)第3実施形態に関して(図17〜図
19及び上記記載項目「0069」〜「0081」に対
応):立体画像を表わす左眼用画像及び右眼用画像の信
号の供給をフィールド又はフレーム順次で受けるように
なされた入力手段と、上記入力手段により受けた信号に
よる立体画像を構成する画像の経時的な変化を、隣接す
るフィールド又はフレーム時間区間での左眼用(右眼
用)画像信号に対する右眼用(左眼用)画像信号を比較
した比較値、及び、この比較に用いた右眼用(左眼用)
画像信号に対する続く左眼用(右眼用)画像信号のを比
較した比較値との両比較値の平均を求めることにより検
出する画像変化検出手段と、上記画像変化検出手段によ
る検出結果に基づいて当該画像のうちの特定の部分領域
を観察者が注視する蓋然性の高い特定領域として指定す
る注視予測領域決定手段と、上記両比較値の差分に基づ
いて視差データを算出する視差算出手段と、上記視差算
出手段により得た視差データに基づいて上記入力手段に
より受けた信号による立体画像の奥行きに係る量を制御
する奥行き制御手段と、上記奥行き制御手段によって上
記奥行きに係る量が制御された立体画像を表わす信号
を、適用された立体画像表示手段に被表示立体画像信号
として出力し得る出力手段と、を備えてなることを特徴
とする立体画像表示装置。
【0165】(8)第4実施形態に関して(図20、図
21、図25及び上記記載項目「0082」〜「008
9」、「0098」〜「0100」に対応):立体画像
を表わす信号の供給を受けるための入力手段と、上記入
力手段により受けた信号による立体画像の経時的な変化
を検出する画像変化検出手段と、観察者の視線の方向を
大まかに検出する視線検出手段と、上記画像変化検出手
段による検出結果、及び、視線検出手段による検出結果
に基づいて、画像領域中の特定の部分領域を観察者が注
視する蓋然性の高い領域として指定する注視予測領域決
定手段と、上記注視予測領域決定手段によって指定され
る特定の部分領域内に関して、視距離と輻輳距離とを一
致せしめるための制御動作を行う手段と、を備えてなる
ことを特徴とする立体画像表示装置。
【0166】(9)第5実施形態に関して(図23と図
24及び上記記載項目「0090」〜「0097」に対
応):立体画像を表わす信号の供給を受けるための入力
手段と、上記入力手段により受けた信号による立体画像
の周辺部の領域について経時的な変化を検出する画像変
化検出手段と、上記画像変化検出手段による検出結果に
基づいて、上記周辺部の領域についてそのうちの特定の
部分領域が特異な経時的な変化を呈することが検出され
たときにはその特定の部分領域を、又、上記周辺部の領
域について特異な経時的な変化を呈する部分がないこと
が検出されたときには立体画像の中央部の領域を、観察
者が注視する蓋然性の高い領域として指定する注視予測
領域決定手段と、上記注視予測領域決定手段によって指
定される特定の部分領域内に表示される画像の奥行きを
表わす情報を得る奥行き検出手段と、上記検出手段によ
り得た画像の奥行きを表わす情報に基づいて上記入力手
段により受けた信号による立体画像の奥行きに係る量を
制御する奥行き制御手段と、上記奥行き制御手段によっ
て上記奥行きに係る量が制御された立体画像を表わす信
号を、適用された立体画像表示手段に被表示立体画像信
号として出力し得る出力手段と、を備えてなることを特
徴とする立体画像表示装置。
【0167】(10)第7実施形態に関して(図26〜
図32及び上記記載項目「0101」〜「0128」に
対応):立体画像を表わす左右のフレーム画像信号の供
給を順次時系列的に受けるための入力手段と、上記入力
手段により受けた順次の左右のフレーム画像信号につい
て各画像に関するエッジ成分を抽出して各エッジ画像を
生成するエッジ画像生成手段と、上記エッジ画像生成手
段により生成された順次のエッジ画像のうち時系列的に
隣接する時間区間に該当する現在の区間のものから先行
する区間のものを差し引いた差分をとることによって第
1の種別の画像を生成し、また、上記現在の区間のエッ
ジ画像から第1の種別の画像を差し引いて第2の種別の
画像を生成し、これら上記第1の種別の画像と第2の種
別の画像についてエッジが特定の領域に集中している度
合いが高い側のものが存在する画面中の部分領域を観察
者が注視する蓋然性の高い領域として指定する注視予測
領域決定手段と、上記注視予測領域決定手段によって指
定される特定の部分領域内に表示される画像の奥行きを
表わす情報を得る奥行き検出手段と、上記検出手段によ
り得た画像の奥行きを表わす情報に基づいて上記入力手
段により受けた信号による立体画像の奥行きに係る量を
制御する奥行き制御手段と、上記奥行き制御手段によっ
て上記奥行きに係る量が制御された立体画像を表わす信
号を、適用された立体画像表示手段に被表示立体画像信
号として出力し得る出力手段と、を備えてなることを特
徴とする立体画像表示装置。
【0168】(11)第8実施形態に関して(図33、
図34及び上記記載項目「0129」〜「0133」に
対応):立体画像を表わす左右のフレーム画像信号の供
給を順次時系列的に受けるための入力手段と、上記入力
手段により受けた順次の左右のフレーム画像信号につい
て各画像に関するエッジ成分を抽出して各エッジ画像を
生成するエッジ画像生成手段と、上記エッジ画像生成手
段により生成された順次のエッジ画像のうち時系列的に
隣接する時間区間に該当する現在の区間のものから先行
する区間のものを差し引いた差分をとることによって第
1の種別の画像を生成し、また、上記現在の区間のエッ
ジ画像から第1の種別の画像を差し引いて第2の種別の
画像を生成し、更にこれら上記第1の種別の画像と第2
の種別の画像について立体画像としての左右画像の視差
を求め、両者の視差のうち所定の規約に該当する方の視
差を観察者が注視する蓋然性の高い領域に係る視差とし
て指定する注視予測領域視差決定手段と、上記入力手段
により受けた信号による立体画像係る視差を、上記注視
予測領域視差決定手段により得た視差に合わせるように
制御する視差制御手段と、上記視差制御手段によって視
差が制御された立体画像を表わす信号を、適用された立
体画像表示手段に被表示立体画像信号として出力し得る
出力手段と、を備えてなることを特徴とする立体画像表
示装置。
【0169】(12)第9実施形態に関して(図35、
図36及び上記記載項目「0134」〜「0142」に
対応):立体画像を表わす左右のフレーム画像信号の供
給を順次時系列的に受けるための入力手段と、上記入力
手段により受けた順次の左右のフレーム画像信号につい
て各画像に関するエッジ成分を抽出して各エッジ画像を
生成するエッジ画像生成手段と、上記エッジ画像生成手
段により生成された各エッジ画像に太線化処理を施して
各太線化エッジ画像を生成する太線化エッジ画像生成手
段と、上記エッジ画像生成手段により生成された順次の
エッジ画像のうちもの同士の2値化データを乗算するこ
とによって画像の静止部分に対応する第1のエッジ画像
を生成し、また、上記太線化エッジ画像生成手段によっ
て生成された時系列的に隣接する時間区間に該当する各
太線化エッジ画像のうち現在の区間の太線化エッジ画像
から先行する区間の太線化エッジ画像を差し引いて画像
の動きの程度に対応した線幅の第2のエッジ画像を生成
し、更にこれら上記第1のエッジ画像と第2のエッジ画
像のうち所定の規約に該当する方の画像が存在する領域
を観察者が注視する蓋然性の高い領域として指定する注
視予測領域決定手段と、上記注視予測領域決定手段によ
って指定される特定の部分領域内に表示される画像の奥
行きを表わす情報を得る奥行き検出手段と、上記検出手
段により得た画像の奥行きを表わす情報に基づいて上記
入力手段により受けた信号による立体画像の奥行きに係
る量を制御する奥行き制御手段と、上記奥行き制御手段
によって上記奥行きに係る量が制御された立体画像を表
わす信号を、適用された立体画像表示手段に被表示立体
画像信号として出力し得る出力手段と、を備えてなるこ
とを特徴とする立体画像表示装置。
【0170】(13)第10実施形態に関して(図37
及び上記記載項目「0143」〜「0145」に対
応):立体画像を表わす左右のフレーム画像信号の供給
を順次時系列的に受けるための入力手段と、上記入力手
段により受けた順次の左右のフレーム画像信号について
各画像に関するエッジ成分を抽出して各エッジ画像を生
成するエッジ画像生成手段と、上記エッジ画像生成手段
により生成された順次のエッジ画像のうち時系列的に隣
接する時間区間に該当する現在の区間のものから先行す
る区間のものを差し引いた差分をとることによって第1
の種別の画像を生成し、また、上記現在の区間のエッジ
画像から第1の種別の画像を差し引いて第2の種別の画
像を生成し、これら上記第1の種別の画像と第2の種別
の画像についてエッジが特定の領域に集中している度合
いが高い側のものが存在する画面中の部分領域を観察者
が注視する蓋然性の高い領域として指定する注視予測領
域決定手段と、上記注視予測領域決定手段によって指定
される特定の部分領域内に表示される画像の奥行きを表
わす情報を得る奥行き検出手段と、上記検出手段により
得た画像の奥行きを表わす情報に基づいて上記入力手段
により受けた信号による立体画像の奥行きに係る量を制
御する奥行き制御手段と、上記奥行き制御手段によって
上記奥行きに係る量が制御された立体画像を表わす信号
を、適用された立体画像表示手段に被表示立体画像信号
として出力し得る出力手段と、を備えてなり、上記注視
予測領域決定手段、奥行き検出手段、奥行き制御手段、
及び、出力手段のうち何れか一又は複数のものは遅延要
素を利用して該当する処理を実行するように構成された
ものであることを特徴とする立体画像表示装置。
【0171】
【発明の効果】本発明によれば、立体画像の経時的変化
の検出結果に基づいて、観察者が注視するであろう注視
点(画像領域)が予測され、その予測された注視点に存
在する画像の奥行き情報に基づいて立体画像の奥行き制
御が行なわれるので、格別に検出精度の高い視線検出器
を用いなくてもよく、軽量で安価に製作可能な上、極め
て見やすい立体画像を安定に得ることのできる立体画像
表示装置を提供できる。
【図面の簡単な説明】
【図1】本発明による第1の実施形態に係る立体画像表
示装置の構成(概要)を示す図である。
【図2】本発明による第1の実施形態に係る立体画像表
示装置のHMD光学系の構成図である。
【図3】本発明による第1の実施形態に係る立体画像表
示装置の処理動作を示すフロー図である。
【図4】本発明による第1の実施形態に係る立体画像表
示装置の画像処理例を示す図である。
【図5】本発明による第1の実施形態に係る立体画像表
示装置の画像処理例を示す図である。
【図6】本発明による第1の実施形態に係る立体画像表
示装置の画像処理例を示す図である。
【図7】本発明による第1の実施形態に係る立体画像表
示装置の画像処理例を示す図である。
【図8】本発明による第1の実施形態に係る立体画像表
示装置の画像処理例を示す図である。
【図9】本発明による第1の実施形態に係る立体画像表
示装置の注視予測領域決定フロー図である。
【図10】本発明による第1の実施形態に係る立体画像
表示装置の視差決定法の説明図である。
【図11】本発明による第1の実施形態に係る立体画像
表示装置の奥行き制御の説明図である。
【図12】本発明による第1の実施形態に係る立体画像
表示装置の左右表示面の水平位置を説明するための図で
ある。
【図13】本発明による第1の実施形態に係る立体画像
表示装置の立体画像観察状況を示す図である。
【図14】本発明による第1の実施形態に係る立体画像
表示装置の画像処理装置内部構成を示すブロック図であ
る。
【図15】本発明による第2の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図16】本発明による第2の実施形態に係る立体画像
表示装置の画像処理装置内部構成を示すブロック図であ
る。
【図17】本発明による第3の実施形態に係る立体画像
表示装置の処理動作を示すフロー図である。
【図18】本発明による第3の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図19】本発明による第3の実施形態に係る立体画像
表示装置の画像処理装置内部構成を示すブロック図であ
る。
【図20】本発明による第4の実施形態に係る立体画像
表示装置の処理動作を示すフロー図である。
【図21】本発明による第4の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図22】本発明による第5の実施形態に係る立体画像
表示装置の処理動作を示すフロー図である。
【図23】本発明による第5の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図24】本発明による第5の実施形態に係る立体画像
表示装置の画像処理装置内部構成を示すブロック図であ
る。
【図25】本発明による第6の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図26】本発明による第7の実施形態に係る立体画像
表示装置の処理動作を示すフロー図である。
【図27】本発明による第7の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図28】本発明による第7の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図29】本発明による第7の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図30】本発明による第7の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図31】本発明による第7の実施形態に係る立体画像
表示装置の注視予測領域決定フロー図である。
【図32】本発明による第7の実施形態に係る立体画像
表示装置の画像処理装置内部構成を示すブロック図であ
る。
【図33】発明の第8の実施形態に係る立体画像表示装
置の画像処理例を示す図である。
【図34】本発明による第8の実施形態に係る立体画像
表示装置の画像処理装置内部構成を示すブロック図であ
る。
【図35】本発明による第9の実施形態に係る立体画像
表示装置の画像処理例を示す図である。
【図36】本発明による第9の実施形態に係る立体画像
表示装置の画像処理装置内部構成を示すブロック図であ
る。
【図37】本発明による第10の実施形態に係る立体画
像表示装置の画像処理装置内部構成を示すブロック図で
ある。
【符号の説明】
1 立体画像生成装置 2 立体画像処理装置 3 立体画像表示器(HMD) 31 タイミング制御部 36 動きベクトル検出部 37 注視予測領域決定部 38 相関演算部 39 視差演算部 40 シフト量演算部 41 左表示用画像読み出し制御部 42 右表示用画像読み出し制御部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】立体画像を表わす信号の供給を受けるため
    の入力手段と、 上記入力手段により受けた信号による立体画像の経時的
    な変化を検出する画像変化検出手段と、 上記画像変化検出手段による検出結果に基づいて画像領
    域中の特定の部分領域を観察者が注視する蓋然性の高い
    領域として指定する注視予測領域決定手段と、 上記注視予測領域決定手段によって指定される特定の部
    分領域内に表示される画像の奥行きを表わす情報を得る
    奥行き検出手段と、 上記奥行き検出手段により得た画像の奥行きを表わす情
    報に基づいて上記入力手段により受けた信号による立体
    画像の奥行きに係る量を制御する奥行き制御手段と、 上記奥行き制御手段によって上記奥行きに係る量が制御
    された立体画像を表わす信号を、適用された立体画像表
    示手段に被表示立体画像信号として出力し得る出力手段
    と、を備えてなることを特徴とする立体画像表示装置。
  2. 【請求項2】上記注視予測領域決定手段は、上記画像変
    化検出手段による検出結果に基づいて被検出画像全体の
    中で特異な検出結果が得られる特定の部分領域が存在す
    るときには該特定の部分領域を当該注視予測領域として
    指定し、特異な検出結果が得られる特定の部分領域が存
    在しないときには予め設定した所定領域を当該注視予測
    領域として指定するように構成されたものであることを
    特徴とする請求項1に記載の立体画像表示装置。
  3. 【請求項3】上記画像変化検出手段は、被検出画像全体
    を複数の各小領域に分割してなる該複数の各小領域毎
    に、画像の経時変化を検出する画像動き量検出手段を有
    してなり、且つ、上記注視予測領域決定手段は、上記複
    数の小領域のうち画像変化検出手段によって検出される
    画像の経時変化の値が特異な値を示す小領域を、当該注
    視予測領域として指定するように構成されたものである
    ことを特徴とする請求項2に記載の立体画像表示装置。
  4. 【請求項4】上記画像変化検出手段は、被検出画像全体
    を複数の各小領域に分割してなる該複数の各小領域毎に
    画像の経時変化を表わす動きベクトルを検出する動きベ
    クトル検出手段を有してなり、且つ、上記注視予測領域
    決定手段は、上記複数の小領域のうち上記画像変化検出
    手段によって検出される自己の動きベクトルが適用され
    た視線検出手段によって検出された観察者の視点の動き
    を表わす視点動きベクトルに、実質的に等しい小領域を
    当該注視予測領域として指定するように構成されたもの
    であることを特徴とする請求項1に記載の立体画像表示
    装置。
  5. 【請求項5】上記画像変化検出手段は、上記被検出画像
    全体の中で画像の経時変化が認められる変化領域と該経
    時変化が認められない無変化領域とに区分する画像領域
    区分手段を備えてなり、且つ、上記注視予測領域決定手
    段は、上記変化領域と無変化領域とを比較してこれら双
    方の領域のうち何れかの領域を当該注視予測領域として
    指定するように構成されたものであることを特徴とする
    請求項1に記載の立体画像表示装置。
JP14730097A 1997-05-21 1997-05-21 立体画像表示装置 Expired - Fee Related JP3802653B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP14730097A JP3802653B2 (ja) 1997-05-21 1997-05-21 立体画像表示装置
US09/082,303 US6411326B1 (en) 1997-05-21 1998-05-20 Stereo image display unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14730097A JP3802653B2 (ja) 1997-05-21 1997-05-21 立体画像表示装置

Publications (2)

Publication Number Publication Date
JPH10327432A true JPH10327432A (ja) 1998-12-08
JP3802653B2 JP3802653B2 (ja) 2006-07-26

Family

ID=15427091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14730097A Expired - Fee Related JP3802653B2 (ja) 1997-05-21 1997-05-21 立体画像表示装置

Country Status (2)

Country Link
US (1) US6411326B1 (ja)
JP (1) JP3802653B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002019728A1 (fr) * 2000-08-28 2002-03-07 Olympus Optical Co., Ltd. Système d'affichage vidéo
JP2006140822A (ja) * 2004-11-12 2006-06-01 Ricoh Co Ltd 画像表示装置
JP2007028439A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像処理装置、画像処理方法
JP2012182746A (ja) * 2011-03-02 2012-09-20 Olympus Imaging Corp 画像処理装置、表示装置、撮像装置および画像処理プログラム
US8947425B2 (en) 2011-04-04 2015-02-03 Samsung Display Co., Ltd. Method and apparatus for processing and displaying a three-dimensional image with variable depth effect
JP2016178655A (ja) * 2010-08-10 2016-10-06 モノタイプ.イメージング.インコーポレイテッド マルチビューシーン内のグラフイックス表示

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW472484B (en) * 1999-03-09 2002-01-11 Sanyo Electric Co Method and apparatus for processing camera signals
EP1089230A3 (en) * 1999-09-24 2008-06-11 Nippon Telegraph and Telephone Corporation Method and apparatus for separating background sprite and foreground object and method and apparatus for extracting segmentation mask
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
US6770863B2 (en) * 2001-10-26 2004-08-03 Agilent Technologies, Inc. Apparatus and method for three-dimensional relative movement sensing
JP4231320B2 (ja) * 2003-03-31 2009-02-25 本田技研工業株式会社 移動体の検出装置
JP4179946B2 (ja) * 2003-08-08 2008-11-12 オリンパス株式会社 立体内視鏡装置
WO2006030702A1 (ja) * 2004-09-15 2006-03-23 Sharp Kabushiki Kaisha 表示装置、視野角制御装置、および電子機器
US7391907B1 (en) * 2004-10-01 2008-06-24 Objectvideo, Inc. Spurious object detection in a video surveillance system
WO2006046180A1 (en) * 2004-10-26 2006-05-04 Koninklijke Philips Electronics N.V. Disparity map
US7649148B2 (en) * 2005-01-21 2010-01-19 Robertshaw Controls Company Appliance timer mechanism utilizing snap action switching
JP4339319B2 (ja) * 2005-09-29 2009-10-07 シャープ株式会社 表示装置および電子機器
US7919519B2 (en) * 2005-11-23 2011-04-05 Epix Pharmaceuticals Inc. S1P receptor modulating compounds and use thereof
WO2007061458A2 (en) * 2005-11-23 2007-05-31 Epix Delaware, Inc. S1p receptor modulating compounds and use thereof
CA2646469A1 (en) * 2006-03-21 2007-09-27 Epix Delaware, Inc. S1p receptor modulating compounds
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
US7679641B2 (en) * 2006-04-07 2010-03-16 Real D Vertical surround parallax correction
ATE505454T1 (de) * 2007-09-20 2011-04-15 Amgen Inc 1-(4-(4-benzylbenzamid)-benzyl)-azetidin-3- carboxylsäurederivate und entsprechende verbindungen als s1p-rezeptor-modulatoren zur behandlung von immunerkrankungen
JP5163409B2 (ja) * 2008-10-03 2013-03-13 ソニー株式会社 撮像装置、撮像方法、およびプログラム
USRE45394E1 (en) 2008-10-20 2015-03-03 X6D Limited 3D glasses
CA2684513A1 (en) * 2008-11-17 2010-05-17 X6D Limited Improved performance 3d glasses
US8542326B2 (en) 2008-11-17 2013-09-24 X6D Limited 3D shutter glasses for use with LCD displays
GB2470402A (en) * 2009-05-21 2010-11-24 British Broadcasting Corp Transmitting three-dimensional (3D) video via conventional monoscopic (2D) channels as a multiplexed, interleaved data stream
TWI422213B (zh) * 2009-07-29 2014-01-01 Mstar Semiconductor Inc 影像畫面偵測裝置及其方法
US8487981B2 (en) * 2009-09-04 2013-07-16 Broadcom Corporation Method and system for processing 2D/3D video
USD692941S1 (en) 2009-11-16 2013-11-05 X6D Limited 3D glasses
JP5454569B2 (ja) * 2009-11-18 2014-03-26 株式会社Jvcケンウッド 立体映像データ処理装置および立体映像データ処理方法
WO2011077177A1 (en) * 2009-12-22 2011-06-30 Thomson Licensing Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
JP5735227B2 (ja) * 2010-07-16 2015-06-17 ルネサスエレクトロニクス株式会社 画像変換装置及び画像変換システム
JP5499985B2 (ja) 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
EP2638700A2 (en) * 2010-11-08 2013-09-18 X6D Ltd. 3d glasses
US20130044939A1 (en) * 2011-08-18 2013-02-21 Ucl Business Plc Method and system for modifying binocular images
USD711959S1 (en) 2012-08-10 2014-08-26 X6D Limited Glasses for amblyopia treatment
US9063330B2 (en) 2013-05-30 2015-06-23 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
CN105607253B (zh) * 2014-11-17 2020-05-12 精工爱普生株式会社 头部佩戴型显示装置以及控制方法、显示系统
JP6582403B2 (ja) 2014-12-10 2019-10-02 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
GB2534921B (en) * 2015-02-06 2021-11-17 Sony Interactive Entertainment Inc Head-mountable display system
JP7050067B2 (ja) 2016-12-14 2022-04-07 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法
CN107422484B (zh) * 2017-09-19 2023-07-28 歌尔光学科技有限公司 棱镜式ar显示装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2050752B (en) * 1979-06-07 1984-05-31 Japan Broadcasting Corp Motion compensated interframe coding system
KR0151410B1 (ko) * 1992-07-03 1998-10-15 강진구 영상신호의 운동벡터 검출방법
US5644324A (en) * 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
US5579026A (en) * 1993-05-14 1996-11-26 Olympus Optical Co., Ltd. Image display apparatus of head mounted type
EP0888017A2 (en) * 1993-08-26 1998-12-30 Matsushita Electric Industrial Co., Ltd. Stereoscopic image display apparatus and related system
JPH07181424A (ja) * 1993-12-22 1995-07-21 Canon Inc 複眼式画像表示装置
CN1113320C (zh) * 1994-02-01 2003-07-02 三洋电机株式会社 将二维图像转换成三维图像的方法以及三维图像显示系统
JP2919284B2 (ja) * 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
JPH0821975A (ja) * 1994-07-06 1996-01-23 Olympus Optical Co Ltd 頭部装着型映像表示システム
TW269094B (en) * 1994-11-11 1996-01-21 Nitendo Kk Three dimensional visual image display device and electric game apparatus, memory device thereof
US5737012A (en) * 1994-12-01 1998-04-07 Olympus Optical Co., Ltd. Head mounted image display apparatus and image forming apparatus related thereto
US5886675A (en) * 1995-07-05 1999-03-23 Physical Optics Corporation Autostereoscopic display system with fan-out multiplexer
US6088006A (en) * 1995-12-20 2000-07-11 Olympus Optical Co., Ltd. Stereoscopic image generating system for substantially matching visual range with vergence distance
JP3476114B2 (ja) * 1996-08-13 2003-12-10 富士通株式会社 立体表示方法及び装置
GB2324428A (en) * 1997-04-17 1998-10-21 Sharp Kk Image tracking; observer tracking stereoscopic display

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002019728A1 (fr) * 2000-08-28 2002-03-07 Olympus Optical Co., Ltd. Système d'affichage vidéo
JP2006140822A (ja) * 2004-11-12 2006-06-01 Ricoh Co Ltd 画像表示装置
JP4507843B2 (ja) * 2004-11-12 2010-07-21 株式会社リコー 画像表示装置
JP2007028439A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像処理装置、画像処理方法
JP2016178655A (ja) * 2010-08-10 2016-10-06 モノタイプ.イメージング.インコーポレイテッド マルチビューシーン内のグラフイックス表示
US10134150B2 (en) 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
JP2012182746A (ja) * 2011-03-02 2012-09-20 Olympus Imaging Corp 画像処理装置、表示装置、撮像装置および画像処理プログラム
US8947425B2 (en) 2011-04-04 2015-02-03 Samsung Display Co., Ltd. Method and apparatus for processing and displaying a three-dimensional image with variable depth effect

Also Published As

Publication number Publication date
JP3802653B2 (ja) 2006-07-26
US6411326B1 (en) 2002-06-25

Similar Documents

Publication Publication Date Title
JP3802653B2 (ja) 立体画像表示装置
US9204140B2 (en) Display device and display method
US20110242286A1 (en) Stereoscopic Camera With Automatic Obstruction Removal
US20110193941A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JPH11355808A (ja) 映像システム
JPH07287761A (ja) 画像処理装置及び画像処理方法
EP0707287B1 (en) Image processing apparatus and method
AU5224001A (en) Generation of a sequence of stereoscopic images from a seque nce of 2D images
CN101674491A (zh) 用于分析图像数据的设备、方法和计算机程序
CN104977716A (zh) 目镜型显示装置及其显示控制方法
CN102804792A (zh) 立体视频处理设备、方法和程序
JP2013239915A (ja) 映像フォーマット判別装置及び映像フォーマット判別方法、並びに映像表示装置
JP2011199526A (ja) 被写体の追尾装置およびその動作制御方法
WO2014136144A1 (ja) 映像表示装置および映像表示方法
KR20170119807A (ko) 시선의 이동에 따라 변하는 오브젝트의 정보를 연속적으로 표시하는 장치 및 방법
CN111902859B (zh) 信息处理装置、信息处理方法和程序
JP2849313B2 (ja) 画像記録再生装置
WO2021106379A1 (ja) 画像処理装置及び画像処理方法、並びに画像表示システム
JPH08331599A (ja) 時分割方式立体映像信号検出方法、時分割方式立体映像信号検出装置および立体映像表示装置
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
JPH1169384A (ja) 映像信号種類判別処理装置
JP2014241473A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2016054506A (ja) 撮像装置、ヒストグラムの表示方法、プログラム、画像処理装置
JPH10108220A (ja) 2次元映像を3次元映像に変換する装置
KR100434877B1 (ko) 변이 움직임 벡터를 이용한 스테레오 물체 추적 방법 및장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060428

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees