JPH10327432A - 立体画像表示装置 - Google Patents
立体画像表示装置Info
- Publication number
- JPH10327432A JPH10327432A JP9147300A JP14730097A JPH10327432A JP H10327432 A JPH10327432 A JP H10327432A JP 9147300 A JP9147300 A JP 9147300A JP 14730097 A JP14730097 A JP 14730097A JP H10327432 A JPH10327432 A JP H10327432A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- depth
- motion vector
- stereoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
- G02B30/35—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers using reflective optical elements in the optical path between the images and the observer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/286—Image signal generators having separate monoscopic and stereoscopic modes
- H04N13/289—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
- H04N5/145—Movement estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
- H04N5/7475—Constructional details of television projection apparatus
- H04N5/7491—Constructional details of television projection apparatus of head mounted projectors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
軽量で安価に製作可能なうえ極めて見やすい立体画像を
安定に得る。 【解決手段】立体画像を表わす信号を入力する手段(31,
32,33.メモリ等)と、入力信号による立体画像の経時的
変化を検出する画像変化検出手段(36)と、その検出結果
に基づいて画像領域中の特定の部分領域を観察者が注視
する蓋然性の高い領域として指定する注視予測領域決定
手段(37)と、指定された特定の部分領域内に表示される
画像の奥行きを検出する奥行き検出手段(38,39)と、検
出された情報に基づいて前記立体画像の奥行きに係る量
を制御する奥行き制御手段(40)と、奥行きに係る量が制
御された立体画像を表わす信号を立体画像表示手段(3)
に被表示立体画像信号として出力する手段(41,42)とを
備える。
Description
力した立体画像を表わす信号について画像の奥行きに係
る奥行き量を制御したのち、立体画像表示を行なう立体
画像表示装置に関する。
像を立体視できるように表示する立体視ディスプレイは
既知であり、種々のものが提案されている。しかし、従
来の立体視ディスプレイでは、画像表示面の奥行き位置
と融像奥行き位置とが異なるために、観察者の眼球の輻
輳とピント調節とに矛盾した状態が起こることがあっ
た。この矛盾量が大きくなると、人間は立体画像を一つ
のものとして知覚できなくなる。
幾つかの提案がなされている。特開平3-292093号(セイ
コーエプソン)には、視線検出器を用いて観察者の注視
点を検出し、この注視点での奥行き情報からレンズを動
かして視度を変える手段が示されている。この手段は、
画像表示面の奥行き位置と融像奥行き位置とが一致する
ように、「画像表示面の奥行き位置」を制御するもので
ある。
には、視線検出器を用いて観察者の注視点を検出し、こ
の注視点での奥行きが立体画像表示部の表面もしくは表
面から指定された距離だけ離れた位置に再現するように
視差を制御する手段が示されている。この手段は、画像
表示面の奥行き位置と融像奥行き位置とが一致するよう
に、「融像奥行き位置」を制御するものである。
者とも観察者の注視点を検出し、注視点での奥行き情報
から立体画像の奥行き位置を制御するという点で共通し
ている。しかしながら上記のようなものでは、観察者の
注視点を正確に検出する必要があるため、検出精度の高
い視線検出器を必要とし、装置が高価格なものになって
しまうと言う問題がある。更に、視線検出器の重量分だ
け重くなるため、立体画像表示装置として例えば頭部装
着型表示装置(以下HMDと略称する)を適用する場合
には、軽量であることが強く望まれているHMDの重量
を大きくしてしまうという問題が生じる。
る監視装置」(日本電信電話)には、監視領域内にある
対象物を自動認識し、注目すべき対象を自動的に追跡す
る装置が開示されている。しかしながら上記の監視装置
は、立体画像の奥行きを調整するために注目すべき対象
を自動認識するものではなく、このような構成を有する
立体画像表示装置はこれまでに存在していない。
の高い視線検出器を用いなくても、観察者が注視するで
あろう注視点(画像領域)が予測され、その予測された
注視点における画像の奥行き情報に基づいて立体画像の
奥行き制御が行なわれ、極めて見やすい立体画像を安定
に得ることのできる立体画像表示装置を提供することに
ある。
示装置は、立体画像を表わす信号の供給を受けるための
入力手段と、上記入力手段により受けた信号による立体
画像の経時的な変化を検出する画像変化検出手段と、上
記画像変化検出手段による検出結果に基づいて画像領域
中の特定の部分領域を観察者が注視する蓋然性の高い領
域として指定する注視予測領域決定手段と、上記注視予
測領域決定手段によって指定される特定の部分領域内に
表示される画像の奥行きを表わす情報を得る奥行き検出
手段と、上記奥行き検出手段により得た画像の奥行きを
表わす情報に基づいて上記入力手段により受けた信号に
よる立体画像の奥行きに係る量を制御する奥行き制御手
段と、上記奥行き制御手段によって上記奥行きに係る量
が制御された立体画像を表わす信号を、適用された立体
画像表示手段に被表示立体画像信号として出力し得る出
力手段とを備えて構成される。…………(1)
加えて、上記注視予測領域決定手段は、上記画像変化検
出手段による検出結果に基づいて被検出画像全体の中で
特異な検出結果が得られる特定の部分領域が存在すると
きには該特定の部分領域を当該注視予測領域として指定
し、特異な検出結果が得られる特定の部分領域が存在し
ないときには予め設定した所定領域を当該注視予測領域
として指定するように構成される。
…………(2)
えて、複数の各小領域毎に、画像の経時変化を検出する
画像動き量検出手段を有してなり、且つ、上記注視予測
領域決定手段は、上記複数の小領域のうち画像変化検出
手段によって検出される画像の経時変化の値が特異な値
を示す小領域を、当該注視予測領域として指定するよう
に構成される。 …………(3)
えて、複数の各小領域毎に画像の経時変化を表わす動き
ベクトルを検出する動きベクトル検出手段を有してな
り、且つ、上記注視予測領域決定手段は、上記複数の小
領域のうち上記画像変化検出手段によって検出される自
己の動きベクトルが適用された視線検出手段によって検
出された観察者の視点の動きを表わす視点動きベクトル
に、実質的に等しい小領域を当該注視予測領域として指
定するように構成される。…………(4)
り、加えて、上記画像変化検出手段は、上記被検出画像
全体の中で画像の経時変化が認められる変化領域と該経
時変化が認められない無変化領域とに区分する画像領域
区分手段を備えてなり、且つ、上記注視予測領域決定手
段は、上記変化領域と無変化領域とを比較してこれら双
方の領域のうち何れかの領域を当該注視予測領域として
指定するように構成されている。
…………(5)
け画像の変化が異なる領域を求め、その求めた領域を観
察者が注視するであろうと予測し、その予測した当該領
域内にある画像の奥行き距離を求め、これに基づいて立
体画像の観察における視距離と輻輳距離とが合致するよ
うに制御するものである。尚、本実施形態では視差のあ
る左画像と右画像とを総称して立体画像と呼ぶことにす
る。
像表示装置の構成(概要)を示す図である。図1に示す
如くこの立体画像表示装置は、立体画像生成装置1と、
立体画像処理装置2と、立体画像表示器3とからなる。
立体画像生成装置1は、立体画像信号SA(左画像信
号,右画像信号)を生成し、左右の音声信号と共に出力
する装置であり、これにはビデオ再生機、立体画像信号
受信器、コンピュータ等の画像生成装置、ステレオカメ
ラなどが含まれる。
1からの立体画像信号SAを受信し所定の画像処理を行
なう。この画像処理には、受信した立体画像の経時的変
化から観察者の注視点を予測する注視予測処理と、その
予測した注視点に存在する画像の奥行き距離を検出する
奥行き検出処理と、立体画像の奥行きを制御する奥行き
制御処理とが含まれている。この立体画像処理装置2に
よって奥行き制御された立体画像SBは、電力と共に立
体画像表示器3へ送られる。
済みの立体画像の表示を行なうものであり、本実施形態
においては図1に示すような頭部装着型表示装置(以下
HMDと略称する)を用いている。このHMD3の内部
には、観察者の左眼球及び右眼球にそれぞれ対応する左
右の表示素子と、左右の接眼光学系とが組み込まれてい
る。尚、HMD3から立体画像処理装置2に対して視線
方向信号SCが必要に応じて送信され得るものとなって
いる。
ある。尚、図2に示すものは、一方の眼球(左眼球)に
対する光学系であり、これと同じものが、他方の眼球
(右眼球)に対しても組み込まれている。奥行き制御さ
れた左右画像信号のうちの左画像信号SLが左用LCD
11に供給されると、左画像が左用LCD11の表示面
上に表示される。10はバックライトである。上記表示
画像は、以下の接眼光学系によって拡大されて左眼球1
5に導かれる。
型の光学系である。LCD11の表示面からの光はプリ
ズム12に入射し、ハーフミラー13を透過し、凹面ミ
ラー14によって反射される。この反射光はハーフミラ
ー13の裏面で反射され、眼球15に入射する。ここ
で、LCD11の表示面上の画像は、図示の如く拡大虚
像面16を形成する。観察者はこの虚像面16を観察す
ることになる。この拡大虚像面16から眼球15までの
距離Iは接眼光学系とLCD11の表示面までの距離に
よって決定される。本実施形態では拡大虚像面16から
眼球15までの距離Iを視距離と呼ぶ。また、立体画像
の融像位置は左右画像の持つ視差によって決定される。
本実施形態では、この立体画像の融像位置から接眼レン
ズの主平面までの距離を輻輳距離と呼ぶ。
HMD3を例示したが、必ずしもHMD3に限られるも
のではない。例えば『3次元画像の基礎』(1995年、泉
武博監修、NHK放送技術研究所編、(株)オーム社発
行、pp.130〜178 )に記載されている表示装置(シャッ
ター切り替え方式やレンチキュラー方式等の各種立体T
V)等を、立体画像表示器として適用可能である。
T等の表示画面から観察者の眼球までの距離となり、輻
輳距離は融像位置から観察者の眼球までの距離となる。
図3は本実施形態の動作を示すフロー図である。このフ
ロー図は、図1に示す立体画像生成装置1から左右画像
が出力されたのち、立体画像処理装置2による画像処
理、およびHMD3による画像表示動作までを示すもの
である。以下、図4以降の図も適時参照しながら本実施
形態の装置の動作を説明する。
出力された立体画像信号SAである左右画像信号が立体
画像処理装置2に順次入力し受信される。今、図4の
(a)に示す左画像フレームm−1(L)と図4の
(b)に示す右画像フレームm−1(R)とを受信した
のち、同図(c)に示す左画像フレームm(L)と同図
(d)に示す右画像フレームm(R)とを受信したとす
る。
行している自動車を追尾してステレオ撮影した場合の画
像例である。したがって同図(a)に対する同図(c)
の自動車画像位置は変化していない。一方、背景画像は
左方向に変化している。以上のことは同図(b)と同図
(d)との間でも同じことが言える。
れる自動車は、同図(a)に示す左画像の画像位置より
も、同図(b)に示す右画像の画像位置が左にずれてい
る。つまり視差を持っている。一方、背景はカメラから
無限遠に位置していると想定されるため、同図(a)と
同図(b)の画像位置は一致している。つまり視差が0
となっている。同図(c)と(d)についても同じこと
が言える。
ベクトルを検出する。ここでは、左画像フレームまたは
右画像フレームのいずれかを用いる。例えば左画像を用
いるものとし、図4では同図(a)の画像に対する同図
(c)の画像の動きベクトルを検出する。動きベクトル
の検出法としては、それぞれの画像を小領域のブロック
に分割し、各ブロック毎にテンプレートマッチング処理
を行なう。このような処理を行なうことにより、結果と
して同図(e)に示す如き動きベクトルが求まる。
している領域が動きベクトル0、つまり動きがなく、そ
の他の画像が位置している領域は左方向の動きベクトル
つまり左方向へ画像が変化していることを表している。
と予測される画像領域(注視予測領域と呼ぶ)が決定さ
れる。具体的には、画面中にある多数の動きベクトルの
中で一部だけ動きベクトルが異なる領域が選定される。
図4の(e)の場合は点線枠で囲った部分だけが他の動
きベクトルとは異なる。したがって、この領域が注視予
測領域であると判断する。
のように画面の一部だけが動きベクトルを有し、その他
の動きベクトルが0である場合には、動きベクトルを有
する領域を注視予測領域とする。
体が変化した場合には、その変化した領域のみが動きベ
クトルが得られない異常値となる。この場合は、その異
常値を呈した領域を注視予測領域とする。
多数の動きベクトルの中で、一部だけ動きベクトルが他
とは異なる領域が存在している例であり、その一部だけ
動きベクトルが異なる領域を注視予測領域として選定す
る。
け動きベクトルの異なる領域が複数(図7の場合は2箇
所)存在する場合には、画面の中央に近い方を注視予測
領域として選択する。また、画像がほとんど変化しない
場合、動きベクトルの違いが相対的に小さく略0値とな
る。このような場合には、画面中央部の所定面積の領域
を注視予測領域とする。
風景のように、画面全体が一様に一方の側から他方の側
へ変化している場合には、動きベクトルが全て同じベク
トル値を有する。このような場合には、画面の中央位置
から動きベクトル量とは逆方向に一定幅だけシフトした
位置を注視予測領域とする。すなわち観察者は動きに関
して、いわば上流側(図示例では新たな画像が出現して
くる左側)に注目する傾向をもつ。したがって上記の如
く「動きベクトル量とは逆方向に一定幅シフトした位
置」を注視予測領域とすることが妥当と言える。
「注視予測領域決定」の判断過程を示すフロー図であ
る。
行き距離を求める。画像の奥行き距離を求める方法には
幾つかあるが、その代表的なもの三つを以下に例示す
る。 (1)相関方式;注視予測領域において左画像フレームと
右画像フレームとの相関計算を行ない、視差を導出す
る。 (2)距離信号付加方式;画像領域毎に予め奥行き距離を
表す信号を付加しておく。そして注視予測領域を選定す
ることで、その領域に対応した奥行き距離信号を特定す
る。 (3)測距方式;注視予測領域の方向にある物体の奥行き
距離を検出する。この検出には、ステレオカメラに設け
られている測距センサや、コンピュータグラフィックス
のZバッファ値を用いる。
離を求める場合について、前述の図4を用いて説明す
る。同図(f)に示すように、フレームm(L)の左画
像における注視予測領域は、ステップS3で既に定まっ
ている。そこで点線で囲った領域に対応する部分が右画
像m(R)のどの位置に存在するかを相関演算すること
によって求める。相関演算の例としては、同図(f)の
点線で囲った画像をテンプレートとし、同図(g)に示
すフレームm(R)の点線で囲った画像に対してテンプ
レートマッチングを行なう。ここで、同図(g)の点線
の領域は、同図(f)に示すように、点線の領域を中心
として左右方向に拡大した領域となっている。
に示すように、ある相関ピーク値を有する相関シフト量
から対応部分がわかる。結果として、図4の(g)の斜
線を施した領域が、同図(f)の点線枠で囲った画像と
対応していることがわかる。次に、同図(f)の点線領
域の中心位置のX座標xLと同図(g)の斜線領域の中
心位置のX座標xRとのずれ(xLーxR)を求める。
ここで、X座標とは、画像の横方向の位置を示す。この
ずれ(xLーxR)がいわゆる視差であり、奥行き距離
を表している。図10の(a)の場合においては、相関
ピーク値の相関シフト量がそのまま視差(xLーxR)
を示す。
る複数の画像が含まれている場合もあり得る。この場合
には、相関演算の結果、複数の視差値が出力される。こ
のような場合においては、以下のようにして最終的な視
差を決定する。 (1)視差の大きい方を最終的な視差とする。つまり近方
の視差を選択する。図10の(b)のように、二つある
相関ピークのうち、相関シフト量の大きい方を選択す
る。 (2)複数の視差の平均値を最終的な視差とする。図10
の(c)のように、二つある相関ピークの相関シフト量
の平均値とする。 (3)視差を求める際の相関ピークの大きい方の視差を最
終的な視差とする。コントラストの低い画像の場合に
は、左右画像の相関ピークは小さくなる。一方、コント
ラストがはっきりしている画像領域や、一箇所にデータ
値が集まっている場合には相関ピークは高くなる。よっ
て観察者は、後者の方を注視するものと予測し、相関ピ
ークの高い方の画像の視差を最終的な視差とする。図1
0の(d)のように相関ピーク値の高い方の相関シフト
量を視差とする。
て視距離と輻輳距離とが一致するように、立体画像の奥
行き制御を行なう。この奥行き制御の制御方式は、大き
く分けると次の2通りとなる。 (1)輻輳距離制御方式;左右画像を水平方向にシフトす
ることにより、輻輳距離が目標の輻輳距離(=視距離)
となるように制御する方式。 (2)視距離制御方式;視距離が奥行き距離と一致するよ
うに視距離を制御する方式(例えば、HMD3の接眼光
学系における表示素子とレンズとの距離を制御するもの
等)。
いて説明する。まず、立体画像観察時の視差と輻輳距離
Lとの関係について説明する。
位置XL と右表示面22の水平位置XR とに像を表示し
たとき、点Bの位置でXL とXR の像は一致する。この
点Bから左右の接眼レンズ23,24の主平面までの距
離を輻輳距離Lとする。このときのXL とXR は次式
(1)(2)で表される。 XL ={ d+(−H)}/L・tanθ …(1) XR ={−d+(−H)}/L・tanθ …(2) dは左右レンズの中間点(原点)から左右レンズのそれ
ぞれの中心点(左右の主点C,E)までの距離である
(右眼側は正、左眼側は負の値となる)。θはレンズの
半画角である。また、−Hは、点Bの水平位置である。
表示面22の水平位置XR とは、表示領域における光軸
との交差点を0として、図12に示すように表示領域の
水平長さを「2」として規格化している。式(1)は、
図11における点A、点B及び点Cによって作られる三
角形と、左表示面21での原点0と点XL と点Cとによ
って作られる三角形とが相似であることから導くことが
できる。式(2)も同様に、点D、点B及び点Eによっ
て作られる三角形と、右表示面22での原点0と点XR
と点Eとによって作られる三角形とが相似であることか
ら導くことができる。上記二つの式から次式が導かれ
る。 XL −XR =2d/L・tanθ …(3) 上式(3)は視差(XL-XR )と輻輳距離Lとの関係を
表している。よって輻輳距離Lと視距離Iとが一致する
ための視差の条件は次式(4)で表せる。 XL −XR =2d/I・tanθ …(4)
制御方式では、視差(XL-XR )が常に上式(4)を満
たすように視差制御が行なわれる。その制御の仕方とし
てはステップS5で求めた視差(XL-XR )と、式
(4)の差分だけ画像全体を水平方向にシフトする。そ
の左画像のシフト量SLと右画像のシフト量SRとは例え
ば次式となる。 SL=−(XL −XR )+d/I・tanθ …(5) SR=−(XL −XR )−d/I・tanθ …(6)
向シフトを示し、符号「+」は右水平方向シフトを示し
ている。視差(XL−XR )が目標視差よりも大きい
時、つまり輻輳距離Lが視距離Iよりも近方にあるとき
は、左画像を右方向へシフトし右画像を左方向へシフト
して、輻輳距離Lと視距離Iとを一致させる。これとは
逆に視差(XL−XR )が目標視差よりも小さい時、つ
まり輻輳距離Lが視距離Iよりも遠方にあるときは、左
画像を左方向へシフトし右画像を右方向へシフトして、
輻輳距離Lと視距離Iとを一致させる。
た自動車画像の視差(XL−XR )に基づいて式(5)
(6)の演算を実行し、シフト量SLとSRとを求め、画
像シフトを行なう。図4の例では、自動車画像の視差
(XL−XR )が目標視差よりも大きい時は、同図
(h)(i)に示すように左画像を左方向へシフトさ
せ、右画像を右方向へシフトさせる。
き制御された左右画像信号がHMD3に供給され、HM
D3によって上記奥行き制御された左右画像信号の表示
が行なわれる。以下、これらのステップS1〜S6まで
が繰り返される。
述した如く処理した立体画像を観察する場合の状況を示
す図である。図13に示すように、自動車像が虚像面上
で融像し、背景が遠方に融像した状態で、左方向へ流れ
ていく立体画像を観察することができる。
理装置2の内部構成を示すブロック図である。尚、図1
4の左上に、二点鎖線で囲ったブロック60(視線検出
器61からの信号を視線ベクトル演算部62で演算して
出力するブロック)は、第4実施形態の構成を示すため
に付加された部分であり、第1実施形態の構成には直接
関係がない。
らの左画像信号および右画像信号を受信すると、この左
右画像信号から分離された垂直同期信号が、各ブロック
の処理タイミングを制御するためのタイミング制御部3
1へ入力する。尚、図14に示されている符合TCは、
上記垂直同期信号に相当する信号を示している。
33でA/D変換された後、切換えスイッチ34,35
を介してメモリ1〜メモリ5へ選択的に供給されるものと
なっている。左画像信号はメモリ1とメモリ2とメモリ3
のうちいずれかに記憶される。これらの各メモリへの記
憶動作は、切換えスイッチ34によりフィールド毎また
はフレーム毎に交互にスイッチングされながら実行され
る。したがって、メモリ1〜メモリ3には、1フィールド
毎または1フレーム毎に異なった画像が記憶される。
(L)が記憶され、メモリ2には左画像m−1(L)が記
憶されるものとする。また、メモリ3には次のフレーム
左画像m+1(L)が記憶されるものとする。
し、切換えスイッチ35によりスイッチングされて記憶
される。ここではメモリ4には右画像m(R)が記憶さ
れ、メモリ5には右画像m+1(R)が記憶されるもの
とする。
モリ内に記憶されている両画像が比較され動きベクトル
を演算される。時刻mではメモリ1とメモリ2とが選択さ
れ、m(L)画像信号とm-1(L)画像信号とが動きベ
クトル検出部へ出力される。ここで、選択されるメモリ
番号は時刻に応じて順次切り替わる。(以上がステップ
S1に相当。尚、ステップS1では全ブロックのベクト
ルの各値を得てそれらの平均を求める。)
のブロックに分割し、一方の画像内のブロックと相関の
高いブロックをもう一方の画像内から探す。両画像にお
けるブロックの位置の差が動きベクトルとなる。この演
算処理は各ブロック毎に行なわれ、各ベクトル信号が注
視予測領域決定部37に入力する。(以上がステップ2
に相当)
に図9に示すフロー図にしたがって注視予測領域の演算
を行なう。以下、図9に示すフロー図について説明す
る。
ルの中で一部だけ異なるベクトルがあるか否かを判定す
る。この判定は先ず全体の動きベクトルの分散値を求
め、その分散値が規定の値を超えるか否かを確認するこ
とによって行なわれる。ここで、分散値とは、複数に分
割した各画像ブロック毎の動きベクトルのバラツキ度合
をいう。
で一部だけ異なるベクトルがあると判定されたとき、そ
のベクトル領域が一つなのか複数なのかを判定する。こ
の判定は、動きベクトルの偏差(バラツキの幅)の90%
以上偏位している動きベクトルがあるか否かを検索し、
90%以上偏位している動きベクトルが存在している画面
上の座標位置を見つけ、いわゆるラベリングを行ない、
このラベリングを行なった数が一つか複数かで判定する
ものである。
ー2での判定結果が「一つ」である場合、当該ラベリン
グされた一つのブロック番号に相当する信号を注視予測
領域信号として相関演算部38へ出力する。
3ー2での判定結果が「複数」である場合、各ラベルの
中心座標を演算し、その中心座標が画面中央に近い方の
ラベルにおけるブロック番号に相当する信号を注視予測
領域信号として相関演算部38へ出力する。
異なる動きベクトルは存在しないと判定された場合に
は、ステップS3ー5へ移る。ステップS3ー5では、
全体の動きベクトルの平均値が0であるか否かを判定す
る。ステップS3ー6では、ステップS3ー5で全体の
動きベクトルの平均値が0であると判定されたとき、予
め注視予測領域決定部内に記憶されている画面中央部に
おけるブロック番号に相当する信号を、注視予測領域信
号として相関演算部38へ出力する。ステップS3ー7
では、ステップS3ー5で全体の動きベクトルの平均値
が0でないと判定されたとき、上述のブロック番号を動
きベクトル平均値の反対方向にシフトしたブロック番号
に相当する信号を注視予測領域信号として相関演算部3
8へ出力する。
る。次に相関演算部38について説明する。相関演算部
38は、前記した如く注視予測領域として決定されたブ
ロック番号を、そのままメモリ1〜メモリ3のいずれかに
出力する。時刻mにおいては左画像m(L)が記憶され
ているメモリ1へ出力する。一方、右画像に対しては、
先ほどのブロック番号に予め相関演算部38が記憶して
いる水平冗長ブロック数分α(視差相応の見込みずれ
量。これだけのマージン領域αを広げてブロック番号で
特定される領域を全てカバーし得る領域Zを特定し、そ
の上で左右のずれ量の比較を行なう必要があるからであ
る。)を付加して、メモリ4、メモリ5のいずれかに出力
する。時刻mにおいては、右画像m(R)が記憶されて
いるメモリ4へ出力する。メモリ1とメモリ4は受信した
ブロック番号内の画像信号を相関演算部38に返す。そ
して相関演算部38は左画像信号をテンプレートにし
て、1ブロックづつ左画像をシフトして右画像信号との
減算を行なう。ここで、減算値が小さいほど相関値は高
い。相関演算部38は、各シフト量に対する減算値を視
差演算部39へ出力する。
定法に基づき、減算値を利用して最終的な視差値を求め
る。視差値はシフト量演算部40へ出力される。(ステ
ップ4に相当)
の演算を行なって左画像用シフト量と右画像用シフト量
を求める。各シフト量は左右それぞれの画像読み出し制
御部41,42へ出力され、各画像読み出し制御部4
1,42は、各メモリ内の画像信号をシフト量だけシフ
トして読み出す。(ステップ5に相当)
器43,44によりそれぞれD/A変換されたたのち、
HMD3の左右表示素子にそれぞれ供給されて表示され
る。(ステップ6に相当)
検出し、画面中において一部だけ画像の変化が異なる領
域を求め、その領域内にある画像の奥行き距離を求め、
立体画像観察における視距離と輻輳距離とが合致するよ
う制御するものである。本実施形態によれば、視線検出
器を用いる必要がないので、装置全体を小型に、しかも
安価に得ることができる。
ル検知) 第1実施形態では動きベクトルを左右画像の一方のみに
ついて求めたが、この第2実施形態では、第1実施形態
の一部を変形し、左右画像の双方に動きベクトルを求め
るようにしたものである。
(c)に示す左画像について同図(e)に示す動きベク
トルを求めると共に、同図(b)(d)に示す右画像に
ついても同図(f)に示す動きベクトルを求める。そし
て、同図(g)(h)に示すように、それぞれの注視予
測領域を決定する。
xL、xRを求める。そして、これらの座標xLとxR
との差(xLーxR)を視差と定める。このように第2
実施形態では相関演算を行なわない。
理装置の内部構成を示すブロック図である。左右画像と
もに、注視予測領域決定部37までは共通である。この
ため共通部分は二点鎖線で囲み一方を省略した。左右そ
れぞれの注視予測領域決定部37からは中心座標値xL
とxRとが視差演算部39へ出力される。視差演算部3
9では(xL−xR)を行ない、その結果をシフト量演
算部40へ出力する。後の処理は第1実施形態の場合と
同じなので説明は省略する。
差量を求め得るので、処理時間を短くて済むというメリ
ットがある。
ルド順次(またはフレーム順次)立体映像に対して有効
なものとした例である。すなわち、時刻の異なる左右画
像間の動きベクトルを検出し、注視点を予測して視差を
求めるようにする。
ロー図である。このフロー図について、図18に示す画
像処理例を参照しながら説明する。尚、本実施形態で
は、図18の(a)(b)(c)に示すように、右画像
フレーム番号m−1(R)、左画像フレームm(L)、
右画像フレームm+1(R)…と言う具合に、左右画像
を交互に受信するものとする。
を受信する。 [ステップS12]右画像フレーム番号m−1(R)に対
する左画像フレームm(L)の動きベクトルmをブロッ
ク毎に求める。すなわち隣接フィールド区間どうしの比
較(左用フィールドと右用フィールドとの間の比較)で
動きベクトルを求める。したがってこの結果は左右の視
差を含んだものとなる。図18の(d)は上記結果例を
示す。背景画像については左方向の動きベクトルが現れ
る。また、車の画像領域については視差分の動きベクト
ルが現れる。 [ステップS13]右画像フレームm+1(R)を受信す
る。
(L)に対する右画像フレーム番号m+1(R)の動き
ベクトルをブロック毎に求める。図18の(e)はその
結果例を示す。背景画像については、(d)と同様に左
方向の動きベクトルが現れる。一方、車の画像領域につ
いては、(d)とは逆方向の視差分の動きベクトルが現
れる。
クトルと、同図(e)の動きベクトルとについて、ブロ
ック毎の平均値を求める。等速運動をする物体について
は視差分がキャンセルされるためこのようにする。図1
8の(f)はその結果を示している。背景画像について
は左方向の動きベクトルが現れ、車の画像に関しては動
きベクトルが0となる。
平均を用いて第1実施形態と同様の注視予測領域の決定
を行なう。図18の場合には、等速運動をする物体につ
いては視差分がキャンセルされるため動きベクトルが0
値である領域を注視予測領域とする。
クトルから同図(e)の動きベクトルをブロック毎に差
分し1/2にする。こうすることにより背景に関する動
きがキャンセルされ、視差ベクトルが現われる。図18
の(g)はその結果を示している。図示の如く背景画像
についてはベクトル値が0となり、車の画像に関しては
右方向の視差ベクトルが現れる。この視差ベクトル値が
車の画像の奥行き情報となる。この後のステップは第1
実施形態の場合と同じであるため説明を省略する。
理装置の内部構成を示すブロック図である。フィールド
毎に交互に受信した左右画像信号はA/D変換器50に
よりA/D変換されたのち、メモリ1、メモリ2、メモリ
3に記憶されていく。
ルド画像m(L)が記憶され、メモリ2にはフィールド
画像m−1(R)が記憶されており、そして次のフィー
ルド画像m+1(R)がメモリ3に記憶されるものとす
る。三つのメモリのうち二つのメモリが選択され、その
内容が動きベクトル検出部36へ出力される。
選択され、読み出された画像信号が動きベクトル検出部
36に入力する。動きベクトル検出部36は、選択され
た二つのメモリの画像における動きベクトルを検出して
出力する。この出力された動きベクトルは第1動きベク
トルメモリ51に記憶される。次の時刻m+1になる
と、メモリ1とメモリ3とが選択され、両画像の動きベク
トルが検出される。この検出された動きベクトルは第2
の動きベクトルメモリ52に記憶される。
1,52に記憶されている各動きベクトルの信号は、動
きベクトル加算器53へ出力される。動きベクトル加算
器53で加算された結果は、注視予測領域決定部37へ
出力される。注視予測領域決定部37は、図14に示す
第1実施形態の構成ブロック図における注視予測領域決
定部37と同じ働きをする。注視予測領域決定部37
は、演算結果が相対的に特異な値を示す領域を識別し、
その領域のブロック番号を視差演算部39へ出力する。
1,52に記憶されている各動きベクトルは、動きベク
トル減算器54にも出力される。この動きベクトル減算
器54による減算結果は視差演算部39へ出力される。
視差演算部39では、注視予測領域決定部37から受信
したブロック番号における動きベクトルと動きベクトル
減算器54から受信した減算の結果とに基づいて視差を
決定する。決定された視差信号は、シフト量演算部40
へ出力され、シフト量が演算される。この演算されたシ
フト量に応じて、メモリ1〜メモリ3に記憶されている画
像が、表示用読み出し制御部55によってシフトされた
状態で読み出される。読み出された画像は、D/A変換
器56でD/A変換された後、切替え器57によりフィ
ールド毎に左表示素子と右表示素子への出力に切替られ
て送出される。
立体画像に対応する如く構成されており、第1実施形態
における相関演算部38の働きを、動きベクトル検出部
36が兼ねた構成となっているため、全体のブロック数
が少なくて済み、安価に製作できるという利点を持つ。
用) 第4実施形態は、第1実施形態の一部を変形し、動画像
間の動きベクトルと観察者の視線の動きベクトルとを検
出し、両者の比較から注視予測領域を決定するようにし
た例である。
法として、HMD3に設けた視線検出器を利用する。た
だしこの視線検出器は、従来用いられていたような、視
線の絶対座標を調べるのものではなく、視線の相対的な
変動を検出する目的で用いるものである。よって高精度
なものである必要はなく、また、視線の絶対座標を割り
出すためのキャリブレーション等も不要である。
図である。図3に示した第1実施形態の動作を示すフロ
ー図との比較から分かるように、「観察者の視線の動き
ベクトルの検出」(ステップS23)が新たに加わった
ことと、「立体画像の奥行き制御」(ステップS5)の
代わりに「視距離と輻輳距離との合致制御」(ステップ
S26)が加わったことの二点が大きく異なるだけで他
はほぼ同様である。
クトルを検出し、同時に観察者の視線の動きベクトルを
検出する。そして全体の動きベクトルの中で、視線の動
きベクトルと同じベクトルを有する画像領域を決定し、
この画像領域を注視予測領域とする。
線の動きベクトルの検出」は、視線方向角の変化Δθを
精度よく検出することは比較的容易であるが、視線方向
の絶対値を検出することは困難である。したがって本実
施形態では、上記Δθに相応する動きベクトルが、画面
内のブロックのいずれの位置に対応するかに基づいて注
視予測領域を特定することにした。この結果、例えば図
21の(c)に示すような動きベクトルが現れる。
を検出する。その検出の結果、視線の動きベクトルが、
例えば図21の(d)に示す如く右向きであれば、図2
1の(c)に示す如く、注視予測領域は動きベクトルが
右向きの領域となる。
内部構成を示すブロック図は、図14の左上に、一点鎖
線で囲ったブロック60(視線検出器61からの信号を
視線ベクトル演算部62で演算して出力するブロック)
が付加された状態の全体ブロック図に相当するものとな
る。
像のみから注視予測領域を決定するのではなく、視線の
動きを検出する視線検出器61を用いて注視予測領域を
決定するように構成されているので、注視する領域が観
察者によって大きく変わる場合であっても、より的確に
対応できるという利点を持つ。
ル) 第5実施形態は、第1実施形態の一部を変形し、動きベ
クトルを画像の周辺のみについて検出し、画像周辺にお
いて、一部だけ動きベクトルの異なる領域がある場合に
は、その領域を注視予測領域となし、ない場合には画面
中央を注視予測領域とするものである。
図である。また、図23は上記フロー図の説明に用いる
処理画像例を示す図である。 [ステップS31]左右画像信号を、例えば図23の
(a)(b)(c)(d)の順で順次受信する。 [ステップS32]画像中央領域内の画像に対する奥行き
距離を演算する。図23の(e)(f)に示すように、
左右画像の中央領域の画像を用いて相関演算を行ない、
視差1を求める。 [ステップS33]画像領域の周辺画像についてのみ、動
きベクトルを検出する。図23の(g)に示すような動
きベクトルが表れる。
領域決定と同じ処理を用い注視予測領域を選定する。す
なわち周辺画像領域内における特異な動きベクトルを示
す領域を特定(判定)する。図23の(g)における点
線で囲んだ部分が注視予測領域となる。 [ステップS35]第1実施形態の場合と同様に、上記注
視予測領域に関する奥行き距離を演算する。図23の
(h)(i)に示すように、相関演算を行ない視差2を
求める。 [ステップS36]ステップS32で得られた画像中央奥
行き距離と、ステップS35で得られた注視予測領域奥
行き距離とに基づいて、立体画像の奥行き制御値を決定
する。その決定方法としては、図10に示した決定方法
と同じ方法を用いる。
トルの異なる画像領域が見つからなかった場合には、画
像中央の奥行き距離をもって奥行き制御を行なう。ま
た、ステップS34で、一部だけ動きベクトルの異なる
画像領域が見つかった場合には、図23に示した二つの
視差値、つまり視差1と視差2とを用い、以下の三つの方
法により最終視差値を求める。 (1)観察者からみて手前側にある画像を注視するであろ
うという判断に基づいて、視差の大きい方を最終的な視
差とする。 (2)どちらも見ている場合もあり得るため、そのような
ケースに対応する為、複数の視差の平均値を最終的な視
差とする。 (3)相関比較においてマッチングの度合いが高い方、は
っきりした画像部分に注目するであろうという判断に基
づき、視差を求める際の相関ピークが大きい方の視差を
最終的な視差とする。 この後の処理は第1実施形態の場合と同じである。
理装置の内部構成を示すブロック図である。図14に対
して以下の点が異なっている。
D変換後の左右画像信号がそれぞれ二つに分岐される。
そして一方の左右画像信号は、図14の場合と同じ処理
が行なわれる。ただし動きベクトル検出は周辺画像につ
いてのみ行なわれる。周辺画像の動きベクトル検出部3
6は周辺部データの抽出と、抽出したデータ値の比較
(動き検出)との双方を行なう。すなわち動きベクトル
検出部36は、メモリ1〜メモリ3から周辺画像信号のみ
を受信し、動きベクトルを検出した後、注視予測領域決
定部37へ供給される。
は、画像中央抽出部71によって画像中央の画像信号の
みを抽出される。抽出された画像中央の画像信号は、相
関演算部72に入力し、画像中央のみについての左右画
像の相関演算が行なわれる。その結果は視差演算部39
に出力される。視差演算部39では、上記相関演算部7
2および図14で説明した相関演算部38からの相関演
算の結果を用い、前述した決定方法により最終視差値を
決定する。この後の処理は第1実施形態の場合と同じで
ある。
クトルの検出と、最も注視する確率の高い画像中央部の
奥行き距離の演算とが同時平行して行なわれることか
ら、全体の処理時間を大幅に短縮できるという利点があ
る。また、本実施形態においては前記最終視差値を求め
る三つの方法(1)(2)(3)が加味された注視予測領域の弁
別が行なわれる為、より目的に合致した判別がなされ得
る利点がある。
で選択) 第6実施形態は、第1実施形態の一部を変形し、注視予
測領域決定において、動きベクトルの異なる領域が複数
存在する場合に、視線検出器での観察者の視線信号を用
いて、複数のうちどれかを決定する。ここで用いる視線
検出器は、絶対座標として視線位置が可能であるが,検
出角度精度が±5°程度のかなり低い精度のものでも使
用可能である。
きベクトルの異なる二つの領域M,Nがある場合におい
て、観察者が同図(d)に示すように、画面中央下部を
見ているという情報を精度の低い視線検出器(例えば角
度精度±5°程度のもの)で検出したとき、当該画面中
央下部の領域内にある方の動きベクトルを選択するもの
である。
だけから注視予測領域を決定するものではないので、注
視する領域が観察者によって大きく変わる場合において
も、的確に対応できるという利点を持つ。
施形態で用いた動きベクトルの代わりにエッジ差分画像
を用い、画面中において一部だけ画像の変化が異なる領
域を求め、その領域を観察者が注視するであろうと予測
する。その後、第1実施形態と同様に注視予測領域内に
ある画像の奥行き距離を求め、立体画像観察における視
距離と輻輳距離とが合致するように制御する。
の構成(概要)は、図1及び図2に示した第1実施形態
の構成と同じなので、その説明は省略する。
図である。このフロー図は、図1に示す立体画像生成装
置1から左右画像が出力されたのち、立体画像処理装置
2による画像処理、およびHMD3による画像表示動作
までを示すものである。以下他の図も適時参照しながら
本実施形態の装置の動作を説明する。
出力された左右画像信号は、立体画像処理装置2に順次
受信される。今、第1実施形態と同様に、図4の(a)
(b)に示す左画像フレームm−1(L)と右画像フレ
ームm−1(R)を受信した後、同図の(c)(d)に
示す左画像フレームm(L)と右画像フレームm(R)
とを受信したとする。これらの画像は既に説明したよう
に、自動車は画面上の所定位置にあって動かず背景のみ
が移動する画像である。
信した画像を順次エッジ抽出を行ない、エッジ画像を生
成する。図27の(a)(b)(c)(d)は、それぞ
れ図4の(a)(b)(c)(d)に対応するエッジ画
像である。これらのエッジ画像は2値化されており、エ
ッジ部分が「1」で、それ以外が「0」である。 [ステップS43]フレーム間におけるエッジ画像の変形
部分を検出する。検出方法として、現フレームのエッジ
画像から前フレームのエッジ画像を減算し差分画像を生
成する。ここで差分の結果、負の値となるものは0値と
する。
ームm(L)のエッジ画像から同図(a)の左画像フレ
ームm−1(L)を減算する。同図(e)は減算により
得られた画像を示している。同図(e)に示す如く、静
止した車の画像は消える。また、結果がマイナスになる
ところの画像も消える。また、右画像フレームについて
も同様に、同図(d)の右画像フレームm(R)のエッ
ジ画像から同図(b)の右画像フレームm−1(R)を
減算する。同図(f)は減算により得られる画像を示し
ている。どちらも背景画像に関するエッジ画像が抽出さ
れている。ステップS43の処理により生成される画像
を、本実施形態では「変形エッジ画像」と呼ぶことにす
る。
は、フレーム間において変形していない部分の検出を行
なう。その検出方法としては、現フレームのエッジ画像
からステップS43で検出した変形エッジ画像を減算
し、差分画像を生成する。図27の(g)(h)はそれ
ぞれ同図(c)から(e)を減算した画像と、同図
(d)から(f)を減算した画像である。どちらも自動
車に関するエッジ画像が抽出されている。ステップS4
4の処理によって生成される画像を、本実施形態では
「固定エッジ画像」と呼ぶことにする。
1実施形態のステップS3の注視予測領域の決定に相当
する。本実施形態では、ステップS43で求めた変化エ
ッジ画像と、ステップS44で求めた固定エッジ画像の
うち、どちらに観察者が注目する画像情報が入っている
かを予想する。その予想は、エッジが一箇所に集中して
いる方を注視するものと予測する方法を用いて行なう。
示す点の画像内での分布状況を検出する。しかるのち変
形エッジ画像と固定エッジ画像のいずれの分布の広がり
が小であるかを判別する。これは分布の小さい方が画面
内における特異な領域である蓋然性が高いとの思想に基
づいている。そこで分布の広がりの小さい方を選ぶ。分
布の広がりがほぼ同じ場合には平均値がより画像中央座
標に近い方を選ぶ。
比較し、(g)の方がエッジの分布の広がりが小さいの
で、固定エッジ画像である(g)を選択する。同様に右
画像についても同図(f)と(h)を比較し、(h)の
方がエッジの分布の広がりがが小さいので、固定エッジ
画像である(h)を選択する。勿論、図28のように自
動車が画面上を移動する画像の場合には、変形エッジ画
像である同図(e)又は(f)を選択する。
画像を選択し、選択したエッジ画像における上記平均座
標値を中心とした予め定めた面積の領域を注視予測領域
とする。
した点線で囲んだ領域を注視予測領域とする。また、変
形エッジ画像と固定エッジ画面とのいずれかのデータ数
の総和(例えば小区分毎に弁別するときの全画面につい
て「1」となる箇所の総和)が予め設定したデータ数よ
りも少ない場合には、他方の画像を選択する。つまり少
ない方の画像は判断の基礎として用いない。これは画面
全体が一様に変化している場合や静止画の場合に適応可
能とする為である。
に変化する場合には、変形エッジ画像である同図(e)
(f)は、ほぼ現フレームのエッジ画像(c)(d)と
同じであり、固定エッジ画像である(g)(h)はエッ
ジが現れない。この場合には(g)(h)のデータ数の
総和は小さいので変形エッジ画像である(e)(f)が
選択される。
は、図29とは逆になる。すなわち変形エッジ画像であ
る(e)(f)はエッジが現れない。この場合には、固
定エッジ画像である(g)(h)が選択される。
像かを選択し、選択したエッジ画像において予め定めて
ある画面中央領域を注視予測領域とする。前記した図2
9の場合は、(e)(f)の点線で囲んだ領域が注視予
測領域である。
る画像選択操作を示すフロー図である。本実施形態のよ
うに変形エッジ画像と固定エッジ画像とを生成し、いず
れを注視するかについて自動認識することにより、上記
のような各種画像に幅広く対応できる。
ついて奥行き距離を求める。奥行き距離の求め方は第1
実施形態のステップS4と同様である。 [ステップS47]奥行き距離の信号に基づいて視距離と
輻輳距離とが合致するように制御する。この制御の方法
は第1実施形態のステップS5と同様である。 [ステップS48]左右画像を表示する。第1実施形態の
ステップS6と同じである。以下、これらステップS4
1〜S48までを繰り返す。
理装置の内部構成を示すブロック図である。尚、図32
において、二点鎖線枠で囲んだ左右画像に対応する前処
理部は同じ構成であるため、右画像側内部構成の図示を
省略した。
信号は、一方においてA/D変換器32,33によりA
/D変換されたのち、前処理部80,90に入力する。
上記左右画像信号から分離された同期信号は、各ブロッ
クの処理タイミングを制御するためのタイミング制御部
31へ供給される。
イッチ34により各フレーム毎にスイッチングされて、
メモリ1〜メモリ3のいずれかに記憶される。このため各
メモリには1フレーム毎に異なった画像が記憶される。
時刻mにおいて、メモリ1には左画像m(L)が記憶さ
れ、メモリ2には左画像m−1(L)が記憶されたとす
る。又メモリ3には次のフレーム左画像m+1(L)が
記憶されるものとする。右画像についても左画像と同じ
である。(ステップS41に相当)
各画像は、スイッチ81を介してエッジ処理部82へ順
次入力し、ここでエッジ画像が生成される。上記エッジ
処理は、前述したようにエッジ部分を「1」、それ以外
を「0」とする2値化処理である。生成されたエッジ画
像は、変形エッジ画像生成部83と固定エッジ画像生成
部84へと出力される。(ステップS42に相当)
されるエッジ画像を用いて、エッジ画像の減算を行な
う。時刻mにおいては、変形エッジ画像生成部はm−1
(R)のエッジ画像を記憶しており、今受信したm
(R)のエッジ画像からこのm−1(R)のエッジ画像
を減算する。この減算したエッジ画像信号を固定エッジ
画像生成部84と注視予測領域決定部85へ出力する。
(ステップS43に相当)
するエッジ画像について、変形エッジ画像生成部83か
ら順次受信する変形エッジ画像を減算し,固定エッジ画
像を生成する。生成された固定エッジ画像は注視予測領
域決定部85へ出力される。(ステップS44に相当)
画像と固定エッジ画像とを用いて注視予測領域を決定す
る。この注視予測領域決定部85では、図31に示すフ
ローに基づいた注視予測領域の演算が行なわれる。結果
として、注視予測領域のエッジ画像が相関演算部38へ
出力される。右画像においても同様の処理が行なわれ右
画像の注視予測領域のエッジ画像が相関演算部38へ出
力される。(ステップS45に相当)
相関演算が行なわれる。この相関演算は、第1実施形態
の相関演算と同じであるため説明を省略する。結果とし
て、相関シフト量に対する相関値が視差演算部39へ出
力される。視差演算部39では、第1実施形態と同様の
作業を行ない最終的な視差値を求める。視差値はシフト
量演算部40へ出力される。(ステップS46に相当)
様に、式(5)(6)の演算を行なって、左画像用シフ
ト量と右画像用シフト量とを求め、各シフト量を左右そ
れぞれの画像読み出し制御部41,42へ出力する。各
画像読み出し制御部41,42は、各メモリ内の画像信
号をシフト量分だけシフトして読み出す。(ステップS
47に相当)
信号は、D/A変換器43,44によりD/A変換され
たのち、HMD3内の左右表示素子に供給され表示され
る。(ステップS48に相当)
し、画面中において一部だけ画像の変化が異なる領域を
求め、その領域内にある画像の奥行き距離を求め、立体
画像観察における視距離と輻輳距離とが合致するよう制
御するものである。本実施形態によれば、視線検出器を
用いる必要がないので装置全体を小型にでき、安価に製
作し得る。また、本実施形態では差分演算処理を用いる
ので、動きベクトルを用いる第1実施形態に比べると、
処理時間が速いという利点がある。
を求める) この第8実施形態は、第7実施形態の一部を変形した例
である。前記第7実施形態では、変形エッジ画像と固定
エッジ画像との選択において、エッジデータ値が一箇所
に集まっている方を選んだが、この第8実施形態では、
変形エッジ画像に関する視差と、固定エッジ画像に関す
る視差とを比較し、その比較結果を最終的な視差とする
ものである。
(f)で示した変形エッジ画像と、同図の(g)(h)
で示した固定エッジ画像とを導くところまでは、第7実
施形態と同じである。次に左右の変形エッジ画像を相関
演算して視差を求めると共に、左右の固定エッジ画像を
相関演算して視差を求める。そして、求めた二つの視差
値を用いて最終的な視差量を決定する。その決定は以下
に示す如く第7実施形態の場合と同様の決定方法によ
る。
る。つまり近方の視差を選択する。図33の場合には、
固定エッジ画像の視差を最終的視差とする。 (2)変形エッジ画像の視差と固定エッジ画像の視差との
平均値を最終的な視差とする。 (3)視差を求める際の相関ピークの大きい方の視差を最
終的な視差とする。背景画像のようにデータ値が画面全
体に散らばっている場合には、左右画像の相関ピークは
小さくなる。一方、コントラストがはっきりしている画
像領域や、一箇所にデータ値が集まっている場合には、
相関ピークは高くなる。よって観察者は後者の方を注視
すると予測し、相関ピークの高い方の画像の視差を最終
的な視差とする。図33の場合には、固定エッジ画像の
視差を最終的視差とする。
理装置の内部構成を示すブロック図である。尚、左右画
像ともに変形エッジ画像と固定エッジ画像とを求めるま
では、第7実施形態におけるブロック図と同じである。
その後、左右の変形エッジ画像を受信し相関を行なう変
形エッジ画像相関演算部101と、左右の固定エッジ画
像を受信し相関を行なう固定エッジ画像相関演算部10
2とが、第7実施形態の注視予測領域決定部65および
相関演算部38の代わりに加わっている。
定とその後の相関演算作業を行なう代わりに、二つの相
関演算作業を同時に並行して行なえるので、処理時間が
速くなるという利点がある。
て変化の大きさを分別) この第9実施形態は、第7実施形態の一部を変形したも
のである。この第9実施形態では、動画像の中から変化
のない画像と、少し変化する画像と、大きく変化する画
像との三つの画像を抽出して分割する。そして三つの画
像から観察者が注視するであろう画像を選択する。その
方法を実行するために、エッジ画像として新たにエッジ
線の太いエッジ画像を追加生成する。
(b)(c)(d)は、それぞれ受信したm−1(L)
画像、m−1(R)画像、m(L)画像、m(R)画
像、の各エッジ画像である。ここで画像内の円は動きの
ない画像であり、自動車画像は画像間で大きな変化のあ
る画像であり、それ以外の背景画像は画像間で少し変化
する画像である。また、同図の(e)(f)(g)
(h)は、同図の(a)(b)(c)(d)の各エッジ
画像を、公知の太線化処理によって太線化した画像であ
る。
変化のないエッジ画像を生成する。生成方法としては、
通常のエッジ画像間の乗算を行なう。図35の場合に
は、同図の(a)と(c)との乗算を行ない、結果とし
て同図(i)を得る。変化のない画像部分は乗算しても
値は「1」となり、変化のある画像部分は乗算すると値
は「0」となり、結果として変化のないエッジ画像部分
だけが抽出される。結局ここでは円のエッジ画像だけが
残る。同様に、同図の(b)と(d)の乗算を行ない、
結果として同図の(j)を得る。ここで生成した画像を
固定エッジ画像と呼ぶことにする。
前フレームの太線化エッジ画像を減算し、差分画像を生
成する。差分の結果、負の値となるものは0値とする。
図35の場合、同図(g)に示したフレームm(L)の
太線化エッジ画像から,同図(e)に示したフレームm
−1(L)の太線化エッジ画像を減算する。この減算の
結果得られる画像は同図(k)に示すものとなる。つま
り減算の結果として、動きのないエッジ画像は消去さ
れ、動きが大きい画像ほどエッジ線の太い画像が得られ
る。これは動きが大きいほど両画像のエッジのずれが大
きくなるためである。又右画像フレームについても同様
の処理を行なうことにより、同図の(l)に示す画像が
得られる。
め定めたエッジ線幅を基準として、エッジ線の幅の違い
により二つに分別する。太線化エッジ画像による動き検
出では、その線幅内での微細な動きに関しては動き幅を
含んだ情報(もとの線幅に対し減算によりオーバラップ
部については減じられるが、残る線幅部分があるため、
この線幅で微細な動きの程度を計り知ることができる)
を得ることができる。第7実施形態のように、細線のみ
で動き検出を行なうと、微細な動きに対しても直ちに対
応するエッジ部(細線)のオーバラップ状態から抜け出
るために、太線同士のオーバラップ部は生じず、動き幅
(程度)に関する情報は得られないことになる。
細い画像部分だけを抽出することにより、同図の(m)
が得られる。また、エッジ線の画像部分だけを抽出する
ことにより、同図の(o)が得られる。エッジ線の細い
画像は、少し変化のある画像であり、ここでは小変形エ
ッジ画像と呼ぶ。他方、エッジ線の太い画像は、大きな
変化のある画像であり、ここでは大変形エッジ画像と呼
ぶ。右画像についても同様の処理を行なうことにより、
同図の(n)及び(p)が得られる。
と、小変形エッジ画像と、大変形エッジ画像とを用い
て、第7実施形態におけるステップS45と同じ処理を
行なうことにより、注視予測領域を決定する。図35の
場合には大変形エッジ画像が選択される。後の処理は第
7実施形態と同じである。
理装置の内部構成を示すブロック図である。第7実施形
態におけるブロック図(図32)と異なる点は、変形エ
ッジ画像生成部83の代わりに、エッジ線太線化部11
1と、差分画像生成部112と、エッジ線幅検出部11
3と、小変形エッジ画像生成部114と、大変形エッジ
画像生成部115とが組み込まれている点である。第9
実施形態においては、画像を、固定エッジ画像と、小変
形エッジ画像と、大変形エッジ画像との3種類に分別し
た例を示したが、エッジ線幅の分別判断を更に細かく
し、4種類、5種類〜…と増やしても良い。すなわち図
36に示されている小変形エッジ画像生成部114およ
び大変形エッジ画像生成部115を、「小変形エッジ画
像生成部」「中変形エッジ画像生成部」「大変形エッジ
画像生成部」〜…という具合に増設する事により実現可
能である。このようにエッジ画像の種類を増やすほど、
画像の変化の大きさをより細かく分別することが可能と
なる。
さに応じて画像を分別することができるため、注視予測
領域をより正確に決定することが出来る。
のである。第10実施形態では、第7実施形態と同様の
シフト量演算結果に応じて画像データ伝送路に介挿され
たラインメモリの読み出しタイミングを制御する事によ
って、左右各出力段のD/A変換器に供給される当該画
像データに対し、所要の視差に対応したシフトを与え
る。
処理装置の内部構成を示すブロック図である。この実施
形態では画像信号そのものを記憶しておく必要がないの
で、第7実施形態で必要としたメモリ1〜メモリ3が不要
となる。その代わり画像シフトを行なう為のラインメモ
リ120を用意する必要がある。画像信号は二つに分岐
され、一方はエッジ処理部へ供給され、もう一方はライ
ンメモリ120へ供給される。そして第7実施形態と同
様の処理が行なわれ、求めたシフト量の信号は左右表示
用画像読み出し制御部41,42に出力される。ここで
ラインメモリ120に記憶されているのは画像mではな
く数フレーム後の画像である。
い立体画像に対しては有効である。そしてメモリとして
はラインメモリ120だけでよいので安価に製作できる
という利点をもつ。尚、全実施形態において、立体画像
処理装置2の左右画像信号を直接立体画像表示器3に出
力するのみならず、一旦、記録媒体に左右画像信号を記
録して、その後、この記録媒体中の左右画像信号を読み
出して立体画像表示器3で表示しても良い。
成と効果を列挙する。
力手段(31,32,33,メモリ等)と、上記入力手
段により受けた信号による立体画像の経時的な変化を検
出する画像変化検出手段(36)と、上記画像変化検出
手段による検出結果に基づいて画像領域中の特定の部分
領域を観察者が注視する蓋然性の高い領域として指定す
る注視予測領域決定手段(37)と、上記注視予測領域
決定手段によって指定される特定の部分領域内に表示さ
れる画像の奥行きを表わす情報を得る奥行き検出手段
(38,39)と、上記奥行き検出手段により得た画像
の奥行きを表わす情報に基づいて、上記入力手段により
受けた信号による立体画像の奥行きに係る量を制御する
奥行き制御手段(40)と、上記奥行き制御手段によっ
て上記奥行きに係る量が制御された立体画像を表わす信
号を適用された立体画像表示手段(3)に被表示立体画
像信号として出力し得る出力手段(41,42)と、を
備えてなることを特徴とする立体画像表示装置。
れ、その変化に基づいて観察者が注視するであろう画像
領域が決定され、その画像領域内にある像の奥行き情報
から立体動画像の奥行きが制御されるので、検出精度の
高い視線検出器を使うことなしに観察者にとって見やす
い立体動画像が得られる。
10実施形態に対応) (構成)前記注視予測領域決定手段は、前記画像変化検
出手段による検出結果に基づいて被検出画像全体の中で
特異な検出結果が得られる特定の部分領域が存在すると
きには当該特定の部分領域を当該注視予測領域として指
定し、特異な検出結果が得られる特定の部分領域が存在
しないときには予め設定した所定領域を当該注視予測領
域として指定するように構成されたものであることを特
徴とする[1]に記載の立体画像表示装置。
が検出され、その領域が注目されるものと予測されるの
で、いろいろなシーン(画像が一部動いている、画像が
一部変化していない、一様に変化する、静止画)にも適
切に対応できる。 [3](第1〜第3実施形態および第5、第6実施形態
に対応)
画像全体を複数の各小領域に分割してなる該複数の各小
領域毎に、画像の経時変化を検出する画像動き量検出手
段を有してなり、且つ前記注視予測領域決定手段は、前
記複数の小領域のうち画像変化検出手段によって検出さ
れる画像の経時変化の値が特異な値を示す小領域を当該
注視予測領域として指定するように構成されたものであ
ることを特徴とする[2]に記載の立体画像表示装置。
を検出し、その領域を注視予測領域と定めるので、いろ
いろなシーン(画像が一部動いている、画像が一部変化
していない)にも適切に対応できる。
数の各小領域に分割してなる該複数の各小領域毎に画像
の経時変化を表わす動きベクトルを検出する動きベクト
ル検出手段を有してなり、且つ、前記注視予測領域決定
手段は、前記複数の小領域のうち前記画像変化検出手段
によって検出される自己の動きベクトルが適用された視
線検出手段によって検出された観察者の視点の動きを表
わす視点動きベクトルに、実質的に等しい小領域を当該
注視予測領域として指定するように構成されたものであ
ることを特徴とする[1]に記載の立体画像表示装置。
段と、画像の変化を検出する手段とから注視領域が検出
されるので、観察者の個人差にも十分適応して注視領域
を決定することができる。
の中で画像の経時変化が認められる変化領域と該経時変
化が認められない無変化領域とに区分する画像領域区分
手段を備えてなり、且つ、前記注視予測領域決定手段
は、上記変化領域と無変化領域とを比較してこれら双方
の領域のうち何れかの領域を当該注視予測領域として指
定するように構成されたものであることを特徴とする
[1]に記載の立体画像表示装置。
領域が分解され、その分解された領域のいずれを注視す
るかが予測されるので、いろいろなシーン(画像が一部
動いている、画像が一部変化していない)にも適切に対
応できる。
発明を以下列挙する。
して(上記記載項目「0041」に対応):上記奥行き
制御手段は、上記奥行きに係る量としての上記被表示立
体画像信号による左眼用画像と右眼用画像との視差を制
御対象とした制御動作を行うものであることを特徴とす
る請求項1記載の立体画像表示装置。
して(上記記載項目「0037」に対応):上記奥行き
制御手段は、上記奥行きに係る量としての上記被表示立
体画像信号による画像に対する視度を制御対象とした制
御動作を行うものであることを特徴とする請求項1記載
の立体画像表示装置。
関して(上記記載項目「0024」に対応):上記画像
変化検出手段は、テンプレート・マッチングを利用した
検出動作を行うものであることを特徴とする請求項3記
載の立体画像表示装置。
段」に関して(図8及び上記記載項目「0031」に対
応):上記画像変化検出手段は、被検出画像全体を複数
の各小領域に分割してなる該複数の各小領域毎に画像の
経時変化を表わす動きベクトルを検出する動きベクトル
検出手段を有してなり、且つ、上記注視予測領域決定手
段は、上記複数の各小領域毎の各動きベクトルが実質的
に一様であるときには、当該画像の中央位置から一つの
上記ベクトルとは逆方向に所定幅だけ変位した位置にあ
る小領域を当該注視予測領域として指定するように構成
されたものであることを特徴とする請求項1記載の立体
画像表示装置。
〜「0058」に対応;上記画像変化検出手段は、被検
出画像全体を複数の各小領域に分割してなる該複数の各
小領域毎に画像の経時変化を表わす動きベクトルを検出
する動きベクトル検出手段を有してなり、且つ、上記注
視予測領域決定手段は、上記複数の各小領域毎複の各動
きベクトルの値のばらつきの分布域を認識し、該分布域
が所定幅以上の広がりを有するときには、この分布域内
の所定領域を逸脱した値を示す動きベクトルに対応する
領域の一又は複数の連なりでなる領域群毎にラベリング
を施し、このラベリングが施された領域群のうちの所定
の一の領域群を当該注視予測領域として指定し、上記分
布域が所定幅以上の広がりを有しないときには、当該画
像内の所定の領域又は当該画像の中央位置から各ベクト
ルの平均値相応の量だけ該ベクトルとは逆方向に変位し
た位置にある小領域を当該注視予測領域として指定する
ように構成されたものであることを特徴とする請求項1
記載の立体画像表示装置。
16及び上記記載項目「0064」〜「0068」に対
応):立体画像を表わす信号の供給を受けるための入力
手段と、上記入力手段により受けた信号による立体画像
を構成する左眼用画像及び右眼用画像の各経時的な変化
を夫々検出する画像変化検出手段と、上記画像変化検出
手段による検出結果に基づいて当該左眼用画像及び右眼
用画像の領域中の各特定の部分領域を夫々観察者が注視
する蓋然性の高い左眼用画像特定領域及び右眼用画像特
定領域として各指定する注視予測領域決定手段と、上記
左眼用画像特定領域及び右眼用画像特定領域の各中心座
標の位置のずれの程度に基づいて視差データを算出する
視差算出手段と、上記視差算出手段により得た視差デー
タに基づいて上記入力手段により受けた信号による立体
画像の奥行きに係る量を制御する奥行き制御手段と、上
記奥行き制御手段によって上記奥行きに係る量が制御さ
れた立体画像を表わす信号を、適用された立体画像表示
手段に被表示立体画像信号として出力し得る出力手段
と、を備えてなることを特徴とする立体画像表示装置。
19及び上記記載項目「0069」〜「0081」に対
応):立体画像を表わす左眼用画像及び右眼用画像の信
号の供給をフィールド又はフレーム順次で受けるように
なされた入力手段と、上記入力手段により受けた信号に
よる立体画像を構成する画像の経時的な変化を、隣接す
るフィールド又はフレーム時間区間での左眼用(右眼
用)画像信号に対する右眼用(左眼用)画像信号を比較
した比較値、及び、この比較に用いた右眼用(左眼用)
画像信号に対する続く左眼用(右眼用)画像信号のを比
較した比較値との両比較値の平均を求めることにより検
出する画像変化検出手段と、上記画像変化検出手段によ
る検出結果に基づいて当該画像のうちの特定の部分領域
を観察者が注視する蓋然性の高い特定領域として指定す
る注視予測領域決定手段と、上記両比較値の差分に基づ
いて視差データを算出する視差算出手段と、上記視差算
出手段により得た視差データに基づいて上記入力手段に
より受けた信号による立体画像の奥行きに係る量を制御
する奥行き制御手段と、上記奥行き制御手段によって上
記奥行きに係る量が制御された立体画像を表わす信号
を、適用された立体画像表示手段に被表示立体画像信号
として出力し得る出力手段と、を備えてなることを特徴
とする立体画像表示装置。
21、図25及び上記記載項目「0082」〜「008
9」、「0098」〜「0100」に対応):立体画像
を表わす信号の供給を受けるための入力手段と、上記入
力手段により受けた信号による立体画像の経時的な変化
を検出する画像変化検出手段と、観察者の視線の方向を
大まかに検出する視線検出手段と、上記画像変化検出手
段による検出結果、及び、視線検出手段による検出結果
に基づいて、画像領域中の特定の部分領域を観察者が注
視する蓋然性の高い領域として指定する注視予測領域決
定手段と、上記注視予測領域決定手段によって指定され
る特定の部分領域内に関して、視距離と輻輳距離とを一
致せしめるための制御動作を行う手段と、を備えてなる
ことを特徴とする立体画像表示装置。
24及び上記記載項目「0090」〜「0097」に対
応):立体画像を表わす信号の供給を受けるための入力
手段と、上記入力手段により受けた信号による立体画像
の周辺部の領域について経時的な変化を検出する画像変
化検出手段と、上記画像変化検出手段による検出結果に
基づいて、上記周辺部の領域についてそのうちの特定の
部分領域が特異な経時的な変化を呈することが検出され
たときにはその特定の部分領域を、又、上記周辺部の領
域について特異な経時的な変化を呈する部分がないこと
が検出されたときには立体画像の中央部の領域を、観察
者が注視する蓋然性の高い領域として指定する注視予測
領域決定手段と、上記注視予測領域決定手段によって指
定される特定の部分領域内に表示される画像の奥行きを
表わす情報を得る奥行き検出手段と、上記検出手段によ
り得た画像の奥行きを表わす情報に基づいて上記入力手
段により受けた信号による立体画像の奥行きに係る量を
制御する奥行き制御手段と、上記奥行き制御手段によっ
て上記奥行きに係る量が制御された立体画像を表わす信
号を、適用された立体画像表示手段に被表示立体画像信
号として出力し得る出力手段と、を備えてなることを特
徴とする立体画像表示装置。
図32及び上記記載項目「0101」〜「0128」に
対応):立体画像を表わす左右のフレーム画像信号の供
給を順次時系列的に受けるための入力手段と、上記入力
手段により受けた順次の左右のフレーム画像信号につい
て各画像に関するエッジ成分を抽出して各エッジ画像を
生成するエッジ画像生成手段と、上記エッジ画像生成手
段により生成された順次のエッジ画像のうち時系列的に
隣接する時間区間に該当する現在の区間のものから先行
する区間のものを差し引いた差分をとることによって第
1の種別の画像を生成し、また、上記現在の区間のエッ
ジ画像から第1の種別の画像を差し引いて第2の種別の
画像を生成し、これら上記第1の種別の画像と第2の種
別の画像についてエッジが特定の領域に集中している度
合いが高い側のものが存在する画面中の部分領域を観察
者が注視する蓋然性の高い領域として指定する注視予測
領域決定手段と、上記注視予測領域決定手段によって指
定される特定の部分領域内に表示される画像の奥行きを
表わす情報を得る奥行き検出手段と、上記検出手段によ
り得た画像の奥行きを表わす情報に基づいて上記入力手
段により受けた信号による立体画像の奥行きに係る量を
制御する奥行き制御手段と、上記奥行き制御手段によっ
て上記奥行きに係る量が制御された立体画像を表わす信
号を、適用された立体画像表示手段に被表示立体画像信
号として出力し得る出力手段と、を備えてなることを特
徴とする立体画像表示装置。
図34及び上記記載項目「0129」〜「0133」に
対応):立体画像を表わす左右のフレーム画像信号の供
給を順次時系列的に受けるための入力手段と、上記入力
手段により受けた順次の左右のフレーム画像信号につい
て各画像に関するエッジ成分を抽出して各エッジ画像を
生成するエッジ画像生成手段と、上記エッジ画像生成手
段により生成された順次のエッジ画像のうち時系列的に
隣接する時間区間に該当する現在の区間のものから先行
する区間のものを差し引いた差分をとることによって第
1の種別の画像を生成し、また、上記現在の区間のエッ
ジ画像から第1の種別の画像を差し引いて第2の種別の
画像を生成し、更にこれら上記第1の種別の画像と第2
の種別の画像について立体画像としての左右画像の視差
を求め、両者の視差のうち所定の規約に該当する方の視
差を観察者が注視する蓋然性の高い領域に係る視差とし
て指定する注視予測領域視差決定手段と、上記入力手段
により受けた信号による立体画像係る視差を、上記注視
予測領域視差決定手段により得た視差に合わせるように
制御する視差制御手段と、上記視差制御手段によって視
差が制御された立体画像を表わす信号を、適用された立
体画像表示手段に被表示立体画像信号として出力し得る
出力手段と、を備えてなることを特徴とする立体画像表
示装置。
図36及び上記記載項目「0134」〜「0142」に
対応):立体画像を表わす左右のフレーム画像信号の供
給を順次時系列的に受けるための入力手段と、上記入力
手段により受けた順次の左右のフレーム画像信号につい
て各画像に関するエッジ成分を抽出して各エッジ画像を
生成するエッジ画像生成手段と、上記エッジ画像生成手
段により生成された各エッジ画像に太線化処理を施して
各太線化エッジ画像を生成する太線化エッジ画像生成手
段と、上記エッジ画像生成手段により生成された順次の
エッジ画像のうちもの同士の2値化データを乗算するこ
とによって画像の静止部分に対応する第1のエッジ画像
を生成し、また、上記太線化エッジ画像生成手段によっ
て生成された時系列的に隣接する時間区間に該当する各
太線化エッジ画像のうち現在の区間の太線化エッジ画像
から先行する区間の太線化エッジ画像を差し引いて画像
の動きの程度に対応した線幅の第2のエッジ画像を生成
し、更にこれら上記第1のエッジ画像と第2のエッジ画
像のうち所定の規約に該当する方の画像が存在する領域
を観察者が注視する蓋然性の高い領域として指定する注
視予測領域決定手段と、上記注視予測領域決定手段によ
って指定される特定の部分領域内に表示される画像の奥
行きを表わす情報を得る奥行き検出手段と、上記検出手
段により得た画像の奥行きを表わす情報に基づいて上記
入力手段により受けた信号による立体画像の奥行きに係
る量を制御する奥行き制御手段と、上記奥行き制御手段
によって上記奥行きに係る量が制御された立体画像を表
わす信号を、適用された立体画像表示手段に被表示立体
画像信号として出力し得る出力手段と、を備えてなるこ
とを特徴とする立体画像表示装置。
及び上記記載項目「0143」〜「0145」に対
応):立体画像を表わす左右のフレーム画像信号の供給
を順次時系列的に受けるための入力手段と、上記入力手
段により受けた順次の左右のフレーム画像信号について
各画像に関するエッジ成分を抽出して各エッジ画像を生
成するエッジ画像生成手段と、上記エッジ画像生成手段
により生成された順次のエッジ画像のうち時系列的に隣
接する時間区間に該当する現在の区間のものから先行す
る区間のものを差し引いた差分をとることによって第1
の種別の画像を生成し、また、上記現在の区間のエッジ
画像から第1の種別の画像を差し引いて第2の種別の画
像を生成し、これら上記第1の種別の画像と第2の種別
の画像についてエッジが特定の領域に集中している度合
いが高い側のものが存在する画面中の部分領域を観察者
が注視する蓋然性の高い領域として指定する注視予測領
域決定手段と、上記注視予測領域決定手段によって指定
される特定の部分領域内に表示される画像の奥行きを表
わす情報を得る奥行き検出手段と、上記検出手段により
得た画像の奥行きを表わす情報に基づいて上記入力手段
により受けた信号による立体画像の奥行きに係る量を制
御する奥行き制御手段と、上記奥行き制御手段によって
上記奥行きに係る量が制御された立体画像を表わす信号
を、適用された立体画像表示手段に被表示立体画像信号
として出力し得る出力手段と、を備えてなり、上記注視
予測領域決定手段、奥行き検出手段、奥行き制御手段、
及び、出力手段のうち何れか一又は複数のものは遅延要
素を利用して該当する処理を実行するように構成された
ものであることを特徴とする立体画像表示装置。
の検出結果に基づいて、観察者が注視するであろう注視
点(画像領域)が予測され、その予測された注視点に存
在する画像の奥行き情報に基づいて立体画像の奥行き制
御が行なわれるので、格別に検出精度の高い視線検出器
を用いなくてもよく、軽量で安価に製作可能な上、極め
て見やすい立体画像を安定に得ることのできる立体画像
表示装置を提供できる。
示装置の構成(概要)を示す図である。
示装置のHMD光学系の構成図である。
示装置の処理動作を示すフロー図である。
示装置の画像処理例を示す図である。
示装置の画像処理例を示す図である。
示装置の画像処理例を示す図である。
示装置の画像処理例を示す図である。
示装置の画像処理例を示す図である。
示装置の注視予測領域決定フロー図である。
表示装置の視差決定法の説明図である。
表示装置の奥行き制御の説明図である。
表示装置の左右表示面の水平位置を説明するための図で
ある。
表示装置の立体画像観察状況を示す図である。
表示装置の画像処理装置内部構成を示すブロック図であ
る。
表示装置の画像処理例を示す図である。
表示装置の画像処理装置内部構成を示すブロック図であ
る。
表示装置の処理動作を示すフロー図である。
表示装置の画像処理例を示す図である。
表示装置の画像処理装置内部構成を示すブロック図であ
る。
表示装置の処理動作を示すフロー図である。
表示装置の画像処理例を示す図である。
表示装置の処理動作を示すフロー図である。
表示装置の画像処理例を示す図である。
表示装置の画像処理装置内部構成を示すブロック図であ
る。
表示装置の画像処理例を示す図である。
表示装置の処理動作を示すフロー図である。
表示装置の画像処理例を示す図である。
表示装置の画像処理例を示す図である。
表示装置の画像処理例を示す図である。
表示装置の画像処理例を示す図である。
表示装置の注視予測領域決定フロー図である。
表示装置の画像処理装置内部構成を示すブロック図であ
る。
置の画像処理例を示す図である。
表示装置の画像処理装置内部構成を示すブロック図であ
る。
表示装置の画像処理例を示す図である。
表示装置の画像処理装置内部構成を示すブロック図であ
る。
像表示装置の画像処理装置内部構成を示すブロック図で
ある。
Claims (5)
- 【請求項1】立体画像を表わす信号の供給を受けるため
の入力手段と、 上記入力手段により受けた信号による立体画像の経時的
な変化を検出する画像変化検出手段と、 上記画像変化検出手段による検出結果に基づいて画像領
域中の特定の部分領域を観察者が注視する蓋然性の高い
領域として指定する注視予測領域決定手段と、 上記注視予測領域決定手段によって指定される特定の部
分領域内に表示される画像の奥行きを表わす情報を得る
奥行き検出手段と、 上記奥行き検出手段により得た画像の奥行きを表わす情
報に基づいて上記入力手段により受けた信号による立体
画像の奥行きに係る量を制御する奥行き制御手段と、 上記奥行き制御手段によって上記奥行きに係る量が制御
された立体画像を表わす信号を、適用された立体画像表
示手段に被表示立体画像信号として出力し得る出力手段
と、を備えてなることを特徴とする立体画像表示装置。 - 【請求項2】上記注視予測領域決定手段は、上記画像変
化検出手段による検出結果に基づいて被検出画像全体の
中で特異な検出結果が得られる特定の部分領域が存在す
るときには該特定の部分領域を当該注視予測領域として
指定し、特異な検出結果が得られる特定の部分領域が存
在しないときには予め設定した所定領域を当該注視予測
領域として指定するように構成されたものであることを
特徴とする請求項1に記載の立体画像表示装置。 - 【請求項3】上記画像変化検出手段は、被検出画像全体
を複数の各小領域に分割してなる該複数の各小領域毎
に、画像の経時変化を検出する画像動き量検出手段を有
してなり、且つ、上記注視予測領域決定手段は、上記複
数の小領域のうち画像変化検出手段によって検出される
画像の経時変化の値が特異な値を示す小領域を、当該注
視予測領域として指定するように構成されたものである
ことを特徴とする請求項2に記載の立体画像表示装置。 - 【請求項4】上記画像変化検出手段は、被検出画像全体
を複数の各小領域に分割してなる該複数の各小領域毎に
画像の経時変化を表わす動きベクトルを検出する動きベ
クトル検出手段を有してなり、且つ、上記注視予測領域
決定手段は、上記複数の小領域のうち上記画像変化検出
手段によって検出される自己の動きベクトルが適用され
た視線検出手段によって検出された観察者の視点の動き
を表わす視点動きベクトルに、実質的に等しい小領域を
当該注視予測領域として指定するように構成されたもの
であることを特徴とする請求項1に記載の立体画像表示
装置。 - 【請求項5】上記画像変化検出手段は、上記被検出画像
全体の中で画像の経時変化が認められる変化領域と該経
時変化が認められない無変化領域とに区分する画像領域
区分手段を備えてなり、且つ、上記注視予測領域決定手
段は、上記変化領域と無変化領域とを比較してこれら双
方の領域のうち何れかの領域を当該注視予測領域として
指定するように構成されたものであることを特徴とする
請求項1に記載の立体画像表示装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14730097A JP3802653B2 (ja) | 1997-05-21 | 1997-05-21 | 立体画像表示装置 |
US09/082,303 US6411326B1 (en) | 1997-05-21 | 1998-05-20 | Stereo image display unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14730097A JP3802653B2 (ja) | 1997-05-21 | 1997-05-21 | 立体画像表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10327432A true JPH10327432A (ja) | 1998-12-08 |
JP3802653B2 JP3802653B2 (ja) | 2006-07-26 |
Family
ID=15427091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14730097A Expired - Fee Related JP3802653B2 (ja) | 1997-05-21 | 1997-05-21 | 立体画像表示装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6411326B1 (ja) |
JP (1) | JP3802653B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002019728A1 (fr) * | 2000-08-28 | 2002-03-07 | Olympus Optical Co., Ltd. | Système d'affichage vidéo |
JP2006140822A (ja) * | 2004-11-12 | 2006-06-01 | Ricoh Co Ltd | 画像表示装置 |
JP2007028439A (ja) * | 2005-07-20 | 2007-02-01 | Ricoh Co Ltd | 画像処理装置、画像処理方法 |
JP2012182746A (ja) * | 2011-03-02 | 2012-09-20 | Olympus Imaging Corp | 画像処理装置、表示装置、撮像装置および画像処理プログラム |
US8947425B2 (en) | 2011-04-04 | 2015-02-03 | Samsung Display Co., Ltd. | Method and apparatus for processing and displaying a three-dimensional image with variable depth effect |
JP2016178655A (ja) * | 2010-08-10 | 2016-10-06 | モノタイプ.イメージング.インコーポレイテッド | マルチビューシーン内のグラフイックス表示 |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW472484B (en) * | 1999-03-09 | 2002-01-11 | Sanyo Electric Co | Method and apparatus for processing camera signals |
EP1089230A3 (en) * | 1999-09-24 | 2008-06-11 | Nippon Telegraph and Telephone Corporation | Method and apparatus for separating background sprite and foreground object and method and apparatus for extracting segmentation mask |
US6606406B1 (en) * | 2000-05-04 | 2003-08-12 | Microsoft Corporation | System and method for progressive stereo matching of digital images |
FI109633B (fi) * | 2001-01-24 | 2002-09-13 | Gamecluster Ltd Oy | Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi |
US6770863B2 (en) * | 2001-10-26 | 2004-08-03 | Agilent Technologies, Inc. | Apparatus and method for three-dimensional relative movement sensing |
JP4231320B2 (ja) * | 2003-03-31 | 2009-02-25 | 本田技研工業株式会社 | 移動体の検出装置 |
JP4179946B2 (ja) * | 2003-08-08 | 2008-11-12 | オリンパス株式会社 | 立体内視鏡装置 |
WO2006030702A1 (ja) * | 2004-09-15 | 2006-03-23 | Sharp Kabushiki Kaisha | 表示装置、視野角制御装置、および電子機器 |
US7391907B1 (en) * | 2004-10-01 | 2008-06-24 | Objectvideo, Inc. | Spurious object detection in a video surveillance system |
WO2006046180A1 (en) * | 2004-10-26 | 2006-05-04 | Koninklijke Philips Electronics N.V. | Disparity map |
US7649148B2 (en) * | 2005-01-21 | 2010-01-19 | Robertshaw Controls Company | Appliance timer mechanism utilizing snap action switching |
JP4339319B2 (ja) * | 2005-09-29 | 2009-10-07 | シャープ株式会社 | 表示装置および電子機器 |
US7919519B2 (en) * | 2005-11-23 | 2011-04-05 | Epix Pharmaceuticals Inc. | S1P receptor modulating compounds and use thereof |
WO2007061458A2 (en) * | 2005-11-23 | 2007-05-31 | Epix Delaware, Inc. | S1p receptor modulating compounds and use thereof |
CA2646469A1 (en) * | 2006-03-21 | 2007-09-27 | Epix Delaware, Inc. | S1p receptor modulating compounds |
US8666661B2 (en) * | 2006-03-31 | 2014-03-04 | The Boeing Company | Video navigation |
US7679641B2 (en) * | 2006-04-07 | 2010-03-16 | Real D | Vertical surround parallax correction |
ATE505454T1 (de) * | 2007-09-20 | 2011-04-15 | Amgen Inc | 1-(4-(4-benzylbenzamid)-benzyl)-azetidin-3- carboxylsäurederivate und entsprechende verbindungen als s1p-rezeptor-modulatoren zur behandlung von immunerkrankungen |
JP5163409B2 (ja) * | 2008-10-03 | 2013-03-13 | ソニー株式会社 | 撮像装置、撮像方法、およびプログラム |
USRE45394E1 (en) | 2008-10-20 | 2015-03-03 | X6D Limited | 3D glasses |
CA2684513A1 (en) * | 2008-11-17 | 2010-05-17 | X6D Limited | Improved performance 3d glasses |
US8542326B2 (en) | 2008-11-17 | 2013-09-24 | X6D Limited | 3D shutter glasses for use with LCD displays |
GB2470402A (en) * | 2009-05-21 | 2010-11-24 | British Broadcasting Corp | Transmitting three-dimensional (3D) video via conventional monoscopic (2D) channels as a multiplexed, interleaved data stream |
TWI422213B (zh) * | 2009-07-29 | 2014-01-01 | Mstar Semiconductor Inc | 影像畫面偵測裝置及其方法 |
US8487981B2 (en) * | 2009-09-04 | 2013-07-16 | Broadcom Corporation | Method and system for processing 2D/3D video |
USD692941S1 (en) | 2009-11-16 | 2013-11-05 | X6D Limited | 3D glasses |
JP5454569B2 (ja) * | 2009-11-18 | 2014-03-26 | 株式会社Jvcケンウッド | 立体映像データ処理装置および立体映像データ処理方法 |
WO2011077177A1 (en) * | 2009-12-22 | 2011-06-30 | Thomson Licensing | Method and apparatus for optimal motion reproduction in stereoscopic digital cinema |
JP5735227B2 (ja) * | 2010-07-16 | 2015-06-17 | ルネサスエレクトロニクス株式会社 | 画像変換装置及び画像変換システム |
JP5499985B2 (ja) | 2010-08-09 | 2014-05-21 | ソニー株式会社 | 表示装置組立体 |
EP2638700A2 (en) * | 2010-11-08 | 2013-09-18 | X6D Ltd. | 3d glasses |
US20130044939A1 (en) * | 2011-08-18 | 2013-02-21 | Ucl Business Plc | Method and system for modifying binocular images |
USD711959S1 (en) | 2012-08-10 | 2014-08-26 | X6D Limited | Glasses for amblyopia treatment |
US9063330B2 (en) | 2013-05-30 | 2015-06-23 | Oculus Vr, Llc | Perception based predictive tracking for head mounted displays |
CN105607253B (zh) * | 2014-11-17 | 2020-05-12 | 精工爱普生株式会社 | 头部佩戴型显示装置以及控制方法、显示系统 |
JP6582403B2 (ja) | 2014-12-10 | 2019-10-02 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
GB2534921B (en) * | 2015-02-06 | 2021-11-17 | Sony Interactive Entertainment Inc | Head-mountable display system |
JP7050067B2 (ja) | 2016-12-14 | 2022-04-07 | サムスン エレクトロニクス カンパニー リミテッド | ディスプレイ装置及びその制御方法 |
CN107422484B (zh) * | 2017-09-19 | 2023-07-28 | 歌尔光学科技有限公司 | 棱镜式ar显示装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2050752B (en) * | 1979-06-07 | 1984-05-31 | Japan Broadcasting Corp | Motion compensated interframe coding system |
KR0151410B1 (ko) * | 1992-07-03 | 1998-10-15 | 강진구 | 영상신호의 운동벡터 검출방법 |
US5644324A (en) * | 1993-03-03 | 1997-07-01 | Maguire, Jr.; Francis J. | Apparatus and method for presenting successive images |
US5579026A (en) * | 1993-05-14 | 1996-11-26 | Olympus Optical Co., Ltd. | Image display apparatus of head mounted type |
EP0888017A2 (en) * | 1993-08-26 | 1998-12-30 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic image display apparatus and related system |
JPH07181424A (ja) * | 1993-12-22 | 1995-07-21 | Canon Inc | 複眼式画像表示装置 |
CN1113320C (zh) * | 1994-02-01 | 2003-07-02 | 三洋电机株式会社 | 将二维图像转换成三维图像的方法以及三维图像显示系统 |
JP2919284B2 (ja) * | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | 物体認識方法 |
JPH0821975A (ja) * | 1994-07-06 | 1996-01-23 | Olympus Optical Co Ltd | 頭部装着型映像表示システム |
TW269094B (en) * | 1994-11-11 | 1996-01-21 | Nitendo Kk | Three dimensional visual image display device and electric game apparatus, memory device thereof |
US5737012A (en) * | 1994-12-01 | 1998-04-07 | Olympus Optical Co., Ltd. | Head mounted image display apparatus and image forming apparatus related thereto |
US5886675A (en) * | 1995-07-05 | 1999-03-23 | Physical Optics Corporation | Autostereoscopic display system with fan-out multiplexer |
US6088006A (en) * | 1995-12-20 | 2000-07-11 | Olympus Optical Co., Ltd. | Stereoscopic image generating system for substantially matching visual range with vergence distance |
JP3476114B2 (ja) * | 1996-08-13 | 2003-12-10 | 富士通株式会社 | 立体表示方法及び装置 |
GB2324428A (en) * | 1997-04-17 | 1998-10-21 | Sharp Kk | Image tracking; observer tracking stereoscopic display |
-
1997
- 1997-05-21 JP JP14730097A patent/JP3802653B2/ja not_active Expired - Fee Related
-
1998
- 1998-05-20 US US09/082,303 patent/US6411326B1/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002019728A1 (fr) * | 2000-08-28 | 2002-03-07 | Olympus Optical Co., Ltd. | Système d'affichage vidéo |
JP2006140822A (ja) * | 2004-11-12 | 2006-06-01 | Ricoh Co Ltd | 画像表示装置 |
JP4507843B2 (ja) * | 2004-11-12 | 2010-07-21 | 株式会社リコー | 画像表示装置 |
JP2007028439A (ja) * | 2005-07-20 | 2007-02-01 | Ricoh Co Ltd | 画像処理装置、画像処理方法 |
JP2016178655A (ja) * | 2010-08-10 | 2016-10-06 | モノタイプ.イメージング.インコーポレイテッド | マルチビューシーン内のグラフイックス表示 |
US10134150B2 (en) | 2010-08-10 | 2018-11-20 | Monotype Imaging Inc. | Displaying graphics in multi-view scenes |
JP2012182746A (ja) * | 2011-03-02 | 2012-09-20 | Olympus Imaging Corp | 画像処理装置、表示装置、撮像装置および画像処理プログラム |
US8947425B2 (en) | 2011-04-04 | 2015-02-03 | Samsung Display Co., Ltd. | Method and apparatus for processing and displaying a three-dimensional image with variable depth effect |
Also Published As
Publication number | Publication date |
---|---|
JP3802653B2 (ja) | 2006-07-26 |
US6411326B1 (en) | 2002-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3802653B2 (ja) | 立体画像表示装置 | |
US9204140B2 (en) | Display device and display method | |
US20110242286A1 (en) | Stereoscopic Camera With Automatic Obstruction Removal | |
US20110193941A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JPH11355808A (ja) | 映像システム | |
JPH07287761A (ja) | 画像処理装置及び画像処理方法 | |
EP0707287B1 (en) | Image processing apparatus and method | |
AU5224001A (en) | Generation of a sequence of stereoscopic images from a seque nce of 2D images | |
CN101674491A (zh) | 用于分析图像数据的设备、方法和计算机程序 | |
CN104977716A (zh) | 目镜型显示装置及其显示控制方法 | |
CN102804792A (zh) | 立体视频处理设备、方法和程序 | |
JP2013239915A (ja) | 映像フォーマット判別装置及び映像フォーマット判別方法、並びに映像表示装置 | |
JP2011199526A (ja) | 被写体の追尾装置およびその動作制御方法 | |
WO2014136144A1 (ja) | 映像表示装置および映像表示方法 | |
KR20170119807A (ko) | 시선의 이동에 따라 변하는 오브젝트의 정보를 연속적으로 표시하는 장치 및 방법 | |
CN111902859B (zh) | 信息处理装置、信息处理方法和程序 | |
JP2849313B2 (ja) | 画像記録再生装置 | |
WO2021106379A1 (ja) | 画像処理装置及び画像処理方法、並びに画像表示システム | |
JPH08331599A (ja) | 時分割方式立体映像信号検出方法、時分割方式立体映像信号検出装置および立体映像表示装置 | |
US9113140B2 (en) | Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector | |
JPH1169384A (ja) | 映像信号種類判別処理装置 | |
JP2014241473A (ja) | 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 | |
JP2016054506A (ja) | 撮像装置、ヒストグラムの表示方法、プログラム、画像処理装置 | |
JPH10108220A (ja) | 2次元映像を3次元映像に変換する装置 | |
KR100434877B1 (ko) | 변이 움직임 벡터를 이용한 스테레오 물체 추적 방법 및장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040519 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060428 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100512 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100512 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110512 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120512 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |