JP5429896B2 - 立体動画による潜在的眼精疲労を測定するシステムおよび方法 - Google Patents

立体動画による潜在的眼精疲労を測定するシステムおよび方法 Download PDF

Info

Publication number
JP5429896B2
JP5429896B2 JP2011509448A JP2011509448A JP5429896B2 JP 5429896 B2 JP5429896 B2 JP 5429896B2 JP 2011509448 A JP2011509448 A JP 2011509448A JP 2011509448 A JP2011509448 A JP 2011509448A JP 5429896 B2 JP5429896 B2 JP 5429896B2
Authority
JP
Japan
Prior art keywords
disparity
image
images
eye strain
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011509448A
Other languages
English (en)
Other versions
JP2011520398A (ja
Inventor
チヤン,ドン−チン
ビー. ベニテス、アナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011520398A publication Critical patent/JP2011520398A/ja
Application granted granted Critical
Publication of JP5429896B2 publication Critical patent/JP5429896B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、一般に、コンピュータ・グラフィックス処理および表示システムに関し、より詳しくは、立体動画などの3次元(3D)プレゼンテーションを見ている観客が感じる潜在的眼精疲労を測定するシステムおよび方法に関する。
立体画像化は、1つのシーンをわずかに異なる視点から撮影した少なくとも2つの画像を視覚的に結合して、3次元の奥行きがあるような錯覚を生じさせるプロセスである。この技術は、人間の両目が互いに少し離れて位置しているために、それぞれの見るシーンが完全には一致していないという事実に依拠している。視聴者のそれぞれの目に異なる視点からの画像を見せることにより、目が錯覚を起こして奥行きを感じる。通常、異なる2つの視点を設けた場合には、コンポーネント画像は、それぞれ「左」画像および「右」画像と呼ばれ、これらはそれぞれ、参照画像および相補画像として知られている。ただし、当業者なら、3つ以上の視点を結合して立体画像を形成することもできることが分かるであろう。
3Dポストプロダクション、VFXワークフロー、および3Dディスプレイの用途において、左目視点画像および右目視点画像からなる立体画像から奥行きマップ(Depth Map)を推測して立体動画を作成することは、重要なプロセスの1つである。例えば、最近商品化された自動立体3Dディスプレイは、イメージ・プラス・デプス・マップ(image−plus−depth−map)の入力フォーマットを必要とするため、このディスプレイは、複数の視角に対応するために異なる3D像を生成することができる。
コンピュータ・ビジョン研究の分野では、立体画像対から奥行きマップを推定するプロセスは、ステレオ・マッチングと呼ばれている。これは、左目視点画像と右目視点画像とにおける対応点を見つけるために、画素マッチングまたはブロック・マッチングが使用されるためである。同じシーンの同じ点に対応するそれらの画像内の2つの画素間の相対距離から、奥行き値が推測される。
ディジタル画像のステレオ・マッチングは、3次元(3D)の奥行き情報を得るために、多くのコンピュータ・ビジョン用途において広く使用されている(例えば、コンピュータ援用ドラフト(CAD)用の高速オブジェクト・モデリングおよびプロトタイピング、ヒューマン・コンピュータ・インタラクション(HCI)用のオブジェクト・セグメンテーションおよび検出、ビデオ圧縮、視覚監視など)。ステレオ・マッチングでは、1つのシーンの画像を、当該シーン中の異なる位置に異なる向きで配置した2つ以上のカメラから取得する。これらのディジタル画像は各カメラからほぼ同時に取得され、空間内の3D点に対応する各画像中の各点のマッチングが行われる。一般に、異なる画像からの各点のマッチングは、それらの画像の一部分をサーチし、1つの画像中の点を別の画像中の点と相関させる制約(エピポーラ制約など)を用いて行われる。その後、マッチングした画像および奥行きマップを利用して、立体3D動画を作成することができる。
現在の立体3D動画の主な問題の1つは、動画をある程度の時間見た後に、観客が眼精疲労を感じることがあることである。従って、監督は、3D映画を製作するときに、観客が感じる眼精疲労が極力小さくなるようにするには、どのようにシーンを撮影したり、フィルムを編集したりすればよいか考慮しなければならない。これが、3D動画の製作が、従来の2D動画の製作に比べてはるかに困難で、時間がかかる理由の1つである。
3D動画を製作する際の課題は、監督または編集者が、観客が感じる潜在的な眼精疲労を視覚的に推定することが極めて困難であることである。この問題の要因はいくつかある。第1に、眼精疲労は動画を見るプロセスの中で生じる蓄積的な効果であるので、監督または編集者は、眼精疲労を感じるようになるだけの長い時間、3D動画を見なければならない。眼精疲労は、通常は、少数のセグメントによって引き起こされることはない。第2に、眼精疲労は、2つのセグメントの間の急激な奥行きの変化によって引き起こされる可能性もある。編集者が、編集中に複数のセグメントを連結するときに、急激な奥行きの変化によって引き起こされる潜在的な眼精疲労を測定することは困難である。編集者が、異なるセグメント同士を連結して、奥行きの変化によって引き起こされる潜在的な眼精疲労を「感じる」ためには、時間のかかる試行錯誤のプロセスを用いる必要がある。
従って、立体動画などの3Dプレゼンテーションを見ている間に感じる潜在的な眼精疲労を測定することができる技術が必要とされている。さらに、3D動画を編集するプロセス中に潜在的な眼精疲労を測定することができる自動のシステムおよび方法も必要とされている。
立体動画などの3Dプレゼンテーションを見ている間に観客が感じる潜在的眼精疲労を測定するシステムおよび方法を提供する。本開示のシステムおよび方法は、3Dプレゼンテーションを見ている間の両目の収束点と焦点との間の距離が、焦点を合わせた物体の奥行きと密接に関係しており、奥行きは、その物体の画素のディスパリティと関係があることを考慮している。本開示の眼精疲労測定システムおよび方法は、3Dプレゼンテーションの立体画像のディスパリティ(または奥行き)およびディスパリティの遷移を測定することに基づいている。本開示の技術は、監督および編集者が、快適な3D映画を効率的に製作するのに有用である。
本開示の一態様によれば、3次元(3D)プレゼンテーションを見ている間の潜在的眼精疲労を測定する方法が提供される。この方法は、第1のセグメントから第1の画像および第2の画像を取得するステップと、第1の画像中の少なくとも1つの点の、第2の画像中の少なくとも1つの対応する点に対するディスパリティを推定するステップと、第1および第2の画像のシーケンスのディスパリティ遷移を推定するステップと、上記ディスパリティと、第1および第2の画像のシーケンスの上記ディスパリティ遷移とに基づいて、3Dプレゼンテーションを見ている間の潜在的眼精疲労を求めるステップとを含んでいる。
他の態様では、ディスパリティ遷移を推定するステップは、以前のセグメントの最後のフレームのディスパリティを推定するステップと、第1のセグメントの最初のフレームのディスパリティを推定するステップと、以前のセグメントの最後のフレームのディスパリティと第1のセグメントの最初のフレームのディスパリティとの間の差を求めるステップとを含む。
一態様では、ディスパリティ遷移を推定するステップは、第1のセグメントの複数のフレームの各フレーム内のディスパリティを推定するステップと、第1のセグメントの複数のフレームの各々のディスパリティの間の差を求めるステップとを含む。
更なる態様では、潜在的眼精疲労を求めるステップは、第1および第2の画像のシーケンスの各フレームの瞬間眼精疲労関数を求めるステップをさらに含む。
さらに他の態様では、潜在的眼精疲労を求めるステップは、第1および第2の画像のシーケンスの各フレームに関する瞬間眼精疲労関数に減衰因子を適用するステップをさらに含む。
他の態様では、潜在的眼精疲労を求めるステップは、第1および第2の画像のシーケンスの各フレームに関する減衰済みの瞬間眼精疲労関数を所定の期間にわたって蓄積するステップをさらに含む。
更なる態様では、潜在的眼精疲労を求めるステップは、蓄積した眼精疲労関数を第1および第2の画像のシーケンスにわたって飽和させるステップをさらに含む。
他の態様では、この方法は、潜在的眼精疲労が許容可能であるかどうかを判定するステップと、潜在的眼精疲労が許容可能でない場合に、第1および第2の画像のディスパリティを補正するステップとをさらに含む。
本開示の他の態様によれば、3次元(3D)プレゼンテーションを見ている間の潜在的眼精疲労を測定するシステムが提供される。このシステムは、セグメントから第1の画像および第2の画像を取得する手段と、第1の画像中の少なくとも1つの点の、第2の画像中の少なくとも1つの対応する点に対するディスパリティを推定するディスパリティ推定器と、第1および第2の画像のシーケンスのディスパリティ遷移を推定するディスパリティ遷移推定器と、上記ディスパリティと、第1および第2の画像のシーケンスの上記ディスパリティ遷移とに基づいて、3Dプレゼンテーションを見ている間に感じる潜在的眼精疲労を求める眼精疲労推定器とを備える。
本開示のさらに他の態様によれば、3次元(3D)プレゼンテーションを見ている間に感じる潜在的眼精疲労を測定する方法ステップを実行するために機械が実行可能な命令のプログラムを実装する、上記機械によって読み取り可能なプログラム記憶装置が提供される。この方法は、第1のセグメントから第1の画像および第2の画像を取得するステップと、第1の画像中の少なくとも1つの点の、第2の画像中の少なくとも1つの対応する点に対するディスパリティを推定するステップと、第1および第2の画像のシーケンスのディスパリティ遷移を推定するステップと、上記ディスパリティと、第1および第2の画像のシーケンスの上記ディスパリティ遷移とに基づいて、3Dプレゼンテーションを見ている間に感じる潜在的眼精疲労を求めるステップとを含む。
本開示の上記その他の特徴、特色および利点について以下に述べるが、以下に述べていないものについても、以下の好ましい実施形態の詳細な説明を添付の図面と関連付けて読むことで明らかになるであろう。
全ての図面を通じて、同じ参照番号は同じ構成要素を指すものとする。
3次元(3D)プレゼンテーションを見ている間の、視聴者または一人の観客の収束点及び焦点を示す図である。 3Dプレゼンテーションを示すために利用される画面より手前に収束点があるときの、収束距離、知覚奥行き、ディスパリティ、および収束角の関係を示す図である。 画面の後方に収束点があるときの、収束距離、知覚奥行き、ディスパリティ、および収束角の関係を示す図である。 本開示の一態様による、3次元(3D)プレゼンテーションを見ている間に感じる眼精疲労を測定するシステムを示す例示的な図である。 本開示の一態様による、3次元(3D)プレゼンテーションを見ている間に感じる眼精疲労を測定する例示的な方法を示す流れ図である。 眼精疲労感の飽和をモデル化するために使用されるシグモイド関数を示す図である。 本開示の一態様による、経時的な眼精疲労測定方程式を示す図である。 本開示の一態様による、瞬間眼精疲労関数および総合眼精疲労測定を示す図である。
図面は、本開示の概念を例示するためのものであり、必ずしも本開示を説明する唯一の可能な構成を示すものではないことを理解されたい。
図面に示す要素は、ハードウェア、ソフトウェア、またはそれらの組合せといった様々な形態で実装することができることを理解されたい。これらの要素は、プロセッサと、メモリと、入出力インタフェースとを備えることができる1つまたは複数の適当にプログラムされた汎用装置において、ハードウェアとソフトウェアとの組合せとして実装されることが好ましい。
本明細書では、本開示の原理を説明する。従って、本明細書に明示的には記述または図示していなくても、本開示の原理を実施し、本開示の趣旨および範囲内に含まれる様々な構成を、当業者なら考案することができることを理解されたい。
本明細書に記載する全ての例および条件に関する表現は、本開示の原理と、当技術分野をさらに進歩させるために発明者が与える概念とを読者が理解するのを助けるという教育的な目的を有するものであり、これらの具体的に列挙した例および条件に限定されないものと解釈されたい。
さらに、本開示の原理、特徴および実施形態ならびに本開示の具体的な実施例について本明細書で述べる全ての記述は、その構造的な均等物と機能的な均等物との両方を含むことを意図している。さらに、これらの均等物には、現在既知の均等物だけでなく、将来開発されるであろう均等物、すなわち、構造に関わらず、同じ機能を実行する将来開発される任意の要素も含まれることを意図している。
従って、例えば、当業者なら、本明細書に示すブロック図が本開示の原理を実施する例示的な回路の概念図を表していることを理解するであろう。同様に、任意のフローチャート、流れ図、状態遷移図、擬似コードなどが、コンピュータ可読媒体中に実質的に表現され、明示される場合もされない場合もあるコンピュータまたはプロセッサによって実行される様々なプロセスを表すことも理解されたい。
図面に示す様々な要素の機能は、専用のハードウェアを使用して、またソフトウェアを実行することができるハードウェアを適当なソフトウェアと関連付けて使用して、実現することができる。プロセッサによってそれらの機能を実現するときには、単一の専用プロセッサで実現することも、単一の共用プロセッサで実現することも、あるいはその一部を共用することもできる複数の個別プロセッサで実施することもできる。さらに、「プロセッサ」または「制御装置」という用語を明示的に用いていても、ソフトウェアを実行することができるハードウェアのみを指していると解釈すべきではなく、ディジタル・シグナル・プロセッサ(DSP)ハードウェア、ソフトウェアを記憶するための読取り専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)および不揮発性記憶装置(ただしこれらに限定されない)を黙示的に含むことがある。
従来の、且つ/または特注のその他ハードウェアも含まれることがある。同様に、図面に示す任意のスイッチも、概念的なものに過ぎない。スイッチの機能は、プログラム論理の動作によっても、専用論理によっても、プログラム制御と専用論理との相互作用によっても、あるいは手作業でも実施することができ、実施する者(implementer)が、コンテクストから適宜判断して特定の技術を選択することができる。
本明細書の特許請求の範囲において、特定の機能を実行する手段として表現されている任意の要素は、例えば、a)当該機能を実行する回路素子の組合せや、b)ファームウェアやマイクロコードなども含めた任意の形態のソフトウェアを、当該ソフトウェアを実行して当該機能を実行する適当な回路と組み合わせたものなども含め、当該機能を実行する任意の態様を含むものとする。特許請求の範囲によって定義される本開示は、記載した様々な手段が実施する機能を、特許請求の範囲が要求する手法で組み合わせることにある。従って、これらの機能を実施することができる任意の手段を、本明細書に示す手段の均等物とみなすものとする。
通常、立体動画は、左目ピクチャ・シーケンスおよび右目ピクチャ・シーケンスからなる。映画の用途では、通常は、3Dプレゼンテーションを見るために観客が3D眼鏡(例えば偏光眼鏡またはシャッター眼鏡)を着用しなければならない。眼鏡を用いない表示の場合には、3D表示の仕組みは違うが、3D知覚の原理は同じである。すなわち、3Dシステムは、左目には左目画像を見せ、右目には右目画像のみを見せる。人間の脳は、これら2つの画像を組み合わせて、3Dのシーンを正しく知覚することができる。しかし、このシステムは、以下に述べる2つの理由から、目の筋肉を疲労させ、眼精疲労を引き起こす可能性がある。
1.両目の収束点と焦点とは異なる。人が本物の3Dのシーンを見るときには、両目の焦点は、収束点とほぼ同じである。しかし、3D映画を見るときには、両目の焦点10は、常に画面12上になければならないのに対し、図1に示すように正しい3Dシーンを知覚するためには、両目の収束点14は、画面12より手前または後方になければならない。この不一致が、目の筋肉を緊張させ、それにより眼精疲労を引き起こす主な要因である。
2.3D動画中のオブジェクトの奥行きの変化。物体の奥行きが変化すると、人の目は、焦点は画面上に維持したまま、正しい3D効果を知覚するために収束点を調節しなければならない。奥行きの変化が頻繁且つ急激である場合には、目は収束点を頻繁に変化させなければならず、その結果として目の筋肉が疲弊することになる。
従って、要約すれば、眼精疲労は、1)両目の収束点と焦点との間の距離(すなわち、図1に示す収束距離16)、2)収束点14の変化、の主に2つの要因によって引き起こされる。従って、眼精疲労を測定するためには、上記の2つの要因を考慮する必要がある。
本開示は、例えば立体動画などの3Dプレゼンテーションを見ている間に観客が感じる潜在的眼精疲労を測定するシステムおよび方法を提供する。本開示の眼精疲労測定システムおよび方法は、ディスパリティ(または奥行き)とディスパリティの遷移とを測定することに基づいている。この解決策は、監督および編集者が、良好且つ快適な3D映画を効率的に製作することに有用である。
本開示のシステムおよび方法は、視聴者の両目の収束点と焦点との間の距離が、3Dプレゼンテーション内で焦点を合わせた物体の奥行きと密接に関係しており、その奥行きは、その物体の画素のディスパリティと関係があることを考慮している。図2は、3Dプレゼンテーションを見ることに関連する変数の関係を示している。収束距離(Cd)16、知覚奥行き(Dp)18、観客距離(Ad)20、収束角(Ca)22、両目間距離(Ed)24、ディスパリティ(Ds)26とすると、以下のような関係があることが分かる。
1.Cd、DpおよびAdの関係:Ad=Cd+Dp
2.Cd、Ds、AdおよびEdの関係:Cd(1/Ds+1/Ed)=Ad/Ed
3.Ca、Ed、AdおよびCdの関係:Ca=2atan(Ed/(2(Ad−Cd)))
これらの関係は、負のディスパリティおよび負の収束距離が認められる限り、図3に示すように収束点が画面の後方にあるときでも成立する。特定の観客について、両目間距離(Ed)24および観客距離(Ad)20は、プレゼンテーションの間一定であるが、収束距離(Cd)16、知覚奥行き(Dp)18、収束角(Ca)22およびディスパリティ(Ds)26は、動画内で変動する。これらの関係に基づき、収束点の計算を、奥行きまたはディスパリティの推定に簡略化することができる。これにより、推定アルゴリズムが簡単になる。ディスパリティ推定アルゴリズムは多数存在するので、眼精疲労推定に従来のディスパリティ測定を利用することができる。
次に図4を参照すると、本開示の一実施形態による例示的なシステムの構成要素が示されている。例えばカメラで撮影したオリジナルのフィルムのネガなどのフィルム・プリント104をスキャンして、例えばCineonフォーマットまたはSMPTE DPXのファイルなどのディジタル・フォーマットにするために、スキャン装置103を備えることができる。スキャン装置103は、例えば、テレシネ、または、例えばビデオ出力を備えたArri LocPro(商標)などの、フィルムからビデオ出力を生成する任意の装置を有していてもよい。あるいは、ポスト・プロダクション・プロセスで得られたファイルまたはディジタル・シネマ106(例えば既にコンピュータで読み取り可能な形態になっているファイル)を、直接使用することもできる。コンピュータで読み取り可能なファイルのソースとしては、AVID(商標)エディタ、DPXファイル、D5テープなどを挙げることができる。
スキャン済みのフィルム・プリントは、例えばコンピュータなどの後処理(ポスト・プロセッシング)装置102に入力される。コンピュータは、1つまたは複数の中央処理装置(CPU)などのハードウェア、ランダム・アクセス・メモリ(RAM)および/または読取専用メモリ(ROM)などのメモリ110、ならびにキーボード、カーソル制御装置(例えばマウスやジョイスティックなど)および表示装置などの1つまたは複数の入出力(I/O)ユーザ・インタフェース112を有する、既知の様々なコンピュータ・プラットフォームのうちの任意のものに実装される。コンピュータ・プラットフォームは、オペレーティング・システムおよびマイクロ命令コードも含む。本明細書で述べる様々なプロセスおよび機能は、オペレーティング・システムを介して実行されるマイクロ命令コードの一部またはソフトウェア・アプリケーション・プログラムの一部(あるいはそれらの組合せ)とすることができる。一実施形態では、ソフトウェア・アプリケーション・プログラムは、プログラム記憶装置に明確に実装され、後処理装置102などの任意の適切な機械にアップロードして実行することができる。さらに、パラレル・ポート、シリアル・ポート、またはユニバーサル・シリアル・バス(USB)など、様々なインタフェースおよびバス構造によって、その他の様々な周辺機器をコンピュータ・プラットフォームに接続することができる。その他の周辺機器としては、追加の記憶装置124およびプリンタ128が挙げられる。プリンタ128は、フィルム126の改訂版、例えば以下に述べる技術の結果として3Dモデル化されたオブジェクトを用いて1つまたは複数のシーンが変更または置換されたフィルムの立体版をプリントするために利用することができる。
あるいは、既にコンピュータで読み取り可能な形態になっているファイル/フィルム・プリント106(例えば外部ハード・ドライブ124に記憶することができるディジタル・シネマなど)を、コンピュータ102に直接入力することもできる。本明細書で使用する「フィルム」という用語は、なお、フィルム・プリントおよびディジタル・シネマの両方を指すことに留意されたい。
ソフトウェア・プログラムは、メモリ110に記憶された、3Dプレゼンテーションを見ている間に観客または視聴者が感じる潜在的眼精疲労を測定する眼精疲労測定および軽減モジュール114を含む。
眼精疲労測定および軽減モジュール114は、第1の画像中の少なくとも1つの点の、第2の画像中の少なくとも1つの対応する点に対するディスパリティを推定し(第1の画像と第2の画像とで立体画像対を生じる)、第1の画像中の上記の少なくとも1つの点それぞれについて、第2の画像中の上記の少なくとも1つの対応する点に対して推定されたディスパリティからディスパリティ・マップを生成するように構成されたディスパリティ推定器116を含む。ディスパリティ推定器118は、第1の画像中の画素と第2の画像中の画素とのマッチングを行うように構成された画素マッチング・コスト関数132と、ディスパリティ推定に平滑性の制約を加える平滑性コスト関数134とを含む。ディスパリティ推定器118は、推定されたディスパリティを最小化する確率伝播アルゴリズムまたは関数136と、確率伝播関数136の速度を上げるために決定性マッチング関数を第1の画像および第2の画像に適用した結果を用いて確率伝播関数136を初期化する動的プログラミング・アルゴリズムまたは関数138とをさらに含む。確率伝播および動的プログラミングは、ディスパリティを求めるための2つの例示的な方法に過ぎず、ディスパリティ推定器116は、その他のディスパリティ推定方法およびアルゴリズムを利用することもできることを理解されたい。
ディスパリティ遷移推定器118は、立体画像のディスパリティの遷移または変化を求めるために備えられている。眼精疲労推定器120は、ディスパリティ推定器118から得られるディスパリティ・マップと、ディスパリティ遷移推定器120から得られる関連する画像のディスパリティ遷移とに基づいて潜在的眼精疲労を推定するために備えられている。
眼精疲労測定および軽減モジュール114は、第1の画像と第2の画像との間のディスパリティを調節して潜在的眼精疲労を軽減するディスパリティ補正器122をさらに含む。ディスパリティ・マップのディスパリティ値を反転することによってディスパリティ・マップを奥行きマップに変換する奥行きマップ生成器123も備えられている。一実施形態では、奥行きマップ生成器123は、以下に述べるように、潜在的眼精疲労を軽減するためにディスパリティ補正器122と協働する。
図5は、本開示の一態様による少なくとも2つの2次元(2D)画像の潜在的眼精疲労を測定する例示的な方法を示す流れ図である。最初に、後処理装置102が、左目像および右目像を有する立体画像対などの、少なくとも2つの2次元(2D)画像を取得する(ステップ202)。後処理装置102は、これらの少なくとも2つの2D画像を、コンピュータで読み取り可能なフォーマットのディジタル・マスタ画像ファイルを得ることによって取得することもできる。ディジタル・カメラを用いて動画像の経時的なシーケンスを取り込むことによって、ディジタル・ビデオ・ファイルを取得することもできる。あるいは、従来のフィルム型カメラによってビデオ・シーケンスを取り込むこともできる。この場合には、スキャン装置103によってフィルムをスキャンする。
フィルムをスキャンする場合でも、既にディジタル・フォーマットになっている場合でも、フィルムのディジタル・ファイルは、例えばフレーム番号やフィルムの先頭からの時間など、フレームの位置に関する指標または情報を含むことになることを理解されたい。ディジタル画像ファイルの各フレームは、例えばI、I、…Iなど、1つの画像を含むことになる。
立体画像は、同じ設定の2つのカメラで撮影することができる。これらのカメラを、同じ焦点距離、同じ焦点高さ、および平行な焦点面を有するように較正するか、あるいは、画像が平行な焦点面を有する2つのカメラで撮影したものであるかのように、既知のカメラ・パラメータに基づいて、それらの画像を歪ませなければならない。この歪ませるプロセスは、カメラの較正およびカメラの調整を含む。較正および調整プロセスでは、立体画像のエピポーラ線を、エピポーラ線が正確にそれらの画像の水平走査線になるように調節する。対応する点の発見はエピポーラ線に沿って行われるので、調整プロセスによって、対応サーチは走査線のみに沿ったサーチに簡略化され、これにより、計算コストが大幅に削減される。対応する点は、同じシーンの点に対応する画像中の画素である。
次に、ステップ204で、ディスパリティ推定器116によって、例えばフレームなどのシーン中のあらゆる点について、ディスパリティ・マップが推定される。全てのシーン点についてのディスパリティが、左目画像と右目画像中の一致する点の相対距離として計算され、すなわち、右目画像と左目画像の中で、同じシーン点に対応する画素が見つけられ。例えば、左目画像中のある点の水平座標がxであり、右目画像中のそれに対応する点の水平座標がx’である場合には、ディスパリティd=x’−xとなる。
ディスパリティ推定の一実施形態では、最初に、画像の立体対が取得される。画素マッチング・コスト関数132の計算および平滑性コスト関数134の計算を含めて、ディスパリティ・コスト関数が計算される。動的プログラミング関数138などの、低コストのステレオ・マッチング最適化を実行して、2つの画像のステレオ・マッチングの初期決定性結果を得る。次いで、低コスト最適化の結果を使用して、確率伝播関数136を初期化して確率伝播関数の速度を上げ、ディスパリティ・コスト関数を最小化する。当技術分野ではその他のディスパリティ推定方法も既知であり、本開示のシステムおよび方法では、それらを利用してもよいことを理解されたい。
ステップ206で、ディスパリティ遷移が求められる。基本的には2種類のディスパリティ遷移が存在する。すなわち、急激である可能性もあるフィルム・セグメント(例えばシーンやショットなど)間のディスパリティ遷移と、大抵は連続的であるフィルム・セグメント(例えばシーンやショットなど)内のディスパリティ遷移である。
セグメント間のディスパリティ遷移は、通常は不連続であり、急激である。従って、このディスパリティ遷移を測定するためには、直前のセグメントの最後のフレームと現在のセグメントの最初のフレームとのディスパリティ・マップが最初に推定される。換言すれば、i番目のセグメントの終端におけるディスパリティ・マップをDとし、(i+1)番目のセグメントの先頭におけるディスパリティ・マップをDi+1とすれば、ディスパリティの差は、
δD=Di+1−D (1)
となる。奥行きの変化の大きさを測定するためには、ディスパリティの差の絶対値が使用される。
|δD|=|Di+1−D| (2)
全体のディスパリティ変化を得るためには、以下の最大ディスパリティ遷移を使用するか、
Figure 0005429896
あるいは、以下の平均ディスパリティ遷移を使用する。
Figure 0005429896
ここで、WおよびHは、ディスパリティ・マップの幅および高さである。
セグメント内のピクチャについては、ディスパリティ遷移は大抵は連続的であるが、短時間内に大きなディスパリティ遷移が起こると、観客の眼精疲労の一因になる。セグメント間のディスパリティ変化と同様に、ディスパリティの差、すなわちδD=Di+1−Dを測定値として使用することができる。ただし、この測定は、セグメントの境界だけで行うのではなく、フレームごとに実行することになる。ここで、複数のフレームにまたがる画素の平均ディスパリティ値ではなく、1つのフレーム内の画素の平均ディスパリティ値が求められ、次いで、連続する各フレーム間の差が計算される。
眼精疲労は、大きなディスパリティおよび/またはディスパリティ変化によって引き起こされる。従って、ステップ208では、ディスパリティ・マップおよびディスパリティ遷移に基づいて眼精疲労が推定される。本開示のシステムおよび方法は、非常に粗い眼精疲労モデルを用いている。このシステムおよび方法では、全てのフレームで眼精疲労をディスパリティおよびディスパリティ変化と関係付ける関数が存在するものと仮定し、また、眼精疲労感はフレームをまたいで蓄積するが、時間とともに指数関数的に減衰すると仮定する。
最初に、ディスパリティによって引き起こされる眼精疲労を、平均のディスパリティ
Figure 0005429896
およびディスパリティ遷移
Figure 0005429896
と関係付ける「瞬間眼精疲労関数」
Figure 0005429896
が存在するものと仮定する。次いで、i番目のフレーム後にディスパリティがゼロに保持される場合には、眼精疲労測定値を、以下の数式で表されるように、減衰モデルとして表すことができる。
Figure 0005429896
ここで、
Figure 0005429896
は、眼精疲労に対するディスパリティの瞬間的な影響をモデル化する関数である。λは、減衰因子である。このモデルでは、画面上のディスパリティがなくなれば(すなわち収束点が焦点になれば)、眼精疲労は急速に解消されると仮定している。なお、セグメント間でディスパリティの急激な変化がある可能性もあるので、関数
Figure 0005429896
は、セグメント内のフレームごとに、及びセグメント間で異なっていてもよく、これが、それらを上記で別々に扱った理由であることに留意されたい。関数
Figure 0005429896
の簡単な例としては、以下に示すような、
Figure 0005429896
Figure 0005429896
との線形結合が挙げられる。
Figure 0005429896
ここで、aおよびbは、重み付け係数であり、セグメント内のディスパリティ遷移ごとに、及びセグメント間で異なる。aおよびbの値は、経験的に決定することができる。
ディスパリティがフレームをまたいで変化し続けているときには、眼精疲労感は、時間とともに蓄積していくことになる。しかし、眼精疲労が永遠に悪化し続けることはないので、経時的な眼精疲労感のフラットアウト効果(flat−out effect)をモデル化するために関数を利用することができる。眼精疲労感の飽和をモデル化するシグモイド関数は、以下の通りである。
S(ES)=1/(1+exp(−ES)) (7)
この関数の形状を、図6に示す。
これらの要素を前提として、フレームiにおける総合的な眼精疲労の測定は、以下のように再帰的に定義することができる。
Figure 0005429896
ここで、ES(t)はi番目のフレームにおける眼精疲労の測定結果であり、tはi番目のフレームの時間であり、λは減衰速度を制御する定数である。この測定の計算は、経時的なシミュレーションによって行うことができる。
図7は、経時的な眼精疲労測定方程式を示す図である。i−t番目のフレームにおける眼精疲労が求められ、exp(−λ t)の減衰因子が眼精疲労測定値に適用される。次いで、その結果が、i番目のフレームの瞬間眼精疲労関数に結合される。結合した結果にシグモイド関数が適用されて、i番目のフレームにおける眼精疲労が求められる。
図8を参照すると、瞬間眼精疲労関数および総合眼精疲労測定が示されている。例えばフレーム1、2などの各フレームにおける曲線は、当該フレームの瞬間眼精疲労関数であり、測定点をまたぐ曲線は、瞬間眼精疲労関数の累積である。図5を再び参照すると、ステップ210で、視聴者が感じる総合的な眼精疲労が許容可能であるかどうかを判定する。一実施形態では、眼精疲労が高すぎるか否かをグラフに従って判定するために、総合眼精疲労測定値を、例えば監督や編集者などのオペレータに対してグラフとして視覚化される。他の実施形態では、補正が必要かどうかを判定するために、総合眼精疲労測定値を所定のしきい値と比較することもできる。例えば、総合眼精疲労測定値を表す曲線が生成され、次いで、その曲線上の各点の値が所定のしきい値と比較される。この実施形態では、所定のしきい値は、シーンおよび映画の種々のタイプごとに異なることになる。
眼精疲労が高すぎると判定された場合には、ステップ212で、眼精疲労を軽減するために、立体画像上でディスパリティの補正またはグレーディング(grading)が実行される。グレーディングは、フレーム間でディスパリティを平滑化するプロセスである。フレーム間でディスパリティを平滑化することにより、ディスパリティの急激な変化を緩和することができ、従って、眼精疲労を軽減することができる。ディスパリティを軽減する例示的な方法は、収束調節(convergence adjustment)と呼ばれ、これは、右目画像を左または右にシフトして収束点を調節することによって行われる。右目画像を左または右にシフトすることにより、画素のディスパリティが人工的に減少または増加し、全体の奥行きを減少または増大させることができる。
画像シフトの問題は、3Dシーンの幾何形状と無関係な同じ量だけ、全ての画素の奥行きを増大させることである。しかしながら、正確な奥行きマップを入手できれば、あるシーンの新たな像を新たな仮想カメラ位置と合成して、ディスパリティを軽減することができる。この実施形態では、奥行きマップ生成器123によって、数式z=Bf/dを用いて、上記で求めた各シーン点に関するディスパリティ値dが、当該シーン点からカメラまでの距離である奥行き値zに変換される。ここで、Bは、ベースラインとも呼ばれる2つのカメラの間の距離であり、fは、カメラの焦点距離である。例えば左目画像である、少なくとも1つの画像の各々の奥行き値は、奥行きマップに記憶されている。新たな像を合成するために奥行きマップの奥行き値が相応に変更される一方で、画像のディスパリティが低減する。例えば、新たな像を生成するためには、最初に、奥行き値が変更され、次いで、新たな左または右(あるいはその両方)の画像が再レンダリングされる。再レンダリング・プロセスでは、左(または右)の画像および奥行きマップを使用して、新たな右(または左)の画像を作成する。奥行き値は画素の3D情報であり、従って、レイ・トレーシング(ray−tracing)などの、3D点を新たな像内の2D画素にレンダリングする技術を使用することができる。新たな像は、ディスパリティまたはディスパリティ遷移が小さくなっており、従って、視聴者または観客に与える眼精疲労を軽減する。
次に図4を参照すると、対応する画像および関連する奥行きマップは、例えば記憶装置124に記憶され、そこから取り出して3D再生することができる。さらに、動画またはビデオ・クリップの全ての補正済み画像を、関連する奥行きマップとともに、当該動画またはクリップの立体版を表す単一のディジタル・ファイル130内に記憶することができる。ディジタル・ファイル130は、後に取り出して、例えばオリジナル・フィルムの立体版をプリントするために、記憶装置124に記憶しておくこともできる。
本明細書では、本開示の教示を組み込んだ実施形態を図示し、詳細に説明したが、当業者なら、これらの教示を依然として組み込んでいる多数の他の様々な実施形態を容易に考案することができる。3Dプレゼンテーションを見ている間に感じる潜在的眼精疲労を測定するシステムおよび方法の好ましい実施形態について述べたが(これらは限定的なものではなく、例示を目的としたものである)、当業者なら、上記の教示に照らして様々な変更および改変を行うことができることに留意されたい。従って、添付の特許請求の範囲に概説する本開示の範囲内に含まれる様々な変更を、上記に開示した本開示の具体的な実施形態において行うことができることを理解されたい。

Claims (14)

  1. 3次元(3D)プレゼンテーションを見ている間の潜在的眼精疲労を測定する方法であって、
    画像のシーケンスにおける第1の画像および第2の画像を取得するステップであって、各画像は左目像と右目像とを含んでいる、該ステップと
    前記第1の画像及び第2の画像の前記左目像中の少なくとも1つの点の、前記第1の画像及び前記第2の画像の前記右目像中の少なくとも1つの対応する点に対するディスパリティを推定するステップと、
    第1および第2の画像の前記シーケンスのディスパリティ遷移を推定するステップと、
    前記ディスパリティと、前記第1および第2の画像の前記シーケンスの前記ディスパリティ遷移とに基づいて、前記3Dプレゼンテーションを見ている間の潜在的眼精疲労を求めるステップとを含む、前記方法。
  2. 前記ディスパリティ遷移を推定する前記ステップが、
    以前のセグメントの最後のフレームのディスパリティを推定するステップと、
    1のセグメントの最初のフレームのディスパリティを推定するステップと、
    前記以前のセグメントの前記最後のフレームの前記ディスパリティと前記第1のセグメントの前記最初のフレームの前記ディスパリティとの間の差を求めるステップと、をさらに含む、請求項1に記載の方法。
  3. 前記ディスパリティ遷移を推定するステップが、
    1のセグメントの複数のフレームの各フレーム内のディスパリティを推定するステップと、
    前記第1のセグメントの前記複数のフレームの各々の前記ディスパリティの間の差を求めるステップと、をさらに含む、請求項1に記載の方法。
  4. 潜在的眼精疲労を求める前記ステップが、
    第1および第2の画像のシーケンスの各フレームに関する瞬間眼精疲労関数を求めるステップと、
    第1および第2の画像の前記シーケンスの各フレームに関する前記瞬間眼精疲労関数に減衰因子を適用するステップと、
    第1および第2の画像の前記シーケンスの各フレームに関する減衰済みの瞬間眼精疲労関数を所定の期間にわたって蓄積するステップと、
    前記蓄積した眼精疲労関数を第1および第2の画像の前記シーケンスにわたって飽和させるステップと、
    をさらに含む、請求項1に記載の方法。
  5. 前記潜在的眼精疲労が許容可能であるかどうかを判定するステップと、
    前記潜在的眼精疲労が許容可能でない場合に、前記第1および第2の画像のディスパリティを補正するステップと、をさらに含む、請求項1に記載の方法。
  6. 前記補正するステップが、前記第1および第2の画像の少なくとも1つをシフトして、前記第1および第2の画像に関連する視聴者の目の収束点を調節するステップをさらに含む、請求項に記載の方法。
  7. 前記補正するステップが、ディスパリティが低減された1のセグメントの新たな像を合成するステップをさらに含む、請求項に記載の方法。
  8. 3次元(3D)プレゼンテーションを見ている間の潜在的眼精疲労を測定するシステムであって、
    画像のシーケンスにおける第1の画像および第2の画像を取得する手段であって、各画像は左目像と右目像とを含んでいる、該手段と
    前記第1の画像及び第2の画像の前記左目像中の少なくとも1つの点の、前記第1の画像及び前記第2の画像の前記右目像中の少なくとも1つの対応する点に対するディスパリティを推定するディスパリティ推定器と、
    第1および第2の画像の前記シーケンスのディスパリティ遷移を推定するディスパリティ遷移推定器と、
    前記ディスパリティと、前記第1および第2の画像の前記シーケンスの前記ディスパリティ遷移とに基づいて、前記3Dプレゼンテーションを見ている間の潜在的眼精疲労を求める眼精疲労推定器とを備える、前記システム。
  9. 前記ディスパリティ遷移推定器が、以前のセグメントの最後のフレームのディスパリティを推定し、1のセグメントの最初のフレームのディスパリティを推定し、前記以前のセグメントの前記最後のフレームの前記ディスパリティと前記第1のセグメントの前記最初のフレームの前記ディスパリティとの間の差を求めるように動作する、請求項に記載のシステム。
  10. 前記ディスパリティ遷移推定器が、前記セグメントの複数のフレームの各フレーム内のディスパリティを推定し、1のセグメントの前記複数のフレームのそれぞれの前記ディスパリティの間の差を求めるように動作する、請求項に記載のシステム。
  11. 前記眼精疲労推定器が、第1および第2の画像のシーケンスの各フレームに関する瞬間眼精疲労関数を求め、第1および第2の画像の前記シーケンスの各フレームに関する前記瞬間眼精疲労関数に減衰因子を適用し、第1および第2の画像の前記シーケンスの各フレームに関する減衰済みの瞬間眼精疲労関数を所定の期間にわたって蓄積し、かつ第1および第2の画像の前記シーケンスの各フレームに関する前記瞬間眼精疲労関数に減衰因子を適用するように動作する、請求項に記載のシステム。
  12. 前記眼精疲労推定器が前記潜在的眼精疲労が許容可能でないと判定した場合に、前記第1および第2の画像のディスパリティを補正するように動作するディスパリティ補正器をさらに備える、請求項に記載のシステム。
  13. 前記ディスパリティ補正器が、前記第1および第2の画像の少なくとも1つをシフトして、前記第1および第2の画像に関連する視聴者の目の収束点を調節するように動作する、請求項1に記載のシステム。
  14. 前記ディスパリティ補正器が、ディスパリティが低減された第1のセグメントの新たな像を合成するように動作する、請求項1に記載のシステム。
JP2011509448A 2008-05-12 2008-05-12 立体動画による潜在的眼精疲労を測定するシステムおよび方法 Expired - Fee Related JP5429896B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/006036 WO2009139740A1 (en) 2008-05-12 2008-05-12 System and method for measuring potential eyestrain of stereoscopic motion pictures

Publications (2)

Publication Number Publication Date
JP2011520398A JP2011520398A (ja) 2011-07-14
JP5429896B2 true JP5429896B2 (ja) 2014-02-26

Family

ID=39870649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011509448A Expired - Fee Related JP5429896B2 (ja) 2008-05-12 2008-05-12 立体動画による潜在的眼精疲労を測定するシステムおよび方法

Country Status (7)

Country Link
US (1) US8787654B2 (ja)
EP (1) EP2274920B1 (ja)
JP (1) JP5429896B2 (ja)
KR (1) KR101518531B1 (ja)
CN (1) CN102027752B (ja)
CA (1) CA2723627C (ja)
WO (1) WO2009139740A1 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0911016B1 (pt) * 2008-07-24 2021-01-05 Koninklijke Philips N.V. método de provisão de um sinal de imagem tridimensional, sistema de provisão de sinal de imagem tridimensional, sinal que contém uma imagem tridimensional, mídia de armazenamento, método de renderização de uma imagem tridimensional, sistema de renderização de imagem tridimensional para renderizar uma imagem tridimensional
US8330802B2 (en) * 2008-12-09 2012-12-11 Microsoft Corp. Stereo movie editing
US20110050857A1 (en) * 2009-09-03 2011-03-03 Electronics And Telecommunications Research Institute Apparatus and method for displaying 3d image in 3d image system
JP5361618B2 (ja) * 2009-09-04 2013-12-04 キヤノン株式会社 画像処理装置及びその制御方法
WO2011081646A1 (en) * 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
JP5387399B2 (ja) * 2009-12-28 2014-01-15 ソニー株式会社 情報処理装置および情報処理方法
WO2011080878A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 画像再生装置及び表示装置
JP5505881B2 (ja) * 2010-02-02 2014-05-28 学校法人早稲田大学 立体映像制作装置およびプログラム
JP5444452B2 (ja) 2010-03-05 2014-03-19 パナソニック株式会社 立体撮像装置および立体撮像方法
US9128367B2 (en) * 2010-03-05 2015-09-08 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
JP5432365B2 (ja) 2010-03-05 2014-03-05 パナソニック株式会社 立体撮像装置および立体撮像方法
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
KR101682205B1 (ko) * 2010-05-03 2016-12-05 삼성전자주식회사 입체영상의 시청피로를 저감하는 장치 및 방법
US20110279651A1 (en) * 2010-05-17 2011-11-17 Texas Instruments Incorporated Method and Apparatus for Auto-Convergence Based on Auto-Focus Point for Stereoscopic Frame
JP5556394B2 (ja) * 2010-06-07 2014-07-23 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
US9406132B2 (en) * 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
JP2012029216A (ja) * 2010-07-27 2012-02-09 Sony Corp 再生装置、再生方法、およびプログラム
JP2012054912A (ja) * 2010-08-02 2012-03-15 Sharp Corp 映像処理装置、表示装置及び映像処理方法
EP2608553A4 (en) * 2010-08-19 2014-04-16 Panasonic Corp STEREOSCOPIC IMAGE RECORDING DEVICE AND STEREOSCOPIC IMAGE RECORDING METHOD
US20130169543A1 (en) * 2010-09-20 2013-07-04 Mediatek Singapore Pte. Ltd. Rendering Apparatuses, Display System and Methods for Rendering Multimedia Data Objects with a Function to Avoid Eye Fatigue
EP2451164B1 (en) * 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
JP5242667B2 (ja) 2010-12-22 2013-07-24 株式会社東芝 マップ変換方法、マップ変換装置及びマップ変換プログラム
KR101796663B1 (ko) 2011-02-07 2017-11-10 삼성전자 주식회사 영상처리장치 및 그 제어방법
US8654181B2 (en) * 2011-03-28 2014-02-18 Avid Technology, Inc. Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence
JP5096643B1 (ja) 2011-05-19 2012-12-12 パナソニック株式会社 輻輳能力判定装置及びその方法
KR20120133951A (ko) * 2011-06-01 2012-12-11 삼성전자주식회사 3d 영상변환장치 그 깊이정보 조정방법 및 그 저장매체
US10805625B2 (en) * 2011-07-05 2020-10-13 Texas Instruments Incorporated Method, system and computer program product for adjusting a stereoscopic image in response to decoded disparities between views of the stereoscopic image
DE102011107765B3 (de) * 2011-07-18 2012-12-06 3Ality Digital Systems, Llc Verfahren zum Glätten von Übergängen zwischen Szenen eines Stereofilms sowie Steuerung oder Regelung mehrerer 3D-Kameras
US9602801B2 (en) 2011-07-18 2017-03-21 Truality, Llc Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
DE102011109301B4 (de) 2011-08-03 2013-05-08 3Ality Digital Systems, Llc Verfahren zum Korrigieren der Zoom-Einstellung und/oder des vertikalen Versatzes von Teilbildern eines Stereofilms sowie Steuerung oder Regelung eines Kamerarigs mit zwei Kameras
JP5982751B2 (ja) 2011-08-04 2016-08-31 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
BR112014003661A2 (pt) * 2011-08-30 2017-03-21 Ericsson Telefon Ab L M ajuste de lado receptor de imagens estereoscópicas
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9014463B2 (en) * 2011-11-25 2015-04-21 Kyungpook National University Industry-Academic Cooperation Foundation System for real-time stereo matching
WO2013102790A2 (en) 2012-01-04 2013-07-11 Thomson Licensing Processing 3d image sequences cross reference to related applications
US9628770B2 (en) * 2012-06-14 2017-04-18 Blackberry Limited System and method for stereoscopic 3-D rendering
US20140063206A1 (en) * 2012-08-28 2014-03-06 Himax Technologies Limited System and method of viewer centric depth adjustment
WO2014049894A1 (ja) * 2012-09-25 2014-04-03 パナソニック株式会社 画像信号処理装置および画像信号処理方法
US9300942B2 (en) * 2012-10-18 2016-03-29 Industrial Technology Research Institute Method and control system for three-dimensional video playback using visual fatigue estimation
US9182817B2 (en) * 2013-03-12 2015-11-10 Intel Corporation Techniques for automated evaluation of 3D visual content
US9483111B2 (en) * 2013-03-14 2016-11-01 Intel Corporation Techniques to improve viewing comfort for three-dimensional content
US20150033157A1 (en) * 2013-07-25 2015-01-29 Mediatek Inc. 3d displaying apparatus and the method thereof
US9736449B1 (en) 2013-08-12 2017-08-15 Google Inc. Conversion of 2D image to 3D video
CN103458259B (zh) * 2013-08-27 2016-04-13 Tcl集团股份有限公司 一种3d视频引起人眼疲劳度的检测方法、装置及系统
CN104146678B (zh) * 2014-08-14 2016-05-04 上海亿保健康管理有限公司 基于智能手机的眼睛疲劳度数据分析方法
CN104284183A (zh) * 2014-09-30 2015-01-14 重庆三峡学院 一种3d帧安全检测方法及装置
KR102350232B1 (ko) * 2014-11-20 2022-01-13 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
CN104398235A (zh) * 2014-12-04 2015-03-11 张晓� 一种眼部疲劳检测仪
CN104967837A (zh) * 2015-06-30 2015-10-07 西安三星电子研究有限公司 用于调整三维显示效果的设备和方法
CN105100773B (zh) * 2015-07-20 2017-07-28 清华大学 立体视频制作方法、立体视图制作方法和制作系统
CN106851246B (zh) * 2017-02-06 2019-08-23 京东方科技集团股份有限公司 用于确定三维图像或视频的视觉疲劳度的方法和设备
CN107277502A (zh) * 2017-08-01 2017-10-20 成都大学 一种测评立体视频视疲劳程度的方法与系统
CN110495895B (zh) * 2019-08-26 2020-04-28 重庆大学 一种基于眼动跟踪的疲劳检测方法与系统
CN112580423A (zh) * 2019-09-30 2021-03-30 托比股份公司 处理用户眼睛的图像的方法、相关联系统和计算机程序
CN111951332B (zh) * 2020-07-20 2022-07-19 燕山大学 基于视线估计和双目深度估计的眼镜设计方法及其眼镜

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JPH1052402A (ja) * 1996-08-09 1998-02-24 Agency Of Ind Science & Technol 視覚疲労検査方法および立体視標呈示装置
JP4149037B2 (ja) * 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
BR0313551B1 (pt) 2002-10-18 2014-04-29 Tetra Laval Holdings & Finance Aparelho para perfurar, estampar e/ou conformar elementos planos
AU2002355052A1 (en) * 2002-11-28 2004-06-18 Seijiro Tomita Three-dimensional image signal producing circuit and three-dimensional image display apparatus
JP4148811B2 (ja) * 2003-03-24 2008-09-10 三洋電機株式会社 立体画像表示装置
JP4121881B2 (ja) * 2003-03-28 2008-07-23 株式会社トプコン 三次元観察状態測定装置及び方法
JP4091532B2 (ja) * 2003-12-18 2008-05-28 株式会社ソフィア 遊技機
JP4046121B2 (ja) * 2005-03-24 2008-02-13 セイコーエプソン株式会社 立体画像表示装置及び方法
KR100739764B1 (ko) * 2005-11-28 2007-07-13 삼성전자주식회사 입체 영상 신호 처리 장치 및 방법
KR101102004B1 (ko) * 2005-12-30 2012-01-04 삼성전자주식회사 3차원 입체 영상에 대한 피로도를 정량화하는 방법 및시스템
US8224067B1 (en) * 2008-07-17 2012-07-17 Pixar Animation Studios Stereo image convergence characterization and adjustment

Also Published As

Publication number Publication date
CA2723627C (en) 2017-01-24
US8787654B2 (en) 2014-07-22
WO2009139740A1 (en) 2009-11-19
CA2723627A1 (en) 2009-11-19
CN102027752B (zh) 2016-02-17
KR20110021875A (ko) 2011-03-04
US20110142309A1 (en) 2011-06-16
JP2011520398A (ja) 2011-07-14
KR101518531B1 (ko) 2015-05-07
EP2274920A1 (en) 2011-01-19
CN102027752A (zh) 2011-04-20
EP2274920B1 (en) 2019-01-16

Similar Documents

Publication Publication Date Title
JP5429896B2 (ja) 立体動画による潜在的眼精疲労を測定するシステムおよび方法
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
JP5425897B2 (ja) 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
CA2668941C (en) System and method for model fitting and registration of objects for 2d-to-3d conversion
EP2618584B1 (en) Stereoscopic video creation device and stereoscopic video creation method
US20070081716A1 (en) 3D image processing apparatus and method
Liu et al. Keystone correction for stereoscopic cinematography
US10504265B2 (en) Methods, systems and tools for 3D animation
CN104980732B (zh) 测量立体运动画面的潜在眼睛疲劳的系统和方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121010

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131128

R150 Certificate of patent or registration of utility model

Ref document number: 5429896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350