JP5592006B2 - 三次元画像処理 - Google Patents

三次元画像処理 Download PDF

Info

Publication number
JP5592006B2
JP5592006B2 JP2013513219A JP2013513219A JP5592006B2 JP 5592006 B2 JP5592006 B2 JP 5592006B2 JP 2013513219 A JP2013513219 A JP 2013513219A JP 2013513219 A JP2013513219 A JP 2013513219A JP 5592006 B2 JP5592006 B2 JP 5592006B2
Authority
JP
Japan
Prior art keywords
image
point
scene
parallax
convergence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013513219A
Other languages
English (en)
Other versions
JP2013533672A (ja
Inventor
ゴマ、セルジウ・アール.
アタナソブ、カリン・エム.
アレックシック、ミリボジェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2013533672A publication Critical patent/JP2013533672A/ja
Application granted granted Critical
Publication of JP5592006B2 publication Critical patent/JP5592006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、一般的には3次元(3D)画像処理に関する。
技術の発展は、より小型で、より高性能な計算装置をもたらした。例えば、現在、様々なポータブルパーソナル計算装置が存在しており、小型で、軽量で、ユーザが持ち運ぶことが簡単な、ポータブル無線電話、携帯情報端末(PDA)、そしてページング装置、のような無線計算装置を含む。多くのこのような無線電話は、ここに組込まれる他のタイプの装置を含む。例えば、無線電話はまた、デジタル静止カメラ、デジタルビデオカメラ、デジタルレコーダ、及びオーディオファイルプレイヤーを含むことができる。また、このような無線電話は、ビデオファイルプレイヤーのようなソフトウェアアプリケーションを含む実行可能な命令を処理することができる。
本願は、2010年5月28日に出願され、「THREE−DIMENSIONAL IMAGE PROCESSING」と題され、その全体において参照によってここに組み込まれた米国仮特許出願第61/349,738号の優先権を主張する。
図1は、メディアファイルの再生中にズーム又はパン命令に応答して適応収束を実行するように構成された3D再生装置を含むシステムの具体的な実施形態のブロック図である。 図2は、画像又はビデオ撮影の間にズーム命令に応答して適応収束を実行するように構成された3D撮像装置を含むシステムの具体的な実施形態のブロック図である。 図3は、画像又はビデオ撮影中のシーン内の被写体の視差を検出するように構成された3D撮像装置の具体的な実施形態の図である。 図4は、図1〜3のシステムのいずれかに含まれることができる3D画像処理システムの具体的な実施形態のブロック図である。 図5Aは、認識された被写体の深さと相互に関連づけられた被写体の視差の説明のための実施形態の図である。 図5Bは、認識された被写体の深さと相互に関連づけられた被写体の視差の説明のための実施形態の図である。 図6は、図1〜3のシステムのいずれかに含まれることができる3D画像処理システムの具体的な実施形態のブロック図である。 図7は、シーンのサブサンプルされたルーマ成分と、そのサブサンプルされたルーマ成分に適用された水平変化検出の結果の具体的な実施形態を図示する図である。 図8Aは、図7のフィルタされた結果におけるローカル水平空間最大値と、図7のシーンのサブサンプルされたルーマ成分における各ローカル水平空間最大値の近傍(neighborhoods)の説明のための実施形態の図である。 図8Bは、図7のフィルタされた結果におけるローカル水平空間最大値と、図7のシーンのサブサンプルされたルーマ成分における各ローカル水平空間最大値の近傍(neighborhoods)の説明のための実施形態の図である。 図9は、シーン内のキーポイントの視差を図示する具体的な説明のための実施形態のヒストグラムである。 図10は、シーンの3D知覚(3D perception)に関する観察距離の影響を図示する具体的な実施形態の図である。 図11は、表示観察距離に依存する視差を図示する説明のための実施形態の図である。 図12は、シーンの3D知覚に関するズーム動作の影響を図示する具体的な実施形態の図である。 図13は、シーン視差及び収束点選択を図示する具体的な説明のための実施形態のヒストグラムである。 図14は、3D画像処理の方法の第1の実施形態のフロー図である。 図15は、3D画像処理の方法の第2の実施形態のフロー図である。 図16は、3D画像処理の方法の第3の実施形態のフロー図である。
3次元(3D)画像処理のシステム及び方法が開示されている。三次元(3D)メディアプレイヤーはシーンに対応する入力データを受信し、3D表示装置に出力データを供給することができる。3Dメディアプレイヤーは、ズームコマンド及びパンコマンドを含むユーザ入力に応答する。3Dメディアプレイヤーは、ユーザ入力に応答するシーンの3Dレンダリングの収束点を決定するように構成された収束制御モジュールを含む。収束点は、シーン毎基準で適応的に決定し得て、表示シーンジオメトリ、観察距離、及びズーム/パンのユーザ入力に従って設定し得る。
3D知覚は、シーンの左画像に現れる被写体を、同じシーンの右画像に現れる対応する被写体と融合(fusing)した結果として、視聴者(viewer)の頭の中で生じることができる。被写体の知覚された深さは、被写体の視差、即ち、左画像と右画像との間の被写体の位置のシフトに基づいている。視差の(左及び右)画像シフトは、3D効果の役割を果たし、正しく扱われない場合には、不快感/頭痛を引き起こすことがある。表示次元及び観察距離(viewing distance)は、視差に影響を与え、補償されない場合には、望ましくない効果を引き起こすことがある。ズーム機能は、3D一式(3D suite)の属性となることがあり、また(リアルタイムで)視差に影響を与える。
視差の制約はユーザの好み(user preferences)に基づいて構成されうる。シーン依存の視差制約は、表示サイズ及び距離及びズーム比に基づいてリアルタイムで導出し得る。シーン視差は測定でき、シーン視差が制約内にある場合には、シーンの収束点は調節し得る。シーン視差が制約内にない場合には、処理は、制約内に視差をもたらすために特別なモードに切り替えてもよい。
特別な処理(3D効果制御)は、表示視角、表示サイズ、視聴者と表示器との間の距離、及びズーム比のうちの1つ以上に依存して使用されてもよい。有効範囲を十分に使用し、ユーザに心地よい3D効果を生成するように考慮がなされる。
人は、ゴースト(二重画像(double images))が現れた後で、ある角度視差(angular disparity)に至るまで、解釈する(融合する)しかない。被写体の知覚された深さは、角度視差に依存するだけである。角度の視差は、スクリーンサイズ、スクリーン解像度及び観察距離の組み合わせに依存する。
図1を参照すると、システムの具体的な説明のための実施形態は、計算装置120に結合されたカメラ電話102のようなポータブル電子装置を含む。具体的な実施形態では、計算装置120は表示装置130に結合されたパーソナルコンピュータである。カメラ電話102は、インタフェースを介して計算装置120に3D画像データ158を提供するように結合される。カメラ電話102は、画像センサペア104、同期特定用途向け集積回路(ASIC)、ビデオフロントエンドコンポーネント108及び外部メモリ114を含む。同期ASICは、同期及びインタフェース機能106を含み、画像センサペア104に応答する。同期及びインタフェース機能106は、画像センサペア104から、第1の画像データと第2の画像データとを含む画像データ150を受信する。ビデオフロントエンドコンポーネント108は、同期ASICに結合され、1つ以上の画像処理機能110及び3Dビデオ符号化機能112を含む。ビデオフロントエンドコンポーネント108は、ビデオ符号化されたデータ156を外部メモリ114に供給する。ビデオフロントエンドコンポーネント108は、カメラ電話102で無線接続及びアプリケーション処理機能を可能にもする移動局モデム.TM(MSM.TM)タイプチップセットのような移動装置チップセットに含まれうる
(移動局モデム及びMSMはクアルコム社の登録商標である)。
計算装置120は、ユーザインタフェースを用いるインハウスプレイヤー126、リアルタイム再生コンポーネント124、及びパーソナルコンピュータ(PC)ハードドライブ122のような記憶装置を含む。リアルタイム再生コンポーネント124は、微細画像アラインメント及び適応収束機能を含む。計算装置120は、3D画像データ158を処理し、3D表示装置130に出力信号166を提供するように構成される。
動作中に、画像は、カメラ電話102内のカメラ装置によって撮影される。撮影された画像は、画像センサペア104によって検出され、シーンに関連する第1及び第2の画像に対応する第1及び第2の画像データ150は、同期ASICに供給される。同期ASICは、自動露光及びホワイトバランスタイプ処理のようなAE機能及びセンサペア104の動作の同期を実行する。同期ASICからの同期及び処理データ152は、ビデオフロントエンドコンポーネント108に提供される。ビデオフロントエンドコンポーネント108は、1つ以上の画像処理機能110を実行し、3Dビデオ符号化モジュール112に、処理データ154を提供する。3Dビデオ符号化モジュール112は、3Dビデオ符号化を提供し、外部メモリ114に格納されることができるビデオ符号化データを含んでいるビデオ符号化された出力ストリーム156を提供する。外部メモリ114からのデータは、出力の接続を介して提供されることができ、3D画像データ158は、計算装置120に対して、送信のために出力されることができる。
計算装置120は、3D画像データ158に応答して、PCハードドライブ122で3D画像データを格納する。3D画像データはPCハードドライブ122から取り出され、入力データ160としてリアルタイム再生コンポーネント124に供給されうる。リアルタイム再生コンポーネント124は、入力データ160に対して微細画像アラインメント及び適応収束処理を実行する。適応収束及び画像アライメント処理は、インハウスプレイヤー126に供給されるさらに処理された画像データ162を生成する。インハウスプレイヤー126は、あるユーザ要求コマンドを実行するためにユーザ入力に応答する。例えば、インハウスプレイヤー126は、ユーザからのズーム又はパンのコマンドに応答する。ユーザコマンドに応答して、インハウスプレイヤー126は、リアルタイム再生コンポーネント124に対して、フィードバックパスを介してズーム/パン制御を示すズーム/パンコマンド164を供給する。画像アライメント及び適応収束モジュール124は、ズーム/パンコマンド164に応答して、ズーム又はパンの動作から生じる認識されたシーンの深さの変化に応答して、適応収束を実行する。
従って、計算装置120は、シーンに対応する第1の画像及びシーンに対応する第2の画像を少なくとも含む入力データを受信するように構成される3Dメディアプレイヤーを含む。例えば、第1の画像と第2の画像は画像センサペア104によって撮影され、3D画像データを生成するために処理されうる。3Dメディアプレイヤーは、3D表示装置に出力データを供給するように構成される。例えば、インハウスプレイヤー126と結合したリアルタイム再生コンポーネント124は、出力データ166を3D表示装置130に供給しうる。3Dメディアプレイヤーは、ズームコマンド及びパンコマンドのうち少なくとも1つを含むユーザ入力に応答する。例えば、リアルタイム再生コンポーネント124は、ズーム/パン制御パスを介して受信された、ズームコマンド又はパンコマンド164のいずれかに反応する適応収束を実行しうる。3Dメディアプレイヤーは、ユーザ入力に応答するシーンの3Dレンダリングの収束点を決定するように構成される。
図2は、画像又はビデオ撮影の間にズーム命令に応答して適応収束を実行するように構成された3D撮像装置202を含むシステムの具体的な実施形態の図である。3D撮像装置202は、画像処理モジュール208に結合された画像センサペア204を含む。ユーザインタフェース装置280、外部記憶装置214及び3Dプレビュー表示装置284は、画像処理モジュール208に結合される。3Dビデオプレイヤー220は、撮像装置202によって供給された3D画像データ258を表示するために3D表示装置230に結合されるものとして図示される。
画像センサペア204は画像データ250を画像処理モジュール208に供給するように構成される。例えば、画像センサペア204は、相補形金属酸化膜半導体(CMOS)型画像センサ又は電荷結合素子(CCD)型画像センサを含めうる。画像センサペア204の各画像センサは、3D撮像装置202によって撮像されるシーンに対応する画像データを同時に撮像しうる。画像データ250は画像センサペア204から読み出され、画像処理モジュール208に供給されうる。具体的な実施形態では、画像センサペア204は、実質的に並列アライメントで設定され、ズーム動作中に回転又は「トゥーイン(toe in)」することが制御可能ではない。
画像処理モジュール208は、図1の同期ASIC及びビデオフロントエンド108に対応しうる。画像処理モジュール208は、同期及びインタフェーシングモジュール206、画像処理関数モジュール210、収束制御モジュールを用いた3D処理240及び3Dビデオ符号化モジュール212を含めうる。同期及びインタフェーシングモジュール206は、画像センサペア204の動作の同期を制御し、画像センサペア204の1つ以上の他のオペレーティングパラメータを制御するための回路を含めうる。
画像処理関数モジュール210は、入力データ252を受信し、かつ色補正、色変換及び雑音低減のような1つ以上の画像処理機能を実行するように構成されうる。例えば、画像処理関数モジュール210は、図1の画像処理機能110を実行し、処理された画像データ270を生成するように構成されうる。
収束制御モジュールを用いた3D処理240は処理された画像データ270によって表わされるシーンの3D特有処理を実行するように構成されうる。収束制御モジュールを用いた3D処理240は、シーン毎基準に収束点処理を実行するように構成されうる。
例えば、収束制御モジュールを用いた3D処理240は、シーンの3Dレンダリングの収束点を決定するように構成されうる。収束制御モジュールを用いた3D処理240は、シーン内の被写体に対応する視差値を決定するように、シーン内の被写体の視差値に基づいて収束点を決定するように構成されうる。収束制御モジュールを用いた3D処理240は、視差値が3Dレンダリングにおいて融合可能(fusable)でない被写体の少なくとも1つとなるかどうかを決定するように構成され、警告は、シーンの3Dビデオ撮像中にシーンが融合可能でないということを装置202のユーザに通知するためにユーザインタフェース装置280にて生成されうる。
収束制御モジュール240を用いた3D処理は、所定の表示ジオメトリに応答しうる。例えば、収束点処理は、シーン内の被写体に対応する視差値に基づいて、さらに所定の表示ジオメトリに基づいて、シーンベースの収束点を調整することを含めうる。シーン毎基準の収束点処理は、3Dビデオ撮像中に画像センサペア204の第1の画像センサと第2の画像センサによって実行されたズーム動作中に収束点の動的な調整を可能にする。
例えば、所定の表示装置ジオメトリは、3Dビデオプレビュー表示器284に対応しうる。代替的に、又は追加的に、所定の装置のジオメトリは、3Dビデオ表示装置に一般的に適用可能でありうる「ジェネリック」又はデフォルトの装置ジオメトリに対応しうる。具体的な実施形態では、複数の所定の装置ジオメトリは、撮像装置202で格納され、所定の表示装置のジオメトリは、ユーザ入力に従って選択される表示ジオメトリに対応する。例えば、ユーザインタフェース装置280は、ユーザが、第1の3Dムービーを記録するときには、第1の表示装置に対応する第1の表示ジオメトリ(例えば3D表示装置230)を選択し、別の3Dムービーを記録するときには、別の表示装置に対応する異なる表示ジオメトリ(図示されず)を選択することを可能にする選択可能なオプションのメニューを提示しうる。
3Dビデオ符号化モジュール212は、収束制御モジュールを用いた3D処理の出力272に基づいて3D出力データ256を生成するように構成された3D符号化モジュールでありうる。例えば、出力272が静止画像に対応するとき、3Dビデオ符号化モジュール212は、3D画像のジョイントフォトグラフィックエキスパートグループ(JPEG)符号化規格に基づいて出力272を符号化するように構成されうる。別の例として、出力272がビデオデータに対応するとき、3Dビデオ符号化モジュールは、3D画像のムービングピクチャエキスパートグループ(MPEG)符号化規格に基づいて出力272を符号化するように構成されうる。3Dビデオ符号化モジュール212は、3Dプレビュー装置284に、外部メモリ214に、又は、両方に供給されうる3Dデータ256を出力しうる。
3Dプレビュー表示装置284は、画像又はビデオ撮影中に3Dシーンをユーザが視ることを可能にするために、画像処理モジュール208から、3Dデータ256を表示しうる。例えば、画像処理モジュール208は、3Dプレビュー表示装置284を介してビデオ撮影中にユーザが視るために、縮小された解像度のビデオデータを生成しうる。
シーン毎基準に適応収束制御を実行することによって、撮像装置202は、3Dビデオ撮影中にズーム機能を可能にしてもよい。例えば、ユーザ入力282は、ズームコマンドを示すユーザインタフェース装置280を介して受信されうる。図10−14についてさらに詳述されるように、別の方法では、ズーム動作に応答して融合可能でなくなるかもしれないシーンは、適応収束制御を使用して適応させることができる。結果、3Dビデオプレイヤー220が再生中に収束点を調整するために3Dビデオを処理することができない場合には、(例えば、撮影中のズームにより)別の方法で、3D表示装置230で融合可能でないであろう3D画像データ258の部分は、むしろ撮像装置202で実行された処理によって融合可能とすることができる。
図3は、画像又はビデオ撮影中にシーン内の被写体の視差を検出するように構成された3D撮像装置302の具体的な実施形態の図である。3D撮像装置302は、画像処理モジュール308に結合された画像センサペア304を含む。画像処理モジュール308は、ユーザインタフェース装置380及び外部メモリ314に結合される。画像処理モジュール308は、同期及びインタフェーシングモジュール306、画像処理関数モジュール310、視差検出モジュール342、及び3Dビデオ符号化モジュール312を含む。
画像センサペア304は画像データ350を画像処理モジュール308に供給するように構成される。同期及びインタフェーシングモジュール306は、画像処理機能モジュール310に、データ352を供給するように構成される。画像処理関数モジュール310は、視差検出モジュール342に、処理された画像データ370を供給するように構成される。3Dビデオ符号化モジュール312は、3Dビデオデータ372を受信し、符号化された3Dビデオデータ356を生成するように構成される。具体的な実施形態では、画像センサペア304、ユーザインタフェース380、外部メモリ314、同期及びインタフェーシングモジュール306、画像処理機能モジュール310及び3Dビデオ符号化モジュール312は、それぞれ、図2の、画像センサペア204、ユーザインタフェース280、外部メモリ214、同期及びインタフェーシングモジュール206、画像処理機能モジュール210及び3Dビデオ符号化モジュール212に対応する。
視差検出モジュール342は、図7乃至9についてさらに詳述されるような、画像センサペア304によって撮像されたシーン内の被写体に対応する視差値を決定するように構成されうる。視差検出モジュール342は、視差値がシーンの3Dレンダリングにおいて融合可能でない被写体の少なくとも1つとなるかどうかを決定するように構成され、また、この場合には、警告382は、シーンの3Dビデオ撮像中にシーンが融合可能でないということを装置302のユーザに通知するためにユーザインタフェース装置380にて生成されうる。具体的な実施形態では、視差検出モジュール342は、シーン特有の被写体検出又はキーポイント検出と、図2の収束制御モジュール240を伴う3D処理の視差決定機能と、を組み込むが、ビデオ撮像中にシーンの収束点を調整するように構成されない。
画像センサペア304は、右センサ(即ち、視聴者の右目によって認識されたシーンと関連づけられる画像を撮影する第1のセンサ)と左センサ(即ち、視聴者の左目によって認識されたシーンと関連づけられる画像を撮影する第2のセンサ)とを含むセンサのペアとして代表的な視点で説明されている。画像データ350は、左センサによって生成された左の画像データ、右センサによって生成された右の画像データを含む。各センサは、水平方向に伸張する感光性コンポーネント(photo-sensitive components)の行と、垂直方向に伸張する感光性コンポーネントの列と、を有するものとして図示されている。左センサ及び右センサは、水平方向に沿って互いに距離dで実質的に整列される。ここで使用されるように、3D画像データ内の「水平」方向は、左画像データ内の同じ被写体の位置と右画像内の被写体の位置との間の移動の方向である。
図4は、図1〜3のシステムのいずれにも含まれる3D画像処理システム440の具体的な実施形態の図である。3D処理システム440は、入力画像データ404を受信し、出力画像データ428を生成するように構成される。3D処理システム440は、較正入力450を介して受信されたカメラ較正パラメータ406と、使用モード入力452を介して受信された使用モードパラメータ408と、に応答しうる。
3D処理システム440は、微細ジオメトリ補償モジュール410、キーポイント検出モジュール412、キーポイント整合モジュール414、3D収束制御モジュール416、3D画像調整モジュール418、そしてスマート3D収束モジュール420、スマート2次元(2D)モジュール422及び別の収束制御モジュール424のうちの1つ又は複数を含む。3D処理システム440は又は、画像クロップ及び境界補正モジュール426を含めうる。具体的な実施形態では、3D処理システム440は、モジュール410〜426の1つ以上について説明されている方法でGPUに入力画像データ404を処理させるように構成されたプログラム命令を実行するグラフィクス処理装置(GPU)によって実装されうる。
ジオメトリ補償モジュール410は、データパス470を介して入力画像データ404を受信し、補償画像データ454を生成するように構成される。ジオメトリ補償モジュール410は、カメラ較正パラメータ406からデータを使用し、そして、3D画像データ404のレンダリングに悪影響を及ぼす、ミスアライメント、収差(aberration)、又は、他の較正の条件を訂正するために、入力画像データ404を調整しうる。説明するために、ジオメトリ補償モジュール410は、較正パラメータ406を調整するために恣意的なグリッドに関して画像データ404の再サンプリングを効率的に実行しうる。
図1の計算装置120のような3D処理システム440が3Dビデオ再生装置で実装される実施形態では、カメラ較正パラメータ406は、例えば3Dビデオデータファイルのヘッダーにおけるような、入力画像データ404と共に受信されうる。3D処理システム440が、例えば図1の撮像装置102、図2の撮像装置202、又は図3の撮像装置302のような撮像装置で実装される実施形態では、カメラ較正パラメータ406は、撮像装置の画像センサペアに対応し、微細ジオメトリ補償モジュール410にアクセス可能なメモリに格納されうる。
キーポイント検出モジュール412は、補償画像データ454を受信するように、また、キーポイント位置データ456を生成するように、構成される。キーポイント検出モジュール412は、補償画像データ454において特徴的な点を識別するように構成される。例えば、特徴的な点は、シーン内の被写体の垂直エッジ、又は、水平方向の高周波数コンポーネントを有するシーンの他の点、に対応しうる。画像データ内のこのような特徴的な要素は「キーポイント」又は「被写体」とここでは呼ばれるが、このような識別された要素は、個々の画素、画素のグループ、部分的な画素部分、他の画像コンポーネント、又はそのいずれの組み合わせに対応しうるということは理解されるべきである。例えば、図7A−図7Bについてさらに説明されるように、キーポイントは、受信された画像データのサブサンプルされたルーマ成分を伴う画素に対応し、垂直エッジ検出フィルタを使用して検出されうる。
キーポイント整合モジュール414は、キーポイント位置データ454を受信するように、また、識別されたキーポイントに対応する視差データ458を生成するように、構成される。キーポイント整合モジュール414は、探索範囲内でキーポイントあたりを探索し、視差ベクトルの信頼性測定を生成するように構成されうる。
3D収束制御モジュール416は、視差データ458を受信するように、また、収束点を示すデータ460を生成するように、構成される。例えば、3D収束制御モジュール416は、表示ジオメトリ、ズーム動作、パン動作、他の表示要因、又はいずれのその組み合わせに基づいて収束点を抽出しうる。3D収束制御モジュール416はまた収束ループを制御しうる。例えば、3D収束制御モジュール416は、シーンのヒストリに基づいて収束点をゆっくりと変更して、シーン変更をスムーズにし、シーン毎の視差における大きなジャンプを防ぐために、有限インパルス応答(IIR)フィルタのようなフィルタを実装しうる。しかしながら、ズーム又はパン動作の表示が使用モード入力452を介して受信されるとき、3D収束制御モジュール416は、視差の大きな変化がズーム又はパン動作に適応することができるように、フィルタの状態リセットを開始しうる。
3D画像調整モジュール418は、収束点を示すデータ460を受信するように、また、画像処理を3D収束調整モジュール420に、スマート3Dモジュール422に、又は、他の収束制御モジュール424に、選択的に命令するように、構成される。例えば、シーン内のキーポイントの視差の範囲が所定の範囲内にあるとき、シーンのキーポイントは融合可能であり、収束点は、第1の画像及び第2の画像のうちの少なくとも1つを第1の画像及び第2の画像の他方に対してシフトすることによって、収束調整モジュール420にて調整されうる。
別の例として、キーポイントの視差の範囲が所定の範囲を超えるとき、処理は、スマート3Dモジュール422にて実行されうる。スマート3Dモジュール422は、第1の画像及び第2の画像のうちの一方を、第1の画像及び第2の画像のうちの他方のシフトされたバージョンと置き換えるように構成されうる。シフト量は、識別されたキーポイントの平均視差又は中央視差に基づいて決定されうる。結果として生じるシーンは、全ての被写体がシーン内の少なくとも幾つかの被写体に適切な深さで認識されるフラットなシーンとして現れうる(即ち、シーン内の被写体間で認識された深さを有さない)。
或いは、キーポイントの視差の範囲が所定の範囲を超えるとき、処理は、他の収束モジュール424にて実行されうる。例えば、他の収束モジュール424は、1つ以上の侵襲的技術(invasive techniques)を使用することによって、例えば、融合可能でないシーン内の被写体を識別し、また、被写体が融合可能であるように再配置するために第1の画像及び第2の画像のうちの少なくとも1つを変更することによって、画像データを調整するように構成されうる。
画像クロップ及び境界補正モジュール426は、融合可能3D画像データ464を受信するように、また、出力3Dデータ428を生成するように、構成されうる。画像クロップ及び境界補正モジュール426は、融合可能3D画像データ464の1つ以上の画像クロップ動作を実行するように構成されうる。画像クロップ及び境界補正モジュール426はさらに、融合可能3D画像データ464に境界補正を実行するように構成されうる。
動作中に、(例えば、微細ジオメトリ補償モジュール410によって)3D画像データ404の微細ジオメトリ補償を含むシーン依存適応収束処理(scene-dependent adaptive convergence process)が実行される。3D画像データ404を撮像した2つのセンサ間の相対的な位置を推定し補償するように設計された較正手順は、(例えば、装置のエンドユーザへの送信の前に)オフラインで実行され、ジオメトリ補償は、3D画像データ404のフレーム毎に実行されうる。
処理は、キーポイント検出(例えばキーポイント検出モジュール412における)を継続する。視差を確実に推定するために使用されることができる、画像の被写体又は画素(キーポイント)のセットが選択される。推定された視差における高い信頼が達成され、必ずしも全てのシーン内の領域又は被写体が使用されない。キーポイントのセットの選択は、適切な解像度(1つ又は複数)を生成するために画像サブサンプリングを含めうる。画像ハイパスフィルタが適用され(例えば、垂直特徴に対応する水平周波数を探すのみ)、続いてフィルタを適用することによって生成された結果の二乗又は絶対値を取る。所定の閾値を超える結果は、起こりうるキーポイントとして識別されうる。キーポイント・プルーニング処理(key points pruning process)は、あるローカル近隣内で最良のキーポイント(例えば、所定の領域内の全てのキーポイントの最大フィルタ結果に対応するキーポイント)を選択するために起こりうるキーポイントに対して実行されうる。
キーポイント整合は、(例えば、キーポイント整合モジュール414において)検出されたキーポイントを使用して実行されうる。第1の画像(例えば、左画像又は右画像)内のキーポイントと第2の画像(例えば、左画像及び右画像のうちの他方)内の対応するエリアとの間の対応が決定されうる。信頼度推定器が生成され、そしてそれは、キーポイント選択と共に、視差推定精度を著しく改善しうる。左画像及び右画像内のキーポイント間でどれだけ整合が近いかを決定することを可能にするために、正規化された相互共分散を使用して、整合が実行されうる。信頼性速度は、正規化された相互共分散に基づいていることがある。具体的な実施形態では、第1の画像内のキーポイントに対応する第2の画像内のキーポイントを見つけるための探索範囲は、センサ較正のための画像補償がすでに実行されているので、水平のみであり、探索範囲は、収束点のまわりのある範囲のみをカバーするように調整され、そしてそれは、微細ジオメトリ補償モジュール410で決定されうる。
3D収束制御(例えば、3D収束制御モジュール416における)は、第1の画像内のキーポイントのセットが第2の画像内の対応するキーポイントのセットに整合された後で実行されうる。視差ヒストグラムスクリーンジオメトリ及びクロップウィンドウサイズのような、十分な統計に基づいて、シーンが3Dでレンダリングされることができるか決定されることができる。シーンが3Dでレンダリングされることができる場合、(例えば、3D収束調整420を介して)水平シフトが適用される。シーンが3Dでレンダリングされることができない場合には、具体的な例として、スマート2D処理、2D−3D処理、又は侵襲的収束制御処理(invasive convergence control processing)のような、幾つかの起こりうるフォールバックのうち1つ又は複数が使用されうる。
シーンが3Dでレンダリングされることができるかを決定するために、キーポイントの選択されたセットの各キーポイントの視差値のヒストグラムが生成されうる。ヒストグラムの一方又は両方のテイルが切り取られてもよい。例えば、視差値の幾つかが誤りであると予期されるとき、シーンが融合可能であるかを決定する信頼度(即ち、視差値の所定の範囲内で調べられる全てのキーポイント視差値)は、考慮されるキーポイント視差値のセットから、最大視差値又は最小視差値のうち1つ以上を取り除くことによって改良されうる。その後、シーンの視差範囲は、ヒストグラムの最小値/最大値によって指定される。
具体的な実施形態では、3D画像処理システム440の少なくとも一部は、図1〜3のシステムの1つ以上で実装されうる。例えば、3D画像処理システム440は、図1の微細画像アライメント及び適応収束モジュール124で実装されうる。別の例として、3D画像処理システム440は、図2の収束制御モジュールを用いた3D処理240内で実装されうる。別の例として、3D画像処理システム440のモジュール410〜416は、図3の視差検出モジュール342で実装されうる。
図1〜4は、3D撮像について使用される画像センサのペアを説明しているが、他の実施形態では、2以上の画像センサが使用されうる。幾つかの実施形態では、図1乃至4で説明されている様々なモジュール及びコンポーネントの1つ又は複数は、専用ハードウェア(即ち回路)として、例えば消去可能プログラマブル読み出し専用メモリ(PROM)型ストレージ、フラッシュメモリ、読み出し専用メモリ(ROM)メモリのような非一時的記憶媒体で格納されるプロセッサ実行可能命令を実行するプロセッサとして、又は、ハードウェアと処理装置(例えば、制御器、汎用プロセッサ、デジタル信号プロセッサ(DSP)、グラフィクス処理装置(GPU)、又はいずれのそれらの組み合わせ)で実行する命令との組み合わせとして実装されうる。
図5A及び図5Bは、認識された被写体の深さと相関された被写体の視差の説明のための実施形態の図である。ステレオ3D表示は、各目504、506に異なる画像を向けることに依存する。その目的は、被写体の視差(水平シフト)が深さと相関されるので、左及び右(L/R)画像から深さの錯覚を再生することである。図5Aは、表示画面524を超えて認識された被写体530に対応する正の視差550を図示する。視差550は、左画像内の被写体の位置520と、右画像内の被写体の位置522との間の距離を示す。オブザーバは、左目504の視野560の線と、右目506の視野562の線と、の交差するところで、被写体530を認識するために、左画像内の被写体530の画像と、右画像内の被写体530の画像と、を融合する。
図5Bは、表示画面524の前面で認識された被写体530に対応する負の視差550を図示する。視差550は、左画像内の被写体の位置520と、右画像内の被写体の位置522との間の距離を示す。オブザーバは、左目504の視野560の線と、右目506の視野562の線と、の交差するところで、表示画面534の前面で、被写体530を認識するために、左画像内の被写体530の画像と、右画像内の被写体530の画像と、を融合する。
2つの目から見た被写体のずれ(displacement)は、深さとして視覚野(visual cortex)によって解釈される。視覚野は、あるずれまで深さとして解釈することができる。画像フュージョンが眼精疲労なく起こることができる範囲[−d1...d2]がある。2つの撮像された画像間の視差は、シーンに依存する。シーン深さ(又は視差範囲)を感知することは、融合可能範囲[−d1...d2]内にフィットするように視差を調整することを許容する。視差は、収束点を変更することによって、例えば画像のうちの1つを他方に水平にシフトすることによって、調節されることができる。
収束点は、左画像及び右画像内のクロップウィンドを水平にシフトすることによって制御されることができる。収束点は、スクリーン上で有効なz範囲(即ち、図1の3D表示装置130の表示画面において有効な深さ範囲)を十分に使用するために、シーン依存でありうる。
適応収束制御のための設計はシーン範囲推定及び収束制御を含むことができる。シーン範囲推定は、収束点制御及び場合によっては侵襲的視差制御(invasive disparity control)のために使用されることができる。収束制御は、画像の視差全てを制御する論理を含めうる。
図6は、図1〜3のシステムのいずれにも含まれることができる3D画像処理システムの具体的な実施形態のブロック図である。シーン範囲推定モジュール602は、適応収束点制御モジュール604にシーン範囲データ620を供給する。適応収束点制御処理の後で、画像データは、水平シフトクロップモジュール606、2Dモジュールへの切り替え、2D−3Dモジュール610、又は侵襲的視差制御モジュール(invasive disparity control module)612によって処理されうる。処理された画像データは、画像データの3D融合可能ストリーム614に含まれうる。
シーン範囲推定モジュール602によって実行されるシーン範囲推定は、左画像と右画像との間の僅かな動きベクトル推定として一般化されうる。シーン範囲推定プロセスは、キー(特徴的な)ポイント識別を含むことができる。垂直変化は、水平シフトのみが存在している(また、測定される)ので必要とされない。水平変化(ある垂直コンポーネントを備えたエッジ)が使用される。幾つかの実施形態では、キーポイントは異なる解像度で検出されうる。シーン範囲推定プロセスはまた、キーポイント整合を含むことができる。キーポイント整合は、光源レベル依存であるために、また、ロバストな視差信頼性メトリックを生成するために、正規の相互共分散を使用して実行されうる。結果、異なる解像度を伴う整合キーポイントは不要であることがある。
図7は、サブサンプルされたルーマ成分に適用された水平変化検出フィルタリング704の結果706とシーン702のサブサンプルされたルーマ成分の具体的な実施形態を図示する図である。シーンのルーマ成分は、説明のための例として、4だけサブサンプルされうる。水平エッジ検出フィルタリング706は、下記によって与えられた応答hを有するフィルタを通してもよい。
Figure 0005592006
結果の絶対値が結果706を生成するために得られることがある。
図8A及び8Bは、図7のフィルタされた結果706におけるローカル水平空間最大値と、図7のシーンのサブサンプルされたルーマ成分における各ローカル水平空間最大値の近傍の説明のための実施形態の図である。図7のフィルタされた結果706を使用して、フィルタされた結果706(ローカルの水平の空間の最大)の潜在的なキーポイントの個々の水平の近傍にある最も高い値は図8Aで図示された選択されたキーポイントを生成するために選択されることがある。
選択されたキーポイント毎に、キーポイントのまわりの近隣が左ルーマ画像から選択され(図8Bで図示される)、右画像の近隣との相関係数は(探索範囲と共に)計算され、相関値がある閾値より確信がある場合には、動きベクトルを保持する(即ち、キーポイントを、信頼性視差を有するものとして扱う)。
収束制御(例えば、図6の収束制御点モジュール604による)は、動きベクトルのヒストグラムを構築することによって実行されうる。図9は、シーン内のキーポイントの視差の具体的な説明のための実施形態のヒストグラムを図示する。(1つ以上の視差値のビンにおける)視差値は、水平軸に沿って図示され、各ビンに対応する視差値を有する選択されたキーポイントの数は、垂直軸に沿って図示される。最大の視差範囲及び所望の収束点はまた、ヒストグラムで図示される。図9は、説明の簡潔さのため、グラフ形式でヒストグラムを図示し、処理の実装は、視差ヒストグラムのグラフ形式を生成することを含まないことがあり、代わりに、表、リスト、配列又は他の構造のようなデータ構造は、視差値に対応するキーポイントのカウントと視差値を関連させるために使用されうる。
ヒストグラムを構築した後、ヒストグラムのテイルはトリムされうる。シーン範囲は、ヒストグラムの最小値と最大値との差異(例えば、ノンゼロサイズを有するヒストグラムの最大視差ビンと、ノンゼロサイズを有するヒストグラム内の最小視差ビンとの間の差異)として推定されうる。最小値と最大値との間の平均、即ち何らかの他の線形結合は、所望のゼロ視差点(収束点)となるであろう。最大の残りの視差は、シーンが融合可能である又は融合可能でないかを決定する。シーンが融合可能でない場合、オプションは、説明のための例として、2Dストリームに切り替わること(左フレームと右フレームを同じにする)、2D−3D変換を実行すること、又は、侵襲的視差制御処理を含む。
視差(左及び右)画像シフトは、3D効果の役割を果たし、正しく扱われない場合、不快感/頭痛を生成する可能性がある。表示次元及び観察距離は、視差に影響を与え、補償されない場合には、望ましくない効果を生成する可能性がある。ズーム機能は、3D一式に対する属性であることができ、また(リアルタイムで)視差に影響を与える。
視差の制約はユーザの優先度に基づいて構成されうる。シーン依存の視差制約は、表示サイズ及び距離及びズーム比に基づいてリアルタイムで導出されることができる。シーン視差は測定されることができ、シーン視差が制約内にある場合には、シーンの収束点は調節されうる。シーン視差が制約内にない場合には、処理は、制約内の視差をもたらすために特別なモードに切り替わることがある。
特別な処理(3D効果制御)は、視差視角、表示サイズ、視聴者と表示との間の距離、及びズーム比のうちの1つ以上に依存して使用されうる。有効範囲を十分に使用し、ユーザにとって十分な3D効果を生成するように考慮されうる。
人は、ゴースト(二重画像(double images))があらわれた後で、ある角度視差に至るまで解釈(融合する)するしかない。被写体の認識された深さは、もっぱら角度の視差に依存しうる。角度の視差は、スクリーンサイズ、スクリーン解像度及び観察距離の組み合わせに依存する。
図10は、シーンの3D知覚に関する観察距離の影響の具体的な実施形態の図である。第1の構成1000は、視聴者1002、スクリーン1008からの第1の距離1018を有する。第1の被写体1004は、シーンの前で知覚され(即ち、負の視差を有し)、第2の被写体1006は、スクリーン1008で知覚され(即ち、ゼロの視差を有し)、第3の被写体1010は、スクリーン1008を超えて認識され(即ち正の視差を有し)、第4の被写体1012は、視差の大きすぎ(too large of a disparity)により融合可能でない。
第2の構成1020では、観察距離1038が増大され、全ての被写体1004、1006、1010、及び1012が融合される。しかしながら、深さのコントラストが縮小される。第3の構成1040では、観察距離1018は、第1の構成1000を整合し、視点スクリーン1008のサイズが縮小される。全ての被写体1004、1006、1010及び1012は融合されるが、深さのコントラストは縮小される。
図11は、表示観察距離に依存する、視差の説明のための実施形態の図である。第1の構成1102は、スクリーン1108の前面からスクリーン1108の背面に伸張する許容されたシーン深さ範囲1110を図示する。第1の位置1116は、最大の許容されたクロス前スクリーン視差(cross-before-screen disparity)を示し、第2の位置1114は、最大のクロス後スクリーン視差(cross-after-screen disparity)を示す。第2の構成1104は、第1の構成1102よりも、スクリーン1108とオブザーバとの間のより小さい観察距離を図示する。許容されたシーン深さの範囲110は、第1の構成1102にあるようにスクリーン1108の前面まで伸張しない。
スクリーン1108上のクロス後スクリーン視差は、目距離(即ち、観察者の目の間の距離)よりも大きくないことがある。この考慮は、より大きな距離のスクリーンについてその方向におけるより少ない角度シフトを残す。第2の構成1104で図示されるように、より近いスクリーンは、眼精疲労に起因する大きなクロス前スクリーン視差を許容しない。このような考慮に基づく具体的な解法は、より近いスクリーンに対するより多くの3D深さ効果と、より遠いスクリーンに対するより多くの3D飛び出し効果(3D pop out effect)を可能にすることを含む。
図12は、シーンの3D知覚に関するズーム動作の影響の具体的な実施形態の図である。第1の構成1200は、スクリーン1208の前面の第1の被写体1214と第2の被写体1204、スクリーン1208における第3の被写体1206、スクリーン1208を超えた第4の被写体1210及び第5の被写体1212を含む1組の被写体を含むシーンを知覚する視聴者1202を含む。
第2の構成1220は、第1の構成1200と同じシーンのズームされた画像を含む。第3の被写体1206及び第4の被写体1210のみが、ズームによりシーンにあらわれる。第4の被写体1210は融合可能でない。
第3の構成1240は、適切なズーム制御を用いた第1の構成1200と同じシーンのズームされた画像を含む。第2の構成1220とは対照的に、第3の被写体1206と第4の被写体1210は融合可能である。第4の被写体1210の視差は、被写体1206と被写体1210との間のシーンの収束点をシフトすることによって融合可能範囲内に縮小されるので、第3の被写体1206は、スクリーン1208の前に現れ、第4の被写体1210は、スクリーン1208を超えて現れる。
表示及びズーム依存性3D効果制御の場合、許容される視差は、値α=0.5°−2°で設定されうる(例えば、設定時間中に指定される)。θdisplayは、視角であり、Dはシーン深さ、即ち、最大(D2)及び最小(D1)視差ベクトル間の差異であり、多数の画素で表される。Wは、画素での画像幅であり、xは、スクリーンからの距離である。取り組まれうる2つの質問は、シーン深さ範囲が融合可能であるかどうか、収束点はどこに配置されるべきか、である。
スクリーン上で見られるであろう角度視差(°)は、(D/W)*θdisplayによって与えられる。視差は、テストされ、α>(D/W)*θdisplayであるとき、融合可能であるよう決定されうる。視差が融合可能である場合、収束点は調節されうる。クロス前スクリーン視差についてはD1、クロス後スクリーン視差についてはD2を使用して、収束点は、C=D1+D*M(X)として選択され、Xは、スクリーンからの距離であり、M()は、0から1の間の単調増加関数である。
図13は、シーン視差と収束点の選択の具体的な説明のための実施形態のヒストラグラムである。視聴者と表示器との間の距離(X)が小さい場合、収束点は、少数の被写体がスクリーンの前面に現れるように設定される。対照的に、距離(X)が大きい場合、収束点は、被写体のうち多くがスクリーンの前面に現れるように設定される。
図1〜13で図示されたシステム及び処理に関連して、適応3D収束は、ビデオ撮像中、再生中、又は双方中に可能にされる。例えば、具体的な実施形態では、図14で図示される方法1400は、それぞれ、図1〜3の装置102、202、及び302のような3D撮像装置にて実行されうる。代替的に、又は、追加的に、方法は、図1の装置120のような3D再生装置にて、又は、図4のコンポーネント410〜426の1つ以上又は図6のコンポーネント602〜614のうち1つ以上を含む別の装置にて実行されうる。
方法は、単一のシーンに対応する第1の画像及び第2の画像を使用して実行されうる。第1の画像は、第1のセンサによってシーンの第1の撮影に対応し、第2の画像は、第2のセンサによってシーンの第2の撮影に対応し、第2の撮影は、1402にて、例えば図1〜3で図示されたセンサペアの1つによって、第1の撮影と実質的に同時に行われる。
第1の点は、1404にて、第1の画像に対応する画像データ内の変化に基づいて、第1の画像内で選択されうる。説明するために、第1の点は、図4のキーポイント検出モジュール412について説明されるように選択されるキーポイント又は被写体でありうる。第2の点は1406にて第2の画像内で配置されうる。第2の点は第1の点に対応しうる。説明するために、第2の点は、図4のキーポイント整合モジュール414について説明されるように配置されうる。
1408にて、第1の点と第2の点との間の距離がシーンの3次元(3D)レンダリングの単一の点として認識されるべき閾値距離を越えるかどうか決定されうる。例えば、第1の点と第2の点との間の距離は、キーポイント又は被写体の視差に対応することができ、視差が閾値を超えるとき(例えば、図13のD1より小さい又はD2より大きい)、又は、許容範囲外にあるとき(例えば、図11の範囲1110に従う範囲)、融合可能でないことがある。説明するために、決定は、図4の3D収束制御モジュール416によって実行されうる。閾値距離を超える第1の点と第2の点との間の距離に応答して、第2の画像は、1410にて第1の画像のシフトされたバージョンと置き換えられうる。そうでなければ、第1の点と第2の点との間の距離が閾値の距離より大きくない場合、第1の点と第2の点は融合可能である。
例えば、変化は、エッジ検出フィルタを第1の画像に対応する画像データに適用し、第1の画像の水平領域内でエッジ検出フィルタを適用することから生じる最大絶対値を見つけることによって識別され、第1の画像は、左画像に対応し、第2の画像は3Dレンダリングの右画像に対応する。例えば、フィルタは、少なくともある垂直コンポーネントを有するエッジを配置するために、図7の水平変化検出フィルタリング704のために使用されるフィルタであることができる。画像データは、図7について説明されているように、第1の画像に対応するサブサンプルされたルーマデータを含めうる。水平方向は、図3について説明されているように、第1の画像に対応する第1の撮像装置と、第2の画像に対応する第2の撮像装置と、の間の方向に対応しうる。
当業者は、方法は、1つ以上のフィールドプログラマブルゲートアレイ(FPGA)装置、1つ以上の特定用途向け集積回路(ASIC)、1つ以上の中央処理装置(CPU)、1つ以上のデジタル信号プロセッサ(DSP)、1つ以上のグラフィックス処理装置(GPU)、1つ以上の制御器、1つ以上の他のハードウェア装置、1つ以上のファームウェア装置、又は、それらのいずれの組み合わせによって実装されることができるということを理解するであろう。さらに、コンピュータ可読媒体は、コンピュータ又は処理装置によって読取り可能であり、コンピュータ又は処理装置に方法の少なくとも1部を実行させるために実行可能であるプログラム命令を凝視する(stare)ことがある。例えば、コンピュータ可読媒体は、第1の画像に対応する画像データ内の変化に基づいて第1の画像内で第1の点を選択するためのコードと、第2の画像内で第2の点を配置するためのコードと、第1の点と第2の点との間の距離が閾値距離を越えるかどうかを決定するためのコードと;を含むフラッシュメモリ、EEPROM、ROM、又は、他の非一時的ストレージを含めうる。
別の実施形態では、図15で図示される方法1500は、それぞれ、図1〜3の装置102、202、及び302のような3D撮像装置にて実行されうる。代替的に、又は、追加的に、方法は、図1の装置120のような3D再生装置にて、又は、図4のコンポーネント410〜426のうち1つ以上又は図6のコンポーネント602〜614のうち1つ以上を含む別の装置にて実行されうる。
方法は1502で第1の画像内で第1の点を選択することを含めうる。方法はまた、1504で、信頼度測定値を使用して、第2の画像の内で第2の点を配置することを含めうる。第2の点は第1の点に対応し、第1の画像と第2の画像は単一のシーンに対応しうる。例えば、第1の点を選択することはキーポイント検出モジュール412で実行され、第2のポイントを配置することはキーポイント整合モジュール414にて実行されうる。信頼測定値は、第1の点を含む第1の画像の第1の領域と第2の点を含む第2の画像の第2の領域との間の正規化された相互共分散に基づいて決定されうる。
例えば、第2の点を配置することは、第1の画像内で第1の点を含む第1の領域を選択することと、第1の領域に対して最も高く決定された相関値を有する第2の画像の第2の領域を選択することと、によって実行されうる。相関決定は、第1の画像と第2の画像のルーマ成分を使用して実行されうる。相関決定は、第1の点の探索範囲内で第2の画像の複数の領域について実行されうる。信頼測定値は、第2の領域に対応し、第2の領域は、信頼測定値が信頼性閾値を超えるかどうかに基づいて第1の領域に対応するものとして識別されうる。
方法はまた、1506で、第1の点と第2の点との間の距離がシーンの3次元(3D)レンダリングの単一の点として認識されるべき閾値距離を越えるかどうかを決定することを含めうる。例えば、決定は、図4の3D収束制御モジュール416によって実行されうる、及び、キーポイント視差が3Dレンダリング中に融合可能でないかどうかに対応しうる。
当業者は、方法は、1つ又は複数のフィールドプログラマブルゲートアレイ(FPGA)装置、1つ又は複数の特定用途向け集積回路(ASIC)、1つ又は複数の中央処理装置(CPU)、1つ又は複数のデジタル信号プロセッサ(DSP)、1つ又は複数のグラフィックス処理装置(GPU)、1つ又は複数の制御器、1つまた複数の他のハードウェア装置、1つ又は複数のファームウェア装置、又は、それらのいずれの組み合わせによって実装されることができるということを理解するであろう。さらに、コンピュータ可読媒体は、コンピュータ又は処理装置によって読取り可能であり、コンピュータ又は処理装置に方法の少なくとも1部を実行させるため実行可能なプログラム命令を凝視する(stare)ことがある。例えば、コンピュータ可読媒体は、第1の画像内で第1の点を選択するためのコードと;第2の画像内で第2の点を、信頼測定値を使用して配置するためのコードと、第1の点と第2の点との間の距離がシーンの3次元(3D)レンダリングの単一の点として認識されるべき閾値距離を越えるかどうかを決定するためのコードと;を含むフラッシュメモリ、EEPROM、ROM、又は、他の非一時的ストレージを含めうる。
別の実施形態では、図16で図示される方法1600は、1602にて、被写体のセットを含む3次元(3D)シーン(例えば、図4のキーポイント検出モジュール412によって、画像内で配置されるキーポイント)は、被写体のセットの各被写体が3Dシーン内で単一の被写体として認識されている状態でシーンの第1の画像とシーンの第2の画像を使用してレンダリングされることができるかどうかを決定すること(例えば、融合可能であると決定される)を含む。方法はまた、1604で、3Dシーンは被写体のセットの各被写体が単一の被写体として認識されている状態でレンダリングされることができるということを決定することに応答して、1606で、被写体のセットの各被写体の視差を視差値の所定の範囲内に存在させるように、シーンの収束点を調整することを含めうる。シーンの収束点を調整することとは、例えば図4の3D収束調整モジュール420によって、被写体のセットの各被写体の視差を変更するために、第1の画像と第2の画像のうち少なくとも1つを、第1の画像と第2の画像の他方に対してシフトすることを含めうる。
方法はまた、例えば、図4のスマート2Dモジュール420について説明されているように、1608で、被写体のセットの各被写体が単一の被写体として認識されている状態で3Dシーンがレンダリングされることができないということを決定することに応答して、第2の画像を第1の画像のシフトされたバージョンと置き換えることを含めうる。
3Dシーンは被写体のセットの各被写体が単一の被写体として認識されている状態でレンダリングされることができるかどうかを決定することは、被写体のセットの被写体毎に、第1の画像内の被写体の第1の位置と、第2の画像内の被写体の第2の位置との間の距離を示す、対応する視差値を生成することを含めうる。視差値の範囲は、図9で図示された最大の視差範囲のような視差値の所定の範囲と比較されうる。視差値の範囲は、視差値の最大値、又は被写体のセットに対応する視差値の最小値を少なくとも除く。例えば、視差値のヒストグラムは生成され、1つ以上の最大値及び/又は最小値が廃棄されることがある。
当業者は、方法は、1つ以上のフィールドプログラマブルゲートアレイ(FPGA)装置、1つ以上の特定用途向け集積回路(ASIC)、1つ以上の中央処理装置(CPU)、1つ以上のデジタル信号プロセッサ(DSP)、1つ以上のグラフィックス処理装置(GPU)、1つ以上の制御器、1つまた複数の他のハードウェア装置、1つ以上のファームウェア装置、又は、それらのいずれの組み合わせによって実装されることができるということを理解するであろう。さらに、コンピュータ可読媒体は、コンピュータ又は処理装置によって読取り可能であり、コンピュータ又は処理装置に方法の少なくとも1部を実行させるために実行可能なプログラム命令を凝視することがある。例えば、コンピュータ可読媒体は、被写体のセットを含む3次元(3D)シーンは、被写体のセットの各被写体が3Dシーン内で単一の被写体として認識されている状態でシーンの第1の画像とシーンの第2の画像を使用してレンダリングされることができるかどうかを決定するためのコードと;3Dシーンは被写体のセットの各被写体が単一の被写体として認識されている状態でレンダリングされることができるということを決定することに応答して、被写体のセットの各被写体の視差を視差値の所定の範囲内に存在させるように、シーンの収束点を調整するためのコードを含むフラッシュメモリ、EEPROM、ROM、又は他の非一時的ストレージを含めうる。
別の実施形態では、装置は、シーンに対応する第1の画像及びシーンに対応する第2の画像を少なくとも含む入力データを受信するように構成され、3D表示装置に出力データを供給するように構成された、三次元(3D)メディアプレイヤーを含む。3Dメディアプレイヤーは、ズームコマンド及びパンコマンドのうち少なくとも1つを含むユーザ入力に応答しうる。3Dメディアプレイヤーは、ユーザ入力に応答するシーンの3Dレンダリングの収束点を決定するように構成された収束制御モジュールを含む。例えば、装置は、図4の3D処理システム440を含めうる。装置は、シングルチップとして、移動装置のためのチップセットのようなチップセットとして、又は、スマートフォン、撮影装置、又は他のタイプの装置のような移動装置として、実装されうる。
収束制御モジュールは、再生中に、シーン毎基準に収束点を調節するように構成されうる。収束制御モジュールは、シーン内の被写体の視差値に基づいて収束点を決定するように構成されうる。収束点は、3D表示装置のサイズ及び解像度、3D表示装置からの観察距離、1つ以上の他の要因、又は、それらのいずれの組み合わせ、のうちの少なくとも1つにさらに基づいて決定されうる。視差値は、3D表示装置の画素単位で決定されうる。
別の実施形態では、装置は、第1の画像センサに対応する第1の画像データと、第2の画像センサに対応する第2の画像データとを含む画像データを受信するように構成される画像処理モジュールを含む。例えば、装置は、図2の装置202、図3の装置302、或いは図4の3D処理システム404のコンポーネントを含めうる別の装置でありうる。画像処理モジュールは、シーンの3Dレンダリングの収束点を決定するように構成された収束制御モジュールを含めうる。画像処理モジュールはまた、収束制御モジュールの出力に基づいて3D出力データを生成するように構成された3D符号化モジュールを含めうる。
収束制御モジュールは、シーン内の被写体の視差値に基づいて収束点を決定するようにさらに構成されてもよく、構成される。収束制御モジュールはまた、視差値が3Dレンダリングにおいて融合可能でない被写体の少なくとも1つとなるかどうかを決定するように構成されうる。例えば、警告は、例えば図3の警告382のような、シーンの3Dビデオ撮像中にシーンは融合可能でないということを装置のユーザに通知するために生成されることができる。
収束制御モジュールは、シーン毎基準に収束点処理を実行するように構成されることができる。収束点処理は、シーン内の被写体に対応する視差値に基づいて、さらに所定の表示ジオメトリに基づいて、シーンベースの収束点を調整することを含めうる。シーン毎基準の収束点処理は、3Dビデオ撮像中に第1の画像センサと第2の画像センサによって実行されたズーム動作中に収束点の動的な調整を可能にすることができる。
装置は、シングルチップとして、移動装置のためのチップセットのようなチップセットとして、又は、スマートフォン、撮影装置、又は他のタイプの装置のような移動装置として、実装されうる。例えば、装置はまた、図2の3Dプレビュー表示装置284のようなビデオプレビュー表示器を含めうる。所定の表示装置ジオメトリは、ビデオプレビュー表示器に対応しうる。代替的に、又は追加的に、装置のジオメトリは、ユーザ入力に従って選択される表示ジオメトリに対応しうる。
ここに開示された実施形態に関して記述された方法又はアルゴリズムのステップは、直接ハードウェアにおいて、プロセッサによって実行されるソフトウェアモジュールにおいて、又は、それらの2つの組み合わせにおいて、具現化されうる。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)メモリ、フラッシュメモリ、読み取り専用メモリ(ROM)、プログラム読取専用メモリ(PROM)、消去可能プログラマブル読取専用メモリ(EPROM)、電子的消去可能プログラマブル読取専用メモリ(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスク読取専用メモリ(CD−ROM)、又は、当技術分野で知られているいずれの他の形の非一時的記憶媒体において存在しうる。例示的な記憶媒体は、プロセッサに結合されるので、プロセッサが記憶媒体から情報を読み取ることができ、また記憶媒体に情報を書き込むことができる。或いは、記憶媒体は、プロセッサに一体化されうる。プロセッサと記憶媒体は、特定用途集積回路(ASIC)において存在しうる。ASICは、計算装置又はユーザ端末において存在しうる。或いは、プロセッサと記憶媒体は、計算装置又はユーザ端末において、ディスクリートコンポーネントとして存在しうる。
開示される実施形態の前の説明は、当業者が開示された実施形態を行う又は使用することを可能にするために提供される。これらの実施形態に対する様々な修正は、当業者にとっては容易に明らかであろう、そして、ここにおいて定義された包括的な原理は、本開示の範囲から逸脱することなく、他の実施形態に適用されうる。従って、本開示は、ここにおいて示される実施形態に限定されるように意図されていないが、特許請求の範囲によって規定されるように原理及び新規な特徴に整合する最も広い範囲が与えられるべきである。
以下に本件出願当初の特許請求の範囲を付記する。
[C1] 第1の画像内で第1の点を、前記第1の画像に対応する画像データ内の変化に基づいて、選択することと、第2の画像内で前記第1の点に対応する第2の点を配置することと、前記第1の画像と前記第2の画像が単一のシーンに対応していて、前記第1の点と前記第2の点との間の距離が前記シーンの3次元(3D)レンダリングの単一の点として認識されるべき閾値距離を越えるかどうかを決定することと、を備える方法。
[C2] 前記変化は、エッジ検出フィルタを前記第1の画像に対応する画像データに適用し、前記第1の画像の水平領域内で前記エッジ検出フィルタを適用することから生じる最大絶対値を見つけることによって識別され、前記第1の画像は、左画像に対応し、前記第2の画像は前記3Dレンダリングの右画像に対応する、[C1]に記載の方法。
[C3] 水平方向は、前記第1の画像に対応する第1の撮像装置と、前記第2の画像に対応する第2の撮像装置と、の間の方向に対応する、[C2]に記載の方法。
[C4] 前記画像データは、前記第1の画像に対応するサブサンプルされたルーマデータを含む、[C2]に記載の方法。
[C5] 前記第1の画像は、第1のセンサによって前記シーンの第1の撮像に対応し、前記第2の画像は、第2のセンサによって前記シーンの第2の撮像に対応し、前記第2の撮像は、前記第1の撮像と実質的に同時に行われる、[C1]に記載の方法。
[C6] 第1の画像内で第1の点を選択することと、第2の画像内で前記第1の点に対応する第2の点を、信頼測定値を使用して、配置することと、前記第1の画像と前記第2の画像は単一のシーンに対応していて、前記第1の点と前記第2の点との間の距離が前記単一のシーンの3次元(3D)レンダリングの単一の点として認識されるべき閾値距離を越えるかどうかを決定することと、を備える方法。
[C7] 前記信頼測定値は、前記第1の点を含む前記第1の画像の第1の領域と前記第2の点を含む前記第2の画像の第2の領域との間の正規化された相互共分散に基づいて決定される、[C6]に記載の方法。
[C8] 前記第2の点を配置することは、前記第1の画像内で前記第1の点を含む第1の領域を選択することと、前記第1の領域に対して最も高く決定された相関値を有する前記第2の画像の第2の領域を選択することと、を含む、[C6]に記載の方法。
[C9] 相関決定は、前記第1の画像と前記第2の画像のルーマ成分を使用して実行される、[C8]に記載の方法。
[C10] 前記相関決定は、前記第1の点の探索範囲内で前記第2の画像の複数の領域について実行される、[C9]に記載の方法。
[C11] 前記信頼測定値は、前記第2の領域に対応し、前記第2の領域は、前記信頼測定値が信頼性閾値を超えるかどうかに基づいて前記第1の領域に対応するものとして識別される、[C8]に記載の方法。
[C12] 被写体のセットを含む3次元(3D)シーンは、前記被写体のセットの各被写体が前記3Dシーン内で単一の被写体として認識されている状態で前記シーンの第1の画像と前記シーンの第2の画像を使用してレンダリングされることができるかどうかを決定することと;
前記3Dシーンは前記被写体のセットの各被写体が前記単一の被写体として認識されている状態でレンダリングされることができるということを決定することに応答して、前記被写体のセットの各被写体の視差を視差値の所定の範囲内に存在させるように、前記シーンの収束点を調整することと;
を備える方法。
[C13] 前記3Dシーンは前記被写体のセットの各被写体が前記単一の被写体として認識されている状態でレンダリングされることができないということを決定することに応答して、前記第2の画像を前記第1の画像のシフトされたバージョンと置き換えること、をさらに備える[C12]に記載の方法。
[C14] 前記3Dシーンは前記被写体のセットの各被写体が前記単一の被写体として認識されている状態でレンダリングされることができるかどうかを決定することは、前記被写体のセットの被写体毎に、前記第1の画像内の前記被写体の第1の位置と、前記第2の画像内の前記被写体の第2の位置との間の距離を示す、対応する視差値を生成することを含む、[C12]に記載の方法。
[C15] 前記3Dシーンは前記被写体のセットの各被写体が前記単一の被写体として認識されている状態でレンダリングされることができるかどうかを決定することは、前記視差値の範囲と、視差値の所定の範囲とを比較することをさらに含む、[C14]に記載の方法。
[C16] 前記視差値の前記範囲は、前記視差値の最大値、又は前記被写体のセットに対応する前記視差値の最小値を少なくとも除く、[C15]に記載の方法。
[C17] 前記シーンの前記収束点を調整することとは、前記被写体のセットの各被写体の前記視差を変更するために、前記第1の画像と前記第2の画像のうち少なくとも1つを、前記第1の画像と前記第2の画像の他方に対してシフトすることを含む、[C12]に記載の方法。
[C18] シーンに対応する第1の画像と、前記シーンに対応する第2の画像と、を少なくとも含む入力データを受信するように構成され、3次元(3D)表示装置に出力データを提供するように構成された3次元(3D)メディアプレイヤー、を備え、前記3Dメディアプレイヤーは、ズームコマンドとパンコマンドのうち少なくとも1つを含むユーザ入力に応答し、前記3Dメディアプレイヤーは、前記ユーザ入力に応答して前記シーンの3Dレンダリングの収束点を決定するように構成された収束制御モジュールを含む、装置。
[C19] 前記収束制御モジュールは、メディアファイルの再生中に、シーン毎基準に前記収束点を調節するように構成される、[C18]に記載の装置。
[C20] 前記収束制御モジュールは、前記シーン内の被写体の視差値に基づいて前記収束点を決定するように構成される、[C18]に記載の装置。
[C21] 前記収束制御モジュールは、さらに前記3D表示装置の解像度及びサイズのうち少なくとも1つに基づいて、前記収束点を決定するように構成される、[C20]に記載の装置。
[C22] 前記収束制御モジュールは、さらに前記3D表示装置からの観察距離に基づいて、前記収束点を決定するように構成される、[C20]に記載の装置。
[C23] 前記視差値は、前記3D表示装置の画素単位で決定される、[C20]に記載の装置。
[C24] 第1の画像センサに対応する第1の画像データと第2の画像センサに対応する第2の画像データとを含む画像データを受信するように構成された画像処理モジュール、を備え、前記画像処理モジュールは、 シーンの3Dレンダリングの収束点を決定するように構成された収束制御モジュールと、 前記収束制御モジュールの出力に基づいて3D出力データを生成するように構成された3D符号化モジュールと、を含む、装置。
[C25] 前記収束制御モジュールは、所定の表示ジオメトリに応答する、[C24]に記載の装置。
[C26] 前記収束制御モジュールは、前記シーン内の被写体の視差値に基づいて前記収束点を決定するようにさらに構成される、[C24]に記載の装置。
[C27] 前記収束制御モジュールは、前記視差値が前記3Dレンダリングにおいて融合可能でない前記被写体の少なくとも1つとなるかどうかを決定するようにさらに構成され、前記シーンが融合可能でないということを前記シーンの3Dビデオ撮像中に前記装置のユーザに通知する警告が生成される、[C26]に記載の装置。
[C28] 前記収束制御モジュールは、シーン毎基準で収束点処理を実行するように構成される、[C24]に記載の装置。
[C29] 前記収束点処理は、前記シーン内の被写体に対応する視差値に基づいて、さらに所定の表示ジオメトリに基づいて、シーンベースの収束点を調整することを含む、[C28]に記載の装置。
[C30] 前記シーン毎基準の収束点処理は、3Dビデオ撮像中に前記第1の画像センサと前記第2の画像センサによって実行されたズーム動作中に前記収束点の動的な調整を可能にする、[C29]に記載の装置。
[C31] ビデオプレビュー表示装置、をさらに備え、前記所定の表示装置のジオメトリは、前記ビデオプレビュー表示装置に対応する、[C29]に記載の装置。
[C32] 前記所定の表示装置のジオメトリは、ユーザ入力に従って選択される表示ジオメトリに対応する、[C29]に記載の装置。
[C33] 第1の画像内で第1の点を、前記第1の画像に対応する画像データ内の変化に基づいて、選択することと、第2の画像内で前記第1の点に対応する第2の点を配置することと、前記第1の画像と前記第2の画像が単一のシーンに対応していて、前記第1の点と前記第2の点との間の距離が前記シーンの3次元(3D)レンダリングの単一の点として認識されるべき閾値距離を越えるかどうかを決定することと、を実行することをプロセッサによって実行可能にする命令を備える、非一時的コンピュータ可読媒体。
[C34] エッジ検出フィルタを前記第1の画像に対応する画像データに適用し、前記第1の画像の水平領域内で前記エッジ検出フィルタを適用することから生じる最大絶対値を見つけることによって前記分散を識別することを実行する前記プロセッサによって実行可能である命令をさらに備え、前記第1の画像は、左画像に対応し、前記第2の画像は前記3Dレンダリングの右画像に対応する、[C33]に記載のコンピュータ可読媒体。
[C35] 水平方向は、前記第1の画像に対応する第1の撮像装置と、前記第2の画像に対応する第2の撮像装置と、の間の方向に対応する、[C34]に記載のコンピュータ可読媒体。
[C36] 前記画像データは、前記第1の画像に対応するサブサンプルされたルーマデータを含む、[C34]に記載のコンピュータ可読媒体。
[C37] 前記第1の画像は、第1のセンサによって前記シーンの第1の撮像に対応し、前記第2の画像は、第2のセンサによって前記シーンの第2の撮像に対応し、前記第2の撮像は、前記第1の撮像と実質的には同時に行われる、[C33]に記載のコンピュータ可読媒体。
[C38] 第1の画像センサに対応する第1の画像データと、第2の画像センサに対応する第2の画像データとを含む画像データを受信するための手段と、シーンの3次元(3D)レンダリングの収束点を決定するための手段と、前記収束点を決定するための手段の出力に基づいて3D出力データを生成するための手段と、を備える装置。
[C39] 前記収束点を決定するための手段は、所定の表示ジオメトリに応答する、[C38]に記載の装置。
[C40] 前記収束点を決定するための手段は、前記シーン内の被写体の視差値に基づいて前記収束点を決定するようにさらに構成される、[C38]に記載の装置。

Claims (40)

  1. 第1の画像内で第1の点を、前記第1の画像に対応する画像データ内の変化に基づいて、選択することと、
    第2の画像内の第2の点を配置することと、記第2の点は、前記第1の点と対応し、前記第1の画像及び前記第2の画像は1つのシーンに対応する
    前記第1の点と前記第2の点との距離が閾値距離を超えるかどうかを決定することと、前記閾値距離は、前記第1の点とシフトされた第2の点が前記シーンの三次元(3D)レンダリングの単一の点として認識されるように前記第2の点が水平方向にシフトし得る閾値である、
    前記距離が前記閾値距離を越えることを決定することに応答して前記シーン内のキーポイントの中央視差に基づいてシフト量を決定することと、
    前記第2の画像を前記第1の画像のシフトされたバージョンと置き換えることと、前記第1の画像の前記シフトされたバージョンは、前記シフト量だけシフトされた前記第1の画像に対応する、
    を備える方法。
  2. 各キーポイントは、前記第1の画像内で選択された点および前記第2の画像内の対応する点に対応する、請求項1に記載の方法。
  3. 前記距離が前記閾値距離を越えることを決定することに応じて、前記シーンが融合可能でないという警告を生成すること、をさらに備える請求項1に記載の方法。
  4. 前記画像データは、前記第1の画像に対応するサブサンプルされたルーマデータを含む、請求項1に記載の方法。
  5. 前記第1の画像は、第1のセンサによって前記シーンの第1の撮像に対応し、前記第2の画像は、第2のセンサによって前記シーンの第2の撮像に対応し、前記第2の撮像は、前記第1の撮像と同時に行われる、請求項1に記載の方法。
  6. 前記第2の点は、信頼測定値を使用して配置される、請求項1に記載の方法。
  7. 前記信頼測定値は、前記第1の点を含む前記第1の画像の第1の領域と前記第2の点を含む前記第2の画像の第2の領域との間の正規化された相互共分散に基づいて決定される、請求項6に記載の方法。
  8. 前記第2の点を配置することは、
    前記第1の画像内で前記第1の点を含む第1の領域を選択することと、
    前記第1の領域に対して最も高く決定された相関値を有する前記第2の画像の第2の領域を選択することと、
    を含む、請求項6に記載の方法。
  9. 前記第1の画像内で第3の点を選択することと、
    信頼測定値を使用して前記第3の点に対応する前記第2の画像内に第4の点を配置することと、をさらに備え、前記第1および第2の点は、第1のキーポイントに対応し、前記第3および第4の点は、第2のキーポイントに対応し、前記シフト量は、少なくとも前記第1および第2のキーポイントの中央視差に基づく、請求項1に記載の方法。
  10. 前記相関決定は、前記第1の点の探索範囲内で前記第2の画像の複数の領域について実行される、請求項8に記載の方法。
  11. 前記信頼測定値は、前記第2の領域に対応し、前記第2の領域は、前記信頼測定値が信頼性閾値を超えるかどうかに基づいて前記第1の領域に対応するものとして識別される、請求項8に記載の方法。
  12. 被写体のセットを含む3次元(3D)シーン、前記被写体のセットの各被写体が前記3Dシーン内単一の被写体として認識される状態で前記3Dシーンの第1の画像及び前記3Dシーンの第2の画像を用いてレンダリングされるかどうかを決定することと、前記被写体のセットの被写体毎に
    前記第1の画像内の前記被写体の第1の点と前記第2の画像内の前記被写体の第2の点との間の距離を示す対応する視差値を生成することと、
    前記距離が閾値距離内にあるかどうかを決定することとを含み、前記閾値距離は、前記被写体の前記第1の点とシフトされた第2の点がレンダリングされた前記3Dシーンの単一の点として認識できるように前記被写体の前記第2の点が水平方向にシフトし得る閾値距離であり前記閾値距離は、視差値の所定範囲に対応する、
    前記3Dシーンは前記被写体のセットの各被写体が前記単一の被写体として認識されている状態でレンダリングされないことを決定することに応答して、前記3Dシーン内のキーポイントの平均視差に基づいてシフト量を決定することと;
    前記第2の画像を前記第1の画像のシフトされたバージョンと置き換えることと;
    を備え、前記第1の画像の前記シフトされたバージョンは、前記シフト量だけシフトされた前記第1の画像に対応する、方法。
  13. 前記3Dシーンは前記被写体のセットの各被写体が前記単一の被写体として認識されている状態でレンダリングされることができないということを決定することに応答して、前記3Dシーンは融合可能ではないという警告を生成すること、をさらに備える請求項12に記載の方法。
  14. 前記3Dシーンは前記被写体のセットの各被写体が対応する前記単一の被写体として認識されている状態でレンダリングし得るとを決定することに応答して、前記被写体のセットの被写体の視差視差値の所定範囲内とさせるように前記3Dシーンの収束点を調整することをさらに含む、請求項12に記載の方法。
  15. 前記3Dシーンは前記被写体のセットの各被写体が対応する前記単一の被写体として認識されている状態でレンダリングされることができるかどうかを決定することは、前記視差値の範囲と、視差値の所定の範囲とを比較することをさらに含む、請求項12に記載の方法。
  16. 前記視差値の前記範囲は、前記視差値の最大値、又は前記被写体のセットに対応する前記視差値の最小値を少なくとも除く、請求項15に記載の方法。
  17. 前記3Dシーンの前記収束点を調整することとは、前記被写体のセットの各被写体の前記視差を変更するために、前記第1の画像と前記第2の画像のうち少なくとも1つを、前記第1の画像と前記第2の画像の他方に対してシフトすることを含む、請求項14に記載の方法。
  18. シーンに対応する第1の画像と、前記シーンに対応する第2の画像と、を少なくとも含む入力データを受信するように構成され、3次元(3D)表示装置に出力データを提供するように構成された3次元(3D)メディアプレイヤー、
    を備え、
    前記3Dメディアプレイヤーは、ズームコマンドとパンコマンドのうち少なくとも1つを含むユーザ入力に応答し、
    前記3Dメディアプレイヤーは、前記ユーザ入力に応答して、
    前記第1の画像内の第1の点と前記第2の画像内の第2の点との間の距離が閾値距離を超えるかどうかを決定し前記閾値距離は、前記第1の点とシフトされた第2の点が前記シーンの3Dレンダリングの単一の点として認識されるように前記第2の点が水平方向にシフトし得る閾値であり、前記第2の点が前記第1の点と対応する
    前記距離が前記閾値距離を越えるということを決定することに応答して
    前記シーン内のキーポイントの中央視差に基づいてシフト量を決定し、
    前記第2の画像を前記第1の画像のシフトされたバージョンと置き換えるように構成された収束制御モジュールを含み前記第1の画像の前記シフトされたバージョンが前記シフト量だけシフトされた前記第1の画像に対応する、
    装置。
  19. 前記収束制御モジュールは、メディアファイルの再生中に、シーン毎基準に収束点を調節するように構成される、請求項18に記載の装置。
  20. 前記収束制御モジュールは、前記距離が前記閾値を超えることを決定することに応じて、前記シーンは融合可能でない警告を生成するようにさらに構成される、請求項18に記載の装置。
  21. 前記収束制御モジュールは、さらに前記3D表示装置の解像度及びサイズのうち少なくとも1つに基づいて、前記収束点を決定するようにさらに構成される、請求項20に記載の装置。
  22. 前記収束制御モジュールは、さらに前記3D表示装置からの観察距離に基づいて、前記収束点を決定するようにさらに構成される、請求項20に記載の装置。
  23. 前記距離は、前記3D表示装置の画素単位で決定される、請求項18に記載の装置。
  24. 第1の画像センサに対応する第1の画像データと第2の画像センサに対応する第2の画像データとを含む画像データを受信するように構成された画像処理モジュール、
    を備え、前記第1の画像データと前記第2の画像データは、単一のシーンに対応し、前記画像処理モジュールは、
    前記第1の画像データ内の第1の点と前記第2の画像データ内の第2の点との間の距離が、前記第1の点とシフトされた第2の点が前記シーンの3Dレンダリングの単一の点として認識されるように前記第2の点が水平方向にシフトされることができる閾距離を越えるかどうかを決定し、
    前記距離が前記閾値距離を越えるということを決定することに応じて、
    前記シーン内のキーポイントの平均視差に基づいてシフト量を決定し、
    前記第2の画像を前記第1の画像のシフトされたバージョンと置き換えるように構成され、前記第2の点は、前記第1の点に対応前記第1の画像の前記シフトされたバージョンは、前記シフト量だけシフトされた前記第1の画像に対応する、収束制御モジュールと、
    前記収束制御モジュールの出力に基づいて3D出力データを生成するように構成された3D符号化モジュールと、
    を含む、
    装置。
  25. 前記収束制御モジュールは、所定の表示ジオメトリに応答する、請求項24に記載の装置。
  26. 前記収束制御モジュールは、前記シーンが融合可能でない警告を生成するようにさらに構成される、請求項24に記載の装置。
  27. 前記装置は、前記シーンが融合可能でないということを前記シーンの3Dビデオ撮像中に前記装置のユーザに通知する警告を生成するようにさらに構成される、請求項26に記載の装置。
  28. 前記収束制御モジュールは、シーン毎基準で収束点処理を実行するように構成される、請求項24に記載の装置。
  29. 前記収束点処理は、さらに所定の表示ジオメトリに基づいて、シーンベースの収束点を調整することを含む、請求項28に記載の装置。
  30. 前記シーン毎基準の収束点処理は、3Dビデオ撮像中に前記第1の画像センサと前記第2の画像センサによって実行されたズーム動作中に前記収束点の動的な調整を可能にする、請求項28に記載の装置。
  31. ビデオプレビュー表示装置、をさらに備え、前記所定の表示装置のジオメトリは、前記ビデオプレビュー表示装置に対応する、請求項29に記載の装置。
  32. 前記所定の表示装置のジオメトリは、ユーザ入力に従って選択される表示ジオメトリに対応する、請求項29に記載の装置。
  33. 第1の画像内で第1の点を、前記第1の画像に対応する画像データ内の変化に基づいて、選択することと、
    第2の画像内で前記第1の点に対応する第2の点を配置することと、
    前記第1の画像と前記第2の画像が単一のシーンに対応していて、前記第1の点と前記第2の点との間の距離が、前記第1の点とシフトされた第2の点が前記シーンの3次元(3D)レンダリングの単一の点として認識されるように前記第2の点が水平方向にシフトされることができる閾値距離を越えるかどうかを決定することと、
    前記距離が前記閾値距離を越えるということを決定することに応じて、
    前記シーン内のキーポイントの中央視差に基づいてシフト量を決定することと、
    前記第2の画像を前記第1の画像のシフトされたバージョンと置き換えることと、
    を実行することをプロセッサによって実行可能にする命令を備え、前記第1の画像の前記シフトされたバージョンは、前記シフト量だけシフトされた前記第1の画像に対応する、
    ンピュータ可読記憶媒体。
  34. 前記距離が前記閾値距離を越えることを決定することに応じて、警告を生成することを前記プロセッサによって実行可能にする命令、をさらに備える請求項33に記載のコンピュータ可読記憶媒体。
  35. 前記水平方向は、前記第1の画像に対応する第1の撮像装置と、前記第2の画像に対応する第2の撮像装置と、の間の方向に対応する、請求項33に記載のコンピュータ可読記憶媒体。
  36. 前記画像データは、前記第1の画像に対応するサブサンプルされたルーマデータを含む、請求項33に記載のコンピュータ可読記憶媒体。
  37. 前記第1の画像は、第1のセンサによって前記シーンの第1の撮像に対応し、前記第2の画像は、第2のセンサによって前記シーンの第2の撮像に対応し、前記第2の撮像は、前記第1の撮像と同時に行われる、請求項33に記載のコンピュータ可読記憶媒体。
  38. 第1の画像センサに対応する第1の画像データと、第2の画像センサに対応する第2の画像データとを含む画像データを受信するための手段と、
    前記第1の画像データと前記第2の画像データが単一のシーンに対応して、前記第1の画像データ内の第1の点と前記第2の画像データ内の第2の点との間の距離が、前記第1の点とシフトされた第2の点が前記シーンの3Dレンダリングの単一の点として認識されるように前記第2の点が水平方向にシフトされることができる閾距離を越えるかどうかを決定するための手段と、
    前記距離が前記閾値距離を越えるということを決定することに応じて、前記第2の画像を前記第1の画像のシフトされたバージョンと置き換えるための手段と、
    を備え、前記第2の点は、前記第1の点に対応前記置き換えるための手段は、前記シーン内のキーポイントの中央視差に基づいてシフト量を決定するための手段を備え、前記第1の画像の前記シフトされたバージョンは、前記シフト量だけシフトされた前記第1の画像に対応する、装置。
  39. 前記シーンの前記3Dレンダリングの収束点を決定するための手段、前記決定された収束点に基づいて前記水平方向に前記第2の画像をシフトするための手段、前記距離が前記閾値距離を超えないことを決定することに応じて、前記収束点を決定するための手段の出力に基づいて3D出力データを生成するための手段、をさらに備える請求項38に記載の装置。
  40. 前記収束点を決定するための手段は、所定の視差ジオメトリに応答する請求項39に記載の装置。
JP2013513219A 2010-05-28 2011-05-24 三次元画像処理 Active JP5592006B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US34973810P 2010-05-28 2010-05-28
US61/349,738 2010-05-28
US13/079,752 US8970672B2 (en) 2010-05-28 2011-04-04 Three-dimensional image processing
US13/079,752 2011-04-04
PCT/US2011/037779 WO2011149967A2 (en) 2010-05-28 2011-05-24 Three-dimensional image processing

Publications (2)

Publication Number Publication Date
JP2013533672A JP2013533672A (ja) 2013-08-22
JP5592006B2 true JP5592006B2 (ja) 2014-09-17

Family

ID=44310201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013513219A Active JP5592006B2 (ja) 2010-05-28 2011-05-24 三次元画像処理

Country Status (6)

Country Link
US (1) US8970672B2 (ja)
EP (1) EP2577978A2 (ja)
JP (1) JP5592006B2 (ja)
KR (1) KR20130030780A (ja)
CN (1) CN103098477A (ja)
WO (1) WO2011149967A2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120007819A1 (en) * 2010-07-08 2012-01-12 Gregory Robert Hewes Automatic Convergence Based on Touchscreen Input for Stereoscopic Imaging
KR101708306B1 (ko) * 2010-09-13 2017-02-20 엘지전자 주식회사 이동 단말기 및 그의 3d 이미지 합성방법
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
US9591281B2 (en) * 2010-12-22 2017-03-07 Thomson Licensing Apparatus and method for determining a disparity estimate
JP2012191608A (ja) * 2011-02-22 2012-10-04 Panasonic Corp 立体撮像装置および立体撮像方法
JP5664356B2 (ja) * 2011-03-09 2015-02-04 富士通株式会社 生成装置および生成方法
JP5792662B2 (ja) * 2011-03-23 2015-10-14 シャープ株式会社 視差算出装置、距離算出装置及び視差算出方法
EP2511875A1 (en) * 2011-04-14 2012-10-17 Thomson Licensing Apparatus and method for refining a value of a similarity measure
US20130009949A1 (en) * 2011-07-05 2013-01-10 Texas Instruments Incorporated Method, system and computer program product for re-convergence of a stereoscopic image
US10805625B2 (en) * 2011-07-05 2020-10-13 Texas Instruments Incorporated Method, system and computer program product for adjusting a stereoscopic image in response to decoded disparities between views of the stereoscopic image
KR101828805B1 (ko) * 2011-07-07 2018-03-29 삼성전자주식회사 스테레오 카메라의 3차원 줌 영상 생성 방법 및 장치
JP5281720B1 (ja) * 2011-09-20 2013-09-04 パナソニック株式会社 立体映像処理装置及び立体映像処理方法
WO2013054499A1 (ja) * 2011-10-11 2013-04-18 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
WO2014037603A1 (en) * 2012-09-06 2014-03-13 Nokia Corporation An apparatus, a method and a computer program for image processing
US9229526B1 (en) * 2012-09-10 2016-01-05 Amazon Technologies, Inc. Dedicated image processor
KR102130123B1 (ko) * 2013-10-31 2020-07-03 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법
US9996933B2 (en) * 2015-12-22 2018-06-12 Qualcomm Incorporated Methods and apparatus for outlier detection and correction of structured light depth maps
US10708478B2 (en) * 2016-03-23 2020-07-07 Karl Storz Imaging, Inc. Image transformation and display for fluorescent and visible imaging
EP3264359A1 (en) 2016-06-28 2018-01-03 Dassault Systèmes A computer-implemented method of calibrating a camera
EP3264360A1 (en) * 2016-06-28 2018-01-03 Dassault Systèmes Dynamical camera calibration
US10798364B2 (en) * 2016-10-20 2020-10-06 Nokia Of America Corporation 3D image reconstruction based on lensless compressive image acquisition
KR101917762B1 (ko) * 2017-05-22 2019-01-29 주식회사 그루크리에이티브랩 가상현실 장치의 컨버전스를 조절하여 눈의 피로를 감소시키는 방법
KR102441363B1 (ko) * 2017-07-13 2022-09-07 삼성전자주식회사 이미지 신호 프로세서, 이미지 처리 시스템 및 이미지 센서의 비닝 방법
US11463677B2 (en) * 2017-07-13 2022-10-04 Samsung Electronics Co., Ltd. Image signal processor, image processing system and method of binning pixels in an image sensor

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
WO1994018789A1 (en) 1993-02-11 1994-08-18 Polycom, Inc. Resolution enhancement system
WO1995006283A1 (en) 1993-08-24 1995-03-02 Downs Roger C Topography processor system
JPH09507349A (ja) 1993-12-29 1997-07-22 ライカ アクチエンゲゼルシャフト 表示装置上に立体ビデオ映像を表示するための方法及び装置
JP3242529B2 (ja) * 1994-06-07 2001-12-25 松下通信工業株式会社 ステレオ画像対応付け方法およびステレオ画像視差計測方法
JPH07336590A (ja) * 1994-06-09 1995-12-22 Minolta Co Ltd 画像記録再生システム及び画像再生装置並びにカメラ
JP3157384B2 (ja) 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
JP3653790B2 (ja) 1995-05-23 2005-06-02 松下電器産業株式会社 立体電子ズーム装置及び立体画質制御装置
US6278480B1 (en) 1997-02-07 2001-08-21 Canon Kabushiki Kaisha Compound eye camera system
JPH10224825A (ja) * 1997-02-10 1998-08-21 Canon Inc 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体
US5987164A (en) * 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
US20020113865A1 (en) * 1997-09-02 2002-08-22 Kotaro Yano Image processing method and apparatus
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JP4149037B2 (ja) 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
AU2487000A (en) 1998-12-30 2000-07-31 Chequemate International Inc. System and method for recording and broadcasting three-dimensional video
JP2000209614A (ja) 1999-01-14 2000-07-28 Sony Corp 立体映像システム
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3619063B2 (ja) 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
US6665440B1 (en) * 2000-05-30 2003-12-16 Microsoft Corporation System and method for performing corner guided curve matching of multiple images representing a scene
WO2002071764A1 (en) * 2001-01-24 2002-09-12 Vrex, Inc. Method and system for adjusting stereoscopic image to optimize viewing for image zooming
AU2002308651A1 (en) 2001-05-04 2002-11-18 Leberl, Franz, W. Digital camera for and method of obtaining overlapping images
JP2003018619A (ja) 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
US7319720B2 (en) 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
US7174033B2 (en) * 2002-05-22 2007-02-06 A4Vision Methods and systems for detecting and recognizing an object based on 3D image data
US20060203085A1 (en) 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus
US7525576B2 (en) 2003-02-17 2009-04-28 Axis, Ab Method and apparatus for panning and tilting a camera
KR100771299B1 (ko) 2003-06-26 2007-10-29 삼성전기주식회사 색 보간용 라인 버퍼 및 라인 데이터 제공 방법
JP2005073049A (ja) 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7112774B2 (en) 2003-10-09 2006-09-26 Avago Technologies Sensor Ip (Singapore) Pte. Ltd CMOS stereo imaging system and method
JP2005167310A (ja) 2003-11-28 2005-06-23 Sharp Corp 撮影装置
EP1812968B1 (en) 2004-08-25 2019-01-16 Callahan Cellular L.L.C. Apparatus for multiple camera devices and method of operating same
US7372996B2 (en) * 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
US7206136B2 (en) 2005-02-18 2007-04-17 Eastman Kodak Company Digital camera using multiple lenses and image sensors to provide an extended zoom range
US20070146478A1 (en) 2005-07-14 2007-06-28 Butler-Smith Bernard J Stereoscopic 3D rig calibration and viewing device
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
KR101185870B1 (ko) * 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
CN101025475A (zh) 2005-10-17 2007-08-29 威盛电子股份有限公司 立体三维影像显示系统与方法
US20070248260A1 (en) 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
US8456515B2 (en) 2006-07-25 2013-06-04 Qualcomm Incorporated Stereo image and video directional mapping of offset
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
KR101311896B1 (ko) 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
US8330801B2 (en) 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
KR101345303B1 (ko) 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
JP4925354B2 (ja) * 2008-03-31 2012-04-25 富士フイルム株式会社 画像処理装置、画像表示装置、撮像装置及び画像処理方法
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera

Also Published As

Publication number Publication date
JP2013533672A (ja) 2013-08-22
EP2577978A2 (en) 2013-04-10
US20110292178A1 (en) 2011-12-01
WO2011149967A2 (en) 2011-12-01
CN103098477A (zh) 2013-05-08
US8970672B2 (en) 2015-03-03
KR20130030780A (ko) 2013-03-27
WO2011149967A3 (en) 2012-01-12

Similar Documents

Publication Publication Date Title
JP5592006B2 (ja) 三次元画像処理
CN107948519B (zh) 图像处理方法、装置及设备
US11743583B2 (en) Imaging apparatus and setting screen thereof
US9007442B2 (en) Stereo image display system, stereo imaging apparatus and stereo display apparatus
US9905031B2 (en) Method and related apparatus for capturing and processing image data
US9591237B2 (en) Automated generation of panning shots
US20100321505A1 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
TWI496109B (zh) 影像處理器及其影像合成方法
CN108605087B (zh) 终端的拍照方法、拍照装置和终端
US20120300115A1 (en) Image sensing device
US9357205B2 (en) Stereoscopic image control apparatus to adjust parallax, and method and program for controlling operation of same
JP5526233B2 (ja) 立体視用画像撮影装置およびその制御方法
KR20170006201A (ko) 촬영 장치 및 그 동작 방법
JP7285791B2 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
US10482580B2 (en) Image processing apparatus, image processing method, and program
JP2012124555A (ja) 撮像装置
KR20150078275A (ko) 움직이는 피사체 촬영 장치 및 방법
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
JP2015040941A (ja) 撮像装置、その制御方法およびプログラム
JP6786311B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラムおよび記憶媒体
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
US20120236126A1 (en) Image pickup device, image pickup method, program, and integrated circuit
CN116456191A (zh) 图像生成方法、装置、设备及计算机可读存储介质
US9392169B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2014134723A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140428

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

R150 Certificate of patent or registration of utility model

Ref document number: 5592006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250