JP2019508928A - 立体視画像シーケンスを作成するための方法 - Google Patents

立体視画像シーケンスを作成するための方法 Download PDF

Info

Publication number
JP2019508928A
JP2019508928A JP2018534681A JP2018534681A JP2019508928A JP 2019508928 A JP2019508928 A JP 2019508928A JP 2018534681 A JP2018534681 A JP 2018534681A JP 2018534681 A JP2018534681 A JP 2018534681A JP 2019508928 A JP2019508928 A JP 2019508928A
Authority
JP
Japan
Prior art keywords
image
stereoscopic
sequence
still
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018534681A
Other languages
English (en)
Other versions
JP7374450B2 (ja
JP2019508928A5 (ja
Inventor
ウォン フー シム
ウォン フー シム
テック チー リー
テック チー リー
デズモンド ヒー
デズモンド ヒー
シャオティン リウ
シャオティン リウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creative Technology Ltd
Original Assignee
Creative Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Creative Technology Ltd filed Critical Creative Technology Ltd
Publication of JP2019508928A publication Critical patent/JP2019508928A/ja
Publication of JP2019508928A5 publication Critical patent/JP2019508928A5/ja
Application granted granted Critical
Publication of JP7374450B2 publication Critical patent/JP7374450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Abstract

立体視画像シーケンスを作成するための方法が提供される。この方法は、静止画像のシーケンスを取り込むステップと、複数の画像対を形成するステップとを含むことができる。各画像対は、静止画像のシーケンスから選択された第1の画像および第2の画像を含む。第1の画像の選択は、画像対が空間的に一貫性があるように形成されるように行うことができる。立体視画像シーケンスは、これらの画像対に基づいて作成することができる。この立体視画像シーケンスを作成することは、たとえば、立体視ビデオを生成することに関係することができる。【選択図】図4

Description

本開示は、一般に、立体視画像シーケンスを作成するための方法に関する。
立体視画像またはビデオは、典型的には、
1)立体視カメラ
2)2つの別々の、しかし同期されたカメラ
3)単一のカメラ
の使用により取り込むことができる。
立体視カメラは、立体視画像に必要とされる左右の画像を取り込むために、固定されたレンズ(たとえば、左右のレンズ)を有する。これらのレンズは各レンズの位置およびレンズ間の距離が調整可能でないという意味で固定されていることを考えると、ユーザが左右の画像を(すなわち、固定されているレンズのおかげで)同期させる必要がないので、立体視画像/ビデオを取り込むために立体視カメラを使用することは、ユーザフレンドリである点で有利である。すなわち、ユーザは、左右の画像を同期させるために(たとえば、レンズに対して)調整することを必要とされない。しかしながら、立体視カメラは、(たとえば、機器のコストまたは入手しやすさに鑑みて)多くの人にとって手の届きやすいものでない可能性がある非常に専門化された機器である。
2つの別々の、しかし同期されたカメラを使用することは、立体視カメラに対する実行可能な代替となり得る。しかしながら、2つのカメラの必要を考えると、これはかなり面倒である。さらに、これらの2つのカメラを同期させるために、ある程度のユーザ介入が必要となり得る。
さらに、単一のカメラの使用も、左右の画像を別々に(すなわち、左画像のためのショットと、右画像のための別のショット)得ることが可能であるため、別の代替となり得る。しかしながら、そのような使用の成功は、ユーザの技能に非常に左右される。たとえば、ユーザは、(たとえば、左画像を取り込むための)1回目の撮影の後、カメラを適切に移動して(右画像を取り込むための)2回目の撮影を行うことが必要とされる。ユーザがカメラを移動している間、不完全な動きのために、垂直変位および/または回転方向の変化が発生し、同期問題をもたらすことがある。
したがって、前述の問題に対処するための解決策を提供することが望ましい。
本開示の一態様によれば、立体視画像シーケンスを作成するための方法が提供され、この方法は、静止画像のシーケンスを取り込むステップと、複数の画像対を形成するステップとを含むことができる。各画像対は、静止画像のシーケンスから選択された第1の画像および第2の画像を含むことができる。第1の画像の選択は、画像対が空間的に一貫性があるように形成されるように行うことができる。立体視画像シーケンスは、これらの画像対に基づいて作成することができる。この立体視画像シーケンスを作成することは、たとえば、立体視ビデオを制作することに関係することができる。
各画像対は、第1の画像と第2の画像との間の間隔に基づくステレオベースに関連付けることができる。さらに、ステレオベースは、画像対の第1の画像および第2の画像の選択に基づいて可変である。
画像対の第1の画像および第2の画像の選択は、手動ベースの選択および自動ベースの選択のうちの一方または両方に基づく。
手動ベースの選択は、画像対の第1の画像および第2の画像のユーザ選択のために静止画像のシーケンスをディスプレイ画面上に提示することによることができる。自動ベースの選択は、少なくとも1つの静止画像に関連付けられた焦点距離の変化、目立つ対象検出、および静止画像に関連付けられた特性のうちのいずれか1つ、またはそれらの任意の組合せに基づくものとすることができる。
一実施形態では、立体視画像シーケンスは、立体視画像シーケンスが閲覧されているときのユーザインタラクションに基づいて画像対の第1の画像の選択が可変であるように、インタラクティブなものとすることができる。
他の実施形態では、立体視画像シーケンスは、複数の立体視画像を含むことができ、立体視画像のそれぞれは、画像対に基づいて形成され、ユーザが立体視画像シーケンスを閲覧しているときユーザによって閲覧されている立体視画像は、ユーザの動きに基づいて可変である。
以下、本開示の実施形態について、以下の図面を参照して述べる。
本開示の一実施形態による、静止画像のシーケンスを使用して立体視画像シーケンスを作成/生成するための方法100の図である。 本開示の一実施形態による、画像取込みデバイスを例示的な方向に移動することによって静止画像のシーケンスが取り込まれる、図1の方法に関する静止画像のシーケンスの図である。 本開示の一実施形態による、立体視画像のそれぞれを図2の静止画像のシーケンスからの画像対に基づいて形成/生成することができる、複数の立体視画像を含む立体視画像シーケンスの図である。 本開示の一実施形態による、ユーザが図2の例示的な方向に画像取込みデバイスをスイープすることによって撮られたシーンの第1のスナップショットおよび第2のスナップショットの図である。 本開示の一実施形態による、図2の静止画像のシーケンスの一部分を、画像対を作成するのに使用できない/適さないものにし得る垂直シフトの問題の図である。 本開示の一実施形態による、画像取込みデバイスが閲覧デバイスと通信するように構成可能である例示的な応用例の図である。
本開示は、静止画像のシーケンスを使用して立体視画像シーケンスを作成/生成するための方法100(図1を参照してさらに詳細に示される)に関する。静止画像は、たとえば、規則正しく離間された時間間隔で撮られたシーンのスナップショットとすることができる。これらのスナップショットは、カメラなど画像取込みデバイスを使用して撮ることができる。これに関して、画像取込みデバイスを使用して撮られたシーンのスナップショットは、シーンの撮られた写真と同様とすることができる。
図1を参照すると、方法100は、開始ステップ102、取込みステップ104、停止ステップ106、および処理ステップ108を含むことができる。
方法100は、ユーザがシーンの1点で画像取込みデバイスを位置決めする開始ステップ102で始まる。これは、ユーザがシーンのスナップショットを撮り始める開始点と考えられる。開始点では、画像取込みデバイスを、ユーザの好みに従って関心対象に合焦するように構成してもよい。
方法100は、取込みステップ104に進み、ここでユーザは、画像取込みデバイスを開始点からシーンの別の点に移動し、シーンの静止画像のシーケンスを取り込むことができる。画像取込みデバイスの移動は、スイープタイプの移動とすることができる。
静止画像のシーケンスの取込みは、停止ステップ106で終了することができ、ここでユーザは、画像取込みデバイスを開始点から前述の別の点に移動し終えている。具体的には、前述の別の点は、ユーザが画像取込みデバイスを移動するのを止めた停止点であると考えることができる。
実際的に言えば、開始ステップ102から停止ステップ106までの方法100に関して、ユーザは、カメラを保持して、そのカメラを開始点から停止点にスイープし、シーンの静止画像のシーケンスを取り込む。これは、スイープの経路に沿って撮られる一連の写真と同様であると考えることができる。たとえば、ユーザは、シーンの左側から開始してシーンの右側にカメラをスイープすることができる。これに関して、シーンの左側(すなわち、スイープの開始)は、開始点と考えることができ、シーンの右側(すなわち、スイープの終了)は、終了点と考えることができる。
取り込まれた静止画像のシーケンスを処理ステップ108で処理し、立体視画像シーケンスを生成することができる。立体視画像シーケンスは、複数の立体視画像を含むことができ、立体視画像は、取り込まれた静止画像のシーケンスから1対の静止画像を選択することによって生成することができる。したがって、立体視画像は、画像対(すなわち、1対の静止画像)によって生成することができ、立体視画像シーケンスは、複数の画像対(すなわち、2対以上の静止画像)を選択することによって生成することができる。画像対の選択については、図2を参照してさらに詳細に後述する。処理は、静止画像のシーケンスの取込み中、および/または静止画像の完全なシーケンスの取込み後に行うことができることを理解されたい。
静止画像のシーケンスおよび/または立体視画像シーケンスは、記憶されてもよい。これらの画像は、たとえば、様々なビデオ圧縮ツール[たとえば、h.264]、多数のJPEG、および/または画像ピラミッド(すなわち、複数の解像度を記憶するためのもの)でビデオとして記憶することができる。
図2は、図1の方法100を参照しての前の考察に従って取り込まれた静止画像のシーケンス200を示す。矢印200aは、スイープの例示的な方向(たとえば、シーンの左側から右側)を示す。
静止画像のシーケンス200は、複数の静止画像を含むことができる。具体的には、複数の静止画像は、開始画像、複数の中間画像、および終了画像を含むことができる。たとえば、複数の静止画像は、第1の静止画像202、第2の静止画像204、第3の静止画像206、第4の静止画像208、第5の静止画像210、第6の静止画像212、および第7の静止画像214を含むことができる。
第1の静止画像202は、開始点で撮られた開始画像に対応することができ、中間画像は、第1の点と終了点の間でのスイープ中に撮られた第2の静止画像から第6の静止画像204/206/208/210/212を含むことができ、第7の静止画像214は、終了点で撮られた終了画像に対応することができる。
前述のように、立体視画像は、取り込まれた静止画像のシーケンスから1対の静止画像(すなわち、画像対)を選択することによって生成することができる。したがって、画像対は、たとえば前述の第1の静止画像から第7の静止画像202/204/206/208/210/212/214からの静止画像を前述の第1の静止画像から第7の静止画像202/204/206/208/210/212/214からの別の静止画像と対にすることによって形成することができる。
スイープの例示的な方向(たとえば、シーンの左側から右側)に基づいて、第1の静止画像202は、左側画像であると考えることができ、第7の静止画像214は、右側画像であると考えることができる。
さらに、画像対において、第2の静止画像から第6の静止画像204/206/208/210/212のそれぞれは、それぞれがどの静止画像と対にされるかに応じて、左側画像または右側画像になると考えることができる。一般に、中間画像(たとえば、第2の静止画像から第6の静止画像204/206/208/210/212)については、開始画像(すなわち、第1の静止画像202)に位置がより近い静止画像を、終了画像(すなわち、第7の静止画像214)に位置がより近い別の静止画像に対して左側画像であると考えることができる。反対に、終了画像に位置がより近い静止画像は、開始画像に位置がより近い別の静止画像に対して右側画像であると考えることができる。
たとえば、第2の静止画像204が第3の静止画像206と対にされる場合、第2の静止画像204は、左側画像と考えることができ、第3の静止画像206は、右側画像と考えることができる。しかしながら、第3の静止画像206が第4の静止画像から第6の静止画像208/210/212いずれか1つと対にされる場合、第3の静止画像206は、左側画像と考えることができ、第3の静止画像206と対にされた第4の静止画像から第6の静止画像208/210/212いずれか1つは、右側画像と考えることができる。さらに、第6の静止画像212が第7の静止画像214と対にされる場合、第6の静止画像212は、第7の静止画像214に対して左側画像と考えることができる。
一般に、立体視画像を生成/形成する画像対は、左側画像と右側画像を含む。画像対は、左側画像および右側画像に基づくステレオベースに関連付けることができる。左側画像および右側画像は、それぞれ「左目画像」および「右目画像」とも呼ぶことができる。画像対に関連付けられたステレオベースについては、図4を参照してさらに詳細に後述する。
さらに前述のように、立体視画像シーケンスは、複数の立体視画像を含むことができる。好ましくは、立体視画像シーケンスを生成/形成する画像対は、空間的に一貫性がある。具体的には、立体視画像シーケンスは、視覚的な流れ(ユーザによって閲覧されたとき)が過度に乱れないように形成されることが好ましい。より具体的には、ある画像対から次の画像対への視覚的な移行が滑らかであるべきであり、ユーザは、立体視画像シーケンスを閲覧しているとき、画像対間の移行中、「ぎくしゃくさ(jerking)」を視覚的に知覚するべきでない。これに関して、立体視画像シーケンスを閲覧しているユーザは、たとえば、立体視ビデオを閲覧しているユーザと同様とすることができ、そのユーザは、立体視ビデオを閲覧しているとき「ぎくしゃくさ」を視覚的に知覚するべきでない。これについては、図2に関連して図3を参照してさらに詳細に述べる。
図3は、立体視画像のそれぞれを図2の静止画像のシーケンス200からの画像対に基づいて形成/生成することができる、複数の立体視画像を含む立体視画像シーケンス300を示す。
たとえば、立体視画像シーケンス300は、第1の立体視画像302、第2の立体視画像304、第3の立体視画像306、および第4の立体視画像308を含むことができる。第1の立体視画像302から第4の立体視画像308は、それぞれ立体視画像シーケンス300の第1から第4の要素であると考えることができる。したがって、立体視画像シーケンス300は、第1の要素で開始し、第4の要素で終了する順序を有することができる。具体的には、第1の要素の後に第2の要素が続き、第2の要素の後に第3の要素が続き、第3の要素の後に第4の要素が続く(すなわち、順次、第1の立体視画像302の後に第2の立体視画像304が続き、その後に第3の立体視画像306が続き、その後に第4の立体視画像308が続く)。
第1の立体視画像302は、たとえば、第1および第2の静止画像202/204の画像対に基づいて形成することができる。第2の立体視画像304は、たとえば、第2および第3の静止画像204/206の画像対に基づいて形成することができる。第3の立体視画像306は、たとえば、第4および第5の静止画像208/210の画像対に基づいて形成することができる。第4の立体視画像は、たとえば、第6および第7の静止画像212/214の画像対に基づいて形成することができる。
したがって、各画像対は、第1の画像と第2の画像を含むことができることを理解されたい。スイープの例示的な方向(たとえば、矢印200aによって示されているシーンの左側から右側)に関する前の考察により、第1の画像は、たとえば左側画像に対応し得、第2の画像は、たとえば右側画像に対応し得る。スイープの方向が変更された場合(すなわち、シーンの左側から右側ではなくシーンの右側から左側)、それに応じて静止画像に関連付けられた前述の順序/方向も変更され得ることを理解されたい。たとえば、画像取込みデバイスがシーンの右側から左側にスイープされる場合、第1の画像は、たとえば右側画像に対応することができ、第2の画像は、たとえば左側画像に対応することができる。他の例は、画像取込みデバイスをスイープすることが対角状であることを含むことができる。
前述のように、立体視画像シーケンスを生成/形成する画像対は、空間的に一貫性があることが好ましい。
静止画像のシーケンス200の各静止画像(たとえば、第1の静止画像から第7の静止画像202/204/206/208/210/212/214)は、静止画像のシーケンス200の1つのフレームであると考えることができる。さらに、立体視画像シーケンス300の第1から第4の要素に関する順序に関する前の考察と同様に、静止画像のシーケンス200は、第1の静止画像202で開始し、第7の静止画像214で終了する順序を有することができ、第1の静止画像202の後に第2の静止画像204が続き、順にその後に第3の静止画像206が続き、順にその後に第4の静止画像208が続き、以下同様である。
画像対が空間的に一貫性があると考えられるためには、ある要素の第1の画像は、一般に、後続の要素の第1の画像から順次変位しすぎるべきでない。したがって、静止画像のシーケンス200に関する順序と、立体視画像シーケンス300のシーケンスに関する順序が考えられることになる。
たとえば、立体視画像シーケンス300では、第1の要素の後に第2の要素が続く。したがって、空間的一貫性のためには、第1の要素に関連付けられた第1の画像と、第2の要素に関連付けられた第1の画像は、順序通りであるべきである。
より具体的には、第1の立体視画像302(すなわち、第1の要素)が第1および第2の静止画像202/204の画像対に基づいて形成され、第2の立体視画像304(すなわち、第2の要素)が第2および第3の静止画像204/206の画像対に基づいて形成される前の例では、静止画像のシーケンス200に関して、第1の要素に関連付けられた第1の画像の後に、第2の要素に関連付けられた第1の画像が順次続くことを理解されたい。
すなわち、静止画像のシーケンス200を考えると、第1の要素(すなわち、第1の立体視画像302)に関連付けられた第1の画像(すなわち、第1の静止画像202)の後に、第2の要素(第2の立体視画像304)に関連付けられた第1の画像(すなわち、第2の静止画像204)が順序通りに続く。したがって、立体視画像シーケンス300の第1の要素と第2の要素は、空間的に一貫性があると考えることができる。理解されるように、各画像対の第1の画像の選択は、これらの画像対を空間的に一貫性があるように形成することができるように行われる。
空間的一貫性に関して、本開示は、あるレベルの許容差が許され得ることを企図している。すなわち、2つの要素が空間的に一貫性があると考えられるためには、1つの要素の第1の画像の直後に後続の(すなわち、立体視画像シーケンス300の状況において)要素の第1の画像が続く(すなわち、静止画像のシーケンス200の状況において)必要がない。たとえば、ある要素の第1の画像と後続の要素の第1の画像との間の1つまたは複数のフレームの差の許容差があり得る。これは、立体視画像シーケンス300の第1の要素と第2の要素、および第3の要素と第4の要素によって例示することができる。
より具体的には、第1の立体視画像302が第1および第2の静止画像202/204の画像対に基づいて形成され、第2の立体視画像304が第2および第3の静止画像204/206の画像対に基づいて形成され、第3の立体視画像306が第4および第5の静止画像208/210の画像対に基づいて形成され、第4の立体視画像308が第6および第7の静止画像212/214の画像対に基づいて形成される前の例に関して、静止画像のシーケンス200を考えると、第2の立体視画像304の第1の画像は、第1の立体視画像302の第1の画像の直後に続く(すなわち、第2の静止画像204である単一のフレームギャップだけがある)ことを理解されたい。これは、第3の立体視画像306の第1の画像と第4の立体視画像308の第1の画像との間の2つのフレームギャップと対照的である。より具体的には、第3の立体視画像306の第1の画像は第4の静止画像208であり、第4の立体視画像308の第1の画像は第6の静止画像212であり、2つの第1の画像間に2つのフレームギャップ(すなわち、第6の静止画像212、第5の静止画像210を含む)がある。2つのフレームギャップがあってさえ、立体視画像シーケンス300の第3の要素(すなわち、第3の立体視画像306)と第4の要素(すなわち、第4の立体視画像308)は、依然として空間的に一貫性があると考えることができる。
要するに、立体視画像シーケンス300を考えると、第1の要素(すなわち、第1の立体視画像302)は、第2の要素(すなわち、第2の立体視画像304)と空間的に一貫性があり、順に第2の要素は、第3の要素(すなわち、第3の立体視画像306)と空間的に一貫性があり、順に第3の要素は、第4の要素(すなわち、第4の立体視画像308)と空間的に一貫性がある。
前述のように、画像対は、ステレオベースに関連付けることができる。次に、ステレオベースについて、図2および図3に関連して図4を参照してさらに詳細に論じる。
図4は、ユーザが図2で述べた、矢印200aによって示されている例示的な方向に画像取込みデバイスをスイープすることによって撮られたシーンの第1のスナップショット、第2のスナップショット、第3のスナップショット、および第4のスナップショットを示す。第1および第2のスナップショットは、スイープの一部分400a中に撮ることができる。第3および第4のスナップショットは、スイープの別の一部分400b中に撮ることができる。図のように、第1のスナップショットと第2のスナップショットを対にし、第1の立体視画像を形成することができ、一方、第3のスナップショットと第4のスナップショットを対にし、第2の立体視画像を形成することができる。
一例として、形成された第1の立体視画像は、たとえば図3において述べられている第1の立体視画像302に対応し得る。したがって、第1および第2のスナップショットは、たとえば、それぞれ第1および第2の静止画像202/204に対応し得る。
ステレオベースを決定するために、2つの画像間の射影変換を考える必要がある。一例では、オプティカルフローをそのような検討のための基礎とすることができる。他の例は、そのような射影変換を決定するためにジャイロスコープ/加速度計/コンパスを使用することを含むことができる。次に、ステレオベースの決定について、オプティカルフローに関してさらに詳細に論じる。
オプティカルフローは、一般に、画像取込みデバイス(すなわち、ユーザによって移動される)とシーンの間の相対的な動きによって引き起こされる、たとえば対象(たとえば、シーン内の対象)の見かけの動きのパターンとして定義することができる。したがって、画像取込みデバイスがユーザによってシーンの1つの点(すなわち、開始点)からシーンの別の点(すなわち、停止点)までスイープされることを考えると、画像取込みデバイスの動きの方向、および水平変位を考える必要がある。
具体的には、動きの方向は、(たとえば、矢印200aによって示されている)スイープの方向に基づく。シーンにおける対象の状況において、画像取込みデバイスとシーンの間の相対的な動きによって引き起こされる対象の見かけの動きに関係付けることができる。シーン内の対象は、たとえば、図4に示されている関心対象402/403とすることができる。
検討しているオプティカルフローに基づいて、画像対の第1の画像を選択することができる。たとえば、静止画像のシーケンス200を、ユーザが閲覧するためにディスプレイ画面上に表示させることができ、ユーザは、静止画像のシーケンス200からの静止画像を画像対の第1の画像として選択することができる。画像対の第1の画像は、たとえば左側画像とすることができる。画像対の第1の画像が選択された後で、ステレオベースに基づいて第2の画像を特定し、画像対を完成させることができる。
ステレオベースは、典型的には、物体距離に基づくことができる。物体距離は、たとえば画像取込みデバイスとシーン内の対象との間の距離に対応し得る。観察される典型的な経験則は、1:30の比である。たとえば、シーン内の関心対象が画像取込みデバイスから約90メートル離れている場合、第1および第2のスナップショットによって形成される画像対に関連付けられたステレオベースは、3メートルとすることができる(すなわち、1:30の比に基づいて90を30で除したもの)。これに関して、ステレオベースは、典型的には、物体距離に正比例する。
本開示は、ステレオベースを物体距離に基づく代わりに、本開示の一実施形態により、ステレオベースを水平変位に基づくことができることを企図している。水平変位は、たとえば関心対象402/403が「移動」/「シフト」した(すなわち、画像取込みデバイスとシーンの間の相対的な動きによって引き起こされる対象の見かけの動きによる)ピクセルの数で表して定量化することができる。具体的には、図4の第1のスナップショットと第2のスナップショットを比較すると、関心対象402は、水平に(すなわち、点線404に沿って)シフトしており、この水平シフトは、ピクセルの数(たとえば、5ピクセル)で表して定量化することができることを理解することができる。したがって、図4の第1のスナップショットと第2のスナップショットを比較すると、関心対象402は、たとえば5ピクセルだけ水平にシフトしており、水平変位は、この場合、5ピクセルであると考えることができることを理解することができる。
これに関して、本開示は、ステレオベースが物体距離ではなく水平変位に基づくことを企図している。したがって、本開示にとって、静止画像(たとえば、第1の静止画像202)のどの関心部分/関心領域(たとえば、関心対象402)が前述の水平変位のための参照として選択/使用されているかが問題であることを理解されたい。したがって、ステレオベースは、使用/選択されている静止画像の関心部分/関心領域に応じて変わり得ることを理解されたい。
理解されるように、所望の水平シフト(これは、たとえばユーザ定義されたものとすることも、デフォルト設定とすることもできる)に基づいて、第2の画像を特定し、画像対を完成させることができる。
これに関して、画像対に関連付けられたステレオベースは、画像対の第1の画像と第2の画像の間の間隔を定量化するパラメータであると考えることができることを理解されたい。特に、例示/考察のために、画像取込みデバイスが実質的に一定の速度で移動される場合、ステレオベースは、静止画像のシーケンス200内の第1の画像と第2の画像を隔てるフレームの数で表して定量化することができることが企図されている。間隔を定量化する際、第1の画像と第2の画像を隔てるフレームの数は、第2の画像それ自体をも考慮するべきであることに留意されたい。
一例では、関心対象(たとえば、関心対象402/403)に関する5ピクセルの所望の水平変位に基づいて、また第1の画像が第2の静止画像204に対応する場合、5ピクセルの所望の水平変位の基準に合う第2の画像は、第5の静止画像210に対応し得る。これに関して、ステレオベースは、3フレーム間隔(すなわち、第5の静止画像210、第2の静止画像204と第5の静止画像210との間の第3および第4の静止画像206/208を含む)に対応し得る。
別の例では、関心対象(たとえば、関心対象402/403)に関する5ピクセルの所望の水平変位に基づいて、また第1の画像が第2の静止画像204に対応する場合、5ピクセルの所望の水平変位の基準に合う第2の画像は、第4の静止画像208に対応し得る。これに関して、ステレオベースは、2フレーム間隔(すなわち、第4の静止画像208、第2の静止画像204と第4の静止画像208との間の第3の静止画像206を含む)に対応し得る。
画像取込みデバイスがシーンにわたってスイープされるとき、関心対象は変更され得ることが企図されている。
たとえば、図4を参照すると、関心対象をスイープの一部分400a中に特定することができる。具体的には、1つの関心対象402を、第1の静止画像202(すなわち、第1の立体視画像302の第1の画像)に関して特定することができ、関心対象402について5ピクセルの所望の水平変位に基づいて、第2の静止画像204を特定し、画像対(すなわち、第1の立体視画像302の第2の画像)を完成させることができる。しかしながら、スイープの別の部分400b中に、別の関心対象403を特定することもできる。具体的には、別の関心対象403は、第3の静止画像206に関して特定することができる。第3の静止画像206が第1の画像として選択されるとき、(第3の静止画像206内の)関心対象403について5ピクセルの同じ所望の水平変位を考えると、5ピクセルの所望の水平変位の基準を満たす第2の画像は、(たとえば、第1の静止画像202内の関心対象402に比べた第3の静止画像206内に関心対象403のサイズに鑑みて)第5の静止画像210に対応し得る。これに関して、立体視画像は、第3および第5の静止画像206/210の画像対に基づいて形成することができる。したがって、異なる部分400a/400bが異なるステレオベースに関連付けられ得ることを理解されたい。具体的には、一部分400aに関連付けられたステレオベースは、1フレーム(すなわち、第2の静止画像204)によって定量化することができ、一方、もう1つの部分400bに関連付けられたステレオベースは、2フレーム(すなわち、第4および第5の静止画像208/210)によって定量化することができる。
また、画像取込みデバイスがシーンにわたってスイープされるとき、同じ関心対象(たとえば、第3の静止画像206に関して特定された関心対象403)を考えると、前述の所望の水平変位の基準を満たす第2の画像は、変更され得ることが企図されている。
たとえば、立体視画像は、関心対象403の5ピクセルの所望の水平変位に鑑みて、第3および第5の静止画像206/210の画像対に基づくことができることを前述した。しかしながら、(たとえば、第4の静止画像から第7の静止画像208/210/212/214からの)スイープの後の部分では、第5および第7の静止画像210/214の画像対は、同じ関心対象403の5ピクセルの水平変位の同じ基準を満たす可能性がある(すなわち、第5の静止画像210内の関心対象が第3の静止画像206内のものと同じである可能性がある)。そのような現象は、たとえば、(ユーザが画像取込みデバイスを保持している自分の手をどのように動かすかに応じた)スイープの終わりに向かうスイープの動きの湾曲により起こり得る。
したがって、ステレオベースは、画像取込みデバイスがシーンにわたってスイープされるとき変わり得ることを理解されたい。さらに、ステレオベースは、画像対の第1の画像および第2の画像の選択に基づいて可変であることを理解されたい。
さらに、上記の考察に基づいて、ステレオベースは、関心対象(および関心対象周りの領域)に基づくことができることを理解されたい。関心対象は、以下の1つまたは複数に基づいて特定することができる。
1)自動的に検出される目立つ対象
2)画像取込みデバイス焦点領域
3)ユーザ定義の領域(すなわち、画像取込みデバイスを操作するユーザによって手動で定義/選択される)
4)追跡するのに良好な特徴を選択するために静止画像全体(またはユーザ定義の部分領域)に作用するビジョン方法(vision method)
ステレオベースが関心対象の水平変位に基づいて決定されることとは別に、ステレオベースを決定する他の方法が可能となり得る。たとえば、
1)ステレオベースは、フォーカス距離に基づいて決定されることができ。
2)ステレオベースは、スナップショットの特性に基づいて決定されることができる。
フォーカス距離に関しては、本開示は、画像取込みデバイスが、スナップショットをシーンの関心対象に合焦することができることを企図している。したがって、スイープ中、フォーカス距離は(たとえば、画像取込みデバイスと関心対象の間の相対的な動きにより)変わり得ることを理解されたい。これに関して、ステレオベースは、それに応じて変わり得る。具体的には、ステレオベースは、フォーカス距離の変化に基づいて変わり得る。これに関して、ステレオベースは、画像取込みデバイスのレンズ(たとえば、カメラレンズ)に関連付けられたフォーカス距離に依存すると考えることができる。より具体的には、ステレオベースは、フォーカス距離の関数であると考えることができる。
スナップショットの特性に関しては、閲覧の快適性を最大にすることに関する画像対品質が考えられる。具体的には、画像対は、以下の条件の一方または両方が満たされるとき良好な品質のものであると考えられる。
1)垂直シフトが無視できる、または垂直シフトがない(点線404aによって示されているように−関心対象402が、画像対の第1の画像と第2の画像の間で、水平にだけシフトしており、垂直シフトは無視できるか、または垂直シフトがないことに留意されたい)。
2)第1の画像と第2の画像の間でシーンの変化が無視できるほど−理想的には、スナップショットに取り込まれた対象は、移動すべきでなかったものであり(スナップショット内の対象の移動は、前述の見かけの動きから区別されるべきであり、それは、「対象の移動」が、シーンそれ自体内で実際に対象が位置を変えることを意味することになり、一方、見かけの動きは、前に述べたように、対象がシーン内で実際に位置を変えることなしに、画像取込みデバイスとシーンの間の相対的な動きによって引き起こされるからである)、ライティング条件(lighting condition)は不変である。
選択される画像対の第1の画像が左側画像である場合、ユーザは、上記の条件を満たす右側画像を選択することができる。たとえば、ステレオベースが、たとえば(前述の所望の水平変位に基づいて)5フレームであると予め決定されている場合、ユーザは、5フレームのステレオベースに基づく第2の画像が良好な品質の画像対のための上記の条件を満たさない場合、静止画像のシーケンス200から別の静止画像を選択することができる。より具体的な例では、5フレームのステレオベースに基づく第2の画像が第1の画像に比べて垂直シフトが大きすぎると(たとえば、ユーザによって)思われる場合、2フレームのステレオベースに基づく第2の画像が第1の画像に対して垂直シフトが無視できるほどであると思われるなら、ステレオベースを2フレームに低減させることができる。右側画像の選択は、ユーザがディスプレイ画面上に表示された静止画像のシーケンス200から選択することによることができる。あるいは、上記の条件を満たす右側画像のユーザ選択の代わりに、上記の条件を満たす右側画像を特定するために、画像処理/比較が可能なプロセッサの使用により、右側画像の自動選択(すなわち、選択される画像対の第1の画像が左側画像である場合)が可能である(たとえば、プロセッサによる自動選択は、射影変換/目立つ対象追跡から得られる情報に基づくことができる)ことを理解されたい。さらに、垂直シフトの問題については、図5を参照してさらに詳細に後述する。
理解されるように、スナップショットの特性に基づいてステレオベースを決定することは、静止画像のシーケンス200の一部分が画像対を作成するために使用できない/適さない(たとえば、相当な垂直シフトによる)と思われる場合、その部分のためのステレオベースをゼロに削減することができる点で、ユーザに制御および柔軟性をもたらす。
たとえば、静止画像のシーケンス200では、第1および第2の静止画像202/204は、画像対を生成するために適している(すなわち、第1の適切な部分)と考えられ、第2の静止画像から第4の静止画像204/206/208は、前述の使用できない/適さない部分であると思われ、第5の静止画像から第7の静止画像210/212/214は、画像対を生成するために適している(すなわち、第2の適切な部分)と考えられる。画像対は、第1の適切な部分に基づいて形成することができ、ステレオベースは、最初に、たとえばピクセルの数で表して定量化することができる。第1の適切な部分に続いて、その部分(たとえば、第2の静止画像から第4の静止画像204/206/208)が画像対を作成するために適していない場合、ユーザは、2つの同一の画像を選択することによってステレオベースを(第1の適切な部分に関連付けられた初期のステレオベースから)ゼロに減じ、画像対を作成することができる(たとえば、ユーザは、画像対の第1の画像と第2の画像の両方となる第2の静止画像204を選択することができる)。使用できない/適さない部分に続いて、別の画像対を、第2の適切な部分に基づいて形成することができ、ステレオベースを(使用できない/適さない部分に関連付けられた、ゼロに減ぜられたステレオベースから)増大/伸長することができる。これに関して、ステレオベースは、静止画像のシーケンス200内のスナップショットの特性に従って調整する/変えることができることを理解されたい。
したがって、1つまたは複数の画像対のステレオベースを、自動(たとえば、自動の目立つ対象検出および/またはスナップショットの特性)および/または手動(たとえば、ユーザ定義および/またはスナップショットの特性)で変えることができることを理解されたい。
さらに、ステレオベースは、立体視画像シーケンス300の立体視画像(たとえば、第1の立体視画像から第4の立体視画像302/304/306/308)を形成するとき、動的に修正する/変えることができることを理解されたい。より具体的には、リアルタイムでのステレオベースの動的な修正を(たとえば、自動の目立つ対象検出、スナップショットの特性、スナップショットの焦点距離、および/またはユーザ定義により)容易にすることができることを理解されたい。
次に、垂直シフトの問題について、以下、画像対を作成するのに使用できない/適さない部分が第2の静止画像から第4の静止画像204/206/208を含む前の例の状況において、図5を参照して論じる。
図5に示されているように、静止画像のシーケンス200では、第2の静止画像204が第4の静止画像208に比べられたとき、点線502および504によって示されているように、関心対象402の位置の著しい垂直シフトがあり得る。関心対象402は、第2の静止画像204が第4の静止画像208に比べられたとき、垂直に変位している(すなわち、図5に示されているΔy)と考えることができる。そのような垂直変位は、第2および第4の静止画像204/208を、画像対を作成するのに適さない/使用できないものにし得る。
本開示は、これがたとえばスイープを行うとき画像取込みデバイスの不十分なユーザ制御により起こり得ることを企図している。たとえば、ユーザは、スイープを行うとき、画像取込みデバイスを不安定に保持しており、したがってぎくしゃくさを引き起こした可能性がある。理想的には、静止画像のシーケンス200は、静止画像間の垂直シフトが無視できるほどであるように取り込まれるべきである(すなわち、理想的には、たとえば画像取込みデバイスとシーンの間の相対的な動きによって引き起こされる対象の見かけの動きによる水平変位だけが、スイープに起因するべきである)。
次に、以下図6を参照して論じる例示的な応用例を参照する状況において前述をとらえる。
図6は、閲覧デバイス604と通信するように構成することができる画像取込みデバイス602を示す。画像取込みデバイス602は、たとえば、ユーザ(図示せず)がシーン(図示せず)のスイープを(たとえば、矢印200aによって示されている前述の例示的な方向に)行い、そのシーンの前述の静止画像のシーケンス200を取り込むために使用することができるカメラを備えるスマートフォンとすることができる。閲覧デバイス604は、たとえば、ユーザが、静止画像のシーケンス200に基づいて作成される前述の立体視画像シーケンス300を閲覧するために着用するヘッドマウントディスプレイとすることができる。
画像取込みデバイス602は、プロセッサ(図示せず)、感知デバイス(図示せず)、ディスプレイモジュール602a、およびユーザ入力モジュール602bを含むことができる。具体的には、画像取込みデバイス602は、プロセッサ、感知デバイス、ディスプレイモジュール602a、およびユーザ入力モジュール602bを担持するように形作られ寸法設定されたケーシングを有することができる。プロセッサおよび感知デバイスは、たとえば、ケーシング内で担持され得る。さらに、ケーシングは、ディスプレイモジュール602aおよびユーザ入力モジュール602bを、共に閲覧するために露出されアクセス可能となるように担持することができる。
ディスプレイモジュール602aは、たとえばタッチスクリーンベースのディスプレイとすることができる。静止画像のシーケンス200を、ユーザが閲覧するためにディスプレイモジュール602a上に表示することができ、ユーザは、所望の静止画像(たとえば、第1の静止画像202)を表示するディスプレイモジュール602aの部分に接触することによって、静止画像の1つ(たとえば、第1の静止画像202)を画像対の第1の画像として選択することができる。これに関して、選択された(画像対の)第1の画像を示す画像選択データを、ディスプレイモジュール602aから通信することができる。
ユーザ入力モジュール602bは、ユーザが前述の所望の水平変位を定義することを可能にする、スライダなどハードウェアベースの部分とすることができる。したがって、ユーザは、いつでも望むとき、やはりユーザ入力モジュール602bを使用し、たとえばスライダをスライドさせることによって水平変位を変えることができる。これに関して、所望の水平変位を示す水平変位データを、ユーザ入力モジュール602bから通信することができる。
感知デバイスは、スイープの方向を感知/検出するように構成することができる。たとえば、感知デバイスは、ジャイロスコープ−加速度計−コンパスとすることができ、オプティカルフローは、感知デバイスによって感知されるスイープの方向に基づいて決定することができる。これに関して、オプティカルフローを示す感知データを、感知デバイスから通信することができる。
プロセッサは、たとえば、画像選択データおよび/またはステレオベースデータ、ならびに感知データを受信し、静止画像のシーケンス200内の静止画像を適切に対にし、立体視画像シーケンス300を作成するように処理するように構成されたマイクロプロセッサとすることができる。プロセッサによる処理は、ビデオ安定化を含むことができる。さらに、プロセッサによる処理は、画像ワーピングを実施し、垂直シフトを低減することによって、1つまたは複数の画像対の第1の画像と第2の画像を幾何学的に位置合わせすることを含むことができる。さらに、プロセッサによる処理は、画像対の移行中、突然の変化(すなわち、視覚的に知覚可能な「ぎくしゃくさ」)を防止するために、画像ワーピングの量をスムージングすることを含むことができる。画像ワーピングの量をスムージングすることは、プロセッサ内のローパスフィルタおよび/またはカルマンフィルタの実装(たとえば、デジタル信号処理)によって可能になり得る。さらに、プロセッサによる処理は、表示(すなわち、閲覧デバイス604による)のために適切な形状に画像対をフォーマット化することを含むことができる。
ビデオ安定化に関して、本開示は、回転および垂直平行移動の両方の補正を行う状況において、ビデオ安定化をよりいっそう企図しており、水平平行移動補正を行う状況においてはそれほど重要としない。
画像取込みデバイスは、たとえば立体視画像シーケンス300を閲覧するためにユーザが着用することができる閲覧デバイス604に立体視画像シーケンス300を通信するようにさらに構成することができる。
好ましくは、立体視画像シーケンス300は、以下の意味でインタラクティブなものとすることができる。
1)選択される第1の画像(すなわち、画像対のもの)は、立体視画像シーケンス300閲覧時のユーザインタラクションに基づくことができる。および/または
2)ユーザが閲覧する立体視画像(たとえば、第1の立体視画像から第4の立体視画像302/304/306/308のいずれか)が、ユーザの動きに従って変更される。
一例では、ユーザインタラクションに基づく第1の画像の選択に関して、閲覧デバイス604を着用しているユーザが頭を回したとき、選択される第1の画像は、ユーザの頭の回る動きに基づくことができる。具体的には、画像対の第1の画像が最初、第3の静止画像206である場合、この画像対の第1の画像は、たとえばユーザが頭を左に回した場合、第2の静止画像204に変更され得る。したがって、ユーザが頭を左に回したとき、第2の静止画像204に基づく画像対を作成することができる。反対に、ユーザが頭を右に回した場合、この画像対の第1の画像は、たとえば第5の静止画像210に変更され得、それに応じて、第1の画像として第5の静止画像210に基づく画像対を作成することができる。理解されるように、閲覧デバイス604は、ユーザの動きを感知するために感知デバイス(画像取込みデバイス602のものと同様のもの)を含んでもよい。さらに、ユーザの動きを示すフィードバック信号を、閲覧デバイス604から画像取込みデバイス602に通信し、画像対の第1の画像の選択を変えることができる。これに関して、画像対、したがって立体視画像シーケンス300は、ユーザの動きを検出することによって、(ユーザがディスプレイモジュール602aに接触し、選択することに対して)非接触で作成することができる(すなわち、非接触ユーザインタラクション)ことを理解されたい。
別の例では、ユーザの動きに従ってユーザが閲覧している立体視画像を変更することに関して、閲覧デバイス604を着用しているユーザが最初、第2の立体視画像304を閲覧している可能性がある。ユーザが頭を左に回したとき、ユーザは、最初の第2の立体視画像304ではなく第1の立体視画像302を閲覧している可能性がある。反対に、ユーザが頭を右に回したとき、ユーザは、最初の第2の立体視画像304ではなく第4の立体視画像308を閲覧している可能性がある。
上述の例示的な応用例は、以下に有用となり得る。
1)ユーザが関心対象周りで画像取込みデバイスをスイープする(すなわち、対象それ自体だけの静止画像のシーケンス200を取り込む)対象閲覧タイプのスイープ
2)ユーザが腕の長さで画像取込みデバイスを保持し、ユーザ自身に向けて、画像取込みデバイスを円弧状にスイープすることができる(すなわち、ユーザ自身だけの静止画像のシーケンス200を取り込む)自撮りタイプのスイープ
3)パノラマタイプのスイープ
前述のようにして、前述の欠点の少なくとも1つに対処するために、本開示の様々な実施形態が述べられている。そのような実施形態は、以下の特許請求の範囲によって包含されることが意図されており、そのように記載の特定の形態または各部の配置に限定されるものではなく、本開示に鑑みて、多数の変更および/または修正をなすことができ、これらもまた以下の特許請求の範囲によって包含されることが意図されていることが当業者には明らかであろう。
たとえば、前述の例示的な応用例は、画像取込みデバイス602がプロセッサを担持することを企図している。そのようなプロセッサは、閲覧デバイスによって担持され得ることを理解されたい(たとえば、画像取込みデバイス602は、閲覧デバイス604によって担持されたプロセッサによって処理するために、静止画像のシーケンス200を閲覧デバイス604に通信することができる)。また、画像取込みデバイス602と閲覧デバイス604がそれぞれプロセッサを担持することができることを理解されたい(すなわち、処理の一部分を画像取込みデバイスによって担持されたプロセッサによって扱うことができ、処理の別の部分を閲覧デバイス604によって担持されたプロセッサによって扱うことができる)。
別の例では、スイープ中、音声(すなわち、シーンからの可聴音)をも取り込み、立体視画像シーケンス300の閲覧中に再生し、閲覧体験を豊かにすることができる。
さらに別の例では、ユーザインターフェース(UI)を(たとえば、画像取込みデバイス602のディスプレイモジュール602aを介して)表示し、スイープまたはスイープの一部分を使用して画像対を作成することができるかどうかユーザに対して示すことができる。UIは、たとえば、画像取込みデバイスを保持しているユーザの手がスイープ中不安定であるかどうか示すことができる。
さらに別の例では、停止ステップ106に関して、停止点はユーザが画像取込みデバイスを移動するのを止めたところであると考えられることが述べられているが、停止点は、(たとえば、ユーザが画像取込みデバイスを移動するのを止めたか否かにかかわらず取込みを停止するように画像取込みデバイス内のタイマを設定することによって)ユーザが画像取込みデバイスを移動するのを止める前にいつでも自動的に発生し得ることを理解されたい。

Claims (9)

  1. 立体視画像シーケンスを作成するための方法であって、
    静止画像のシーケンスを取り込むステップと、
    複数の画像対を形成するステップであって、各画像対は、静止画像の前記シーケンスから選択された第1の画像および第2の画像を含み、前記第1の画像の選択は、前記画像対が空間的に一貫性があるように形成されるように行われる、ステップとを含み、
    前記立体視画像シーケンスは、前記画像対に基づいて作成される、方法。
  2. 各画像対は、前記第1の画像と前記第2の画像との間の間隔に基づくステレオベースに関連付け可能である、請求項1に記載の方法。
  3. 前記ステレオベースは、画像対の前記第1の画像および前記第2の画像の選択に基づいて可変である、請求項2に記載の方法。
  4. 画像対の前記第1の画像および前記第2の画像の選択は、手動ベースの選択および自動ベースの選択のうちの少なくとも1つに基づく、請求項3に記載の方法。
  5. 手動ベースの選択は、画像対の前記第1の画像および前記第2の画像のユーザ選択のために静止画像の前記シーケンスをディスプレイ画面上に提示することによる、請求項4に記載の方法。
  6. 自動ベースの選択は、少なくとも1つの静止画像に関連付けられた焦点距離の変化、目立つ対象検出、および前記静止画像に関連付けられた特性のうちの少なくとも1つに基づく、請求項4に記載の方法。
  7. 前記立体視画像シーケンスは、前記立体視画像シーケンスが閲覧されているときのユーザインタラクションに基づいて画像対の前記第1の画像の選択が可変であるように、インタラクティブである、請求項1に記載の方法。
  8. 前記立体視画像シーケンスは、複数の立体視画像を含み、前記立体視画像のそれぞれは、画像対に基づいて形成され、
    ユーザが前記立体視画像シーケンスを閲覧しているときユーザによって閲覧されている前記立体視画像は、ユーザの動きに基づいて可変である、請求項1に記載の方法。
  9. 前記立体視画像シーケンスを作成することは、立体視ビデオを生成することに関係する、請求項1に記載の方法。
JP2018534681A 2015-12-30 2016-12-28 立体視画像シーケンスを作成するための方法 Active JP7374450B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201510773P 2015-12-30
SG10201510773PA SG10201510773PA (en) 2015-12-30 2015-12-30 A method for creating a stereoscopic image sequence
PCT/SG2016/050622 WO2017116309A1 (en) 2015-12-30 2016-12-28 A method for creating a stereoscopic image sequence

Publications (3)

Publication Number Publication Date
JP2019508928A true JP2019508928A (ja) 2019-03-28
JP2019508928A5 JP2019508928A5 (ja) 2020-02-13
JP7374450B2 JP7374450B2 (ja) 2023-11-07

Family

ID=59225683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018534681A Active JP7374450B2 (ja) 2015-12-30 2016-12-28 立体視画像シーケンスを作成するための方法

Country Status (6)

Country Link
US (1) US10602123B2 (ja)
EP (1) EP3398329A4 (ja)
JP (1) JP7374450B2 (ja)
CN (1) CN108476313B (ja)
SG (1) SG10201510773PA (ja)
WO (1) WO2017116309A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113807A (ja) * 2004-10-14 2006-04-27 Canon Inc 多視点画像の画像処理装置および画像処理プログラム
JP2011091481A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011147067A (ja) * 2010-01-18 2011-07-28 Sony Corp 画像処理装置及び方法、並びにプログラム
JP2011146825A (ja) * 2010-01-13 2011-07-28 Panasonic Corp ステレオ画像撮影装置およびその方法
JP2012109706A (ja) * 2010-11-16 2012-06-07 Sharp Corp 立体映像表示装置及び立体映像表示システム
WO2012081127A1 (ja) * 2010-12-17 2012-06-21 富士通株式会社 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP2012165247A (ja) * 2011-02-08 2012-08-30 Nikon Corp 画像処理装置、撮影装置および画像処理プログラム
JP2013186227A (ja) * 2012-03-07 2013-09-19 Seiko Epson Corp 映像表示装置および映像表示方法
JP2015231178A (ja) * 2014-06-06 2015-12-21 日本電信電話株式会社 画像選択装置、立体画像表示システム、画像選択方法及び画像選択プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4842411A (en) * 1986-02-06 1989-06-27 Vectron, Inc. Method of automatically measuring the shape of a continuous surface
US4807024A (en) * 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
IL150131A (en) 2002-06-10 2007-03-08 Rafael Advanced Defense Sys A method for turning a series of monoscopic images into a series of stereoscopic images
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
US20120019614A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Variable Stereo Base for (3D) Panorama Creation on Handheld Device
US20120019613A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
JP5891424B2 (ja) * 2010-09-17 2016-03-23 パナソニックIpマネジメント株式会社 立体映像作成装置および立体映像作成方法
US9413923B2 (en) * 2011-01-24 2016-08-09 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
KR101804199B1 (ko) * 2011-10-12 2017-12-05 삼성전자주식회사 입체 파노라마 영상을 생성하는 장치 및 방법
US20130107008A1 (en) * 2011-10-31 2013-05-02 Nokia Corporation Method, apparatus and computer program product for capturing images
US20130250048A1 (en) * 2012-01-13 2013-09-26 Joshua Victor Aller Method of capture, display and sharing of orientation-based image sets
US9213419B1 (en) * 2012-11-13 2015-12-15 Amazon Technologies, Inc. Orientation inclusive interface navigation
TWI540492B (zh) * 2012-12-20 2016-07-01 晨星半導體股份有限公司 電子裝置以及電子裝置控制方法
US10237528B2 (en) * 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
CN104065943A (zh) * 2013-03-20 2014-09-24 联发科技股份有限公司 三维图像捕获方法及用于三维图像捕获的电子装置
WO2015042483A2 (en) * 2013-09-20 2015-03-26 Camplex, Inc. Surgical visualization systems
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
JP2017507680A (ja) * 2013-12-23 2017-03-23 キャンプレックス インコーポレイテッド 手術可視化システム
GB201413473D0 (en) * 2014-07-30 2014-09-10 Rue De Int Ltd Security device and method of manufacture thereof
US20170038598A1 (en) * 2015-03-04 2017-02-09 Jay Song Adjustable optical stereoscopic glasses
US10545344B2 (en) * 2016-05-20 2020-01-28 Kent State University Stereoscopic display with reduced accommodation fatique

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113807A (ja) * 2004-10-14 2006-04-27 Canon Inc 多視点画像の画像処理装置および画像処理プログラム
JP2011091481A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011146825A (ja) * 2010-01-13 2011-07-28 Panasonic Corp ステレオ画像撮影装置およびその方法
JP2011147067A (ja) * 2010-01-18 2011-07-28 Sony Corp 画像処理装置及び方法、並びにプログラム
JP2012109706A (ja) * 2010-11-16 2012-06-07 Sharp Corp 立体映像表示装置及び立体映像表示システム
WO2012081127A1 (ja) * 2010-12-17 2012-06-21 富士通株式会社 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP2012165247A (ja) * 2011-02-08 2012-08-30 Nikon Corp 画像処理装置、撮影装置および画像処理プログラム
JP2013186227A (ja) * 2012-03-07 2013-09-19 Seiko Epson Corp 映像表示装置および映像表示方法
JP2015231178A (ja) * 2014-06-06 2015-12-21 日本電信電話株式会社 画像選択装置、立体画像表示システム、画像選択方法及び画像選択プログラム

Also Published As

Publication number Publication date
JP7374450B2 (ja) 2023-11-07
EP3398329A1 (en) 2018-11-07
SG10201510773PA (en) 2017-07-28
CN108476313A (zh) 2018-08-31
US20180367783A1 (en) 2018-12-20
CN108476313B (zh) 2020-11-27
US10602123B2 (en) 2020-03-24
EP3398329A4 (en) 2019-08-07
WO2017116309A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
KR101741335B1 (ko) 안구추적을 기반으로 한 홀로그램 디스플레이 방법 및 홀로그램 디스플레이 장치
KR101313740B1 (ko) 원소스 멀티유즈 스테레오 카메라 및 스테레오 영상 컨텐츠제작방법
JP5963422B2 (ja) 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US8760502B2 (en) Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same
KR101824439B1 (ko) 모바일 스테레오 카메라 장치 및 그 촬영방법
US20150124155A1 (en) Quick Automatic Focusing Method and Image Acquisition Apparatus
WO2012011341A1 (ja) 撮像装置、その制御方法およびプログラム
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
JP2012239006A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2015018296A (ja) 表示制御装置、プログラム及び記録媒体
JP6576536B2 (ja) 情報処理装置
KR101270025B1 (ko) 스테레오 카메라의 주시각 제어방법 및 그 스테레오 카메라 장치
CN104853172A (zh) 一种信息处理方法以及一种电子设备
WO2018014517A1 (zh) 一种信息处理方法、装置及存储介质
CN104506841A (zh) 一种多摄像头终端的3d文件制作、播放方法及装置
US8878908B2 (en) 3-D auto-convergence camera
JP2019022026A (ja) 撮像装置
JP5153021B2 (ja) 撮影装置、撮影方法及びプログラム
JP7374450B2 (ja) 立体視画像シーケンスを作成するための方法
JP2015212782A (ja) 画像撮影装置、情報処理装置、および画像撮影方法、並びにプログラム
US20220337744A1 (en) Camera system utilizing auxiliary image sensors
US20200275086A1 (en) Information processing apparatus, information processing method, and storage medium
KR101376734B1 (ko) 원소스 멀티유즈 스테레오 카메라 및 스테레오 영상 컨텐츠 제작방법
JP2014225836A (ja) 撮像装置及び撮像装置の制御方法
US9762891B2 (en) Terminal device, image shooting system and image shooting method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211101

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220301

C116 Written invitation by the chief administrative judge to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C116

Effective date: 20220316

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220316

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R150 Certificate of patent or registration of utility model

Ref document number: 7374450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150