JP5763184B2 - 3次元画像に対する視差の算出 - Google Patents
3次元画像に対する視差の算出 Download PDFInfo
- Publication number
- JP5763184B2 JP5763184B2 JP2013515428A JP2013515428A JP5763184B2 JP 5763184 B2 JP5763184 B2 JP 5763184B2 JP 2013515428 A JP2013515428 A JP 2013515428A JP 2013515428 A JP2013515428 A JP 2013515428A JP 5763184 B2 JP5763184 B2 JP 5763184B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- parallax
- depth
- range
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
視点合成ユニット44は、第1の画像についての奥行情報を分析して、第1の画像の画素に対する視差値を算出しうる(162)。例えば、各画素について、視点合成ユニット44は、画素がスクリーンの後方、スクリーン上、またはスクリーンの手前に表示されるべきことを画素についての奥行情報が示すか否かを決定し、それに応じて、画素に対する視差値を算出しうる。第1の画像の画素に対する視差値を算出する例示的な方法は、図5に関してより詳細に下に記述される。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1] 3次元(3D)画像データを生成するための方法であって、
3Dレンダリングデバイスが、複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて第1の画像の前記複数の画素に対する視差値を算出すること、
前記3Dレンダリングデバイスが、前記第1の画像と前記視差値とに基づいて前記第2の画像を生成することと、
を備え、前記視差値は、第2の画像の複数の画素のうちの対応する1つの水平オフセットを表す、方法。
[2] 前記複数の画素のうちの1つについて前記視差値を算出することは、
前記奥行情報の奥行値を、定義された視差範囲内の視差値にマッピングする関数を選択することと、
前記複数の画素の前記1つについて前記奥行情報に基づいて前記選択された視差関数を実行することと、
を備える、[1]に記載の方法。
[3] 前記複数の画素に対する前記視差値を算出することは、前記複数の画素のうちの少なくとも1つについて、
前記複数の画素の前記1つについての前記奥行情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値から第2の許容値を差し引いたものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値を足したものと、前記収束奥行値から前記第2の許容値を差し引いたものとの間の奥行値を備える第3の範囲内であるかを決定することと、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行することと、
前記複数の画素の前記1つについての前記奥行が前記第2の範囲内である場合に、第2の関数を実行することと、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素の前記1つの前記視差値をゼロに等しく設定することと
を備える、[1]に記載の方法。
[4] 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲の奥行値を、−disnから0までの負の視差値にマッピングする単調減少関数を備える、[3]に記載の方法。
[5] 受信された視差調整値にしたがって、前記負の最小視差値を変更することをさらに備える、[4]に記載の方法。
[6] 前記3Dディスプレイデバイスに通信的に結合された遠隔制御デバイスから前記視差調整値を受信することをさらに備える、[5]に記載の方法。
[7] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[5]に記載の方法。
[8] 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、[3]に記載の方法。
[9] 受信された視差調整値にしたがって、前記正の最大視差値を変更することをさらに備える、[8]に記載の方法。
[10] 前記3Dディスプレイデバイスに通信的に結合された遠隔制御デバイスから前記視差調整値を受信することをさらに備える、[9]に記載の方法。
[11] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[9]に記載の方法。
[12] 前記第1の関数は、
[13] 前記視差値を算出することは、カメラモデル、焦点距離、実世界奥行範囲値、低ダイナミックレンジ奥行値から実世界奥行値への変換、実世界収束距離、視聴距離、および、表示幅を直接使用することなく、前記視差値を算出することを備える、[1]に記載の方法。
[14] 3次元画像データを生成するための装置であって、
複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて第1の画像の前記複数の画素に対する視差値を算出し、前記第1の画像および前記視差値に基づいて、前記第2の画像を生成するように構成された視点合成ユニットを備え、
前記視差値は、第2の画像の複数の画素のうちの対応する1つの水平オフセットを記述する、装置。
[15] 前記複数の画素のうちの少なくとも1つに対する前記視差値を算出するために、前記視点合成ユニットは、
前記複数の画素の前記1つについての前記奥行情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値から第2の許容値を差し引いたものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値を足したものと前記収束奥行値から前記第2の許容値を差し引いたものとの間の奥行値を備える第3の範囲内であるかを決定し、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行し、
前記複数の画素の前記1つについての前記奥行情報が前記第2の範囲内である場合に、第2の関数を実行し、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素の前記1つの前記視差値をゼロに等しく設定する
ように構成される、[14]に記載の装置。
[16] 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲内の奥行値を、−disnから0までの負の視差値にマッピングする単調減少関数を備える、[15]に記載の装置。
[17] 受信された視差調整値にしたがって、前記負の最小視差値を変更するように構成された視差範囲構成ユニットをさらに備える、[16]に記載の方法。
[18] 前記視差範囲構成ユニットは、前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するように構成される、[17]に記載の装置。
[19] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[17]に記載の装置。
[20] 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲内の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、[15]に記載の装置。
[21] 受信された視差調整値にしたがって、前記正の最大視差値を変更するように構成された視差範囲構成ユニットをさらに備える、[20]に記載の方法。
[22] 前記視差範囲構成ユニットは、前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するように構成される、[21]に記載の装置。
[23] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[21]に記載の装置。
[24] 前記第1の関数は、
[25] 3次元(3D)画像データを生成するための装置であって、前記方法は、
複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて第1の画像の前記複数の画素に対する視差値を算出するための手段と、
前記第1の画像および前記視差値に基づいて前記第2の画像を生成するための手段と、
を備え、前記視差値は、第2の画像の複数の画素のうちの対応する1つの水平オフセットを表す、装置。
[26] 前記複数の画素のうちの1つの前記視差値を算出するための手段は、
前記複数の画素の前記1つについての前記奥行情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値から第2の許容値を差し引いたものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値を足したものと、前記収束奥行値から前記第2の許容値を差し引いたものとの間の奥行値を備える第3の範囲内であるかを決定するための手段と、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行するための手段と、
前記複数の画素の前記1つについての前記奥行情報が前記第2の範囲内である場合に、第2の関数を実行するための手段と、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素のうちの1つの前記視差値をゼロに等しく設定するための手段と
を備える、[25]に記載の装置。
[27] 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲内の奥行値を、−disnから0の範囲までの負の視差値にマッピングする単調減少関数を備える、[26]に記載の装置。
[28] 受信された視差調整値にしたがって、前記負の最小視差値を変更するための手段をさらに備える、[27]に記載の装置。
[29] 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するための手段をさらに備える、[28]に記載の装置。
[30] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[28]に記載の装置。
[31] 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲内の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、[26]に記載の装置。
[32] 受信された視差調整値にしたがって、前記正の最大視差値を変更するための手段をさらに備える、[31]に記載の装置。
[33] 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するための手段をさらに備える、[32]に記載の装置。
[34] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[32]に記載の装置。
[35] 前記第1の関数は
[36] コンピュータ読取可能な記憶媒体であって、実行された場合に、
複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて、第1の画像の前記複数の画素に対する視差値を算出すること、
前記第1の画像と前記視差値とに基づいて前記第2の画像を生成すること、
を、3次元(3D)画像データを生成するための装置のプロセッサに行わせる命令を備え、前記視差値は、第2の画像の複数の画素のうちの対応する1つの水平オフセットを表す、コンピュータ読取可能な記憶媒体。
[37] 前記複数の画素に対する前記視差値を算出させることを前記プロセッサに対して行わせる命令は、前記複数の画素のうちの少なくとも1つについて、
前記複数の画素の前記1つについての奥行情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値に第2の許容値を足したものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値したものと、前記収束奥行値から前記第2の許容値を差し引いたもとの間である奥行値を備える第3の範囲内であるかを決定することと、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行することと、
前記複数の画素の前記1つについての前記奥行情報が前記第2の範囲内である場合に、第2の関数を実行することと、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素のうちの1つの前記視差値をゼロに等しく設定することと
を、前記プロセッサに行わせる命令を備える、[36]に記載のコンピュータ読取可能な記憶媒体。
[38] 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲内の奥行値を、−disnから0までの負の視差値にマッピングする単調減少関数を備る、[37]に記載のコンピュータ読取可能な記憶媒体。
[39] 受信された視差調整値にしたがって、前記負の最小視差値を変更することを前記プロセッサに行わせる命令をさらに備える、[38]に記載のコンピュータ読取可能な記憶媒体。
[40] 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信することを前記プロセッサに行わせる命令をさらに備える、[39]に記載のコンピュータ読取可能な記憶媒体。
[41] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[39]に記載のコンピュータ読取可能な記憶媒体。
[42] 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲内の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、[37]に記載のコンピュータ読取可能な記憶媒体。
[43] 受信された視差調整値にしたがって、前記正の最大視差値を変更することを前記プロセッサに行わせる命令をさらに備える、[42]に記載のコンピュータ読取可能な記憶媒体。
[44] 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信することを前記プロセッサに行わせる命令をさらに備える、[43]に記載のコンピュータ読取可能な記憶媒体。
[45] 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、[43]に記載のコンピュータ読取可能な記憶媒体。
[46] 前記第1の関数は、
Claims (46)
- 3次元(3D)画像データを生成するための方法であって、
3Dレンダリングデバイスが、複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて第1の画像の前記複数の画素に対する視差値を算出すること、
前記3Dレンダリングデバイスが、前記第1の画像と前記視差値とに基づいて第2の画像を生成することと、
を備え、前記視差値は、前記第2の画像の複数の画素のうちの対応する1つの水平オフセットを表し、
前記複数の画素に対する前記視差値を算出することは、
前記複数の画素のうちの少なくとも1つについての前記奥行き情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値から第2の許容値を差し引いたものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値を足したものと、前記収束奥行値から前記第2の許容値を差し引いたものとの間の奥行値を備える第3の範囲内であるかを決定することと、前記収束奥行値は、ゼロの視差値に対応する収束面の奥行値であり、
前記奥行き情報が前記第1の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の後方に表示するための視差値を割り当て、前記奥行き情報が前記第2の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の前方に表示するための視差値を割り当て、前記奥行き情報が前記第3の範囲内である場合、前記複数の画素のうちの前記1つにゼロの視差値を割り当てることと、
を備える、方法。 - 前記複数の画素のうちの1つについて前記視差値を算出することは、
前記奥行情報の奥行値を、定義された視差範囲内の視差値にマッピングする関数を選択することと、
前記複数の画素の前記1つについて前記奥行情報に基づいて前記選択された視差関数を実行することと、
を備える、請求項1に記載の方法。 - 前記複数の画素に対する前記視差値を算出することは、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行することと、
前記複数の画素の前記1つについての前記奥行が前記第2の範囲内である場合に、第2の関数を実行することと、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素の前記1つの前記視差値をゼロに等しく設定することと
を備える、請求項1に記載の方法。 - 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲の奥行値を、−disnから0までの負の視差値にマッピングする単調減少関数を備える、請求項3に記載の方法。
- 受信された視差調整値にしたがって、前記負の最小視差値を変更することをさらに備える、請求項4に記載の方法。
- 前記3Dレンダリングデバイスに通信的に結合された遠隔制御デバイスから前記視差調整値を受信することをさらに備える、請求項5に記載の方法。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項5に記載の方法。
- 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、請求項3に記載の方法。
- 受信された視差調整値にしたがって、前記正の最大視差値を変更することをさらに備える、請求項8に記載の方法。
- 前記3Dレンダリングデバイスに通信的に結合された遠隔制御デバイスから前記視差調整値を受信することをさらに備える、請求項9に記載の方法。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項9に記載の方法。
- 前記視差値を算出することは、カメラモデル、焦点距離、実世界奥行範囲値、低ダイナミックレンジ奥行値から実世界奥行値への変換、実世界収束距離、視聴距離、および、表示幅を直接使用することなく、前記視差値を算出することを備える、請求項1に記載の方法。
- 3次元画像データを生成するための装置であって、
複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて第1の画像の前記複数の画素に対する視差値を算出し、前記第1の画像および前記視差値に基づいて、第2の画像を生成するように構成された視点合成ユニットを備え、
前記視差値は、前記第2の画像の複数の画素のうちの対応する1つの水平オフセットを記述し、
前記複数の画素のうちの少なくとも1つに対する前記視差値を算出するために、前記視点合成ユニットは、
前記複数の画素の前記1つについての前記奥行き情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値から第2の許容値を差し引いたものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値を足したものと、前記収束奥行値から前記第2の許容値を差し引いたものとの間の奥行値を備える第3の範囲内であるかを決定し、前記収束奥行値は、ゼロの視差値に対応する収束面の奥行値であり、
前記奥行き情報が前記第1の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の後方に表示するための視差値を割り当て、前記奥行き情報が前記第2の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の前方に表示するための視差値を割り当て、前記奥行き情報が前記第3の範囲内である場合、前記複数の画素のうちの前記1つにゼロの視差値を割り当てる、ように構成される装置。 - 前記複数の画素のうちの少なくとも1つに対する前記視差値を算出するために、前記視点合成ユニットは、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行し、
前記複数の画素の前記1つについての前記奥行情報が前記第2の範囲内である場合に、第2の関数を実行し、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素の前記1つの前記視差値をゼロに等しく設定する
ように構成される、請求項14に記載の装置。 - 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲内の奥行値を、−disnから0までの負の視差値にマッピングする単調減少関数を備える、請求項15に記載の装置。
- 受信された視差調整値にしたがって、前記負の最小視差値を変更するように構成された視差範囲構成ユニットをさらに備える、請求項16に記載の装置。
- 前記視差範囲構成ユニットは、前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するように構成される、請求項17に記載の装置。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項17に記載の装置。
- 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲内の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、請求項15に記載の装置。
- 受信された視差調整値にしたがって、前記正の最大視差値を変更するように構成された視差範囲構成ユニットをさらに備える、請求項20に記載の装置。
- 前記視差範囲構成ユニットは、前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するように構成される、請求項21に記載の装置。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項21に記載の装置。
- 3次元(3D)画像データを生成するための装置であって、前記装置は、
複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて第1の画像の前記複数の画素に対する視差値を算出するための手段と、
前記第1の画像および前記視差値に基づいて第2の画像を生成するための手段と、
を備え、前記視差値は、前記第2の画像の複数の画素のうちの対応する1つの水平オフセットを表し、
前記複数の画素のうちの1つの前記視差値を算出するための手段は、
前記複数の画素の前記1つについての前記奥行情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値から第2の許容値を差し引いたものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値を足したものと、前記収束奥行値から前記第2の許容値を差し引いたものとの間の奥行値を備える第3の範囲内であるかを決定するための手段と、前記収束奥行値は、ゼロの視差値に対応する収束面の奥行値であり、
前記奥行き情報が前記第1の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の後方に表示するための視差値を割り当て、前記奥行き情報が前記第2の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の前方に表示するための視差値を割り当て、前記奥行き情報が前記第3の範囲内である場合、前記複数の画素のうちの前記1つにゼロの視差値を割り当てる手段と、
を備える装置。 - 前記複数の画素のうちの1つの前記視差値を算出するための手段は、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行するための手段と、
前記複数の画素の前記1つについての前記奥行情報が前記第2の範囲内である場合に、第2の関数を実行するための手段と、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素のうちの1つの前記視差値をゼロに等しく設定するための手段と
を備える、請求項25に記載の装置。 - 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲内の奥行値を、−disnから0の範囲までの負の視差値にマッピングする単調減少関数を備える、請求項26に記載の装置。
- 受信された視差調整値にしたがって、前記負の最小視差値を変更するための手段をさらに備える、請求項27に記載の装置。
- 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するための手段をさらに備える、請求項28に記載の装置。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項28に記載の装置。
- 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲内の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、請求項26に記載の装置。
- 受信された視差調整値にしたがって、前記正の最大視差値を変更するための手段をさらに備える、請求項31に記載の装置。
- 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信するための手段をさらに備える、請求項32に記載の装置。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項32に記載の装置。
- コンピュータ読取可能な記憶媒体であって、実行された場合に、
複数の画素に関連付けられた奥行情報、および、前記奥行情報がマッピングされる視差範囲に基づいて、第1の画像の前記複数の画素に対する視差値を算出すること、
前記第1の画像と前記視差値とに基づいて第2の画像を生成すること、
を、3次元(3D)画像データを生成するための装置のプロセッサに行わせる命令を備え、前記視差値は、前記第2の画像の複数の画素のうちの対応する1つの水平オフセットを表し、
前記複数の画素に対する前記視差値を算出させることを前記プロセッサに対して行わせる命令は、
前記複数の画素のうちの少なくとも1つについての奥行情報の奥行値が、収束奥行値に第1の許容値を足したものよりも大きい奥行値を備える第1の範囲内であるか、前記収束奥行値に第2の許容値を差し引いたものよりも小さい奥行値を備える第2の範囲内であるか、前記収束奥行値に前記第1の許容値したものと、前記収束奥行値から前記第2の許容値を差し引いたもとの間である奥行値を備える第3の範囲内であるかを決定することと、前記収束奥行値は、ゼロの視差値に対応する収束面の奥行値であり、
前記奥行き情報が前記第1の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の後方に表示するための視差値を割り当て、前記奥行き情報が前記第2の範囲内である場合、前記複数の画素のうちの前記1つに前記収束面の前方に表示するための視差値を割り当て、前記奥行き情報が前記第3の範囲内である場合、前記複数の画素のうちの前記1つにゼロの視差値を割り当てることと、
を前記プロセッサに行わせる命令を備える、コンピュータ読取可能な記憶媒体。 - 前記複数の画素に対する前記視差値を算出させることを前記プロセッサに対して行わせる命令は、
前記複数の画素の前記1つについての前記奥行情報が前記第1の範囲内である場合に、第1の関数を実行することと、
前記複数の画素の前記1つについての前記奥行情報が前記第2の範囲内である場合に、第2の関数を実行することと、
前記複数の画素の前記1つについての前記奥行情報が前記第3の範囲内である場合に、前記複数の画素のうちの1つの前記視差値をゼロに等しく設定することと
を、前記プロセッサに行わせる命令を備える、請求項36に記載のコンピュータ読取可能な記憶媒体。 - 前記視差範囲は、負の最小視差値−disnを備え、前記第1の関数は、前記第1の奥行範囲内の奥行値を、−disnから0までの負の視差値にマッピングする単調減少関数を備る、請求項37に記載のコンピュータ読取可能な記憶媒体。
- 受信された視差調整値にしたがって、前記負の最小視差値を変更することを前記プロセッサに行わせる命令をさらに備える、請求項38に記載のコンピュータ読取可能な記憶媒体。
- 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信することを前記プロセッサに行わせる命令をさらに備える、請求項39に記載のコンピュータ読取可能な記憶媒体。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項39に記載のコンピュータ読取可能な記憶媒体。
- 前記視差範囲は、正の最大視差値dispを備え、前記第2の関数は、前記第2の奥行範囲内の奥行値を、0からdispまでの正の視差値にマッピングする単調減少関数を備える、請求項37に記載のコンピュータ読取可能な記憶媒体。
- 受信された視差調整値にしたがって、前記正の最大視差値を変更することを前記プロセッサに行わせる命令をさらに備える、請求項42に記載のコンピュータ読取可能な記憶媒体。
- 前記装置に通信的に結合された遠隔制御デバイスから前記視差調整値を受信することを前記プロセッサに行わせる命令をさらに備える、請求項43に記載のコンピュータ読取可能な記憶媒体。
- 前記受信された視差調整値は、前記第2の画像の幅のパーセンテージで表される、請求項43に記載のコンピュータ読取可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/814,651 | 2010-06-14 | ||
US12/814,651 US20110304618A1 (en) | 2010-06-14 | 2010-06-14 | Calculating disparity for three-dimensional images |
PCT/US2011/040302 WO2011159673A1 (en) | 2010-06-14 | 2011-06-14 | Calculating disparity for three-dimensional images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013538474A JP2013538474A (ja) | 2013-10-10 |
JP5763184B2 true JP5763184B2 (ja) | 2015-08-12 |
Family
ID=44484863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013515428A Expired - Fee Related JP5763184B2 (ja) | 2010-06-14 | 2011-06-14 | 3次元画像に対する視差の算出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20110304618A1 (ja) |
EP (1) | EP2580916A1 (ja) |
JP (1) | JP5763184B2 (ja) |
KR (2) | KR20130053452A (ja) |
CN (1) | CN102939763B (ja) |
WO (1) | WO2011159673A1 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010019926A1 (en) * | 2008-08-14 | 2010-02-18 | Real D | Stereoscopic depth mapping |
JP2012100129A (ja) * | 2010-11-04 | 2012-05-24 | Jvc Kenwood Corp | 画像処理方法及び画像処理装置 |
US8670023B2 (en) * | 2011-01-17 | 2014-03-11 | Mediatek Inc. | Apparatuses and methods for providing a 3D man-machine interface (MMI) |
US9983685B2 (en) * | 2011-01-17 | 2018-05-29 | Mediatek Inc. | Electronic apparatuses and methods for providing a man-machine interface (MMI) |
TWI462569B (zh) * | 2011-04-22 | 2014-11-21 | Mstar Semiconductor Inc | 三維影像攝相機及其相關控制方法 |
WO2012157443A1 (ja) * | 2011-05-16 | 2012-11-22 | ソニー株式会社 | 画像処理装置、及び、画像処理方法 |
WO2012176526A1 (ja) * | 2011-06-21 | 2012-12-27 | シャープ株式会社 | 立体画像処理装置、立体画像処理方法、及びプログラム |
US8786681B1 (en) * | 2011-07-05 | 2014-07-22 | Lucasfilm Entertainment Company, Ltd. | Stereoscopic conversion |
US10805625B2 (en) * | 2011-07-05 | 2020-10-13 | Texas Instruments Incorporated | Method, system and computer program product for adjusting a stereoscopic image in response to decoded disparities between views of the stereoscopic image |
US9118902B1 (en) | 2011-07-05 | 2015-08-25 | Lucasfilm Entertainment Company Ltd. | Stereoscopic conversion |
JP6184408B2 (ja) * | 2011-08-12 | 2017-08-23 | サムスン エレクトロニクス カンパニー リミテッド | 受信装置及びその受信方法 |
WO2013031807A1 (ja) * | 2011-09-02 | 2013-03-07 | シャープ株式会社 | 立体画像生成方法、立体画像生成装置、およびそれを備える表示装置 |
US9060093B2 (en) * | 2011-09-30 | 2015-06-16 | Intel Corporation | Mechanism for facilitating enhanced viewing perspective of video images at computing devices |
KR20130088636A (ko) * | 2012-01-31 | 2013-08-08 | 삼성전자주식회사 | 영상 전송 장치 및 방법, 그리고 영상 재생 장치 및 방법 |
CN104254768A (zh) * | 2012-01-31 | 2014-12-31 | 3M创新有限公司 | 用于测量表面的三维结构的方法和设备 |
CN102831603A (zh) * | 2012-07-27 | 2012-12-19 | 清华大学 | 基于深度图后向映射的图像渲染方法和图像渲染装置 |
US9449429B1 (en) * | 2012-07-31 | 2016-09-20 | Dreamworks Animation Llc | Stereoscopic modeling based on maximum ocular divergence of a viewer |
CN102802006B (zh) * | 2012-08-03 | 2014-08-06 | 梁智伟 | 数码照相机、层叠式相片印刷器和立体彩色图像制作系统 |
CN102802015B (zh) * | 2012-08-21 | 2014-09-10 | 清华大学 | 一种立体图像视差优化方法 |
CN104662896B (zh) * | 2012-09-06 | 2017-11-28 | 诺基亚技术有限公司 | 用于图像处理的装置和方法 |
WO2014056150A1 (en) * | 2012-10-09 | 2014-04-17 | Nokia Corporation | Method and apparatus for video coding |
US9357199B2 (en) | 2013-01-04 | 2016-05-31 | Qualcomm Incorporated | Separate track storage of texture and depth views for multiview coding plus depth |
US9521425B2 (en) * | 2013-03-19 | 2016-12-13 | Qualcomm Incorporated | Disparity vector derivation in 3D video coding for skip and direct modes |
US20150033157A1 (en) * | 2013-07-25 | 2015-01-29 | Mediatek Inc. | 3d displaying apparatus and the method thereof |
CN103501433B (zh) * | 2013-09-26 | 2015-12-23 | 深圳市掌网立体时代视讯技术有限公司 | 一种3d书画显示方法及装置 |
GB2519363A (en) * | 2013-10-21 | 2015-04-22 | Nokia Technologies Oy | Method, apparatus and computer program product for modifying illumination in an image |
KR102158390B1 (ko) | 2013-10-22 | 2020-09-22 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
IN2013CH05313A (ja) * | 2013-11-18 | 2015-05-29 | Nokia Corp | |
WO2015096019A1 (en) * | 2013-12-24 | 2015-07-02 | Intel Corporation | Techniques for stereo three dimensional video processing |
CN104615421A (zh) * | 2014-12-30 | 2015-05-13 | 广州酷狗计算机科技有限公司 | 虚拟礼物展示方法和装置 |
US10097808B2 (en) * | 2015-02-09 | 2018-10-09 | Samsung Electronics Co., Ltd. | Image matching apparatus and method thereof |
CN104980729B (zh) * | 2015-07-14 | 2017-04-26 | 上海玮舟微电子科技有限公司 | 一种视差图的生成方法及系统 |
US20170347089A1 (en) * | 2016-05-27 | 2017-11-30 | Craig Peterson | Combining vr or ar with autostereoscopic usage in the same display device |
US10306215B2 (en) | 2016-07-31 | 2019-05-28 | Microsoft Technology Licensing, Llc | Object display utilizing monoscopic view with controlled convergence |
CN106231292B (zh) * | 2016-09-07 | 2017-08-25 | 深圳超多维科技有限公司 | 一种立体虚拟现实直播方法、装置及设备 |
GB2553782B (en) * | 2016-09-12 | 2021-10-20 | Niantic Inc | Predicting depth from image data using a statistical model |
KR20180042955A (ko) | 2016-10-19 | 2018-04-27 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
CN106454318B (zh) * | 2016-11-18 | 2020-03-13 | 成都微晶景泰科技有限公司 | 立体成像方法及立体成像装置 |
WO2018095278A1 (zh) | 2016-11-24 | 2018-05-31 | 腾讯科技(深圳)有限公司 | 飞行器的信息获取方法、装置及设备 |
TWI622022B (zh) * | 2017-07-13 | 2018-04-21 | 鴻海精密工業股份有限公司 | 深度計算方法及其裝置 |
CN107396082B (zh) * | 2017-07-14 | 2020-04-21 | 歌尔股份有限公司 | 一种图像数据的处理方法和装置 |
EP3467782A1 (en) * | 2017-10-06 | 2019-04-10 | Thomson Licensing | Method and device for generating points of a 3d scene |
CN110007475A (zh) * | 2019-04-17 | 2019-07-12 | 万维云视(上海)数码科技有限公司 | 利用虚拟深度补偿视力的方法与装置 |
JP7362775B2 (ja) * | 2019-04-22 | 2023-10-17 | レイア、インコーポレイテッド | 時間多重化バックライト、マルチビューディスプレイ、および方法 |
CN111970503B (zh) * | 2020-08-24 | 2023-08-22 | 腾讯科技(深圳)有限公司 | 二维图像的三维化方法、装置、设备及计算机可读存储介质 |
KR20220107831A (ko) | 2021-01-26 | 2022-08-02 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN112785679A (zh) * | 2021-03-15 | 2021-05-11 | 网易(杭州)网络有限公司 | 晶石模型的渲染方法及装置、计算机存储介质、电子设备 |
CN116866522B (zh) * | 2023-07-11 | 2024-05-17 | 广州市图威信息技术服务有限公司 | 一种远程监控方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003209858A (ja) * | 2002-01-17 | 2003-07-25 | Canon Inc | 立体画像生成方法及び記録媒体 |
EP1353518A1 (en) * | 2002-04-09 | 2003-10-15 | STMicroelectronics S.r.l. | Process and system for generating stereoscopic images from monocular images |
EP1570436B1 (en) * | 2002-11-27 | 2009-06-10 | Vision III Imaging, Inc. | Parallax scanning through scene object position manipulation |
US8094927B2 (en) * | 2004-02-27 | 2012-01-10 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
DE602005027379D1 (de) * | 2004-10-26 | 2011-05-19 | Koninkl Philips Electronics Nv | Disparitätskarte |
JP2006178900A (ja) * | 2004-12-24 | 2006-07-06 | Hitachi Displays Ltd | 立体画像生成装置 |
CA2553473A1 (en) * | 2005-07-26 | 2007-01-26 | Wa James Tam | Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging |
EP1952199B1 (en) * | 2005-11-17 | 2012-10-03 | Nokia Corporation | Method and devices for generating, transferring and processing three-dimensional image data |
JP4706068B2 (ja) * | 2007-04-13 | 2011-06-22 | 国立大学法人名古屋大学 | 画像情報処理方法及び画像情報処理システム |
US8300086B2 (en) * | 2007-12-20 | 2012-10-30 | Nokia Corporation | Image processing for supporting a stereoscopic presentation |
US8228327B2 (en) * | 2008-02-29 | 2012-07-24 | Disney Enterprises, Inc. | Non-linear depth rendering of stereoscopic animated images |
US9432651B2 (en) * | 2008-07-24 | 2016-08-30 | Koninklijke Philips N.V. | Versatile 3-D picture format |
CN102224738A (zh) * | 2008-11-24 | 2011-10-19 | 皇家飞利浦电子股份有限公司 | 在三维图形用户界面中扩展二维图形 |
-
2010
- 2010-06-14 US US12/814,651 patent/US20110304618A1/en not_active Abandoned
-
2011
- 2011-06-14 WO PCT/US2011/040302 patent/WO2011159673A1/en active Application Filing
- 2011-06-14 KR KR1020137000992A patent/KR20130053452A/ko active Application Filing
- 2011-06-14 KR KR1020157008655A patent/KR20150043546A/ko not_active Application Discontinuation
- 2011-06-14 JP JP2013515428A patent/JP5763184B2/ja not_active Expired - Fee Related
- 2011-06-14 EP EP11726634.6A patent/EP2580916A1/en not_active Withdrawn
- 2011-06-14 CN CN201180029101.6A patent/CN102939763B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2011159673A1 (en) | 2011-12-22 |
KR20150043546A (ko) | 2015-04-22 |
KR20130053452A (ko) | 2013-05-24 |
JP2013538474A (ja) | 2013-10-10 |
CN102939763B (zh) | 2015-03-18 |
US20110304618A1 (en) | 2011-12-15 |
CN102939763A (zh) | 2013-02-20 |
EP2580916A1 (en) | 2013-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5763184B2 (ja) | 3次元画像に対する視差の算出 | |
KR101492876B1 (ko) | 사용자 선호도들에 기초하여 3d 비디오 렌더링을 조정하기 위한 3d 비디오 제어 시스템 | |
JP5575908B2 (ja) | 2dビデオデータの3dビデオデータへの変換のための深度マップ生成技法 | |
US10528004B2 (en) | Methods and apparatus for full parallax light field display systems | |
JP5654138B2 (ja) | 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ | |
TWI685679B (zh) | 用於全視差壓縮光場三維成像系統之方法 | |
US8488870B2 (en) | Multi-resolution, multi-window disparity estimation in 3D video processing | |
EP3114643A1 (en) | Depth aware enhancement for stereo video | |
JP2009123219A (ja) | 深さマップ推定装置と方法、これを用いた中間映像生成方法および多視点ビデオのエンコーディング方法 | |
US20180350038A1 (en) | Methods and Systems for Light Field Compression With Residuals | |
Tang et al. | A universal optical flow based real-time low-latency omnidirectional stereo video system | |
JP4815004B2 (ja) | 多視点画像符号化装置 | |
WO2011158562A1 (ja) | 多視点画像符号化装置 | |
BR112016020544B1 (pt) | Realce consciente de profundidade para vídeo estéreo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140701 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140708 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5763184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |