JP5329677B2 - 奥行き及びビデオのコプロセッシング - Google Patents
奥行き及びビデオのコプロセッシング Download PDFInfo
- Publication number
- JP5329677B2 JP5329677B2 JP2011547857A JP2011547857A JP5329677B2 JP 5329677 B2 JP5329677 B2 JP 5329677B2 JP 2011547857 A JP2011547857 A JP 2011547857A JP 2011547857 A JP2011547857 A JP 2011547857A JP 5329677 B2 JP5329677 B2 JP 5329677B2
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- video frame
- pixel
- edge
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Description
[1]Boykov及びKolmogrovの「An experimental compression of min−cut/max−flow algorithms for energy minimization in vision」IEEE Transactions on Pattern Analysis and Machine Intelligence、vol.26、no.9、1124〜1137ページ,2004年
[2]Bleyer及びGelautzの「Graph−based surface reconstruction from stereo pairs using image segmentation」in SPIE、vol.5665、288〜299ページ、2005年
[3]Felzenszwalb及びHuttenlocherの「Efficient belief propagation for early vision」in CVPR、261〜268ページ、2004年
[4]Hong及びChenの「Segment−based stereo matching using graph cuts」in CVPR、74〜81ページ、2004年
[5]Zitnick他の「High−quality video view interpolation using a layered representation」in ACM SIGGRAPH、vol.23、No.3、600〜608ページ、2004年
[6]Ziou及びTabboneの「Edge detection technologies−An overview」、International Journal of Pattern Recognition and Image Analysis、vol.8、no.4、537〜559ページ、1998年
Claims (17)
- カメラビュー(30)の画素プロパティ値として各色値を有する複数の画素を含むビデオフレーム(32)及び前記カメラビュー(30)の画素プロパティ値として各奥行き値を有する複数の画素を含む奥行きマップ(34)をコプロセッシングする方法であって、
a)前記ビデオフレーム(32)の前記複数の画素の少なくとも一部分の各色値に基づいて前記ビデオフレーム(32)の少なくとも1つのエッジ(70、71)を検出するステップと、
b)前記奥行きマップ(34)の前記複数の画素の少なくとも一部分の各奥行き値に基づいて前記奥行きマップ(34)の少なくとも1つのエッジ(80、81)を検出するステップと、
c)前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)及び前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)を位置合わせするステップと、
d)前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方のエッジ(80、81)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方の対応する位置合わせされたエッジ(70、71)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの画素(90〜92)の位置に基づいて不正確な画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(90〜92)を識別するステップと、
e)前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換するステップと
を有することを特徴とする方法。 - 前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)は、異なる色値の分布を有する複数の領域(72〜74)に前記ビデオフレーム(32)を分割し、前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)は、異なる奥行き値の分布を有する複数の領域(82〜84)に前記奥行きマップ(34)を分割し、
前記置換ステップは、前記ステップd)で識別された前記少なくとも1つの画素(90〜92)と同一の前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の領域に属する少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換するステップを含むことを特徴とする請求項1に記載の方法。 - 前記ステップa)は、前記異なる色値の分布を有するビデオフレーム(70)の複数の領域(72〜74)の間の少なくとも1つの境界として前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)を検出するステップを含むこと特徴とする請求項1又は2に記載の方法。
- 前記ステップb)は、前記異なる奥行き値の分布を有する奥行きマップ(32)の複数の領域(82〜84)の間の少なくとも1つの境界として前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)を検出するステップを含むことを特徴とする請求項1乃至3のいずれか1項に記載の方法。
- 前記ステップc)において前記エッジ(70、71、80、81)を位置合わせする前に前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方と画素に関して同一サイズになるように前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方を再スケーリングするステップを更に含むことを特徴とする請求項1乃至4のいずれか1項に記載の方法。
- 前記再スケーリングステップは、補間された画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において新しい画素(91、92)を形成するために画素プロパティ値の画素を補間することにより前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方を再スケーリングするステップを含むこと特徴とする請求項5に記載の方法。
- 前記ステップd)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方のエッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方の前記対応する位置合わせされたエッジ(70)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(91、92)の前記位置に基づいて前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記新しい画素(91、92)のうち前記少なくとも1つの画素(91、92)を識別するステップを含むことを特徴とする請求項6に記載の方法。
- 前記ステップd)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方の前記対応する位置合わせされたエッジ(70)により囲まれるものとして前記少なくとも1つの画素(90〜92)を識別するステップを含むことを特徴とする請求項1乃至7のいずれか1項に記載の方法。
- 前記ステップd)は、前記奥行きマップ(32)のエッジ(80、81)及び前記ビデオフレーム(32)の対応する位置合わせされたエッジ(70、71)に対する前記奥行きマップ(34)の少なくとも1つの画素(90〜92)の位置に基づいて不正確な奥行き値を有する前記奥行きマップ(34)の前記少なくとも1つの画素(90〜92)を識別するステップを含むことを特徴とする請求項1乃至8のいずれか1項に記載の方法。
- カメラビュー(30)の画素プロパティ値として各色値を有する複数の画素を含むビデオフレーム(32)及び前記カメラビュー(30)の画素プロパティ値として各奥行き値を有する複数の画素を含む奥行きマップ(34)をコプロセッシングするシステム(100)であって、
前記ビデオフレーム(32)の前記複数の画素の少なくとも一部分の各色値に基づいて前記ビデオフレーム(32)の少なくとも1つのエッジ(70、71)を検出し、前記奥行きマップ(34)の前記複数の画素の少なくとも一部分の各奥行き値に基づいて前記奥行きマップ(34)の少なくとも1つのエッジ(80、81)を検出するエッジ検出器(120)と、
前記ビデオフレーム(32)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(70、71)及び前記奥行きマップ(34)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(80、81)を位置合わせする位置合わせ器(130)と、
前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方において前記エッジ検出器(120)により検出されたエッジ(80、81)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方において前記エッジ検出器(120)により検出され且つ前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80、81)に対して前記位置合わせ器(130)により位置合わせされた対応するエッジ(70、71)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの画素(90〜92)の位置に基づいて不正確な画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(90〜92)を識別する画素識別器(140)と、
前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換する値処理器(160)と
を備えることを特徴とするシステム。 - 前記ビデオフレーム(32)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(70、71)は、異なる色値の分布を有する複数の領域(72〜74)に前記ビデオフレーム(32)を分割し、
前記奥行きマップ(34)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(80、81)は、異なる奥行き値の分布を有する複数の領域(82〜84)に前記奥行きマップ(34)を分割し、
前記値処理器(160)は、前記画素識別器(140)により識別された前記少なくとも1つの画素(90〜92)と同一の前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の領域に属する少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換するように構成されることを特徴とする請求項10に記載のシステム。 - 前記エッジ検出器(120)は、前記異なる色値の分布を有するビデオフレーム(32)の複数の領域(72〜74)の間の少なくとも1つの境界として前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)を検出し且つ前記異なる奥行き値の分布を有する奥行きマップ(34)の複数の領域(82〜84)の間の少なくとも1つの境界として前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)を検出するように構成されることを特徴とする請求項10又は11に記載のシステム。
- 前記エッジ(70、71、80、81)を位置合わせする前記位置合わせ器(130)の前に前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方と画素に関して同一サイズになるように前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方を再スケーリングするスケール処理器(170)を更に備えることを特徴とする請求項10乃至12のいずれか1項に記載のシステム。
- スケール処理器(170)は、補間された画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において新しい画素(91、92)を形成するために画素プロパティ値の画素の補間を使用して前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方をアップスケーリングするように構成されることを特徴とする請求項13に記載のシステム。
- 画素識別器(140)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において前記エッジ検出器(120)により検出された前記エッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方において前記エッジ検出器(120)により検出され且つ前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80)に対して前記位置合わせ器(130)により位置合わせされる前記対応するエッジ(70)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(91、92)の前記位置に基づいて前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記新しい画素(91、92)のうち前記少なくとも1つの画素(91、92)を識別するように構成されることを特徴とする請求項14に記載のシステム。
- 前記画素識別器(140)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において前記エッジ検出器(120)により検出された前記エッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方において前記エッジ検出器(120)により検出され且つ前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80、81)に対して前記位置合わせ器(130)により位置合わせされる前記対応するエッジ(70、71)により囲まれるものとして前記少なくとも1つの画素(90〜92)を識別するように構成されることを特徴とする請求項10乃至15のいずれか1項に記載のシステム。
- 前記画素識別器(140)は、前記奥行きマップ(32)において前記エッジ検出器(120)により検出されたエッジ(80、81)及び前記ビデオフレーム(34)において前記エッジ検出器(120)により検出され且つ前記奥行きマップ(34)の前記エッジ(80、81)に対して前記位置合わせ器(130)により位置合わせされる対応するエッジ(70、71)に対する前記奥行きマップ(34)の少なくとも1つの画素(90〜92)の位置に基づいて不正確な奥行き値を有する前記奥行きマップ(34)の前記少なくとも1つの画素(90〜92)を識別するように構成されることを特徴とする請求項10乃至16のいずれか1項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14751209P | 2009-01-27 | 2009-01-27 | |
US61/147,512 | 2009-01-27 | ||
PCT/SE2009/050495 WO2010087751A1 (en) | 2009-01-27 | 2009-05-07 | Depth and video co-processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012516493A JP2012516493A (ja) | 2012-07-19 |
JP5329677B2 true JP5329677B2 (ja) | 2013-10-30 |
Family
ID=42395824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011547857A Expired - Fee Related JP5329677B2 (ja) | 2009-01-27 | 2009-05-07 | 奥行き及びビデオのコプロセッシング |
Country Status (4)
Country | Link |
---|---|
US (1) | US8780172B2 (ja) |
EP (1) | EP2382791B1 (ja) |
JP (1) | JP5329677B2 (ja) |
WO (1) | WO2010087751A1 (ja) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8223192B2 (en) * | 2007-10-31 | 2012-07-17 | Technion Research And Development Foundation Ltd. | Free viewpoint video |
US8659592B2 (en) * | 2009-09-24 | 2014-02-25 | Shenzhen Tcl New Technology Ltd | 2D to 3D video conversion |
KR101214536B1 (ko) * | 2010-01-12 | 2013-01-10 | 삼성전자주식회사 | 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라 |
US8428342B2 (en) | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
KR101670927B1 (ko) * | 2010-11-05 | 2016-11-01 | 삼성전자주식회사 | 디스플레이 장치 및 방법 |
US10122986B2 (en) * | 2011-02-18 | 2018-11-06 | Sony Corporation | Image processing device and image processing method |
JP2012186781A (ja) | 2011-02-18 | 2012-09-27 | Sony Corp | 画像処理装置および画像処理方法 |
JP5537488B2 (ja) * | 2011-04-15 | 2014-07-02 | 株式会社日立ハイテクノロジーズ | 荷電粒子顕微鏡装置および画像撮像方法 |
CN102985952B (zh) * | 2011-05-12 | 2016-06-22 | 松下知识产权经营株式会社 | 图像生成装置及图像生成方法 |
US9525858B2 (en) | 2011-07-06 | 2016-12-20 | Telefonaktiebolaget Lm Ericsson (Publ) | Depth or disparity map upscaling |
WO2013025157A2 (en) * | 2011-08-17 | 2013-02-21 | Telefonaktiebolaget L M Ericsson (Publ) | Auxiliary information map upsampling |
BR112014007263A2 (pt) * | 2011-09-29 | 2017-03-28 | Thomson Licensing | método e dispositivo para filtrar um mapa de disparidade |
US9071740B1 (en) | 2011-10-28 | 2015-06-30 | Google Inc. | Modular camera system |
US8660362B2 (en) * | 2011-11-21 | 2014-02-25 | Microsoft Corporation | Combined depth filtering and super resolution |
TW201325200A (zh) * | 2011-12-02 | 2013-06-16 | Ind Tech Res Inst | 三維視訊的景深圖的壓縮方法、裝置、電腦可讀取記錄媒體及電腦程式產品 |
CN102495907B (zh) * | 2011-12-23 | 2013-07-03 | 香港应用科技研究院有限公司 | 具有深度信息的视频概要 |
US9197686B1 (en) | 2012-01-06 | 2015-11-24 | Google Inc. | Backfill of video stream |
US9537968B1 (en) | 2012-01-06 | 2017-01-03 | Google Inc. | Communication of socket protocol based data over a storage protocol based interface |
CN104350748B (zh) * | 2012-04-19 | 2018-01-23 | 瑞典爱立信有限公司 | 使用低分辨率深度图的视图合成 |
JP6016061B2 (ja) * | 2012-04-20 | 2016-10-26 | Nltテクノロジー株式会社 | 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム |
GB201208088D0 (en) * | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
US9361699B2 (en) * | 2012-06-27 | 2016-06-07 | Imec Taiwan Co. | Imaging system and method |
WO2014007450A1 (ko) * | 2012-07-06 | 2014-01-09 | 삼성전자주식회사 | 깊이 영상 처리 장치 및 방법 |
JP6028426B2 (ja) * | 2012-07-10 | 2016-11-16 | 株式会社Jvcケンウッド | 立体判別画像生成装置、立体判別画像生成方法、立体判別画像生成プログラム |
US9460543B2 (en) * | 2013-05-31 | 2016-10-04 | Intel Corporation | Techniques for stereo three dimensional image mapping |
KR20150020953A (ko) * | 2013-08-19 | 2015-02-27 | 삼성전자주식회사 | 영상 처리 방법 및 영상 처리 장치 |
JP6102648B2 (ja) * | 2013-09-13 | 2017-03-29 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US9729857B2 (en) * | 2014-04-08 | 2017-08-08 | Semyon Nisenzon | High resolution depth map computation using multiresolution camera clusters for 3D image generation |
JP6589313B2 (ja) * | 2014-04-11 | 2019-10-16 | 株式会社リコー | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム |
US9772405B2 (en) * | 2014-10-06 | 2017-09-26 | The Boeing Company | Backfilling clouds of 3D coordinates |
GB2532003A (en) | 2014-10-31 | 2016-05-11 | Nokia Technologies Oy | Method for alignment of low-quality noisy depth map to the high-resolution colour image |
KR102091072B1 (ko) | 2014-12-23 | 2020-03-19 | 삼성전자주식회사 | 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법 |
US10127714B1 (en) * | 2015-01-27 | 2018-11-13 | Google Llc | Spherical three-dimensional video rendering for virtual reality |
EP3273285A4 (en) * | 2015-03-18 | 2018-11-21 | National Tsing Hua University | Optical system for high-speed three-dimensional imaging |
US10326981B2 (en) * | 2015-05-15 | 2019-06-18 | Semyon Nisenzon | Generating 3D images using multi-resolution camera set |
US9544485B2 (en) | 2015-05-27 | 2017-01-10 | Google Inc. | Multi-mode LED illumination system |
US9626849B2 (en) | 2015-06-12 | 2017-04-18 | Google Inc. | Using scene information from a security camera to reduce false security alerts |
US9386230B1 (en) | 2015-06-12 | 2016-07-05 | Google Inc. | Day and night detection based on one or more of illuminant detection, lux level detection, and tiling |
US9454820B1 (en) | 2015-06-12 | 2016-09-27 | Google Inc. | Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination |
US9235899B1 (en) | 2015-06-12 | 2016-01-12 | Google Inc. | Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination |
US9613423B2 (en) * | 2015-06-12 | 2017-04-04 | Google Inc. | Using a depth map of a monitored scene to identify floors, walls, and ceilings |
US9554063B2 (en) | 2015-06-12 | 2017-01-24 | Google Inc. | Using infrared images of a monitored scene to identify windows |
US9886620B2 (en) | 2015-06-12 | 2018-02-06 | Google Llc | Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera |
US9489745B1 (en) | 2015-06-12 | 2016-11-08 | Google Inc. | Using depth maps of a scene to identify movement of a video camera |
JP6639120B2 (ja) * | 2015-07-01 | 2020-02-05 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6667393B2 (ja) * | 2016-07-22 | 2020-03-18 | 株式会社キーエンス | 拡大観察装置 |
US10180615B2 (en) | 2016-10-31 | 2019-01-15 | Google Llc | Electrochromic filtering in a camera |
CN107071383A (zh) * | 2017-02-28 | 2017-08-18 | 北京大学深圳研究生院 | 基于图像局部分割的虚拟视点合成方法 |
US10834374B2 (en) | 2017-02-28 | 2020-11-10 | Peking University Shenzhen Graduate School | Method, apparatus, and device for synthesizing virtual viewpoint images |
EP3891622A1 (en) * | 2018-12-31 | 2021-10-13 | Google LLC | Using bayesian inference to predict review decisions in a match graph |
CN113141496A (zh) * | 2020-01-20 | 2021-07-20 | 北京芯海视界三维科技有限公司 | 3d拍摄方法、装置及3d显示终端 |
JP2023511670A (ja) * | 2020-01-21 | 2023-03-22 | プロプリオ インコーポレイテッド | 多視点カメラシステムからのデータを用いるなどで深度センサからの深度データを増強する方法及びシステム |
US11823355B2 (en) | 2021-02-02 | 2023-11-21 | Nvidia Corporation | Depth based image sharpening |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1418766A3 (en) * | 1998-08-28 | 2010-03-24 | Imax Corporation | Method and apparatus for processing images |
JP3572252B2 (ja) | 2000-11-15 | 2004-09-29 | 日本電信電話株式会社 | 実写画像とレンジデータの位置合わせ方法及び装置、並びにこの方法の実行プログラムを記録した記録媒体 |
US8134637B2 (en) | 2004-01-28 | 2012-03-13 | Microsoft Corporation | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing |
JP2006214893A (ja) | 2005-02-04 | 2006-08-17 | Iwate Univ | 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム |
US20070201859A1 (en) | 2006-02-24 | 2007-08-30 | Logitech Europe S.A. | Method and system for use of 3D sensors in an image capture device |
US8325196B2 (en) * | 2006-05-09 | 2012-12-04 | Koninklijke Philips Electronics N.V. | Up-scaling |
US8009932B2 (en) * | 2006-09-13 | 2011-08-30 | Providence Engineering and Environmental Group LLC | Automatic alignment of video frames for image processing |
DE102006055641B4 (de) | 2006-11-22 | 2013-01-31 | Visumotion Gmbh | Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes |
WO2009001255A1 (en) * | 2007-06-26 | 2008-12-31 | Koninklijke Philips Electronics N.V. | Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal |
KR101367284B1 (ko) * | 2008-01-28 | 2014-02-26 | 삼성전자주식회사 | 시점 변화에 따른 영상 복원 방법 및 장치 |
WO2010013171A1 (en) * | 2008-07-28 | 2010-02-04 | Koninklijke Philips Electronics N.V. | Use of inpainting techniques for image correction |
-
2009
- 2009-05-07 US US13/146,380 patent/US8780172B2/en active Active
- 2009-05-07 JP JP2011547857A patent/JP5329677B2/ja not_active Expired - Fee Related
- 2009-05-07 EP EP09839364.8A patent/EP2382791B1/en not_active Not-in-force
- 2009-05-07 WO PCT/SE2009/050495 patent/WO2010087751A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP2382791A4 (en) | 2012-12-12 |
EP2382791B1 (en) | 2014-12-17 |
JP2012516493A (ja) | 2012-07-19 |
US8780172B2 (en) | 2014-07-15 |
WO2010087751A1 (en) | 2010-08-05 |
US20110285813A1 (en) | 2011-11-24 |
EP2382791A1 (en) | 2011-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5329677B2 (ja) | 奥行き及びビデオのコプロセッシング | |
Battisti et al. | Objective image quality assessment of 3D synthesized views | |
KR101625830B1 (ko) | 깊이 맵을 생성하기 위한 방법 및 디바이스 | |
Zinger et al. | Free-viewpoint depth image based rendering | |
JP5243612B2 (ja) | 中間画像合成およびマルチビューデータ信号抽出 | |
CN110268712B (zh) | 用于处理图像属性图的方法和装置 | |
US20150085073A1 (en) | Quality metric for processing 3d video | |
EP3311361B1 (en) | Method and apparatus for determining a depth map for an image | |
US20130127844A1 (en) | Filling disocclusions in a virtual view | |
US20150294473A1 (en) | Processing of Depth Images | |
US8817020B2 (en) | Image processing apparatus and image processing method thereof | |
JP2015522198A (ja) | 画像に対する深度マップの生成 | |
EP2074586A2 (en) | Image enhancement | |
Sharma et al. | A flexible architecture for multi-view 3DTV based on uncalibrated cameras | |
CN104144334A (zh) | 用于立体视频内容的字幕检测 | |
KR101797035B1 (ko) | 오버레이 영역의 3d 영상 변환 방법 및 그 장치 | |
Schmeing et al. | Edge-aware depth image filtering using color segmentation | |
Lee et al. | View synthesis using depth map for 3D video | |
JP2014506768A (ja) | 三次元シーンの深さデータの処理 | |
US9787980B2 (en) | Auxiliary information map upsampling | |
Wei et al. | Iterative depth recovery for multi-view video synthesis from stereo videos | |
Wei et al. | Video synthesis from stereo videos with iterative depth refinement | |
Wang et al. | Local depth image enhancement scheme for view synthesis | |
Alessandrini et al. | Efficient and automatic stereoscopic videos to N views conversion for autostereoscopic displays | |
Yuan et al. | Stereoscopic image-inpainting-based view synthesis algorithm for glasses-based and glasses-free 3D displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5329677 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |