JP4634142B2 - 改善された変換および符号化技法 - Google Patents
改善された変換および符号化技法 Download PDFInfo
- Publication number
- JP4634142B2 JP4634142B2 JP2004512086A JP2004512086A JP4634142B2 JP 4634142 B2 JP4634142 B2 JP 4634142B2 JP 2004512086 A JP2004512086 A JP 2004512086A JP 2004512086 A JP2004512086 A JP 2004512086A JP 4634142 B2 JP4634142 B2 JP 4634142B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- classifier
- points
- depth
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
Description
発明の背景
ストラクチャ・フロム・モーション(Structure-from-Motion(SfM))は、カメラの平面2Dフィルムバックプレーン上に投影されたシーンの3D情報を回復する方法の集まりである。SfMアルゴリズムから導き出された構造情報は一般に、画像フレームごとに1つの投影マトリックスによる、画像平面における特定の2D点とその対応する3D点との関係を表現する、1組の投影マトリックスの形をとる。SfMアルゴリズムは、シーンに関するそのような構造情報を決定するために特定の画像特徴を追跡することに依拠する。一般的に言えば、画像のうちの少ないパーセンテージだけが正確に追跡され得るのであり、それらの点は通常、はっきりした強度の不連続が明確な追跡手がかりを付与する、縁端および角に存在する。
発明の目的
従って、本発明の目的は、2段階プロセスを要求せず、キーフレームにおける不可欠な数のピクセルが既知であるために深さに依存しない、2D画像シーケンスからの深さマップの生成のための改善されたシステムを提供することである。
発明の概要
上記の目的を意図して、本発明は1態様において、画像シーケンスについての少なくとも1つの深さマップを創成する方法であって、
複数のフレームの画像データを受け取るステップと、
前記複数のフレームのうちの少なくとも1つにおける複数の点の深さデータを受け取るステップと、
画像データの関数として深さ特性を確認するためのアルゴリズムを決定するために前記画像データおよび前記深さデータを利用するステップと、
前記アルゴリズムを利用して少なくとも1つの前記フレームについての深さマップを決定するステップとを含む、方法を提供する。
少なくとも1つの前記フレームにおける複数の前記点についての深さデータを受け取るステップと、
前記深さデータを有する前記点について画像データを決定するステップと、
前記画像データと前記深さデータとの関係を符号化するためにクラシファイヤに前記深さデータおよび前記画像データを入力するステップと、
前記符号化された関係を利用して2D画像の少なくとも1つの前記フレームについての深さマップを導き出すステップとを含む。
前記画像シーケンスにおける複数の点についての深さデータを受け取るステップと、
画像特性および相対位置の関数として深さ特性を確認するためのクラシファイヤを訓練するために前記深さデータを利用するステップと、
前記画像特性を利用して前記画像シーケンスの各フレームについての深さマップを創成するステップとを含む、方法を提供する。
前記画像シーケンスを複数の画像ショットに分割するステップと、
各画像ショットについて、複数の点についての深さデータを受け取り、画像特性および相対位置の関数として深さ特性を確認するための初期アルゴリズムを創成するためのそれぞれのクラシファイヤを訓練するために前記深さデータを利用するステップと、
複数の前記ショットからの少なくとも2つの初期アルゴリズムを結合することによって少なくとも1つの結合されたアルゴリズムを創成するステップと、
前記少なくとも1つの結合されたアルゴリズムを用いて前記画像シーケンスの各フレームについての深さマップを創成するステップとを含む、方法を提供する。
前記画像シーケンスを複数の画像ショットに分割するステップと、
少なくとも1つの画像ショットにおける複数の点についての深さデータを受け取るステップと、
前記深さデータおよび、画像特性および相対位置の関数として深さ特性を確認するためのクラシファイヤを利用するステップと、
前記画像特性を利用して前記少なくとも1つの画像ショットの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法を提供する。
発明の詳細な説明
深さマップは、特定の視点からのシーンの3D輪郭を表現する。稠密な深さマップが2D画像と関係づけられている場合、それは、画像をキャプチャするために使用されたカメラと画像における各ピクセルについて観察された物体との間の距離を符号化する。本発明の目的は、以下の手段のうちの1つから導き出され得る、3D点の疎な集合だけが与えられたとした時に深さマップを回復することである。
ここに、Iは点Pの画像特性の集合である。好ましい実施形態において、画像特性Iは、2D点Pの赤、緑および青の色成分から構成される。赤、緑および青色成分の線形または非線形の組合せ、または高次統計を含むが、それらに限らない、あらゆる他の画像特性もまた、本発明の性質に影響を及ぼすことなく使用され得る。
ここに、zは、深さまたは、点Rのカメラからの距離に対応する。上述した技法によって生成される3D点は、クラシファイヤを訓練するために使用され得る。クラシファイヤは、1組の2D点とそれらの対応する3D点との間の関係を符号化する。この関係が時間につれて変化すると、クラシファイヤは既定の時間間隔Tにわたり訓練される。好ましい実施形態において、この時間間隔は、ショット検出によって識別された通り、画像シーケンスの分解に一致する。単一の時間間隔Tが時間上隣接していない1つ以上のショットを含み得ることに留意しなければならない。画像シーケンスは、例えばカメラが交互にインタビューする人とインタビューされる人に焦点を合わせるニュースインタビューの間において、2つ以上の異なるシーン間で交番し得る。そうした状況では、時間間隔Tは、1つのシーンからの全部の画像を含み得る(例えばインタビュアー)。図3は、図の中央の3つのフレームが単一のショット2に属するように、ショット検出アルゴリズムを用いて分解された画像シーケンスを示している。フレーム1は先行ショット14における画像であり、フレーム5は後続ショット15における画像である。ショットにおける各画像フレームは、それと関係づけられた多数の3D点4を有する。各3D点についての深さZが手動または自動で導き出されたかどうかは重要でなく、必要とされるのは、その深さがわかっている一連の点である。簡単のために、これらの3D点は、2D画像平面へのそれらの投影によって表現される。現在ショット内の全部の3D点は、それらがいずれのフレームにあるかに関わらず、訓練データとしてクラシファイヤに入力される。
言い換えると、画像フレームの特定の集合上で導き出された3D点を用いて訓練されたクラシファイヤはこの時、同じ時間間隔にわたるあらゆる他の2D点についての深さ値を回復するために使用され得る。
代替実施形態において、重みづけは、時間近接性に対する分類誤り推定値によって決定される。
Claims (20)
- 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
前記画像シーケンスの1以上の各フレームの中の一部の、前記画像シーケンスの中の全ての点のうちの一部である複数の点についての深さデータを受け取るステップと、
前記深さデータを有する前記複数の点についての相対位置及び前記画像シーケンスのフレーム間での相対位置の対応関係を含まない画像特性を受け取るステップと、
画像特性および相対位置の関数として深さ特性を算出するためのクラシファイヤのアルゴリズムを決定するために、前記複数の点についての前記深さデータ、前記画像特性、及び前記相対位置を前記クラシファイヤに入力するステップと、
前記クラシファイヤを利用して前記画像シーケンスの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法。 - 前記画像特性はRGB値を含む、請求項1記載の方法。
- 前記相対位置は相対xy位置を含む、請求項1または請求項2に記載の方法。
- 前記画像シーケンス内の少なくとも所定の数の点についての深さデータを算出する初期ステップをさらに含む、請求項1〜3のうちのいずれか1つに記載の方法。
- 前記クラシファイヤをブートストラップする初期ステップを含む、請求項1〜3のうちのいずれか1つに記載の方法。
- 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
前記画像シーケンスを複数の画像ショットに分割するステップと、
前記画像ショットの1以上の各フレームの中の一部の、前記画像ショットの中の全ての点のうちの一部である複数の点についての深さデータを受け取るステップと、
前記深さデータを有する前記複数の点についての相対位置及び前記画像ショットのフレーム間での相対位置の対応関係を含まない画像特性を受け取るステップと、
画像特性および相対位置の関数として深さ特性を算出するためのクラシファイヤのアルゴリズムを決定するために、前記複数の点についての前記深さデータ、前記画像特性、及び前記相対位置を前記クラシファイヤに入力するステップと、
前記クラシファイヤを利用して前記少なくとも1つの画像ショットの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法。 - 各ショットは対応するクラシファイヤを割り当てられる、請求項6記載の方法。
- 少なくとも1つの対応するクラシファイヤが先行クラシファイヤと類似の状態に初期化される、請求項7記載の方法。
- 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
複数のフレームのうちの1以上の各フレームの中の一部の、前記複数のフレームの中の全ての点のうちの一部である複数の点についての深さデータを受け取るステップと、
前記深さデータを有する前記複数の点についての前記複数のフレーム間での相対位置の対応関係を含まない画像データを受け取るステップと、
画像データの関数として深さ特性を算出するためのクラシファイヤのアルゴリズムを決定するために、前記複数の点についての前記画像データ及び前記深さデータを前記クラシファイヤに入力するステップと、
前記クラシファイヤを利用して前記複数のフレームのうち少なくとも1つについての深さマップを決定するステップとを含む、方法。 - 前記画像データはRGB値を含む、請求項9記載の方法。
- 前記画像データは相対xy位置を含む、請求項9または請求項10に記載の方法。
- 前記画像シーケンス内の少なくとも所定の数の点についての深さデータを算出する初期ステップをさらに含む、請求項9〜11のうちのいずれか1つに記載の方法。
- 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
前記画像シーケンスを複数の画像ショットに分割するステップと、
各画像ショットについて、当該画像ショットの1以上の各フレームの中の一部の、当該画像ショットの中の全ての点のうちの一部である複数の点の、深さデータ、相対位置及び当該画像ショットのフレーム間での相対位置の対応関係を含まない画像特性を受け取り、画像特性および相対位置の関数として深さ特性を算出するためのクラシファイヤの初期アルゴリズムを生成するために、前記複数の点についての前記深さデータ、前記画像特性、及び前記相対位置を前記クラシファイヤに入力するステップと、
複数の前記ショットからの少なくとも2つの初期アルゴリズムを結合することによって、これらの初期アルゴリズムの出力を用いた出力を得るための少なくとも1つの結合されたアルゴリズムを創成するステップと、
前記少なくとも1つの結合されたアルゴリズムを用いて前記画像シーケンスの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法。 - 前記画像特性はRGB値を含む、請求項13記載の方法
- 前記相対位置は相対xy位置を含む、請求項13または請求項14に記載の方法。
- 前記画像シーケンス内の少なくとも所定の数の点についての深さデータを算出する初期ステップをさらに含む、請求項13〜15のうちのいずれか1つに記載の方法。
- 前記結合されたアルゴリズムは前記少なくとも2つの初期アルゴリズムの出力の平均を用いるように決定される、請求項13〜16のうちのいずれか1つに記載の方法。
- 前記結合されたアルゴリズムは前記少なくとも2つの初期アルゴリズムの出力の加重平均を用いるように決定される、請求項13〜16のうちのいずれか1つに記載の方法。
- 前記クラシファイヤをランダム状態に初期化する初期ステップを含む、請求項13〜18のうちのいずれか1つに記載の方法。
- 少なくとも1つの前記それぞれのクラシファイヤが先行クラシファイヤと類似の状態に初期化される、請求項13〜18のうちのいずれか1つに記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AUPS2836A AUPS283602A0 (en) | 2002-06-07 | 2002-06-07 | Improved conversion and encoding techniques |
PCT/AU2003/000686 WO2003105089A1 (en) | 2002-06-07 | 2003-06-02 | Improved conversion and encoding technioues |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005529417A JP2005529417A (ja) | 2005-09-29 |
JP4634142B2 true JP4634142B2 (ja) | 2011-02-16 |
Family
ID=3836398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004512086A Expired - Fee Related JP4634142B2 (ja) | 2002-06-07 | 2003-06-02 | 改善された変換および符号化技法 |
Country Status (6)
Country | Link |
---|---|
EP (2) | EP1514238A4 (ja) |
JP (1) | JP4634142B2 (ja) |
CN (1) | CN1669053B (ja) |
AU (1) | AUPS283602A0 (ja) |
CA (1) | CA2488738C (ja) |
WO (1) | WO2003105089A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009004527A2 (en) * | 2007-07-03 | 2009-01-08 | Koninklijke Philips Electronics N.V. | Computing a depth map |
KR101650702B1 (ko) * | 2008-12-19 | 2016-08-24 | 코닌클리케 필립스 엔.브이. | 이미지들로부터의 깊이 맵들의 생성 |
CN101873506B (zh) * | 2009-04-21 | 2012-01-25 | 财团法人工业技术研究院 | 提供深度信息的影像处理方法及其影像处理系统 |
CN101867810B (zh) * | 2010-04-07 | 2011-12-14 | 宁波大学 | 一种深度视频序列的预处理方法 |
CN102196292B (zh) * | 2011-06-24 | 2013-03-06 | 清华大学 | 基于人机交互生成视频深度图序列的方法及系统 |
US9533539B2 (en) * | 2011-10-20 | 2017-01-03 | GM Global Technology Operations LLC | Vehicle suspension system and method of using the same |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07262382A (ja) * | 1994-03-17 | 1995-10-13 | Fujitsu Ltd | 画像処理システムにおける物体認識及び画像補間装置 |
US6252974B1 (en) * | 1995-03-22 | 2001-06-26 | Idt International Digital Technologies Deutschland Gmbh | Method and apparatus for depth modelling and providing depth information of moving objects |
KR100414629B1 (ko) * | 1995-03-29 | 2004-05-03 | 산요덴키가부시키가이샤 | 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법 |
JP2910698B2 (ja) * | 1996-10-15 | 1999-06-23 | 日本電気株式会社 | 三次元構造推定方法及び装置 |
JP3512992B2 (ja) * | 1997-01-07 | 2004-03-31 | 株式会社東芝 | 画像処理装置および画像処理方法 |
WO1999006956A1 (en) * | 1997-07-29 | 1999-02-11 | Koninklijke Philips Electronics N.V. | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system |
JP4112819B2 (ja) * | 2000-05-11 | 2008-07-02 | 株式会社東芝 | 物体領域情報生成装置及び物体領域情報記述プログラム |
US20030206652A1 (en) * | 2000-06-28 | 2003-11-06 | David Nister | Depth map creation through hypothesis blending in a bayesian framework |
CA2418800A1 (en) | 2000-08-09 | 2002-02-14 | Dynamic Digital Depth Research Pty Ltd. | Image conversion and encoding techniques |
US6795808B1 (en) * | 2000-10-30 | 2004-09-21 | Koninklijke Philips Electronics N.V. | User interface/entertainment device that simulates personal interaction and charges external database with relevant data |
-
2002
- 2002-06-07 AU AUPS2836A patent/AUPS283602A0/en not_active Abandoned
-
2003
- 2003-06-02 CN CN038168790A patent/CN1669053B/zh not_active Expired - Fee Related
- 2003-06-02 JP JP2004512086A patent/JP4634142B2/ja not_active Expired - Fee Related
- 2003-06-02 CA CA2488738A patent/CA2488738C/en not_active Expired - Lifetime
- 2003-06-02 EP EP03724646A patent/EP1514238A4/en not_active Withdrawn
- 2003-06-02 WO PCT/AU2003/000686 patent/WO2003105089A1/en active Application Filing
- 2003-06-02 EP EP09175312.9A patent/EP2146319B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
WO2003105089A1 (en) | 2003-12-18 |
CA2488738C (en) | 2016-10-25 |
EP2146319A1 (en) | 2010-01-20 |
CN1669053A (zh) | 2005-09-14 |
JP2005529417A (ja) | 2005-09-29 |
AUPS283602A0 (en) | 2002-06-27 |
EP2146319B1 (en) | 2017-08-16 |
EP1514238A1 (en) | 2005-03-16 |
CN1669053B (zh) | 2013-11-06 |
CA2488738A1 (en) | 2003-12-18 |
EP1514238A4 (en) | 2008-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7489812B2 (en) | Conversion and encoding techniques | |
Torr et al. | Maintaining multiple motion model hypotheses over many views to recover matching and structure | |
EP2291825B1 (en) | System and method for depth extraction of images with forward and backward depth prediction | |
RU2382406C1 (ru) | Способ улучшения карты диспарантности и устройство для реализации способа | |
KR102380862B1 (ko) | 영상 처리 방법 및 장치 | |
EP3367334B1 (en) | Depth estimation method and depth estimation apparatus of multi-view images | |
WO2007052191A2 (en) | Filling in depth results | |
Moustakas et al. | Stereoscopic video generation based on efficient layered structure and motion estimation from a monoscopic image sequence | |
CN112418288A (zh) | 一种基于gms和运动检测的动态视觉slam方法 | |
CN113888458A (zh) | 用于对象检测的方法和系统 | |
Yuan et al. | 3D reconstruction of background and objects moving on ground plane viewed from a moving camera | |
CN111914913B (zh) | 一种新型立体匹配优化方法 | |
KR20080047673A (ko) | 입체영상 변환 장치 및 그 방법 | |
KR101125061B1 (ko) | Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법 | |
JP4634142B2 (ja) | 改善された変換および符号化技法 | |
KR20150097251A (ko) | 다중 영상간 대응점을 이용한 카메라 정렬 방법 | |
JP5200042B2 (ja) | 視差推定装置およびそのプログラム | |
Zenati et al. | Dense stereo matching with application to augmented reality | |
Um et al. | Three-dimensional scene reconstruction using multiview images and depth camera | |
JP4578653B2 (ja) | 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
Xiu et al. | An improved depth map estimation algorithm for view synthesis and multiview video coding | |
KR20050019124A (ko) | 개선된 변환 및 부호화 기술 | |
Turetken et al. | Temporally consistent layer depth ordering via pixel voting for pseudo 3D representation | |
KR20190072987A (ko) | 레이아웃 정보를 이용한 깊이 영상 후처리 방법 | |
KR102438853B1 (ko) | 평면 정보를 활용한 깊이 영상 추정 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090602 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20090901 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20090908 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20090929 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091006 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091102 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100126 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100423 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100506 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100526 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100602 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100625 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101026 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101118 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131126 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |