JP2009093644A - コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 - Google Patents
コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 Download PDFInfo
- Publication number
- JP2009093644A JP2009093644A JP2008257073A JP2008257073A JP2009093644A JP 2009093644 A JP2009093644 A JP 2009093644A JP 2008257073 A JP2008257073 A JP 2008257073A JP 2008257073 A JP2008257073 A JP 2008257073A JP 2009093644 A JP2009093644 A JP 2009093644A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- tracking
- computer
- cameras
- implemented method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 241000533950 Leucojum Species 0.000 claims 1
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
【解決手段】画像シーケンスがシーンから複数のカメラから成るセットによって取得され、それによって、各時点に画像のセットがシーンから取得され、ここで各画像は複数のピクセルを含む。画像の各セットは、複数のピクセルを含む合成開口画像に統合され、ターゲットウィンドウの複数の位置と複数の深度とに対応する画像の各セット内のピクセルは、外観モデルとマッチングされ、複数の位置及び複数の深度のスコアが求められる。最大スコアを有する特定の位置及び特定の深度が移動している物体の3D位置として選択される。
【選択図】図1
Description
図1に示されるように、本発明の実施の形態1は、線形アレイとして配列されたカメラ102のセットによってシーン103から取得される画像シーケンス(ビデオ)101において、移動している物体104の3D位置を追跡する方法を提供する。本明細書において定義される場合、3D位置は2D(x,y)位置及び深度dから成る。
図1に示すように、本方法100は、複数の合成開口画像をマッチングすることによって機能する。これらの画像のうちの1つが物体の深度で合焦されると、異なる深度にあり得る遮蔽物が大きく焦点から外れる、すなわち「ぼやける」。この深度差が重大である場合、カメラ102の線形アレイの所与の基線Lにとって、遮蔽物は透明であるように見える。
物体追跡において、目的は、固有空間uチルダの形態にある外観モデルまでの距離を最小化する、画像内の3D位置を求めることである。マッチング関数
増分主成分分析(PCA)を使用して追跡される位置から物体の画像データを加えることによって画像が処理されている間に、物体の固有空間モデルが更新される。16個の最も重大な固有ベクトルが基底として使用される。オンライン学習プロセスにおけるドリフトを制限するために、最初の画像からのテンプレートが記憶される。各更新後に、最初の画像からのテンプレートの直交成分が更新された基底によって求められ、当該基底は、その後この直交成分を追加の基底ベクトルとして含む。これによって、最初の画像からのテンプレートが常に基底内にあることが確実になる。
Claims (18)
- コンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法であって、
複数のカメラから成るセットの各カメラによって、或るシーンの時系列の画像を取得するステップであって、各時点で前記シーンの画像のセットが取得され、各前記画像は複数のピクセルを含む、取得するステップと、
前記各時点の画像の各セットを、前記複数のピクセルを含む合成開口画像に統合するステップと、
ターゲットウィンドウの複数の位置と複数の深度とに対応する画像の各セット内の前記複数のピクセルを、前記複数の位置及び前記複数の深度のスコアを求めるために、外観モデルとマッチングするステップと、
最大スコアを有する特定の位置及び特定の深度を、前記移動している物体の3D位置として選択するステップと、
を含む、コンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。 - 前記複数のカメラから成るセットが相対的に大きな合成開口を有するように、前記複数のカメラから成るセットを線形アレイに配列するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記複数のカメラから成るセットを同期させるステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記シーンは、前記シーンの50%を上回る部分を覆い隠す遮蔽を含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記複数のカメラから成るセットによって取得された画像の最初のセットからの2D位置、深度、及び前記外観モデルを初期設定するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記外観モデルは、固有空間の形態にある、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 画像のセットごとに前記外観モデルを更新するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記開口のサイズは、前記複数のカメラから成るセットの基線の長さに等しい、請求項2に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記複数のカメラから成るセットが相対的に大きな合成開口を有するように、前記複数のカメラから成るセットを格子状に配列するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記複数のカメラから成るセットが相対的に大きな合成開口を有するように、前記複数のカメラから成るセットを交差パターンに配列するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記シーンは、関与媒質を含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記関与媒質は、雪片を含む、請求項16に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
- 前記関与媒質は、遮蔽物を形成し、前記画像のセットのぼやけを除くために、前記遮蔽物を除去するステップをさらに含む、請求項16に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/866,645 | 2007-10-03 | ||
US11/866,645 US7929804B2 (en) | 2007-10-03 | 2007-10-03 | System and method for tracking objects with a synthetic aperture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009093644A true JP2009093644A (ja) | 2009-04-30 |
JP5197279B2 JP5197279B2 (ja) | 2013-05-15 |
Family
ID=40523272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008257073A Expired - Fee Related JP5197279B2 (ja) | 2007-10-03 | 2008-10-02 | コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7929804B2 (ja) |
JP (1) | JP5197279B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013537661A (ja) * | 2010-06-30 | 2013-10-03 | タタ コンサルタンシー サービシズ リミテッド | ステレオビジョン技術を使用することによる移動物体の自動検出 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI362628B (en) * | 2007-12-28 | 2012-04-21 | Ind Tech Res Inst | Methof for producing an image with depth by using 2d image |
US8588465B2 (en) * | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
EP2579191A4 (en) * | 2010-05-31 | 2014-04-09 | Nec Corp | RIVER LINE RECOGNITION SYSTEM, RIVER LINE RECOGNITION PROCEDURE AND RUNNER RANGE DETECTION PROGRAM |
US9122955B2 (en) * | 2010-06-28 | 2015-09-01 | Ramot At Tel-Aviv University Ltd. | Method and system of classifying medical images |
US20130063556A1 (en) * | 2011-09-08 | 2013-03-14 | Prism Skylabs, Inc. | Extracting depth information from video from a single camera |
AU2011224051B2 (en) * | 2011-09-14 | 2014-05-01 | Canon Kabushiki Kaisha | Determining a depth map from images of a scene |
US9260122B2 (en) * | 2012-06-06 | 2016-02-16 | International Business Machines Corporation | Multisensor evidence integration and optimization in object inspection |
US9369677B2 (en) | 2012-11-30 | 2016-06-14 | Qualcomm Technologies International, Ltd. | Image assistance for indoor positioning |
WO2014145722A2 (en) * | 2013-03-15 | 2014-09-18 | Digimarc Corporation | Cooperative photography |
CN103413323B (zh) * | 2013-07-25 | 2016-01-20 | 华南农业大学 | 基于部件级表观模型的物体跟踪方法 |
US9390328B2 (en) * | 2014-04-25 | 2016-07-12 | Xerox Corporation | Static occlusion handling using directional pixel replication in regularized motion environments |
CN104298968B (zh) * | 2014-09-25 | 2017-10-31 | 电子科技大学 | 一种基于超像素的复杂场景下的目标跟踪方法 |
US9836635B2 (en) * | 2014-10-09 | 2017-12-05 | Cognex Corporation | Systems and methods for tracking optical codes |
AU2015333573A1 (en) * | 2014-10-17 | 2017-03-23 | Digihealth Pty Ltd | Improvements to positional feedback devices |
EP3035234A1 (en) | 2014-12-18 | 2016-06-22 | Thomson Licensing | Method and electronic device for object tracking in a light-field capture |
US10116915B2 (en) | 2017-01-17 | 2018-10-30 | Seiko Epson Corporation | Cleaning of depth data by elimination of artifacts caused by shadows and parallax |
US11120528B1 (en) | 2018-09-11 | 2021-09-14 | Apple Inc. | Artificial aperture adjustment for synthetic depth of field rendering |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001094857A (ja) * | 1999-08-09 | 2001-04-06 | Fuji Xerox Co Ltd | バーチャル・カメラの制御方法、カメラアレイ、及びカメラアレイの整合方法 |
JP2004058737A (ja) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | 駅ホームにおける安全監視装置 |
JP2006337075A (ja) * | 2005-05-31 | 2006-12-14 | Mitsubishi Electric Corp | 3次元情報復元装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4645459A (en) * | 1982-07-30 | 1987-02-24 | Honeywell Inc. | Computer generated synthesized imagery |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
JP3745117B2 (ja) * | 1998-05-08 | 2006-02-15 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
US7623676B2 (en) * | 2004-12-21 | 2009-11-24 | Sarnoff Corporation | Method and apparatus for tracking objects over a wide area using a network of stereo sensors |
WO2007032819A2 (en) * | 2005-07-21 | 2007-03-22 | Regents Of The University Of Minnesota | Camera placement and virtual-scene construction |
US7420590B2 (en) * | 2005-09-29 | 2008-09-02 | Mitsubishi Electric Research Laboratories, Inc. | Video matting using camera arrays |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
-
2007
- 2007-10-03 US US11/866,645 patent/US7929804B2/en not_active Expired - Fee Related
-
2008
- 2008-10-02 JP JP2008257073A patent/JP5197279B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001094857A (ja) * | 1999-08-09 | 2001-04-06 | Fuji Xerox Co Ltd | バーチャル・カメラの制御方法、カメラアレイ、及びカメラアレイの整合方法 |
JP2004058737A (ja) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | 駅ホームにおける安全監視装置 |
JP2006337075A (ja) * | 2005-05-31 | 2006-12-14 | Mitsubishi Electric Corp | 3次元情報復元装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013537661A (ja) * | 2010-06-30 | 2013-10-03 | タタ コンサルタンシー サービシズ リミテッド | ステレオビジョン技術を使用することによる移動物体の自動検出 |
Also Published As
Publication number | Publication date |
---|---|
US20090092282A1 (en) | 2009-04-09 |
US7929804B2 (en) | 2011-04-19 |
JP5197279B2 (ja) | 2013-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5197279B2 (ja) | コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 | |
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
US9019426B2 (en) | Method of generating image data by an image device including a plurality of lenses and apparatus for generating image data | |
JP5538617B2 (ja) | 複数カメラのキャリブレーション用の方法および構成 | |
JP6961797B2 (ja) | プレビュー写真をぼかすための方法および装置ならびにストレージ媒体 | |
US11315274B2 (en) | Depth determination for images captured with a moving camera and representing moving features | |
US10764496B2 (en) | Fast scan-type panoramic image synthesis method and device | |
CN109389555B (zh) | 一种全景图像拼接方法及装置 | |
CN108234858B (zh) | 图像虚化处理方法、装置、存储介质及电子设备 | |
US9253415B2 (en) | Simulating tracking shots from image sequences | |
WO2018171008A1 (zh) | 一种基于光场图像的高光区域修复方法 | |
Tehrani et al. | Iterative colour correction of multicamera systems using corresponding feature points | |
CN110717936A (zh) | 一种基于相机姿态估计的图像拼接方法 | |
CN110245549A (zh) | 实时面部和对象操纵 | |
JP6272071B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN113744307A (zh) | 一种基于阈值动态调整的图像特征点跟踪方法和系统 | |
CN110322476B (zh) | 一种改进stc和surf特征联合优化的目标跟踪方法 | |
CN111161143A (zh) | 一种光学定位技术辅助的手术视野全景拼接方法 | |
CN113947686A (zh) | 一种图像的特征点提取阈值动态调整方法和系统 | |
CN110349110B (zh) | 一种基于累帧过融合的模糊图像增强方法及应用 | |
CN113379842A (zh) | 一种基于rgbd相机的弱纹理及动态场景视觉slam定位方法 | |
Li et al. | Real-time continuous geometric calibration for projector-camera system under ambient illumination | |
Gilbert et al. | Inpainting of wide-baseline multiple viewpoint video | |
WO2018209603A1 (zh) | 图像处理方法、图像处理设备及存储介质 | |
KR101731695B1 (ko) | 시간적 일관성을 유지하는 다시점 이미지의 색상 왜곡 보정 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110811 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130205 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160215 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |