JP2013500536A5 - - Google Patents

Download PDF

Info

Publication number
JP2013500536A5
JP2013500536A5 JP2012522798A JP2012522798A JP2013500536A5 JP 2013500536 A5 JP2013500536 A5 JP 2013500536A5 JP 2012522798 A JP2012522798 A JP 2012522798A JP 2012522798 A JP2012522798 A JP 2012522798A JP 2013500536 A5 JP2013500536 A5 JP 2013500536A5
Authority
JP
Japan
Prior art keywords
stereoscopic image
image pair
cluster map
distance information
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012522798A
Other languages
English (en)
Other versions
JP2013500536A (ja
JP5671533B2 (ja
Filing date
Publication date
Priority claimed from US12/511,111 external-priority patent/US8509519B2/en
Application filed filed Critical
Publication of JP2013500536A publication Critical patent/JP2013500536A/ja
Publication of JP2013500536A5 publication Critical patent/JP2013500536A5/ja
Application granted granted Critical
Publication of JP5671533B2 publication Critical patent/JP5671533B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明はデジタル画像の調整に関し、特に範囲情報を用いた立体画像対における遠近感および視差を調整する方法に関する。
本発明は、立体画像対における遠近感および視差を調整する方法を示し、当該方法は少なくとも部分的にデータ処理システムにより実装され、
シーンを表す立体画像対を受信するステップと、
立体画像対に関連付けられていて、シーン内のピクセルの基準位置からの距離を含む範囲情報を識別するステップと、
少なくとも範囲情報および立体画像の分析に基づいたクラスタマップであって、視点からの距離により立体画像のピクセルをグループ化するクラスタマップを生成するステップと、
少なくともクラスタマップおよび立体画像の分析に基づいて立体画像内の被写体および背景を識別するステップと、
少なくとも立体画像対内の被写体および背景の遠近感および視差の調整であって、少なくとも範囲情報の分析に基づいて行われる調整により新規の立体画像対を生成するステップと、
生成された新規の立体画像対をプロセッサによりアクセス可能なメモリシステムに保存するステップを含んでいる。
本発明の利点は、範囲情報を用いることにより、より高い精度で被写体および背景を検出して分割できることである。更に、立体画像対における遠近感および視差を効率的に調整することができる。
デジタル画像103に関連付けられた範囲情報105が範囲情報識別ステップ104において識別される。範囲情報105は、シーン内のピクセルの既知の基準位置からの距離を含んでいる。所与の範囲情報と関連して視点位置を識別する必要がある。通常、視点位置が基準位置である。範囲情報105は好適には、可視光、赤外光、レーザー光または超音波を用いてシーン内のピクセルへの距離を判定する範囲カメラにより提供される範囲マップの形式で示される。あるいは、範囲マップは、複数の視点からシーンの画像を撮像して、シーン内の被写体の相対位置を評価することにより範囲情報を判定することを含む立体画像処理技術を用いて提供することができる。範囲マップがデジタル画像103とは異なる寸法(すなわち行と列の数)を有する場合、範囲マップが同じ寸法を有するように補間することが好適である。
被写体および背景識別ステップ106において、シーン内の被写体および背景107が範囲情報105および立体画像対103の分析に基づいて識別される。新規立体画像対生成ステップ108において、範囲情報105の分析に基づいて立体画像対103内の被写体および背景107の遠近感および視差を調整することにより新規の立体画像対109が生成される。人により体験する立体感が異なるため、遠近感および視差の調整はオプションとして本発明の一実施形態におけるユーザー嗜好入力111に基づいている。(図2の破線がオプション機能を示す。)例えば、視差が大き過ぎる場合、特定のユーザーは視覚的に立体画像対を合成することが困難な場合がある。この場合、ユーザー嗜好入力111は、特定のユーザーがより低い視差レベルを好むことを示すことができる。ユーザーがユーザー嗜好入力111を指定できるようにユーザーインターフェースを提供することができる。例えば、全体的な視差レベルに対するスケーリング係数を入力するためのスライドバーを提供することができる。ユーザーは、単にバーをより低いレベルまでスライドさせて視差を小さくすることができる。新規立体画像対生成ステップ107は次いで、各被写体の視差をスケーリング係数分だけ小さくして、より低い視差レベルを有する新規立体画像対108を生成することができる。
図3は、本発明の一実施形態による、図2に示す被写体および背景識別ステップ106の追加的な詳細事項を示すフロー図である。範囲マップを含む立体画像対103および範囲情報105は上述のように与えられる。クラスタマップ生成ステップ202において、図4の議論に関して更に詳細に記述するように、範囲情報105および立体画像対103の分析に基づいてクラスタマップ203が生成される。被写体および背景検出ステップ204において、次式のようにクラスタマップ203と立体画像対103を組み合わせることにより、立体画像103内で被写体および背景205が検出される。
被写体=f(クラスタマップ,I)
ここに、関数f()は、クラスタマップ203を用いてデジタル画像Iに施した被写体分割演算である。デジタル画像Iは、立体画像対103内の一方の画像である。関数f()は、クラスタマップ203内で等距離にあるピクセルを識別し、次いでデジタル画像I内の対応ピクセルを対応被写体に割り当てることにより機能する。
図4は、本発明の一実施形態による、図3に示すクラスタマップ生成ステップ202の追加的な詳細事項を示すフロー図である。範囲マップを含む立体画像対103および範囲情報105は上述のように与えられる。ピクセルクラスタリングステップ304において、範囲マップ内のピクセルは、「Dominant Sets and Pairwise Clustering」,IEEE Transactions on Pattern Analysis & Machine Intelligence,Volume 29,No.1,January 2007,pp.167−172」に記載された方法等のクラスタリングアルゴリズムを用いてクラスタリングされる。このように生成されたクラスタグループに通常、多くのノイズが含まれる。クラスタノイズ削減ステップ306において、形態学的方法を用いて小さい穴を埋めて小さいクラスタ領域を除去することによりクラスタノイズを減らす。
クラスタノイズ削減ステップ306で生成されたピクセルクラスタは通常、範囲マップ内のノイズに起因して、依然として境界線域にエラーを有している。クラスタ精緻化ステップ312を用いてクラスタグループを精緻化すると共にクラスタマップ203を生成する。エッジフィルタリングステップ310で計算された重要なエッジを用いてクラスタグループの境界が精緻化される。各クラスタグループ内で検出された重要なエッジの外側にピクセルがある場合、それらは除去される。これにより、クラスタグループの境界がはるかに正確になる。次に、各々の精緻化されたクラスタグループ内で平均距離(n)が次式に従い計算される。
Figure 2013500536
ここに、mはクラスタグループw内のピクセル数、dis(i)は第iピクセルの視点位置までの距離である。クラスタグループ内の各ピクセルに平均距離を割り当てることによりクラスタマップが生成される。
10 データ処理システム
20 周辺システム
30 ユーザーインターフェースシステム
40 データ記憶装置
102 立体画像対受信ステップ
103 立体画像対
104 範囲情報識別ステップ
105 範囲情報
106 被写体および背景識別ステップ
107 被写体および背景
108 新規立体画像対生成ステップ
109 新規立体画像対
110 新規立体画像対保存ステップ
111 ユーザー嗜好入力
202 クラスタマップ生成
203 クラスタマップ
204 被写体および背景検出ステップ
304 ピクセルクラスタリングステップ
306 クラスタノイズ削減ステップ
308 エッジ識別ステップ
310 エッジフィルタリングステップ
312 クラスタ精緻化ステップ

Claims (20)

  1. シーンを表す立体画像対を受信するステップと、
    前記立体画像対に関連付けられた距離情報を識別するステップであって、前記距離情報は、前記シーン内のピクセルの基準位置からの距離を含む、ステップと、
    少なくともクラスタリングアルゴリズムを使用する前記距離情報基づいたクラスタマップを生成するステップであって、前記クラスタマップは、視点からの距離により前記立体画像のピクセルをグループ化する、ステップと、
    少なくとも前記クラスタマップおよび前記立体画像の分析に基づいて前記立体画像内の被写体および背景を識別するステップであって、
    前記クラスタマップおよび前記立体画像対の分析は、前記立体画像対におけるエッジを識別すること、および、
    前記識別されたエッジをピクセルグループの境界と比較し、かつ、前記ピクセルグループから前記識別されたエッジの外側にあるピクセルを除去することによって、前記クラスタマップにおける前記ピクセルグループを精緻化すること、
    を含む、ステップと、
    前記立体画像対における前記識別された被写体または背景の少なくとも一方に対する遠近感および視差を調整することにより新規の立体画像対を生成するステップであって、前記調整は、少なくとも前記距離情報に基づいて行われる、ステップと、
    前記新規の立体画像対をプロセッサによりアクセス可能なメモリシステムに保存するステップと、
    を含む方法。
  2. 前記遠近感および視差の調整、ユーザー嗜好入力に対応している、請求項1に記載の方法。
  3. 前記遠近感および視差の調整は、視点位置からの前記被写体の距離に反応している、請求項1に記載の方法。
  4. 前記視点位置は、前記基準位置である、請求項に記載の方法。
  5. 前記クラスタマップの前記分析、前記クラスタマップからノイズを削減すること、を含む、請求項1に記載の方法。
  6. 前記クラスタマップからの前記ノイズの削減は、小さい穴を埋めて、前記クラスタマップから小さいクラスタ領域を除去する、請求項に記載の方法。
  7. 前記方法は、さらに
    前記識別されたエッジを前記ピクセルグループの境界と比較する前に、重要でないエッジを除去するように前記識別されたエッジをフィルタリングするステップ、
    を含む、請求項1に記載の方法。
  8. 前記距離情報、少なくとも前記立体画像対の分析から識別される、請求項1に記載の方法。
  9. 命令が保管された固定のコンピューターで読み取り可能な媒体であって、コンピューター装置によって実行されると、前記コンピューター装置が、
    シーンを表す立体画像対を受信するステップと、
    前記立体画像対に関連付けられた距離情報を識別するステップであって、前記距離情報は、前記シーン内のピクセルの基準位置からの距離を含む、ステップと、
    少なくともクラスタリングアルゴリズムを使用する前記距離情報に基づいたクラスタマップを生成するステップであって、前記クラスタマップは、視点からの距離により前記立体画像のピクセルをグループ化する、ステップと、
    少なくとも前記クラスタマップおよび前記立体画像対の分析に基づいて前記立体画像内の被写体および背景を識別するステップであって、
    前記クラスタマップおよび前記立体画像対の分析は、前記立体画像対におけるエッジを識別すること、および、
    前記識別されたエッジをピクセルグループの境界と比較し、かつ、前記ピクセルグループから前記識別されたエッジの外側にあるピクセルを除去することによって、前記クラスタマップにおける前記ピクセルグループを精緻化すること、
    を含む、ステップと、
    前記立体画像対における前記識別された被写体または背景の少なくとも一方に対する遠近感および視差を調整することにより新規の立体画像対を生成するステップであって、前記調整は、少なくとも前記距離情報に基づいて行われる、ステップと、
    前記新規の立体画像対をプロセッサによりアクセス可能なメモリシステムに保存するステップと、
    を含む方法を実施する、コンピューターで読み取り可能な媒体。
  10. データ処理システムと、
    前記データ処理システムに通信可能に接続されたメモリシステムであって、前記データ処理システムに立体画像対における遠近感および視差を調整するための方法を実施させるように構成された命令を保管しているメモリシステムと、を含み、
    前記命令は、
    シーンを表す立体画像対を受信する命令と、
    前記立体画像対に関連付けられた距離情報を識別する命令であって、前記距離情報は、前記シーン内のピクセルの基準位置からの距離を含む、命令と、
    少なくともクラスタリングアルゴリズムを使用する前記距離情報に基づいたクラスタマップを生成する命令であって、前記クラスタマップは、視点からの距離により前記立体画像のピクセルをグループ化する、命令と、
    少なくとも前記クラスタマップおよび前記立体画像対の分析に基づいて前記立体画像内の被写体および背景を識別する命令であって、
    前記クラスタマップおよび前記立体画像対の分析は、前記立体画像対におけるエッジを識別すること、および、
    前記識別されたエッジをピクセルグループの境界と比較し、かつ、前記ピクセルグループから前記識別されたエッジの外側にあるピクセルを除去することによって、前記クラスタマップにおける前記ピクセルグループを精緻化すること、
    を含む、命令と、
    前記立体画像対における前記識別された被写体または背景の少なくとも一方に対する遠近感および視差を調整することにより新規の立体画像対を生成する命令であって、前記調整は、少なくとも前記距離情報に基づいて行われる、命令と、
    前記新規の立体画像対をプロセッサによりアクセス可能なメモリシステムに保存する命令と、を含む、システム。
  11. 前記立体画像対は、立体画像撮像装置から受信される、請求項10に記載のシステム。
  12. 前記距離情報は、少なくとも前記立体画像対の分析から識別される、請求項11に記載のシステム。
  13. 前記データ処理システムは、少なくとも前記立体画像撮像装置の一部分を含む、請求項10に記載のシステム。
  14. 前記立体画像撮像装置は、パラレルカメラ、マルチビューカメラ、一眼カメラ、またはハイブリッド立体画像カメラ、を含む、請求項13に記載の方法。
  15. 前記遠近感および視差の調整の程度は、視点位置からの前記対象物の距離に対応している、請求項9に記載の固定のコンピューターで読み取り可能な媒体。
  16. 前記視点位置は、前記基準位置である、請求項15に記載のコンピューターで読み取り可能な媒体。
  17. 前記遠近感および視差の調整は、ユーザー嗜好入力に対応している、請求項9に記載のコンピューターで読み取り可能な媒体。
  18. 前記立体画像対における被写体と背景を識別するための前記命令は、前記クラスタマップからノイズを削減する命令を含む、請求項9に記載のコンピューターで読み取り可能な媒体。
  19. 前記クラスタマップからの前記ノイズの削減は、小さい穴を埋めて、前記クラスタマップから小さいクラスタ領域を除去する、請求項18に記載のコンピューターで読み取り可能な媒体。
  20. 前記メモリシステムは、さらに
    前記識別されたエッジを前記ピクセルグループの境界と比較する前に、重要でないエッジを除去するように前記識別されたエッジをフィルタリングする命令、を含む、
    請求項9に記載のコンピューターで読み取り可能な媒体。
JP2012522798A 2009-07-29 2010-07-12 立体画像対における遠近感および視差の調整 Expired - Fee Related JP5671533B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/511,111 2009-07-29
US12/511,111 US8509519B2 (en) 2009-07-29 2009-07-29 Adjusting perspective and disparity in stereoscopic image pairs
PCT/US2010/001946 WO2011014229A1 (en) 2009-07-29 2010-07-12 Adjusting perspective and disparity in stereoscopic image pairs

Publications (3)

Publication Number Publication Date
JP2013500536A JP2013500536A (ja) 2013-01-07
JP2013500536A5 true JP2013500536A5 (ja) 2014-10-09
JP5671533B2 JP5671533B2 (ja) 2015-02-18

Family

ID=42555665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012522798A Expired - Fee Related JP5671533B2 (ja) 2009-07-29 2010-07-12 立体画像対における遠近感および視差の調整

Country Status (5)

Country Link
US (1) US8509519B2 (ja)
EP (1) EP2460359A1 (ja)
JP (1) JP5671533B2 (ja)
CN (1) CN102474636A (ja)
WO (1) WO2011014229A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5035195B2 (ja) * 2008-09-25 2012-09-26 Kddi株式会社 画像生成装置及びプログラム
JP5374641B2 (ja) * 2010-04-20 2013-12-25 パナソニック株式会社 3d映像記録装置及び3d映像信号処理装置
JP5517746B2 (ja) * 2010-05-26 2014-06-11 キヤノン株式会社 画像処理装置およびその方法
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
KR20120007289A (ko) * 2010-07-14 2012-01-20 삼성전자주식회사 디스플레이 장치 및 그 입체감 설정 방법
KR101735612B1 (ko) * 2010-08-16 2017-05-15 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101723235B1 (ko) * 2010-10-04 2017-04-04 삼성전자주식회사 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법
KR101803571B1 (ko) * 2011-06-17 2017-11-30 엘지디스플레이 주식회사 입체영상표시장치와 이의 구동방법
JP2013042301A (ja) * 2011-08-12 2013-02-28 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013128661A (ja) * 2011-12-21 2013-07-04 Canon Inc ステレオx線撮影装置、ステレオx線撮影方法
JP5547356B2 (ja) * 2012-03-30 2014-07-09 富士フイルム株式会社 撮影装置、方法、記憶媒体及びプログラム
JP6188387B2 (ja) * 2012-04-17 2017-08-30 パナソニック株式会社 視差算出装置及び視差算出方法
JP6021541B2 (ja) * 2012-09-13 2016-11-09 キヤノン株式会社 画像処理装置及び方法
GB2499694B8 (en) * 2012-11-09 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of image reconstruction
US9462257B2 (en) * 2013-03-14 2016-10-04 Google Technology Holdings LLC Method and apparatus for two-dimensional to three-dimensional image conversion
JP5999127B2 (ja) * 2014-03-12 2016-09-28 トヨタ自動車株式会社 画像処理装置
US9740936B2 (en) * 2015-03-27 2017-08-22 Google Inc. Cluster based photo navigation
US12055632B2 (en) 2020-10-13 2024-08-06 Waymo Llc LIDAR based stereo camera correction

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2535034B2 (de) 1975-08-06 1978-01-26 Agfa-Gevaert Ag, 5090 Leverkusen Fotografisches farbkopiergeraet mit einer fotoelektrisch gesteuerten belichtungssteuervorrichtung
JPS6159446A (ja) 1984-08-31 1986-03-26 Fuji Photo Film Co Ltd 写真焼付装置
US4984013A (en) 1988-04-26 1991-01-08 Fuji Photo Film Co., Ltd. Method for controlling exposure amount in copying of color originals
EP0360751B1 (de) 1988-09-23 1993-09-29 Gretag Imaging Ag Belichtungssteuerungsverfahren und fotografisches Farbkopiergerät
US4945406A (en) 1988-11-07 1990-07-31 Eastman Kodak Company Apparatus and accompanying methods for achieving automatic color balancing in a film to video transfer system
JPH08331607A (ja) * 1995-03-29 1996-12-13 Sanyo Electric Co Ltd 三次元表示画像生成方法
US6243133B1 (en) 1997-03-07 2001-06-05 Eastman Kodak Company Method for automatic scene balance of digital images
US5903660A (en) * 1997-07-16 1999-05-11 The Regents Of The University Of California Automatic background recognition and removal (ABRR) in projection digital radiographic images (PDRI)
US6252976B1 (en) 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
JP2958462B1 (ja) * 1998-10-01 1999-10-06 工業技術院長 ステレオ画像の輝度修正方法及び装置
US6275605B1 (en) 1999-01-18 2001-08-14 Eastman Kodak Company Method for adjusting the tone scale of a digital image
JP3820497B2 (ja) 1999-01-25 2006-09-13 富士写真フイルム株式会社 撮像装置及び自動露出制御の補正処理方法
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US7289154B2 (en) 2000-05-10 2007-10-30 Eastman Kodak Company Digital image processing method and apparatus for brightness adjustment of digital images
US6636646B1 (en) 2000-07-20 2003-10-21 Eastman Kodak Company Digital image processing method and for brightness adjustment of digital images
JP2002084552A (ja) * 2000-09-07 2002-03-22 Fuji Xerox Co Ltd カラオケ用立体画像表示装置およびカラオケ用立体画像表示方法
EP1229734A1 (en) 2001-01-31 2002-08-07 GRETAG IMAGING Trading AG Automatic colour defect correction
US6873743B2 (en) 2001-03-29 2005-03-29 Fotonation Holdings, Llc Method and apparatus for the automatic real-time detection and correction of red-eye defects in batches of digital images or in handheld appliances
US6980691B2 (en) 2001-07-05 2005-12-27 Corel Corporation Correction of “red-eye” effects in images
US6845181B2 (en) 2001-07-12 2005-01-18 Eastman Kodak Company Method for processing a digital image to adjust brightness
EP1288859A1 (de) 2001-09-03 2003-03-05 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
EP1288860A1 (de) 2001-09-03 2003-03-05 Agfa-Gevaert AG Verfahren zur Verarbeitung digitaler fotografischer Bilddaten, welches ein Verfahren zum automatischen Erkennen von rote-Augen-Defekten umfasst
EP1293933A1 (de) 2001-09-03 2003-03-19 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
US7046400B2 (en) 2002-01-31 2006-05-16 Eastman Kodak Company Adjusting the color, brightness, and tone scale of rendered digital images
US6573932B1 (en) 2002-03-15 2003-06-03 Eastman Kodak Company Method for automatic white balance of digital images
EP2357840A3 (en) * 2002-03-27 2012-02-29 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US7158174B2 (en) 2002-04-04 2007-01-02 Eastman Kodak Company Method for automatic white balance of digital images
US7082211B2 (en) 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images
US7043090B2 (en) 2002-10-02 2006-05-09 Eastman Kodak Company Enhancing the tonal characteristics of digital images using expansive and compressive tone scale functions
US7116838B2 (en) 2002-10-25 2006-10-03 Eastman Kodak Company Enhancing the tonal and spatial characteristics of digital images using selective spatial filters
US7421418B2 (en) 2003-02-19 2008-09-02 Nahava Inc. Method and apparatus for fundamental operations on token sequences: computing similarity, extracting term values, and searching efficiently
JP4196845B2 (ja) 2003-03-31 2008-12-17 セイコーエプソン株式会社 画像処理装置
JP3955953B2 (ja) 2003-09-12 2007-08-08 国立大学法人広島大学 画像分割処理装置、画像分割処理方法及び画像分割処理集積化回路
GB2409027A (en) 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
EP1738198A4 (en) 2004-02-13 2011-05-25 Technion Res & Dev Foundation IMPROVED UNDERWATER PICTURE
TWI236901B (en) 2004-06-11 2005-08-01 Oriental Inst Technology An apparatus and method for identifying surrounding environment by means of image processing and for outputting the resutls
US7689021B2 (en) * 2005-08-30 2010-03-30 University Of Maryland, Baltimore Segmentation of regions in measurements of a body based on a deformable model
US20070121094A1 (en) 2005-11-30 2007-05-31 Eastman Kodak Company Detecting objects of interest in digital images
US7821570B2 (en) 2005-11-30 2010-10-26 Eastman Kodak Company Adjusting digital image exposure and tone scale
KR101311896B1 (ko) 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
KR20080076628A (ko) * 2007-02-16 2008-08-20 삼성전자주식회사 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법
JP4757812B2 (ja) * 2007-02-20 2011-08-24 富士フイルム株式会社 立体撮影装置および方法並びにプログラム
WO2008102296A2 (en) 2007-02-23 2008-08-28 Koninklijke Philips Electronics N.V. Method for enhancing the depth sensation of an image
US8411934B2 (en) * 2007-11-09 2013-04-02 Thomson Licensing System and method for depth map extraction using region-based filtering
US8358370B2 (en) 2007-12-05 2013-01-22 Nxp B.V. Flash light compensation system for digital camera system

Similar Documents

Publication Publication Date Title
JP2013500536A5 (ja)
JP5671533B2 (ja) 立体画像対における遠近感および視差の調整
CN110222787B (zh) 多尺度目标检测方法、装置、计算机设备及存储介质
EP3709266A1 (en) Human-tracking methods, apparatuses, systems, and storage media
EP2087466B1 (en) Generation of depth map for an image
EP3674852A2 (en) Method and apparatus with gaze estimation
CN104574342B (zh) 视差深度图像的噪声识别方法和噪声识别装置
US10762649B2 (en) Methods and systems for providing selective disparity refinement
CN103488984A (zh) 基于智能移动设备的二代身份证识别方法及装置
CN107392958A (zh) 一种基于双目立体摄像机确定物体体积的方法及装置
US20160335775A1 (en) Visual navigation method, visual navigation device and robot
US20230394833A1 (en) Method, system and computer readable media for object detection coverage estimation
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5900017B2 (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
CN108062765A (zh) 双目图像处理方法、成像装置及电子设备
KR101920159B1 (ko) 지원점 보간법을 이용한 스테레오 매칭 방법 및 장치
US9077963B2 (en) Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
KR101278636B1 (ko) 2차원 영상을 스테레오스코픽 입체 영상으로 변환하기 위한 객체 검출 방법
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
GB2533450B (en) Settings of a digital camera for depth map refinement
JP5156731B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN117274786A (zh) 一种水下鱼体生物量检测方法及系统