JP7204021B2 - 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 - Google Patents
画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 Download PDFInfo
- Publication number
- JP7204021B2 JP7204021B2 JP2022006154A JP2022006154A JP7204021B2 JP 7204021 B2 JP7204021 B2 JP 7204021B2 JP 2022006154 A JP2022006154 A JP 2022006154A JP 2022006154 A JP2022006154 A JP 2022006154A JP 7204021 B2 JP7204021 B2 JP 7204021B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- interest
- registration error
- light field
- error map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 230000000007 visual effect Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/236—Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
れた四次元ライトフィールド・データに基づく焦点スタックとの交わりを計算することによって生成された、前記関心オブジェクトの画像に関係する位置合わせ誤差マップを取得するよう構成されたプロセッサを有する。
ク・カメラは、後処理によって異なる視点および再合焦深度からのシーンの画像の再構成を達成するための、追加的な光情報成分を得ることができる。
部装置と通信可能であってもよい。ある実施形態では、外部装置は、ライトフィールド・カメラであってもよい。この場合、ライトフィールド・カメラによって捕捉された4Dライトフィールド画像のデータがライトフィールド・カメラから装置400に、インターフェース・ユニット405を通じて入力され、次いで記憶ユニット402に記憶されることができる。
および第一のフェーズPh1の間に決定された再合焦表面に基づいて計算され、この再合焦された画像から位置合わせ誤差マップが得られる。第二のフェーズPh2は段階504ないし509を含む。
ぼけに関係した情報93は、最高のぼけレベルを示す0から最高の鮮鋭レベル(level of sharpness)(または最低のぼけレベル)を示す1までの間に含まれる値であってもよい。ピクセルのぼけレベルを示す値の増分はたとえば0.25である。換言すれば、ピクセルのぼけのレベルを示す値は:0,0.25,0.5,0.75または1の値を取ることができ、値0が最高のぼけの値を示し、値1が最低のぼけの値を示す。こうして、画像92の左上隅の諸ピクセル91に関連付けられたぼけレベルを表わす情報93の値が1に等しいので、図9で表わされている画像92の左上隅は鮮鋭である。逆に、画像92の右下隅の諸ピクセル91に関連付けられたぼけレベルを表わす情報93の値は0に等しいので、画像92の右下隅はぼけている。
・カメラを組み込んでいる装置400を所有している人間である。
必要があるかを決定しうる。
に、位置合わせ誤差マップによって示されるぼけは、位置合わせ誤差マップのある種の領域において意図的に強調されてもよい。
Claims (9)
- シーンに関連付けられた関心オブジェクトの三次元モデルを取得することと、
前記三次元モデルに基づいて再合焦表面を生成することと、
前記シーンの四次元ライトフィールド・データを取得することと、
前記再合焦表面を用いて前記四次元ライトフィールド・データを再合焦することと、
前記再合焦された四次元ライトフィールド・データを用いることによって、再合焦された画像を生成することと、
前記再合焦された画像を用いることによって、エンドユーザーが前記シーンに対して正しく位置決めされているかどうかを判断することと
を含む、方法。 - 前記関心オブジェクトの前記三次元モデルは、前記エンドユーザーによる選択から取得される、請求項1記載の方法。
- 前記関心オブジェクトの前記三次元モデルは、前記シーンを識別するコードの選択から取得される、請求項1記載の方法。
- 前記三次元モデルに基づいて再合焦表面を生成することは、
前記関心オブジェクトの事前に選択された視点に基づいて参照位置に前記三次元モデルを位置決めすることと、
前記位置決めされた三次元モデルに基づいて距離マップを計算することと
を含む、請求項1に記載の方法。 - 前記エンドユーザーは、人間のユーザーである、請求項1に記載の方法。
- 前記再合焦された画像は、前記ユーザーが前記再合焦された画像を見るように携帯機器上に表示される、請求項5に記載の方法。
- 前記エンドユーザーは、ロボットである、請求項1に記載の方法。
- 前記シーンの前記四次元ライトフィールド・データは、前記エンドユーザーの現在の視野からカメラデバイスを用いることによって取得される、請求項1に記載の方法。
- 前記再合焦された画像を用いることによって、エンドユーザーが前記シーンに対して正しく位置決めされているかどうかを判断することは、位置合わせ誤差マップを生成することを含み、
前記位置合わせ誤差マップのピクセルは、前記再合焦された画像における点のぼけの度合いを示す、請求項1に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15305939.9A EP3106912A1 (en) | 2015-06-17 | 2015-06-17 | An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image |
EP15305939.9 | 2015-06-17 | ||
JP2017564559A JP7013244B2 (ja) | 2015-06-17 | 2016-06-16 | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 |
PCT/EP2016/063937 WO2016202946A1 (en) | 2015-06-17 | 2016-06-16 | An apparatus and a method for obtaining a registration error map representing a level of sharpness of an image |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564559A Division JP7013244B2 (ja) | 2015-06-17 | 2016-06-16 | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022058658A JP2022058658A (ja) | 2022-04-12 |
JP7204021B2 true JP7204021B2 (ja) | 2023-01-13 |
Family
ID=53724143
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564559A Active JP7013244B2 (ja) | 2015-06-17 | 2016-06-16 | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 |
JP2022006154A Active JP7204021B2 (ja) | 2015-06-17 | 2022-01-19 | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564559A Active JP7013244B2 (ja) | 2015-06-17 | 2016-06-16 | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10818020B2 (ja) |
EP (3) | EP3106912A1 (ja) |
JP (2) | JP7013244B2 (ja) |
KR (2) | KR20230152168A (ja) |
CN (2) | CN107787507B (ja) |
WO (1) | WO2016202946A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107084794B (zh) * | 2017-04-10 | 2021-06-22 | 东南大学 | 基于光场分层成像技术的火焰三维温度场测量系统及其方法 |
US10699374B2 (en) | 2017-12-05 | 2020-06-30 | Microsoft Technology Licensing, Llc | Lens contribution-based virtual reality display rendering |
CN110349132B (zh) * | 2019-06-25 | 2021-06-08 | 武汉纺织大学 | 一种基于光场相机深度信息提取的织物瑕疵检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009090291A1 (es) | 2008-01-15 | 2009-07-23 | Universidad De La Laguna | Método y cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales |
JP2012205111A (ja) | 2011-03-25 | 2012-10-22 | Casio Comput Co Ltd | 撮像装置 |
WO2013162747A1 (en) | 2012-04-26 | 2013-10-31 | The Trustees Of Columbia University In The City Of New York | Systems, methods, and media for providing interactive refocusing in images |
WO2013169671A1 (en) | 2012-05-09 | 2013-11-14 | Lytro, Inc. | Optimization of optical systems for improved light field capture and manipulation |
US20140176592A1 (en) | 2011-02-15 | 2014-06-26 | Lytro, Inc. | Configuring two-dimensional image processing based on light-field parameters |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005038700A1 (en) | 2003-10-09 | 2005-04-28 | University Of York | Image recognition |
JP4524717B2 (ja) | 2008-06-13 | 2010-08-18 | 富士フイルム株式会社 | 画像処理装置、撮像装置、画像処理方法及びプログラム |
JP2011022796A (ja) | 2009-07-15 | 2011-02-03 | Canon Inc | 画像処理方法および画像処理装置 |
KR101608970B1 (ko) * | 2009-11-27 | 2016-04-05 | 삼성전자주식회사 | 광 필드 데이터를 이용한 영상 처리 장치 및 방법 |
KR101756910B1 (ko) * | 2010-05-11 | 2017-07-26 | 삼성전자주식회사 | 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법 |
EP2403234A1 (en) * | 2010-06-29 | 2012-01-04 | Koninklijke Philips Electronics N.V. | Method and system for constructing a compound image from data obtained by an array of image capturing devices |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8531581B2 (en) * | 2011-05-23 | 2013-09-10 | Ricoh Co., Ltd. | Focusing and focus metrics for a plenoptic imaging system |
US8542933B2 (en) * | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
US8602308B2 (en) * | 2011-12-22 | 2013-12-10 | Symbol Technologies, Inc. | Imaging device having light field sensor |
US8941722B2 (en) | 2012-01-03 | 2015-01-27 | Sony Corporation | Automatic intelligent focus control of video |
WO2013126784A2 (en) * | 2012-02-23 | 2013-08-29 | Huston Charles D | System and method for creating an environment and for sharing a location based experience in an environment |
CN103366356A (zh) | 2012-04-06 | 2013-10-23 | 北京三星通信技术研究有限公司 | 通用标定系统和方法及其集成成像重构系统和方法 |
EP2675173A1 (en) | 2012-06-15 | 2013-12-18 | Thomson Licensing | Method and apparatus for fusion of images |
US9237263B2 (en) * | 2012-10-05 | 2016-01-12 | Vidinoti Sa | Annotation method and apparatus |
JP6047025B2 (ja) | 2013-02-01 | 2016-12-21 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US9456141B2 (en) * | 2013-02-22 | 2016-09-27 | Lytro, Inc. | Light-field based autofocus |
CN103471715B (zh) * | 2013-09-02 | 2015-09-09 | 北京航空航天大学 | 一种共光路组合式光场光谱成像方法及装置 |
US9460515B2 (en) * | 2013-10-25 | 2016-10-04 | Ricoh Co., Ltd. | Processing of light fields by transforming to scale and depth space |
US9224194B2 (en) * | 2014-01-21 | 2015-12-29 | Adobe Systems Incorporated | Joint video deblurring and stabilization |
-
2015
- 2015-06-17 EP EP15305939.9A patent/EP3106912A1/en not_active Withdrawn
-
2016
- 2016-06-16 JP JP2017564559A patent/JP7013244B2/ja active Active
- 2016-06-16 EP EP23163562.4A patent/EP4235257A1/en active Pending
- 2016-06-16 EP EP16733012.5A patent/EP3311214B1/en active Active
- 2016-06-16 WO PCT/EP2016/063937 patent/WO2016202946A1/en active Application Filing
- 2016-06-16 KR KR1020237036169A patent/KR20230152168A/ko active Application Filing
- 2016-06-16 KR KR1020177036006A patent/KR102595397B1/ko active IP Right Grant
- 2016-06-16 US US15/737,301 patent/US10818020B2/en active Active
- 2016-06-16 CN CN201680034570.XA patent/CN107787507B/zh active Active
- 2016-06-16 CN CN202111493581.3A patent/CN114155233A/zh active Pending
-
2020
- 2020-09-22 US US17/028,180 patent/US11694349B2/en active Active
-
2022
- 2022-01-19 JP JP2022006154A patent/JP7204021B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009090291A1 (es) | 2008-01-15 | 2009-07-23 | Universidad De La Laguna | Método y cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales |
US20140176592A1 (en) | 2011-02-15 | 2014-06-26 | Lytro, Inc. | Configuring two-dimensional image processing based on light-field parameters |
JP2012205111A (ja) | 2011-03-25 | 2012-10-22 | Casio Comput Co Ltd | 撮像装置 |
WO2013162747A1 (en) | 2012-04-26 | 2013-10-31 | The Trustees Of Columbia University In The City Of New York | Systems, methods, and media for providing interactive refocusing in images |
WO2013169671A1 (en) | 2012-05-09 | 2013-11-14 | Lytro, Inc. | Optimization of optical systems for improved light field capture and manipulation |
Also Published As
Publication number | Publication date |
---|---|
KR20180018563A (ko) | 2018-02-21 |
KR20230152168A (ko) | 2023-11-02 |
EP3311214B1 (en) | 2023-05-24 |
JP7013244B2 (ja) | 2022-01-31 |
CN114155233A (zh) | 2022-03-08 |
EP3106912A1 (en) | 2016-12-21 |
US20180189965A1 (en) | 2018-07-05 |
WO2016202946A1 (en) | 2016-12-22 |
JP2022058658A (ja) | 2022-04-12 |
CN107787507B (zh) | 2021-12-28 |
US10818020B2 (en) | 2020-10-27 |
KR102595397B1 (ko) | 2023-10-27 |
JP2018519733A (ja) | 2018-07-19 |
EP4235257A1 (en) | 2023-08-30 |
EP3311214A1 (en) | 2018-04-25 |
CN107787507A (zh) | 2018-03-09 |
US20210012515A1 (en) | 2021-01-14 |
US11694349B2 (en) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7204021B2 (ja) | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 | |
US10740975B2 (en) | Mobile augmented reality system | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
US10116867B2 (en) | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product | |
Bok et al. | Geometric calibration of micro-lens-based light field cameras using line features | |
US9886774B2 (en) | Photogrammetric methods and devices related thereto | |
JP2019075082A (ja) | 深度値推定を用いた映像処理方法及び装置 | |
JP6655379B2 (ja) | 焦点スタックから適応スライス画像を生成する方法および装置 | |
JP6683307B2 (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
JP2019067388A (ja) | ライトフィールド画像を操作するためのユーザインターフェイス | |
KR20160073491A (ko) | 모바일 단말기를 이용한 인터렉티브 건설 공정 관리 시스템 및 사용자 인터페이스 | |
JP2015005200A (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体 | |
CN112053406B (zh) | 成像装置参数标定方法、装置及电子设备 | |
Ahmadabadian | Photogrammetric multi-view stereo and imaging network design | |
Fallqvist | Automatic Volume Estimation Using Structure-from-Motion Fused with a Cellphone's Inertial Sensors | |
JP2015056790A (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20170148208A1 (en) | Method, apparatus and program for processing a circular light field | |
Amara | Object Detection and Tracking Using Uncalibrated Cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7204021 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |