JP2019530059A5 - - Google Patents

Download PDF

Info

Publication number
JP2019530059A5
JP2019530059A5 JP2019507170A JP2019507170A JP2019530059A5 JP 2019530059 A5 JP2019530059 A5 JP 2019530059A5 JP 2019507170 A JP2019507170 A JP 2019507170A JP 2019507170 A JP2019507170 A JP 2019507170A JP 2019530059 A5 JP2019530059 A5 JP 2019530059A5
Authority
JP
Japan
Prior art keywords
determining
areas
image
distance
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019507170A
Other languages
English (en)
Other versions
JP2019530059A (ja
JP7269874B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2017/046529 external-priority patent/WO2018031900A1/en
Publication of JP2019530059A publication Critical patent/JP2019530059A/ja
Publication of JP2019530059A5 publication Critical patent/JP2019530059A5/ja
Application granted granted Critical
Publication of JP7269874B2 publication Critical patent/JP7269874B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

様々な実施例を説明してきた。これらの及び他の実施例は、以下の特許請求の範囲内である。
なお、以上の各実施例に加えて以下の態様について付記する。
(付記1)
コンピューティングデバイスによって、独立的に処理するために、対象とする平面に対して画像の複数の対象とする領域を決定することと、
前記コンピューティングデバイスによって、前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
前記コンピューティングデバイスによって、前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、を含む、方法。
(付記2)
前記それぞれの対象とする領域を処理することが、前記それぞれの対象とする領域のうちの少なくとも1つを再スケーリングすることを含む、付記1に記載の方法。
(付記3)
前記それぞれの対象とする領域のうちの前記少なくとも1つを再スケーリングすることが、前記それぞれの対象とする領域のうちの前記少なくとも1つを所定の解像度にダウンスケールすることを含む、付記2に記載の方法。
(付記4)
前記それぞれの対象とする領域のうちの前記少なくとも1つを前記所定の解像度にダウンスケールすることが、前記それぞれの対象とする領域のうちの前記少なくとも1つをインチ当たり500ピクセル又はインチ当たり1000ピクセルのうちの1つにダウンスケールすることを含む、付記3に記載の方法。
(付記5)
前記それぞれの対象とする領域を処理することが、前記それぞれの対象とする領域のうちの少なくとも1つについて遠近補正を実施することを含む、付記1に記載の方法。
(付記6)
前記複数の対象とする領域を決定することに先立って、前記画像の1以上の部分について、前記画像の1以上の部分内で物体から前記対象とする平面までのそれぞれの距離を含む距離マップを決定することであって、
前記複数の対象とする領域を決定することが、前記距離マップの前記1以上の部分から前記複数の対象とする領域を決定することを含み、
前記それぞれの対象とする領域内で前記物体から前記対象とする平面までの前記距離を決定することが、前記画像の前記1以上の部分について前記距離マップの前記それぞれの距離に基づいて前記距離を決定することを含む、決定すること、を更に含む、付記1に記載の方法。
(付記7)
前記距離マップを決定することが、前記1以上の部分を決定するためにセグメント化アルゴリズムを前記画像の一部の少なくとも1つに適用することを含む、付記6に記載の方法。
(付記8)
前記距離マップを決定することが、前記1以上の部分を前記画像のブロックでサイズ決めされたエリアとして決定することを含む、付記6に記載の方法。
(付記9)
前記距離マップを決定することが、前記1以上の部分のそれぞれの部分について、前記それぞれの部分によって定義された前記画像のエリアについての前記対象とする平面までの平均距離を決定することを含む、付記6に記載の方法。
(付記10)
前記距離マップを決定することが、
前記画像の複数のエリアについて距離を決定することと、
前記画像の前記複数のエリアのうちの少なくとも2つのエリアをマージして、前記1以上の部分の第1の部分を形成することと、
前記第1の部分についての代表的な距離を決定することと、を含む、付記6に記載の方法。
(付記11)
前記代表的な距離を決定することが、前記少なくとも2つのエリアに平滑化係数を適用することを含む、付記10に記載の方法。
(付記12)
前記距離マップを決定することに先立って、前記物体の第1の遠近と前記物体の第2の遠近との間の視差を表現する視差マップを決定することであって、
前記距離マップを決定することが、前記第1の遠近と前記第2の遠近との間の前記視差に基づいて前記距離マップを決定することを含む、決定すること、を更に含む、付記1に記載の方法。
(付記13)
前記視差を決定することが、ピクセル空間において前記視差を決定することを含む、付記12に記載の方法。
(付記14)
前記視差マップを決定することが、
前記第1の遠近からの前記1以上のエリアと前記第2の遠近からの前記1以上の部分の類似性に基づいて視差を決定する前記画像の1以上のエリアを特定することと、
前記1以上のエリアについてそれぞれの視差を決定することと、含む、付記12に記載の方法。
(付記15)
前記視差に基づいて前記距離マップを決定することが、
前記視差マップの前記1以上のエリアから距離を決定する前記画像の1以上の部分を決定することと、
前記画像の前記1以上の部分について、前記視差に基づいて前記対象とする平面までのそれぞれの距離を決定することと、を含む、付記14に記載の方法。
(付記16)
前記視差マップについて前記画像の前記1以上のエリアを特定することが、前記画像のピクセルのブロックを特定することを含む、付記14に記載の方法。
(付記17)
前記視差に基づいて前記距離マップを決定することが、式z=bf/x(ここで、zは距離であり、bは前記第1の遠近から前記画像をキャプチャする第1のカメラと前記第2の遠近から前記画像をキャプチャする第2のカメラの間の離間距離であり、fは前記第1のカメラと前記第2のカメラの焦点距離であり、xは前記視差である)に基づいて、前記距離マップを決定することを含む、付記12に記載の方法。
(付記18)
第1のカメラによって前記第1の遠近をキャプチャすることと、第2のカメラによって前記第2の遠近をキャプチャすることを更に含む、付記12に記載の方法。
(付記19)
前記画像の複数の対象とする領域を決定することが、前記画像において少なくとも1つの指紋内の前記複数の対象とする領域を決定することを含む、付記1に記載の方法。
(付記20)
前記画像の複数の対象とする領域を決定することが、前記画像において掌紋内の前記複数の対象とする領域を決定することを含む、付記1に記載の方法。
(付記21)
前記対象とする平面が、前記画像をキャプチャするカメラによって定義される画像平面を含む、付記1に記載の方法。
(付記22)
物体と画像キャプチャデバイスとの間のそれぞれの深度のセットに対応する視差のセットを決定することと、
モデルを前記それぞれの深度のセットに対応する前記視差のセットに曲線フィッティングすることと、を更に含み、
前記画像の前記それぞれの対象とする領域を処理することが前記モデルに少なくとも一部基づいている、付記1に記載の方法。
(付記23)
それぞれの解像度のセットに対応する深度のセットを決定することと、
モデルを、前記それぞれの解像度のセットに対応する前記深度のセットに曲線フィッティングすることと、を更に含み、
前記画像の前記それぞれの対象とする領域を処理することが前記モデルに少なくとも一部基づいている、付記1に記載の方法。
(付記24)
付記1〜23に記載の方法の任意の組み合わせを含む、方法。
(付記25)
画像を記憶するように構成されたメモリと、
独立的に処理するために、対象とする平面に対して前記画像の複数の対象とする領域を決定することと、
前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、
を行うように構成された1以上のプロセッサと、を備える、デバイス。
(付記26)
前記1以上のプロセッサが、付記2〜24に記載の方法の任意の組み合わせを実施するように更に構成される、付記25に記載のデバイス。
(付記27)
前記画像をキャプチャするように構成された少なくとも1つのカメラを更に備える、付記25に記載のデバイス。
(付記28)
付記1〜24の方法の任意の組み合わせを実施するための手段を備えるデバイス。
(付記29)
実行されたときに、1以上のプロセッサに、付記1〜24の任意の組み合わせを実施させる命令を記憶する、非一時的コンピュータ可読媒体。

Claims (10)

  1. コンピューティングデバイスによって、独立的に処理するために、対象とする平面に対して画像の複数の対象とする領域を決定することと、
    前記コンピューティングデバイスによって、前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
    前記コンピューティングデバイスによって、前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、
    を含む、方法
  2. 前記複数の対象とする領域を決定することに先立って、前記画像の1以上の部分について、前記画像の1以上の部分内で物体から前記対象とする平面までのそれぞれの距離を含む距離マップを決定することであって、
    前記複数の対象とする領域を決定することが、前記距離マップの前記1以上の部分から前記複数の対象とする領域を決定することを含み、
    前記それぞれの対象とする領域内で前記物体から前記対象とする平面までの前記距離を決定することが、前記画像の前記1以上の部分について前記距離マップの前記それぞれの距離に基づいて前記距離を決定することを含む、決定すること、
    を更に含む、請求項1に記載の方法。
  3. 前記距離マップを決定することが、前記1以上の部分を決定するためにセグメント化アルゴリズムを前記画像の一部の少なくとも1つに適用することを含む、請求項に記載の方法。
  4. 前記距離マップを決定することが、前記1以上の部分を前記画像のブロックでサイズ決めされたエリアとして決定することを含む、請求項に記載の方法。
  5. 前記距離マップを決定することが、前記1以上の部分のそれぞれの部分について、前記それぞれの部分によって定義された前記画像のエリアについての前記対象とする平面までの平均距離を決定することを含む、請求項に記載の方法。
  6. 前記距離マップを決定することが、
    前記画像の複数のエリアについて距離を決定することと、
    前記画像の前記複数のエリアのうちの少なくとも2つのエリアをマージして、前記1以上の部分の第1の部分を形成することと、
    前記第1の部分についての代表的な距離を決定することと、を含む、請求項に記載の方法。
  7. 前記代表的な距離を決定することが、前記少なくとも2つのエリアに平滑化係数を適用することを含む、請求項に記載の方法。
  8. 前記距離マップを決定することに先立って、前記物体の第1の遠近と前記物体の第2の遠近との間の視差を表現する視差マップを決定することであって、
    前記距離マップを決定することが、前記第1の遠近と前記第2の遠近との間の前記視差に基づいて前記距離マップを決定することを含む、決定すること
    を更に含む、請求項1に記載の方法。
  9. 前記視差を決定することが、ピクセル空間において前記視差を決定することを含む、請求項に記載の方法。
  10. 前記視差マップを決定することが、
    前記第1の遠近からの前記1以上のエリアと前記第2の遠近からの前記1以上の部分の類似性に基づいて視差を決定する前記画像の1以上のエリアを特定することと、
    前記1以上のエリアについてそれぞれの視差を決定することと、
    含む、請求項に記載の方法
JP2019507170A 2016-08-12 2017-08-11 複数の対象とする領域を独立的に処理する方法 Active JP7269874B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662374572P 2016-08-12 2016-08-12
US62/374,572 2016-08-12
PCT/US2017/046529 WO2018031900A1 (en) 2016-08-12 2017-08-11 Independently processing plurality of regions of interest

Publications (3)

Publication Number Publication Date
JP2019530059A JP2019530059A (ja) 2019-10-17
JP2019530059A5 true JP2019530059A5 (ja) 2020-09-17
JP7269874B2 JP7269874B2 (ja) 2023-05-09

Family

ID=59684100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019507170A Active JP7269874B2 (ja) 2016-08-12 2017-08-11 複数の対象とする領域を独立的に処理する方法

Country Status (5)

Country Link
US (1) US11023762B2 (ja)
EP (1) EP3497618B1 (ja)
JP (1) JP7269874B2 (ja)
CN (1) CN109716348B (ja)
WO (1) WO2018031900A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT521935A1 (de) * 2018-12-05 2020-06-15 Ait Austrian Inst Tech Gmbh Verfahren zur Erfassung von Fingerabdrücken
US11010581B2 (en) * 2019-06-04 2021-05-18 Novatek Microelectronics Corp. Fingerprint sensing apparatus and method having three-dimensional sensing mechanism
US11017198B2 (en) * 2019-07-01 2021-05-25 Gemalto Cogent Inc Slap segmentation of contactless fingerprint images
US20220284610A1 (en) * 2019-07-17 2022-09-08 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
CN110969666B (zh) * 2019-11-15 2023-08-18 北京中科慧眼科技有限公司 双目相机深度标定方法、装置、系统和存储介质
US11354788B1 (en) * 2020-12-07 2022-06-07 Advanced Micro Devices, Inc. Overlapped curve mapping for histogram-based local tone and local contrast
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050111705A1 (en) * 2003-08-26 2005-05-26 Roman Waupotitsch Passive stereo sensing for 3D facial shape biometrics
WO2006016359A2 (en) 2004-08-09 2006-02-16 Classifeye Ltd. Non-contact optical means and method for 3d fingerprint recognition
KR101638919B1 (ko) * 2010-09-08 2016-07-12 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어방법
EP2660773A4 (en) * 2010-12-28 2017-04-05 Fujitsu Limited Biometric authentication device, biometric authentication method, and biometric authentication program
JP2012257022A (ja) * 2011-06-08 2012-12-27 Sony Corp 画像処理装置および方法、並びにプログラム
CN102521795B (zh) 2011-12-15 2014-04-23 中国科学院自动化研究所 基于全局脊线距离的交叉匹配指纹图像缩放方法
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US10178368B2 (en) * 2012-10-23 2019-01-08 Intuitive Surgical Operations, Inc. Stereo imaging system with automatic disparity adjustment for displaying close range objects
US9948852B2 (en) * 2013-03-15 2018-04-17 Intuitive Surgical Operations, Inc. Intelligent manual adjustment of an image control element
JP6201379B2 (ja) * 2013-04-02 2017-09-27 富士通株式会社 位置算出システム、位置算出プログラム、および、位置算出方法
US20150186708A1 (en) 2013-12-31 2015-07-02 Sagi Katz Biometric identification system
US10264998B2 (en) * 2014-11-28 2019-04-23 Hitachi, Ltd. Blood vessel imaging apparatus and personal authentication system
US9547907B2 (en) * 2014-12-15 2017-01-17 Intel Corporation Image segmentation using color and depth information
US9734381B2 (en) * 2014-12-17 2017-08-15 Northrop Grumman Systems Corporation System and method for extracting two-dimensional fingerprints from high resolution three-dimensional surface data obtained from contactless, stand-off sensors
WO2017044343A1 (en) 2015-09-09 2017-03-16 3M Innovative Properties Company Non-contact friction ridge capture device
JP6523925B2 (ja) * 2015-11-10 2019-06-05 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
JP2017220027A (ja) 2016-06-07 2017-12-14 富士通株式会社 電子機器、プロセッサ制御方法およびプロセッサ制御プログラム
WO2018165148A1 (en) 2017-03-06 2018-09-13 3M Innovative Properties Company Foreground object detection

Similar Documents

Publication Publication Date Title
JP2019530059A5 (ja)
KR102103252B1 (ko) 이미지 융합 방법 및 장치, 및 단말 디바이스
JP2016533686A5 (ja)
RU2017130021A (ru) Оценка расстояния до объекта с использованием данных из одиночной камеры
JP2017528731A5 (ja)
CN107507277B (zh) 三维点云重构方法和装置、服务器及可读存储介质
JP2016536837A5 (ja)
JP7078139B2 (ja) ビデオ安定化方法及び装置、並びに非一時的コンピュータ可読媒体
JP2015534165A5 (ja)
JP2017520050A5 (ja)
JP2017045283A5 (ja)
JP2013239119A5 (ja)
JP2016526742A5 (ja)
JP2015090298A5 (ja)
US20170032503A1 (en) System and method for images distortion correction
JP2013254480A5 (ja)
JP2017021759A (ja) 画像処理装置、画像処理方法及びプログラム
JP2015106290A5 (ja)
JP2019040229A5 (ja)
JP2018036898A5 (ja) 画像処理装置及び画像処理方法及びプログラム
JP2017229067A5 (ja)
JP2016163169A5 (ja)
JP6359985B2 (ja) デプス推定モデル生成装置及びデプス推定装置
JP2016126673A5 (ja) 情報処理装置及び方法及びプログラム及び記憶媒体、並びに、ビデオカメラ
US9286664B2 (en) System and method for blind image deconvolution