JP2019530059A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2019530059A5 JP2019530059A5 JP2019507170A JP2019507170A JP2019530059A5 JP 2019530059 A5 JP2019530059 A5 JP 2019530059A5 JP 2019507170 A JP2019507170 A JP 2019507170A JP 2019507170 A JP2019507170 A JP 2019507170A JP 2019530059 A5 JP2019530059 A5 JP 2019530059A5
- Authority
- JP
- Japan
- Prior art keywords
- determining
- areas
- image
- distance
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Description
様々な実施例を説明してきた。これらの及び他の実施例は、以下の特許請求の範囲内である。
なお、以上の各実施例に加えて以下の態様について付記する。
(付記1)
コンピューティングデバイスによって、独立的に処理するために、対象とする平面に対して画像の複数の対象とする領域を決定することと、
前記コンピューティングデバイスによって、前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
前記コンピューティングデバイスによって、前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、を含む、方法。
(付記2)
前記それぞれの対象とする領域を処理することが、前記それぞれの対象とする領域のうちの少なくとも1つを再スケーリングすることを含む、付記1に記載の方法。
(付記3)
前記それぞれの対象とする領域のうちの前記少なくとも1つを再スケーリングすることが、前記それぞれの対象とする領域のうちの前記少なくとも1つを所定の解像度にダウンスケールすることを含む、付記2に記載の方法。
(付記4)
前記それぞれの対象とする領域のうちの前記少なくとも1つを前記所定の解像度にダウンスケールすることが、前記それぞれの対象とする領域のうちの前記少なくとも1つをインチ当たり500ピクセル又はインチ当たり1000ピクセルのうちの1つにダウンスケールすることを含む、付記3に記載の方法。
(付記5)
前記それぞれの対象とする領域を処理することが、前記それぞれの対象とする領域のうちの少なくとも1つについて遠近補正を実施することを含む、付記1に記載の方法。
(付記6)
前記複数の対象とする領域を決定することに先立って、前記画像の1以上の部分について、前記画像の1以上の部分内で物体から前記対象とする平面までのそれぞれの距離を含む距離マップを決定することであって、
前記複数の対象とする領域を決定することが、前記距離マップの前記1以上の部分から前記複数の対象とする領域を決定することを含み、
前記それぞれの対象とする領域内で前記物体から前記対象とする平面までの前記距離を決定することが、前記画像の前記1以上の部分について前記距離マップの前記それぞれの距離に基づいて前記距離を決定することを含む、決定すること、を更に含む、付記1に記載の方法。
(付記7)
前記距離マップを決定することが、前記1以上の部分を決定するためにセグメント化アルゴリズムを前記画像の一部の少なくとも1つに適用することを含む、付記6に記載の方法。
(付記8)
前記距離マップを決定することが、前記1以上の部分を前記画像のブロックでサイズ決めされたエリアとして決定することを含む、付記6に記載の方法。
(付記9)
前記距離マップを決定することが、前記1以上の部分のそれぞれの部分について、前記それぞれの部分によって定義された前記画像のエリアについての前記対象とする平面までの平均距離を決定することを含む、付記6に記載の方法。
(付記10)
前記距離マップを決定することが、
前記画像の複数のエリアについて距離を決定することと、
前記画像の前記複数のエリアのうちの少なくとも2つのエリアをマージして、前記1以上の部分の第1の部分を形成することと、
前記第1の部分についての代表的な距離を決定することと、を含む、付記6に記載の方法。
(付記11)
前記代表的な距離を決定することが、前記少なくとも2つのエリアに平滑化係数を適用することを含む、付記10に記載の方法。
(付記12)
前記距離マップを決定することに先立って、前記物体の第1の遠近と前記物体の第2の遠近との間の視差を表現する視差マップを決定することであって、
前記距離マップを決定することが、前記第1の遠近と前記第2の遠近との間の前記視差に基づいて前記距離マップを決定することを含む、決定すること、を更に含む、付記1に記載の方法。
(付記13)
前記視差を決定することが、ピクセル空間において前記視差を決定することを含む、付記12に記載の方法。
(付記14)
前記視差マップを決定することが、
前記第1の遠近からの前記1以上のエリアと前記第2の遠近からの前記1以上の部分の類似性に基づいて視差を決定する前記画像の1以上のエリアを特定することと、
前記1以上のエリアについてそれぞれの視差を決定することと、含む、付記12に記載の方法。
(付記15)
前記視差に基づいて前記距離マップを決定することが、
前記視差マップの前記1以上のエリアから距離を決定する前記画像の1以上の部分を決定することと、
前記画像の前記1以上の部分について、前記視差に基づいて前記対象とする平面までのそれぞれの距離を決定することと、を含む、付記14に記載の方法。
(付記16)
前記視差マップについて前記画像の前記1以上のエリアを特定することが、前記画像のピクセルのブロックを特定することを含む、付記14に記載の方法。
(付記17)
前記視差に基づいて前記距離マップを決定することが、式z=bf/x(ここで、zは距離であり、bは前記第1の遠近から前記画像をキャプチャする第1のカメラと前記第2の遠近から前記画像をキャプチャする第2のカメラの間の離間距離であり、fは前記第1のカメラと前記第2のカメラの焦点距離であり、xは前記視差である)に基づいて、前記距離マップを決定することを含む、付記12に記載の方法。
(付記18)
第1のカメラによって前記第1の遠近をキャプチャすることと、第2のカメラによって前記第2の遠近をキャプチャすることを更に含む、付記12に記載の方法。
(付記19)
前記画像の複数の対象とする領域を決定することが、前記画像において少なくとも1つの指紋内の前記複数の対象とする領域を決定することを含む、付記1に記載の方法。
(付記20)
前記画像の複数の対象とする領域を決定することが、前記画像において掌紋内の前記複数の対象とする領域を決定することを含む、付記1に記載の方法。
(付記21)
前記対象とする平面が、前記画像をキャプチャするカメラによって定義される画像平面を含む、付記1に記載の方法。
(付記22)
物体と画像キャプチャデバイスとの間のそれぞれの深度のセットに対応する視差のセットを決定することと、
モデルを前記それぞれの深度のセットに対応する前記視差のセットに曲線フィッティングすることと、を更に含み、
前記画像の前記それぞれの対象とする領域を処理することが前記モデルに少なくとも一部基づいている、付記1に記載の方法。
(付記23)
それぞれの解像度のセットに対応する深度のセットを決定することと、
モデルを、前記それぞれの解像度のセットに対応する前記深度のセットに曲線フィッティングすることと、を更に含み、
前記画像の前記それぞれの対象とする領域を処理することが前記モデルに少なくとも一部基づいている、付記1に記載の方法。
(付記24)
付記1〜23に記載の方法の任意の組み合わせを含む、方法。
(付記25)
画像を記憶するように構成されたメモリと、
独立的に処理するために、対象とする平面に対して前記画像の複数の対象とする領域を決定することと、
前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、
を行うように構成された1以上のプロセッサと、を備える、デバイス。
(付記26)
前記1以上のプロセッサが、付記2〜24に記載の方法の任意の組み合わせを実施するように更に構成される、付記25に記載のデバイス。
(付記27)
前記画像をキャプチャするように構成された少なくとも1つのカメラを更に備える、付記25に記載のデバイス。
(付記28)
付記1〜24の方法の任意の組み合わせを実施するための手段を備えるデバイス。
(付記29)
実行されたときに、1以上のプロセッサに、付記1〜24の任意の組み合わせを実施させる命令を記憶する、非一時的コンピュータ可読媒体。
なお、以上の各実施例に加えて以下の態様について付記する。
(付記1)
コンピューティングデバイスによって、独立的に処理するために、対象とする平面に対して画像の複数の対象とする領域を決定することと、
前記コンピューティングデバイスによって、前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
前記コンピューティングデバイスによって、前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、を含む、方法。
(付記2)
前記それぞれの対象とする領域を処理することが、前記それぞれの対象とする領域のうちの少なくとも1つを再スケーリングすることを含む、付記1に記載の方法。
(付記3)
前記それぞれの対象とする領域のうちの前記少なくとも1つを再スケーリングすることが、前記それぞれの対象とする領域のうちの前記少なくとも1つを所定の解像度にダウンスケールすることを含む、付記2に記載の方法。
(付記4)
前記それぞれの対象とする領域のうちの前記少なくとも1つを前記所定の解像度にダウンスケールすることが、前記それぞれの対象とする領域のうちの前記少なくとも1つをインチ当たり500ピクセル又はインチ当たり1000ピクセルのうちの1つにダウンスケールすることを含む、付記3に記載の方法。
(付記5)
前記それぞれの対象とする領域を処理することが、前記それぞれの対象とする領域のうちの少なくとも1つについて遠近補正を実施することを含む、付記1に記載の方法。
(付記6)
前記複数の対象とする領域を決定することに先立って、前記画像の1以上の部分について、前記画像の1以上の部分内で物体から前記対象とする平面までのそれぞれの距離を含む距離マップを決定することであって、
前記複数の対象とする領域を決定することが、前記距離マップの前記1以上の部分から前記複数の対象とする領域を決定することを含み、
前記それぞれの対象とする領域内で前記物体から前記対象とする平面までの前記距離を決定することが、前記画像の前記1以上の部分について前記距離マップの前記それぞれの距離に基づいて前記距離を決定することを含む、決定すること、を更に含む、付記1に記載の方法。
(付記7)
前記距離マップを決定することが、前記1以上の部分を決定するためにセグメント化アルゴリズムを前記画像の一部の少なくとも1つに適用することを含む、付記6に記載の方法。
(付記8)
前記距離マップを決定することが、前記1以上の部分を前記画像のブロックでサイズ決めされたエリアとして決定することを含む、付記6に記載の方法。
(付記9)
前記距離マップを決定することが、前記1以上の部分のそれぞれの部分について、前記それぞれの部分によって定義された前記画像のエリアについての前記対象とする平面までの平均距離を決定することを含む、付記6に記載の方法。
(付記10)
前記距離マップを決定することが、
前記画像の複数のエリアについて距離を決定することと、
前記画像の前記複数のエリアのうちの少なくとも2つのエリアをマージして、前記1以上の部分の第1の部分を形成することと、
前記第1の部分についての代表的な距離を決定することと、を含む、付記6に記載の方法。
(付記11)
前記代表的な距離を決定することが、前記少なくとも2つのエリアに平滑化係数を適用することを含む、付記10に記載の方法。
(付記12)
前記距離マップを決定することに先立って、前記物体の第1の遠近と前記物体の第2の遠近との間の視差を表現する視差マップを決定することであって、
前記距離マップを決定することが、前記第1の遠近と前記第2の遠近との間の前記視差に基づいて前記距離マップを決定することを含む、決定すること、を更に含む、付記1に記載の方法。
(付記13)
前記視差を決定することが、ピクセル空間において前記視差を決定することを含む、付記12に記載の方法。
(付記14)
前記視差マップを決定することが、
前記第1の遠近からの前記1以上のエリアと前記第2の遠近からの前記1以上の部分の類似性に基づいて視差を決定する前記画像の1以上のエリアを特定することと、
前記1以上のエリアについてそれぞれの視差を決定することと、含む、付記12に記載の方法。
(付記15)
前記視差に基づいて前記距離マップを決定することが、
前記視差マップの前記1以上のエリアから距離を決定する前記画像の1以上の部分を決定することと、
前記画像の前記1以上の部分について、前記視差に基づいて前記対象とする平面までのそれぞれの距離を決定することと、を含む、付記14に記載の方法。
(付記16)
前記視差マップについて前記画像の前記1以上のエリアを特定することが、前記画像のピクセルのブロックを特定することを含む、付記14に記載の方法。
(付記17)
前記視差に基づいて前記距離マップを決定することが、式z=bf/x(ここで、zは距離であり、bは前記第1の遠近から前記画像をキャプチャする第1のカメラと前記第2の遠近から前記画像をキャプチャする第2のカメラの間の離間距離であり、fは前記第1のカメラと前記第2のカメラの焦点距離であり、xは前記視差である)に基づいて、前記距離マップを決定することを含む、付記12に記載の方法。
(付記18)
第1のカメラによって前記第1の遠近をキャプチャすることと、第2のカメラによって前記第2の遠近をキャプチャすることを更に含む、付記12に記載の方法。
(付記19)
前記画像の複数の対象とする領域を決定することが、前記画像において少なくとも1つの指紋内の前記複数の対象とする領域を決定することを含む、付記1に記載の方法。
(付記20)
前記画像の複数の対象とする領域を決定することが、前記画像において掌紋内の前記複数の対象とする領域を決定することを含む、付記1に記載の方法。
(付記21)
前記対象とする平面が、前記画像をキャプチャするカメラによって定義される画像平面を含む、付記1に記載の方法。
(付記22)
物体と画像キャプチャデバイスとの間のそれぞれの深度のセットに対応する視差のセットを決定することと、
モデルを前記それぞれの深度のセットに対応する前記視差のセットに曲線フィッティングすることと、を更に含み、
前記画像の前記それぞれの対象とする領域を処理することが前記モデルに少なくとも一部基づいている、付記1に記載の方法。
(付記23)
それぞれの解像度のセットに対応する深度のセットを決定することと、
モデルを、前記それぞれの解像度のセットに対応する前記深度のセットに曲線フィッティングすることと、を更に含み、
前記画像の前記それぞれの対象とする領域を処理することが前記モデルに少なくとも一部基づいている、付記1に記載の方法。
(付記24)
付記1〜23に記載の方法の任意の組み合わせを含む、方法。
(付記25)
画像を記憶するように構成されたメモリと、
独立的に処理するために、対象とする平面に対して前記画像の複数の対象とする領域を決定することと、
前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、
を行うように構成された1以上のプロセッサと、を備える、デバイス。
(付記26)
前記1以上のプロセッサが、付記2〜24に記載の方法の任意の組み合わせを実施するように更に構成される、付記25に記載のデバイス。
(付記27)
前記画像をキャプチャするように構成された少なくとも1つのカメラを更に備える、付記25に記載のデバイス。
(付記28)
付記1〜24の方法の任意の組み合わせを実施するための手段を備えるデバイス。
(付記29)
実行されたときに、1以上のプロセッサに、付記1〜24の任意の組み合わせを実施させる命令を記憶する、非一時的コンピュータ可読媒体。
Claims (10)
- コンピューティングデバイスによって、独立的に処理するために、対象とする平面に対して画像の複数の対象とする領域を決定することと、
前記コンピューティングデバイスによって、前記複数の対象とする領域のそれぞれの対象とする領域について、前記それぞれの対象とする領域内で物体から前記対象とする平面までの距離を決定することと、
前記コンピューティングデバイスによって、前記物体から前記対象とする平面までの前記決定された距離に基づいて、前記それぞれの対象とする領域について、前記画像の前記それぞれの対象とする領域を独立的に処理することと、
を含む、方法。 - 前記複数の対象とする領域を決定することに先立って、前記画像の1以上の部分について、前記画像の1以上の部分内で物体から前記対象とする平面までのそれぞれの距離を含む距離マップを決定することであって、
前記複数の対象とする領域を決定することが、前記距離マップの前記1以上の部分から前記複数の対象とする領域を決定することを含み、
前記それぞれの対象とする領域内で前記物体から前記対象とする平面までの前記距離を決定することが、前記画像の前記1以上の部分について前記距離マップの前記それぞれの距離に基づいて前記距離を決定することを含む、決定すること、
を更に含む、請求項1に記載の方法。 - 前記距離マップを決定することが、前記1以上の部分を決定するためにセグメント化アルゴリズムを前記画像の一部の少なくとも1つに適用することを含む、請求項2に記載の方法。
- 前記距離マップを決定することが、前記1以上の部分を前記画像のブロックでサイズ決めされたエリアとして決定することを含む、請求項2に記載の方法。
- 前記距離マップを決定することが、前記1以上の部分のそれぞれの部分について、前記それぞれの部分によって定義された前記画像のエリアについての前記対象とする平面までの平均距離を決定することを含む、請求項2に記載の方法。
- 前記距離マップを決定することが、
前記画像の複数のエリアについて距離を決定することと、
前記画像の前記複数のエリアのうちの少なくとも2つのエリアをマージして、前記1以上の部分の第1の部分を形成することと、
前記第1の部分についての代表的な距離を決定することと、を含む、請求項2に記載の方法。 - 前記代表的な距離を決定することが、前記少なくとも2つのエリアに平滑化係数を適用することを含む、請求項6に記載の方法。
- 前記距離マップを決定することに先立って、前記物体の第1の遠近と前記物体の第2の遠近との間の視差を表現する視差マップを決定することであって、
前記距離マップを決定することが、前記第1の遠近と前記第2の遠近との間の前記視差に基づいて前記距離マップを決定することを含む、決定すること
を更に含む、請求項1に記載の方法。 - 前記視差を決定することが、ピクセル空間において前記視差を決定することを含む、請求項8に記載の方法。
- 前記視差マップを決定することが、
前記第1の遠近からの前記1以上のエリアと前記第2の遠近からの前記1以上の部分の類似性に基づいて視差を決定する前記画像の1以上のエリアを特定することと、
前記1以上のエリアについてそれぞれの視差を決定することと、
含む、請求項8に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662374572P | 2016-08-12 | 2016-08-12 | |
US62/374,572 | 2016-08-12 | ||
PCT/US2017/046529 WO2018031900A1 (en) | 2016-08-12 | 2017-08-11 | Independently processing plurality of regions of interest |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019530059A JP2019530059A (ja) | 2019-10-17 |
JP2019530059A5 true JP2019530059A5 (ja) | 2020-09-17 |
JP7269874B2 JP7269874B2 (ja) | 2023-05-09 |
Family
ID=59684100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019507170A Active JP7269874B2 (ja) | 2016-08-12 | 2017-08-11 | 複数の対象とする領域を独立的に処理する方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11023762B2 (ja) |
EP (1) | EP3497618B1 (ja) |
JP (1) | JP7269874B2 (ja) |
CN (1) | CN109716348B (ja) |
WO (1) | WO2018031900A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT521935A1 (de) * | 2018-12-05 | 2020-06-15 | Ait Austrian Inst Tech Gmbh | Verfahren zur Erfassung von Fingerabdrücken |
US11010581B2 (en) * | 2019-06-04 | 2021-05-18 | Novatek Microelectronics Corp. | Fingerprint sensing apparatus and method having three-dimensional sensing mechanism |
US11017198B2 (en) * | 2019-07-01 | 2021-05-25 | Gemalto Cogent Inc | Slap segmentation of contactless fingerprint images |
US20220284610A1 (en) * | 2019-07-17 | 2022-09-08 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
US11310451B1 (en) | 2019-09-05 | 2022-04-19 | Waymo Llc | Smart sensor with region of interest capabilities |
CN110969666B (zh) * | 2019-11-15 | 2023-08-18 | 北京中科慧眼科技有限公司 | 双目相机深度标定方法、装置、系统和存储介质 |
US11354788B1 (en) * | 2020-12-07 | 2022-06-07 | Advanced Micro Devices, Inc. | Overlapped curve mapping for histogram-based local tone and local contrast |
US11756283B2 (en) | 2020-12-16 | 2023-09-12 | Waymo Llc | Smart sensor implementations of region of interest operating modes |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050111705A1 (en) * | 2003-08-26 | 2005-05-26 | Roman Waupotitsch | Passive stereo sensing for 3D facial shape biometrics |
WO2006016359A2 (en) | 2004-08-09 | 2006-02-16 | Classifeye Ltd. | Non-contact optical means and method for 3d fingerprint recognition |
KR101638919B1 (ko) * | 2010-09-08 | 2016-07-12 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어방법 |
EP2660773A4 (en) * | 2010-12-28 | 2017-04-05 | Fujitsu Limited | Biometric authentication device, biometric authentication method, and biometric authentication program |
JP2012257022A (ja) * | 2011-06-08 | 2012-12-27 | Sony Corp | 画像処理装置および方法、並びにプログラム |
CN102521795B (zh) | 2011-12-15 | 2014-04-23 | 中国科学院自动化研究所 | 基于全局脊线距离的交叉匹配指纹图像缩放方法 |
DE102012209316A1 (de) * | 2012-06-01 | 2013-12-05 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems |
US10178368B2 (en) * | 2012-10-23 | 2019-01-08 | Intuitive Surgical Operations, Inc. | Stereo imaging system with automatic disparity adjustment for displaying close range objects |
US9948852B2 (en) * | 2013-03-15 | 2018-04-17 | Intuitive Surgical Operations, Inc. | Intelligent manual adjustment of an image control element |
JP6201379B2 (ja) * | 2013-04-02 | 2017-09-27 | 富士通株式会社 | 位置算出システム、位置算出プログラム、および、位置算出方法 |
US20150186708A1 (en) | 2013-12-31 | 2015-07-02 | Sagi Katz | Biometric identification system |
US10264998B2 (en) * | 2014-11-28 | 2019-04-23 | Hitachi, Ltd. | Blood vessel imaging apparatus and personal authentication system |
US9547907B2 (en) * | 2014-12-15 | 2017-01-17 | Intel Corporation | Image segmentation using color and depth information |
US9734381B2 (en) * | 2014-12-17 | 2017-08-15 | Northrop Grumman Systems Corporation | System and method for extracting two-dimensional fingerprints from high resolution three-dimensional surface data obtained from contactless, stand-off sensors |
WO2017044343A1 (en) | 2015-09-09 | 2017-03-16 | 3M Innovative Properties Company | Non-contact friction ridge capture device |
JP6523925B2 (ja) * | 2015-11-10 | 2019-06-05 | 株式会社日立製作所 | 生体情報を用いた認証装置及び認証方法 |
JP2017220027A (ja) | 2016-06-07 | 2017-12-14 | 富士通株式会社 | 電子機器、プロセッサ制御方法およびプロセッサ制御プログラム |
WO2018165148A1 (en) | 2017-03-06 | 2018-09-13 | 3M Innovative Properties Company | Foreground object detection |
-
2017
- 2017-08-11 US US16/323,561 patent/US11023762B2/en active Active
- 2017-08-11 WO PCT/US2017/046529 patent/WO2018031900A1/en unknown
- 2017-08-11 EP EP17755392.2A patent/EP3497618B1/en active Active
- 2017-08-11 CN CN201780057372.XA patent/CN109716348B/zh active Active
- 2017-08-11 JP JP2019507170A patent/JP7269874B2/ja active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019530059A5 (ja) | ||
KR102103252B1 (ko) | 이미지 융합 방법 및 장치, 및 단말 디바이스 | |
JP2016533686A5 (ja) | ||
RU2017130021A (ru) | Оценка расстояния до объекта с использованием данных из одиночной камеры | |
JP2017528731A5 (ja) | ||
CN107507277B (zh) | 三维点云重构方法和装置、服务器及可读存储介质 | |
JP2016536837A5 (ja) | ||
JP7078139B2 (ja) | ビデオ安定化方法及び装置、並びに非一時的コンピュータ可読媒体 | |
JP2015534165A5 (ja) | ||
JP2017520050A5 (ja) | ||
JP2017045283A5 (ja) | ||
JP2013239119A5 (ja) | ||
JP2016526742A5 (ja) | ||
JP2015090298A5 (ja) | ||
US20170032503A1 (en) | System and method for images distortion correction | |
JP2013254480A5 (ja) | ||
JP2017021759A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2015106290A5 (ja) | ||
JP2019040229A5 (ja) | ||
JP2018036898A5 (ja) | 画像処理装置及び画像処理方法及びプログラム | |
JP2017229067A5 (ja) | ||
JP2016163169A5 (ja) | ||
JP6359985B2 (ja) | デプス推定モデル生成装置及びデプス推定装置 | |
JP2016126673A5 (ja) | 情報処理装置及び方法及びプログラム及び記憶媒体、並びに、ビデオカメラ | |
US9286664B2 (en) | System and method for blind image deconvolution |