JP7447042B2 - 画像処理装置、方法及びプログラム - Google Patents
画像処理装置、方法及びプログラム Download PDFInfo
- Publication number
- JP7447042B2 JP7447042B2 JP2021043145A JP2021043145A JP7447042B2 JP 7447042 B2 JP7447042 B2 JP 7447042B2 JP 2021043145 A JP2021043145 A JP 2021043145A JP 2021043145 A JP2021043145 A JP 2021043145A JP 7447042 B2 JP7447042 B2 JP 7447042B2
- Authority
- JP
- Japan
- Prior art keywords
- blur
- image
- map
- statistical model
- uncertainty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 140
- 238000000034 method Methods 0.000 title claims description 130
- 238000013179 statistical model Methods 0.000 claims description 196
- 230000003287 optical effect Effects 0.000 claims description 37
- 230000004075 alteration Effects 0.000 claims description 34
- 238000003860 storage Methods 0.000 claims description 34
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 230000000873 masking effect Effects 0.000 claims description 8
- 238000007637 random forest analysis Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 description 85
- 230000008569 process Effects 0.000 description 64
- 230000007246 mechanism Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 230000008439 repair process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 239000000575 pesticide Substances 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/529—Depth or shape recovery from texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
(第1実施形態)
まず、第1実施形態について説明する。図1は、本実施形態に係る画像処理装置を含む画像処理システムの構成の一例を示す。図1に示す画像処理システム1は、画像を撮像し、当該撮像された画像を用いて当該画像中の被写体の立体構造を把握するような用途に用いられる。
以下、本実施形態において第1統計モデルによって画像からぼけ(を示すぼけ値)を推定する方式の一例について説明する。ここでは、第1~第3方式について説明する。
場合に生じるぼけのサイズをX軸上においてプラスの値で示している。つまり、図17においては、ぼけの色及びサイズを正負の値で示している。
次に、第2実施形態について説明する。なお、本実施形態においては、前述した第1実施形態と同様の部分についての説明を省略し、当該第1実施形態と異なる部分について主に説明する。
次に、第3実施形態について説明する。なお、本実施形態においては、前述した第1及び第2実施形態と同様の部分についての説明を省略し、当該第1及び第2実施形態と異なる部分について主に説明する。
次に、第4実施形態について説明する。なお、本実施形態においては、前述した第1実施形態と同様の部分についての説明を省略し、当該第1実施形態と異なる部分について主に説明する。
以下、例えば前述した第4実施形態のように被写体までの距離を取得(測定)することができる画像処理システム1が適用される応用例について説明する。
Claims (8)
- 第1光学系の収差の影響を受けた第1画像に生じる、当該第1画像中の被写体までの距離に応じて非線形に変化するぼけを学習することによって生成された第1統計モデルを格納する第1格納手段と、
予め用意されている疎なぼけマップ及び当該疎なぼけマップに対応する密なぼけマップを学習することによって生成される第2統計モデルを格納する第2格納手段と、
第2光学系の収差の影響を受けた第2画像を取得する第1取得手段と、
前記取得された第2画像を前記第1統計モデルに入力することによって当該第1統計モデルから出力される当該第2画像に生じるぼけを示すぼけ値及び当該ぼけ値に対する不確実性の度合いを示す不確実度を取得する第2取得手段と、
前記取得されたぼけ値及び不確実度に基づいて第1ぼけマップを生成する生成手段と、
前記第1ぼけマップに対してぼけ値を補間した第2ぼけマップを取得する補間手段と
を具備し、
前記第1統計モデルは、当該第1統計モデルに入力される第2画像を構成する少なくとも1つの画素を含む所定の領域毎にぼけ値及び不確実度を出力するように生成されており、
前記第1ぼけマップは、前記不確実度が閾値未満であるぼけ値を当該ぼけ値が出力された画素に割り当てた疎なぼけマップに相当し、
前記第2ぼけマップは、前記第1ぼけマップの前記閾値以上である不確実度が出力された画素にぼけ値を補間した密なぼけマップに相当し、
前記補間手段は、前記第1ぼけマップを前記第2統計モデルに入力することによって当該第2統計モデルから出力される第2ぼけマップを取得し、
前記第2統計モデルによって学習される疎なぼけマップは、当該第2統計モデルによって学習される密なぼけマップの一部の領域をマスクすることによって生成され、
前記第2統計モデルによって学習される密なぼけマップは、被写体までの距離を測定可能な距離測定装置によって測定された距離から変換されたぼけ値に基づいて生成される
画像処理装置。 - 前記第2ぼけマップにおいて各画素に割り当てられているぼけ値を前記第2画像に含まれる被写体までの距離に変換する変換手段を更に具備する請求項1記載の画像処理装置。
- 前記第2ぼけマップを表示する表示処理手段を更に具備する請求項1記載の画像処理装置。
- 第1光学系の収差の影響を受けた第1画像に生じる、当該第1画像中の被写体までの距離に応じて非線形に変化するぼけを学習することによって生成された第1統計モデルを格納する第1格納手段と、
第2光学系の収差の影響を受けた第2画像を取得する第1取得手段と、
前記取得された第2画像を前記第1統計モデルに入力することによって当該第1統計モデルから出力される当該第2画像に生じるぼけを示すぼけ値及び当該ぼけ値に対する不確実性の度合いを示す不確実度を取得する第2取得手段と、
前記取得されたぼけ値及び不確実度に基づいて第1ぼけマップを生成する生成手段と、
前記第1ぼけマップに対してぼけ値を補間した第2ぼけマップを取得する補間手段と、
前記第2ぼけマップを表示する表示処理手段と
を具備し、
前記取得された不確実度が閾値未満である第1領域及び前記不確実度が前記閾値以上である第2領域を抽出する抽出手段を更に具備し、
前記表示処理手段は、前記第2ぼけマップ上で前記第1及び第2領域を表示する
画像処理装置。 - ユーザによる操作に応じて前記閾値を変更する変更手段を更に具備し、
前記生成手段は、前記不確実度が前記変更された閾値未満であるぼけ値に基づいて第1ぼけマップを再度生成し、
前記抽出手段は、前記取得された不確実度が前記変更された閾値未満である第1領域及び前記不確実度が当該閾値以上である第2領域を再度抽出する
請求項4記載の画像処理装置。 - 前記第1統計モデルは、ニューラルネットワークまたはランダムフォレストである請求項1~5のいずれか一項に記載の画像処理装置。
- 第1光学系の収差の影響を受けた第1画像に生じる、当該第1画像中の被写体までの距離に応じて非線形に変化するぼけを学習することによって生成された第1統計モデルを格納する第1格納手段と、予め用意されている疎なぼけマップ及び当該疎なぼけマップに対応する密なぼけマップを学習することによって生成される第2統計モデルを格納する第2格納手段とを有する画像処理装置が実行する方法であって、
第2光学系の収差の影響を受けた第2画像を取得するステップと、
前記取得された第2画像を前記第1統計モデルに入力することによって当該第1統計モデルから出力される当該第2画像に生じるぼけを示すぼけ値及び当該ぼけ値に対する不確実性の度合いを示す不確実度を取得するステップと、
前記取得されたぼけ値及び不確実度に基づいて第1ぼけマップを生成するステップと、
前記第1ぼけマップに対してぼけ値を補間した第2ぼけマップを取得するステップと
を具備し、
前記第1統計モデルは、当該第1統計モデルに入力される第2画像を構成する少なくとも1つの画素を含む所定の領域毎にぼけ値及び不確実度を出力するように生成されており、
前記第1ぼけマップは、前記不確実度が閾値未満であるぼけ値を当該ぼけ値が出力された画素に割り当てた疎なぼけマップに相当し、
前記第2ぼけマップは、前記第1ぼけマップの前記閾値以上である不確実度が出力された画素にぼけ値を補間した密なぼけマップに相当し、
前記第2ぼけマップを取得するステップは、前記第1ぼけマップを前記第2統計モデルに入力することによって当該第2統計モデルから出力される第2ぼけマップを取得するステップを含み、
前記第2統計モデルによって学習される疎なぼけマップは、当該第2統計モデルによって学習される密なぼけマップの一部の領域をマスクすることによって生成され、
前記第2統計モデルによって学習される密なぼけマップは、被写体までの距離を測定可能な距離測定装置によって測定された距離から変換されたぼけ値に基づいて生成される
方法。 - 第1光学系の収差の影響を受けた第1画像に生じる、当該第1画像中の被写体までの距離に応じて非線形に変化するぼけを学習することによって生成された第1統計モデルを格納する第1格納手段と、予め用意されている疎なぼけマップ及び当該疎なぼけマップに対応する密なぼけマップを学習することによって生成される第2統計モデルを格納する第2格納手段とを有する画像処理装置のコンピュータによって実行されるプログラムであって、
前記コンピュータに、
第2光学系の収差の影響を受けた第2画像を取得するステップと、
前記取得された第2画像を前記第1統計モデルに入力することによって当該第1統計モデルから出力される当該第2画像に生じるぼけを示すぼけ値及び当該ぼけ値に対する不確実性の度合いを示す不確実度を取得するステップと、
前記取得されたぼけ値及び不確実度に基づいて第1ぼけマップを生成するステップと、
前記第1ぼけマップに対してぼけ値を補間した第2ぼけマップを取得するステップと
を実行させ、
前記第1統計モデルは、当該第1統計モデルに入力される第2画像を構成する少なくとも1つの画素を含む所定の領域毎にぼけ値及び不確実度を出力するように生成されており、
前記第1ぼけマップは、前記不確実度が閾値未満であるぼけ値を当該ぼけ値が出力された画素に割り当てた疎なぼけマップに相当し、
前記第2ぼけマップは、前記第1ぼけマップの前記閾値以上である不確実度が出力された画素にぼけ値を補間した密なぼけマップに相当し、
前記第2ぼけマップを取得するステップは、前記第1ぼけマップを前記第2統計モデルに入力することによって当該第2統計モデルから出力される第2ぼけマップを取得するステップを含み、
前記第2統計モデルによって学習される疎なぼけマップは、当該第2統計モデルによって学習される密なぼけマップの一部の領域をマスクすることによって生成され、
前記第2統計モデルによって学習される密なぼけマップは、被写体までの距離を測定可能な距離測定装置によって測定された距離から変換されたぼけ値に基づいて生成される
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021043145A JP7447042B2 (ja) | 2021-03-17 | 2021-03-17 | 画像処理装置、方法及びプログラム |
US17/447,273 US11868430B2 (en) | 2021-03-17 | 2021-09-09 | Image processing device, method, and storage medium |
CN202111190986.XA CN115115529A (zh) | 2021-03-17 | 2021-10-13 | 图像处理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021043145A JP7447042B2 (ja) | 2021-03-17 | 2021-03-17 | 画像処理装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022142891A JP2022142891A (ja) | 2022-10-03 |
JP7447042B2 true JP7447042B2 (ja) | 2024-03-11 |
Family
ID=83283643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021043145A Active JP7447042B2 (ja) | 2021-03-17 | 2021-03-17 | 画像処理装置、方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11868430B2 (ja) |
JP (1) | JP7447042B2 (ja) |
CN (1) | CN115115529A (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020148483A (ja) | 2019-03-11 | 2020-09-17 | 株式会社東芝 | 画像処理装置、測距装置、方法及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6320075B2 (ja) * | 2014-02-19 | 2018-05-09 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP6573354B2 (ja) * | 2014-11-28 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
GB2553782B (en) | 2016-09-12 | 2021-10-20 | Niantic Inc | Predicting depth from image data using a statistical model |
JP6846310B2 (ja) | 2017-08-18 | 2021-03-24 | 日本電信電話株式会社 | 距離測定装置、データ変換装置、距離測定方法、及びプログラム |
JP2019215489A (ja) * | 2018-06-14 | 2019-12-19 | オリンパス株式会社 | 撮像装置および焦点調節方法 |
JP6971934B2 (ja) | 2018-08-10 | 2021-11-24 | 株式会社東芝 | 画像処理装置 |
JP7074090B2 (ja) | 2019-01-30 | 2022-05-24 | 日本電信電話株式会社 | 深度超解像装置、深度超解像方法、及びプログラム |
US10776673B2 (en) | 2019-01-31 | 2020-09-15 | StradVision, Inc. | Learning method and learning device for sensor fusion to integrate information acquired by radar capable of distance estimation and information acquired by camera to thereby improve neural network for supporting autonomous driving, and testing method and testing device using the same |
US10977525B2 (en) | 2019-03-29 | 2021-04-13 | Fuji Xerox Co., Ltd. | Indoor localization using real-time context fusion of visual information from static and dynamic cameras |
-
2021
- 2021-03-17 JP JP2021043145A patent/JP7447042B2/ja active Active
- 2021-09-09 US US17/447,273 patent/US11868430B2/en active Active
- 2021-10-13 CN CN202111190986.XA patent/CN115115529A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020148483A (ja) | 2019-03-11 | 2020-09-17 | 株式会社東芝 | 画像処理装置、測距装置、方法及びプログラム |
Non-Patent Citations (2)
Title |
---|
Fangchang Ma; Sertac Karaman,Sparse-to-Dense: Depth Prediction from Sparse Depth Samples and a Single Image,2018 IEEE International Conference on Robotics and Automation (ICRA),2018年05月21日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8460184 |
今井 拓司,東芝が単眼カメラの収差からステレオ並み距離画像レンズの色収差などから深層学習で形状推定,NIKKEI Robotics,日本,2020年02月10日,第56号 |
Also Published As
Publication number | Publication date |
---|---|
US11868430B2 (en) | 2024-01-09 |
CN115115529A (zh) | 2022-09-27 |
JP2022142891A (ja) | 2022-10-03 |
US20220300757A1 (en) | 2022-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7051740B2 (ja) | 画像処理装置、測距装置、方法及びプログラム | |
US11748898B2 (en) | Methods and system for infrared tracking | |
US20210250490A1 (en) | Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar | |
JP6878219B2 (ja) | 画像処理装置および測距装置 | |
JP7123884B2 (ja) | 撮像装置、方法及びプログラム | |
US11100662B2 (en) | Image processing apparatus, ranging apparatus and processing apparatus | |
JP7170609B2 (ja) | 画像処理装置、測距装置、方法及びプログラム | |
WO2020150904A1 (en) | Neural network based obstacle detection for mobile platforms, and associated systems and methods | |
JP6971933B2 (ja) | 画像処理装置及び撮像装置 | |
JP7467368B2 (ja) | 画像処理装置、測距装置、方法及びプログラム | |
CN109885091B (zh) | 一种无人机自主飞行控制方法及系统 | |
JP7447042B2 (ja) | 画像処理装置、方法及びプログラム | |
US20230141542A1 (en) | Image processing device, method, and storage medium | |
US20230126635A1 (en) | Ranging device, image processing device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7447042 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |