JP7084485B2 - 画像処理方法及び装置、電子機器、並びに記憶媒体 - Google Patents
画像処理方法及び装置、電子機器、並びに記憶媒体 Download PDFInfo
- Publication number
- JP7084485B2 JP7084485B2 JP2020540785A JP2020540785A JP7084485B2 JP 7084485 B2 JP7084485 B2 JP 7084485B2 JP 2020540785 A JP2020540785 A JP 2020540785A JP 2020540785 A JP2020540785 A JP 2020540785A JP 7084485 B2 JP7084485 B2 JP 7084485B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target object
- input information
- relevance score
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims description 77
- 238000000605 extraction Methods 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 description 60
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010606 normalization Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 101100269850 Caenorhabditis elegans mask-1 gene Proteins 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
前記第1画像と前記第2予測結果とにより決定された第5入力情報、及び前記第1入力情報に基づいて、前記第1目標対象物と前記第2目標対象物との間の関連度を表す第3関連性スコアを得ることと、を更に含み、前記第1関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することは、前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することを含む。
前記関連性スコアの総和のうちの最大の関連性スコアの総和が前記総和スコア閾値以下である場合、前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物がマッチングしないと決定することを更に含む。
Claims (19)
- 第1画像と、前記第1画像における第1目標対象物の第1注意画像とを取得することであって、前記第1注意画像は、前記第1目標対象物の前記第1画像における位置を示すものであることと、
第2画像と、前記第2画像の第2マスク画像とを取得することであって、前記第2マスク画像において各画素の画素値が等しいことと、
前記第1画像と第1注意画像とにより決定された第1入力情報、及び前記第2画像と前記第2マスク画像とにより決定された第2入力情報に基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることと、を含み、
前記第1画像および前記第2画像は、同一シーンを異なる視角から取得されたものであり、
前記第1画像および前記第1注意画像を前記第1入力情報とするか、又は前記第1画像と前記第1注意画像を融合して前記第1入力情報を得、
前記第2画像および前記第2マスク画像を前記第2入力情報とするか、又は前記第2画像と前記第2マスク画像を融合して前記第2入力情報を得る
ことを特徴とする画像処理方法。 - 前記第2画像における第2目標対象物に対する検出結果に基づいて、前記第2画像の第2注意画像を取得することであって、前記第2注意画像は、前記第2目標対象物の前記第2画像における位置を示すものであることを更に含み、
前記第1予測結果が得られた後、
前記第2画像と前記第2注意画像とにより決定された第3入力情報、及び前記第2画像と前記第1予測結果とにより決定された第4入力情報に基づいて、前記第1目標対象物と前記第2目標対象物との間の関連度を表す第1関連性スコアを得ることと、
前記第1関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連
付け結果を決定することと、を更に含むことを特徴とする請求項1に記載の方法。 - 前記第1入力情報及び前記第3入力情報に基づいて、前記第1目標対象物と前記第2目標対象物との間の関連度を表す第2関連性スコアを得ることを更に含み、
前記第1関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することは、
前記第1関連性スコア及び前記第2関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することを含むことを特徴とする請求項2に記載の方法。 - 前記第2目標対象物の前記第1画像における位置を示す第2予測結果を取得することと、
前記第1画像と前記第2予測結果とにより決定された第5入力情報、及び前記第1入力情報に基づいて、前記第1目標対象物と前記第2目標対象物との間の関連度を表す第3関連性スコアを得ることと、を更に含み、
前記第1関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することは、
前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することを含むことを特徴とする請求項2又は3に記載の方法。 - 前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することは、
前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との最終的関連性スコアを決定することと、
前記最終的関連性スコアがスコア閾値よりも大きい場合、前記関連付け結果として前記第1目標対象物と前記第2目標対象物との間に潜在的な関連性を有すると決定することと、
前記最終的関連性スコアが前記スコア閾値以下である場合、前記関連付け結果として前記第1目標対象物と前記第2目標対象物との間に関連性がないと決定することと、を含むことを特徴とする請求項4に記載の方法。 - 前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することは、
前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1画像の第1目標対象物と前記第2目標対象物との最終的関連性スコアを決定することと、
前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物との最終的関連性スコアに基づいて、前記各第1目標対象物と各第2目標対象物とのマッチングを行って、前記各第1目標対象物と各第2目標対象物との間の関連付け結果を得ることと、を含むことを特徴とする請求項4に記載の方法。 - 前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物との最終的関連性スコアに基づいて、前記各第1目標対象物と各第2目標対象物とのマッチングを行って、前記各第1目標対象物と各第2目標対象物との間の関連付け結果を得ることは、
前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物との最終的関連性スコアに基づいて、前記各第1目標対象物と前記各第2目標対象物との間の関連性スコアの総和を決定することと、
前記関連性スコアの総和が最大となり且つ予め設定された総和スコア閾値よりも大きい場合、前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物が一対一でマッチングしていると決定して、前記各第1目標対象物と各第2目標対象物との間の関連付け結果を得ることと、
前記関連性スコアの総和のうちの最大の関連性スコアの総和が前記総和スコア閾値以下である場合、前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物がマッチングしないと決定することと、を含むことを特徴とする請求項6に記載の方法。 - 第1入力情報及び第2入力情報に基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることは、
前記第1入力情報に対する特徴抽出を行って第1入力情報に対応する特徴マップを得ることと、
前記第2入力情報に対する特徴抽出を行って第2入力情報に対応する特徴マップを得ることと、
前記第1入力情報に対応する特徴マップ及び前記第2入力情報に対応する特徴マップに基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることと、を含むことを特徴とする請求項1~7のいずれか一項に記載の方法。 - 前記第1入力情報に対応する特徴マップ及び前記第2入力情報に対応する特徴マップに基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることは、
前記第1入力情報に対応する特徴マップと前記第2入力情報に対応する特徴マップとを特徴関連付けて、第1関連付け特徴マップを得ることと、
前記第1関連付け特徴マップに基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることと、を含むことを特徴とする請求項8に記載の方法。 - プロセッサと、
前記プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含む画像処理装置であって、
前記プロセッサは、前記メモリに記憶されているコマンドを呼び出して、
第1画像と、前記第1画像における第1目標対象物の第1注意画像とを、前記第1注意画像は、前記第1目標対象物の前記第1画像における位置を示すものとして、取得し、
第2画像と、前記第2画像の第2マスク画像とを、前記第2マスク画像において各画素の画素値が等しいものとして、取得し、
前記第1画像と第1注意画像とにより決定された第1入力情報、及び前記第2画像と前記第2マスク画像とにより決定された第2入力情報に基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得、
前記第1画像および前記第1注意画像を前記第1入力情報とするか、又は前記第1画像と前記第1注意画像を融合して前記第1入力情報を得、
前記第2画像および前記第2マスク画像を前記第2入力情報とするか、又は前記第2画像と前記第2マスク画像を融合して前記第2入力情報を得るように構成され、
前記第1画像および前記第2画像は、同一シーンを異なる視角から取得されたものであることを特徴とする画像処理装置。 - 前記プロセッサが、
前記第2画像における第2目標対象物に対する検出結果に基づいて、前記第2画像の第2注意画像を取得するものであって、前記第2注意画像は、前記第2目標対象物の前記第2画像における位置を示し、
前記第2画像と前記第2注意画像とにより決定された第3入力情報、及び前記第2画像と前記第1予測結果とにより決定された第4入力情報に基づいて、前記第1予測結果を得たのちに前記第1目標対象物と前記第2目標対象物との間の関連度を表す第1関連性スコアを得るものであって、
前記第1関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定するものである、ように更に構成されていることを特徴とする請求項10に記載の装置。 - 前記プロセッサが、
前記第1入力情報及び前記第3入力情報に基づいて、前記第1目標対象物と前記第2目
標対象物との間の関連度を表す第2関連性スコアを得るものであって、
前記第1関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することが、
前記第1関連性スコア及び前記第2関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することを含む、ように更に構成されていることを特徴とする請求項11に記載の装置。 - 前記プロセッサが、
前記第2目標対象物の前記第1画像における位置を示す第2予測結果を取得するものであって、
前記第1画像と前記第2予測結果とにより決定された第5入力情報、及び前記第1入力情報に基づいて、前記第1目標対象物と前記第2目標対象物との間の関連度を表す第3関連性スコアを得るものであって、
前記第1関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することが、
前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することを含む、ように更に構成されていることを特徴とする請求項11又は12に記載の装置。 - 前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することが、
前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との最終的関連性スコアを決定することと、
前記最終的関連性スコアがスコア閾値よりも大きい場合、前記関連付け結果として前記第1目標対象物と前記第2目標対象物との間に潜在的な関連性を有すると決定することと、
前記最終的関連性スコアが前記スコア閾値以下である場合、前記関連付け結果として前記第1目標対象物と前記第2目標対象物との間に関連性がないと決定すること、を含むことを特徴とする請求項13に記載の装置。 - 前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1目標対象物と前記第2目標対象物との関連付け結果を決定することが、
前記第1関連性スコア及び前記第3関連性スコアに基づいて、前記第1画像の第1目標対象物と前記第2目標対象物との最終的関連性スコアを決定することと、
前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物との最終的関連性スコアに基づいて、前記各第1目標対象物と各第2目標対象物とのマッチングを行って、前記各第1目標対象物と各第2目標対象物との間の関連付け結果を得ること、を含むことを特徴とする請求項13に記載の装置。 - 前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物との最終的関連性スコアに基づいて、前記各第1目標対象物と各第2目標対象物とのマッチングを行って、前記各第1目標対象物と各第2目標対象物との間の関連付け結果を得ることが、
前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物との最終的関連性スコアに基づいて、前記各第1目標対象物と前記各第2目標対象物との間の関連性スコアの総和を決定することと、
前記関連性スコアの総和が最大となり且つ予め設定された総和スコア閾値よりも大きい場合、前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物が一対一でマッチングしていると決定して、前記各第1目標対象物と各第2目標対象物との間の関連付け結果を得ることと、
前記関連性スコアの総和のうちの最大の関連性スコアの総和が前記総和スコア閾値以下である場合、前記第1画像における各第1目標対象物と前記第2画像における各第2目標対象物がマッチングしないと決定すること、を含むことを特徴とする請求項15に記載の装置。 - 前記第1入力情報及び前記第2入力情報に基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることが、
前記第1入力情報に対する特徴抽出を行って第1入力情報に対応する特徴マップを得ることと、
前記第2入力情報に対する特徴抽出を行って第2入力情報に対応する特徴マップを得ることと、
前記第1入力情報に対応する特徴マップ及び前記第2入力情報に対応する特徴マップに基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることと、を含むことを特徴とする請求項10~16のいずれか一項に記載の装置。 - 前記第1入力情報に対応する特徴マップ及び前記第2入力情報に対応する特徴マップに基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることが、
前記第1入力情報に対応する特徴マップと前記第2入力情報に対応する特徴マップとを特徴関連付けて、第1関連付け特徴マップを得ることと、
前記第1関連付け特徴マップに基づいて、前記第1目標対象物の前記第2画像における位置を示す第1予測結果を得ることと、を含むことを特徴とする請求項17に記載の装置。 - コンピュータプログラムコマンドが記憶されている非揮発性コンピュータ読取可能記憶媒体であって、前記記憶媒体に記憶されているコンピュータプログラムコマンドは、電子機器のプロセッサにロードされて実行されると、請求項1~9のいずれか一項に記載の方法を前記電子機器に実行させることを特徴とする非揮発性コンピュータ読取可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10201913744S | 2019-12-30 | ||
SG10201913744SA SG10201913744SA (en) | 2019-12-30 | 2019-12-30 | Image processing method and apparatus, electronic device, and storage medium |
PCT/IB2020/052537 WO2021136979A1 (en) | 2019-12-30 | 2020-03-19 | Image processing method and apparatus, electronic device, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509893A JP2022509893A (ja) | 2022-01-25 |
JP7084485B2 true JP7084485B2 (ja) | 2022-06-14 |
Family
ID=74101444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020540785A Active JP7084485B2 (ja) | 2019-12-30 | 2020-03-19 | 画像処理方法及び装置、電子機器、並びに記憶媒体 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7084485B2 (ja) |
KR (1) | KR102445187B1 (ja) |
AU (1) | AU2020309091B2 (ja) |
SG (1) | SG10201913744SA (ja) |
WO (1) | WO2021136979A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792827B (zh) * | 2021-11-18 | 2022-03-25 | 北京的卢深视科技有限公司 | 目标对象识别方法、电子设备和计算机可读存储介质 |
CN114581667A (zh) * | 2022-03-04 | 2022-06-03 | 北京百度网讯科技有限公司 | 地图数据处理方法、装置、电子设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229493A (zh) | 2017-04-10 | 2018-06-29 | 商汤集团有限公司 | 对象验证方法、装置和电子设备 |
CN109359559A (zh) | 2018-09-27 | 2019-02-19 | 天津师范大学 | 一种基于动态遮挡样本的行人再识别方法 |
JP2019509566A (ja) | 2016-03-11 | 2019-04-04 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ビデオ理解のための動きベースアテンションを用いたリカレントネットワーク |
CN109635721A (zh) | 2018-12-10 | 2019-04-16 | 山东大学 | 基于轨迹加权深度卷积次序池化描述子的视频人体跌倒检测方法及系统 |
CN110443143A (zh) | 2019-07-09 | 2019-11-12 | 武汉科技大学 | 多分支卷积神经网络融合的遥感图像场景分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106557765A (zh) | 2015-09-29 | 2017-04-05 | 欧姆龙株式会社 | 注意检测装置以及注意检测方法 |
-
2019
- 2019-12-30 SG SG10201913744SA patent/SG10201913744SA/en unknown
-
2020
- 2020-03-19 KR KR1020207021154A patent/KR102445187B1/ko active IP Right Grant
- 2020-03-19 JP JP2020540785A patent/JP7084485B2/ja active Active
- 2020-03-19 AU AU2020309091A patent/AU2020309091B2/en active Active
- 2020-03-19 WO PCT/IB2020/052537 patent/WO2021136979A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019509566A (ja) | 2016-03-11 | 2019-04-04 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ビデオ理解のための動きベースアテンションを用いたリカレントネットワーク |
CN108229493A (zh) | 2017-04-10 | 2018-06-29 | 商汤集团有限公司 | 对象验证方法、装置和电子设备 |
CN109359559A (zh) | 2018-09-27 | 2019-02-19 | 天津师范大学 | 一种基于动态遮挡样本的行人再识别方法 |
CN109635721A (zh) | 2018-12-10 | 2019-04-16 | 山东大学 | 基于轨迹加权深度卷积次序池化描述子的视频人体跌倒检测方法及系统 |
CN110443143A (zh) | 2019-07-09 | 2019-11-12 | 武汉科技大学 | 多分支卷积神经网络融合的遥感图像场景分类方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102445187B1 (ko) | 2022-09-19 |
SG10201913744SA (en) | 2020-12-30 |
WO2021136979A1 (en) | 2021-07-08 |
AU2020309091B2 (en) | 2022-01-20 |
AU2020309091A1 (en) | 2021-07-15 |
KR20210088439A (ko) | 2021-07-14 |
JP2022509893A (ja) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7262659B2 (ja) | 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体 | |
US9674395B2 (en) | Methods and apparatuses for generating photograph | |
CN112219224B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
EP3179711B1 (en) | Method and apparatus for preventing photograph from being shielded | |
JP7061191B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN110928627B (zh) | 界面展示方法及装置、电子设备和存储介质 | |
US11450021B2 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN110569822A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111553864A (zh) | 图像修复方法及装置、电子设备和存储介质 | |
EP3113071A1 (en) | Method and device for acquiring iris image | |
JP2022522071A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP7084485B2 (ja) | 画像処理方法及び装置、電子機器、並びに記憶媒体 | |
CN111860373B (zh) | 目标检测方法及装置、电子设备和存储介质 | |
CN112184787A (zh) | 图像配准方法及装置、电子设备和存储介质 | |
CN111523346A (zh) | 图像识别方法及装置、电子设备和存储介质 | |
CN112860061A (zh) | 场景图像展示方法及装置、电子设备和存储介质 | |
CN109040837B (zh) | 视频处理方法及装置、电子设备和存储介质 | |
CN111325786B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
US11265529B2 (en) | Method and apparatus for controlling image display | |
CN111078346B (zh) | 一种目标对象显示方法及装置、电子设备和存储介质 | |
CN107730452B (zh) | 图像拼接方法及装置 | |
CN114390189A (zh) | 图像处理方法、装置、存储介质及移动终端 | |
CN109034068B (zh) | 视频处理方法及装置、电子设备和存储介质 | |
CN108900904B (zh) | 视频处理方法及装置、电子设备和存储介质 | |
JP2022518810A (ja) | 共有地図に基づいた測位方法及び装置、電子機器並びに記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211110 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20211110 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7084485 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |