JP2021504848A - 画像処理システム及び画像処理方法 - Google Patents
画像処理システム及び画像処理方法 Download PDFInfo
- Publication number
- JP2021504848A JP2021504848A JP2020529658A JP2020529658A JP2021504848A JP 2021504848 A JP2021504848 A JP 2021504848A JP 2020529658 A JP2020529658 A JP 2020529658A JP 2020529658 A JP2020529658 A JP 2020529658A JP 2021504848 A JP2021504848 A JP 2021504848A
- Authority
- JP
- Japan
- Prior art keywords
- classes
- segmented
- primitive
- class
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Geometry (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
図3A、図3B、図3C及び図3Dは、本発明の実施形態による、BIASFitフレームワークによるマルチモデルプリミティブフィッティングプロセスの視覚的概要図を示している。
本発明のセグメンテーションCNNの詳細に入る前に、大半の現行技術水準の画像セマンティックセグメンテーション方法と同様、本発明のCNNは監視(supervision)によってトレーニングされる必要があるため、まずトレーニングデータを準備するという課題に対処する必要がある。
本発明のセグメンテーションネットワーク(図3A)は、同じ基本ネットワークに従い、このネットワークは、セグメンテーション性能を向上するため軽微な変更を伴った101層ResNetに基づく。セマンティックセグメンテーションCNNアーキテクチャはアクティブに開発されているが、本発明の新たなタスクについて所与のベースネットワーク上で最高の性能を達成するために検討すべき設計選択肢がいくつか存在する。位置対法線入力。第1の設計選択は、入力表現についてである。3D幾何学的データを扱っているので、いずれの形態の入力をCNNに供給すべきであるのか?単純な選択肢は、点位置を3チャネルテンソル入力として直接用いることである。結局、これは実際には本発明者らが入手した未処理データであり、CNNが十分に強力である場合、この入力形態から全てを学習することができるはずである。しかしながら、この入力形態を正規化する方法も、正規化すべきか否かも不明瞭である。
第2の設計問題は、いかなる種類の損失関数を用いるべきか?である。多くのセマンティックセグメンテーションCNNは、softmax関数を通した多項交差エントロピー損失を選んでいる一方で、近年の研究は、不均衡なクラスを考慮する重みを有する、いくつかの特定のタスクについてより良好に成果を上げる自己平衡多重二項損失等の他の損失関数を見出している。本研究において、以下2つのタイプの損失関数、すなわち、1)従来の「softmax損失」と、2)ハイパーパラメータとしてクラス固有損失重みβkを有する多重二項損失
同じプリミティブクラスの複数のインスタンスが互いに遮蔽又は交差している場合、理想的なプリミティブクラスセグメンテーションでさえも、これらのインスタンスを個々のセグメントに分割することができず、マルチインスタンスフィッティング問題が、幾何学的検証ステップにとって解くのが依然として望ましくないままになり、これにより、この幾何学的セグメンテーションの元来の目的が考慮されない。さらに、境界は、通常、推定された法線に関してより高い雑音を含み、これにより、法線を用いるプリミティブフィッティング(例えば、2点ベース柱体フィッティング)に悪影響を及ぼす可能性がある。この問題を軽減する1つの方法は、そのようなクラスターをインスタンス認識境界によってプリミティブインスタンスに切り分けることである。実際、そのようなステップを用いて、カテゴリ認識セグメンテーションから境界及びインスタンス認識セグメンテーションへと移行し、したがって本発明の方法をBIASFitと命名する。これを実現するために、以下の2つの選択肢、1)インスタンス境界検出のためにのみ別個のネットワークをトレーニングするか、又は、2)プリミティブクラスと同時にセグメント化されるべき更なるクラスとして境界をトレーニングするかを有する。前者の方が、ネットワークは境界の特徴量のみを学習することに専念しているので、より良好な境界検出結果を有することが期待できるものの、パラメータがより多くなるとともに実行時間がより長くなるので明快さでは劣る解決策となる。したがって、多少の性能を犠牲にして後者の解決策を選ぶのが合理的である。
ランダムシーンを生成する際、より現実的かつ困難なデータセットのために、4つのプリミティブクラスによって説明されない背景点をモデリングするNURBSを追加した。したがって、CNNにおいて背景点を適切に処理する必要がある。損失を計算する際に背景クラスを無視するべきなのか、又は、更なるクラスとして追加するべきなのか?
予測確率マップ{Yk}を所与として、本ミッションを完遂するために、プリミティブ仮説を生成及び検証して正しい仮説のプリミティブパラメータをフィッティングする必要がある。仮説生成の1つの直接的な方法は、閾値処理することによってBIAS出力{Yk}を単にバイナリ化して接続された成分のセットを生成し、Ykから到来した成分についてのk番目のクラスのプリミティブを1つだけフィッティングすることである。
プリミティブ検出及びフィッティング正解率のための評価基準の適切なセットを設計することは容易ではなく、そのように設計した既存の研究もデータセットも、本発明者らは一切認知していない。異なるプリミティブフィッティング方法を包括的に評価、ひいては比較することは困難である。なぜならば、1)前述したように、遮蔽により、一般的に、単一のインスタンスが複数のプリミティブにフィッティングされ、両プリミティブはグラウンドトゥルースインスタンスに十分近接している場合があるからであり、2)そのような過検出が、雑音のあるデータに関する不適切な正常値閾値によっても引き起こされる可能性があるからである。
ネットワーク省略名。節IVに挙げた設計問題に対する答えを探索するべく、本発明者らはいくつかのCNNを設計し、その詳細を省略名とともに以下に掲載する。
P/N/PN。位置(P)、法線(N)、又は双方(PN)を入力として用い、多項損失関数によってトレーニングし、4チャネル相互排他的クラス確率マップを出力する基本ネットワーク(すなわち、各ピクセルの確率は合計すると1になる、K=4)。背景クラス点(NURBS)は損失計算について無視される。
P/N/PN+MB。上記の基本ネットワークと同じであるが、異なるのは、式(1)におけるような多重二項(MB)損失関数を用いてトレーニングし、4チャネル非相互排他的クラス確率マップを出力する、ということである(すなわち、各ピクセルの確率は、必ずしも合計して1になるとは限らず、それゆえに多重二項分類器である、K=4)。
N+BIAS。法線入力及びBIASラベルを用いてトレーニングしたネットワーク(すなわち、インスタンス認識境界を更なるクラスとして一緒にトレーニングした、K=5)。
N+MB+BIAS。N+BIASと同じであるが、異なるのは、多重二項方式を用いてトレーニングした、ということである(K=5)。
N5。基本ネットワークNと同じであるが、異なるのは、背景クラスを損失計算に関与する更なるクラスとして扱う、ということである(K=5)。
N5+MB。N5と同じであるが、異なるのは、多重二項方式を用いてトレーニングした、ということである(K=5)。
N5+BIAS。N+BIASと同じであるが、異なるのは、多重二項方式を用いてトレーニングした、ということである(すなわち、境界及びNURBSは、一緒にトレーニングされた2つの更なるクラスである、K=6)。
N+BO。Nと同じであるが、異なるのは、境界を検出するようにのみトレーニングした、ということである(すなわち、二値分類器、K=2)。
Caffe及びDeepLabv2を用いて幾何学的セグメンテーションCNNを実施した。法線は5×5窓を用いるPCAによって推定した。位置入力を必要とするネットワークの場合、単位としてメートルを用いる。全てのピクセルが5×5窓における同一のインスタンスに属している(又は無効点を含む)わけではない場合に、インスタンス認識境界を計算した。トレーニング時間中には、入力データサイズを無作為に440×440に剪定し、一方、テスト時間中には、全VGA分解能を用いた。本発明のネットワークを全て、検証セットに対して調整された以下のハイパーパラメータ、すなわち、50回のトレーニングエポック(すなわち、17280回の反復)、バッチサイズ10、トレーニング終了まで0に向かって線形的に減少していく学習率0.1、モーメンタム0.9、重み減衰5e−4を用いてトレーニングした。それぞれ12GBのメモリを有するいくつかのNVIDIA TITAN X GPUを用いて、2.5FPSテストフレームレートで、ネットワークをトレーニング及び評価した。
1)P/N/PNの列を比較すると、法線入力が最高になるという結果になり、興味深いことに、法線と位置との双方の組み合わせを凌駕することが判明した。
これは、ネットワーク入力について位置データを正規化することの難しさが原因である可能性がある。
2)P/N/PN+MBの列を比較すると、標準的な多項損失が、多重二項損失よりも性能的に概ね上回ることが判明した。
3)NとN+BIASとを比較すると、付加的な境界検出をセグメンテーションに追加しても、セグメンテーション性能に対する負の影響は非常に小さいものでしかないことが判明した。これは、セグメンテーションと境界検出との双方を実行するのに単一のネットワークを用いたので魅力的である。N+BIASとN+BOとを更に比較すると、BIASが実際に、境界の検出のみを行うN+BOと比較して境界再現率を上昇させることが判明した。
4)N5とNとを比較すると、背景クラスを無視することの影響は、有意な性能変化に関して非決定的であることが判明した。しかしながら、これは、規定のプリミティブライブラリによって説明可能に思われる領域のみに着目する以下のステップを可能にするので、背景クラスを一緒にトレーニングすることの利益を示唆している。
参考程度に、このタスクについて、近傍7×7若しくは37×37の法線又は主曲率を用いるSVMを試したが、幾多のパラメータ調整を経て得られたピクセル単位正解率は最高でも66%にすぎなかった。
図6Aは、本発明の実施形態による、スキャンされたシーンの画像の一例である。図6Bは、本発明の実施形態による、セグメンテーション結果の一例であり、図6Cは、フィッティングされたプリミティブを示す一例である。シミュレートされたスキャナの雑音モデルを本発明者らの実際のKinectスキャナに合致するように調整しなかったものの、図に示されたように、シミュレートされたスキャンを用いてトレーニングされたネットワークは、実世界のデータに対して非常に良好に一般化する。
プリミティブをフィッティングするために、元の能率的RANSAC(省略名ERANSAC:efficient RANSAC)実施態様を、本発明のベースライン方法として、及び、本発明の幾何学的検証のために用いた。実験の詳細。全てのプリミティブフィッティング実験について、ERANSAC性能を最大化するため、検証セットに対して調整された以下のパラメータ、すなわち、プリミティブごとの支持点の最小数1000個、最大正常値距離0.03m、最大正常値角度偏差30度(コンセンサススコアをカウントする場合)及び45度(最終正常値セット拡張の場合)、見落とし確率1e−4を用いた。シミュレートされたテストセットは、4033個の平面、1256個の球体、2338個の柱体、1982個の錐体、及び計9609個のプリミティブインスタンスを含む。それぞれのネットワークのセグメンテーションをアルゴリズム1に対する入力として用いて、プリミティブフィッティング結果を、シミュレートされたテストセットに対して評価した。図7A及び図7Bは、ERANSACベースラインとともにプリミティブフィッティングの評価結果の要約を示している。この要約は以下のことを示している。
1)ERANSAC性能は、本発明者らの定性評価によると、BIASFitの大半の変形形態よりも大幅に下回っている。
2)N5関連の実験が最も高いPAPスコアを受け取っており、これは、シーンの複雑度を大いに低減する背景クラスの認識及び除去に起因して合理的である。
3)平均フィッティング誤差に関して、N+BIAS<N、N5+BIAS<N5、N+MB+BIAS<N+MBであり、これによって節V−Aにおいて言及したBIASの利益が強固にサポートされる。
4)N5+BIASが、フィッティング前の背景と境界との除去によって、最小フィッティング誤差を獲得する。
Claims (18)
- ネットワークを介してデータを送信及び受信するインタフェースと、
前記インタフェースに接続されたプロセッサと、
前記プロセッサによって実行可能な画像処理プログラムのモジュールを記憶するメモリと、
を備え、前記画像処理プログラムは、
物体の距離画像としての点群をセグメンテーションネットワーク内に与えることと、
前記セグメンテーションネットワークを用いて、前記点群を点ごとに前記物体の複数のクラスにセグメント化すると同時に前記物体の境界を検出することであって、前記セグメンテーションネットワークは、前記セグメント化された複数のクラス及び前記セグメント化された境界に基づいて、前記物体の関連プリミティブクラスの確率を出力することと、
所定のフィッティング方法を用いて、前記セグメント化された複数のクラス及び前記セグメント化された境界を検証及び精緻化することと、
前記物体の前記複数のクラスの誤分類を、前記複数のクラスにプリミティブをフィッティングすることによって訂正することと、
を含む動作を、前記プロセッサに実行させる、画像処理システム。 - 前記セグメンテーションネットワークは、前記物体の前記クラスと、前記物体の前記境界とを出力する、請求項1に記載のシステム。
- 前記画像は、前記物体を表す前記距離画像から計算された面法線マップである、請求項1に記載のシステム。
- 前記検証することは、前記画像を、モデルクラスに対応する所定の群に分割することと、ランダムサンプリングによって生成された仮説からプリミティブをフィッティングすることとの双方を含む、請求項3に記載のシステム。
- 前記セグメンテーションネットワークは、境界を前記セグメント化すること及び前記検出することの双方を実行する、請求項1に記載のシステム。
- 前記セグメンテーションネットワークは、前記プリミティブクラスを用いてトレーニングされた畳み込みニューラルネットワーク(CNN)であり、前記プリミティブクラスは、前記物体の前記境界をセグメント化するために境界クラスを含む、請求項1に記載のシステム。
- 1つ以上のプロセッサによって実行可能な命令を含むプログラムを記憶する非一時的コンピュータ可読媒体であって、前記命令は、メモリに関連した前記1つ以上のプロセッサに、
物体の距離画像としての点群をセグメンテーションネットワーク内に与えることと、
前記セグメンテーションネットワークを用いて、前記点群を点ごとに前記物体の複数のクラスにセグメント化すると同時に前記物体の境界を検出することであって、前記セグメンテーションネットワークは、前記セグメント化された複数のクラス及び前記セグメント化された境界に基づいて、前記物体の関連プリミティブクラスの確率を出力することと、
所定のフィッティング方法を用いて、前記セグメント化された複数のクラス及び前記セグメント化された境界を検証及び精緻化することと、
前記物体の前記複数のクラスの誤分類を、前記複数のクラスにプリミティブをフィッティングすることによって訂正することと、
を含む命令を実行させる、非一時的コンピュータ可読媒体。 - 前記セグメンテーションネットワークは、前記物体の前記クラスと、前記物体の前記境界とを出力する、請求項7に記載の非一時的コンピュータ可読媒体。
- 前記画像は、前記物体を表す前記距離画像から計算された面法線マップである、請求項7に記載の非一時的コンピュータ可読媒体。
- 前記検証することは、前記画像を、モデルクラスに対応する所定の群に分割することと、ランダムサンプリングによって生成された仮説からプリミティブをフィッティングすることとの双方を含む、請求項9に記載の非一時的コンピュータ可読媒体。
- 前記セグメンテーションネットワークは、境界を前記セグメント化すること及び前記検出することの双方を実行する、請求項7に記載の非一時的コンピュータ可読媒体。
- 前記セグメンテーションネットワークは、前記プリミティブクラスを用いてトレーニングされた畳み込みニューラルネットワーク(CNN)であり、前記プリミティブクラスは、前記物体の前記境界をセグメント化するために境界クラスを含む、請求項7に記載の非一時的コンピュータ可読媒体。
- 物体の距離画像としての点群をセグメンテーションネットワーク内に与えることと、
前記セグメンテーションネットワークを用いて、前記点群を点ごとに前記物体の複数のクラスにセグメント化すると同時に前記物体の境界を検出することであって、前記セグメンテーションネットワークは、前記セグメント化された複数のクラス及び前記セグメント化された境界に基づいて、前記物体の関連プリミティブクラスの確率を出力することと、
所定のフィッティング方法を用いて、前記セグメント化された複数のクラス及び前記セグメント化された境界を検証及び精緻化することと、
前記物体の前記複数のクラスの誤分類を、前記複数のクラスにプリミティブをフィッティングすることによって訂正することと、
を含む、マルチモデルプリミティブフィッティングを実行する画像処理方法。 - 前記セグメンテーションネットワークは、前記物体の前記クラスと、前記物体の前記境界とを出力する、請求項13に記載の方法。
- 前記画像は、前記物体を表す前記距離画像から計算された面法線マップである、請求項13に記載の方法。
- 前記検証することは、前記画像を、モデルクラスに対応する所定の群に分割することと、ランダムサンプリングによって生成された仮説からプリミティブをフィッティングすることとの双方を含む、請求項15に記載の方法。
- 前記セグメンテーションネットワークは、境界を前記セグメント化すること及び前記検出することの双方を実行する、請求項13に記載の方法。
- 前記セグメンテーションネットワークは、前記プリミティブクラスを用いてトレーニングされた畳み込みニューラルネットワーク(CNN)であり、前記プリミティブクラスは、前記物体の前記境界をセグメント化するために境界クラスを含む、請求項13に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/912,738 | 2018-03-06 | ||
US15/912,738 US10410354B1 (en) | 2018-03-06 | 2018-03-06 | Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation |
PCT/JP2018/032512 WO2019171628A1 (en) | 2018-03-06 | 2018-08-27 | Image processing system and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6793885B1 JP6793885B1 (ja) | 2020-12-02 |
JP2021504848A true JP2021504848A (ja) | 2021-02-15 |
Family
ID=63713978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020529658A Active JP6793885B1 (ja) | 2018-03-06 | 2018-08-27 | 画像処理システム及び画像処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10410354B1 (ja) |
JP (1) | JP6793885B1 (ja) |
WO (1) | WO2019171628A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK201970115A1 (en) | 2018-11-08 | 2020-06-09 | Aptiv Technologies Limited | DEEP LEARNING FOR OBJECT DETECTION USING PILLARS |
JP7378221B2 (ja) * | 2019-04-17 | 2023-11-13 | シャープ株式会社 | 画像処理装置、画像形成装置、画像読取装置、制御方法、コンピュータプログラム、および記録媒体 |
GB2621701A (en) * | 2019-11-14 | 2024-02-21 | Motional Ad Llc | Sequential fusion for 3D object detection |
CN111091580B (zh) * | 2019-12-17 | 2023-03-14 | 浙江农林大学 | 一种基于改进ResNet-UNet网络的立木图像分割方法 |
JP7339185B2 (ja) * | 2020-03-04 | 2023-09-05 | 株式会社奥村組 | 屋外構造物部位特定装置、屋外構造物部位特定方法および屋外構造物部位特定プログラム |
US11417063B2 (en) * | 2020-09-01 | 2022-08-16 | Nvidia Corporation | Determining a three-dimensional representation of a scene |
CN112328544B (zh) * | 2020-09-18 | 2022-01-11 | 广州中望龙腾软件股份有限公司 | 一种多学科仿真数据分类方法、设备及存储介质 |
CN116783620A (zh) * | 2020-11-16 | 2023-09-19 | 伟摩有限责任公司 | 根据点云的高效三维对象检测 |
KR102504405B1 (ko) | 2021-11-26 | 2023-02-28 | 한국생산기술연구원 | 객체 어포던스 시각화를 통한 작업 가이드라인을 생성하는 사용자 인터페이스 제공 방법 및 그 시스템 |
CN117635810A (zh) * | 2022-08-17 | 2024-03-01 | 北京字跳网络技术有限公司 | 立体模型处理方法、装置、设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4320451A (en) * | 1974-04-19 | 1982-03-16 | Honeywell Information Systems Inc. | Extended semaphore architecture |
US8004517B1 (en) * | 2005-06-24 | 2011-08-23 | Geomagic, Inc. | Methods, apparatus and computer program products that model three-dimensional surface structures |
US8675951B2 (en) * | 2007-05-11 | 2014-03-18 | Three Pixels Wide Pty Ltd. | Method and system for generating a 3D model |
US20180107940A1 (en) * | 2010-04-27 | 2018-04-19 | Jeremy Lieberman | Artificial intelligence method and apparatus |
US8700620B1 (en) * | 2010-04-27 | 2014-04-15 | Jeremy Lieberman | Artificial intelligence method and apparatus |
US8605093B2 (en) * | 2010-06-10 | 2013-12-10 | Autodesk, Inc. | Pipe reconstruction from unorganized point cloud data |
US9436987B2 (en) * | 2014-04-30 | 2016-09-06 | Seiko Epson Corporation | Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images |
WO2016195698A1 (en) * | 2015-06-05 | 2016-12-08 | Siemens Aktiengesellschaft | Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation |
US10311302B2 (en) | 2015-08-31 | 2019-06-04 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
GB2562924B (en) | 2015-12-14 | 2021-05-19 | Motion Metrics Int Corp | Method and apparatus for identifying fragmented material portions within an image |
US20190156202A1 (en) | 2016-05-02 | 2019-05-23 | Scopito Aps | Model construction in a neural network for object detection |
GB2554633B (en) | 2016-06-24 | 2020-01-22 | Imperial College Sci Tech & Medicine | Detecting objects in video data |
US10078790B2 (en) * | 2017-02-16 | 2018-09-18 | Honda Motor Co., Ltd. | Systems for generating parking maps and methods thereof |
-
2018
- 2018-03-06 US US15/912,738 patent/US10410354B1/en active Active
- 2018-08-27 WO PCT/JP2018/032512 patent/WO2019171628A1/en active Application Filing
- 2018-08-27 JP JP2020529658A patent/JP6793885B1/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
Non-Patent Citations (3)
Title |
---|
AUSTIN MYERS ET AL.: ""Affordance Detection of Tool Parts from Geometric Features"", 2015 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), JPN6020038836, 26 May 2015 (2015-05-26), US, pages 1374 - 1381, ISSN: 0004365363 * |
DIRK HOLZ ET AL.: ""Fast Range Image Segmentation and Smoothing using Approximate Surface Reconstruction and Region Gro", PROCEEDINGS OF THE 12TH INTERNATIONAL CONFERENCE ON INTELLIGENT AUTONOMOUS SYSTEMS (IAS), vol. 2, JPN7020003244, 26 June 2012 (2012-06-26), DE, pages 1 - 6, XP055524678, ISSN: 0004365364 * |
脇田 志郎、青野 雅樹: ""突起形状に着目した3次元モデルのセグメンテーション"", 映像情報メディア学会技術報告, vol. 35, no. 9, JPN6020038833, 14 February 2011 (2011-02-14), JP, pages 215 - 220, ISSN: 0004365362 * |
Also Published As
Publication number | Publication date |
---|---|
WO2019171628A1 (en) | 2019-09-12 |
US20190279368A1 (en) | 2019-09-12 |
US10410354B1 (en) | 2019-09-10 |
JP6793885B1 (ja) | 2020-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6793885B1 (ja) | 画像処理システム及び画像処理方法 | |
US11618438B2 (en) | Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network | |
CN108805170B (zh) | 形成用于全监督式学习的数据集 | |
US11176423B2 (en) | Edge-based adaptive machine learning for object recognition | |
US10497145B2 (en) | System and method for real-time large image homography processing | |
JP2020042816A (ja) | 物体検出方法、装置、機器、記憶媒体及び車両 | |
US10762644B1 (en) | Multiple object tracking in video by combining neural networks within a bayesian framework | |
CN113056743A (zh) | 训练神经网络以用于车辆重新识别 | |
US20200410338A1 (en) | Multimodal data learning method and device | |
KR102252439B1 (ko) | 이미지에서 오브젝트 검출 및 표현 | |
US8542912B2 (en) | Determining the uniqueness of a model for machine vision | |
JP2013242757A (ja) | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム | |
CN114677565B (zh) | 特征提取网络的训练方法和图像处理方法、装置 | |
JP7031685B2 (ja) | モデル学習装置、モデル学習方法及びコンピュータプログラム | |
WO2022134842A1 (zh) | 一种建筑特征的识别方法及装置 | |
US8542905B2 (en) | Determining the uniqueness of a model for machine vision | |
US10937150B2 (en) | Systems and methods of feature correspondence analysis | |
CN112861809B (zh) | 基于多目标视频分析的课堂抬头检测系统及其工作方法 | |
KR20230036327A (ko) | 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법 및 그 장치 | |
CN115205806A (zh) | 生成目标检测模型的方法、装置和自动驾驶车辆 | |
Kourbane et al. | Skeleton-aware multi-scale heatmap regression for 2D hand pose estimation | |
CN114200934A (zh) | 机器人目标跟随控制方法、装置、电子设备和存储介质 | |
CN111815658B (zh) | 一种图像识别方法及装置 | |
CN107562050B (zh) | 一种机器人识别环境的方法及系统 | |
Li et al. | Primitive fitting using deep boundary aware geometric segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200529 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200529 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200529 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6793885 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |