JP6345147B2 - ステレオ画像の対において物体を検出する方法 - Google Patents

ステレオ画像の対において物体を検出する方法 Download PDF

Info

Publication number
JP6345147B2
JP6345147B2 JP2015075866A JP2015075866A JP6345147B2 JP 6345147 B2 JP6345147 B2 JP 6345147B2 JP 2015075866 A JP2015075866 A JP 2015075866A JP 2015075866 A JP2015075866 A JP 2015075866A JP 6345147 B2 JP6345147 B2 JP 6345147B2
Authority
JP
Japan
Prior art keywords
image
pair
stereo
classifier
cost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015075866A
Other languages
English (en)
Other versions
JP2015215877A5 (ja
JP2015215877A (ja
Inventor
ミン−ユ・リウ
オンセル・チュゼル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2015215877A publication Critical patent/JP2015215877A/ja
Publication of JP2015215877A5 publication Critical patent/JP2015215877A5/ja
Application granted granted Critical
Publication of JP6345147B2 publication Critical patent/JP6345147B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明はコンピュータービジョンに関し、より詳細には、ステレオ画像において物体を検出することに関する。
多くのコンピュータービジョンアプリケーションは、ステレオカメラによって取得したステレオ画像を用いて物体を検出する。ステレオカメラは通常、複数のレンズ及びセンサーを有する。通例、レンズ間の軸内距離は両眼間と同じ距離であり、重複したビューを提供する。
図7は、従来のステレオベースの物体検出システムを示している。ステレオカメラ101がステレオ画像102を取得する。検出方法は、以下のステップ、すなわち、ステレオ撮像100、コストボリューム決定110、奥行き/視差マップ推定120及び物体検出130を含むことができる。
従来のステレオベースの物体検出方法のほとんどは、重複したエリア内のピクセルごとの奥行き情報に依存する(120)。このステップは一般に奥行き/範囲マップ推定と呼ばれる。このステップは、視差値、すなわち2つの画像における対応するピクセルの並進を求め、奥行きマップを求めることによって達成することができる。次に、この奥行きマップを物体検出130のために用いることができ、例えば、奥行きマップの勾配方向ヒストグラム(HoG:histogram of oriented gradients)が物体記述のために用いられる。1つの方法は、部分画像領域における主要な視差を推定し、相対的な視差値の共起ヒストグラムを物体検出のために用いる。
奥行き/範囲/視差マップ推定は困難な問題である。局所的な方法は不正確な奥行き決定を被る一方で、大域的な方法は多大な計算リソースを必要とし、リアルタイムの用途に適していない。
幾つかの方法は、関心領域生成のためにステレオキュー(stereo cue:立体手がかり)を用いることによって奥行きマップ決定ステップを回避する。例えば、1つの方法は、潜在的な物体ロケーションをマーク付けするstixelマップを求める。各stixelはカメラに対する3D位置によって定義され、基面上に垂直に立つ。次に、色画像コンテンツに基づく検出器がロケーションに適用され、物体が検出される。
特許文献1は範囲マップを用いて関心エリアを決定し、輝度ヒストグラムに基づく分類器を用いて物体を検出する。
米国特許出願公開第2013/0177237号
関心領域法は物体検出に直接適用することができず、他の物体検出器と併用して適用されなくてはならない。さらに、関心エリアが物体をカバーしないとき、検出見逃しが確実となる。
本発明の実施形態は、ステレオ画像において物体を検出する方法を提供する。画像からコストボリュームが計算される。次に、コストボリュームから取得された特徴に物体検出が直接適用される。検出は、トレーニング特徴から学習したT決定木分類器(Adaboost)を用いる。
本発明は、従来技術の誤りを生じやすく計算が複雑な奥行きマップ推定ステップを回避し、正確で効率的な物体検出器をもたらす。本方法は、良好な奥行きマップを取得するのに必要な複雑な最適モジュールを要しないので、埋め込みシステムにより適している。さらに、本方法は、物体を検出するために入力画像内の全ての部分画像を探索する。これによって、関心領域生成技法に存在する検出見逃し問題が回避される。
本方法は、大量のトレーニングデータを活用し、機械学習手順を利用するので、検出が正確である。本方法は、検出正確度において、関心領域生成技法よりも性能が優れている。
本発明の実施形態による、ステレオベースの物体検出システムのブロック図である。 図1のステレオベースの物体検出システムのための物体検出モジュールのブロック図である。 本発明の実施形態による、ステレオベースの物体検出器を学習する方法のブロック図である。 本発明の実施形態による、コストボリューム決定の概略図である。 本発明の実施形態による、学習される特徴の概略図である。 部分画像の大きな部分及び小さな部分を占める物体の概略図である。 従来のステレオベースの物体検出システムのブロック図である。
図1は、本発明の実施形態による、ステレオ画像200の対において物体201を検出する方法及びシステムを示している。これらのステレオ画像の対からコストボリューム211が生成される(210)。その後、特徴ベクトル216を選択及び抽出する(215)。次に、物体検出器220を特徴ベクトルボリュームに適用して物体を検出する。物体検出器は、トレーニング画像特徴231から学習した分類器230を用いる。物体が検出された後、その物体の場所を突き止めることができ、すなわち、画像における物体のロケーションを求めることができる。本方法は、当該技術分野において既知のバスによってメモリ及び入/出力インターフェースに接続されたプロセッサ250において実行することができる。
本発明は、奥行きマップがコストボリュームから導出されるので、奥行きマップにおいて利用可能な奥行き情報はコストボリュームにおいても利用可能であるという認識に基づいている。
コストボリュームを直接用いる本発明の検出器220は、奥行きマップに基づいて任意の検出器の性能をマッチングすることが理論的に可能である。さらに、コストボリュームは、従来の奥行きマップよりも表現が豊かである。奥行きマップはピクセルごとの奥行きしか提供しない一方で、コストボリュームは、真の奥行きを含む、ステレオ画像内の各ピクセルが有し得る広範な潜在的奥行きのマッチングコストを提供する。このため、検出器はコストボリュームから直接取得した特徴を用い、より多くの奥行き情報にアクセスすることができ、より良好な性能を達成することができる。
図2に示すように、本発明の1つの実施形態は、コストボリューム生成210と、特徴抽出310と、物体検出及びロケーション特定320と、学習される弁別的特徴330と、学習される物体分類モデル340とを含む。ロケーション特定は、物体が検出される場所を求める。
図3は、弁別的特徴を学習するための機械学習手順と、学習される物体分類モデルとを示している。特徴は、トレーニングステレオ画像の対を含むトレーニングデータ400から選択及び学習される(410)。
コストボリューム生成
図4は、コストボリュームC211の生成を示している。コストボリュームC:X×Y×Dは、メモリ内に記憶される3次元データ構造であり、Xは画像のx軸を表し、Yは画像のy軸を表し、Dは1組の視差値を表す。これらの視差値は、2つのステレオ画像I501及びI502における対応するピクセル間の並進である。I及びIは調整されていると仮定する。これは、レンズ歪み効果が補償されるように画像が変換されており、1つの画像の行内のピクセルが、他の画像の同じ行内のピクセルにマッピングされていることを意味する。次に、ステレオ画像I及びIの対においてピクセル外観をマッチングすることによって、コストボリュームを求めることができる。
コストボリュームを求める1つの方法は、任意の(x,y,d)∈X×Y×Dについて、
Figure 0006345147
によって与えられるマッピングを適用することである。ここで、
Figure 0006345147
はユークリッドノルムを表し、I(x,y)はI画像の(x,y)ロケーションにおけるピクセル色値を指し、I(x,y)はI画像の(x,y)ロケーションにおけるピクセル色値を指し、grad(I(x,y))はI画像の(x,y)ロケーションにおける勾配を指し、grad(I(x−d,y))は、I画像の(x,y)ロケーションにおける勾配を指し、λは勾配情報の重要度を制御する重みである。バイラテラルフィルタリング又は誘導フィルタリング等の画像平滑化技法を適用してコストボリュームを向上させることができることに留意されたい。
特徴抽出
図5は、図1の特徴選択及び抽出215を示している。部分画像内に物体が存在するか否かを判断するために、各部分画像600からK次元特徴ベクトルを抽出する。部分画像は、例えば複数のスケールにおいてピクセルごとにラスター走査順で、画像の上を通過する移動ウィンドウとみなすことができる。
実施形態は、特徴を求めるためにコストボリュームを直接用いることしかしないことに留意されたい。従来技術におけるような奥行きマップ推定は行われない。
特徴ベクトルの各次元は、部分画像600内の2つの、例えば矩形の領域
Figure 0006345147
601及び
Figure 0006345147
602のFigコスト視差値間の数値比較結果に対応する。部分画像がJとして示され、特徴ベクトルのk番目の次元がf(J)として表されるものとする。f(J)の値は、
Figure 0006345147
であり、ここで、
Figure 0006345147
は、部分画像の
Figure 0006345147
の領域内の最小(min)累積コストを有する視差値を表す。すなわち、以下となる。
Figure 0006345147
領域内の最小コスト視差値を求めることは、当該技術分野において既知の積分画像技法を用いて累積コストを効率的に取得することができるので比較的簡単であることに留意されたい。領域のロケーション及びサイズは、以下で説明する機械学習手順を用いて学習される。
物体検出及びロケーション特定
部分画像と関連付けられたK次元特徴ベクトルは、検出スコアを求めるためにアンサンブル分類器に渡される。アンサンブル分類器はT決定木分類器を含む。各決定木分類器は、K次元特徴の少数の次元を入力として取り、部分画像を正(物体を含む)又は負(物体を含まない)として分類する。部分画像Jについて分類器から取得される検出スコアsは以下によって与えられる。
Figure 0006345147
ここで、δは決定木分類器であり、θは対応する重みである。スコアが予め設定された閾値よりも大きい場合、システムは部分画像における検出を宣言する。
図6に示すように、分類器は、物体が部分画像701のより大きな部分を占める場合に、より高いスコアを与え、物体が部分画像702の小さな部分のみを占める場合に、より低いスコアを与えるようにトレーニングすることができる。なぜなら、より大きな物体は、より小さな物体よりも、画像内でその物体が位置する場所のより良好な推定値を与えるためである。
特徴選択及び分類器学習手順
領域
Figure 0006345147
の選択用、及び決定木分類器重み
Figure 0006345147
の学習用に、別個のAdaBoost手順を用いる。
学習タスクのための1組のデータを収集する。このデータは1組のステレオトレーニング画像を含む。物体を含む部分画像は、正のインスタンスとしてラベル付けされる一方、他の部分画像は負のインスタンスとしてラベル付けされる。正の部分画像及び負の部分画像の中心が一致するように、それらの部分画像を位置合わせする。また、部分画像は同じ高さを有するようにスケーリングされる。位置合わせ及びスケーリングされた部分画像は、
Figure 0006345147
として表される。ここで、Jはi番目の部分画像を示し、lはラベルであり、Vは部分画像の総数である。
1組のN個の領域を特徴プール{R,i=1,2,...,N}としてサンプリングする。特徴プールは様々なロケーション及びサイズを有し、位置合わせされた部分画像によってカバーされる。2つの領域をランダムで対にし、最小コストのそれらの視差値を比較する。これは、K次元特徴ベクトルを構築するようにK回行われる。
T決定木分類器及びそれらの重みを学習するのに別個のAdaBoost手順を用いる。この手順は、トレーニングサンプルに一様な重みを割り当てることから始まる。次に、現在のトレーニングサンプル重みに基づいて決定木が学習される。不正確に分類されたサンプルの重みは、それらの重みが決定木分類器学習の次のラウンド中により大きな影響を有するように増大される。重み付けされた誤り率に基づいて決定木分類器に重みを割り当てる。このプロセスは、T決定木分類器のアンサンブル分類器を構築するようにT回繰り返される。手順の擬似コードを以下に記載する。
入力:特徴ベクトル及びクラスラベルD={(f(J),l),i=1,2,...,V}
出力:アンサンブル分類器
Figure 0006345147
一様な重み
Figure 0006345147
から開始
For t=1,2,...,T
1.重みwを用いて決定木分類器δ(J)∈{−1.1}を学習する;
2.誤り率ε=Σ|(δ(J)≠l)を求める;
3.決定木分類器重み
Figure 0006345147
を求める;
4.i=1,2,...,Vについて、w←wexp(θ|δ(J)≠l)を設定する;及び、
5.サンプル重みを正規化する
Figure 0006345147
ステップ2及び4において用いられる関数δは指示関数を表し、この指示関数は、括弧内の記述が真である場合に1を返し、そうでない場合にゼロを返す。

Claims (10)

  1. シーンから取得されたステレオ画像の対において物体を検出する方法であって、各ステレオ画像はピクセルを含み、該方法は、
    前記ステレオ画像の対からコストボリュームを生成するステップであって、該コストボリュームは、前記対内の前記ステレオ画像間でのピクセルごとの広範な視差値のマッチングコストを含む、ステップと、
    前記コストボリューム内の部分画像から、該部分画像内部の領域内の最小累積コストを有する前記視差値の特徴関数を用いて特徴ベクトルを求めるステップと、
    前記特徴ベクトルに分類器を適用するステップであって、前記部分画像が前記物体を含むか否かを検出するステップと、
    を含み、前記ステップはプロセッサにおいて実行される、シーンから取得されたステレオ画像の対において物体を検出する方法。
  2. 前記ステレオ画像内の前記物体のロケーションを特定することを更に含む、請求項1に記載の方法。
  3. 前記分類器は、トレーニングステレオ画像の対から学習される、請求項1に記載の方法。
  4. 前記ステレオ画像の対を調整することを更に含む、請求項1に記載の方法。
  5. 前記ステレオ画像の対を平滑化することを更に含む、請求項1に記載の方法。
  6. 前記生成することは、
    ユークリッドノルムを用いて前記ステレオ画像の対における前記ピクセルの色及び勾配をマッチングすることを更に含む、請求項1に記載の方法。
  7. 前記特徴関数は
    Figure 0006345147
    であり、ここで、Jは前記部分画像を表し、kは前記特徴ベクトルの次元を表し、minは最小値を返す関数を表し、
    Figure 0006345147
    は前記部分画像内の
    Figure 0006345147
    の矩形エリアにおいて最小累積コストを有する前記視差値を表し、iは前記矩形エリアを表す、請求項1に記載の方法。
  8. Figure 0006345147
    であり、ここで、C(x,y,d)は前記コストボリュームを表す、請求項7に記載の方法。
  9. 前記分類器は、T決定木分類器を含むアンサンブル分類器である、請求項1に記載の方法。
  10. 前記分類器は、部分画像Jの検出スコアsを提供し、該検出スコアは、
    Figure 0006345147
    であり、ここで、δは前記決定木分類器であり、θは対応する重みである、請求項9に記載の方法。
JP2015075866A 2014-05-08 2015-04-02 ステレオ画像の対において物体を検出する方法 Active JP6345147B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/272,570 2014-05-08
US14/272,570 US9195904B1 (en) 2014-05-08 2014-05-08 Method for detecting objects in stereo images

Publications (3)

Publication Number Publication Date
JP2015215877A JP2015215877A (ja) 2015-12-03
JP2015215877A5 JP2015215877A5 (ja) 2018-02-22
JP6345147B2 true JP6345147B2 (ja) 2018-06-20

Family

ID=54368107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015075866A Active JP6345147B2 (ja) 2014-05-08 2015-04-02 ステレオ画像の対において物体を検出する方法

Country Status (3)

Country Link
US (1) US9195904B1 (ja)
JP (1) JP6345147B2 (ja)
CN (1) CN105096307B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864849B (zh) * 2014-02-24 2017-12-26 电信科学技术研究院 视觉导航方法和装置以及机器人
US9626590B2 (en) * 2015-09-18 2017-04-18 Qualcomm Incorporated Fast cost aggregation for dense stereo matching
US10482331B2 (en) * 2015-11-20 2019-11-19 GM Global Technology Operations LLC Stixel estimation methods and systems
CN105718910A (zh) * 2016-01-22 2016-06-29 孟玲 一种局部和全局特征相结合的蓄电池室
KR101825459B1 (ko) * 2016-08-05 2018-03-22 재단법인대구경북과학기술원 다중 클래스 객체 검출 장치 및 그 방법
US9989964B2 (en) 2016-11-03 2018-06-05 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling vehicle using neural network
CN106845520B (zh) * 2016-12-23 2018-05-18 深圳云天励飞技术有限公司 一种图像处理方法及终端
US11272163B2 (en) * 2017-02-07 2022-03-08 Sony Corporation Image processing apparatus and image processing method
US10554957B2 (en) * 2017-06-04 2020-02-04 Google Llc Learning-based matching for active stereo systems
US10395144B2 (en) * 2017-07-24 2019-08-27 GM Global Technology Operations LLC Deeply integrated fusion architecture for automated driving systems
US10956712B1 (en) 2018-05-31 2021-03-23 The Charles Stark Draper Laboratory, Inc. System and method for multidimensional gradient-based cross-spectral stereo matching
TWI709725B (zh) * 2019-12-03 2020-11-11 阿丹電子企業股份有限公司 箱體的體積量測裝置及體積量測方法
KR102192322B1 (ko) * 2020-04-13 2020-12-17 재단법인 다차원 스마트 아이티 융합시스템 연구단 픽셀 블록 단위로 상보적인 픽슬렛 구조가 적용된 카메라 시스템 및 그 동작 방법
US11577723B2 (en) 2020-06-29 2023-02-14 Uatc, Llc Object trajectory association and tracking

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US9111342B2 (en) * 2010-07-07 2015-08-18 Electronics And Telecommunications Research Institute Method of time-efficient stereo matching
CN101976455B (zh) * 2010-10-08 2012-02-01 东南大学 一种基于立体匹配的彩色图像三维重建方法
KR20120049997A (ko) * 2010-11-10 2012-05-18 삼성전자주식회사 영상 변환 장치 및 이를 이용하는 디스플레이 장치와 그 방법들
CN102026013B (zh) * 2010-12-18 2012-05-23 浙江大学 基于仿射变换的立体视频匹配方法
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
US20130177237A1 (en) 2012-01-09 2013-07-11 Gregory Gerhard SCHAMP Stereo-vision object detection system and method
CN103366354B (zh) * 2012-03-27 2016-09-07 富士通株式会社 用于立体匹配的方法和系统
JP2014096062A (ja) * 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
CN103226821B (zh) * 2013-04-27 2015-07-01 山西大学 基于视差图像素分类校正优化的立体匹配方法

Also Published As

Publication number Publication date
CN105096307A (zh) 2015-11-25
US20150324659A1 (en) 2015-11-12
CN105096307B (zh) 2018-01-02
JP2015215877A (ja) 2015-12-03
US9195904B1 (en) 2015-11-24

Similar Documents

Publication Publication Date Title
JP6345147B2 (ja) ステレオ画像の対において物体を検出する方法
CN109034047B (zh) 一种车道线检测方法及装置
US9305206B2 (en) Method for enhancing depth maps
CN105512683B (zh) 基于卷积神经网络的目标定位方法及装置
Keller et al. A new benchmark for stereo-based pedestrian detection
Shao et al. Computer vision and machine learning with RGB-D sensors
WO2015161816A1 (en) Three-dimensional facial recognition method and system
CN105740780B (zh) 人脸活体检测的方法和装置
JP5771413B2 (ja) 姿勢推定装置、姿勢推定システム、および姿勢推定方法
KR101184097B1 (ko) 얼굴 정면포즈 판단 방법
US9639748B2 (en) Method for detecting persons using 1D depths and 2D texture
CN111480183B (zh) 用于产生透视效果的光场图像渲染方法和系统
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
CN113850865A (zh) 一种基于双目视觉的人体姿态定位方法、系统和存储介质
US11244475B2 (en) Determining a pose of an object in the surroundings of the object by means of multi-task learning
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
CN109919128B (zh) 控制指令的获取方法、装置及电子设备
EP2299388A2 (en) Apparatus and method for detecting face
KR20180025135A (ko) 단일 이미지를 사용한 내벽 구조 검출 장치 및 방법
CN114399731B (zh) 一种单粗点监督下的目标定位方法
Duanmu et al. A multi-view pedestrian tracking framework based on graph matching
Arunkumar et al. Estimation of vehicle distance based on feature points using monocular vision
JP2007257489A (ja) 画像処理装置および画像処理方法
Yousif et al. ROS2D: Image feature detector using rank order statistics

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180115

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180522

R150 Certificate of patent or registration of utility model

Ref document number: 6345147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250