JP2016029564A - 対象検出方法及び対象検出装置 - Google Patents

対象検出方法及び対象検出装置 Download PDF

Info

Publication number
JP2016029564A
JP2016029564A JP2015141707A JP2015141707A JP2016029564A JP 2016029564 A JP2016029564 A JP 2016029564A JP 2015141707 A JP2015141707 A JP 2015141707A JP 2015141707 A JP2015141707 A JP 2015141707A JP 2016029564 A JP2016029564 A JP 2016029564A
Authority
JP
Japan
Prior art keywords
map
target
parallax
detection target
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015141707A
Other languages
English (en)
Inventor
ガンメイ ユ
You Ganmei
ガンメイ ユ
リィウ ユアヌ
Yuan Liu
リィウ ユアヌ
ジョォンチャオ シ
Zhongchao Shi
ジョォンチャオ シ
ヤオジエ ルゥ
Yaojie Ruu
ヤオジエ ルゥ
ガン ワン
Gang Wang
ガン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2016029564A publication Critical patent/JP2016029564A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】視差画像に基づく対象検出方法と原画像に基づく対象検出方法との相互作用を利用して物体を正確に検出する対象検出方法を提供する。
【解決手段】現在のフレームの画像ペアにおいて対象を検出する。現在のフレームの画像ペアは、現在のフレームの原マップ及び対応する現在のフレームの視差マップを含み、原マップは、階調マップとカラーマップのうちの少なくとも1つを含む。現在のフレームの視差マップから検出した第1視差マップ検出対象を取得するステップS110と、現在のフレームの原マップから検出した原マップ検出対象を取得するステップS120と、原マップ検出対象に基づいて第1視差マップ検出対象を第2視差マップ検出対象に補正するステップS130と、第2視差マップ検出対象を出力するステップS140とを含む。
【選択図】図3

Description

本願は一般的にデジタル画像処理分野に関し、さらに具体的には対象検出方法及び対象検出装置に関する。
対象検出方法の応用は益々普及している。具体的には、コンピュータ視覚技術分野において、コンピュータが特定対象から提供されるキー情報を自動的に感知し、且ついくつかの高いレベルでの応用(例えば、対象の活動に対する識別やシーンの理解など)に基礎的なサービスを提供することができるため、対象に対する検出と追跡をすることはすでに活発な研究の課題になっている。例えば、運転手を助けて交通事故を防ぐように、運転補助システムに応用される路上車両検出方法は、車両の有無、距離、速度、位置などを有効に検出、または識別できる。
現在、主に下記のような2種類の対象検出方法がある。
一方、視差画像(または深度画像)によって物体を検出する数多くの対象検出方法がすでに開発されており、例えば、視差画像に基づいて歩行者、車両、フェンスなどを検出できる。視差マップに基づく対象検出方法は外部の要因の影響を受けにくいため、環境変化に対して非常にロバスト性を高めることができる。
ただし、場合によっては、カメラの機能の制限またはシーン自体の特性などの要因で、視差点が比較的希疎な視差マップのみが得られることがある。後文において、希疎視差マップと称する。ここで、希疎というのは、相対的な意味を持つ1つの用語で、その意味は、ただ少量の有効視差画素のみが残り、主として断続的に対象のエッジに現れることを指す。このような現象の発生原因は、いくつかのステレオマッチングアルゴリズムが強いテクスチャのみをマッチングし、または高い信頼度を有する点のみを採用することにある。このため、該種の希疎視差マップ効果で、物体(例えば歩行者、車両など)を検出すること、または完全に検出することが難しくなる可能性がある。
他方、原マップ(例えば階調マップとカラーマップ)に基づく対象検出方法が存在する。例えば階調情報またはカラー情報を豊富にすることにより各種の対象を検出できる。
しかしながら、このような対象検出方法においては、階調またはカラー特徴が通常、光照射変化などの環境要因からの影響を受けやすいため、同一の物体の異なる画像フレームにおける視覚特徴の変化によって検出対象のマッチングの失敗が発生する可能性が生じ、且つ最終的にある画像のフレームにおいて対象の消失をもたらしてしまう。
本発明の目的は、対象検出方法及び対象検出装置を提供することにある。
上述した技術的問題を解決するため、本願の1つの態様においては、現在のフレームの画像ペアにおいて対象を検出するための対象検出方法を提供し、前記現在のフレームの画像ペアは現在のフレームの原マップ及び対応する現在のフレームの視差マップを含み、前記原マップは階調マップとカラーマップのうちの少なくとも1つを含み、前記方法は、前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得するステップと、前記現在のフレームの原マップから検出した原マップ検出対象を取得するステップと、前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正するステップと、前記第2視差マップ検出対象を出力するステップと、を含む。
また本願のもう1つの態様においては、現在のフレームの画像ペアにおいて対象を検出するための対象検出装置を提供し、前記現在のフレームの画像ペアには現在のフレームの原マップ及び対応する現在のフレームの視差マップを含み、前記原マップは階調マップとカラーマップのうちの少なくとも1つを含み、前記装置は、前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得するための視差マップ対象取得ユニットと、前記現在のフレームの原マップから検出した原マップ検出対象を取得するための原マップ対象取得ユニットと、前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正するための視差マップ対象補正ユニットと、前記第2視差マップ検出対象を出力するための出力ユニットと、を含む。
従来の技術と比べると、本願の実施例における対象検出方法と装置を採用すれば、対象検出過程において、視差マップ検出方法と原マップ検出方法とを互いに共同させることができ、すなわち視差画像に基づく対象検出方法と原画像に基づく対象検出方法との間の相互作用を利用して物体を精確に検出する。
具体的には、本願の実施例において、原画像に基づく対象検出方法によって現在のフレームの原マップから検出した原マップ検出対象を使用して、視差画像に基づく対象検出方法によって現在のフレームの視差マップから検出した視差マップ検出対象に対して補正を行ってもよく、後続のフレームの視差マップにおいて、さらに正確な視差マップ検出対象を取得するため、履歴検出対象としての該補正結果を使用して視差マップ検出対象を続けて検出するようにしてもよい。
同様に、本願の実施例において、さらに視差画像に基づく対象検出方法によって現在のフレームの視差マップから検出した視差マップ検出対象を使用して、原画像に基づく対象検出方法において使用される所定検出パラメータに対して調整を行ってもよく、後続のフレームの原マップにおいて、さらに正確な原マップ検出対象を取得するため、現在のパラメータとして該調整結果を使用して原マップ検出対象を続けて検出するようにしてもよい。
このため、本願の実施例は、原画像に基づく対象検出方法が環境の変化に対してよりロバスト性を高めるばかりでなく、また視差画像に基づく対象検出方法が、視差の非常に希疎な場合においてもさらに正確になされうる。
本願におけるこれ以外の特徴と利点については後の明細書において説明し、且つその一部が明細書において自明なものとなり、または本願の実施を介して自明となる。本願の目的とこれ以外の利点は明細書、請求の範囲及び付属図面において特別に開示される構造によって実現し獲得される。
図は本願へのさらなる理解に供するためのものであり、且つ明細書の一部を構成して、本願の実施例と合わせて本願を説明することに用いられ、本願に対する制限とはならない。
両眼カメラが第Nフレーム、第N+1フレームにおいて取得した視差マップを示す図である。 両眼カメラが第Nフレーム、第N+1フレームにおいて取得した視差マップを示す図である。 視差画像に基づく対象検出方法における補填処理を示す図である。 両眼カメラが第Nフレーム、第N+1フレームにおいて取得した原マップを示す図である。 両眼カメラが第Nフレーム、第N+1フレームにおいて取得した原マップを示す図である。 本願の実施例による対象検出方法を示す全体フロー図である。 本願の実施例における具体的例示による画像捕捉システムを示す図である。 画像捕捉システムが第Nフレームにおいて取得した現在のフレームの画像ペアを示す図である。 画像捕捉システムが第Nフレームにおいて取得した現在のフレームの画像ペアを示す図である。 本願の実施例における具体的例示による対象検出方法のフロー図である。 本願の実施例における具体的例示による視差マップに基づく対象検出方法によって検出した現在の検出対象を示す図である 本願の実施例における具体的例示による、履歴対象テンプレートに用いられるエリア分割と原マップ候補対象に用いられるエリア分割を示す図である。 本願の実施例における具体的例示による、履歴対象テンプレートに用いられるエリア分割と原マップ候補対象に用いられるエリア分割を示す図である。 本願の具体的な実施例による階調マップ履歴対象テンプレートに基づく階調ヒストグラム図である。 本願の実施例における具体的例示による第Nフレームの原マップに基づく対象検出方法によって検出した現在の検出対象を示す図である。 本願の実施例における具体的例示による第1視差マップ検出対象と前記原マップ検出対象に基づくマッチングの判断処理を示す図である。 本願の実施例における具体的例示によるマッチングした階調マップ検出対象と視差マップ検出対象を示す図である。 本願の実施例における具体的例示による視差マップ検出対象によって階調マップ履歴対象テンプレートの重み係数を補正する処理を示す図である。 本願の実施例における具体的例示による第N+1フレームの原マップの対象検出方法によって検出した現在の検出対象を示す図である。 本願の実施例における具体的例示による階調マップ検出対象によって視差マップ検出対象を補正する処理を示す図である。 本願の実施例による対象検出装置の機能配置のブロック図である。 本願の実施例による対象検出システムの機能構造図である。 本願の実施例による対象を検出するためのハードウェアシステムの全体ハードウェアのブロック図である。 本願の実施例による対象を検出するためのハードウェアシステムのシステムシーケンス図である。
図面を参照しながら本願による各実施例を詳しく説明する。ここで、注意すべきなのは、図面において、基本的に同一、または類似の構造と機能を有する構成部分には同一の図面表記を付与し、且つそれらについての重複する説明は省略する。
さらに当業者に本願をよりよく理解してもらうため、
1、従来技術についての概要説明
2、本願の思想概要
3、対象検出方法
3.1、具体的な例示
4、対象検出装置
5、対象検出システム
6、対象検出を行うためのハードウェアシステム
という順で本願をさらに詳細に説明する。
1、従来技術についての概要説明
本願の実施例に対して説明を行う前に、理解しやすいように、まず従来技術による対象検出方法を簡単に紹介する。
背景技術において説明したように、通常の対象検出方法としては、現在主に視差画像に基づく対象検出方法と原画像に基づく対象検出方法が存在する。
以下で、まず図1Aから図1Cまでを参考にして従来技術による視差画像に基づく対象検出方法を説明する。
一般的に、視差画像はステレオマッチング法によって取得できる。ステレオマッチング方法の基本原理は、画像捕捉装置(例えばステレオカメラ)が撮影した2つの異なる視角下(二眼カメラの場合)、または複数の異なる視角下(多眼カメラの場合)で同一物体の画像に対して比較を行い、対応画素の探索を介して画像の画素点の間の位置偏差を計算して、視差情報を得て、且つ該視差情報に従って視差画像を描画する。
図1Aと図1Bは、二眼カメラで第Nフレーム、第N+1フレームにおいて各々得られた視差マップを示し、且つ図1Cは視差画像に基づく対象検出方法における補填処理を表示した。
図1Aと図1Bに示されたように、視差マップにおいて2つの車両があり、すなわち画面の右に偏っている位置、撮像機と比較的接近する位置に1つの車両があり、画面の中間位置、撮像機から比較的遠い位置に1つの車両がある。
カメラの機能の制限、シーン自体の特徴、またはステレオマッチングアルゴリズムの原理などの要因で、図1Aと図1Bに示されたような視差マップはただ少量の有効な視差画素のみを含む希疎な視差マップである。このような希疎な視差マップによって対象を検出する場合、視差マップにおいていくつかの目標対象の視差点があまりにも希疎なものであるため、検出できなくなるまたはただ部分のみが検出されることになる。
例として、以下で比較的遠い車両を検出待ち対象として視差画像に基づく対象検出方法を説明する。
仮に1つのテスト結果において、第N(そのうち、Nは正整数である)フレームにおける場合に、希疎な視差マップに基づく対象検出方法で、図1A左図において矩形エリアに示されるように目標対象を検出できるとする。そのうち、目標対象を囲む矩形枠が階調画像において検出した特定対象を示して、且つ該矩形枠の大きさが該特定対象の画素サイズも示した。さらに、図1A右側の部分拡大図に示されたように、第Nフレームにおいて、遠い車両の完全なエリアを相対的に検出した。しかしこのようになっても、第Nフレームの視差マップにおいて、遠い車両の希疎な視差点の大部分が左に偏っている位置に分布されるため、該対象の距離に対する計算が正確なものでない可能性がある。これによって、該対象の移動速度に対する計算にも誤差が発生し、且つさらに後続のフレームの視差マップにおいて誤った関心領域(ROI)の推定を引き起こす。
そこで、次に第Nフレームの後に継続する第N+1のフレームにおける対象検出処理において、上記要因の影響を受けて、希疎な視差マップに基づく対象検出方法は、図1B左図の矩形エリアに示されたように、検出待ち対象の中の一部のエリアのみを検出する可能性がある。図1Bと図1Aにおける左図を対比して見られるように、第N+1フレーム視差マップから検出した対象エリアは明らかに第Nフレームにおいて検出した対象エリアよりはるかに小さい。さらに、図1B右側の部分拡大図に示されたように、第N+1のフレームにおいて、遠い車両の左側エリアのみを検出し、すなわち関連した対象を完全に検出することができなかった。
この場合、たとえ希疎な視差マップに基づく対象検出方法において履歴検出結果に基づく補填処理を採用しても、例えば第Nフレーム視差マップにおける検出対象と第N+1フレーム視差マップにおける検出対象との間での重み付けの総計を第N+1フレームの最終検出結果としても、つまり図1Cに示されるように、その最終の検出結果は依然として全部の対象エリアを覆うことができない。
このため、このような希疎な視差マップ効果によって、希疎な視差マップに基づく対象検出方法は物体(例えば歩行者、車両など)を検出しにくい、または完全に検出できない恐れがある。
以下で、図2Aと図2Bを参照しながら従来技術による原画像に基づく対象検出方法を説明する。
例えば、原画像は、二眼カメラによって直接捕捉した階調画像、またはカラー画像であってもよく、感光ユニットの位置が異なることで各々左画像と右画像と称される。以下で提起される原マップが左画像と右画像のうちの如何なる1つを指してもよく、且つ1つの実施例において、視差マップを生成するために基づいた該1つの原画像を指してもよい。
図2Aと図2Bは、二眼カメラで第Nフレーム、第N+1フレームにおいて各々得られた原マップを各々示した。
例えば、図2Aと図2Bに示された原マップは階調マップであってもよく、それらは各々図1Aと図1Bに示された視差マップと対応する。ここで簡単に説明するために、仮に図2Aと図2Bに示されたものは、二眼カメラで左視角において撮影した左画像とする。
便宜を図るため、以下に例として同様に比較的遠い車両を検出待ち対象として、原マップに基づく対象検出方法を説明する。
通常、原マップに基づく対象検出方法は対象テンプレートのマッチングに基づいて実現できる。例えば、仮に対象テンプレートが図2A右側の部分拡大図と完全に同一であるとする。そうすると、1つのテスト結果において、第Nフレームにある場合に、階調マップにおける検出待ち対象のエリアが対象テンプレートと完全にマッチングするゆえに、階調マップに基づく対象検出方法は、図2A左図の矩形エリアに示されるように、遠い車両の完全なエリアを非常に簡単に検出することができる。このうち、同様に目標対象を囲む矩形枠が原画像において検出した特定対象を示して、且つ該矩形枠の大きさが該特定対象の画素サイズも示した。
続いて、次に第Nフレームの後に継続する第N+1のフレームにおける対象検出処理において、図1B右側の部分拡大図に示されたように、例えば光照射要因などの環境からの影響を受けて、該遠い車両の右側部分に輝度増強が明らかに発生する。そうすると、検出待ち対象の階調特徴が光照射要因からの影響を受けて比較的大きく変化したため、階調マップにおいて検出待ち対象のエリアと対象テンプレートとのマッチングが正常に行われず、且つ結局第N+1のフレームにおいて対象の消失をもたらす。図2B左図に示されたように、中に特定対象の表示に用いられる矩形エリアを標記することができない。
視差画像に基づく対象検出方法にしろ、原マップに基づく対象検出方法にしろ、その取得した検出結果は明らかに満足できるものではなかった。
2、本願の思想概要
以下でまず本願の思想概要を簡単に説明する。
従来技術における技術的な問題を解決するため、本願において対象検出方法と対象検出装置を提供し、該方法と装置は、対象検出過程において、視差マップ検出方法と原マップ検出方法とを互いに共同させることができ、すなわち視差画像に基づく対象検出方法と原画像に基づく対象検出方法との間の相互作用を利用して物体を精確に検出する。
3、対象検出方法
下の文章において、図3を参照しながら本願の実施例による対象検出方法の全体フローを例として説明する。
図3は本願の実施例における対象検出方法を示す全体フロー図である。
図3に示されるように、該対象検出方法は現在のフレームの画像ペアにおいて対象を検出することに用いられる。前記現在のフレームの画像ペアは現在のフレームの原マップ及び対応する現在のフレームの視差マップを含み、前記原マップは階調マップとカラーマップのうちの少なくとも1つを含み、且つ該前記対象検出方法は、下記のステップを含んでもよい。
ステップS110において、前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得する。
例えば、該ステップS110は視差画像に基づく対象検出方法と対応できる。
1つの実施例において、該ステップS110は、履歴フレーム視差マップからの履歴検出対象を取得するステップと、前記履歴検出対象に基づき、前記現在のフレームの視差マップにおいて履歴検出対象と対応する現在の推定対象を推定するステップと、前記現在のフレームの視差マップにおいて複数の視差マップ候補対象を確定するステップと、各視差マップ候補対象と前記現在の推定対象との間のマッチング度を各々確定するステップと、また最大のマッチング度を有する視差マップ候補対象を前記第1視差マップ検出対象に確定するステップとを含んでもよい。
1つの例示において、履歴検出対象の位置とサイズに基づき、前記現在のフレームの視差マップにおいて履歴検出対象と対応する現在の推定対象の位置とサイズを推定することができる。
1つの例示において、視差マップ候補対象と現在の推定対象との、水平面における重複領域に基づいて、両者の間でのマッチング度を確定することができる。
具体的には、各視差マップ候補対象と前記現在の推定対象との間でのマッチング度を各々確定するステップは、各視差マップ候補対象と現在の推定対象との、水平面における重複領域を各々計算することを含んでもよい。もし視差マップ候補対象のうちの1つと現在の推定対象との、水平面における重複領域が最大になった場合、該視差マップ候補対象と前記現在の推定対象との間でのマッチング度を最大と確定し、且つ最大のマッチング度を有する視差マップ候補対象を前記第1視差マップ検出対象に確定することを含んでもよい。
この時、各視差マップ候補対象と前記現在の推定対象との、水平面における重複領域を各々計算することは、各対象の幅と深度のみを考慮し、対象の高さを無視することを意味することになる。
1つの例示において、さらに、視差マップ候補対象のうちの1つと現在の推定対象との、水平面における重複領域が最大になり、且つ1つの所定閾値より大きく、または等しくなった場合のみ、該視差マップ候補対象を前記第1視差マップ検出対象に確定する。
もし各視差マップ候補対象と現在の推定対象との、前記水平面における重複領域がすべて所定閾値より小さくなった場合、現在のフレームの視差マップにおいて現在の推定対象とマッチングする視差マップ候補対象を探索できなかったと見なし、且つそれにより、現在の視差マップにおいて該第1視差マップ検出対象を検出しなかったと確定する。
換言すれば、重複領域によって現在のフレームの視差マップにおいて現在の推定対象とマッチングする視差マップ候補対象を探索することができなかった場合には、さらにマッチングしていない各視差マップ候補対象と前記現在の推定対象との間の距離を計算することができる。もし視差マップ候補対象のうちの1つと現在の推定対象との間の距離が最小になり、且つ1つの所定閾値より小さく、または等しくなった場合、該視差マップ候補対象は前記現在の推定対象との間でのマッチング度が最大と確定でき、且つ最大のマッチング度を有する視差マップ候補対象を前記第1視差マップ検出対象に確定する。
これ以外に、もし2つ以上の視差マップ候補対象と現在の推定対象との、水平面における重複領域が同時に最大になる場合、前記2つ以上の視差マップ候補対象と現在の推定対象との、深度面における重複領域を計算する。もし2つ以上の視差マップ候補対象のうちの1つと現在の推定対象との、深度面における重複領域が最大になった場合、該視差マップ候補対象は前記現在の推定対象との間でのマッチング度が最大と確定される。
この時、各視差マップ候補対象と前記現在の推定対象との、深度面における重複領域を各々計算することは、各対象の幅と深度のみを考慮し、対象の高さを無視することを意味することになる。
ステップS120において、前記現在のフレームの原マップから検出した原マップ検出対象を取得する。
例えば、該ステップS120は原画像に基づく対象検出方法と対応させることができる。
1つの実施例において、該ステップS120はステップS110の先験的情報に基づいて実現でき、且つ、例えば前記現在のフレームの原マップにおいて前記現在の推定対象の所定範囲の中に検出した原マップ検出対象を取得することを含んでもよい。換言すれば、該ステップS120は同様に如何なる先験的情報がなかった場合にも単独で原画像において実行されてもよい。
1つの実施例において、該ステップS120は、履歴対象テンプレートと前記履歴対象テンプレートに用いられる履歴重み係数を取得するステップと、このうち、前記履歴対象テンプレートが複数のエリアに分割され、且つ前記複数のエリアに各々前記履歴重み係数が割り当てられており、前記履歴対象テンプレートに基づき、前記原マップにおいて複数の原マップ候補対象を確定するステップと、前記複数のエリアと前記履歴重み係数に基づいて、各原マップ候補対象と前記歴史対象テンプレートとの間の重み付け相似性を各々計算するステップと、及び最大の重み付け相似性を有する原マップ候補対象を前記原マップ検出対象として確定するステップとを含んでもよい。
1つの例示において、前記複数のエリアと前記履歴重み係数に基づき、各原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性を各々計算することは、各原マップ候補対象に対して、前記履歴対象テンプレートにおける前記複数のエリアを分割する方式に基づいて前記原マップ候補対象を複数のエリアに分割するステップと、原マップ候補対象における各エリアと、対応する前記履歴対象テンプレートにおける各エリアとの間の相似性を計算するステップと、前記履歴重み係数を使用して計算される各相似性に重み付けを行うステップと、前記原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性とするように、重み付けを行ったすべての相似性を合計するステップと、を含んでもよい。
これ以外に、1つの例示において、原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性が最大になり、且つ1つの所定閾値より大きく、または等しくなった場合のみ、該原マップ候補対象を前記原マップ検出対象として確定する。
ステップS130において、前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正する。
1つの実施例において、該ステップS130は、前記原マップ検出対象に基づき、前記現在のフレームの視差マップにおいて現在の補正エリアを確定するステップと、及び少なくとも前記現在の補正エリアに含まれる視差点の集合に基づいて、前記第2視差マップ検出対象を生成するステップと、を含んでもよい。
1つの例示において、前記現在の補正エリアに含まれる視差点の集合は、前記現在の補正エリアにおいて前記第1視差マップ検出対象の所定距離内での視差点の集合のみが含まれてもよい。
ステップS140において、前記第2視差マップ検出対象を出力する。
これ以外に、ステップS120の後、1つの実施例において、該対象検出方法はさらに下記の追加ステップ、つまり前記第1視差マップ検出対象に基づいて、前記履歴重み係数を現在の重み係数に調整し、そのうち、後続のフレームの原マップにおいて、前記現在の重み係数を前記履歴重み係数とするステップを含んでもよい。
1つの例示において、前記第1視差マップ検出対象に基づいて、前記履歴重み係数を現在の重み係数に調整するステップは、前記第1視差マップ検出対象の、前記原マップ検出対象において分割される複数のエリアにおける視差点分布を確定するステップと、前記複数のエリアにおける視差点分布に基づいて前記履歴重み係数を調整することを介して、各エリアに用いられる現在の重み係数を生成するステップと、を含んでもよい。
具体的には、各エリアに割り当てられる現在の重み係数はそれ自体に含まれる視差点の数量と正比例になることができ、または、各エリアに割り当てられる現在の重み係数はそれ自体に含まれる視差点の密度と正比例になることができる。
これ以外に、上記追加ステップとステップS130の前に、1つの実施例において、該対象検出方法はさらに、前記第1視差マップ検出対象と前記原マップ検出対象とがマッチングするか否かを判断するステップを含んでもよい。
1つの例示において、前記第1視差マップ検出対象と前記原マップ検出対象とがマッチングするか否かを判断するステップは、前記第1視差マップ検出対象と前記原マップ検出対象との重複領域が所定閾値より大きい、または等しいか否かを判断し、大きいまたは等しい場合に両者がマッチングすると判断するステップを含んでもよい。
換言すれば、もう1つの例示において、前記第1視差マップ検出対象と前記原マップ検出対象とがマッチングするか否かを判断するステップは、前記第1視差マップ検出対象と前記原マップ検出対象との間の距離が所定閾値より小さい、または等しいか否かを判断し、小さいまたは等しい場合に両者がマッチングすると判断するステップを含んでもよい。
これによって分かるように、本願の実施例から提供した対象検出方法は、対象検出過程において、視差マップ検出方法と原マップ検出方法とを互いに共同させることができ、すなわち視差画像に基づく対象検出方法と原画像に基づく対象検出方法との間の相互作用を利用して物体を精確に検出する。
具体的には、本願の実施例において、原画像に基づく対象検出方法によって現在のフレームの原マップから検出した原マップ検出対象を使用して、視差画像に基づく対象検出方法を使用して現在のフレームの視差マップから検出した視差マップ検出対象に対して補正を行ってもよく、後続の視差マップにおいて、さらに正確な視差マップ検出対象を取得するため、履歴検出対象としての該補正結果を使用して視差マップ検出対象を続けて検出することができる。
同様に、本願の実施例において、さらに視差画像に基づく対象検出方法によって現在フレームの視差マップから検出した視差マップ検出対象を使用して、原画像に基づく対象検出方法において使用される所定検出パラメータに対して調整を行ってもよく、後続の原マップにおいて、さらに正確な原マップ検出対象を取得するため、現在のパラメータとしての該調整結果を使用して原マップ検出対象を続けて検出することもできる。
そのため、本願の実施例は、原画像に基づく対象検出方法が環境の変化に対しロバスト性を高めるばかりではなく、また視差画像に基づく対象検出方法が、視差の非常に希疎な場合においてもさらに正確になされうる。
3.1、具体的な例示
下の文章において、図4〜図15を参照しながら本願の実施例における具体的な例示による対象検出方法の全体フローを説明する。
本願の実施例における具体的な例示による対象検出方法は、現在のフレームの多視角の原画像及び対応する現在のフレームの視差画像を使用して、検出待ち対象を検出することに用いられる。例えば、該現在のフレームの多視角の原画像及び対応する現在のフレームの視差画像を1つの現在のフレームの画像ペアと称してもよい。説明しやすくするため、仮に該現在のフレームが画像シーケンスにおける第Nフレームであり、そのNは正整数であるとする。
一般的に、該多視角の原画像は画像捕捉装置(例えば、ステレオカメラ)によって撮影した複数の異なる視角下での同一物体の原画像を指してもよい。明らかに、該複数の異なる視角が2つ以上の視角を含み、且つ撮影された画像が異なる位置座標に位置される一連の画像点によって構成されてもよく、該原画像における各画像点は同一、または異なる画像値を有してもよい。例えば、該画像は階調図であってもよく、そのうち各画像点は階調値(1つの成分)によって表示される。換言すれば、該画像はカラー画像であってもよく、そのうち各画像点はカラー値(例えばRGB3つの成分)によって表示される。
以下で、説明しやすくするため、同一物体に対して二眼カメラを介して左右の視角にて撮影された二眼階調画像を該多眼画像の例示として説明を行うこととする。例えば該二眼画像の集合が、二眼カメラの左側視角にて撮影された左画像と二眼カメラの右側視角にて撮影された右画像が含まれる1つの原画像ペアであってもよい。
これ以外に、該視差画像は、二眼測距原理に基づいて、固定されたカメラを利用して捕捉したものであってもよい。明らかなのは、従来の視差マップを取得するいかなる方法もすべて本願に用いられる。例えば、該視差画像は、専用の視差カメラによって直接撮影して作成してもよい。換言すれば、二眼カメラ、多眼カメラ、ステレオカメラによって階調マップ(またはカラーマップ)を撮影し、且つその後前記階調マップに基づいて対応する視差マップを計算して得てもよい。具体的には、例えば、検出対象(または目標と称す)が道路における対象、例えば車両または歩行者である場合、車載の二眼カメラによって左画像と右画像を撮影してもよい。そのうち左画像(または右画像)をここでの階調マップとし、且つ左画像と右画像との間での差異に基づいてここでの視差マップを計算して得、且つ左画像(または右画像)に基づいて該当視差マップを描画する。
図4は本願の実施例における具体的な例示による画像捕捉システムを示し、且つ図5Aと図5Bは該画像捕捉システムが第Nフレームで得られた現在のフレームの画像ペアを各々示した。
ここで、1つの実施例において、例えば現地車両に位置するカメラを介して階調マップと視差マップの取得を実現してもよい。図4に示されるように、例えば車両走行中の左画像と右画像の撮影が容易となるように、車両に二眼カメラを装着する。続いて、専用または汎用のプロセッサ(例えばマイクロプロセッサ)を使用して撮影された左画像と右画像の中から視差マップを生成してもよい。ここで、撮影された左画像と右画像の中から視差マップを生成することは、当業者にとって自明なものであるため、詳述しない。そうすると、所定の間隔時間(例えば25フレーム/秒の場合に間隔1/25秒で)によってこのような撮影を行うことができ、生成される2つまたはさらに多くの視差マップをプロセッサに入力し、道路における歩行者または車両などの対象の、該所定時間(例えば1/25秒で)の期間における追跡マッチング関係の確定を行い、すなわち道路における歩行者または車両などの対象を、該所定時間(例えば1/25秒で)の後で依然として検出できるか否かを確定する。
図5Aは該二眼カメラを介して取得した階調マップを示し、そのうち左画像をここでの階調マップとし、且つ図5Bにおいて左画像と右画像との差異に基づいて計算し、且つ左画像に基づいて描画された視差マップを示した。
または、別の実施例において、例えばワイヤードネットワークまたはワイヤレスネットワークを利用してリモート車両に位置するカメラから階調マップと対応する視差マップを取得してもよい。
ここで明らかに、画像の撮影装置(例えばカメラ)は必ずしも車両に装着しなくてもよい。例えば、必要に応じて道路側の建物に、または検出待ち対象を撮影しやすい位置などにも装着できる。それ以外に、車両での本願の対象検出方法とシステムの応用はただ1つの例示に過ぎず、実際の需要によって、例えば交通監視、ロボット視覚誘導、工業製品検出、医療診断、仮想現実などに、さらにはそれ以外の物体に対しても、対象検出、追跡、位置決めの目的を達成するように、本願の対象検出方法とシステムは応用される。
図6は、本願の実施例における具体的な例示による対象検出方法のフロー図である。
図6に示されるように、該対象検出方法は下記のことを含んでもよい。
ステップS210において、現在のフレームの視差マップから検出した第1視差マップ検出対象を取得する。
1つの実施例において、現在のフレームの視差マップで、U−視差マップでのクラスタリング手法を採用して、異なる対象はその深度情報も異なるという原理に基づいて直接第1視差マップ検出対象を取得する。このうち、U−視差マップは水平面の、上から下に向けて見る際の各対象の形態を意味する。且つこのようなU−視差マップはただ上から下に向けて見た対象の形態を考慮するだけであるため、二眼カメラの上、下方向の偏移による誤差を適宜に除去できる。
他の実施例において、計算量を減少するために、まず履歴フレーム視差マップからの履歴検出対象を取得してもよく、且つ履歴検出対象に基づいて現在のフレーム視差マップにおいて1つの対象の関心領域(ROI)を予測し、その後対象の関心領域において、第1視差マップ検出対象を出力するようにさらに対象を検出する。
具体的には、まず履歴フレーム視差マップ(例えば第N−1フレーム視差マップ)を処理するプロセスにおいて、履歴フレーム視差マップにおける1つ、または複数の履歴検出対象を検出してもよく、且つ各履歴検出対象の位置を確定してもよい。例えば、ある1つの履歴検出対象の位置を履歴検出対象の視差点の集合におけるある視差点、例えば中心視差点、中心視差点とエッジ視差点などを構成する位置として確定してもよい。
次に、現在のフレーム視差マップ(例えば第Nフレーム視差マップ)を処理するプロセスにおいて、各履歴検出対象の位置を取得してもよい。且つ各履歴検出対象の位置を履歴フレーム視差マップにおける第1所定参考点の座標に基づく各履歴検出相対位置に転換し、且つ各履歴検出相対位置と各履歴検出対象の所定運動方向及び所定運動速度に基づき、現在のフレーム視差マップにおいて各履歴検出対象と対応する各現在の推定対象の所定位置(すなわち対象の関心領域ROI)を予め推定する。
換言すれば、もし第N−1フレームにおける各対象の運動方向及び運動速度を確定すると、第N−1フレームと第Nフレームとの間の隔てられた時間間隔△tによって、各対象のX、Y、Z方向上の各自の移動距離(△X、△Y、△Z)を推測計算できる。そのうち、該△X、△Y、△Zのうちのいずれか1つ(例えば△X)がプラス値とすれば、対象のX軸上の運動方向はX軸のプラス方向であることと対応し、またマイナス値とすれば、対象のX軸上の運動方向はX軸のマイナス方向であることと対応する。それらの各対象の運動方向及び運動速度を予め設定し、また周知の公式によって計算、予測などをしてもよく、ここでは詳述しない。例えば、下の式(1)では現在の推定対象の所定推定位置についての計算方法を例示した。
Figure 2016029564
このうち、Xは第Nフレームにおいて現在の推定対象の所定推定位置のX座標であり、XN−1は第N−1フレームにおいて履歴検出対象の検出位置のX座標であり、△Xは対象の検出位置が第N−1フレームから第Nフレームに変化する時のX方向における移動距離であり、Vは対象の検出位置が第N−1フレームから第Nフレームに変化する時のX方向における移動速度であり、△tは第N−1フレームと第Nフレームとの間の時間間隔(すなわち:タイムスロット)である。YとZの関係変量は同一であるという含意を有し、且つそのためにここでは詳述を略す。
続いて、クラスタリング手法などの方法によって、現在のフレーム視差マップにおける1つ、または複数の視差マップ候補対象を検出し、且つ各視差マップ候補対象の位置を取得する。続いて、各視差マップ候補対象の位置を現在のフレーム視差マップにおける第2所定参考点の座標に基づく各現在の検出位置に転換する。最後に、各現在の推定対象の所定推定位置及び前記各視差マップ候補対象の現在の検出相対位置に基づいて、各現在の推定対象が対応する各履歴検出対象と各視差マップ候補対象との間での検出マッチング度を確定し、且つ最大のマッチング度を有する視差マップ候補対象を前記第1視差マップ候補対象に確定する。
上記第1視差マップにおける第1所定参考点と第2視差マップにおける第2所定参考点とは互いに関連し、且つ同一の物理的含意を指してもよい。例えば、該第1所定参考点と第2所定参考点が道路の消失点であってもよいが、ただしこれに限られず、またさらにこれ以外に同一の物理的含意を有する点、例えば太陽光の照射点などであってもよい。
履歴フレーム視差マップからの履歴検出対象(または履歴追跡対象)を採用して現在のフレーム視差マップにおける検出対象とマッチングする方法は、同一の出願人が2012年6月8日に中国特許庁に提出した出願号201210188661.2である「視差マップにおける対象追跡方法とシステム」と題した特許出願に見られる。ここで、これらの文献を引用する。無論、当業者がさらにこれ以外に、または将来出現可能な視差マップに基づく対象検出方法によって、現在のフレーム視差マップにおける現在の検出対象(すなわち第1視差マップ検出対象)を確定してもよい。
図7は、本願の実施例における具体的な例示による視差マップに基づく対象検出方法によって検出した現在の検出対象を示す。
図7に示されるように、現在のフレーム視差マップにおいて、全部で2つの対象を検出したが、それは後の使用に用いられる視差マップ検出対象1と視差マップ検出対象2である。
以下で、説明しやすくするため、同様に比較的遠い車両(すなわち視差マップ検出対象1)を検出待ち対象として本願の実施例の具体的な例示に基づく対象検出方法を説明する。
ステップS220において、現在のフレーム原マップから検出した原マップ検出対象を取得する。
1つの実施例において、検出漏れの可能性を防ぐため、現在のフレーム原マップの全エリアにおいて原マップ検出対象を検出してもよいが、そうすると、比較的大きな計算量が発生することを意味する。
換言すれば、他の1つの実施例において、計算量を減少させるため、まずステップS210において確定された対象関心領域(ROI)を取得してもよく、且つその後、該現在のフレーム原マップにおける該対象関心領域においてさらに原マップ検出対象を検出してもよい。
説明が必要なのは、該対象関心領域は現在のフレーム視差マップにおいて確定されるものであるが、本具体的な例示において、仮に該現在のフレーム視差マップが現在のフレーム原マップ(例えば左画像)に基づいて描画したものであるとすると、両者の間には同一の座標系を有する。これ以外にたとえ該現在のフレーム原マップが左画像でなくて、右画像であっても、左画像と右画像との間に既知の位置偏移を有するため、該対象関心領域を該右画像に正確にマッピングしてもよく、やはり右画像においても該ROIに基づいて対象検出ステップを完成させることができる。
以下で、重み付けした階調マップ履歴対象テンプレートのマッチング方法によって原マップ検出対象を検出する。しかし、本願はこれに限られず、原マップにおいて対象を検出できる他のいかなる方法もすべて本願の実施例に用いられる。
まず、検出待ち対象としての比較的遠い車両に対し、履歴対象テンプレートを取得する。
例えば、該履歴対象テンプレートは、原マップにおける対象検出を実行し始める前に、予め設定した1つの初期対象テンプレートであってもよい。換言すれば、現在の第Nフレームの前の第N−1フレームにおいて取得した原マップ検出対象を該履歴対象テンプレートとしてもよい。
次に、現在のフレーム原マップの対象関心領域において、履歴対象テンプレートの長さと横幅によって1行、または1列ずつ追って、それらと同一の形状とサイズを有する複数の原マップ候補対象を確定するようにスキャンを行い、且つ前記複数の原マップ候補対象と履歴対象テンプレートとの重み付け相似性を判断してもよい。
重み付け相似性を確定するため、まず、履歴対象テンプレートに対して所定図案の分割を行う必要がある。
例えば、1つの履歴対象テンプレート(該対象の階調テンプレートと称してもよい)をM(Mは正整数で)個の垂直ブロックに分割してもよい。ここで、各物体の垂直ブロックは視覚的特徴において相対的に安定しているため、垂直ブロックを採用してもよい。しかし、本願はこれに限られない。同様に、1つの履歴対象テンプレートをM個の水平ブロック、M行×L列の矩形ブロック、またはこれ以外の如何なる図案に分割してもよい。
分割して得られたM個の垂直ブロックにおいて、各ブロックに1つの重みwを割り当ててもよい。明らかであるのは、各重みの総計を1とし、すなわち
(外1)
Figure 2016029564
且つ、初期にはすべてのブロックの重みがみな同一であると仮定し、すなわちW=W=……=W
その後、同一の分割方法によって各原マップ候補対象に対してエリア分割を行い、該原マップ候補対象における各エリアを前記履歴対象テンプレートにおける各エリアに唯一対応させてもよい。
図8Aと図8Bは、本願の実施例における具体的例示に基づく、履歴対象テンプレートに用いられるエリア分割と原マップ候補対象に用いられるエリア分割を各々示す。
図8Aにおいて、該対象の階調テンプレートは垂直に5つのブロックに分割されて、各ブロックは自己の重みを有する。同様に、図8Aにおいて、ある原マップ候補対象は同じく垂直に5つのブロックに分割される。
次に、履歴の第N−1フレームの後に計算された該階調テンプレートに用いられる重み値を取得してもよい。ここで説明しやすくするため、履歴の第N−1フレームの後、各垂直ブロックの重みwは依然として初期重みに等しいと仮定する。つまり、W=W=W=W=W=1/5。
履歴対象テンプレートのためのエリア分割、原マップ候補対象のためのエリア分割、及び各エリアの重み値を確定した後、履歴対象テンプレートとある1つの原マップ候補対象(R)の重み付け相似性を計算してもよい。例えば、式(2)によって該種の重み付け相似性を計算してもよい。
対象の重み付け相似性は、
Figure 2016029564
このうち、Wは第i分割ブロックの重みであり、Siは階調マップテンプレートにおける第i分割ブロックと階調マップエリアregionの第i分割ブロック間のブロック相似性である。
1つの実施例において、Sは履歴対象テンプレートとある1つの原マップ候補対象の2つの対応ブロックの階調ヒストグラムに基づいて計算できるものであり、以下で、履歴対象テンプレートとある1つの原マップ候補対象Rの分割ブロック1を例として具体的な説明を行う。
まず、対象階調テンプレート分割ブロック1において各階調レベル([0、255)の画像点の個数量を計算してもよい。例えば、これは該分割ブロック1の階調ヒストグラムを確定することにより確定できるものである。
図9は、本願の具体的な実施例による階調マップ履歴対象テンプレートに基づく階調ヒストグラムを示す。
図9に示されるように、水平軸が階調レベル([0、255)であり、縦軸は各階調レベルが対応する画素数である。
それから、同一の方式で原マップ候補対象エリアRにおける第1の分割ブロック(分割ブロック1)のヒストグラムを取得してもよい。
続いて、式(3)によって、履歴対象テンプレートとある1つの原マップ候補対象Rにおける第1の分割ブロックとの相似性Sを計算してもよい。
Figure 2016029564
このうち、N_blockは階調テンプレートにおけるブロック1の、階調レベルがjになる際の画素数であり、且つN_regionは原マップ候補対象エリアtにおけるブロック1の、階調レベルがjになる際の画素数である。
このようにして、階調テンプレートとある1つの原マップ候補対象Rにおける分割ブロック1との間の相似性Sを計算することができる。
同様に、同じ方式で、上記の3つのステップを繰り返して、階調テンプレートとある1つの原マップ候補対象Rにおける分割ブロック2、3、4、5との間の相似性S、S、S及びSを各々計算することができる。
上記のすべての分割ブロックの間の相似性を取得してから、最後に、上記の式(2)に基づいて、履歴対象テンプレートとある1つの原マップ候補対象(R)との間の重み付け相似値を確定することができる。
このように、各原マップ候補対象に照準を合わせ同一のステップを繰り返すことによって、履歴対象テンプレートと各原マップ候補対象との間の重み付け相似値を各々確定することができる。
次に、各原マップ候補対象と対応する重み付け相似性を比較することによって、そのうちの最大値max(Object similarity score(region))を導出し、且つ該最大の重み付け相似性が1つの所定設定閾値T1より大きいか否かを判断し、例えば該所定設定閾値T1は従来の経験値により設定でき、または人為的に設定することができる。もし該最大の重み付け相似性max(Object similarity score(region))が1つの所定設定閾値T1より大きい場合、それと対応する原マップ候補対象は現在の検出対象(すなわち原マップ検出対象)であると判断する。換言すると、この場合において該比較的遠い車両がNフレームの原マップの中に発見される。
図10は、本願の実施例における具体的例示による第Nフレームの原マップに基づく対象検出方法によって検出した現在の検出対象を示す。
図10に示されるように、すでに比較的遠い車両の履歴階調テンプレートに基づいて現在のフレームの原マップにおいて該比較的遠い車両を検出した。
ステップS230において、第1視差マップ検出対象と原マップ検出対象とをマッチングする。
視差マップ検出結果と原マップ検出結果に対して相互に補正する前に、1つの実施例において、お互いに対応していない第1視差マップ検出対象と原マップ検出対象を使用して相互補正を行い、誤った補正結果を生成することを防ぐように、まず両者の間のマッチング度を判断してもよい。明らかに詳述を必要としないが、計算量を省くため、視差マップと原マップにおいてただ1つだけ検出待ちの対象がある場合にこのマッチングステップを省略することもできる。
例えば、前記第1視差マップ検出対象と原マップ検出対象の重複領域に基づいて両者がマッチングするか否かを判断できる。
このため、直接マッピングまたは座標転換によって第1視差マップ検出対象と原マップ検出対象を同一の座標系に置くことができる。続いて、第1視差マップ検出対象と原マップ検出対象との間のエリア重複率を計算でき、もし該エリア重複率が所定設定閾値T2より大きくなる場合、両者の間はよくマッチングすると見なす。同様に、該所定設定閾値T2はテストにおいて得られ、または人為的に設定してもよい。
図11は、本願の実施例における具体的な例示による第1視差マップ検出対象と前記原マップ検出対象に基づくマッチングの判断処理を示す。
図11に示されるように、階調マップ検出対象gobjと視差マップ検出対象は同一の座標系において重複エリアがあり、且つ1つの例示において、式(4)によって両者の間の重複エリア率を定義することができる。
Figure 2016029564
このうち、gobjの領域は階調マップ検出対象の対象領域(または画素領域)であり、dobjの領域は視差マップ検出対象の対象領域(または画素領域)であり、且つ対象領域=対象の画素数の高さ*対象の画素数の幅、gobjとdobjとの間の重複領域=重複エリアの画素数の高さ*重複エリアの画素数の幅、である。
もし計算の結果重複エリア率が所定設定閾値T2より大きくなると示された場合、階調マップ検出対象gobjは視差マップ検出対象に相似すると判断できる。
図12は、本願の実施例における具体的な例示によるマッチングした階調マップ検出対象と視差マップ検出対象を示す。
ステップS240において、第1視差マップ検出対象に基づいて履歴原マップ対象テンプレートの重み係数を調整する。
すでにマッチングした階調マップ検出対象と視差マップ検出対象を取得したため、両者の間は同一の位置とサイズを備えると見なしてもよい。そのため、後続の階調マップにおける階調マップ対象の検出に用いられるように、現在のフレーム視差マップにおける視差マップ検出対象に基づいて現在のフレーム階調マップにおける階調テンプレートの各分割ブロックの重みを補正することができる。
1つの例示において、式(5)を採用して階調テンプレートにおける分割ブロックiの重みWiを補正できる。
Figure 2016029564
このうち、W′は補正後の階調テンプレートブロックiの重みであり、Wは補正前の階調テンプレートブロックiの重みであり、nは階調マップ検出対象ブロックiにおける検出対象の画素数であり、且つΣ1≦k≦Mは階調マップ検出対象上におけるすべての視差マップ検出対象の総計画素数であり、kは階調テンプレートにおけるブロックkを指示することに用いられる。
自明なのは、該式(5)は階調テンプレートにおけるある分割ブロックにいて画素数が多ければ多いほど、該分割ブロックの重みが増し、つまり、その信頼度はより高くなる。
図13は、本願の実施例における具体的例示による視差マップ検出対象に基づいて階調マップ履歴対象テンプレートの重み係数を補正する処理を示す。
図13に示されるように、第Nフレームの視差マップ検出対象において、分割ブロック1における視差点がもっとも多く、分割ブロック2における視差点がやや多く、分割ブロック3〜5における視差点がほとんどゼロに近くなるのが見られる。このようなことは自明のことであり、仮に補正前の階調テンプレートブロックiの重みWの大きさの関係がW=W=W=W=Wであるとすると、補正後の階調テンプレートブロックiの重みW′の大きさの関係はW′>W′>W′=W′=W′のようになる。
現在の第Nフレームにおいて階調テンプレートの各分割ブロックの重み値に対して補正を行った後、該補正した後の重み係数を新たな履歴重み係数として、後続の第N+1フレーム原マップにおいて検出待ちの対象を検出するステップにおいて用いられてもよい。
続いて、その後の第N+1フレーム階調マップにおいて、新たな重み係数を採用し、且つ上記のステップS220を実行することによって新たな階調マップ検出対象を検出してもよい。
仮に二眼カメラが第N+1フレームにおいて得られる階調マップとするとそれは図2Bに示された階調マップである。図2B右側の部分拡大図と図8Bに示される部分拡大図とを比較することにより分かるのは、第Nフレームと比べると、第N+1フレームにおいて、光照射要因などの環境からの影響を受けて、該遠い車両の右側部分に輝度増加が明らかに発生する。
図2Aと図2Bに記述したように、この場合、もし従来技術によって原画像に基づく対象検出方法を採用すれば、対象テンプレートに対する重み係数の割り当てと後続の補正プロセスがないため、階調マップにおける検出待ちの対象のエリアと対象テンプレートとの間でのマッチング度max(Object similarity score(regionR))<T1になり、つまり、たとえもっともマッチングしうる原マップ候補対象だとしても、マッチング度における閾値の要求を満たせず、最終的には両者が相似ではないと判断してしまうため、該原マップ候補対象が第N+1フレームの階調マップにおいて新たな対象であると誤って判断されて、結局第N+1個の画像フレームにおける追跡対象の消失をもたらす。
逆に、本願の実施例による対象検出方法を採用すると、第N+1フレームの階調マップにおいて、第Nフレームにて補正した重み係数を採用してさらに正確に対象検出を行うことができる。
図14は、本願の実施例における具体的例示による第N+1フレームの原マップの対象検出方法に基づいて検出した現在検出対象を示す。
図14に示されるように、補正した重み係数を採用して第N+1フレームの原マップにおいて上述したステップS220を実行することができる。第N+1フレームにおいて、max(Object similarity score(region)=Σ1≦i≦MW′*Sで、且つΣ1≦i≦M*Sではなかったため、対応するΣW′*S>所定設定閾値T1を得られるが、且つこれによって、第N+1フレームの原マップにおいて該比較的遠い車両をうまく検出できる。
これによって分かるのは、本願の実施例における具体的例示において、重み係数を補正するステップは階調マップエリアにおいて対象検出の正確率を向上させるということである。
ステップS250において、原マップ検出対象に基づく第1視差マップ検出対象を第2視差マップ検出対象に補正する。
これ以外に、すでにマッチングした原マップ検出対象と視差マップ検出対象を取得した後、両者の間に同一の位置とサイズを有するべきであると認識するため、さらに現在のフレームの階調マップにおける階調マップ検出対象に基づいて、より正確な視差マップ検出対象を出力するように、現在のフレームの視差マップにおける視差マップ検出対象を補正することができる。
階調マップに基づく対象検出方法は階調マップ対象テンプレートを利用して各種の対象を検出できるため、検出された階調マップ検出対象も当然豊かな階調情報を所有しており、つまり、視差マップ検出対象と比べると、該階調マップ検出対象の位置とエリアがより正確になるはずである。
図15は、本願の実施例における具体的例示による階調マップ検出対象に基づいて視差マップ検出対象を補正する処理を示す。
図15に示されるように、階調マップ検出対象の位置とエリアに基づいて検出して得た第1視差マップ検出対象の位置とエリアを拡大縮小することができ、且つ新たに1つの第2視差マップ検出対象を生成し、且つより正確な視差マップエリアにおける対象検出結果を出力するように、第2視差マップ検出対象の位置とエリアを該階調マップ検出対象の位置とエリアに完全に対応させる。
これ以外に、本願の出願人がさらに注意したのは、階調マップ検出対象のエリアに含まれるある1つの視差点は二眼カメラとの間のいかなる距離でも示すことが可能で、しかし、階調マップ検出対象(例えば比較的遠い車両)と二眼カメラとの間の距離は明らかに所定範囲内に置かれるものであるため、例えば、1つの実施例において、階調マップ検出対象のエリアにおいて視差マップ検出対象のエリアから所定距離範囲内に位置する視差点を視差マップ検出対象に添加することができる。該距離範囲は車両と二眼カメラとの間の相対速度に基づいて確定してもよく、また人為的に1つの固定値を設定してもよい。
そうすると、現在の第Nフレームにおいてさらにより正確な視差マップ検出対象、すなわち補正した対象の視差点の集合を取得できる。そのため、後続の第N+1フレーム階調マップにおいて、補正した対象の視差点の集合を使用でき、且つ上記のステップS210を実行して対象を検出できる。つまり、補正した対象の視差点の集合を使用して第Nフレームにおける履歴検出対象の位置を確定でき、且つ第Nフレームと第N+1フレームにおける履歴検出対象の位置と両フレームの間の時間間隔に基づいて該検出対象の新たな運行速度と方向を確定することができ、第N+1フレーム対象位置に対する予測がさらに正確になされる。
このことから分かるように、本願の実施例における具体的例示は、階調マップに基づく検出方法と視差マップに基づく検出方法との間の相互作用を採用して物体を正確に検出する1つの対象検出方法を提供する。つまり、視差マップの検出待ちの対象の視差分布と対応する階調マップを採用して視差レベルにおける安定部分と安定的特徴を確定でき、安定部分と安定的特徴に基づいて階調テンプレートにおける分割ブロックを調整すると同時に、階調検出対象に基づいて視差マップにおけるノイズブロックと消失ブロックを発見し、そして視差マップ検出対象を拡大、または縮小し、且つ該プロセスを繰り返すことによって検出した物体はさらに正確になる。このため、本願の実施例の具体的例示において、階調マップに基づく対象検出方法が環境変化に対してよりロバスト性を高めると同時に、たとえ視差マップが希疎な視差マップだとしても、視差マップに基づく対象検出方法はより正確になされる。
説明が必要なのは、上記の具体的例示において、所定の順番に基づいて対象検出方法を説明したが、本願はこれに限らない。例えば、現在のフレーム原マップの全体エリアにおいて原マップ検出対象を検出することによってステップS220を実行する場合、該ステップS220をステップS210の前に実行し、またはそれと並行して実行してもよい。同様に、ステップS250をステップS240の前に実行し、またはそれと並行して実行してもよい。
4、対象検出装置
本願の実施例はさらに1つの対象検出装置を介して実施することができる。下の文章において、図16を参照しながら本願の実施例に基づいた対象検出装置の機能配置のブロック図を説明する。
図16は、本願の実施例に基づいた対象検出装置の機能配置のブロック図を示す。
図16に示されるように、該対象検出装置100は現在のフレームの画像ペアにおける対象検出に用いられて、前記現在のフレームの画像ペアには現在のフレームの原マップ及び対応する現在のフレームの視差マップが含まれ、前記原マップには階調マップとカラーマップのうちの少なくとも1つが含まれ、且つ前記対象検出装置は、視差マップ対象取得ユニット110と、原マップ対象取得ユニット120と、視差マップ対象補正ユニット130と、出力ユニット140を含んでもよい。
これ以外に、さらに前記対象検出装置は、対象マッチングユニット150及び/または階調マップ重み補正ユニット160を含んでもよい。
該視差マップ対象取得ユニット110は前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得することに用いられる。
該原マップ対象取得ユニット120は前記現在フレームの原マップから検出した原マップ検出対象を取得することに用いられる。
該視差マップ対象補正ユニット130は前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正することに用いられる。
該出力ユニット140は前記第2視差マップ検出対象を出力することに用いられる。
1つの実施例において、該視差マップ対象取得ユニット110は、以下の操作を介して前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得できる。履歴フレームの視差マップからの履歴検出対象を取得し、前記履歴検出対象に基づき前記現在のフレームの視差マップにおいて前記履歴検出対象と対応する現在の推定対象を推定し、前記現在のフレームの視差マップにおいて複数の視差マップ候補対象を確定し、各視差マップ候補対象と前記現在の推定対象との間のマッチング度を各々確定し、最大のマッチング度を有する視差マップ候補対象を前記第1視差マップ検出対象として確定する。
1つの実施例において、該原マップ対象取得ユニット120は、以下のサブ操作を介して前記現在のフレームの原マップから検出した原マップ検出対象を取得できる。前記現在のフレームの原マップにおいて、前記現在の推定対象の所定範囲において検出した原マップ検出対象を取得する。
1つの実施例において、該原マップ対象取得ユニット120は、以下の操作を介して前記現在のフレームの原マップから検出した原マップ検出対象を取得できる。履歴対象テンプレートと前記履歴対象テンプレートに用いられる履歴重み係数を取得し、このうち、前記履歴対象テンプレートは複数のエリアに分割され、且つ前記複数のエリアに各々前記履歴重み係数が割り当てられており、前記履歴対象テンプレートに基づき、前記原マップにおいて複数の原マップ候補対象を確定し、前記複数のエリアと前記履歴重み係数に基づいて、各原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性を各々計算し、及び最大の重み付け相似性を有する原マップ候補対象を前記原マップ検出対象として確定する。
具体的には、該原マップ対象取得ユニット120は、以下のサブ操作を介して、前記複数のエリアと前記履歴重み係数に基づいて、各原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性を各々計算できる。各原マップ候補対象に対して、前記履歴対象テンプレートにおける前記複数のエリアを分割する方式により前記原マップ候補対象を複数のエリアに分割し、原マップ候補対象における各エリアと、対応する前記履歴対象テンプレートにおける各エリアとの間の相似性を計算し、前記履歴重み係数を使用して計算される各相似性に重み付けを行い、前記原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性とするように、重み付けを行ったすべての相似性を合計する。
1つの実施例において、該対象マッチングユニット150は、前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正する前に、前記第1視差マップ検出対象と前記原マップ検出対象とがマッチングするか否かを判断することができる。
具体的には、該対象マッチングユニット150は、下記の少なくとも1つのステップを介して、前記第1視差マップ検出対象と前記原マップ検出対象とがマッチングするか否かを判断でき、つまり、前記第1視差マップ検出対象と前記原マップ検出対象との重複領域が所定閾値より大きい、または等しいか否かを判断し、大きいまたは等しい場合に両者がマッチングすると判断し、また前記第1視差マップ検出対象と前記原マップ検出対象との間の距離が所定閾値より小さい、または等しいか否かを判断し、小さいまたは等しい場合に両者がマッチングすると判断する。
1つの実施例において、該階調マップ重み補正ユニット160は、前記第1視差マップ検出対象に基づいて、前記履歴重み付け係数を現在の重み付け係数に調整することに用いられて、このうち、後続フレームの原マップにおいて、前記現在の重み付け係数を前記履歴重み付け係数とする。
具体的には、該階調マップ重み補正ユニット160は、以下のサブステップを介して、前記第1視差マップ検出対象に基づいて、前記履歴重み付け係数を現在の重み付け係数に調整でき、つまり前記第1視差マップ検出対象が前記原マップ検出対象において、分割する複数のエリアにおける視差点の分布を確定し、及び前記複数のエリアにおける視差点の分布に基づいて、前記履歴重み付け係数を調整して、各エリアに用いられる現在の重み付け係数を生成する。
1つの実施例において、該視差マップ対象補正ユニット130は、前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正でき、つまり前記原マップ検出対象に基づき前記現在のフレーム視差マップにおいて現在の補正エリアを確定する。及び少なくとも前記現在の補正エリアに含まれる視差点の集合によって、前記第2視差マップ検出対象を生成する。
上述した視差マップ対象取得ユニット110、原マップ対象取得ユニット120、視差マップ対象補正ユニット130、出力ユニット140、対象マッチングユニット150、階調マップ重み補正ユニット160の具体的な機能と操作についてはすでに上文の参考図1〜図15を説明する対象検出方法において詳しく紹介したため、ここでは重複した説明を略す。
説明が必要なのは、上記対象検出装置100の部材はソフトウェアプログラミングによって実現でき、例えば汎用コンピュータにおけるCPU、RAMとROMなど及びその中で運用されるソフトウェアコードとの結合によって実現できる。ソフトウェアプログラムは例えばフラッシュメモリ、フロッピー(登録商標)ディスク、ハードディスク、光ディスクなどの記憶媒体に記憶でき、運用の際に例えばアクセスメモリ(RAM)に載せてCPUにより実行される。また汎用コンピュータ以外に、特定用途向けの集積回路とソフトウェアとの共同によって実現しても可能である。前記集積回路は、例えばMPU(マイクロプロセッサ)、DSP(デジタルシグナルプロセッサ)、FPGA(現場でプログラム可能なゲートアレイ)、ASIC(特定用途向け集積回路)などのうちの少なくとも1つによって実現する。このような汎用コンピュータまたは特定用途向け集積回路などは、例えば特定位置(例えば車両)に載せることが可能で、且つカメラで撮影して得られる二次原画像と立体画像において検出待ちの対象を検出するように、特定位置に装着され、道路と道路関係の対象を画像形成する画像形成装置、例えばカメラとの交信を行うのに用いられる。それ以外に、該対象検出装置100の各部材は専用ハードウェア、例えば特定の現場でプログラム可能なゲートアレイ、特定用途向け集積回路などによって実現できる。また、対象検出装置100の各部材はソフトウェアとハードウェアとの結合によって実現してもよい。
5、対象検出システム
このほか、本願はさらに1つの対象検出システムを介して実施してもよい。下の文章において、図17を参照しながら本願の実施例による対象検出システムの機能構造を説明する。
図17は、本願の実施例による対象検出システムの機能構造図を示す。
図17に示されるように、該対象検出システム200は、対象の画像形成に用いられる画像形成装置210、例えば単眼カメラ、二眼カメラ、多眼カメラなどなどと、現在のフレームの画像ペアにおいて対象を検出するための対象検出装置220と、を含んでもよい。該対象検出装置220は例えば図16に示された対象検出装置100における配置を採用して実現できる。
具体的には、該対象検出装置220に入力した階調マップまたはカラーマップなどは、例えば特定位置に装着される二眼カメラによって撮影して得られてもよい。該入力は対象検出装置を通した後、対象検出結果を出力し、その出力方式はさまざまであってもよく、例えばモニターにおいて可視の階調マップまたは視差マップを出力する。
6、対象検出を行うためのハードウェアシステム
本願はさらに1つの対象検出をハードウェアシステムによって実施してもよい。下の文章において、図18を参照しながら本願の実施例による対象検出のためのハードウェアシステムを説明する。
図18は、本願の実施例による対象を検出するためのハードウェアシステムのハードウェア全体ブロック図を示す。
図18に示されるように、該対象検出システムは、例えばキーボード、マウス、通信ネットワーク及びそれに接続される遠隔入力装置などを有してもよく、且つ対象の画像を形成するための画像形成装置、及び形成される画像に対してデコーディングを行うためのデコーディング装置などを有してもよい、例えば階調マップ、カラーマップ、カメラ設置情報などの外部からの関連情報を入力するための入力装置310と、例えばコンピュータにおけるCPUまたはそれ以外の処理機能を備えるチップなどを有してもよく、また例えばインターネットのネットワーク(表示せず)に接続可能で、処理プロセスの需要によって処理結果を遠隔転送できることなどを有してもよい、上記の本願の実施例による対象検出方法を実施するまたは上記の対象検出装置として実施するための処理装置320と、例えばモニター、プリンター、及び通信ネットワークとそれに接続される遠隔出力装置などを有してもよい、外部に上記の視差計算プロセスで得られた結果を出力するための出力装置330と、例えばランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク、または半導体メモリなどの各種の揮発性と不揮発性メモリを有してもよい、揮発性と不揮発性メモリで例えば視差マップなどの上記の対象検出プロセスに関わるデータを記憶するための記憶装置340とを含んでもよい。
図19は、本願の実施例による対象を検出するためのハードウェアシステムのシステムシーケンス図を示す。
図19に示されるように、入力装置310は視差マップ画像シーケンス(ビデオ)(ステップS310)と階調画像シーケンス(ビデオ)(ステップS320)を入力する。処理装置320において、視差マップに基づく対象検出器が視差マップに基づいて対象を検出し、且つ視差マップ検出対象を出力し(ステップS330)、階調マップに基づく対象検出器が階調マップ対象テンプレートに基づいて対象を検出し、且つ階調マップ検出対象を出力し(ステップS340)、対象マッチング器が階調マップ検出対象と視差マップ検出対象をマッチングし(ステップS350)、階調マップテンプレート補正器が対象の視差分布に基づいて、階調マップ対象テンプレートに用いられる検出パラメータを補正し(ステップS360)、視差マップ補正器(S48)が階調マップ検出対象に基づいて視差マップ検出対象を補正し(ステップS370)、且つ出力装置(300)または記憶装置(340)に検出した対象を出力する(ステップS380)。
以上本願の各実施例を詳しく説明した。しかし当業者が理解すべきなのは、本願の原理と発想を逸脱しない状況において、それらの実施例に対して各種の修正、組み合わせ及びサブ組み合わせが可能で、且つそれらの修正などは本願の請求の範囲に入れられるべきである。

Claims (11)

  1. 現在のフレームの画像ペアにおいて対象を検出するための対象検出方法であって、
    前記現在のフレームの画像ペアには現在のフレームの原マップ及び対応する現在のフレームの視差マップを含み、前記原マップには階調マップとカラーマップのうちの少なくとも1つを含み、前記対象検出方法は、
    前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得するステップと、
    前記現在のフレームの原マップから検出した原マップ検出対象を取得するステップと、
    前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正するステップと、
    前記第2視差マップ検出対象を出力するステップと、を含むことを特徴とする対象検出方法。
  2. 前記現在のフレームの原マップから検出した原マップ検出対象を取得するステップは、
    複数のエリアに分割された履歴対象テンプレートと、前記複数のエリアの各々に割り当てられている、前記履歴対象テンプレートに用いられる履歴重み係数を取得するステップと、
    前記履歴対象テンプレートに基づいて、前記原マップにおける複数の原マップ候補対象を確定するステップと、
    前記複数のエリアと前記履歴重み係数に基づいて、各原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性を各々計算するステップと、
    最大の重み付け相似性を有する原マップ候補対象を前記原マップ検出対象として確定するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記複数のエリアと前記履歴重み係数に基づいて、各原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性を各々計算するステップは、
    各原マップ候補対象に対して、前記履歴対象テンプレートにおける前記複数のエリアを分割する方式により前記原マップ候補対象を複数のエリアに分割するステップと、
    前記原マップ候補対象における各エリアと、対応する前記履歴対象テンプレートにおける各エリアとの間の相似性を計算するステップと、
    前記履歴重み係数を使用して計算される各相似性に重み付けを行うステップと、
    前記原マップ候補対象と前記履歴対象テンプレートとの間の重み付け相似性とするように、重み付けを行ったすべての相似性を合計するステップと、を含むことを特徴とする請求項2に記載の方法。
  4. 前記方法は、さらに、
    前記第1視差マップ検出対象に基づいて、前記履歴重み付け係数を現在の重み付け係数に調整するステップを含み、そのうち、後続フレームの原マップにおいて、前記現在の重み付け係数を前記履歴重み付け係数とする、ことを特徴とする請求項2に記載の方法。
  5. 前記第1視差マップ検出対象に基づいて、前記履歴重み付け係数を現在の重み付け係数に調整するステップは、
    前記第1視差マップ検出対象が前記原マップ検出対象において、分割する複数のエリアにおける視差点の分布を確定するステップと、
    前記複数のエリアにおける視差点の分布によって、前記履歴重み付け係数を調整して、各エリアに用いられる現在の重み付け係数を生成するステップと、を含むことを特徴とする請求項4に記載の方法。
  6. 前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得するステップは、
    履歴フレームの視差マップからの履歴検出対象を取得するステップと、
    前記履歴検出対象に基づいて前記現在のフレームの視差マップにおいて前記履歴検出対象と対応する現在の推定対象を推定するステップと、
    前記現在のフレームの視差マップにおいて複数の視差マップ候補対象を確定するステップと、
    各視差マップ候補対象と前記現在の推定対象との間のマッチング度を各々確定するステップと、
    最大のマッチング度を有する視差マップ候補対象を前記第1視差マップ検出対象として確定するステップと、を含むことを特徴とする請求項1に記載の方法。
  7. 前記現在のフレームの原マップから検出した原マップ検出対象を取得するステップは、
    前記現在のフレームの原マップにおいて、前記現在の推定対象の所定範囲において検出した原マップ検出対象を取得するステップを含むことを特徴とする請求項6に記載の方法。
  8. 前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正するステップは、
    前記原マップ検出対象に基づき、前記現在のフレームの視差マップにおいて現在の補正エリアを確定するステップと、
    少なくとも前記現在の補正エリアに含まれる視差点の集合に基づいて、前記第2視差マップ検出対象を生成するステップと、を含むことを特徴とする請求項1に記載の方法。
  9. 前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正するステップの前に、さらに、
    前記第1視差マップ検出対象と前記原マップ検出対象とがマッチングするか否かを判断するステップを含むことを特徴とする請求項1に記載の方法。
  10. 前記第1視差マップ検出対象と前記原マップ検出対象とがマッチングするか否かを判断するステップは、
    前記第1視差マップ検出対象と前記原マップ検出対象との重複領域が所定閾値より大きい、または等しいか否かを判断し、大きいまたは等しい場合に両者がマッチングすると判断するステップと、及び、
    前記第1視差マップ検出対象と前記原マップ検出対象との間の距離が所定閾値より小さい、または等しいか否かを判断し、小さいまたは等しい場合に両者がマッチングすると判断するステップと、のうちの少なくとも1つを含むことを特徴とする請求項9に記載の方法。
  11. 現在のフレームの画像ペアにおいて対象を検出するための対象検出装置であって、
    前記現在のフレームの画像ペアは現在のフレームの原マップ及び対応する現在のフレームの視差マップを含み、前記原マップには階調マップとカラーマップのうちの少なくとも1つが含まれ、前記対象検出装置は、
    前記現在のフレームの視差マップから検出した第1視差マップ検出対象を取得するための視差マップ対象取得ユニットと、
    前記現在のフレームの原マップから検出した原マップ検出対象を取得するための原マップ対象取得ユニットと、
    前記原マップ検出対象に基づいて前記第1視差マップ検出対象を第2視差マップ検出対象に補正するための視差マップ対象補正ユニットと、
    前記第2視差マップ検出対象を出力するための出力ユニットと、を含むことを特徴とする対象検出装置。
JP2015141707A 2014-07-17 2015-07-15 対象検出方法及び対象検出装置 Pending JP2016029564A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410341591.9 2014-07-17
CN201410341591.9A CN105335955B (zh) 2014-07-17 2014-07-17 对象检测方法和对象检测装置

Publications (1)

Publication Number Publication Date
JP2016029564A true JP2016029564A (ja) 2016-03-03

Family

ID=55074979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015141707A Pending JP2016029564A (ja) 2014-07-17 2015-07-15 対象検出方法及び対象検出装置

Country Status (3)

Country Link
US (1) US9576367B2 (ja)
JP (1) JP2016029564A (ja)
CN (1) CN105335955B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112698315A (zh) * 2019-10-23 2021-04-23 阿里巴巴集团控股有限公司 移动设备定位系统、方法及设备

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426922B (zh) * 2015-12-08 2019-02-12 同方威视技术股份有限公司 列车车型识别方法和系统及安全检查方法和系统
JP6587000B2 (ja) * 2016-01-28 2019-10-09 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP7119317B2 (ja) * 2016-11-28 2022-08-17 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
WO2018119744A1 (zh) * 2016-12-28 2018-07-05 深圳前海达闼云端智能科技有限公司 一种虚警障碍物检测方法及装置
CN107506711B (zh) * 2017-08-15 2020-06-30 江苏科技大学 基于卷积神经网络的双目视觉障碍物检测系统及方法
CN107729848B (zh) * 2017-10-20 2019-10-25 北京大学 对象检测方法及装置
CN107948620B (zh) * 2017-12-28 2020-06-23 智车优行科技(北京)有限公司 基于高级驾驶辅助系统的双目摄像头调试方法
CN110637268A (zh) * 2018-01-23 2019-12-31 深圳市大疆创新科技有限公司 目标检测方法、装置和可移动平台
US10332543B1 (en) * 2018-03-12 2019-06-25 Cypress Semiconductor Corporation Systems and methods for capturing noise for pattern recognition processing
CN108961322B (zh) * 2018-05-18 2021-08-10 辽宁工程技术大学 一种适用于降落序列影像的误匹配剔除方法
CN111382591B (zh) * 2018-12-27 2023-09-29 海信集团有限公司 一种双目相机测距校正方法及车载设备
CN109859182B (zh) * 2019-01-29 2021-02-19 上海联影医疗科技股份有限公司 医学图像失配检测方法、装置、计算机设备和存储介质
CN110309729A (zh) * 2019-06-12 2019-10-08 武汉科技大学 基于异常峰值检测和孪生网络的跟踪与重检测方法
CN110660078B (zh) * 2019-08-20 2024-04-05 平安科技(深圳)有限公司 对象追踪方法、装置、计算机设备和存储介质
CN110738731B (zh) * 2019-10-16 2023-09-22 光沦科技(深圳)有限公司 一种用于双目视觉的3d重建方法和系统
US11410387B1 (en) 2020-01-17 2022-08-09 Facebook Technologies, Llc. Systems, methods, and media for generating visualization of physical environment in artificial reality
US10950034B1 (en) 2020-01-27 2021-03-16 Facebook Technologies, Llc Systems, methods, and media for generating visualization of physical environment in artificial reality
US11451758B1 (en) * 2020-02-12 2022-09-20 Meta Platforms Technologies, Llc Systems, methods, and media for colorizing grayscale images
US11790665B2 (en) * 2021-04-29 2023-10-17 Hitachi Astemo, Ltd. Data driven dynamically reconfigured disparity map
CN113409364B (zh) * 2021-06-01 2024-03-29 诡谷子人工智能科技(深圳)有限公司 一种基于像素相似性的立体匹配算法、系统和计算机介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
US8363909B2 (en) 2007-03-20 2013-01-29 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
CN101271515B (zh) 2007-03-21 2014-03-19 株式会社理光 能识别多角度目标的图像检测装置
CN101271514B (zh) 2007-03-21 2012-10-10 株式会社理光 一种快速目标检测和目标输出的图像检测方法及装置
US8861842B2 (en) * 2010-02-05 2014-10-14 Sri International Method and apparatus for real-time pedestrian detection for urban driving
US8666146B1 (en) * 2011-01-18 2014-03-04 Disney Enterprises, Inc. Discontinuous warping for 2D-to-3D conversions
CN103177236B (zh) 2011-12-22 2016-06-01 株式会社理光 道路区域检测方法和装置、分道线检测方法和装置
CN103473757B (zh) * 2012-06-08 2016-05-25 株式会社理光 在视差图中的对象跟踪方法和系统
JP2014115978A (ja) * 2012-11-19 2014-06-26 Ricoh Co Ltd 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
CN103729860B (zh) * 2013-12-31 2016-10-05 华为软件技术有限公司 一种图像目标跟踪的方法和装置
CN103868460B (zh) * 2014-03-13 2016-10-05 桂林电子科技大学 基于视差优化算法的双目立体视觉自动测量方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112698315A (zh) * 2019-10-23 2021-04-23 阿里巴巴集团控股有限公司 移动设备定位系统、方法及设备
CN112698315B (zh) * 2019-10-23 2024-04-09 浙江菜鸟供应链管理有限公司 移动设备定位系统、方法及设备

Also Published As

Publication number Publication date
US9576367B2 (en) 2017-02-21
CN105335955A (zh) 2016-02-17
US20160019683A1 (en) 2016-01-21
CN105335955B (zh) 2018-04-10

Similar Documents

Publication Publication Date Title
JP2016029564A (ja) 対象検出方法及び対象検出装置
WO2021233029A1 (en) Simultaneous localization and mapping method, device, system and storage medium
US20220272313A1 (en) Methods for automatic registration of 3d image data
KR102143108B1 (ko) 차선 인식 모델링 방법, 장치, 저장 매체 및 기기, 및 인식 방법, 장치, 저장 매체 및 기기
JP7134012B2 (ja) 視差推定装置及び方法
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
US10225473B2 (en) Threshold determination in a RANSAC algorithm
KR102249769B1 (ko) 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
EP2840528B1 (en) Method and apparatus for tracking object
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
CN105069804B (zh) 基于智能手机的三维模型扫描重建方法
WO2019180414A1 (en) Localisation, mapping and network training
KR102569437B1 (ko) 3차원 영상정보 기반 객체 추적 장치 및 방법
JP2016194925A (ja) 道路境界物の検出方法及び装置
CN108470356A (zh) 一种基于双目视觉的目标对象快速测距方法
CN110992424B (zh) 基于双目视觉的定位方法和系统
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
CN110428461B (zh) 结合深度学习的单目slam方法及装置
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
CN114662587A (zh) 一种基于激光雷达的三维目标感知方法、装置及系统
CN110864670B (zh) 目标障碍物位置的获取方法和系统
WO2018229812A1 (ja) 三次元計測装置、および方法
JP2009282762A (ja) 対応点探索装置
TWI796952B (zh) 物件偵測裝置以及物件偵測方法