JP2021536071A - 障害物検出方法、知的運転制御方法、装置、媒体、及び機器 - Google Patents

障害物検出方法、知的運転制御方法、装置、媒体、及び機器 Download PDF

Info

Publication number
JP2021536071A
JP2021536071A JP2021513777A JP2021513777A JP2021536071A JP 2021536071 A JP2021536071 A JP 2021536071A JP 2021513777 A JP2021513777 A JP 2021513777A JP 2021513777 A JP2021513777 A JP 2021513777A JP 2021536071 A JP2021536071 A JP 2021536071A
Authority
JP
Japan
Prior art keywords
parallax
map
obstacle
value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2021513777A
Other languages
English (en)
Inventor
ヤオ,シンホア
チョウ,シンギュ
リウ,ルンタオ
ジャン,シンギュ
Original Assignee
センスタイム グループ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by センスタイム グループ リミテッド filed Critical センスタイム グループ リミテッド
Publication of JP2021536071A publication Critical patent/JP2021536071A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本開示の実施モードは、障害物検出方法及び装置、知的運転制御方法及び装置、電子機器、コンピュータ可読記憶媒体、並びにコンピュータプログラムを開示する。障害物検出方法は、環境画像の第一の視差マップが得られ、環境画像は知的機器が移動している空間環境の情報を表す画像であることと、複数の障害物ピクセル領域が第一の視差マップ中で特定され、複数の障害物ピクセル領域がクラスタリングされて少なくとも1つのクラスクラスタが得られることと、同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果が特定されることと、を含む。【選択図】図1

Description

関連出願の相互参照
本開示は、2019年6月27日に中国国家知識産権局に提出された、“Obstacle Detection Method,Intelligent Driving Control Method,Apparatus,Medium,and Device”と題する中国特許出願第201910566416.2号の優先権を主張するものであり、同出願の開示の全体を参照によって本願に援用する。
本開示は、コンピュータビジョン技術に関し、特に障害物検出方法、障害物検出装置、知的運転制御方法、知的運転制御装置、電子機器、コンピュータ可読記憶媒体、及びコンピュータプログラムに関する。
コンピュータビジョン技術の分野において、認識技術は通常、外的障害物を認識するために使用される。すなわち、認識技術は障害物検出を含む。
認識技術の認識結果は通常、決定レイヤに提供され、決定レイヤは認識結果に基づいて決定を下す。例えば、知的運転システムでは、認識レイヤは車両が存在している道路の認識情報及びその車両の周囲の障害物の情報を決定レイヤに提供し、決定レイヤは障害物を回避し、車両の安全な運転を確保するための運転決定を下すことができる。関連技術では、障害物の種類は一般に事前に定義され、例えば歩行者、車両、非自動車両、並びに固有の形状、テクスチャ及び色を有するその他の障害物であり、その種類が事前に定義されている障害物が関連する検出アルゴリズムを使って検出される。
本開示の実施モードは、障害物検出及び知的運転制御のための技術的解決策を提供する。
本開示の実施モードの第一の態様によれば、障害物検出方法が提供され、これには、環境画像の第一の視差マップが得られることが含まれていてよく、環境画像は知的機器が移動している空間環境の情報を表す画像である。環境画像の第一の視差マップの中で、複数の障害物ピクセル領域が特定される。複数の障害物ピクセル領域がクラスタリングされて、少なくとも1つのクラスクラスタが得られる。同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果が特定される。
本開示の実施モードの第二の態様によれば、知的運転制御方法が提供され、これには、移動中の知的機器の環境画像が知的機器に搭載された画像取得装置を介して得られることが含まれていてよい。障害物検出は、得られた環境画像について行われ、障害物検出結果は、障害物検出方法を使用することによって特定される。障害物検出結果に応じて制御命令が生成され、出力される。本開示の実施モードの第三の態様によれば、障害物検出装置が提供され、これは、取得モジュールと、第一の特定モジュールと、クラスタリングモジュールと、第二の特定モジュールと、を含んでいてよい。取得モジュールは、環境画像の第一の視差マップを取得するように構成され、環境画像は、知的機器が移動している空間環境の情報を表す画像である。第一の特定モジュールは、環境画像の第一の視差マップの中で複数の障害物ピクセル領域を特定するように構成される。クラスタリングモジュールは、複数の障害物ピクセル領域をクラスタリングして、少なくとも1つのクラスクラスタを取得するように構成される。第二の特定モジュールは、同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果を特定するように構成される。
本開示の実施モードの第四の態様によれば、知的運転制御装置が提供され、これは、取得モジュールと制御モジュールを含んでいてよい。取得モジュールは、移動中の知的機器の環境画像を、知的機器上に提供された画像取得装置を通じて取得し、得られた環境画像に対する障害物検出を行って、障害物検出装置を使用することによって障害物検出結果を特定するように構成される。制御モジュールは、障害物検出結果に応じて制御命令を生成し、出力するように構成される。
本開示の実施モードの第五の態様によれば、電子機器が提供され、これは、コンピュータプログラムを記憶するように構成されたメモリと、メモリに記憶されたコンピュータプログラムを実行するように構成されたプロセッサと、を含んでいてよい。コンピュータプログラムは、実行されると、本開示の何れかの方法実施モードを実施する。
本開示の実施モードの第六の態様によれば、コンピュータ可読記憶媒体が提供され、これはコンピュータプログラムを記憶する。コンピュータプログラムは、プロセッサにより実行されると、本開示の何れかの方法実施モードを実施する。
本開示の実施モードの第七の態様によれば、コンピュータプログラムが提供され、これはコンピュータ命令を含む。コンピュータ命令は、機器のプロセッサにより実行されると、本開示の何れかの方法実施モードを実施する。
本開示により提供される障害物検出方法及び装置、知的運転制御方法及び装置、電子機器、コンピュータ可読記憶媒体、並びにコンピュータプログラムに基づき、本開示は、環境画像の第一の視差マップから複数の障害物ピクセル領域を特定し、複数の障害物ピクセル領域をクラスタリングすることによって障害物検出結果を取得してよい。本開示の中で採用される検出方法は、検出されることになる障害物を事前に定義する必要がなく、テクスチャ、色、形状、及びカテゴリといった障害物の事前定義情報を一切使用することなく、障害物領域をクラスタリングすることによって障害物を直接検出でき、検出される障害物は事前定義された幾つかの障害物に限定されない。検出方法は、周囲環境中の知的機器の移動プロセスを妨害するおそれのある様々な障害物(本開示では、包括的障害物と呼ぶことができる)を検出してよい。
関連技術における事前定義された種類の障害物を検出する方法と比較して、本開示において提供される技術的解決手段はより包括的な障害物検出の解決手段であり、これは包括的障害物の検出に適用でき、実際の環境における様々な種類の障害物の検出に対処するのに寄与する。さらに、知的機器に関して、本開示により提供される技術的解決手段を通じて、運転プロセス中に出現することがある各種のランダムな障害物の検出を実施し、検出結果に基づいて運転プロセス中の制御命令を出力することができる。それゆえ、自動車の知的運転の安全性を高めることは有利である。本開示の技術的解決手段をさらに、図面及び実施モードを通じて以下に詳しく説明する。
明細書の一部を形成する図面は、本開示の実施モードを表しており、説明文と共に本開示の原理を説明するようになされている。
図面を参照すれば、本開示は後述の詳細な説明に従ってより明瞭に理解されるであろう。
本開示による障害物検出方法の実施モードのフローチャートである。 本開示による環境画像の実施モードの概略図である。 図2に示される第一の視差マップの実施モードの概略図である。 本開示による第一の視差マップの実施モードの概略図である。 本開示によるコンボリューションニューラルネットワーク(CNN:Convolution Neural Network)の実施モードの概略図である。 本開示による第一の視差マップの第一の重量配分マップの実施モードの概略図である。 本開示による第一の視差マップの第一の重量配分マップの他の実施モードの概略図である。 本開示による第一の視差マップの第二の重量配分マップの実施モードの第略図である。 本開示による第二の反転画像の実施モードの概略図である。 図9に示される第二の反転画像の第二の重量配分マップの実施モードの概略図である。 本開示による単眼画像の視差マップを最適化し、調整するための実施モードの概略図である。 本開示による環境画像の第一の視差マップ内の障害物エッジ情報の実施モードの概略図である。 本開示による統計的視差マップの実施モードの概略図である。 本開示による統計的視差マップを作製するための実施モードの概略図である。 本開示による線形フィッティングの実施モードの概略図である。 本開示による地面領域と非地面領域の概略図である。 本開示において確立される座標系の実施モードの概略図である。 本開示における地面より上の第一の領域に含まれる2つの領域の概略図である。 本開示による障害物ピクセルコラム領域を形成するための実施モードの概略図である。 本開示による障害物ピクセルコラム領域をクラスタリングするための実施モードの概略図である。 本開示による障害物バウンディングボックスを形成するための実施モードの概略図である。 本開示によるCNN訓練モデルの実施モードのフローチャートである。 本開示による知的運転制御方法の実施モードのフローチャートである。 本開示による障害物検出装置の実施モードの構造的概略図である。 本開示による知的運転制御装置の実施モードのフローチャートである。 本開示の実施モードを実施する例示的機器のブロック図である。
ここで、本開示の各例示的実施形態を、図面を参照しながら詳しく説明する。これらの実施形態において詳述されている構成要素及びステップの相対的配置、数による表現、並びに数値は、特に別段の明確なことわりがないかぎり、本開示の範囲を限定しない点に留意されたい。
さらに、説明の便宜上、図中に示される各部の大きさは現実的な比率関係に従って描かれていないと理解されたい。少なくとも1つの例示的実施形態の下記の説明は実際には事例にすぎず、本開示及びその応用又使用に対するいかなる限定も形成するものではない。当業者の間で知られている技術、方法、及び機器は詳しく説明されないこともあるが、これらの技術、方法、及び機器は必要に応じて本明細書の一部と考えるべきである。以下の図中では同様の参照符号及び文字は同様の用語を表しており、それゆえ、特定の用語は、図中で一度定義されれば、後続の図でさらに論じる必要はない。
本開示の実施形態は、他の多くの汎用又は専用コンピューティングシステム環境又は構成と共に操作されてよい、端末機器、コンピュータシステム、及びサーバ等の電子機器に適用されてよい。端末機器、コンピュータシステム、及びサーバ等の電子機器との併用に適した周知の端末機器コンピューティングシステム、環境及び/又は構成の例としては、パーソナルコンピュータ(PC)システム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルド又はラップトップ機器、マイクロプロセッサに基づくシステム、セットトップボックス、プログラム可能民生用電子製品、ネットワークPC、マイクロコンピュータシステム、大規模コンピュータシステム、上記のシステムの何れかを含む分散型クラウドコンピューティング技術環境、及びその他が含まれるが、これらに限定されない。
端末機器、コンピュータシステム、及びサーバ等の電子機器は、コンピュータシステムにより実行されるコンピュータシステム実行可能命令(例えば、プログラムモジュール)の一般的文脈で記載され得る。通常の条件下では、プログラムモジュールにはルーチン、プログラム、ターゲットプログラム、コンポーネント、ロジック、データ構造、及びその他が含まれていてよく、これらは具体的なタスクを実行するか、具体的な抽象データタイプを実装する。コンピュータシステム/サーバは、分散型クラウドコンピューティング環境で実装されてよく、分散型クラウトコンピューティング環境では、タスクは通信ネットワークを通じて接続されるリモート処理機器により実行される。分散型クラウドコンピューティング環境では、プログラムモジュールは、記憶デバイスを含むローカル又はリモートコンピュータシステムの記憶媒体の中にあってよい。
図1は、本開示による障害物検出方法の実施形態のフローチャートである。図1に示されるように、この実施形態の方法はS100、S110、S120、及びS130を含む。各ステップを以下に詳しく説明する。
S100において、環境画像の第一の視差マップが得られる。環境画像は、知的機器が移動している空間環境の情報を表す画像である。
例として、知的機器は例えば、知的運転機器(自動運転車等)、知的飛行機器(ドローン等)、知的ロボット等である。環境画像は例えば、知的運転機器若しくは知的ロボットが移動している道路空間環境の情報又は知的飛行機器が飛行している空間環境の情報を表す画像である。もちろん、本開示における知的機器及び環境画像は、上記の例に限定されず、本開示によっても限定されない。
本開示では環境画像中の障害物が検出される。知的機器が存在している周囲環境中の移動プロセスを妨害するおそれがあるあらゆる物体は、障害物検出範囲に含まれ、障害物検出対象としてみなされてよい。例えば、知的機器の運転プロセスにおいて、石、動物、落下物等の物体が路面上に出現することがある。これらの物体には具体的な形状、テクスチャ、色、又は分類がなく、相互に大きく異なり、そのため、これらはすべて障害物とみなすことができる。本開示において、移動プロセス中の妨害を生じさせ得る上記の物体の何れも、包括的種類の障害物と呼ばれる。
任意選択による例において、本開示の第一の視差マップが環境画像の視差を説明するために使用される。視差とは、標的物体の、ある距離だけ離れた2つの位置から同じ標的物体が観察されたときの位置の差と考えられてよい。環境画像の例が図2に示されている。図2に示される環境画像の第一の視差マップの例が図3に示されている。任意選択により、本開示の環境画像の第一の視差マップはまた、図4に示される形態で表現されてもよい。図4の番号(0、1、3、3、4、及び5等)はそれぞれ、環境画像中の位置(x,y)におけるピクセルの視差を表す。特に、図4は完全な視差マップを示していないことに留意されたい。
任意選択的な実施形態において、本開示における環境画像は単眼画像又は両眼画像であってよい。単眼画像は通常、単眼カメラ機器を使って得られる画像である。両眼画像は通常、両眼カメラ機器を使って得られる画像である。任意選択により、本開示において単眼画像と両眼画像の何れも、写真若しくは映像等又はビデオのビデオフレームであってよい。環境画像が単眼画像である場合、本開示により、両眼カメラ機器を設定する必要のない障害物検出が実現されてよく、それゆえ、障害物検出のコスト削減に役立つ。
任意選択的な実施モードにおいて、環境画像が単眼画像である場合、本開示では事前に訓練を終えたCNNを使って単眼画像の第一の視差マップを取得してよい。例えば、単眼画像はCNNに入力され、すると、CNNは単眼画像に対して視差分析を実行し、視差分析結果を出力する。このようにして、本開示では単眼画像の第一の視差マップを視差分析結果に基づいて取得してよい。CNNを使って単眼画像の第一の視差マップを取得することにより、ピクセルごとの視差を計算するために2つの画像を使用することなく、またカメラ機器を較正することなく、第一の視差マップが得られ得る。このように、これは第一の視差マップ取得の便利さとリアルタイム性能を改善するのに有益である。
任意選択的な例において、本開示のCNNには通常、複数のコンボリューション(畳み込み)レイヤ(Conv)及び複数のデコンボリューションレイヤ(Deconv)が含まれるが、これらに限定されない。本開示のCNNは、2つの部分、すなわち符号化部と復号部に分けられてよい。CNNに入力された単眼画像(図2に示されるような単眼画像)は符号化部により符号化される(すなわち、特徴抽出)。符号化部の符号化結果は復号部に提供され、復号部は符号化結果を復号し、復号結果を出力する。本開示では、CNNにより出力された復号結果に応じて単眼画像の第一の視差マップ(図3に示される第一の視差マップ)が取得されてよい。任意選択により、CNNの中の符号化部には、直列に接続された複数のコンボリューションレイヤが含まれるが、これらに限定されない。CNNの中の復号部には、複数のコンボリューションレイヤ及び複数のデコンボリューションレイヤが含まれるが、これらに限定されない。複数のコンボリューションレイヤ及び複数のデコンボリューションレイヤは、相互に離間されて直列に接続される。
本開示におけるCNNの任意選択的な例が図5に示されている。図5では、左から1番目の長方形はCNNに入力された単眼画像を表し、右から1番目の長方形はCNNから出力された視差マップを表す。左から2番目の長方形から15番目の長方形までの各長方形はコンボリューションレイヤを表し、左から16番目の長方形から右から2番目の長方形までの長方形はすべて、相互に離間されたデコンボリューションレイヤとコンボリューションレイヤを表す。例えば、左から16番目の長方形はデコンボリューションレイヤを表し、左から17番目の長方形はコンボリューションレイヤを表し、左から18番目の長方形はデコンボリューションレイヤを表し、左から19番目の長方形はコンボリューションレイヤを表し、右から2番目の長方形までこれが繰り返され、右から2番目の長方形はデコンボリューションレイヤを表す。
任意選択的な例において、本開示におけるCNNは、CNNの中の低レベル情報と高レベル情報をスキップコネクトによって融合してよい。例えば、符号化部における少なくとも1つのコンボリューションレイヤの出力は、スキップコネクトによって復号部の中の少なくとも1つのデコンボリューションレイヤに提供される。任意選択により、CNNの中のすべてのコンボリューションレイヤの入力には通常、前のレイヤ(例えば、コンボリューションレイヤ又はデコンボリューションレイヤ)の出力が含まれる。CNNの中の少なくとも1つのデコンボリューションレイヤ(例えば、デコンボリューションレイヤ又はすべてのデコンボリューションレイヤ)の入力には、前のコンボリューションレイヤにより出力されたアップサンプル結果及びデコンボリューションレイヤとのスキップコネクションにおける符号化部のコンボリューションレイヤの出力が含まれる。例えば、図5の右側のコンボリューションレイヤの下の実線の矢印が指し示す内容はコンボリューションレイヤの出力を表し、図5中の破線の矢印はデコンボリューションレイヤに提供されるアップサンプル結果を表し、図5の左側のコンボリューションレイヤの上の実線の矢印は、デコンボリューションレイヤとのスキップコネクションにおけるコンボリューションレイヤの出力を表す。本開示は、CNNのスキップコネクションの数とネットワーク構造を限定しない。CNNの中の低レベル情報と高レベル情報を融合することによって、本開示はCNNにより生成される視差マップの精度を向上させるのに寄与する。任意選択により、本開示におけるCNNは両眼画像サンプルで訓練される。CNNの訓練プロセスは、以下の実施モードの中で説明され得る。ここではそれについて詳述しない。
任意選択的な実施モードにおいて、本開示はまた、CNNを使用することによって得られた環境画像の第一の視差マップを最適化し、調整して、より正確な第一の視差マップを取得してよい。任意選択により、環境画像が単眼画像であるとき、本開示では、単眼画像の反転画像の視差マップを使って単眼画像の第一の視差マップを最適化し、調整してよく、それによって、第一の視差マップの中で、視差調整された複数の障害物ピクセル領域が特定されてよい。説明の便宜上、単眼画像の反転画像は第一の反転画像と呼ばれ、第一の反転画像の視差マップは第二の視差マップと呼ばれる。例として、環境画像の単眼画像が反転されると、第一の反転画像が得られてよく、第一の反転画像の視差マップが得られてよく、その後、第一の反転画像の視差マップに応じて、単眼画像の第一の視差マップの視差が調整されて、視差調整された第一の視差マップが得られる。その後、第一の視差マップの中で視差調整された複数の障害物ピクセル領域が識別されてよい。第一の視差マップの最適化と調整の具体的な例を以下に示す。
ステップAで、単眼画像の第一の反転画像の第二の視差マップが得られ、第二の視差マップの反転画像が得られる。
任意選択により、本開示における単眼画像の第一の反転画像は、単眼画像を水平反転させる(例えば、左反転又は右反転)ことによって形成される反転画像であってよい。本開示における第二の視差マップの反転画像は、第二の視差マップを水平反転させる(例えば、左反転又は右反転)させることによって形成される反転画像であってよい。第二の視差マップの反転画像は依然として視差マップである。本開示において、単眼画像はまず、左又は右に反転されてよく(左反転の結果は右反転の結果と同じであるため、単眼画像は本開示においては左右何れに反転されてもよい)、単眼画像の第一の反転画像(左反転画像又は右反転画像)が得られ、その後、単眼画像の第一の反転画像の視差マップが得られて、第二の視差マップが得られ、最後に、第二の視差マップが左又は右に反転され(第二の視差マップの左反転の結果は右反転の結果と同じであるため、第二の視差マップは本開示においては左右何れに反転されてもよい)、第二の視差マップの反転画像(左反転画像又は右反転画像)が得られる。第二の視差マップの反転画像は依然として視差マップである。説明の便宜上、第二の視差マップの反転画像を以下、第二の反転画像と呼ぶ。
上記の説明から、本開示において単眼画像が反転されると、単眼画像が左眼画像として反転されるか、右眼画像として反転されるかを考慮する必要がないことがわかる。すなわち、単眼画像が左眼画像とみなされるか右眼画像とみなされるかを問わず、本開示では単眼画像を左又は右に反転させて第一の反転画像を得てよい。同様に、本開示において第二の視差マップが反転されるときも、第二の視差マップが左に反転されるか右に反転されるかを考慮する必要がない。単眼画像の視差マップを生成するためにCNNを訓練するプロセスにおいて、両眼画像サンプルの左眼画像サンプルが訓練のためにCNNへの入力として提供される場合、訓練を終えたCNNは入力単眼画像を試験及び実践応用において入力された単眼画像を左眼画像とみなす。両眼画像サンプルの右眼画像サンプルが訓練のためにCNNへの入力として提供される場合、訓練を終えたCNNは、入力された単眼画像を試験及び実践応用において右眼画像とみなす。
任意選択により、本開示ではまた、CNNを使って第二の視差マップも得てよい。例えば、第一の反転画像はCNNに入力され、その後、CNNは第一の視差画像に対して視差分析を行い、視差分析結果を出力する。このように、本開示では出力された視差分析結果に基づいて第二の視差マップが得られてよい。
ステップBで、単眼画像の第一の視差マップの重量配分マップ及び第二の反転画像の重量配分マップが得られる。
例示的な例において、第一の視差マップの重量配分マップは、それぞれ第一の視差マップ中の複数の視差値(例えば、すべての視差値)に対応する重量値を表すために使用される。第一の視差マップの重量配分マップには、第一の視差マップの第一の重量配分マップと第一の視差マップの第二の重量配分マップが含まれていてよいが、これらに限定されない。任意選択により、第一の視差マップの第一の重量配分マップは、複数の異なる単眼画像の視差マップのために一律に設定された重量配分マップであり、すなわち、第一の視差マップの第一の重量配分マップは、複数の異なる単眼画像の第一の視差マップに向けられてよく、さらに、異なる単眼画像の第一の視差マップは同じ第一の重量配分マップを使用し、したがって、本開示では、第一の視差マップの第一の重量配分マップは第一の視差マップの全体的重量配分マップと呼ばれてよい。第一の視差マップの全体的重量配分マップは、それぞれ第一の視差マップの中の複数の視差値(例えば、すべての視差値)に対応する全体的な重量値を説明するために使用される。任意選択により、第一の視差マップの第二の重量配分マップは、1つの単眼画像の第一の視差マップのために設定された重量配分マップであり、すなわち、第一の視差マップの第二の重量配分マップは1つの単眼画像の第一の視差マップに向けられ、さらに、異なる単眼画像の第一の視差マップは異なる第二の重量配分マップを使用し、そのため、本開示では第一の視差マップの第二の重量配分マップは第一の視差マップの局所的重量配分マップと呼ばれてよい。第一の視差マップの局所的重量配分マップは、それぞれ第一の視差マップ中の複数の視差値(例えば、すべての視差値)に対応する局所的重量値を説明するために使用される。
任意選択的な例において、第二の反転画像の重量配分マップは、それぞれ第二の反転画像の中の複数の視差値に対応する重量値を説明するために使用される。第二の反転画像の重量配分マップには、第二の反転画像の第一の重量配分マップと第二の反転画像の第二の重量配分マップが含まれてよいが、これらに限定されない。任意選択により、第二の反転画像の第一の重量配分マップは、複数の異なる単眼画像の第二の反転画像のために一律に設定された重量配分マップであり、すなわち、第二の反転画像の第一の重量配分マップは、複数の異なる単眼画像の第二の反転画像に向けられてよく、さらに、異なる単眼画像の第二の反転画像は同じ第一の重量配分マップを使用し、したがって、本開示では、第二の反転画像の第一の重量配分マップは第二の反転画像の全体的重量配分マップと呼ばれてよい。第二の反転画像の全体的重量配分マップは、それぞれ第二の反転画像の中の複数の視差値(例えば、すべての視差値)に対応する全体的な重量値を説明するために使用される。任意選択により、第二の反転画像の第二の重量配分マップは、1つの単眼画像の第二の反転画像のために設定された重量配分マップであり、すなわち、第二の反転画像の第二の重量配分マップは1つの単眼画像の第二の反転画像に向けられ、さらに、異なる単眼画像の第二の反転画像は異なる第二の重量配分マップを使用し、そのため、本開示では第二の反転画像の第二の重量配分マップは第二の反転画像の局所的重量配分マップと呼ばれてよい。第二の反転画像の局所的重量配分マップは、それぞれ第二の反転画像中の複数の視差値(例えば、すべての視差値)に対応する局所的重量値を説明するために使用される。
任意選択的な例において、第一の視差マップの第一の重量配分マップには、左右に分離された少なくとも2つの領域が含まれ、異なる領域は異なる重量値を有する。任意選択により、左の領域の重量値と右の領域の重量値の関係は通常、その単眼画像が左眼画像とみなされるか右眼画像とみなされるかに関係する。
例えば、単眼画像が左眼画像とみなされる場合、第一の視差マップの第一の重量配分マップの中の何れの2つの領域についても、右の領域の重量値は左の領域の重量値より小さくない。図6は、図3に示される第一の視差マップの第一の重量配分マップである。図6において、第一の重量配分マップは5つの領域、すなわち領域1、領域2、領域3、領域4、及び領域5に分けられる。領域5の重量値は領域4の重量値より小さくなく、領域4の重量値は領域3の重量値より小さくなく、領域3の重量値は領域2の重量値より小さくなく、領域2の重量値は領域1の重量値より小さくない。それに加えて、第一の視差マップの第一の重量配分マップの中の何れの領域も、同じ重量値を有していても、異なる重量値を有していてもよい。第一の視差マップの第一の重量配分マップの中のある領域が異なる重量値を有する場合、その領域の左部分の重量値は通常、その領域の右部分の重量値より小さいか、それと等しい。任意選択により、図6の領域1の重量値は0であってよく、すなわち、第一の視差マップにおいて、領域1に対応する視差は完全に信頼できない。領域2の重量値は、左から右へ0〜0.5へと徐々に増加し得る。領域3の重量値は0.5である。領域4の重量値は、左から右へ0.5より大きい値から1付近に徐々に増大し得る。領域5の重量値は1であり、すなわち、第一の視差マップにおいて、領域5に対応する視差は完全に信頼できる。
他の例として、単眼画像が右眼画像とみなされる場合、第一の視差マップの第一の重量配分マップの中の何れの2つの領域についても、左の領域の重量値は右の領域の重量値より小さくない。図7は、処理されるべき右眼画像としての視差マップの第一の重量配分マップを示す。図7において、第一の重量配分マップは5つの領域、すなわち領域1、領域2、領域3、領域4、及び領域5に分けられる。領域1の重量値は領域2の重量値より小さくなく、領域2の重量値は領域3の重量値より小さくなく、領域3の重量値は領域4の重量値より小さくなく、領域4の重量値は領域5の重量値より小さくない。それに加えて、第一の視差マップの第一の重量配分マップの中の何れの領域も、同じ重量値を有していても、異なる重量値を有していてもよい。第一の視差マップの第一の重量配分マップの中のある領域が異なる重量値を有する場合、その領域の右部分の重量値は通常、その領域の左部分の重量値より大きくない。任意選択により、図7の領域1の重量値は0であってよく、すなわち、第一の視差マップにおいて、領域5に対応する視差は完全に信頼できない。領域4の重量値は、右から左へ0〜0.5へと徐々に増加し得る。領域3の重量値は0.5である。領域2の重量値は、右から左へ0.5より大きい値から1付近に徐々に増大し得る。領域1の重量値は1であり、すなわち、第一の視差マップにおいて、領域1に対応する視差は完全に信頼できる。
任意選択により、第二の反転画像の第一の重量配分マップは左右に分離される少なくとも2つの領域を含み、異なる領域は異なる重量値を有する。任意選択により、左の領域の重量値と右の領域の重量値との関係は通常、単眼画像が左眼画像とみなされるか右眼か画像とみなされるかに関係する。
例えば、単眼画像左眼画像とみなされる場合、第二の反転画像の第一の重量配分マップ中の何れの2つの領域についても、右の領域の重量値は左の領域の重量値より小さくない。それに加えて、第二の反転画像の第一の重量配分マップの中の何れの領域も、同じ重量値を有していても異なる重量値を有していてもよい。第二の反転画像の第一の重量配分マップ内のある領域が異なる重量値を有する場合、領域の左部分の重量値は通常、その領域の右部分の重量値より大きくない。
他の例として、単眼画像が右眼画像とみなされる場合、第二の反転画像の第一の重量配分マップ中の何れの2つの領域についても、左の領域の重量値は右の領域の重量値より小さくない。それに加えて、第二の反転画像の第一の重量配分マップの中の何れの領域も、同じ重量値を有していても異なる重量値を有していてもよい。第二の反転画像の第一の重量配分マップ内のある領域が異なる重量値を有する場合、領域の右部分の重量値は通常、その領域の左部分の重量値より大きくない。
任意選択により、第一の視差マップの第二の重量配分マップの設定モードには以下のステップが含まれていてよい。
まず、第一の視差マップが左/右に反転されて、反転視差マップが形成される。
次に、第一の視差マップの第二の重量配分マップの重量値が、反転視差マップの視差値に応じて設定される。
任意選択により、反転視差マップ中の何れの位置におけるピクセルについても、その位置のそのピクセルの視差値が第一の所定の条件を満たせば、第一の視差マップの第二の重量配分マップ中のその位置のそのピクセルの重量値は第一の値として設定され、そのピクセルの視差値が第一の所定の条件を満たさなければ、第一の視差マップの第二の重量配分マップ中のその位置のそのピクセルの重量値は第二の値として設定される。例えば、反転視差マップ内の何れかの位置のピクセルについて、その位置のそのピクセルの視差値がその位置のそのピクセルに対応する第一の参照値より大きければ、第一の視差マップの第二の重量配分マップ中のその位置のそのピクセルの重量値は第一の値として設定され、それ以外では、重量値は第二の値として設定される。本開示において、第一の値は第二の値より大きい。例えば、第一の値は1であり、第二の値は0である。任意選択により、第一の視差マップの第二の重量配分マップの例は図8に示される。図8の白い領域の重量値はすべて1であり、その位置の視差値が完全に信頼できることを示す。図8の黒い領域の重量値は0であり、その位置の視差値が完全に信頼できないことを示す。
任意選択により、本開示において、何れの位置のピクセルに対応する第一の参照値も、第一の視差マップ中のその位置のピクセルの視差値とゼロより大きい一定値に応じて設定されてよい。例えば、第一の視差マップ中のその位置のピクセル点の視差値とゼロより大きい一定値との積が、反転視差マップ中のその位置のピクセル点に対応する第一の参照値とみなされる。
任意選択により、第一の視差マップの第二の重量配分マップは、次式(1)により表されてよい:
Figure 2021536071
式(1)中、Lは第一の視差マップの第二の重量配分マップを表し、
Figure 2021536071
は反転視差マップの中の対応する位置におけるピクセルの視差値を表し、dは第一の視差マップの中の対応する位置におけるピクセルの視差値を表し、thresh1は0より大きい一定値であり、thresh1の数値範囲は1.1〜1.5、例えばthresh1=1.2又はthresh1=1.25であってよい。
任意選択的な例において、第二の反転画像の第二の重量配分マップの設定モードは以下のとおりであってよい:第一の視差マップの視差値に応じて、第二の反転画像の第二の重量配分マップの中の重量値が設定される。任意選択により、第二の反転画像の何れの位置のピクセルについても、第一の視差マップの中のその位置のそのピクセルの視差値が第二の所定の条件を満たせば、第二の反転画像の第二の重量配分マップの中のその位置のピクセルの重量値は第三の値として設定される。第一の視差マップの中のその位置におけるそのヒクセルの視差値が第二の所定の条件を満たさなければ、第二の反転画像の第二の重量配分マップの中のその位置のピクセルの重量値は第四の値として設定される。第三の値は第四の値より大きい。例えば、第一の視差マップの中の何れの位置のピクセルについても、第一の視差マップの中のその位置におけるピクセルの視差値がその位置におけるそのピクセルに対応する第二の参照値より大きければ、第二の反転画像の第二の重量配分マップの中のその位置におけるピクセルの重量値は第三の値として設定され、それ以外では、重量値は第四の値として設定される。任意選択により、本開示において第三の値は第四の値より大きい。例えば、第三の値は1であり、第四の値は0である。
任意選択により、本開示において、ピクセルに対応する第二の参照値は、反転視差マップの中の対応する位置におけるピクセルの視差値とゼロより大きい一定値に応じて設定されてよい。例えば、まず、第一の視差マップが左/右に反転されて反転視差マップが形成され、その後、反転視差マップの対応する位置におけるピクセルの視差値とゼロより大きい一定値の積が、第一の視差マップの中の対応する位置におけるピクセルに対応する第二の参照値とみなされる。
任意選択により、図2の環境画像に基づいて、形成された第二の反転画像の例が図9に示されている。図9の第二の反転画像の第二の重量配分マップの例は図10に示されている。図10の白い領域の重量値はすべて1であり、その位置における視差値が完全に信頼できることを示している。図10の黒い領域の重量値は0であり、その位置における視差値が完全に信頼できないことを示している。
任意選択により、第二の反転画像の第二の重量配分マップは、次式(2)により表されてよい:
Figure 2021536071
式(1)中、L’は第二反転画像の第二の重量配分マップを表し、
Figure 2021536071
は反転視差マップの中の対応する位置におけるピクセルの視差値を表し、dは第一の視差マップの中の対応する位置におけるピクセルの視差値を表し、thresh2は0より大きい一定値を表し、thresh2の数値範囲は1.1〜1.5、例えばthresh2=1.2又はthresh2=1.25であってよい。
ステップCで、単眼画像の第一の視差マップは、単眼画像の第一の視差マップの重量配分マップと第二の反転画像の重量配分マップに応じて最適化、調整され、最適化及び調整された視差マップは単眼画像の最終的な第一の視差マップである。
任意選択的な例において、本開示では第一の視差マップの第一の重量配分マップと第二の重量配分マップを使って第一の視差マップの中の複数の視差値を調整してよく、それによって調整された第一の視差マップが得られ、また、第二の反転画像の第一の重量配分マップと第二の重量配分マップを使って第二の反転画像の中の複数の視差値を調整してよく、それによって調整された第二の反転画像が得られ、その後、調整された第一視差マップと調整された第二の反転画像が融合されて、単眼画像の最適化及び調整された第一の視差マップが得られる。
任意選択により、単眼画像の最適化及び調整された第一の視差マップを取得する例を以下に示す。
まず、第一の視差マップの第一の重量配分マップと第一の視差マップの第二の重量配分マップが融合されて、第三の重量配分マップが得られる。第三の重量配分マップは次式(3)により表されてよい:
=M+L・0.5 (3)。
式(3)中、Wは第三の重量配分マップを表し、Mは第一の視差マップの第一の重量配分マップを表し、Lは第一の視差マップの第二の重量配分マップを表し、0.5は他の一定値に変換されてもよい。
2番目に、第二の反転画像の第一の重量配分マップと第二の反転画像の第二の重量配分マップが融合されて、第四の重量配分マップが得られる。第四の重量配分マップは次式(4)により表されてよい:
’=M’+L’・0.5 (4)。
式(4)中、W’は第四の重量配分マップを表し、M’は第二の反転画像の第一の重量配分マップを表し、L’は第二の反転画像の第二の重量配分マップを表し、0.5は他の一定値に変換されてもよい。
3番目に、第一の視差マップの中の複数の視差値が第三の重量配分マップに応じて調整され、調整された第一の視差マップが得られる。例えば、第一の視差マップの中の何れの位置のピクセルの視差値についても、その位置のそのピクセルの視差値はその位置におけるピクセルの視差値と第三の重量配分マップの中の対応する位置におけるピクセルの重量値の積に置き換えられる。第一の視差マップの中のすべてのピクセルが置き換えられた後、調整された第一の視差マップが得られる。
そして、第二の反転画像の中の複数の視差値が第四の重量配分マップに応じて調整され、調整された第二の反転画像が得られる。例えば、第二の反転画像の中の何れの位置のピクセルの視差値についても、その位置におけるそのピクセルの視差値はその位置におけるピクセルの視差値と第四の重量配分マップの中の対応する位置におけるピクセルの重量値の積と置き換えられる。第二の反転画像におけるすべてのピクセルが置き換えられた後、調整された第二の反転画像が得られる。
最後に、調整された第一の視差マップと調整された第二の反転画像が融合されて、単眼画像の第一の視差マップが最終的に得られる。最終的に得られた単眼画像の第一の視差マップは、次式(5)により表されてよい:
Figure 2021536071
式(5)中、dfinalは単眼画像の最終的に得られた第一の視差マップ(図11の右から1番目の図に示される)を表し、Wは第三の重量配分マップ(図11の上段左から1番目の図に示される)を表し、W’は第四の重量配分マップ(図11の下段左から1番目の図に示される)を表し、dは第一の視差マップ(図11の上段左から2番目の図に示される)を表し、
Figure 2021536071
は第二の反転画像(図11の下段左から2番目の図に示される)を表す。
本開示は第一の重量配分マップと第二の重量配分マップを融合する2つのステップを実行する順序に限定されない。例えば、2つの融合ステップは同時にも連続的にも実行されてよい。それに加えて、本開示は第一の視差マップの中の視差値が調整され、第二の反転画像の視差値が調整される順序を限定しない。例えば、2つのステップは同時にも連続的にも行われてよい。
単眼画像が左眼画像とみなされる場合、通常、左側において物体の左エッジの視差損失及び遮蔽があり、それが単眼画像の第一の視差マップの対応領域の不正確な視差値につながる。同様に、単眼画像が右眼画像とみなされる場合、通常、右側において物体の右エッジの視差損失及び遮蔽があり、それが単眼画像の第一の視差マップにおける対応領域の不正確な視差値につながる。本開示において、単眼画像を反転させ、第二の視差マップを反転させ、その後、反転視差画像(すなわち、第二の反転画像)を使って単眼画像の第一の視差マップを最適化し、調整することにより、単眼画像の第一の視差マップにおける対応領域の視差値の不正確さを低減させ、障害物検出の精度を高めることは有利である。
任意選択的な例において、環境画像が両眼画像である利用シナリオにおいて、本開示における両眼画像の第一の視差マップを取得する方法は、両眼画像の第一の視差マップがストレオマッチングによって得られることを含むが、これに限定されない。例えば、両眼画像の第一の視差マップは、ストレオマッチングアルゴリズム、例えばブロックマッチング(BM)アルゴリズム、セミグローバルブロックマッチング(SGBM)アルゴリズム、又はグラフカット(GC)アルゴリズムを使って得られる。他の例として、視差処理は、両眼画像の視差マップを得るためのCNNを使用することによって両眼画像上で実行され、両眼画像の第一の視差マップが得られる。
S110で、環境画像の第一の視差マップの中で複数の障害物ピクセルが特定される。
例として、障害物ピクセル領域は、第一の視差マップの中の少なくとも2つの連続するピクセルを含むピクセル領域であってよい。ある実施モードにおいて、障害物ピクセル領域は障害物ピクセルコラム領域であってよい。例えば、本開示における障害物ピクセルコラム領域は縞状領域であり、その幅は少なくとも1ピクセルコラム分であり、その高さは少なくとも2ピクセルロー分である。縞状領域は障害物の基本単位とみなされてよいため、縞状領域は本開示において障害物ピクセルコラム領域と呼ばれる。
任意選択的な例において、本開示では、上記のステップによって得られた環境画像の第一の視差マップ上で第一のエッジ検出が行われて、障害物エッジ情報が得られ、その後、環境画像の第一の視差マップの障害物領域が特定され、最後に、障害物エッジ情報に応じて、障害物領域の中で複数の障害物ピクセルコラム領域が特定される。障害物領域を分割することにより、本開示は、領域内の関心対象の値が低い障害物ピクセルコラム領域を回避するのに寄与し、障害物ピクセルコラム領域の形成しやすさを改善するのに寄与する。実際の空間内の異なる障害物は、カメラ機器からの距離の違いにより、異なる視差を生じさせることになり、それゆえ、障害物の視差エッジの存在を形成する。障害物エッジ情報を検出することによって、本開示は、視差マップ中の障害物を分離してよい。したがって、障害物エッジ情報を探すことによって、本開示は好都合に、障害物ピクセルコラム領域を形成してよく、これは障害物ピクセルコラム領域の形成しやすさの改善に寄与する。
任意選択的な例において、本開示での環境画像の第一の視差マップの中の障害物エッジ情報を取得する方法には、環境画像の第一の視差マップの障害物エッジ情報がエッジ抽出のためのCNNを使用することによって得られることと、環境画像の第一の視差マップの障害物エッジ情報がエッジ検出アルゴリズムを使用することによって得られることが含まれるが、これらに限定されない。任意選択により、本開示におけるエッジ検出アルゴリズムを使って環境画像の第一の視差マップの障害物エッジ情報を取得する実施モードが図12に示されている。
図12において、S1で、環境画像の第一の視差マップに対してヒストグラム均等化が行われる。環境画像の第一の視差マップは、図12の左上隅の画像である。第一の視差マップは、前述のS100によって、図2に示される環境画像の第一の視差マップを最終的に取得してよい。ヒストグラム均等化の結果は、図12の左上から2番目の図に示される。
S2で、ヒストグラム均等化の結果に平均値フィルタリングが行われる。フィルタリングの結果は、図12の左上から3番目の図に示されている。S1及びS2は、環境画像の第一の視差マップの前処理である。S1及びS2は、環境画像の第一の視差マップの処理の例にすぎない。本開示は前処理の特定の実施モードを限定しない。
S3で、フィルタリングの結果に対し、エッジ検出アルゴリズムを使用することによってエッジ検出が行われ、エッジ情報が得られる。このステップで得られたエッジ情報は、図12の左上から4番目の図に示されている。本開示におけるエッジ検出アルゴリズムには、キャニエッジ検出アルゴリズム、ソーベルエッジ検出アルゴリズム、又はラプラシアンエッジ検出アルゴリズム等が含まれるが、これらに限定されない。
S4で、得られたエッジ情報に対してモルフォロジ膨張演算が行われる。膨張演算の結果は、図12の左上から5番目の図に示される。このステップは、エッジ検出アルゴリズムの検出結果のための後処理モードである。本開示は、後処理の特定の実施モードを限定しない。
S5で、膨張演算の結果に対して逆算が行われ、環境画像の第一の視差マップのエッジマスクが取得される。環境画像の第一の視差マップのエッジマスクは、図12の左下の図に示される。
S6で、環境画像の第一の視差マップのエッジマスクと環境画像の第一の視差マップに対してAND演算が行われて、環境画像の第一の視差マップの中の障害物エッジ情報が得られる。図12の右側に、環境画像の第一の視差マップの中の障害物エッジ情報が示されている。例えば、環境画像の第一の視差マップの中の障害物のエッジの視差値が0として設定される。障害物エッジ情報は、図12で黒いエッジラインとして示されている。
任意選択的な例において、本開示の第一の視差マップの障害物領域を特定する例には以下のステップが含まれる。
ステップaで、第一の視差マップの中の各ピクセルローの視差値に対して統計的分析が行われ、各ピクセルローの視差値の統計的情報が得られ、各ピクセルローの視差値の統計的情報に基づいて統計的視差マップが特定される。
任意選択により、本開示では、環境画像の第一の視差マップに対して横断統計(ロー方向統計)が実行されて、V−disparityマップが得られてよく、これは統計的視差マップとみなされてよい。すなわち、環境画像の第一の視差マップの各ローについて、そのロー内の視差値の数がカウントされ、統計結果がV−disparityマップの対応コラム上にセットされる。V−disparityマップの幅(すなわち、コラムの数)は視差値の数値範囲に関係する。例えば、視差値の数値範囲が0〜254である場合、V−disparityマップの幅は255である。V−disparityマップの高さは、環境画像の第一の視差マップの高さと同じであり、すなわち、何れも同じ数のローを含む。任意選択により、図4に示される環境画像の第一の視差マップに関して、本開示により形成された統計的視差マップは図13に示されている。図13において、一番上のローは視差値0〜5を表す。第二のローで第一のコラムの値は1であり、図4の第一のローの視差値0の数が1であることを示す。第二のローの第二のコラムの値は6であり、図4の第一のローの視差値1の数が6であることを示す。第五のローで第五のコラムの値は5であり、図4の第五のローの中の視差値5の数が5であることを示す。図13の他の値はここでは個別に記載しない。
任意選択により、図14の左側の図に示される環境画像の第一の視差マップについて、環境画像の第一の視差が処理され、得られたV−disparityが図14の右の図に示されている。
ステップbで、統計的視差マップ(本開示ではV−disparityマップとも呼ばれる)上で第一の線形フィッティングが行われ、第一の線形フィッティングの結果に応じて地面領域と非地面領域が特定される。
まず、本開示において、V−disparityマップが前処理されてよい。V−disparityマップに対する前処理にはノイズ除去が含まれていてよいが、これに限定されない。例えば、V−disparityマップに対して閾値フィルタリング(閾値)が行われて、V−disparityマップ中のノイズがフィルタ処理される。V−disparityマップが図15の左から1番目の図に示されているとすると、ノイズ除去後のV−disparityマップは図15の左から2番目の図に示される。
2番目に、ノイズ除去後のV−disparityマップについて第一の線形フィッティング(フィットライン)が行われ、第一の線型方程式v=Ad+Bが得られる。vはV−disparityマップ内のロー座標を表し、dは視差値を表す。
例えば、図13の対角線はフィッティングされた第一の線形方程式を表す。他の例として、図15の右から1番目の図の白い斜線はフィッティングされた第一の線形方程式を表す。第一の線形フィッティングモードには、RANSAC線形フィッティングモードが含まれるが、これに限定されない。
任意選択により、フィッティングにより得られる第一の線形方程式は、地面領域の視差値とV−disparityマップのロー座標との間の関係を表してよい。すなわち、V−disparityマップ中の何れのローについても、地面領域の視差値dは特定されたvの場合に特定された値であるべきである。地面領域の視差値は、以下の式(6)の形態で表現されてよい:
Figure 2021536071
式(6)中、droadは地面領域の視差値を表し、A及びBは、第一の線形フィッティングを通じてかられた値等の既知の値である。
第三に、本開示では、式(6)を使って環境画像の第一の視差マップをセグメント化してよく、それによって地面領域Iroadと非地面領域Inotroadが得られる。
任意選択により、本開示では次式(7)を使って地面領域と非地面領域が特定されてもよい。
Figure 2021536071
式(7)中、I()はピクセル群を表し、環境画像の第一の視差マップ中のあるピクセルの視差値が|d−droad|≦thresh3を満たせば、このピクセルは地面領域Iroadに属し、環境画像の第一の視差モップの中のあるピクセルの視差値が|d−droad|>thresh3を満たせば、このピクセルは非地面領域に属し、thresh3は閾値を表し、これは既知の値である。閾値は、実際の状況に応じて設定されてよい。
任意選択により、地面領域Iroadは図16の右上の図に示されていてよい。非地面領域Inotroadは図16の右下の図に示されていてよい。閾値を設定することにより、本開示は領域特定に対する環境画像の第一の視差マップのノイズの影響を排除するのに寄与し、それゆえ、地面及び非地面領域のより正確な特定が容易となる。
最後に、障害物領域が非地面領域に応じて特定される。
任意選択により、本開示における非地面領域Inotroadには、地面より上の第一の領域Ihigh及び地面より下の第二の領域Ilowのうちの少なくとも一方が含まれていてよい。本開示では、非地面領域Inotroadの中の、その地面から上の高さが所定の高さ値より小さい地面より上の領域を障害物領域とみなしてよい。地面より下の領域Ilowは穴、くぼみ、又は谷等であり得るため、本開示では、非地面領域Inotroadの中の、その地面より下の高さが所定の高さ値より大きい地面より下の領域を障害物領域とみなしてよい。
本開示において、地面より上の第一の領域Ihigh及び地面より下の第二の領域Ilowは、次式(8)で表されてよい:
Figure 2021536071
式(8)中、Inotroad)はピクセル群を表し、環境画像の第一の視差マップ内のピクセルの視差値がd−droad>thresh4を満たせば、そのピクセルは地面より上の第一の領域Ihighに属し、環境画像の第一の視差マップ内のピクセルの視差値がdroad−d>thresh4を満たせば、そのピクセルは地面より下の第二の領域Ilowに属し、thresh4は閾値を表し、これは既知の値である。閾値は、実際の状況に応じて設定されてよい。
任意選択により、地面より上の第一の領域Ihighには多くの場合、注意を払う必要のない障害物、例えば信号機、歩道橋、及びその他の標的物体が含まれる。これらは自動車の運転に影響を与えないため、これらの標的物体はその車両にとって注意を払う必要のない障害物である。注意を払う必要のないこれらの障害物は多くの場合、高い位置にあり、これは自動車の運転や歩行者の歩行に影響を与えない。本開示では、地面より上の第一の領域Ihighからより高い位置の領域を排除し、例えばその地面より上の高さが第一の所定の高さ値より大きいか、それと等しい領域を排除して、障害物領域Iobstacleが形成されてよい。
任意選択により、本開示では、V−disparityマップに応じて第二の線形フィッティングを行い、非地面領域(すなわち、その地面より上の高さが第一の所定の高さ値より大きいか、それと等しい領域)の中で排除する必要のある、より高い位置にある領域を特定してよく、それによって非地面領域の中の障害物領域Iobstacleが得られる。第二の線形フィッティングモードには、RANSAC線形フィッティングモードが含まれるが、これに限定されない。任意選択により、非地面領域の中に地面より下の第二の領域がある場合、第二の領域の中の、その地面より下の高さが第二の所定の高さ値より大きい第二の標的領域が特定される。第二の標的領域は障害物領域である。本開示では、V−disparityマップに第二の線形フィッティングを行うため、得られた第二の線形演算はv=Cd+Dとして表現されてよく、式中、vはV−disparityマップのロー座標を表し、dは視差値を表す。導出と計算を通じて、C及びDは
Figure 2021536071
として表現されてよく、そのため、本開示における第二の線形フィッティングは
Figure 2021536071
として表現されてよく、式中、Hは既知の一定値であり、Hは実際のニーズに応じて設定されてよい。例えば、自動車の知的制御技術では、Hは2.5メートルに設定されてよい。
任意選択により、図18の中央の画像は上下の白い斜線を含み、上の白い斜線はフィッティングされた第二の線形方程式を表す。
任意選択により、フィッティングにより得られた第二の線形方程式は、障害物領域の視差値とV−disparityマップのロー座標との間の関係を表していてよい。すなわち、V−disparityマップの中の何れのローについても、障害物領域の視差値dは、特定されたVの場合の特定された値であるべきである。
任意選択により、本開示では、地面より上の第一の領域Ihighを次式(9)において表現される形態に分割してよい:
Figure 2021536071
上式(9)において、Ihigh)はピクセル群を表し、環境画像の第一の視差マップの中のあるピクセルの視差値dがd<dを満たせば、そのピクセルは、地面より上であるが地面より上の高さHより低い領域I<Hに属し、本開示ではI<Hを障害物領域Iobstacleとみなしてよく、環境画像の第一の視差マップの中のあるピクセルの視差値dがd>dを満たせば、そのピクセルは、地面より上であり、且つ地面の上の高さHより上の領域I>Hに属し、dは地面より上の高さHにあるピクセルの視差値を表し、I>Hは図18の右上の図に示されていてよい。I<Hは、図18の右下の図に示されていてよい。上式(9)において、
Figure 2021536071
である。
任意選択的な例において、本開示で障害物エッジ情報に応じて障害物領域Iobstacleの中のピクセルコラム領域を特定する方法は、まず、第一の視差マップの中の非障害物領域のピクセルの視差値と障害物エッジ情報におけるピクセルの視差値が所定の値として設定され、2番目に、第一の視差マップのコラム方向にN個のピクセルを横方向単位とみなして、各ローのN個のピクセルの視差値が第一の視差マップの設定されたローから調べられ、ピクセルの視差値が所定の値と所定以外の値との間で飛んでいる標的ローが特定され、最後に、コラム方向にN個のピクセルをコラム幅とみなし、特定された標的ローをロー方向への障害物ピクセルコラム領域の境界とみなすことによって、障害物領域の中の障害物ピクセルコラムが特定される、というものであってよい。例えば、本開示における障害物エッジ情報に応じて障害物領域Iobstacle内のピクセルコラム領域を特定する方法は、まず、視差マップ中の障害物のエッジ位置における視差値がすべて、検出された障害物エッジ情報に応じて所定の値(例えば、0)として設定され、視差マップ内の障害物領域を除く領域の視差もまた所定の値(例えば、0)として設定され、その後、所定のコラム幅(少なくとも1ピクセルコラムの幅、例えば6ピクセルコラムの幅)に応じて、視差マップの一番下から上方探索が開始され、所定のコラム幅の中の何れかのピクセルコラムの視差値が所定の値から所定以外の値に飛んでいることが探し当てられると、その位置(視差マップのそのロー)がピクセルコラム領域の底部として特定されて、ピクセルコラム領域の形成が開始され、すなわち、ピクセルコラム領域の上方への拡張が開始される、というものであってよい。例えば、視差マップ内の所定以外の値から所定の値への飛びを探索することが続けられ、所定のコラム幅の中の何れかのピクセルコラムの視差値が所定以外の値から所定の値に飛んだことが探し当てられると、ピクセルコラム領域の上方への拡張が停止され、その位置(視差マップのそのロー)が、ピクセルコラム領域の最上部として特定され、このようにして障害物ピクセルコラム領域が形成される。
本開示では、視差マップの左下隅から視差マップの右下隅まで、障害物ピクセルコラム領域を特定するプロセスを開始することができる点に特に留意されたい。例えば、障害物ピクセルコラム領域を特定するプロセスは、視差マップの最も左側の6つのコラムから開始され、その後、障害物ピクセルコラム領域を特定するプロセスが視差マップの左から7番目から開始されて、12番目のコラムへと、最終的に視差マップの最も右側のコラムに至る。本開示ではまた、視差マップの右下隅から視差マップの左下隅まで、障害物ピクセルコラム領域を特定するプロセスが開始されてよい。それに加えて、視差マップの下側部分の中央から両側に広げて、障害物ピクセルコラム領域を形成することも完全に実現可能である。
任意選択的な例において、本開示での障害物エッジ情報に応じて障害物領域Iobstacleの中のピクセルコラム領域を形成する方法は、まず、視差マップの中の障害物のエッジ位置における視差値はすべて、検出された障害物エッジ情報に応じて所定の値(例えば、0)に設定され、視差マップの中の障害物領域以外の領域の視差マップもまた、所定の値(例えば、0)に設定され、その後、所定のコラム幅(少なくとも1ピクセルコラムの幅、例えば6ピクセルコラムの幅)に応じて視差マップの一番上から下方探索が開始され、所定のコラム幅における何れかのピクセルコラムの視差値が所定の値から所定以外の値に飛んだことが探し当てられると、その位置(視差マップのそのロー)はピクセルコラムの最上部として特定されて、ピクセルコラム領域の形成が開始され、すなわち、ピクセルコラム領域の下方への拡張が開始される。例えば、視差マップの中の所定以外の値から所定の値への飛びの探索が継続され、所定のコラム幅の中の何れかのピクセルコラムの視差値が所定以外の値から所定の値へと飛んだことが探し当てられると、ピクセルコラム領域の下方への拡張が停止され、その位置(視差マップのそのロー)がピクセルコラム領域の底部として特定され、このようにして障害物ピクセルコラム領域が形成される、というものであってよい。本開示では、視差マップの左上隅から視差マップの右上隅まで、障害物ピクセルコラム領域を特定するプロセスを開始することができる点に特に留意されたい。例えば、障害物ピクセルコラム領域を特定するプロセスは、視差マップの最上部の最も左側の6つのコラムから開始され、その後、障害物ピクセルコラム領域を特定するプロセスが視差マップの最上部の左から7番目から開始されて、12番目のコラムへと、最終的に視差マップの最も右側のコラムに至る。本開示ではまた、視差マップの右上隅から視差マップの左上隅まで、障害物ピクセルコラム領域を特定するプロセスが開始されてよい。それに加えて、視差マップの最も上の部分の中央から両側に広げて、障害物ピクセルコラム領域を形成することも完全に実現可能である。
任意選択により、図2の環境画像のために形成される障害物ピクセルコラム領域は、図19の右の図に示されている。図19の右の図の各障害物ピクセルコラム領域の幅は、6ピクセルコラムの幅である。障害物ピクセルコラム領域の幅は、実際の必要性に応じて設定されてよい。障害物ピクセルコラム領域が広く設定されるほど、より粗い障害物ピクセルコラム領域が形成され、障害物ピクセルコラム領域を形成するのに費やされる時間がより短くなる。
任意選択的な例において、障害物ピクセルコラム領域が形成された後、障害物ピクセルコラム領域の属性情報が特定されるべきである。障害物ピクセルコラム領域の属性情報には、障害物ピクセルコラム領域の空間位置情報、障害物ピクセルコラム領域の底部情報(bottom)、障害物ピクセルコラム領域の視差値(disp)、障害物ピクセルコラム領域の最上部情報(top)、及び障害物ピクセルコラム領域のコラム情報(col)が含まれるが、これらに限定されない。
任意選択により、障害物ピクセルコラム領域の空間位置情報には、水平座標軸(X軸)上の障害物ピクセルコラム領域の座標、奥行き座標軸(Z軸)上の障害物ピクセルコラム領域の座標、縦座標軸(Y軸)上の障害物ピクセルコラム領域の最高点座標、及び垂直座標軸(Y軸)上の障害物ピクセルコラム領域の最低点座標が含まれていてよい。すなわち、障害物ピクセルコラム領域の空間位置情報には、障害物ピクセルコラム領域のX座標、Z座標、最大Y座標、及び最小Y座標が含まれる。X軸、Y軸、及びZ軸の例が図17に示されている。
任意選択により、障害物ピクセルコラム領域の底部情報は、障害物ピクセルコラム領域の底部におけるロー番号であってよい。所定の値が0であるとき、障害物ピクセルコラム領域の視差値は視差値がゼロから非ゼロに飛ぶときの比ゼロ位置におけるピクセル視差値であってよい。障害物ピクセルコラム領域の最上部情報は、視差値が非ゼロからゼロに飛ぶときのゼロ位置でのピクセルのロー番号であってよい。障害物ピクセルコラム領域のコラム情報は、装置のピクセルに含まれる全コラムのうちの何れの1つのコラム番号であってもよく、例えばピクセルコラム領域の中央にあるコラムのコラム番号である。
任意選択により、各障害物ピクセルコラム領域について、本開示では、障害物ピクセルコラム領域の空間位置情報は、次式(10)、すなわち、障害物ピクセルコラム領域のX軸、Z軸、最大Y軸、及び最小Y軸を使用することによって計算される:
Figure 2021536071
上式(10)中、bは両眼カメラ機器間の間隔を表し、fはカメラ機器の焦点距離を表し、Dispは障害物ピクセルコラム領域の視差値を表し、Colは障害物ピクセルコラム領域のコラム情報を表し、cはカメラ機器の主要点のX座標値を表す。
任意選択により、障害物ピクセルコラム領域内の各ピクセルのY座標は、次式(11)によって表現されてよい:
Figure 2021536071
上式(11)中、Yは障害物ピクセルコラム領域内のi番目のピクセルのY座標を表し、rowは障害物ピクセルコラム領域内のi番目のピクセルのロー番号を表し、Cはカメラ機器の主要点のY座標を表し、Zは障害物ピクセルコラム領域のZ座標を表し、fはカメラ機器の焦点距離を表す。
障害物ピクセルコラム領域内の全ピクセルのY座標が得られた後、最大Y座標と最小Y座標が得られてよい。最大Y座標と最小Y座標は、次式(12)により表現されてよい:
min=min(Y
max=max(Y) (12)。
上式(12)中、Yminは障害物ピクセルコラム領域の最小Y座標を表し、Ymaxは障害物ピクセルコラム領域の最大Y座標を表し、min(Y)は計算された全Yのうちの最小値を表し、max(Y)は計算された全Yのうちの最大値を表す。
S120で、複数の障害物ピクセル領域がクラスタリングされて、少なくとも1つのクラスクラスタが得られる。
任意選択的な例において、本開示では、複数の障害物ピクセルコラム領域をクラスタリングして、少なくとも1つのクラスクラスタを得てよい。本開示では、すべての障害物ピクセルコラム領域を障害物ピクセルコラム領域の空間位置情報に応じてクラスタリングしてよい。クラスクラスタは障害物の例に対応する。本開示では、対応するクラスタリングアルゴリズムを使用することによって障害物ピクセルコラム領域をクラスタリングしてよい。
任意選択により、複数の障害物ピクセルコラム領域がクラスタリングされる前に、障害物ピクセルコラム領域のX座標とZ座標が正規化されてよい(すなわち、正規化)。
例えば、本開示では、min−max正規化方式を使って障害物ピクセルコラム領域のX座標とZ座標をマッピングしてよく、それによって障害物ピクセルコラム領域のX座標とZ座標が[0−1]の数値範囲にマッピングされる。正規化方法の一例は次式(13)により表現される:
Figure 2021536071
上式(13)中、X’は正規化後のX座標を表し、Z’は正規化後のZ座標を表し、Xは障害物ピクセルコラム領域のX座標を表し、Zは障害物ピクセルコラム領域のZ座標を表し、Xminはすべての障害物ピクセルコラム領域のX座標のうちの最小値を表し、Xmaxはすべての障害物ピクセルコラム領域のX座標のうちの最大値を表し、Zminはすべての障害物ピクセルコラム領域のX座標のうちの最小値を表し、Zmaxはすべての障害物ピクセルコラム領域のZ座標のうちの最大値を表す。
他の例として、本開示ではまた、Zスコア正規化方式を使って障害物ピクセルコラム領域のX座標及びZ座標の正規化を行ってもよい。正規化方法の一例は次式(14)により表現される:
Figure 2021536071
上式(14)中、X’は正規化後のX座標を表し、Z’は正規化後のZ座標を表し、Xは障害物ピクセルコラム領域のX座標を表し、Zは障害物ピクセルコラム領域のZ座標を表し、μはすべての障害物ピクセルコラム領域のX座標について計算された平均値を表し、ρはすべての障害物ピクセルコラム領域のX座標について計算された標準偏差を表し、μはすべての障害物ピクセルコラム領域のZ座標について計算された平均値を表し、ρはすべての障害物ピクセルコラム領域のX座標について計算された標準偏差を表す。本開示の処理後のすべての障害物ピクセルコラム領域のXとZはどちらも標準正規分布に適合し、すなわち、平均値は0であり、標準偏差は1である。
任意選択により、本開示では、Density−Based Spatial Clustering of Applications with Noise(DBSCAN)アルゴリズムを使って、正規化後の障害物ピクセルコラム領域すべての空間位置情報に応じて障害物ピクセルコラム領域のクラスタリングを行い、そのようにして少なくとも1つのクラスクラスタを形成してよい。各クラスクラスタは障害物の例である。本開示はクラスタリングアルゴリズムを限定しない。クラスタリング結果の例が図20の右の図に示されている。
S130で、同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果が特定される。
例示的に、障害物検出結果には例えば、障害物バウンディングボックス及び障害物の空間位置情報の少なくとも一方が含まれていてよいが、これらに限定されない。
任意選択的な例において、本開示では、同じクラスクラスタに属する障害物ピクセルコラム領域の空間位置情報に応じて、環境画像の中の障害物バウンディングボックスを特定してよい。例えば、あるクラスクラスタについて、本開示では、クラスクラスタ中のすべての障害物ピクセルコラム領域の、環境画像における最大コラム座標umaxと最小コラム座標uminを計算し、そのクラスクラスタの中のすべての障害物ピクセルコラム領域の最大底部(すなわち、vmax)と最小底部(すなわち、vmin)を計算してよい。本開示により得られる環境画像内の障害物バウンディングボックスの座標は、(umin,vmin,umax,vmax)として表現されてよい。任意選択により、本開示において特定された障害物バウンディングボックスの例が図21の右の図に示されている。図21の右の図の中の複数の長方形のボックスはすべて、本開示により得られた障害物バウンディングボックスである。
本開示において、障害物は、複数の障害物ピクセルコラム領域をクラスタリングすることによって得られ、検出対象の障害物を事前に決定する必要はなく、障害物は、障害物の所定の情報、例えばテクスチャ、色、形状、及びカテゴリ等を一切使用せずに、障害物領域をクラスタリングすることによって直接検出でき、検出される障害物は幾つかの所定の障害物に限定されない。本開示では、周囲環境中の知的機器の移動プロセスを妨害するおそれがある様々な障害物が検出されてよく、それによって包括的障害物の検出が実現される。
任意選択的な例において、本開示ではまた、同じクラスクラスタに属する複数の障害物ピクセルコラム領域の空間位置情報に応じてその障害物の空間位置情報を特定してよい。障害物の空間位置情報には、水平座標軸(X軸)上の障害物の座標、奥行き座標軸(Z軸)上の障害物の座標、及び縦方向における障害物の高さ(すなわち、障害物の高さ)等が含まれていてよいが、これらに限定されない。任意選択により、本開示ではまず、そのクラスクラスタ内の複数の障害物ピクセルコラム領域と環境画像を生成するカメラ機器との間の距離を、同じクラスクラスタに属する複数の障害物ピクセルコラム領域の空間位置情報に応じて特定し、その後、カメラ機器に最も近い障害物ピクセルコラム領域の空間位置情報に応じてその障害物の空間位置情報を特定してよい。
任意選択により、本開示では、次式(15)を使って、あるクラスクラスタ内の複数の障害物ピクセルコラム領域とカメラ機器との間の距離を計算し、最小距離を選択してよい。
Figure 2021536071
上式(15)中、dminは最小距離を表し、Xはあるクラスクラスタ中のi番目の障害物ピクセルコラム領域のX座標を表し、Zはあるクラスクラスタ中のi番目の障害物ピクセルコラム領域のZ座標を表す。
最小距離が特定された後、最小距離の障害物ピクセルコラム領域のX座標とZ座標が障害物の空間位置情報とみなされてよく、これは、次式(16)に示される:
=Xclose
=Zclose (16)。
上式(16)中、Oは水平座標軸上の障害物の座標、すなわち障害物のX座標を表し、Oは奥行き座標軸(Z軸)上の障害物の座標、すなわち障害物のZ座標を表し、Xcloseは計算された最小距離の障害物ピクセルコラム領域のX座標を表し、Zcloseは計算された最小距離の障害物ピクセルコラム領域のZ座標を表す。
任意選択により、本開示では次式(17)を使って障害物の高さを計算してよい:
=Ymax=Ymin (17)。
上式(17)中、Oは障害物の高さを表し、Ymaxはあるクラスクラスタ中の障害物ピクセルコラム領域すべてのうちの最大Y座標を表し、Yminはあるクラスクラスタ中の障害物ピクセルコラム領域すべてのうちの最小Y座標を表す。
CNNを訓練する実施モードのプロセスが図22に示されている。
S2200で、両眼画像サンプルの1つの(例えば左/右)画像サンプルが訓練対象のCNNに入力される。
任意選択により、本開示において、CNNに入力される画像サンプルは常に、両眼画像サンプルの左眼画像サンプルでも両眼画像サンプルの右眼画像サンプルでもよい。CNNに入力される画像サンプルが常に両眼画像サンプルの左眼画像サンプルである場合、訓練が終了したCNNは、試験又は実際の利用シナリオにおいて、入力された環境画像を左眼画像とみなすことになる。CNNに入力される画像サンプルが常に両眼画像サンプルの右眼画像サンプルである場合、訓練を終了したCNNは、試験又は実際の利用シナリオにおいて、入力された環境画像を右眼画像とみなすことになる。
S2210で、CNNは視差分析を行い、左眼画像サンプルの視差マップと右眼画像サンプルの視差マップがCNNの出力に基づいて得られる。
S2220で、右眼画像が左眼画像サンプルと右眼画像サンプルの視差マップに応じて再構成される。
任意選択により、本開示では、右眼画像サンプルを再構成する方法には、再投影計算が右眼画像サンプルの視差マップと左眼画像サンプルについて実行されて、再構成された右眼画像が取得されることが含まれるが、これに限定されない。
S2230で、左眼画像が右眼画像サンプルと左眼画像サンプルの視差マップに応じて再構成される。
任意選択により、本開示では、左眼画像サンプルを再構成する方法には、再投影計算が左眼画像サンプルの視差マップと右眼画像サンプルについて実行されて、再構成された左眼画像が取得されることが含まれるが、これに限定されない。
S2240で、再構成された左眼画像と左眼画像サンプルとの差及び再構成された右眼画像と右眼画像サンプルとの差に応じてCNNのネットワークパラメータが調整される。
任意選択により、本開示では、差が特定される場合に使用される損失関数には、L1損失関数、スムーズな損失関数、及びIr一貫性損失関数等が含まれるが、これらに限定されない。それに加えて、本開示において計算された損失が逆伝搬されてCNNのネットワークパラメータ(畳み込みカーネルの重量値等)が調整される場合、損失はCNNの連鎖導出によって計算される勾配に基づいて逆伝搬されてよく、これはCNNの訓練効率を高めるのに寄与する。
任意選択的な例において、CNNの訓練が所定の反復条件を達成すれば、訓練プロセスが完了する。本願での所定の反復条件には、CNNにより出力された視差マップに基づいて再構成された左眼画像と左眼画像サンプルとの差、及びCNNにより出力された視差マップに基づいて再構成された右眼画像と右眼画像サンプルとの差が、差に関する所定の要求事項を満たすことが含まれていてよい。差が要求事項を満たすと、CNNはこの時点で訓練を正常に終える。本願での所定の反復条件にはまた、CNNの訓練に使用される両眼画像サンプルの数が数に関する所定の要求事項を満たすことが含まれていてもよい。使用される両眼画像サンプルの数が数に関する所定の要求事項を満たすが、CNNにより出力された視差マップに基づいて再構成された左眼画像と左眼画像サンプルとの差、及びCNNにより出力された視差マップに基づいて再構成された右眼画像と右眼画像サンプルとの差が差に関する所定の要求事項を満たさない場合、CNNはこの時点で訓練を終えられない。
図23は、本開示による知的運転制御方法のある実施形態のフローチャートである。本願の知的訓練制御方法は、自動運転(完全無支援自動運転)環境又は支援運転環境に適用されてよいが、これらに限定されない。
S2300で、移動中の知的機器の環境画像が、知的機器に搭載された画像取得装置を介して得られる。画像取得装置には、RGBに基づくカメラ機器等が含まれるが、これに限定されない。
S2310で、得られた環境画像について障害物検出が行われ、障害物検出結果が特定される。前述の方法実施形態における図1に関する説明は、このステップの詳細な実施プロセスのための参考とみなされてよく、それについてはここでは詳しく説明しない。
S2320で、障害物検出結果に応じて制御命令が生成され、出力される。
任意選択により、本開示において生成される制御命令には、速度維持制御命令、速度調整制御命令(例えば、減速命令及び加速命令)、方向維持制御命令、方向調整制御命令(例えば、左折命令、右折命令、左車線合流命令、又は右斜線合流命令)、クラクション命令、警告プロンプト制御命令、又は運転モード切替制御命令(例えば、自動走行モードに切り替える命令)が含まれるが、これらに限定されない。
本開示の障害物検出技術はまた、知的運転制御の分野に応用されることに加えて、他の分野に応用されてもよいことに特に留意されたい。例えば、工業生産における障害物検出、スーパーマーケット等の屋内現場での障害物検出、セキュリティ分野での障害物検出等が実現されてよく、本開示の障害物検出技術の利用可能シナリオは限定されない。
図24は、本開示による障害物検出装置の実施形態の構造的概略図である。図24の装置は、取得モジュール2400、第一の特定モジュール2410、クラスタリングモジュール2420、第二の特定モジュール2430、及び訓練モジュール2440を含んでいてよい。
取得モジュール2400は、環境画像の第一の視差マップを取得するように構成される。環境画像は、知的機器が移動している空間環境の情報を表す画像である。任意選択により、環境画像は単眼画像を含む。取得モジュール2400は、第一のサブモジュール、第二のサブモジュール、及び第三のサブモジュールを含んでいてよい。第一のサブモジュールは、CNNを使って単眼画像に視差分析を行い、CNNの出力に基づいて単眼画像の第一の視差マップを得るように構成される。CNNは、両眼画像サンプルで訓練される。第二のサブモジュールは、環境画像内の単眼画像を反転させることによって第一の反転画像を取得し、第一の反転画像の視差マップを取得するように構成される。第三のサブモジュールは、第一の反転画像の視差マップに応じて、単眼画像の第一の視差マップについて視差調整を行い、視差調整された第一の視差マップを取得するように構成される。第三のサブモジュールは、第一のユニットと第二のユニットを含んでいてよい。第一のユニットは、第一の反転画像の視差マップを反転させることによって、第二の反転画像を取得するように構成される。第二のユニットは、第一の視差マップの重量配分マップと第二の反転画像の重量配分マップに応じて、第一の視差マップに視差調整を行い、視差調整された第一の視差マップを取得するように構成される。第一の視差マップの重量配分マップは、それぞれ第一の視差マップ中の複数の視差値に対応する重量値を含んでいてよく、第二の反転画像の重量配分マップは、それぞれ第二の反転画像中の複数の視差値に対応する重量を含む。
任意選択により、本開示における重量配分マップは、第一の重量配分マップと第二の重量配分マップの少なくとも1つを含む。第一の重量配分マップは、複数の環境画像について一律に設定された重量配分マップである。第二の重量配分マップは、それぞれ異なる環境画像について設定される重量配分マップである。第一の重量配分マップは、左右に分離される少なくとも2つの領域を含み、異なる領域は異なる重量値を有する。
任意選択により、単眼画像が左眼画像である場合、第一の視差マップの第一の重量配分マップの中の何れの2つの領域についても、右の領域の重量値は左の領域の重量値より小さくなく、第二の反転画像の第一の重量配分マップの中の何れの2つの領域についても、右の領域の重量値は左の領域の重量値より小さくない。第一の視差マップの第一の重量配分マップの中の少なくとも1つの領域について、その領域の左部分の重量値はその領域の右部分の重量値より大きくない。第二の反転画像の第一の重量配分マップの中の少なくとも1つの領域について、その領域の左部分の重量値はその領域の右部分の重量値より大きくない。
任意選択により、単眼画像が右眼画像である場合、第一の視差マップの第一の重量配分マップの中の何れの2つの領域についても、左の領域の重量値は右の領域の重量値より小さくなく、第二の反転画像の第一の重量配分マップの中の何れの2つの領域についても、左の領域の重量値は右の領域の重量値より小さくない。
任意選択により、第一の視差マップの第一の重量配分マップの中の少なくとも1つの領域について、その領域の右部分の重量値はその領域の左部分の重量値より大きくない。第二の反転画像の第一の重量配分マップの中の少なくとも1つの領域について、その領域の右部分の重量値はその領域の左部分の重量値より大きくない。
任意選択により、第三のサブモジュールはまた、第三のユニットも含んでいてよく、これは第一の視差マップの第二の重量配分マップを設定するように構成される。具体的には、第三のユニットは、第一の視差マップを反転させて反転視差マップを形成し、第一の視差マップの反転視差マップの中の視差値に応じて第一の視差マップの第二の重量配分マップ内の重量値を設定する。例えば、反転視差マップ内の何れの位置のピクセルについても、その位置のそのピクセルの視差値が第一の所定の条件を満たせば、第三のユニットは第一の視差マップの第二の重量配分マップの中のその位置におけるピクセルの重量値を第一の値に設定する。そのピクセルの視差値が第一の所定の条件を満たさなければ、第三のユニットは、第一の視差マップの第二の重量配分マップの中のその位置におけるピクセルの重量値を第二の値に設定してよい。第一の値は第二の値より大きい。第一の所定の条件には、その位置におけるそのピクセルの視差値がその位置におけるピクセルの第一の参照値より大きいことが含まれていてよい。その位置におけるピクセルの第一の参照値は、第一の視差マップの中のその位置におけるピクセルの視差値及びゼロより大きい一定値に応じて設定される。
任意選択により、第三のサブモジュールはまた、第四のユニットも含んでいてよい。第四のユニットは、第二の反転画像の第二の重量配分マップを設定するように構成される。例えば、第四のユニットは、第一の視差マップの中の視差値に応じて第二の反転画像の第二の重量配分マップの中の重量値を設定する。より具体的には、第二の反転画像の中の何れの位置のピクセルについても、第一の視差マップの中のその位置におけるピクセルの視差値が第二の所定の条件を満たせば、第四のユニットは、第二の反転画像の第二の重量配分マップの中のその位置におけるピクセルの重量値を第三の値として設定する。第一の視差マップの中のその位置におけるピクセルの視差値が第二の所定の条件を満たさなければ、第四のユニットは、第二の反転画像の第二の重量配分マップの中のその位置におけるピクセルの重量値を第四の値として設定する。第三の値は第四の値より大きい。第二の所定の条件には、第一の視差マップの中のその位置におけるピクセルの視差値がその位置におけるピクセルの第二の参照値より大きいことが含まれる。その位置におけるピクセルの第二の参照値は、第一の視差マップの反転視差マップの中のその位置におけるピクセルの視差値及びゼロより大きい一定値に応じて設定される。
任意選択により、第二のユニットは、第一の視差マップの第一の重量配分マップ及び第二の重量配分マップに応じて第一の視差マップの中の視差値を調整し、第二の反転画像の第一の重量配分マップと第二の重量配分マップに応じて第二の反転画像の中の視差値を調整してよい。第二のユニットは、視差調整された第一の視差マップと視差値調整された第二の反転画像を組み合わせて視差調整された第一の視差マップを最終的に取得する。
前述の方法実施形態におけるS100の説明は、取得モジュール2400の中に含まれる各部分により実行される具体的な動作に関する参考とみなされてよく、これについてはここでは詳しく説明しない。
第一の特定モジュール2410は、環境画像の第一の視差マップにおける複数の障害物ピクセル領域を特定するように構成される。第一の特定モジュール2410は、第四のサブモジュール、第五のサブモジュール、及び第六のサブモジュールを含んでいてよい。第四のサブモジュールは、環境画像の第一の視差マップに対してエッジ検出を実行し、障害物エッジ情報を取得するように構成される。第五のサブモジュールは、環境画像の第一の視差マップにおける障害物領域を特定するように構成される。第六のサブモジュールは、障害物エッジ情報に応じて第一の視差マップの障害物領域の中の複数の障害物ピクセルコラム領域を特定するように構成される。第五のサブモジュールは、第五のユニット、第六のユニット、第七のユニット、及び第八のユニットを含んでいてよい。第五のユニットは、第一の視差マップの中の各ピクセルローの視差値について統計的分析を行い、各ピクセルローの視差値の統計的情報を取得するように構成される。第六のユニットは、各ピクセルローの視差値の統計的情報に基づいて、統計的視差マップを特定するように構成される。第七のユニットは、統計的視差マップに第一の線形フィッティングを実行し、第一の線形フィッティングの結果に応じて地面領域と非地面領域を特定するように構成される。第八のユニットは、非地面領域に応じて障害物領域を特定するように構成される。非地面領域には、地面より上の第一の領域を含む。非地面領域には、地面より上の第一の領域と地面より下の第二の領域が含まれる。第八のユニットは、統計的視差マップに第二の線形フィッティングを実行し、第二の線形フィッティングの結果に応じて、第一の領域の中で、その地面より上の高さが第一の所定の高さ値より小さい第一の標的領域を特定してよい。第一の標的領域は障害物領域である。非地面領域の中の地面より下の第二の領域がある場合、第八のユニットは、第二の領域の中で、その地面より下の高さが第二の所定の高さ値より大きい第二の標的領域を特定する。第二の標的領域は障害物領域である。
任意選択により、第六のサブモジュールは、第一の視差マップの非障害物領域のピクセルの視差値と障害物エッジ情報のピクセルの視差値を所定の値として設定してよい。第六のサブモジュールは、第一の視差マップのコラム方向にN個のピクセルを横方向単位とみなし、第一の視差マップの設定されたローから各ローのN個のピクセルの視差値を調べ、ピクセルの視差値が所定の値と所定以外の値との間で飛んでいる標的ローを特定する。第六のサブモジュールは、コラム方向にN個のピクセルをコラム幅とみなし、特定された標的ローをロー方向への障害物ピクセルコラム領域の境界とみなすことによって、障害物領域内の障害物ピクセルコラム領域を特定するように構成される。
前述の方法実施形態のS110の説明は、第一の特定モジュール2410の中に含まれる各部分により実行される具体的な動作に関する参考とみなされてよく、ここではそれについて詳しく説明しない。
クラスタリングモジュール2420は、複数の障害物ピクセル領域をクラスタリングして、少なくとも1つのクラスクラスタを取得するように構成される。例えば、クラスタリングモジュール2420は、複数の障害物ピクセルコラム領域をクラスタリングしてよい。クラスタリングモジュール2420は、第七のサブモジュールと第八のサブモジュールを含んでいてよい。第七のサブモジュールは、複数の障害物ピクセルコラム領域の空間位置情報を特定するように構成される。第八のサブモジュールは、複数の障害物ピクセルコラム領域の空間位置情報に応じて複数の障害物ピクセルコラム領域をクラスタリングするように構成される。例えば、何れの障害物ピクセルコラム領域についても、第八のサブモジュールは、障害物ピクセルコラム領域に含まれるピクセルに応じて障害物ピクセルコラム領域の属性情報を特定し、障害物ピクセルコラム領域の属性情報に応じて障害物ピクセルコラム領域の空間位置情報を特定する。障害物画ピクセルコラム領域の属性情報には、ピクセルコラム領域の底部情報、ピクセルコラム領域の最上部情報、ピクセルコラム領域の視差値、及びピクセルコラム領域のコラム情報のうちの少なくとも1つが含まれていてよい。障害物ピクセルコラム領域の空間位置情報には、水平座標軸上の障害物ピクセルコラム領域の座標と奥行き座標軸上の障害物ピクセルコラム領域の座標が含まれていてよい。障害物ピクセルコラム領域の空間位置情報には、縦座標軸上の障害物ピクセルコラム領域の最高点座標と縦座標軸上の障害物ピクセルコラム領域の最低点座標が含まれていてよい。最高点座標と最低点座標は、障害物の高さを特定するために使用される。前述の方法実施形態の中のS120の説明は、クラスタリングモジュール2420の中に含まれる各部分により実行される具体的な動作の参考とみなされてよく、ここではそれについて詳しく説明しない。
第二の特定モジュール2430は、同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果を特定するように構成される。第二の特定モジュールは、第九のサブモジュールと第十のサブモジュールのうちの少なくとも1つを含んでいてよい。第九のサブモジュールは、同じクラスクラスタに属する障害物ピクセルコラム領域の空間位置情報に応じて環境画像の中の障害物バウンディングボックスを特定するように構成される。第十のサブモジュールは、同じクラスクラスタに属する障害物ピクセルコラム領域の空間位置情報に応じて、障害物の空間位置情報を特定するように構成される。例えば、第十のサブモジュールは、複数の障害物ピクセルコラム領域と環境画像を生成するカメラ機器との間の距離を、同じクラスクラスタに属する複数の障害物ピクセルコラム領域の空間位置情報に応じて特定し、カメラ機器に最も近い障害物ピクセルコラム領域の空間位置情報に応じて障害物の空間位置情報を特定してよい。前述の方法実施形態のS130に関する説明は、第二の特定モジュール2430に含まれる各部分により実行される具体的な動作の参考とみなされてよく、ここではそれについて詳しく説明しない。
訓練モジュール2440は、CNNを訓練するように構成される。例えば、訓練モジュール2440は、両眼画像サンプルのうちの1つを訓練対象のCNNに入力し、CNNが視差分析を行った後、CNNの出力に基づいて左眼画像サンプルの視差マップ及び右眼画像サンプルの視差マップを得る。訓練モジュール2440は、左眼画像サンプルと右眼画像サンプルの視差マップに応じて右眼画像を再構成する。訓練モジュール2440は、右眼画像サンプルと左眼画像サンプルの視差マップに応じて左眼画像を再構成する。訓練モジュール2440は、再構成された左眼画像と左眼画像サンプルとの間の差及び再構成された右眼画像と右眼画像サンプルとの差に応じて、CNNのネットワークパラメータを調整する。図22に関する前述の説明は、訓練モジュール2440により実行される具体的な動作の参考とみなされてよく、ここではそれについて詳しく説明しない。
図25は、本開示による知的運転制御装置の実施形態の構造的概略図である。図25の装置は、取得モジュール2500、障害物検出装置2510、及び制御モジュール2520を含んでいてよい。
取得モジュール2500は、知的機器に提供された画像取得装置を通じて、移動中の知的機器の環境画像を取得するように構成される。障害物検出装置2510は、環境画像に対して障害物検出を実行し、障害物検出結果を特定するように構成される。制御モジュール2520は、障害物検出結果に応じて制御命令を生成し、出力するように構成される。
例示的機器
図26は、本開示を実施するのに適した例示的な機器2600を示している。機器2600は、自動車、移動端末(例えば、スマートモバイルフォン)、PC(例えば、デスクトップコンピュータ又はノートブックコンピュータ)、タブレットコンピュータ及びサーバ等において構成される制御システム/電子システムであってよい。図26において、機器2600は、1つ又は複数のプロセッサ、通信ユニット及びその他を含む。1つ又は複数のプロセッサは、1つ又は複数の中央処理ユニット(CPU)2601及び/又は、ニューラルネットワーク等を使ってビジュアルトラッキングを実行するように構成された1つ又は複数のグラフィクス処理ユニット(GPU)2613であってよい。プロセッサは、Read−Only Memory(ROM)2602に保存された実行可能命令又は記憶部2608からRandom Access Memory(RAM)2603にロードされる実行可能命令に応じた各種の適切な動作及び処理を実行してよい。通信ユニット2612には、ネットワークカードが含まれていてよいがこれに限定されず、ネットワークカードにはInfiniband(IB)ネットワークカードが含まれていてよいがこれに限定されない。プロセッサは、ROM 2602及び/又はRAM 2603と通信して実行可能命令を実行してよく、バス2604を通じて通信ユニット2612と接続され、通信ユニット2612を通じて他の標的機器と通信し、それによって本開示における対応のステップを完了する。
各命令に応じて実行される動作については、方法実施形態の中の関係する説明を参照してよく、ここでは詳しく説明されない。それに加えて、装置の動作により必要とされる様々なプログラム及びデータがさらにRAM 2603の中に保存されてよい。CPU 2601、ROM 2602、及びRAM 2603は、バス2604を通じて相互に接続される。RAM 2603が存在する状況では、ROM 2602は任意選択的モジュールである。RAM 2603は実行可能命令を保存し、又は実行可能命令は、実行中にROM 2602の中に書き込まれ、実行可能命令を通じて、CPU 2601は標的物体方位特定方法又は知的運転制御方法のステップを実行する。入力/出力(I/O)インタフェース2605もまた、バス2604に接続される。通信ユニット2612は統合されてよく、それぞれバスで接続される複数のサブモジュール(例えば、複数のIBネットワークカード)を含むように配置されてもよい。以下の構成要素がI/Oインタフェース2605に接続される:キーボード、マウス、及びその他を含む2606、陰極管(CRT)、液晶表示体(LCD)、スピーカ、及びその他を含む出力部2607、ハードディスク及びその他を含む記憶部2608、並びにモデム及びその他のローカル領域ネットワーク(LAN)カード及びネットワークインタフェースカードを含む通信部2609。通信部2609は、インタネット等のネットワークを通じた通信処理を実行する。ドライバ2610もまた、必要に応じてI/Oインタフェース2605に接続される。リムーバブルメディア2611、例えば磁気ディスク、光ディスク、磁気光ディスク、及び半導体メモリは、必要に応じてドライバ2610に取り付けられ、それによってそこから読み出されるコンピュータプログラムが必要に応じて記憶部2608にインストールされる。
図26に示されるアーキテクチャは任意選択的な実形モードにすぎず、図26の中の構成要素の数と種類は、特定の実践的プロセスにおける実際の要求事項に応じて選択、削除、追加、又は置換されてよいことに特に留意されたい。異なる機能的構成要素の配置の点で、分離された配置又は統合的配置等の実施形態もまた採用されてよい。例えば、GPU 2613及びCPU 2601は分離して配置されてよい。他の例として、GPU 2613はCPU 2601に統合されてよく、通信ユニットは分離して配置されてよく、またCPU 2601又はGPU 2613に統合されてもよい。これらの代替的な実施モードはすべて本開示において開示される保護範囲に含まれる。
特に、本開示の実施モードによれば、フローチャートに関して後述するプロセスは、コンピュータソフトウェアプログラムとして実装されてもよい。例えば、本開示の実施モードは、コンピュータプログラム製品を含み、これは機械可読媒体中に物理的に含められるコンピュータプログラムを含み、コンピュータプログラムは、フローチャートに示されるステップを実行するように構成されたプログラムコードを含み、プログラムコードは、本開示において提供される方法の中のステップに対応する命令を含んでいてよい。この実施モードにおいて、コンピュータプログラムは、通信部2609を通じてネットワークからダウンロードされてインストールされ、及び/又はリムーバブルメディア2611からインストールされてもよい。コンピュータプログラムは、CPU 2601によって実行されて、本開示における対応するステップを実施するための命令が実行される。1つ又は複数の任意選択的な実施モードにおいて、本開示の実施形態はまた、コンピュータ可読命令を記憶するためのコンピュータプログラム製品も提供する。命令は、実行されると、コンピュータが前述の何れかの実施形態における障害物検出方法又は知的運転制御方法を実行できるようにする。
コンピュータプログラム製品は、特にハードウェア、ソフトウェア、又はその組合せによって実現されてよい。任意選択的な例において、コンピュータプログラム製品は、特にコンピュータ記憶媒体として実施され、他の任意選択的な例において、コンピュータプログラム製品は特にソフトウェア製品、例えばSoftware Development Kit(SDK)として実施される。1つ又は複数の任意選択的な実施モードにおいて、本開示の実施形態はまた、他の障害物検出方法及び知的運転制御方法並びにそれに対応する装置及び電子機器、コンピュータ記憶媒体、コンピュータプログラム、及びコンピュータプログラム製品も提供する。方法には、第一の装置が障害物検出命令又は知的運転制御命令を第二の装置に送信し、命令は第二の装置に考え得る何れかの実施形態の障害物検出方法又は知的運転制御方法を実行させ、第一の装置が第二の装置により送信された障害物検出結果又は知的運転制御結果を受信することが含まれる。
幾つかの実施形態において、障害物検出命令又は知的運転制御命令は特にコール命令であってよい。第一の装置は、第二の装置に、障害物検出動作又は知的運転制御動作を実行するようにコール方式で命令してよい。それに対応して、第二の装置は、コール命令を受信したことに応答して、障害物検出方法又は知的運転制御方法の何れかの実施形態の中のステップ及び/又はフローを実行してよい。本開示の実施形態における「第一の」、「第二の」等の用語は区別のために使用されているにすぎないと理解されたく、本開示の実施形態への限定と理解されるべきではない。また、本開示において、「複数の」とは2又は2を超えることを指していてよく、「少なくとも1つの」とは、1、2又は2を超えることを指してよいと理解されたい。また、本開示における何れの構成要素、データ、又は構造についても、その数は、具体的な限界がなく、文脈の中でこれに反する明記が提示されていないかぎり、1つ又は複数と理解できると理解されたい。また、本開示において、各実施形態に関する説明は、各実施形態間の違いを強調して行われており、同じ又は同様の部分は相互に参照されてよく、簡潔にするために詳しく記載されていないことも理解されたい。本開示の方法、装置、電子機器、及びコンピュータ可読記憶媒体は、様々な方法で実装されてよい。例えば、本開示の方法、装置、電子機器、及びコンピュータ可読記憶媒体は、ソフトウェア、ハードウェア、ファームウェア、又はソフトウェア、ハードウェア、及びファームウェアの何れかの組合せを通じて実装されてよい。方法のステップの順序は説明のためにすぎず、本開示の方法のステップは、他に別段の明示がないかぎり、具体的な前述の順序に限定されない。それに加えて、幾つかの実施モードにおいて、本開示はまた、記録媒体内に記録されるプログラムとして実装されてもよく、プログラムは本開示による方法を実施するように構成された機械可読命令を含む。したがって、本開示はさらに、本開示による方法を実行するように構成されたプログラムを記憶する記録媒体もカバーする。本開示の説明は例示と説明のために行われており、すべてを網羅しているのではなく、本開示を開示された形態に限定されることも意図されていない。多くの改良や変更が当業者にとって明らかである。実施モードは、本開示の原理及び実践的利用をよりよく説明し、当業者が本開示の実施形態を理解でき、特定の目的に適した、各種の改良を含む様々な実施モードをさらに設計できるようにするために選択され、記載されている。

Claims (69)

  1. 障害物検出方法において、
    環境画像の第一の視差マップを取得するステップであって、前記環境画像は知的機器が移動している空間環境の情報を表す画像であるステップと、
    前記環境画像の前記第一の視差マップの中で、複数の障害物ピクセル領域を特定するステップと、
    前記複数の障害物ピクセル領域をクラスタリングして、少なくとも1つのクラスクラスタを取得するステップと、
    同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果を特定するステップと、
    を含む方法。
  2. 前記環境画像は単眼画像を含み、
    前記環境画像の前記第一の視差マップを取得した後に、前記方法は、
    前記単眼画像を反転させることによって第一の反転画像を取得し、前記第一の反転画像の視差マップを取得するステップと、
    前記第一の反転画像の前記視差マップに応じて前記単眼画像の前記第一の視差マップに視差調整を行い、視差調整を行った前記第一の視差マップを取得するステップと、
    をさらに含み、
    前記環境画像の前記第一の視差マップの中の前記複数の障害物ピクセル領域を特定するステップは、
    前記第一の視差マップの中の、視差調整が行われた前記複数の障害物ピクセル領域を特定するステップを含む
    請求項1に記載の方法。
  3. 前記第一の反転画像の前記視差マップに応じて前記単眼画像の前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するステップは、
    前記第一の反転画像の前記視差マップを反転させることによって第二の反転画像を取得するステップと、
    前記第一の視差マップの重量配分マップと前記第二の反転画像の重量配分マップに応じて前記第一の視差マップに視差調整を行い、視差調整が行われた第一の視差マップを取得するステップと、
    をさらに含み、
    前記第一の視差マップの前記重量配分マップは、それぞれ前記第一の視差マップ内の複数の視差値に対応する重量値を含み、前記第二の反転画像の前記重量配分マップは、それぞれ前記第二の反転画像内の前記複数の視差値に対応する重量を含む、
    請求項2に記載の方法。
  4. 前記重量配分マップは、第一の重量配分マップ又は第二の重量配分マップの少なくとも一方を含み、
    前記第一の重量配分マップは、複数の環境画像について一律に設定された重量配分マップであり、
    前記第二の重量配分マップは、異なる環境画像についてそれぞれ設定された重量配分マップである、
    請求項3に記載の方法。
  5. 前記第一の重量配分マップは、左右に分離された少なくとも2つの領域を含み、異なる領域は異なる重量値を有する、請求項4に記載の方法。
  6. 前記単眼画像が左眼画像であるとき、
    前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくない、
    請求項5に記載の方法。
  7. 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくない、
    請求項6に記載の方法。
  8. 前記単眼画像が右眼画像であるとき、
    前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくない、
    請求項5に記載の方法。
  9. 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の前記右部分の前記重量値は前記領域の前記左部分の前記重量値より大きくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の前記右部分の前記重量値は前記領域の前記左部分の前記重量値より大きくない、
    請求項8に記載の方法。
  10. 前記第一の視差マップの前記第二の重量配分マップの設定モードは、
    前記第一の視差マップを反転させて反転視差マップを形成するステップと、
    前記第一の視差マップの前記反転視差マップの中の視差値に応じて、前記第一の視差マップの前記第二の重量配分マップの中の前記重量値を、前記第一の視差マップの前記反転視差マップの中の視差値に応じて設定するステップと、
    を含む、請求項4〜9の何れか1項に記載の方法。
  11. 前記第一の視差マップの前記第二の重量配分マップの中の前記重量値を、前記第一の視差マップの前記反転視差マップの中の前記視差値に応じて設定するステップは、
    前記反転視差マップの中の何れの位置のピクセルについても、前記位置における前記ピクセルの前記視差値が第一の所定の条件を満たせば、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第一の値として設定するステップを含む、
    請求項10に記載の方法。
  12. 前記位置における前記ピクセルの前記視差値が前記第一の所定の条件を満たさなければ、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第二の値として設定するステップをさらに含み、前記第一の値は前記第二の値より大きい、
    請求項11に記載の方法。
  13. 前記第一の所定の条件は、前記位置における前記ピクセルの前記視差値が前記位置における前記ピクセルの第一の参照値より大きいことを含み、前記位置における前記ピクセルの前記第一の参照値は、前記第一の視差マップの前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
    請求項11又は12に記載の方法。
  14. 前記第二の反転画像の前記第二の重量配分マップの設定モードは、
    前記第二の反転画像の前記第二の重量配分マップの前記重量値を前記第一の視差マップの中の前記視差値に応じて設定するステップを含む、
    請求項4〜13の何れか1項に記載の方法。
  15. 前記第二の反転画像の前記第二の重量配分マップの前記重量値を前記第一の視差マップの中の前記視差値に応じて設定するステップは、
    前記第二の反転画像の中の何れの位置における前記ピクセルについても、
    前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が第二の所定の条件を満たせば、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第三の値として設定するステップを含む、
    請求項14に記載の方法。
  16. 前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が前記第二の所定の条件を満たさなければ、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第四の値として設定するステップをさらに含み、前記第三の値は前記第四の値より大きい、
    請求項15に記載の方法。
  17. 前記第二の所定の条件は、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値は、前記位置における前記ピクセルの第二の参照値より大きいことを含み、前記位置における前記ピクセルの前記第二の参照値は、前記第一の視差マップの前記反転視差マップの中の前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
    請求項15又は16に記載の方法。
  18. 前記第一の視差マップの前記重量配分マップと前記第二の反転画像の前記重量配分マップに応じて前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するステップは、
    前記第一の視差マップの前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第一の視差マップの中の視差値を調整するステップと、
    前記第二の反転画像の前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第二の反転画像の中の視差値を調整するステップと、
    視差調整された前記第一の視差マップと視差値が調整された前記第二の反転画像を組み合わせて、視差調整が行われた前記第一の視差マップを最終的に取得するステップと、
    を含む、
    請求項4〜17の何れか1項に記載の方法。
  19. 前記環境画像は単眼画像を含み、
    前記環境画像の前記第一の視差マップを取得するステップは、
    前記単眼画像についてコンボリューションニューラルネットワーク(CNN)で視差分析を実行し、前記CNNの出力に基づいて前記単眼画像の第一の視差マップを取得するステップを含み、
    前記CNNは両眼画像サンプルで訓練される、
    請求項1に記載の方法。
  20. 前記CNNの訓練プロセスは、
    前記両眼画像サンプルの1つを訓練対象のCNNに入力して視差分析を行い、前記CNNの前記出力に基づいて、左眼画像サンプルの前記視差マップ及び右眼画像サンプルの前記視差マップを取得するステップと、
    前記左眼画像サンプルと前記右眼画像サンプルの前記視差マップに応じて前記右眼画像を再構成するステップと、
    前記右眼画像サンプルと前記左眼画像サンプルの前記視差マップに応じて前記左眼画像を再構成するステップと、
    前記再構成された左眼画像と前記左眼画像サンプルとの差及び前記再構成された右眼画像と前記右眼画像サンプルとの差に応じて、前記CNNのネットワークパラメータを調整するステップと、
    を含む、
    請求項19に記載の方法。
  21. 前記環境画像の前記第一の視差マップの中の複数の障害物ピクセル領域を特定するステップは、
    前記環境画像の前記第一の視差マップにエッジ検出を行って、障害物エッジ情報を取得するステップと、
    前記環境画像の前記第一の視差マップにおける障害物領域を特定するステップと、
    前記障害物領域の中の複数の障害物ピクセルコラム領域を前記障害物エッジ情報に応じて特定するステップと、
    を含む、
    請求項1〜20の何れか1項に記載の方法。
  22. 前記環境画像の前記第一の視差マップの中の前記障害物領域を特定するステップは、
    前記第一の視差マップの中の各ピクセルローの視差値に統計的分析を行って各ピクセルローの前記視差値の統計的情報を取得するステップと、
    各ピクセルローの前記視差値の前記統計的情報に基づいて、統計的視差マップを特定するステップと、
    前記統計的視差マップに第一の線形フィッティングを行い、前記第一の線形フィッティングの結果に応じて地面領域と非地面領域を特定するステップと、
    前記非地面領域に応じて前記障害物領域を特定するステップと、
    を含む、請求項21に記載の方法。
  23. 前記非地面領域は、前記地面より上の第一の領域又は、前記地面より上の第一の領域及び前記地面より下の第二の領域のうちの一方を含む、請求項22に記載の方法。
  24. 前記非地面領域に応じて前記障害物領域を特定するステップは、
    前記統計的視差マップに第二の線形フィッティングを行い、前記第二の線形フィッティングの結果に応じて、前記第一の領域の中で、その地面より上の高さが第一の所定の高さ値より小さい第一の標的領域を特定するステップであって、前記第一の標的領域は前記障害物領域であるステップと、
    前記非地面領域の中に前記地面より下の第二の領域がある場合、前記第二の領域の中で、その前記地面より下の高さが第二の所定の高さ値より大きい第二の標的領域を特定するステップであって、前記第二の標的領域は前記障害物領域であるステップと、
    を含む、
    請求項23に記載の方法。
  25. 前記第一の視差マップの前記障害物領域内の前記複数の障害物ピクセルコラム領域を前記障害物エッジ情報に応じて特定するステップは、
    前記第一の視差マップ内の非障害物領域のピクセルの視差値及び前記障害物エッジ情報のピクセルの視差値を所定の値として設定し、
    前記第一の視差マップのコラム方向にN個のピクセルを横方向単位とみなし、前記第一の視差マップの設定されたローから各ローのN個のピクセルの前記視差値を調べて、前記ピクセルの前記視差値が前記所定の値と所定以外の値との間で飛ぶ標的ローを特定するステップであって、Nは正の整数であるステップと、
    前記コラム方向へのN個のピクセルをコラム幅とみなすことによって前記障害物領域内の前記障害物ピクセルコラム領域を特定し、前記特定された標的ローを前記ロー方向への前記障害物ピクセルコラム領域の境界とみなすステップと、
    を含む、
    請求項21〜24の何れか1項に記載の方法。
  26. 前記障害物ピクセル領域は前記障害物ピクセルコラム領域を含み、
    前記複数の障害物ピクセル領域をクラスタリングするステップは、
    前記複数の障害物ピクセルコラム領域の空間位置情報を特定するステップと、
    前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて前記複数の障害物ピクセルコラム領域をクラスタリングするステップと、
    を含む、
    請求項1〜25の何れか1項に記載の方法。
  27. 前記複数の障害物ピクセルコラム領域の前記空間位置情報を特定するステップは、
    何れの障害物ピクセルコラム領域についても、前記障害物ピクセルコラム領域に含まれるピクセルに応じて前記障害物ピクセルコラム領域の属性情報を特定し、前記障害物ピクセルコラム領域の前記属性情報に応じて前記障害物ピクセルコラム領域の前記空間位置情報を特定するステップを含む、
    請求項26に記載の方法。
  28. 前記障害物ピクセルコラム領域の前記属性情報は、前記ピクセルコラム領域の底部情報、前記ピクセルコラム領域の最上部情報、前記ピクセルコラム領域の視差値、及び前記ピクセルコラム領域のコラム情報のうちの少なくとも1つを含む、請求項27に記載の方法。
  29. 前記障害物ピクセルコラム領域の前記空間位置情報は、水平座標軸上の前記障害物ピクセルコラム領域の座標及び奥行き座標軸上の障害物ピクセルコラム領域の座標を含む、請求項26〜28の何れか1項に記載の方法。
  30. 前記障害物ピクセルコラム領域の前記空間位置情報は、縦座標軸上の前記障害物ピクセルコラム領域の最高点座標及び前記縦座標軸上の前記障害物ピクセルコラム領域の最低点座標をさらに含み、
    前記最高点座標及び前記最低点座標は、前記障害物の高さを特定するために使用される、
    請求項29に記載の方法。
  31. 前記障害物ピクセル領域は前記障害物ピクセルコラム領域を含み、
    前記同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果を特定するステップは、
    前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて前記環境画像内の障害物バウンディングボックスを特定するステップ及び/又は
    前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて前記障害物の前記空間位置情報を特定するステップ
    を含む、
    請求項1〜30の何れか1項に記載の方法。
  32. 前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて前記障害物の前記空間位置情報を特定するステップは、
    複数の障害物ピクセルコラム領域と前記環境画像を生成するカメラ機器との間の距離を、前記同じクラスクラスタに属する前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて特定するステップと、
    前記カメラ機器に最も近い前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記障害物の前記空間位置情報を特定するステップと、
    を含む、請求項31に記載の方法。
  33. 知的運転制御方法において、
    移動中の知的機器の環境画像を前記知的機器に搭載された画像取得装置を介して取得するステップと、
    前記取得された環境画像に障害物検出を行って、請求項1〜32の何れか1項に記載の前記方法を使って障害物検出結果を特定するステップと、
    前記障害物検出結果に応じて制御命令を生成し、出力するステップと、
    を含む方法。
  34. 障害物検出装置において、
    環境画像の第一の視差マップを取得するように構成された取得モジュールであって、前記環境画像は、知的機器が移動している空間環境の情報を表す画像である取得モジュールと、
    前記環境画像の前記第一の視差マップの中で複数の障害物ピクセル領域を特定するように構成された第一の特定モジュールと、
    前記複数の障害物ピクセル領域をクラスタリングして、少なくとも1つのクラスクラスタを取得するように構成されたクラスタリングモジュールと、
    同じクラスクラスタに属する前記障害物ピクセル領域に応じて障害物検出結果を特定するように構成された第二の特定モジュールと、
    を含む障害物検出装置。
  35. 前記取得モジュールは、
    前記環境画像の前記単眼画像を反転させることによって第一の反転画像を取得し、前記第一の反転画像の視差マップを取得するように構成された第二のサブモジュールと、
    前記第一の反転画像の前記視差マップに応じて前記単眼画像の前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するように構成された第三のサブモジュールと、
    をさらに含み、
    前記第一の特定モジュールはさらに、
    視差調整された前記第一の視差マップの中の前記複数の複数の障害物ピクセル領域を特定するように構成される、
    請求項34に記載の装置。
  36. 前記第三のサブモジュールは、
    前記第一の反転画像の前記視差マップを反転させることによって第二の反転画像を取得するように構成された第一のユニットと、
    前記第一の視差マップの重量配分マップ及び前記第二の反転画像の重量配分マップに応じて、前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するように構成された第二のユニットと、
    を含み、
    前記第一の視差マップの前記重量配分マップは、それぞれ前記第一の視差マップの複数の視差値に対応する重量値を含み、前記第二の反転画像の前記重量配分マップは、それぞれ前記第二の反転画像の中の前記複数の視差値に対応する重量を含む、
    請求項35に記載の装置。
  37. 前記重量配分マップは、第一の重量配分マップ及び/又は第二の重量配分マップを含み、
    前記第一の重量配分マップは、複数の前記環境画像のために一律に設定された重量配分マップであり、
    前記第二の重量配分マップは、異なる環境画像のためにそれぞれ設定された重量配分マップである、
    請求項36に記載の装置。
  38. 前記第一の重量配分マップは左右に分離された少なくとも2つの領域を含み、異なる領域は異なる重量値を有する、請求項37に記載の装置。
  39. 前記単眼画像が左眼画像である場合、
    前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくない、
    請求項38に記載の装置。
  40. 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくない、
    請求項39に記載の装置。
  41. 前記単眼画像が右眼画像である場合、
    前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくない、
    請求項38に記載の装置。
  42. 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の右部分の前記重量値は前記領域の左部分の前記重量値より大きくなく、
    前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の右部分の前記重量値は前記領域の左部分の前記重量値より大きくない、
    請求項41に記載の装置。
  43. 前記第三のサブモジュールは、前記第一の視差マップの前記第二の重量配分マップを設定するように構成された第三のユニットをさらに含み、
    前記第三のユニットは、前記第一の視差マップを反転させて反転視差マップを形成し、前記第一の視差マップの前記反転視差マップの中の前記視差値に応じて前記第一の視差マップの前記第二の重量配分マップの中の前記重量値を設定する、
    請求項37〜42の何れか1項に記載の装置。
  44. 前記第三のユニットはさらに、前記反転視差マップの中の何れの位置におけるピクセルについても、前記位置における前記ピクセルの前記視差値が第一の所定の条件を満たせば、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第一の値として設定するように構成される、請求項43に記載の装置。
  45. 前記第三のユニットはさらに、前記位置における前記ピクセルの前記視差値が前記第一の所定の条件を満たさなければ、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第二の値として設定するように構成され、前記第一の値は前記第二の値より大きい、請求項44に記載の装置。
  46. 前記第一の所定の条件は、前記位置における前記ピクセルの前記視差値が前記位置における前記ピクセルの第一の参照値より大きいことを含み、
    前記位置における前記ピクセルの前記第一の参照値は、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
    請求項44又は45に記載の装置。
  47. 前記第三のサブモジュールは、前記第二の反転画像の前記第二の重量配分マップを設定するように構成された第四のユニットをさらに含み、
    前記第四のユニットは、前記第一の視差マップの中の前記視差値に応じて前記第二の反転画像の前記第二重量配分マップの中の前記重量値を設定する、
    請求項37〜46の何れか1項に記載の装置。
  48. 前記第四のユニットはさらに、前記第二の反転画像の中の何れの位置におけるピクセルについても、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が第二の所定の条件を満たせば、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第三の値として設定するように構成される、請求項47に記載の装置。
  49. 前記第四のユニットはさらに、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が前記第二の所定の条件を満たさなければ、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第四の値として設定するように構成され、前記第三の値は前記第四の値より大きい、請求項48に記載の装置。
  50. 前記第二の所定の条件は、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が前記位置における前記ピクセルの第二の参照値より大きいことを含み、
    前記位置における前記ピクセルの前記第二の参照値は、前記第一の視差マップの前記反転視差マップの中の前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
    請求項48又は49に記載の装置。
  51. 前記第二のユニットはさらに、
    前記第一の視差マップの前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第一の視差マップの中の前記視差値を調整し、
    前記第二の反転画像の前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第二の反転画像の中の前記視差値を調整し、
    視差調整が行われた前記第一の視差マップと視差値調整が行われた前記第二の反転画像を組み合わせて、視差調整が行われた前記第一の視差マップを最終的に取得する
    ように構成される、請求項37〜50の何れか1項に記載の装置。
  52. 前記環境画像は前記単眼画像を含み、
    前記取得モジュールは、
    前記単眼画像にコンボリューションニューラルネットワーク(CNN)で視差分析を行い、前記CNNの出力に基づいて前記単眼画像の前記第一の視差マップを取得するように構成された第一のサブモジュールを含み、
    前記CNNは両眼画像サンプルで訓練される、
    請求項34に記載の装置。
  53. 前記CNNを訓練するように構成された訓練モジュールをさらに含み、前記訓練モジュールはさらに、
    前記両眼画像サンプルの1つを訓練対象のCNNに入力し、視差分析を行い、前記CNNの出力に基づいて左眼画像サンプルの前記視差マップと右眼画像サンプルの前記視差マップを取得し、
    前記左眼画像サンプルと前記右眼画像サンプルの前記視差マップに応じて前記右眼画像を再構成し、
    前記右眼画像サンプルと前記左眼画像サンプルの前記視差マップに応じて前記左眼画像を再構成し、
    前記再構成された左眼画像と前記左眼画像サンプルとの間の差及び前記再構成された右眼画像と前記右眼画像サンプルとの差に応じて前記CNNのネットワークパラメータを調整する
    ように構成される、請求項52に記載の装置。
  54. 前記第一の特定モジュールは、
    前記環境画像の前記第一の視差マップにエッジ検出を行い、障害物エッジ情報を取得するように構成された第四のサブモジュールと、
    前記環境画像の前記第一の視差マップの中の障害物領域を特定するように構成された第五のサブモジュールと、
    前記障害物エッジ情報に応じて前記障害物領域の中の複数の障害物ピクセルコラム領域を特定するように構成された第六のサブモジュールと、
    を含む、請求項34〜53の何れか1項に記載の装置。
  55. 前記第五のサブモジュールは、
    前記第一の視差マップの各ピクセルローの前記視差値に統計的分析を行い、各ピクセルローの前記視差値の統計的情報を取得するように構成された第五のユニットと、
    各ピクセルローの前記視差値の前記統計的情報に基づいて統計的視差マップを特定するように構成された第六のユニットと、
    前記統計的視差マップに第一の線形フィッティングを行い、前記第一の線形フィッティングの結果に応じて地面領域及び非地面領域を特定するように構成された第七のユニットと、
    前記非地面領域に応じて前記障害物領域を特定するように構成された第八のユニットと、
    を含む、請求項54に記載の装置。
  56. 前記非地面領域は前記地面より上の第一の領域を含み、又は前記非地面領域は、前記地面より上の第一の領域と前記地面より下の第二の領域を含む、請求項55に記載の装置。
  57. 前記第八のユニットはさらに、
    前記統計的視差マップに第二の線形フィッティングを行い、前記第二の線形フィッティングの結果に応じて、前記第一の領域の中で、その前記地面より上の高さが第一の所定の高さ値より小さい前記第一の標的領域を特定し、前記第一の標的領域は前記障害物領域であり、
    前記非地面領域の中に前記地面より下の第二の領域がある場合、前記第二の領域の中で、その前記地面より下の高さが第二の所定の高さ値より大きい第二の標的領域を特定し、前記第二の標的領域は前記障害物領域である、
    ように構成される、請求項56に記載の装置。
  58. 前記第六のサブモジュールはさらに、
    前記第一の視差マップの中の非障害物領域の前記ピクセルの前記視差値及び前記障害物エッジ情報の前記ピクセルの前記視差値を所定の値に設定し、
    前記第一の視差マップの前記コラム方向にN個のピクセルを横方向単位とみなし、前記第一の視差マップの前記設定されたローから各ローの中のN個のピクセルの前記視差値を調べて、前記ピクセルの前記視差値が前記所定の値と所定以外の値との間で飛ぶ標的ローを特定し、前記Nは正の整数であり、
    前記コラム方向にN個のピクセルをコラム幅とみなし、前記特定された標的ローを前記ロー方向への前記障害物ピクセルコラム領域の境界とみなすことによって、前記障害物領域の中の前記障害物ピクセルコラム領域を特定する
    ように構成される、請求項54〜57の何れか1項に記載の装置。
  59. 前記障害物ピクセル領域は、前記障害物ピクセルコラム領域を含み、前記クラスタリングモジュールは、
    前記複数の障害物ピクセルコラム領域の空間位置情報を特定するように構成された第七のサブモジュールと、
    前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて、前記複数の障害物ピクセルコラム領域をクラスタリングするように構成される第八のサブモジュールと、
    を含む、請求項34〜58の何れか1項に記載の装置。
  60. 前記第八のサブモジュールはさらに、
    何れの障害物ピクセルコラム領域についても、前記障害物ピクセルコラム領域に含まれる前記ピクセルに応じて、前記障害物ピクセルコラム領域の属性情報を特定し、前記障害物ピクセルコラム領域の前記属性情報に応じて前記障害物ピクセルコラム領域の前記空間位置情報を特定する
    ように構成される、請求項59に記載の装置。
  61. 前記障害物ピクセルコラム領域の前記属性情報は、前記ピクセルコラム領域の底部情報、前記ピクセルコラム領域の最上部情報、前記ピクセルコラム領域の視差値、及び前記ピクセルコラム領域のコラム情報のうちの少なくとも1つを含む、請求項60に記載の装置。
  62. 前記障害物ピクセルコラム領域の前記空間位置情報は、水平座標軸上の前記障害物ピクセルコラム領域の座標と奥行き座標軸上の前記障害物ピクセルコラム領域の座標を含む、請求項59〜61の何れか1項に記載の装置。
  63. 前記障害物ピクセルコラム領域の前記空間位置情報は、縦座標軸上の前記障害物ピクセルコラム領域の最高点座標と前記縦座標軸上の前記障害物ピクセルコラム領域の最低点座標をさらに含み、
    前記最高点座標及び前記最低点座標は、前記障害物の高さを特定するために使用される、
    請求項62に記載の装置。
  64. 前記障害物ピクセル領域は、前記障害物ピクセルコラム領域を含み、前記第二の特定モジュールは、
    前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記環境画像の中の障害物バウンディングボックスを特定するように構成された第九のサブモジュール及び/又は
    前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記障害物の前記空間位置情報を特定するように構成される第十のサブモジュール
    を含む、請求項34〜63の何れか1項に記載の装置。
  65. 前記第十のサブモジュールはさらに、
    前記同じクラスクラスタに属する前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて、前記複数の障害物ピクセルコラム領域と前記環境画像を生成するカメラ機器との間の距離を特定し、
    前記カメラ機器に最も近い前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記障害物の前記空間位置情報を特定する
    ように構成される、請求項64に記載の装置。
  66. 知的運転制御装置において、
    移動中の知的機器の環境画像を、前記知的機器上に提供された画像取得装置を通じて取得し、
    前記得られた環境画像に対する障害物検出を行って、請求項34〜65の何れか1項に記載の前記装置を使用することによって障害物検出結果を特定するように構成された取得モジュールと、
    前記障害物検出結果に応じて制御命令を生成し、出力するように構成された制御モジュールと、
    を含む知的運転制御装置。
  67. 電子機器において、
    コンピュータプログラムを記憶するように構成されたメモリと、
    前記メモリに記憶された前記コンピュータプログラムを実行するように構成されたプロセッサであって、前記コンピュータプログラムは、実行されると、請求項1〜33の何れか1項に記載の方法を実施するプロセッサと、
    を含む電子機器。
  68. コンピュータプログラムを記憶するコンピュータ可読記憶媒体において、前記コンピュータプログラムは、プロセッサにより実行されると、請求項1〜33の何れか1項に記載の方法を実施するコンピュータ可読記憶媒体。
  69. コンピュータ命令を含むコンピュータプログラムにおいて、機器のプロセッサの中での実行中に、前記コンピュータ命令は、請求項1〜33の何れか1項に記載の方法を実施するコンピュータプログラム。
JP2021513777A 2019-06-27 2019-11-26 障害物検出方法、知的運転制御方法、装置、媒体、及び機器 Ceased JP2021536071A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910566416.2 2019-06-27
CN201910566416.2A CN112149458A (zh) 2019-06-27 2019-06-27 障碍物检测方法、智能驾驶控制方法、装置、介质及设备
PCT/CN2019/120833 WO2020258703A1 (zh) 2019-06-27 2019-11-26 障碍物检测方法、智能驾驶控制方法、装置、介质及设备

Publications (1)

Publication Number Publication Date
JP2021536071A true JP2021536071A (ja) 2021-12-23

Family

ID=73868506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021513777A Ceased JP2021536071A (ja) 2019-06-27 2019-11-26 障害物検出方法、知的運転制御方法、装置、媒体、及び機器

Country Status (6)

Country Link
US (1) US20210117704A1 (ja)
JP (1) JP2021536071A (ja)
KR (1) KR20210043628A (ja)
CN (1) CN112149458A (ja)
SG (1) SG11202013264YA (ja)
WO (1) WO2020258703A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102125538B1 (ko) * 2019-12-13 2020-06-22 주식회사 토르 드라이브 자율 주행을 위한 효율적인 맵 매칭 방법 및 그 장치
CN112733653A (zh) * 2020-12-30 2021-04-30 智车优行科技(北京)有限公司 目标检测方法和装置、计算机可读存储介质、电子设备
CN112631312B (zh) * 2021-03-08 2021-06-04 北京三快在线科技有限公司 一种无人设备的控制方法、装置、存储介质及电子设备
CN113269838B (zh) * 2021-05-20 2023-04-07 西安交通大学 一种基于fira平台的障碍物视觉检测方法
CN113747058B (zh) * 2021-07-27 2023-06-23 荣耀终端有限公司 基于多摄像头的图像内容屏蔽方法和装置
CN113792583A (zh) * 2021-08-03 2021-12-14 北京中科慧眼科技有限公司 基于可行驶区域的障碍物检测方法、系统和智能终端
KR102623109B1 (ko) * 2021-09-10 2024-01-10 중앙대학교 산학협력단 합성곱 신경망 모델을 이용한 3차원 의료 영상 분석 시스템 및 방법
CN114119700B (zh) * 2021-11-26 2024-03-29 山东科技大学 一种基于u-v视差图的障碍物测距方法
CN115474032B (zh) * 2022-09-14 2023-10-03 深圳市火乐科技发展有限公司 投影交互方法、投影设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955943A (zh) * 2014-05-21 2014-07-30 西安电子科技大学 基于融合变化检测算子与尺度驱动的无监督变化检测方法
JP2016110656A (ja) * 2014-12-09 2016-06-20 株式会社リコー オブジェクト追跡方法及び装置
US20180231871A1 (en) * 2016-06-27 2018-08-16 Zhejiang Gongshang University Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN108725440A (zh) * 2018-04-20 2018-11-02 深圳市商汤科技有限公司 前向碰撞控制方法和装置、电子设备、程序和介质
JP2019502213A (ja) * 2016-01-14 2019-01-24 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 時系列に基づいたデータ予測方法及び装置
CN109508673A (zh) * 2018-11-13 2019-03-22 大连理工大学 一种基于棒状像素的交通场景障碍检测与识别方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100962329B1 (ko) * 2009-02-05 2010-06-10 연세대학교 산학협력단 스테레오 카메라 영상으로부터의 지면 추출 방법과 장치 및이와 같은 방법을 구현하는 프로그램이 기록된 기록매체
CN101701818B (zh) * 2009-11-05 2011-03-30 上海交通大学 远距离障碍的检测方法
CN105095905B (zh) * 2014-04-18 2018-06-22 株式会社理光 目标识别方法和目标识别装置
CN104573646B (zh) * 2014-12-29 2017-12-12 长安大学 基于激光雷达和双目相机的车前行人检测方法及系统
CN105866790B (zh) * 2016-04-07 2018-08-10 重庆大学 一种考虑激光发射强度的激光雷达障碍物识别方法及系统
CN109890576B (zh) * 2016-08-25 2022-04-22 Lg电子株式会社 移动机器人及其控制方法
WO2018069757A2 (en) * 2016-10-11 2018-04-19 Mobileye Vision Technologies Ltd. Navigating a vehicle based on a detected barrier
CN106708084B (zh) * 2016-11-24 2019-08-02 中国科学院自动化研究所 复杂环境下无人机自动障碍物检测和避障方法
WO2018120040A1 (zh) * 2016-12-30 2018-07-05 深圳前海达闼云端智能科技有限公司 一种障碍物检测方法及装置
CN107729856B (zh) * 2017-10-26 2019-08-23 海信集团有限公司 一种障碍物检测方法及装置
CN108197698B (zh) * 2017-12-13 2022-10-14 中国科学院自动化研究所 基于多模态融合的多脑区协同自主决策方法
CN108961327B (zh) * 2018-05-22 2021-03-30 深圳市商汤科技有限公司 一种单目深度估计方法及其装置、设备和存储介质
CN109190704A (zh) * 2018-09-06 2019-01-11 中国科学院深圳先进技术研究院 障碍物检测的方法及机器人
CN109087346B (zh) * 2018-09-21 2020-08-11 北京地平线机器人技术研发有限公司 单目深度模型的训练方法、训练装置和电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955943A (zh) * 2014-05-21 2014-07-30 西安电子科技大学 基于融合变化检测算子与尺度驱动的无监督变化检测方法
JP2016110656A (ja) * 2014-12-09 2016-06-20 株式会社リコー オブジェクト追跡方法及び装置
JP2019502213A (ja) * 2016-01-14 2019-01-24 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 時系列に基づいたデータ予測方法及び装置
US20180231871A1 (en) * 2016-06-27 2018-08-16 Zhejiang Gongshang University Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN108725440A (zh) * 2018-04-20 2018-11-02 深圳市商汤科技有限公司 前向碰撞控制方法和装置、电子设备、程序和介质
CN109508673A (zh) * 2018-11-13 2019-03-22 大连理工大学 一种基于棒状像素的交通场景障碍检测与识别方法

Also Published As

Publication number Publication date
KR20210043628A (ko) 2021-04-21
US20210117704A1 (en) 2021-04-22
WO2020258703A1 (zh) 2020-12-30
SG11202013264YA (en) 2021-01-28
CN112149458A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
JP2021536071A (ja) 障害物検出方法、知的運転制御方法、装置、媒体、及び機器
CN109635685B (zh) 目标对象3d检测方法、装置、介质及设备
US20220076444A1 (en) Methods and apparatuses for object detection, and devices
CN110826357B (zh) 对象三维检测及智能驾驶控制的方法、装置、介质及设备
JP2021523443A (ja) Lidarデータと画像データの関連付け
CN108985230A (zh) 车道线检测方法、装置及计算机可读存储介质
CN111582054B (zh) 点云数据处理方法及装置、障碍物检测方法及装置
JP7091485B2 (ja) 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器
CN111209825A (zh) 一种用于动态目标3d检测的方法和装置
CN111414807A (zh) 一种基于yolo技术的潮水识别与危机预警方法
US20210078597A1 (en) Method and apparatus for determining an orientation of a target object, method and apparatus for controlling intelligent driving control, and device
CN117015792A (zh) 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法
US20220335572A1 (en) Semantically accurate super-resolution generative adversarial networks
US20230087261A1 (en) Three-dimensional target estimation using keypoints
CN117557784A (zh) 目标检测方法、装置、电子设备及存储介质
CN112529011A (zh) 目标检测方法及相关装置
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
CN113284221B (zh) 一种目标物检测方法、装置及电子设备
KR20240012426A (ko) 비제약 이미지 안정화
CN113554882A (zh) 用于输出信息的方法、装置、设备以及存储介质
CN117372988B (zh) 道路边界检测方法、装置、电子设备及存储介质
CN115345919B (zh) 一种深度确定方法、装置、电子设备以及存储介质
CN117516561A (zh) 地图构建方法、装置、设备、存储介质和程序产品
CN117876387A (zh) 图像分割方法及装置
CN117636098A (zh) 模型训练、目标检测、车辆控制方法、装置、设备及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20230324