JP2021529370A - ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器 - Google Patents

ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器 Download PDF

Info

Publication number
JP2021529370A
JP2021529370A JP2020568297A JP2020568297A JP2021529370A JP 2021529370 A JP2021529370 A JP 2021529370A JP 2020568297 A JP2020568297 A JP 2020568297A JP 2020568297 A JP2020568297 A JP 2020568297A JP 2021529370 A JP2021529370 A JP 2021529370A
Authority
JP
Japan
Prior art keywords
visible
vehicle
target
points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020568297A
Other languages
English (en)
Inventor
インジエ ツァイ
シーナン リウ
シンユー ゾン
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2021529370A publication Critical patent/JP2021529370A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本願の実施形態は、ターゲット対象の向きの決定方法及び装置、スマート運転制御方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムを開示する。該ターゲット対象の向きの決定方法は、ターゲット対象の向きの決定方法は、画像におけるターゲット対象の可視面を取得することと、三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することと、前記位置情報に基づいて、前記ターゲット対象の向きを決定することと、を含む。

Description

(関連出願の相互参照)
本願は、2019年5月31日に中国特許局提出された出願番号201910470314.0、発明名称「ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器」の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、コンピュータビジョン技術に関し、特に、ターゲット対象の向きの決定方法、ターゲット対象の向きの決定装置、スマート運転制御方法、スマート運転制御装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
車両、他の乗り物及び歩行者などのターゲット対象の向きの決定は、視覚的認知技術における重要な事項である。例えば、道路状況が複雑である適用シーンにおいて、車両の向きを正確に決定することは、交通事故の発生を避けるのに寄与し、更に、車両のスマート運転の安全性の向上に寄与する。
本願の実施例形態は、ターゲット対象の向きの決定の技術的解決手段及びスマート運転制御の技術的解決手段を提供する。
本願の実施形態の第1態様によれば、ターゲット対象の向きの決定方法を提供する。該方法は、画像におけるターゲット対象の可視面を取得することと、三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することと、前記位置情報に基づいて、前記ターゲット対象の向きを決定することと、を含む。
本願の実施形態の第2態様によれば、スマート運転制御方法を提供する。前記方法は、車両に設けられた撮像装置により、前記車両が位置する路面のビデオストリームを取得することと、ターゲット対象の向きの決定方法を利用して、前記ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得ることと、前記ターゲット対象の向きに基づいて、前記車両の制御命令を生成して出力することと、を含む。
本願の実施形態の第3態様によれば、ターゲット対象の向きの決定装置を提供する。該装置は、画像におけるターゲット対象の可視面を取得するように構成される第1取得モジュールと、三次元空間の水平面での、前記可視面における複数の点の位置情報を取得するように構成される第2取得モジュールと、前記位置情報に基づいて、前記ターゲット対象の向きを決定するように構成される決定モジュールと、を備える。
本願の実施形態の第4態様によれば、スマート運転制御装置を提供する。前記装置は、車両に設けられた撮像装置により、前記車両が位置する路面のビデオストリームを取得するように構成される第3取得モジュールと、ターゲット対象の向きの決定方法を利用して、前記ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得るように構成されるターゲット対象の向きの決定装置と、前記ターゲット対象の向きに基づいて、前記車両の制御命令を生成して出力するように構成される制御モジュールと、を備える。
本願の実施形態の第5態様によれば、電子機器を提供する。前記電子機器は、コンピュータプログラムを記憶するように構成されるメモリと、前記メモリに記憶されているコンピュータプログラムを実行し、且つ前記コンピュータプログラムが実行される時、本願のいずれか1つの方法の実施形態を実現させるように構成されるプロセッサと、を備える。
本願の実施形態の第6態様によれば、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体には、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される時、本願のいずれか1つの方法の実施形態を実現させる。
本願の実施形態の第7態様によれば、コンピュータプログラムを提供する。前記コンピュータプログラムはコンピュータ命令を含み、前記コンピュータ命令が機器のプロセッサで実行される時、本願のいずれか1つの方法の実施形態を実現させる。
本願で提供されるターゲット対象の向きの決定方法及び装置、スマート運転制御方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムによれば、三次元空間の水平面での、画像中のターゲット対象の可視面における複数の点の位置情報を利用して、ターゲット対象の向きをフィッティングして決定することで、ニューラルネットワークにより向きの分類を行ってターゲット対象の向きを得るという実現形態に存在する、向き分類のためのニューラルネットワークにより予測した向きの精度が不十分であり、向き角度値を直接的に回帰するニューラルネットワークの訓練が複雑であるという課題を効果的に避け、ターゲット対象の向きの迅速かつ正確な取得に寄与する。これから分かるように、本願で提供される技術的解決手段は、得られたターゲット対象の向きの正確度の向上に寄与し、得られたターゲット対象の向きのリアルタイム性の向上にも寄与する。
以下、図面及び実施形態を参照しながら、本願の技術的解決手段を更に詳しく説明する。
本願によるターゲット対象の向きの決定方法の一実施形態を示すフローチャートである。 本願による取得された、画像におけるターゲット対象の可視面を示す概略図である。 本願による車両前側面の有効領域を示す概略図である。 本願による車両後側面の有効領域を示す概略図である。 本願の車両左側面の有効領域を示す概略図である。 本願の車両右側面の有効領域を示す概略図である。 本願による車両前側面での、有効領域を選択するための位置枠を示す概略図である。 本願による車両右側面での、有効領域を選択するための位置枠を示す概略図である。 本願による車両後側面の有効領域を示す概略図である。 本願による奥行きマップを示す概略図である。 本願による有効領域の点集合選択エリアを示す概略図である。 本願による直線フィッティングを示す概略図である。 本願によるスマート運転制御方法の一実施形態を示すフローチャートである。 本願によるターゲット対象の向きの決定装置の一実施形態の構造を示す概略図である。 本願によるスマート運転制御装置の一実施形態の構造を示す概略図である。 本願の実施形態を実現させるための一例示的な機器を示すブロック図である。
明細書の一部を構成する図面は、本願の実施例を記述し、その記述とともに、本願の原理の解釈に役立つ。
図面を参照しながら、下記詳細な記述に基づいて、本願をより明確に理解することができる。
以下、図面を参照しながら、本願の様々な例示的な実施例を詳しく説明する。別途明記されない限り、これらの実施例において説明される構成要素の相対的配置及びステップの相対的配列、数式及び数値は、本願の範囲を限定するものではないことに留意されたい。
また、説明の便宜上、図示の各部分の寸法は実際の比例関係に従って描かれたものではないことが理解されるべきである。以下の少なくとも1つの例示的な実施例の説明は本質的に単なる例であり、本発明及びその適用又は用途を限定することをまったく意図しない。
当業者が既知の技術、方法および設備について詳しく述べることはないが、適宜な状況において、前記技術、方法および設備は明細書の一部とみなすべきである。
類似した符号及びアルファベットは下記図面において類似した要素を表すため、いずれか1つの要素が1つの図面において定義された場合、後続図面においてそれをこれ以上検討する必要がないことに留意されたい。
本願の実施例は、端末装置、コンピュータシステム及びサーバなどの電子機器に適用される。それは、多数の他の汎用又は専用コンピュータシステム環境又は構成とともに動作する。端末装置、コンピュータシステム及びサーバなどの電子機器と共に適用されるのに適する周知の端末装置、コンピューティングシステム、環境及び/又は構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルド又はラップトップデバイス、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブル消費者向け電子機器製品、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステム及び上記任意のシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
端末装置、コンピュータシステム及びサーバ等の電子機器は、コンピュータシステムにより実行されるコンピュータシステムによる実行可能な命令(例えば、プログラムモジュール)の一般的な内容で説明できる。一般的には、プログラムモジュールは、ルーチン、プログラム、対象プログラム、ユニット、ロジック、データ構造などを含んでもよいが、これらは、特定のタスクを実行するか又は特定の抽象データ型を実現させる。コンピュータシステム/サーバを、分散型クラウドコンピューティング環境において実行することができる。分散型クラウドコンピューティング環境において、タスクは、通信ネットワークを介してリンクされるリモート処理デバイスにより実行される。分散型クラウドコンピューティング環境において、プログラムモジュールは、記憶装置を備えるローカル又はリモートコンピューティングシステム記憶媒体に位置してもよい。
例示的な実施例
本願のターゲット対象の向きの決定方法は、車両向き検出、ターゲット対象の3D検出及び車両軌跡フィッティングなどの多くの用途に適用可能である。例えば、ビデオにおける各ビデオフレームについて、本願の方法で各ビデオフレームにおける各車両の向きを決定することができる。また例えば、ビデオにおけるいずれか1つのビデオフレームについて、本願の方法で該ビデオフレームにおけるターゲット対象の向きを決定することができる。従って、ターゲット対象の向きを取得した上で、三次元空間での、該ビデオフレームにおけるターゲット対象の位置及びスケールを得て、3D検出を実現させることができる。また例えば、ビデオにおける複数の連続したビデオフレームについて、本願の方法で、複数のビデオフレームにおける同一の車両の向きをそれぞれ決定し、同一の車両の複数の向きを利用して車両の走行軌跡をフィッティングすることができる。
図1は、本願によるターゲット対象の向きの決定方法の一実施例を示すフローチャートである。図1に示すように、該実施例の方法は、ステップS100、ステップS110及びステップS120を含む。以下、各ステップについて詳しく説明する。
S100において、画像におけるターゲット対象の可視面を取得する。
任意選択的な例において、本願における画像は、ピクチャ、写真及びビデオにおけるビデオフレームなどであってもよい。例えば、画像は、移動可能な物体に設けられた撮像装置により撮られたビデオにおけるビデオフレームであってもよい。また例えば、画像は、固定位置に設けられた撮像装置により撮られたビデオにおけるビデオフレームであってもよい。上記移動可能な物体は、車両、ロボット又はマニピュレータ等を含んでもよく、これらに限定されない。上記固定位置は、路面、テーブル面、壁又は路辺などを含んでもよく、これらに限定されない。
任意選択的な例において、本願における画像は、一般的な高精細度撮像装置(例えば、IR(Infrared Ray:赤外線)カメラ又はRGB(Red Green Blue:赤緑青)カメラ等)により得られた画像であってもよい。これにより、本願は、レーダ測距装置及びデプスカメラなどの高スペックなハードウェアを使用しなければならないことによるコストが高いなどの現象を避けるのに寄与する。
任意選択的な例において、本願におけるターゲット対象は、乗り物などのような剛性構造を有するターゲット対象を含むが、これらに限定されない。ここで、乗り物は、一般的には車両を含む。本願における車両は、二輪以上(二輪を含まない)の自動車、二輪以上(二輪を含まない)の非自動車などを含むが、これらに限定されない。二輪以上の自動者は、四輪自動車、バス、トラック、又は専用作業者などを含むが、これらに限定されない。二輪以上の非自動車は、人力三輪車などを含むが、これらに限定されない。本願におけるターゲット対象は、種々の形態であってもよいため、本願のターゲット対象の向きの決定技術の汎用性の向上に寄与する。
任意選択的な例において、本願におけるターゲット対象は一般的には少なくとも1つの面を含む。例えば、ターゲット対象は一般的には、前側面、後側面、左側面及び右側面という4つの面を含む。また例えば、ターゲット対象は、前側上面、前側下面、後側上面、後側下面、左側面及び右側面という6つの面を含んでもよい。ターゲット対象に含まれる面は事前設定されたものである。つまり、面の範囲及び数は、事前設定されたものである。
任意選択的な例において、ターゲット対象が車両である場合、ターゲット対象は、車両前側面、車両後側面、車両左側面及び車両右側面を含んでもよい。車両前側面は、車両頂部前側、車両ヘッドライト前側及び車両シャーシ前側を含んでもよい。車両後側面は、車両頂部後側、車両テールライト後側及び車両シャーシ後側を含んでもよい。車両左側面は、車両頂部左側、車両ヘッドライト及びテールライトの左側面、車両シャーシ左側及び車両左側タイヤを含んでもよい。車両右側面は、車両頂部右側、車両ヘッドライト及びテールライトの右側面、車両シャーシ右側及び車両右側タイヤを含んでもよい。
任意選択的な例において、ターゲット対象が車両である場合、ターゲット対象は、車両前側上面、車両前側下面、車両後側上面、車両後側下面、車両左側面及び車両右側面を含んでもよい。車両前側上面は、車両頂部前側及び車両ヘッドライト前側上端を含んでもよい。車両前側下面は、車両ヘッドライト前側上端及び車両シャーシ前側を含んでもよい。車両後側上面は、車両頂部後側及び車両テールライト後側上端を含んでもよい。車両後側下面は、車両テールライト後側上端及び車両シャーシ後側を含んでもよい。車両左側面は、車両頂部左側、車両前テールライト左側面、車両シャーシ左側及び車両左側タイヤを含んでもよい。車両右側面は、車両頂部右側、車両ヘッドライト及びテールライトの右側面、車両シャーシ右側及び車両右側タイヤを含んでもよい。
任意選択的な例において、本願は、画像分割方式で、画像におけるターゲット対象の可視面を得ることができる。例えば、ターゲット対象の面を単位として画像に対して意味領域分割処理を行う。意味領域分割処理の結果により、画像におけるターゲット対象の全ての可視面(例えば、車両の全ての可視面など)を得ることができる。画像が複数のターゲット対象を含む場合、本願は、画像における各ターゲット対象の全ての可視面を得ることができる。
例えば、図2において、本願は、画像における3つのターゲット対象の可視面を得る。図2に示す画像における各ターゲット対象の可視面は、マスク(mask)で表される。図2に示す画像における1つ目のターゲット画像は、画像の右下に位置する車両である。1つ目のターゲット対象の可視面は、車両後側面(図2における最右側の車両の濃灰色のmaskに示すように)及び車両左側面(図2における最右側の車両の薄灰色のmaskに示すように)を含む。図2に示す画像における2つ目のターゲット対象は、1つ目のターゲット対象の左上に位置する。2つ目のターゲット対象の可視面は、車両後側面(図2における中間の車両の濃灰色のmaskに示すように)及び車両左側面(図2における中間の車両の灰色のmaskに示すように)を含む。図2における3つ目のターゲット対象は、2つ目のターゲット対象の左上に位置する。3つ目のターゲット対象の可視面は、車両後側面(図2における最左側の車両の薄灰色のmaskに示すように)を含む。
任意選択的な例において、本願は、ニューラルネットワークを利用して画像におけるターゲット対象の可視面を得ることができる。例えば、画像をニューラルネットワークに入力し、該ニューラルネットワークにより、画像に対して意味領域分割処理を行い(例えば、ニューラルネットワークにより、まず画像の特徴情報を抽出し、続いて、ニューラルネットワークにより、抽出された特徴情報に対して分類回帰処理などを行う)、ニューラルネットワークにより、入力画像における各ターゲット対象の各可視面の複数の信頼度を生成して出力する。1つの信頼度は、該可視面がターゲット対象の相応面である確率を表す。いずれか1つのターゲット対象のいずれか1つの可視面について、本願は、ニューラルネットワークから出力された該可視面の複数の信頼度に基づいて、該可視面のカテゴリを決定することができる。例えば、該可視面が車両前側面、車両後側面、車両左側面又は車両右側面などであると決定することができる。
任意選択的な例において、本願における画像分割は、インスタンス分割であってもよい。つまり、本願は、インスタンス分割(Instance Segmentation)アルゴリズムに基づいたニューラルネットワークを利用して画像におけるターゲット対象の可視面を得ることができる。上記インスタンスは、独立した個体と認められてもよい。本願におけるインスタンスは、ターゲット対象の面と認められてもよい。インスタンス分割アルゴリズムに基づいたニューラルネットワークは、Mask−RCNN(Mask Regions with Convolutional Neural Networks:マスク領域畳み込みニューラルネットワーク)を含むが、これに限定されない。ニューラルネットワークを利用してターゲット対象の可視面を得ると、得られたターゲット対象の可視面の正確性及び取得効率の向上に寄与する。また、ニューラルネットワークが正確度及び処理速度の点で改良されるにつれて、本願のターゲット対象の向きの決定精度及び速度も改良される。なお、本願は、他の方式で画像におけるターゲット対象の可視面を得ることもできる。他の方式は、縁検出に基づいた方式、閾値分割に基づいた方式及びレベル集合に基づいた方式などを含むが、これらに限定されない。
S110において、三次元空間の水平面での、前記可視面における複数の点の位置情報を取得する。
任意選択的な例において、本願における三次元空間は、画像を撮る撮像装置の三次元座標系により区画された三次元空間を指す。例えば、撮像装置の光軸方向は、三次元空間のZ軸方向(即ち、奥行き方向)である。水平右方向は、三次元空間のX軸方向である。垂直下方向は、三次元空間のY軸方向である。つまり、撮像装置の三次元座標系は、三次元空間の座標系である。本願における水平面は一般的には、三次元座標系におけるZ軸方向及びX軸方向により区画された平面である。つまり、三次元空間の水平面での、点の位置情報は、一般的には、点のX座標及びZ座標を含む。三次元空間の水平面での、点の位置情報は、XOZ平面での、三次元空間における点の投影位置(上面図での位置)を指すと認められてもよい。
任意選択的な例において、本願の可視面における複数の点は、可視面の有効領域の点集合選択エリアに位置する点を指してもよい。該点集合選択エリアと有効領域の縁との距離は、所定の距離要件に合致すべきである。例えば、有効領域の点集合選択エリアにおける点は、下記式(1)の要件を満たすべきである。また例えば、有効領域の高さをh1とし、幅をw1とすれば、有効領域の点集合選択エリアの上縁から有効領域の上縁までの距離は少なくとも(1/n1)×h1であり、有効領域の点集合選択エリア下縁から有効領域の下縁までの距離は少なくとも(1/n2)×h1であり、有効領域の点集合選択エリアの左縁から有効領域の左縁までの距離は少なくとも(1/n3)×w1であり、有効領域の点集合選択エリアの右縁から有効領域の右縁までの距離は少なくとも(1/n4)×w1である。ここで、n1、n2、n3及びn4は、いずれも1より大きい整数であり、且つn1、n2、n3及びn4の値は、同じであっても異なってもよい。
本願は、複数の点を有効領域の点集合選択エリアにおける複数の点に限定することで、縁領域の奥行き情報が不正確であることにより、三次元空間の水平面での、複数の点の位置情報が不正確になるという現象を避けるのに寄与し、三次元空間の水平面での、複数の点の位置情報の正確度の向上に寄与し、更に、最終的に決定されたターゲット対象の向きの正確度の向上に寄与する。
任意選択的な例において、画像における1つのターゲット対象について言えば、得られた該ターゲット対象の可視面が複数の可視面である場合、本願は、該ターゲット対象の複数の可視面から、1つの可視面を、処理されるべき面として選択し、三次元空間の水平面での、該処理されるべき面における複数の点の位置情報を取得することができる。つまり、本願は、単一の処理されるべき面を利用して、ターゲット対象の向きを得る。
任意選択的な例において、本願は、複数の可視面から、1つの可視面をランダムに選択して処理されるべき面とすることができる。任意選択的な例において、本願は、複数の可視面の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択することができる。例えば、面積が最も大きい可視面を、処理されるべき面として選択する。任意選択的な例において、本願は、複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択することもできる。任意選択的な例において、可視面の面積は、可視面に含まれる点(例えば、画素点)の数によって決まってもよい。同様に、有効領域の面積も、有効領域に含まれる点例えば、画素点)の数によって決まってもよい。本願における可視面の有効領域は、可視面における、垂直な平面にほぼ位置する領域であってもよい。ここで、垂直な平面は、YOZ平面にほぼ平行である。
本願は、複数の可視面から1つの可視面を選択することで、遮蔽などの要因により、可視面の可視領域が小さすぎて、三次元空間の水平面での、複数の点の位置情報に誤差が発生しやすいなどの現象を避けることができる。従って、三次元空間の水平面での、複数の点の位置情報の正確度の向上に寄与し、更に、最終的に決定されたターゲット対象の向きの正確度の向上に寄与する。
任意選択的な例において、本願は、複数の可視面の有効領域の面積に基づいて、複数の可視面から、1つの可視面を、処理されるべき面として選択するプロセスは下記ステップを含んでもよい。
ステップaにおいて、1つの可視面について、画像での該可視面における点(例えば、画素点)の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定する。
任意選択的な例において、本願における有効領域選択用位置枠は少なくとも、それに対応する可視面の一部の領域を覆う。可視面の有効領域は、可視面が属する位置に関わる。例えば、可視面が車両前側面である場合、有効領域は一般的には、車両ヘッドライト前側及び車両シャーシ前側からなる領域(例えば、図3における点線枠内の車両に属する領域)を指す。また例えば、可視面が車両後側面である場合、有効領域は一般的には、車両テールライト後側及び車両シャーシ後側からなる領域(例えば、図4における点線枠内の車両に属する領域)を指す。また例えば、可視面が車両右側面である場合、有効領域は、可視面全体を指してもよく、車両ヘッドライト及びテールライトの右側面並びに車両シャーシ右側からなる領域(例えば、図5における点線枠内の車両に属する領域)を指してもよい。また例えば、可視面が車両左側面である場合、有効領域は、可視面全体を指してもよく、車両ヘッドライト及びテールライトの左側面並びに車両シャーシ左側からなる領域(例えば、図6における点線枠内の車両に属する領域)を指してもよい。
任意選択的な例において、可視面の有効領域が可視面の全体領域であるか、それとも可視な一部領域であるかに関わらず、本願は、有効領域選択用位置枠を利用して、可視面の有効領域を決定することができる。つまり、本願における全ての可視面に対して、それぞれに対応する有効領域選択用位置枠を利用して、各可視面の有効領域を決定することができる。つまり、本願は、各可視面に対して1つの位置枠を決定し、各可視面のそれぞれに対応する位置枠を利用して各可視面の有効領域を決定することができる。
もう1つの任意選択的な例において、本願における一部の可視面に対して、有効領域選択用位置枠を利用して、可視面の有効領域を決定することができる。一部の可視面に対して、他の方式で可視面の有効領域を決定することができる。例えば、可視面全体を直接的に有効領域とすることができる。
任意選択的な例において、1つのターゲット対象の1つの可視面について言えば、本願は、画像での該可視面における点(例えば、全ての画素点)の位置情報に基づいて、有効領域選択用位置枠の1つの頂点位置及び該可視面の幅及び高さを決定することができる。続いて、頂点位置、可視面の幅の一部(即ち、可視面の一部の幅)及び可視面の高さの一部(即ち、可視面の一部の高さ)に基づいて、該可視面に対応する位置枠を決定することができる。
任意選択的な例において、画像の座標系原点が画像の左下隅に位置する場合、画像での、該可視面における全ての画素点の位置情報における最小x座標及び最小y座標を有効領域選択用位置枠の1つの頂点(即ち、左下頂点)とすることができる。
任意選択的な例において、画像の座標系原点が画像の右上隅に位置する場合、画像での、該可視面における全ての画素点の位置情報における最大x座標及び最大y座標を有効領域選択用位置枠の1つの頂点(即ち、左下頂点)とすることができる。
任意選択的な例において、本願は、画像での、該可視面における全ての画素点の位置情報における最小x座標と最大x座標との差を可視面の幅とし、画像での、該可視面における全ての画素点の位置情報における最小y座標と最大y座標との差を可視面の高さとすることができる。
任意選択的な例において、可視面が車両前側面である場合、本願は、有効領域選択用位置枠の1つの頂点(例えば、左下頂点)、可視面の幅の一部(例えば、0.5、0.35又は0.6幅)及び及可視面の高さの一部(例えば、0.5、0.35又は0.6高さなど)に基づいて、車両前側面に対応する有効領域選択用位置枠を決定することができる。
任意選択的な例において、可視面が車両後側面である場合、本願は、例えば、図7における右下隅の白色の長方形に示すように、有効領域選択用位置枠の1つの頂点(例えば、左下頂点)、可視面の幅の一部(例えば、0.5、0.35又は0.6幅)及び及可視面の高さの一部(例えば、0.5、0.35又は0.6高さなど)に基づいて、車両後側面に対応する有効領域選択用位置枠を決定することができる。
任意選択的な例において、可視面が車両左側面である場合、本願は、1つの頂点位置、可視面の幅及び可視面の高さに基づいて、車両左側面に対応する位置枠を決定することもできる。例えば、有効領域選択用位置枠の頂点(例えば、左下頂点)、可視面の幅及び可視面の高さに基づいて、車両左側面に対応する有効領域選択用位置枠を決定する。
任意選択的な例において、可視面が車両右側面である場合、本願は、1つの頂点位置、可視面の幅及び可視面の高さに基づいて、車両右側面に対応する位置枠を決定することもできる。例えば、図8における車両左側面を含む薄灰色の長方形に示すように、有効領域選択用位置枠の頂点(例えば、左下頂点)、可視面の幅及び可視面の高さに基づいて、車両右側面に対応する有効領域選択用位置枠を決定する。
ステップbにおいて、可視面とそれに対応する位置枠との交差領域を該可視面の有効領域とする。任意選択的な例において、本願は、可視面とそれに対応する有効領域選択用位置枠に対して交差部算出を行うことで、対応する交差領域を得ることができる。図9において、右下隅の方形枠は、車両後側面に対して交差部算出を行うことで得られた交差領域である。つまり、車両後側面の有効領域である。
ステップcにおいて、複数の可視面のうち、有効領域面積が最も大きい可視面を、処理されるべき面とする。
任意選択的な例において、車両左/右側面について、可視面全体を有効領域としてもよく、交差領域を有効領域としてもよい。車両前/后側面について、一般的には、一部の可視面を有効領域とする。
本願は、有効領域面積が最も大きい可視面を処理されるべき面とすることで、処理されるべき面から複数の点を選択する場合、選択の余地がより広いため、三次元空間の水平面での、複数の点の位置情報の正確度の向上に寄与し、更に、最終的に決定されたターゲット対象の向きの正確度の向上に寄与する。
任意選択的な例において、画像における1つのターゲット対象について言えば、得られた該ターゲット対象の可視面が複数の可視面である場合、本願は、該ターゲット対象の複数の可視面をいずれも処理されるべき面として、三次元空間の水平面での、各処理されるべき面における複数の点の位置情報を取得することができる。つまり、本願は、複数の処理されるべき面を利用して、ターゲット対象の向きを得ることができる。
任意選択的な例において、本願は、処理されるべき面の有効領域から複数の点を選択する。例えば、処理されるべき面の有効領域の点集合選択エリアから、複数の点を選択する。有効領域の点集合選択エリアは、有効領域の縁との距離が所定の距離要件を満たす領域を指す。
例えば、有効領域の点集合選択エリアにおける点(例えば、画素点)は下記式(1)の要件を満たすべきである。
Figure 2021529370
式(1)において、
Figure 2021529370
は、有効領域の点集合選択エリアの点集合を表す。
Figure 2021529370
は画像における(例えば、画素点)の座標を表す。uminは、有効領域における点(例えば、画素点)の最小u座標を表す。umaxは、有効領域における点(例えば、画素点)の最大u座標を表す。vminは、有効領域における点(例えば、画素点)の最小v座標を表す。vmaxは、有効領域における点(例えば、画素点)の最大v座標を表す。
ただし、
Figure 2021529370

Figure 2021529370
であり、ここで、0.25及び0.10は、他の小数に変化されてもよい。
また例えば、有効領域の高さをh2とし、幅をw2とすれば、有効領域の点集合選択エリアの上縁から有効領域の上縁までの距離は、少なくとも(1/n5)×h2であり、有効領域の点集合選択エリアの下縁から有効領域の下縁までの距離は、少なくとも(1/n6)×h2であり、有効領域の点集合選択エリアの左縁から有効領域の左縁までの距離は、少なくとも(1/n7)×w1であり、有効領域の点集合選択エリアの右縁から有効領域の右縁までの距離は、少なくとも(1/n8)×w2である。ここで、n5、n6、n7及びn8はいずれも1より大きい整数であり、且つn5、n6、n7及びn8の値は同じであっても異なってもよい。例えば、図11において、車両右側面は処理されるべき面の有効領域であり、ここの灰色ブロックは、点集合選択エリアである。
本願は、複数の点の位置を可視面の有効領域の点集合選択エリアに限定することで、縁領域の奥行き情報が不正確であることにより、三次元空間の水平面での、複数の点の位置情報が不正確になるという現象を避けるのに寄与し、三次元空間の水平面での、複数の点の位置情報の正確度の向上に寄与し、更に、最終的に決定されたターゲット対象の向きの正確度の向上に寄与する。
任意選択的な例において、本願は、まず複数の点のZ座標を取得し、続いて、下記式(2)により、複数の点のX座標及びY座標を得る。
Figure 2021529370
式(2)
上記式(2)において、Pは既知のパラメータであり、撮像装置の内部パラメータである。Pは、3×3行列であってもよく、つまり、
Figure 2021529370
であってもよい。
Figure 2021529370
及び
Figure 2021529370
はいずれも撮像装置の焦点距離を表す。
Figure 2021529370
は、画像のx座標軸での、撮像装置の光心を表す。a23は、画像のy座標軸での、撮像装置の光心を表す。行列における他のパラメータの値は、いずれもゼロである。X、Y及びZは、三次元空間における、点のX座標、Y座標及びZ座標を表す。wは、スケーリング変換比率を表し、且つwの値は、Zの値であってもよい。u及びvは、画像での、点の座標を表す。
Figure 2021529370
は、*の転置行列を表す。
Pを式(2)に代入すると、下記式(3)を得ることができる。
Figure 2021529370
式(3)
本願における複数の点のu、v及びZは既知の値である。従って、上記式(3)により、複数の点のX及びYを得ることができる。これにより、本願は、三次元空間の水平面での、複数の点の位置情報を得る。つまり、X及びZを得る。つまり、画像における点を三次元空間に変換した後、上面図での該点の位置情報を得る。
任意選択的な例において、本願において、複数の点のZ座標の取得方式は、以下のとおりであってもよい。まず、画像の奥行き情報(例えば奥行きマップ)を得る。該奥行きマップの寸法は、一般的には画像の寸法と同じである。また、該奥行きマップにおける各画素位置での階調値は、画像における該位置での点(例えば、画素点)の奥行き値を表す。奥行きマップの一例は、図10に示すとおりである。続いて、画像の奥行き情報を利用して複数の点のZ座標を得る。
任意選択的な例において、本願における画像の奥行き情報の取得方式は、ニューラルネットワークを利用して画像の奥行き情報を得るという方式、RGB−D(赤緑青−奥行き)に基づいた撮像装置を利用して画像の奥行き情報を得るという方式、又はレーザレーダ(Lidar)装置を利用して画像の奥行き情報を得るという方式などを含むが、これらに限定されない。
例えば、画像をニューラルネットワークに入力し、該ニューラルネットワークにより奥行き予測を行い、寸法が入力画像の寸法と同じである奥行きマップを出力する。該ニューラルネットワークの構造は、完全畳み込みニューラルネットワーク(FCN:Fully Convolutional Networks)等を含むが、これらに限定されない。該ニューラルネットワークは、奥行きタグを有する画像サンプルを利用して訓練されたものである。
また例えば、画像をもう1つのニューラルネットワークに入力し、該ニューラルネットワークにより両眼視差予測処理を行い、画像の視差情報を出力する。続いて、本願は、視差を利用して奥行き情報を得ることができる。例えば、下記式(4)により、画像の奥行き情報を得る。
Figure 2021529370
上記式(4)において、zは、画素点の奥行きを表し、dは、ニューラルネットワークから出力された画素点の視差を表し、fは、撮像装置の焦点距離を表し、既知の値である。bは、両眼カメラ間の距離を表し、既知の値である。
また例えば、レーザレーダを利用してポイントクラウドデータを得た後、レーザレーダの座標系から画像平面への変換式により、画像の奥行き情報を得る。
S120において、上記位置情報に基づいて、ターゲット対象の向きを決定する。
任意選択的な例において、本願は、複数の点のX及びZに基づいて、直線フィッティングを行うことができる。例えば、図12における灰色ブロックにおける複数の点の、XOZ平面への投影は、図12における右下隅に示す粗い縦のバー(点で集束したもの)に示すとおりである。これらの点の直線フィッティング結果は、図12における右下隅に示す細い直線に示すとおりである。本願は、フィッティングした直線の勾配に基づいて、ターゲット対象の向きを決定することができる。例えば、車両左/右側面における複数の点を利用して直線フィッティングを行う場合、フィッティングした直線の勾配を直接的に車両の向きとすることができる。また例えば、車両前/后側面における複数の点を利用してフィッティングを行う場合、
Figure 2021529370
又は
Figure 2021529370
を利用して、フィッティングされた直線の勾配を調整することで、車両の向きを得ることができる。本願の直線フィッティング方式は、一次曲線フィッティング又は一次関数最小二乗フィッティングを含むが、これらに限定されない。
従来のニューラルネットワークの分類回帰に基づいてターゲット対象の向きを得るという方式において、より正確なターゲット対象の向きを得るために、ニューラルネットワークを訓練する時、向きのカテゴリの数を増加する必要がある。これは、訓練用サンプルのアノテーションの難度を増加させるだけでなく、ニューラルネットワークの訓練収束の難度も増加させる。しかしながら、4つのカテゴリ又は8つのカテゴリのみに応じてニューラルネットワークを訓練すると、決定されたターゲット対象の向きの精度が好ましくない。従って、従来のニューラルネットワークの分類回帰に基づいてターゲット対象の向きを得るという方式において、ニューラルネットワークの訓練難度及び向き決定精度を両立させにくい。本願は、ターゲット対象の可視面における複数の点を利用して車両の向きを決定する。従って、訓練難度及び向き決定精度を両立させにくいという現象を避けるだけでなく、ターゲット対象の向きを0−2π範囲内のいずれか1つの角度にすることもできる。従って、ターゲット対象の向きの決定の難度を低減させるのみ寄与し、更に、得られたターゲット対象(例えば、車両)の向きの精度の向上にも寄与する。なお、本願の直線フィッティングプロセスにより占有される演算リソースが多くないため、ターゲット対象の向きを迅速に決定することができる。従って、ターゲット対象の向きの決定のリアルタイム性の向上に寄与する。なお、面に基づいた意味領域分割技術及び奥行き決定技術の成長は、いずれも、本願のターゲット対象の向きの決定精度の向上に寄与する。
任意選択的な例において、本願は、複数の可視面を利用してターゲット対象の向きを決定する場合、各可視面に対して、本願は、三次元空間の水平面での、該可視面における複数の点の位置情報を利用して、直線フィッティング処理を行い、複数本の直線を得ることができる。本願は、複数本の直線の勾配を考慮した上で、ターゲット対象の向きを決定することができる。例えば、複数本の直線のうちの1本の直線の勾配に基づいて、ターゲット対象の向きを決定する。また例えば、複数本の直線の勾配に基づいてターゲット対象の複数の向きをそれぞれ決定し、更に、各向きのバランス係数に基づいて、各向きに対して加重平均化を行い、ターゲット対象の最終的向きを得る。バランス係数は、事前設定された既知の値である。ここの事前設定は、動的設定であってもよい。つまり、バランス係数を設定する場合、画像におけるターゲット対象の可視面の種々の要因を考慮することができる。例えば、画像におけるターゲット対象の可視面が完全な面であるかどうかという要因を考慮する。また例えば、画像におけるターゲット対象の可視面は、車両前/後側面であるか、それとも車両左/右側面であるかという要因を考慮する。
図13は、本願によるスマート運転制御方法を示すフローチャートである。本願のスマート運転制御方法は、自動運転(例えば、人間による支援が全くない自動運転)環境又は運転支援環境に適用可能であるが、これらに限定されない。
S1300において、車両に設けられた撮像装置により、前記車両が位置する路面のビデオストリームを取得する。該撮像装置は、RGBに基づいた撮像装置などを含むが、これらに限定されない。
S1310において、ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得る。該ステップの具体的な実現プロセスは、上記方法実施形態における図1に関する説明を参照されたい。ここで、詳細な説明を省略する。
S1320において、画像におけるターゲット対象の向きに基づいて、車両の制御命令を生成して出力する。
任意選択的な例において、本願で生成された制御命令は、速度保持制御命令、速度調整制御命令(例えば、減速走行命令、加速走行命令など)、方向保持制御命令、方向調整制御命令(例えば、左操舵命令、右操舵命令、左側車線への車線変更命令、又は右側車線への車線変更命令など)、クラクション鳴らし命令、リマインド制御命令、運転モード切替制御命令(例えば、オートクルーズ運転モードなどへの切り替え)、経路計画命令又は軌跡追跡命令を含むが、これらに限定されない。
本願のターゲット対象の向きの決定技術は、スマート運転制御分野に加えて、他の分野にも適用可能である。例えば、工業製造におけるターゲット対象の向き検出、スーパーなどの屋内でのターゲット対象の向き検出、防犯分野でのターゲット対象の向き検出などを実現させることができる。本願は、ターゲット対象の向きの決定技術の適用シーンを限定するものではない。
本願で提供されるターゲット対象の向きの決定装置の一例は、図14に示すとおりである。図14における装置は、第1取得モジュール1400と、第2取得モジュール1410と、決定モジュール1420と、を備える。
第1取得モジュール1400は画像におけるターゲット対象の可視面を取得するように構成される。例えば、画像におけるターゲット対象である車両の可視面を取得する。
任意選択的な例において、上記画像は、移動可能な物体に設けられた撮像装置により撮られたビデオにおけるビデオフレームであってもよく、固定位置に設けられた撮像装置により撮られたビデオにおけるビデオフレームであってもよい。ターゲット対象が車両である場合、ターゲット対象は、車両頂部前側、車両ヘッドライト前側及び車両シャーシ前側を含む車両前側面、車両頂部後側、車両テールライト後側及び車両シャーシ後側を含む車両後側面、車両頂部左側、車両ヘッドライト及びテールライトの左側面、車両シャーシ左側及び車両左側タイヤを含む車両左側面、車両頂部右側、車両ヘッドライト及びテールライトの右側面、車両シャーシ右側及び車両右側タイヤを含む車両右側面を含んでもよい。第1取得モジュール1400は更に、画像に対して画像分割処理を行い、画像分割処理の結果に基づいて、画像におけるターゲット対象の可視面を得るように構成される。第1取得モジュール1400により具体的に実行された操作は、上記S100に関する説明を参照されたい。ここで、詳細な説明を省略する。
第2取得モジュール1410は、三次元空間の水平面での、可視面における複数の点の位置情報を取得するように構成される。第2取得モジュール1410は、第1サブモジュールと、第2サブモジュールと、を備えてもよい。ここで、第1サブモジュールは、可視面の数が複数である場合、複数の可視面から、1つの可視面を、処理されるべき面として選択するように構成される。第2サブモジュールは、三次元空間の水平面での、処理されるべき面における複数の点の位置情報を取得するように構成される。
任意選択的な例において、第1サブモジュールは、第1ユニット、第2ユニット及び第3ユニットのうちのいずれか1つを備えてもよい。ここで、第1ユニットは、複数の可視面から、1つの可視面をランダムに選択して処理されるべき面とするように構成される。第2ユニットは、複数の可視面の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択するように構成される。第3ユニットは、複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択するように構成される。可視面の有効領域は、可視面の全ての領域をふくんでもよく、可視面の一部の領域を含んでもよい。車両左/右側面の有効領域は、可視面の全ての領域を含んでもよい。車両前/後側面の有効領域の面積は、可視面の一部の領域を含んでもよい。第3ユニットは、第1サブユニットと、第2サブユニットと、第3サブユニットと、を備えてもよい。第1サブユニットは、1つの可視面について、画像での該可視面における点の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定するように構成される。第2サブユニットは、該可視面と前記位置枠との交差領域を該可視面の有効領域とするように構成される。第3サブユニットは、複数の可視面のうち、有効領域面積が最も大きい可視面を、処理されるべき面とするように構成される。第1サブユニットは、まず、画像での該可視面における点の位置情報に基づいて、有効領域選択用位置枠の1つの頂点位置及び該可視面の幅と高さを決定し、続いて、第1サブユニットは、頂点位置、該可視面の幅の一部及び高さの一部に基づいて、該可視面に対応する位置枠を決定する。位置枠の1つの頂点位置は、画像での該可視面における複数の点の位置情報における最小x座標及び最小y座標に基づいて得られた位置を含む。第2サブモジュールは、第4ユニットと、第5ユニットと、を更に備える。第4ユニットは、処理されるべき面から、複数の点を選択するように構成される。第5ユニットは、三次元空間の水平面での、複数の点の位置情報を取得するように構成される。第4ユニットは、処理されるべき面の有効領域の点集合選択エリアから複数の点を選択することができる。ここで、点集合選択エリアは、有効領域の縁との距離が所定の距離要件を満たす領域を含む。
任意選択的な例において、第2取得モジュール1410は、第3サブモジュールを備えてもよい。第3サブモジュールは、可視面の数が複数である場合、三次元空間の水平面での、複数の可視面における複数の点の位置情報をそれぞれ取得するように構成される。第2サブモジュール又は第3サブモジュールにより、三次元空間の水平面での、複数の点の位置情報を取得する方式は、まず、複数の点の奥行き情報を取得し、続いて、奥行き情報及び画像での複数の点の座標に基づいて、三次元空間の水平面の水平座標軸での、複数の点の位置情報を取得することであってもよい。例えば、第2サブモジュール又は第3サブモジュールは、画像を第1ニューラルネットワークに入力し、第1ニューラルネットワークにより、奥行き処理を行い、第1ニューラルネットワークからの出力に基づいて、複数の点の奥行き情報を得る。また例えば、第2サブモジュール又は第3サブモジュールは、画像を第2ニューラルネットワークに入力し、第2ニューラルネットワークにより視差処理を行い、第2ニューラルネットワークから出力された視差に基づいて、複数の点の奥行き情報を得る。また例えば、第2サブモジュール又は第3サブモジュールは、奥行き撮像装置により撮られた奥行き画像に基づいて、複数の点の奥行き情報を得ることができる。また例えば、第2サブモジュール又は第3サブモジュールは、レーザレーダ装置により得られたポイントクラウドデータに基づいて、複数の点の奥行き情報を得る。
第2取得モジュール1410により具体的に実行された操作は、上記S110に関する説明を参照されたい。ここで、詳細な説明を省略する。
決定モジュール1420は、第2取得モジュール1410により取得された位置情報に基づいて、ターゲット対象の向きを決定するように構成される。決定モジュール1420は、まず、三次元空間の水平面での、処理されるべき面における複数の点の位置情報に基づいて、直線フィッティングを行う。続いて、決定モジュール1420は、フィッティングした直線の勾配に基づいて、ターゲット対象の向きを決定する。決定モジュール1420は、第4サブモジュールと、第5サブモジュールと、を備えてもよい。第4サブモジュールは、三次元空間の水平面での、複数の可視面における複数の点の位置情報に基づいて、それぞれ直線フィッティングを行うように構成される。第5サブモジュールは、フィッティングした複数本の直線の勾配に基づいて、ターゲット対象の向きを決定するように構成される。例えば、第5サブモジュールは、複数本の直線のうちの1本の直線の勾配に基づいて、ターゲット対象の向きを決定することができる。また例えば、第5サブモジュールは、複数本の直線の勾配に基づいて、ターゲット対象の複数の向きを決定し、複数の向き及び複数の向きのバランス係数に基づいて、ターゲット対象の最終的向きを決定する。決定モジュール1420により具体的に実行された操作は、上記S120に関する説明を参照されたい。ここで、詳細な説明を省略する。
本願で提供されるスマート運転制御装置の構造は、図15に示すとおりである。
図5における装置は、第3取得モジュール1500と、ターゲット対象の向きの決定装置1510と、制御モジュール1520と、を備える。第3取得モジュール1500は、車両に設けられた撮像装置により、車両の所在する路面のビデオストリームを取得するように構成される。ターゲット対象の向きの決定装置1510は、ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得るように構成される。制御モジュール1520は、ターゲット対象の向きに基づいて、車両の制御命令を生成して出力するように構成される。例えば、制御モジュール1520により生成されて出力された制御命令は、速度保持制御命令、速度調整制御命令、方向保持制御命令、方向調整制御命令、リマインド制御命令、運転モード切替制御命令、経路計画命令又は軌跡追跡命令を含む。
例示的な機器
図16は、本願を実現させるための例示的な機器1600を示す。機器1600は、車両に配置された制御システム/電子システム、携帯端末(例えばスマートフォン等)、パーソナルコンピュータ(例えば、デスクトップコンピュータ又はノートパソコンなどのようなPC)、タブレット及びサーバ等の電子機器であってもよい。図16において、機器1600は、1つ又は複数のプロセッサ、通信部等を含む。前記1つ又は複数のプロセッサは、1つ又は複数の中央演算処理ユニット(CPU)1601、及び/又は、ニューラルネットワークを利用して視覚的追跡を行うための画像処理装置(GPU)1613等であってもよい。プロセッサは、読み出し専用メモリ(ROM)1602に記憶されている実行可能な命令又は記憶部1608からランダムアクセスメモリ(RAM)1603にロードされた実行可能な命令に基づいて、様々な適切な動作及び処理を実行することができる。通信パート1612は、ネットワークカードを含んでもよいが、これに限定されない。前記ネットワークカードは、IB(Infiniband)ネットワークカードを含んでもよいが、これに限定されない。プロセッサは、読み出し専用メモリ1602及び/又はランダムアクセスメモリ1603と通信して、実行可能な命令を実行し、バス1604を介して通信パート1612に接続され、通信パート1612を経由して他の対象装置と通信することで、本願におけるステップを完了する。
上記各命令により実行される操作は、本願の上記方法実施例における関連説明を参照することができる。ここで、詳細な説明を省略する。なお、RAM 1603に、装置の操作に必要な様々なプログラム及びデータが記憶されてもよい。CPU1601、ROM1602及びRAM1603は、バス1604を介して相互接続される。RAM1603が存在する場合、ROM1602は、任意選択的なモジュールである。RAM1603に実行可能な命令が記憶されている。又は、実行中に、ROM1602に実行可能な命令を書き込む。実行可能な命令は、中央演算処理ユニット1601に上記ターゲット対象の向きの決定方法又はスマート運転制御方法に対応する操作を実行させる。1入力/出力(I/O)インタフェース1605もバス1604に接続される。通信パート1612は、一体的に設けられてもよいし、それぞれバスに接続される複数のサブモジュール(例えば、複数のIBネットワークカード)を有するものとして設けられてもよい。
キーボード、マウスなどを含む入力部1606、陰極線管(CRT)、液晶ディスプレイ(LCD)及びスピーカー等を含む出力部1607、ハードディスク等を含む記憶部1608、及びLANカード、モデム等のようなネットワークインタフェースカードを含む通信部1609は、I/Oインタフェース1605に接続される。通信部1609は、インターネットのようなネットワークを経由して通信処理を実行する。ドライブ1610も必要に応じてI/Oインタフェース1605に接続される。磁気ディスク、光ディスク、磁気光ディスク、半導体メモリ等のようなリムーバブル媒体1611は、必要に応じてドライブ1610に取り付けられ、それから読み出されたコンピュータプログラムを必要に応じて記憶部1608にインストールするようになる。
図16に示したアーキテクチャは、任意選択的な実現形態に過ぎず、実践過程において、実際の需要に応じて、上記図16に示した部材の数及びタイプを選択、削除、増加、置き換えることができることに特に留意されたい。異なる機能部材を設ける場合、分散型配置又は集積型配置などのような実現形態を用いてもよい。例えば、GPU1613とCPU1601を離して設けてもよい。また、例えば、GPU1613をCPU1601に集積してもよい。通信部は、離間するように設けられてもよいし、CPU1601又はGPU1613に集積して設けられてもよい。これらの置き換え可能な実施形態は、いずれも本願の保護範囲内に含まれる。
特に、本願の実施例によれば、フローチャートを参照しながら記載された下記プロセスは、コンピュータのソフトウェアプログラムとして実現されてもよい。例えば、本願の実施例は、機械可読媒体上に有体に具現されたコンピュータプログラムを含むコンピュータプログラム製品を含む。コンピュータプログラムは、フローチャートに示したステップを実行するためのプログラムコードを含む。プログラムコードは、本願の実施例が提供する方法におけるステップに対応する命令を含んでもよい。このような実施例において、該コンピュータプログラムは、通信部1609により、ネットワークからダウンロードされてインストールされか、及び/又はリムーバブル媒体1611からインストールされる。該コンピュータプログラムが中央演算処理ユニット(CPU)1601により実行される場合、本願に記載の、上記対応するステップを実現させるための命令を実行する。
1つ又は複数の任意選択的な実施例において、本願の実施例は、コンピュータ可読命令を記憶するためのコンピュータプログラム製品を更に提供する。前記命令が実行される場合、コンピュータに上記任意の実施例に記載のターゲット対象の向きの決定方法又はスマート運転制御方法を実行させる。該コンピュータプログラム製品は、具体的には、ハードウェア、ソフトウェアまたはその組み合わせにより実現されてもよい。任意選択的な一例において、前記コンピュータプログラム製品は具体的には、コンピュータ記憶媒体として体現される。別の任意選択的な例において、前記コンピュータプログラム製品は、具体的には、ソフトウェア開発キット(Software Development Kit:SDK)等のようなソフトウェア製品として体現される。
1つ又は複数の任意選択的な実施例において、本願の実施例は、もう1つのターゲット対象の向きの決定方法又はスマート運転制御方法並びにそれに対応する装置及び電子機器、コンピュータ記憶媒体、コンピュータプログラム並びにコンピュータプログラム製品を更に提供する。ここで、前記方法は、第1装置が、ターゲット対象の向きの決定指示又はスマート運転制御指示を第2装置に送信し、該指示によれば、第2装置が、上記いずれか1つの実施例におけるターゲット対象の向きの決定方法又はスマート運転制御方法を実行することと、第1装置が第2装置からの、ターゲット対象の向きの決定結果又はスマート運転制御結果を受信することとを含む。
幾つかの実施例において、該ターゲット対象の向きの決定指示又はスマート運転制御指示は、呼び出された命令であってもよい。第1装置は、呼出しにより、ターゲット対象の向きの決定操作又はスマート運転制御操作を実行するように第2装置に指示を出すことができる。なお、呼び出された命令を受信したことに応答して、第2装置は、上記ターゲット対象の向きの決定方法又はスマート運転制御方法におけるいずれか1つの実施例におけるステップ及び/又はフローを実行することができる。
本願の実施形態のまた1つの態様によれば、電子機器を提供する。前記電子機器は、コンピュータプログラムを記憶するように構成されるメモリと、前記メモリに記憶されているコンピュータプログラムを実行し、且つ前記コンピュータプログラムが実行される時、本願のいずれか1つの方法の実施形態を実現させるように構成されるプロセッサと、を備える。本願の実施形態のまた1つの態様によれば、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体には、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される時、本願のいずれか1つの方法の実施形態を実現させる。本願の実施形態のまた1つの態様によれば、コンピュータプログラムを提供する。前記コンピュータプログラムはコンピュータ命令を含み、前記コンピュータ命令が機器のプロセッサで実行される時、本願のいずれか1つの方法の実施形態を実現させる。
本願の実施例における「第1」、「第2」等の用語は、異なるステップ、機器又はモジュールを区別するためのものに過ぎず、いかなる特定の技術的意味を表すものではないし、それら同士間の必然的な論理順序を表すものではないことは、当業者であれば理解すべきである。また、本願において、「複数」とは、2つ又は2つ以上を意味してもよく、「少なくとも1つ」とは、1つ、2つ又は2つ以上を意味してもよいことも理解されるべきである。本願で言及されたいずれか1つの部材、データ又は構造について、明確に限定されないか又は文脈では反対となるものが示唆された場合、一般的には、1つ又は複数と解釈されることも理解されるべきである。また、本願において、各実施例を説明する場合、各実施例の相違点に重点が置かれており、その同じ又は類似した部分は互いに参照することができる。簡潔化を図るために、詳細な説明を省略する。
本願の方法及び装置、電子機器並びにコンピュータ可読記憶媒体を多くの態様で実行できる。例えば、本願の方法及び装置、電子機器並びにコンピュータ可読記憶媒体をソフトウェア、ハードウェア、ファームウェア又はソフトウェア、ハードウェア、ファームウェアの任意の組み合わせにより実行することができる。前記方法のステップに用いられる上記順番は説明のためのものに過ぎず、本願の方法のステップは、他の方式で特に説明すること以外、上記具体的に記述した順番に限定されない。なお、幾つかの実施例において、本願を記録媒体に記録されているプログラムとして実行することもできる。これらのプログラムは、本願の方法を実現させるための機械可読命令を含む。従って、本願は、本願の方法を実行するためのプログラムを記憶するための記録媒体を更に含む。
本願の記述は、例示および説明のためのものであり、網羅的もしくは本願を開示された形態に限定するように意図されていない。多くの修正及び変化は当業者には明らかであろう。実施例の選択及び説明は、本願の原理及び実際の適用をより好適に説明するためのものであり、また当業者が本願を理解して特定の用途向けの様々な修正を含む様々な実施例を設計するようになる。

Claims (45)

  1. ターゲット対象の向きの決定方法であって、
    画像におけるターゲット対象の可視面を取得することと、
    三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することと、
    前記位置情報に基づいて、前記ターゲット対象の向きを決定することと、を含むことを特徴とする、前記方法。
  2. 前記ターゲット対象は、車両を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記ターゲット対象は、
    車両頂部前側、車両ヘッドライト前側及び車両シャーシ前側を含む車両前側面、
    車両頂部後側、車両テールライト後側及び車両シャーシ後側を含む車両後側面、
    車両頂部左側、車両ヘッドライト及びテールライトの左側面、車両シャーシ左側及び車両左側タイヤを含む車両左側面、
    車両頂部右側、車両ヘッドライト及びテールライトの右側面、車両シャーシ右側及び車両右側タイヤを含む車両右側面のうちのすくなくとも1つを含むことを特徴とする
    請求項2に記載の方法。
  4. 前記画像は、
    移動可能な物体に設けられた撮像装置により撮られたビデオにおけるビデオフレーム、又は、
    固定位置に設けられた撮像装置により撮られたビデオにおけるビデオフレームを含むことを特徴とする
    請求項1から3のうちいずれか一項に記載の方法。
  5. 前記画像におけるターゲット対象の可視面を取得することは、
    前記画像に対して画像分割処理を行うことと、
    前記画像分割処理の結果に基づいて、画像におけるターゲット対象の可視面を得ることと、を含むことを特徴とする
    請求項1から4のうちいずれか一項に記載の方法。
  6. 前記三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することは、
    前記可視面の数が複数である場合、複数の可視面から、1つの可視面を、処理されるべき面として選択することと、
    前記三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報を取得することと、を含むことを特徴とする
    請求項1から5のうちいずれか一項に記載の方法。
  7. 前記複数の可視面から、1つの可視面を、処理されるべき面として選択することは、
    前記複数の可視面から、1つの可視面をランダムに選択して処理されるべき面とすること、又は、
    前記複数の可視面の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択すること、又は、
    前記複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択すること、を含むことを特徴とする
    請求項6に記載の方法。
  8. 前記可視面の有効領域は、可視面の全ての領域、又は、可視面の一部の領域を含むことを特徴とする
    請求項7に記載の方法。
  9. 車両左/右側面の有効領域は、可視面の全ての領域を含み、
    車両前/後側面の有効領域の面積は、可視面の一部の領域を含むことを特徴とする
    請求項8に記載の方法。
  10. 前記複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択することは、
    1つの可視面について、画像での該可視面における点の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定することと、
    該可視面と前記位置枠との交差領域を該可視面の有効領域とすることと、
    複数の可視面のうち、有効領域面積が最も大きい可視面を、処理されるべき面とすることと、を含むことを特徴とする
    請求項7から9のうちいずれか一項に記載の方法。
  11. 前記画像での該可視面における点の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定することは、
    前記画像での該可視面における点の位置情報に基づいて、有効領域選択用位置枠の1つの頂点位置及び該可視面の幅と高さを決定することと、
    前記頂点位置、該可視面の幅の一部及び高さの一部に基づいて、該可視面に対応する位置枠を決定することと、を含むことを特徴とする
    請求項10に記載の方法。
  12. 前記位置枠の1つの頂点位置は、画像での該可視面における複数の点の位置情報における最小x座標及び最小y座標に基づいて得られた位置を含むことを特徴とする
    請求項11に記載の方法。
  13. 前記三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報を取得することは、
    前記処理されるべき面から、複数の点を選択することと、
    前記三次元空間の水平面での、前記複数の点の位置情報を取得することと、を含むことを特徴とする
    請求項6から12のうちいずれか一項に記載の方法。
  14. 前記処理されるべき面の有効領域から、複数の点を選択することは、
    前記処理されるべき面の有効領域の点集合選択エリアから複数の点を選択することを含み、
    前記点集合選択エリアは、前記有効領域の縁との距離が所定の距離要件を満たす領域を含むことを特徴とする
    請求項13に記載の方法。
  15. 前記位置情報に基づいて、前記ターゲット対象の向きを決定することは、
    前記三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報に基づいて、直線フィッティングを行うことと、
    フィッティングした直線の勾配に基づいて、前記ターゲット対象の向きを決定することと、を含むことを特徴とする
    請求項6から14のうちいずれか一項に記載の方法。
  16. 前記三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することは、
    前記可視面の数が複数である場合、三次元空間の水平面での、複数の可視面における複数の点の位置情報をそれぞれ取得することを含み、
    前記位置情報に基づいて、前記ターゲット対象の向きを決定することは、
    三次元空間の水平面での、複数の可視面における複数の点の位置情報に基づいて、それぞれ直線フィッティングを行うことと、
    フィッティングした複数本の直線の勾配に基づいて、前記ターゲット対象の向きを決定することと、を含むことを特徴とする
    請求項1から5のうちいずれか一項に記載の方法。
  17. 前記フィッティングした複数本の直線の勾配に基づいて、前記ターゲット対象の向きを決定することは、
    複数本の直線のうちの1本の直線の勾配に基づいて、前記ターゲット対象の向きを決定すること、又は、
    複数本の直線の勾配に基づいて、前記ターゲット対象の複数の向きを決定し、複数の向き及び複数の向きのバランス係数に基づいて、前記ターゲット対象の最終的向きを決定すること、を含むことを特徴とする
    請求項16に記載の方法。
  18. 前記三次元空間の水平面での、複数の点の位置情報を取得する方式は、
    前記複数の点の奥行き情報を取得することと、
    前記奥行き情報及び前記画像での前記複数の点の座標に基づいて、三次元空間の水平面の水平座標軸での、前記複数の点の位置情報を取得することと、を含むことを特徴とする
    請求項6から17のうちいずれか一項に記載の方法。
  19. 前記画像を第1ニューラルネットワークに入力し、前記第1ニューラルネットワークにより、奥行き処理を行い、前記第1ニューラルネットワークからの出力に基づいて、複数の点の奥行き情報を得るという方式、
    前記画像を第2ニューラルネットワークに入力し、前記第2ニューラルネットワークにより視差処理を行い、前記第2ニューラルネットワークから出力された視差に基づいて、複数の点の奥行き情報を得るという方式、
    奥行き撮像装置により撮られた奥行き画像に基づいて、前記複数の点の奥行き情報を得るという方式、
    レーザレーダ装置により得られたポイントクラウドデータに基づいて、前記複数の点の奥行き情報を得るという方式のうちのいずれか1つにより、前記複数の点の奥行き情報を得ることを特徴とする
    請求項18に記載の方法。
  20. スマート運転制御方法であって、
    車両に設けられた撮像装置により、前記車両が位置する路面のビデオストリームを取得することと、
    請求項1〜19のうちいずれか一項に記載の方法を利用して、前記ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得ることと、
    前記ターゲット対象の向きに基づいて、前記車両の制御命令を生成して出力することと、を含むことを特徴とする、前記方法。
  21. 前記制御命令は、速度保持制御命令、速度調整制御命令、方向保持制御命令、方向調整制御命令、リマインド制御命令、運転モード切替制御命令、経路計画命令、軌跡追跡命令のうちのすくなくとも1つを含むことを特徴とする
    請求項20に記載の方法。
  22. ターゲット対象の向きの決定装置であって、
    画像におけるターゲット対象の可視面を取得するように構成される第1取得モジュールと、
    三次元空間の水平面での、前記可視面における複数の点の位置情報を取得するように構成される第2取得モジュールと、
    前記位置情報に基づいて、前記ターゲット対象の向きを決定するように構成される決定モジュールと、を備えることを特徴とする、前記装置。
  23. 前記ターゲット対象は、車両を含むことを特徴とする
    請求項22に記載の装置。
  24. 前記ターゲット対象は、
    車両頂部前側、車両ヘッドライト前側及び車両シャーシ前側を含む車両前側面、
    車両頂部後側、車両テールライト後側及び車両シャーシ後側を含む車両後側面、
    車両頂部左側、車両ヘッドライト及びテールライトの左側面、車両シャーシ左側及び車両左側タイヤを含む車両左側面、
    車両頂部右側、車両ヘッドライト及びテールライトの右側面、車両シャーシ右側及び車両右側タイヤを含む車両右側面のうちのすくなくとも1つを含むことを特徴とする
    請求項23に記載の装置。
  25. 前記画像は、
    移動可能な物体に設けられた撮像装置により撮られたビデオにおけるビデオフレーム、又は、
    固定位置に設けられた撮像装置により撮られたビデオにおけるビデオフレームを含むことを特徴とする
    請求項22から24のうちいずれか一項に記載の装置。
  26. 前記第1取得モジュールは、
    前記画像に対して画像分割処理を行い、
    前記画像分割処理の結果に基づいて、画像におけるターゲット対象の可視面を得るように構成されることを特徴とする
    請求項22から25のうちいずれか一項に記載の装置。
  27. 前記第2取得モジュールは、
    前記可視面の数が複数である場合、複数の可視面から、1つの可視面を、処理されるべき面として選択するように構成される第1サブモジュールと、
    三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報を取得するように構成される第2サブモジュールと、を備えることを特徴とする
    請求項22から26のうちいずれか一項に記載の装置。
  28. 前記第1サブモジュールは、
    複数の可視面から、1つの可視面をランダムに選択して処理されるべき面とするように構成される第1ユニット、又は、
    複数の可視面の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択するように構成される第2ユニット、又は、
    複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択するように構成される第3ユニット、を備えることを特徴とする
    請求項27に記載の装置。
  29. 前記可視面の有効領域は、可視面の全ての領域、又は、可視面の一部の領域を含むことを特徴とする
    請求項28に記載の装置。
  30. 車両左/右側面の有効領域は、可視面の全ての領域を含み、
    車両前/後側面の有効領域の面積は、可視面の一部の領域を含むことを特徴とする
    請求項29に記載の装置。
  31. 前記第3ユニットは、
    1つの可視面について、画像での該可視面における点の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定するように構成される第1サブユニットと、
    該可視面と前記位置枠との交差領域を該可視面の有効領域とするように構成される第2サブユニットと、
    複数の可視面のうち、有効領域面積が最も大きい可視面を、処理されるべき面とするように構成される第3サブユニットと、を備えることを特徴とする
    請求項28から30のうちいずれか一項に記載の装置。
  32. 前記第1サブユニットは、
    画像での該可視面における点の位置情報に基づいて、有効領域選択用位置枠の1つの頂点位置及び該可視面の幅と高さを決定するし、
    前記頂点位置、該可視面の幅の一部及び高さの一部に基づいて、該可視面に対応する位置枠を決定するように構成されることを特徴とする
    請求項31に記載の装置。
  33. 前記位置枠の1つの頂点位置は、画像での該可視面における複数の点の位置情報における最小x座標及び最小y座標に基づいて得られた位置を含むことを特徴とする
    請求項32に記載の装置。
  34. 前記第2サブモジュールは、
    前記処理されるべき面から、複数の点を選択するように構成される第4ユニットと、
    三次元空間の水平面での、前記複数の点の位置情報を取得するように構成される第5ユニットと、を備えることを特徴とする
    請求項27から33のうちいずれか一項に記載の装置。
  35. 前記第4ユニットは、
    前記処理されるべき面の有効領域の点集合選択エリアから複数の点を選択するように構成され、
    前記点集合選択エリアは、前記有効領域の縁との距離が所定の距離要件を満たす領域を含むことを特徴とする
    請求項34に記載の装置。
  36. 前記決定モジュールは、
    三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報に基づいて、直線フィッティングを行い、
    フィッティングした直線の勾配に基づいて、前記ターゲット対象の向きを決定するように構成されることを特徴とする
    請求項27から35のうちいずれか一項に記載の装置。
  37. 前記第2取得モジュールは、
    前記可視面の数が複数である場合、三次元空間の水平面での、複数の可視面における複数の点の位置情報をそれぞれ取得するように構成される第3サブモジュールを備え、
    前記決定モジュールは、
    三次元空間の水平面での、複数の可視面における複数の点の位置情報に基づいて、それぞれ直線フィッティングを行うように構成される第4サブモジュールと、
    フィッティングした複数本の直線の勾配に基づいて、前記ターゲット対象の向きを決定するように構成される第5サブモジュールと、を備えることを特徴とする
    請求項22から26のうちいずれか一項に記載の装置。
  38. 前記第5サブモジュールは、
    複数本の直線のうちの1本の直線の勾配に基づいて、前記ターゲット対象の向きを決定するように構成され、又は、
    複数本の直線の勾配に基づいて、前記ターゲット対象の複数の向きを決定し、複数の向き及び複数の向きのバランス係数に基づいて、前記ターゲット対象の最終的向きを決定するように構成されることを特徴とする
    請求項37に記載の装置。
  39. 前記第2サブモジュール又は第3サブモジュールにより、三次元空間の水平面での、複数の点の位置情報を取得する方式は、
    前記複数の点の奥行き情報を取得することと、
    前記奥行き情報及び前記画像での前記複数の点の座標に基づいて、三次元空間の水平面の水平座標軸での、前記複数の点の位置情報を取得することと、を含むことを特徴とする
    請求項27から38のうちいずれか一項に記載の装置。
  40. 第2サブモジュール又は第3サブモジュールは、
    前記画像を第1ニューラルネットワークに入力し、前記第1ニューラルネットワークにより、奥行き処理を行い、前記第1ニューラルネットワークからの出力に基づいて、複数の点の奥行き情報を得るという方式、
    前記画像を第2ニューラルネットワークに入力し、前記第2ニューラルネットワークにより視差処理を行い、前記第2ニューラルネットワークから出力された視差に基づいて、複数の点の奥行き情報を得るという方式、
    奥行き撮像装置により撮られた奥行き画像に基づいて、前記複数の点の奥行き情報を得るという方式、
    レーザレーダ装置により得られたポイントクラウドデータに基づいて、前記複数の点の奥行き情報を得るという方式のうちのいずれか1つにより、前記複数の点の奥行き情報を得ることを特徴とする
    請求項39に記載の装置。
  41. スマート運転制御装置であって、前記装置は、
    車両に設けられた撮像装置により、前記車両が位置する路面のビデオストリームを取得するように構成される第3取得モジュールと、
    前記ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得るように構成される請求項22−40のうちいずれか一項に記載の装置と、
    前記ターゲット対象の向きに基づいて、前記車両の制御命令を生成して出力するように構成される制御モジュールと、を備えることを特徴とする、前記装置。
  42. 前記制御命令は、速度保持制御命令、速度調整制御命令、方向保持制御命令、方向調整制御命令、リマインド制御命令、運転モード切替制御命令、経路計画命令、軌跡追跡命令のうちのすくなくとも1つを含むことを特徴とする
    請求項41に記載の装置。
  43. 電子機器であって、
    コンピュータプログラムを記憶するように構成されるメモリと、
    前記メモリに記憶されているコンピュータプログラムを実行するように構成されるプロセッサであって、請求項1〜21のうちいずれか一項に記載の方法を実現するように構成されるプロセッサと、を備えることを特徴とする、前記電子機器。
  44. コンピュータプログラムを記憶するコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサにより実行される時、請求項1〜21のうちいずれか一項に記載の方法を実現することを特徴とする、前記コンピュータ可読記憶媒体。
  45. コンピュータ命令を含むコンピュータプログラムであって、前記コンピュータ命令が機器のプロセッサで実行される時、請求項1〜21のうちいずれか一項に記載の方法を実現することを特徴とする、前記コンピュータプログラム。
JP2020568297A 2019-05-31 2019-11-18 ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器 Pending JP2021529370A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910470314.0 2019-05-31
CN201910470314.0A CN112017239B (zh) 2019-05-31 2019-05-31 确定目标对象朝向方法、智能驾驶控制方法和装置及设备
PCT/CN2019/119124 WO2020238073A1 (zh) 2019-05-31 2019-11-18 确定目标对象朝向方法、智能驾驶控制方法和装置及设备

Publications (1)

Publication Number Publication Date
JP2021529370A true JP2021529370A (ja) 2021-10-28

Family

ID=73502105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020568297A Pending JP2021529370A (ja) 2019-05-31 2019-11-18 ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器

Country Status (6)

Country Link
US (1) US20210078597A1 (ja)
JP (1) JP2021529370A (ja)
KR (1) KR20210006428A (ja)
CN (1) CN112017239B (ja)
SG (1) SG11202012754PA (ja)
WO (1) WO2020238073A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112509126B (zh) * 2020-12-18 2024-07-12 南京模数智芯微电子科技有限公司 三维物体检测的方法、装置、设备及存储介质
US11827203B2 (en) * 2021-01-14 2023-11-28 Ford Global Technologies, Llc Multi-degree-of-freedom pose for vehicle navigation
CN113378976B (zh) * 2021-07-01 2022-06-03 深圳市华汉伟业科技有限公司 一种基于特征顶点组合的目标检测方法、可读存储介质
CN114419130A (zh) * 2021-12-22 2022-04-29 中国水利水电第七工程局有限公司 一种基于图像特征和三维点云技术的散料体积测量方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008130059A (ja) * 2006-11-27 2008-06-05 Fuji Heavy Ind Ltd 先行車両離脱判定装置
JP2015069229A (ja) * 2013-09-26 2015-04-13 日立オートモティブシステムズ株式会社 先行車認識装置
JP2019028861A (ja) * 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319091A (ja) * 2001-04-20 2002-10-31 Fuji Heavy Ind Ltd 後続車両認識装置
US6615158B2 (en) * 2001-06-25 2003-09-02 National Instruments Corporation System and method for analyzing a surface by mapping sample points onto the surface and sampling the surface at the mapped points
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
US7135992B2 (en) * 2002-12-17 2006-11-14 Evolution Robotics, Inc. Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
KR100551907B1 (ko) * 2004-02-24 2006-02-14 김서림 불규칙이동간 변위각에 대응하는 3차원 무게중심 이동 및수평유지장치
KR100657915B1 (ko) * 2004-11-26 2006-12-14 삼성전자주식회사 코너 검출 방법 및 코너 검출 장치
JP4426436B2 (ja) * 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP4231883B2 (ja) * 2006-08-25 2009-03-04 株式会社東芝 画像処理装置及びその方法
KR100857330B1 (ko) * 2006-12-12 2008-09-05 현대자동차주식회사 주차 궤적 인식 장치 및 자동 주차 시스템
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4933962B2 (ja) * 2007-06-22 2012-05-16 富士重工業株式会社 分岐路進入判定装置
JP4801821B2 (ja) * 2007-09-21 2011-10-26 本田技研工業株式会社 道路形状推定装置
JP2009129001A (ja) * 2007-11-20 2009-06-11 Sanyo Electric Co Ltd 運転支援システム、車両、立体物領域推定方法
JP2009220630A (ja) * 2008-03-13 2009-10-01 Fuji Heavy Ind Ltd 車両の走行制御装置
JP4557041B2 (ja) * 2008-04-18 2010-10-06 株式会社デンソー 車両用画像処理装置
US9008998B2 (en) * 2010-02-05 2015-04-14 Trimble Navigation Limited Systems and methods for processing mapping and modeling data
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
CN101964049A (zh) * 2010-09-07 2011-02-02 东南大学 基于分段投影与乐符结构的谱线检测及删除方法
US9208563B2 (en) * 2010-12-21 2015-12-08 Metaio Gmbh Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
WO2013038818A1 (ja) * 2011-09-12 2013-03-21 日産自動車株式会社 立体物検出装置
US8798357B2 (en) * 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization
RU2572954C1 (ru) * 2012-07-27 2016-01-20 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов и способ обнаружения трехмерных объектов
US9142019B2 (en) * 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
US20160217578A1 (en) * 2013-04-16 2016-07-28 Red Lotus Technologies, Inc. Systems and methods for mapping sensor feedback onto virtual representations of detection surfaces
US10228242B2 (en) * 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
JP6188471B2 (ja) * 2013-07-26 2017-08-30 アルパイン株式会社 車両後側方警報装置、車両後側方警報方法および立体物検出装置
US9646384B2 (en) * 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US10574974B2 (en) * 2014-06-27 2020-02-25 A9.Com, Inc. 3-D model generation using multiple cameras
CN105788248B (zh) * 2014-12-17 2018-08-03 中国移动通信集团公司 一种车辆检测的方法、装置及车辆
WO2016113904A1 (ja) * 2015-01-16 2016-07-21 株式会社日立製作所 3次元情報算出装置、3次元情報算出方法、および自律移動装置
US10133947B2 (en) * 2015-01-16 2018-11-20 Qualcomm Incorporated Object detection using location data and scale space representations of image data
DE102016200995B4 (de) * 2015-01-28 2021-02-11 Mando Corporation System und Verfahren zum Erfassen von Fahrzeugen
CN104677301B (zh) * 2015-03-05 2017-03-01 山东大学 一种基于视觉检测的螺旋焊管管线外径测量装置和方法
CN204894524U (zh) * 2015-07-02 2015-12-23 深圳长朗三维科技有限公司 3d打印机
US10260862B2 (en) * 2015-11-02 2019-04-16 Mitsubishi Electric Research Laboratories, Inc. Pose estimation using sensors
JP6572880B2 (ja) * 2016-12-28 2019-09-11 トヨタ自動車株式会社 運転支援装置
KR101915166B1 (ko) * 2016-12-30 2018-11-06 현대자동차주식회사 자동 주차 시스템 및 자동 주차 방법
CN108416321A (zh) * 2018-03-23 2018-08-17 北京市商汤科技开发有限公司 用于预测目标对象运动朝向的方法、车辆控制方法及装置
CN109102702A (zh) * 2018-08-24 2018-12-28 南京理工大学 基于视频车辆检测和雷达信号融合的车辆测速方法
CN109815831B (zh) * 2018-12-28 2021-03-23 东软睿驰汽车技术(沈阳)有限公司 一种车辆朝向获取方法及相关装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008130059A (ja) * 2006-11-27 2008-06-05 Fuji Heavy Ind Ltd 先行車両離脱判定装置
JP2015069229A (ja) * 2013-09-26 2015-04-13 日立オートモティブシステムズ株式会社 先行車認識装置
JP2019028861A (ja) * 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体

Also Published As

Publication number Publication date
US20210078597A1 (en) 2021-03-18
KR20210006428A (ko) 2021-01-18
CN112017239B (zh) 2022-12-20
WO2020238073A1 (zh) 2020-12-03
SG11202012754PA (en) 2021-01-28
CN112017239A (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
US11138756B2 (en) Three-dimensional object detection method and device, method and device for controlling smart driving, medium and apparatus
US11100310B2 (en) Object three-dimensional detection method and apparatus, intelligent driving control method and apparatus, medium and device
US10846831B2 (en) Computing system for rectifying ultra-wide fisheye lens images
JP2021529370A (ja) ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器
CN109635685B (zh) 目标对象3d检测方法、装置、介质及设备
KR102240197B1 (ko) 사발형 이미징 시스템에서의 물체 추적
US9384556B2 (en) Image processor configured for efficient estimation and elimination of foreground information in images
US20210117704A1 (en) Obstacle detection method, intelligent driving control method, electronic device, and non-transitory computer-readable storage medium
JP7091485B2 (ja) 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器
US11747278B2 (en) Deposit detection device for detecting a partial covering location, a not-adhere location, and a diffuse reflection location
CN110060230B (zh) 三维场景分析方法、装置、介质及设备
CN114170826B (zh) 自动驾驶控制方法和装置、电子设备和存储介质
CN112541553B (zh) 目标对象的状态检测方法、装置、介质以及电子设备
JP2009230233A (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
US20220319145A1 (en) Image processing device, image processing method, moving device, and storage medium
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
US20210049382A1 (en) Non-line of sight obstacle detection
Chan et al. Raw camera data object detectors: an optimisation for automotive processing and transmission
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
CN118135542B (zh) 一种障碍物动静态判定方法及其相关设备
CN110858281B (zh) 图像处理方法、装置、电子眼及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404