JP2022034034A - 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム - Google Patents

障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム Download PDF

Info

Publication number
JP2022034034A
JP2022034034A JP2021210732A JP2021210732A JP2022034034A JP 2022034034 A JP2022034034 A JP 2022034034A JP 2021210732 A JP2021210732 A JP 2021210732A JP 2021210732 A JP2021210732 A JP 2021210732A JP 2022034034 A JP2022034034 A JP 2022034034A
Authority
JP
Japan
Prior art keywords
coordinates
template
obstacle
image
reference points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021210732A
Other languages
English (en)
Other versions
JP7351892B2 (ja
Inventor
ジア ジンゥラーン
Jinrang Jia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2022034034A publication Critical patent/JP2022034034A/ja
Application granted granted Critical
Publication of JP7351892B2 publication Critical patent/JP7351892B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォームを提供する。【解決手段】本開示は、自律運転及びスマート交通の分野に関する。障害物検出方法は、所定の平面に位置する少なくとも1つの障害物を示す少なくとも1つの障害物対象を含む現在画像を取得することと、現在画像内の前記所定の平面における複数の基準点の現在座標とテンプレート画像内の前記複数の基準点に対応する基準点のテンプレート座標とに基づいて、前記現在画像と前記テンプレート画像との間の変換パラメータを決定することと、前記変換パラメータと前記現在画像内の前記障害物対象の画素座標とを用いて前記障害物の世界座標系での位置を決定することとを含む。本開示による方法を使用し、取得された画像情報を用いてカメラ振れによる障害物検出の正確性への影響を簡便に解消することができる。【選択図】図2

Description

本開示は、自律運転及びスマート交通の分野に関し、具体的には、障害物検出方法、装置、電子機器、路側機器、クラウド制御プラットフォーム、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム製品に関する。
道路上の障害物を検出するために、通常、路側検知機器が高い位置、たとえば信号機ポールやモニターポールなどの機器のポールに取り付けられる。実環境の複雑さのため、路側検知機器が外界環境の影響を受けると、その位置に振れが発生する可能性がある。
本開示は、障害物検出方法、装置、電子機器、路側機器、クラウド制御プラットフォーム、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム製品を提供する。
本開示の一態様によれば、所定の平面に位置する少なくとも1つの障害物を示す少なくとも1つの障害物対象を含む現在画像を取得することと、
現在画像内の前記所定の平面における複数の基準点の現在座標とテンプレート画像内の前記複数の基準点に対応する基準点のテンプレート座標とに基づいて、前記現在画像と前記テンプレート画像との間の変換パラメータを決定することと、
前記変換パラメータと前記現在画像内の前記障害物対象の画素座標とを用いて前記障害物の世界座標系での位置を決定することとを含む障害物検出方法を提供する。
本開示の別の態様によれば、所定の平面に位置する少なくとも1つの障害物を示す少なくとも1つの障害物対象を含む現在画像を取得するように構成される画像取得ユニットと、現在画像内の前記所定の平面における複数の基準点の現在座標とテンプレート画像内の前記複数の基準点に対応する基準点のテンプレート座標とに基づいて、前記現在画像と前記テンプレート画像との間の変換パラメータを決定するように構成される変換決定ユニットと、前記変換パラメータと前記現在画像内の前記障害物対象の画素座標とを用いて前記障害物の世界座標系での位置を決定するように構成される障害物位置決定ユニットとを含む障害物検出装置を提供する。
本開示の別の態様によれば、少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含み、
前記メモリは、前記少なくとも1つのプロセッサにより実行可能な命令を記憶しており、前記命令は前記少なくとも1つのプロセッサにより実行されて、前記少なくとも1つのプロセッサが上記のような方法を実行できるようにする電子機器を提供する。
本開示の別の態様によれば、上記のような電子機器を含む路側機器を提供する。
本開示の別の態様によれば、上記のような電子機器を含むクラウド制御プラットフォームを提供する。
本開示の別の態様によれば、上記のような方法を前記コンピュータに実行させるためのコンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体を提供する。
本開示の別の態様によれば、プロセッサにより実行されると、上記のような方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供する。
本開示の1つ又は複数の実施例によれば、画像内の複数の基準点の変換によって、画像収集機器の外部パラメータの変化に起因する障害物検出精度の低下を簡便に修正することができる。
なお、本部分で説明される内容は、本開示の実施例の重要な又はキーとなる特徴を識別することを意図しておらず、本開示の範囲を制限することも意図していない。本開示の他の特徴は、以下の明細書によって容易に理解される。
図面は実施例を例示的に示し、明細書の一部を構成し、明細書の記載とともに実施例の例示的な実施形態を説明することに用いられる。示される実施例は例示の目的にのみ使用され、特許請求の範囲を制限するものではない。すべての図面において、同じ図面の符号は、類似するが、必ずしも同じではない要素を示す。
本開示の実施例に係る本明細書に記載の各種の方法を実施できる例示的なシステムの模式図を示す。 本開示の実施例に係る障害物検出方法の模式的なフローチャートを示す。 本開示の実施例に係る現在画像とテンプレート画像との間の変換パラメータを決定するための模式的なフローチャートを示す。 本開示の実施例に係る複数の基準点の現在座標と対応する基準点のテンプレート座標とに基づいて現在画像とテンプレート画像との間の変換パラメータを決定する模式的なフローチャートを示す。 本開示の実施例に係る複数の基準点の現在座標と対応する基準点のテンプレート座標とに基づいて現在画像とテンプレート画像との間の変換パラメータを決定する別の模式的なフローチャートを示す。 本開示の実施例に係る変換パラメータと現在画像内の障害物の画素座標とを用いて障害物の世界座標系での位置を決定するための過程の模式的なフローチャートを示す。 本開示の実施例に係る画像内の基準点の模式図を示す。 障害物検出結果の模式図を示す。 障害物検出結果の模式図を示す。 本開示の実施例に係る障害物検出装置の模式的なブロック図を示す。 本開示の実施例を実現するために使用できる例示的な電子機器の構造ブロック図を示す。
以下、図面を参照して本開示の例示的な実施例を説明し、以下の説明には、理解に役に立つように、本開示の実施例の様々な詳細を含むが、このような詳細は単に例示的なものとみなされるべきである。したがって、当業者にとって自明なように、本開示の範囲及び精神から逸脱することなく、ここに記載された実施例に対して様々な変更及び修正が可能である。同様に、以下の説明では、明確かつ簡潔にするために、公知の機能及び構造についての説明を省略する。
本開示では、特に明記しない、「第1の」、「第2の」などの用語を用いて各種の要素を説明する場合、これらの要素の位置関係、タイミング関係又は重要性関係を限定することを意図しておらず、このような用語は、1つの要素を別の要素と区別するために過ぎない。いくつかの例では、第1の要素及び第2の要素は該要素の同一の実例を示すことができるが、場合によっては、文脈の説明から、異なる実例を示すこともできる。
本開示では、様々な前記例の説明に使用される用語は、特定の例を説明するという目的にのみ使用され、制限することを意図していない。文脈において明記されていない限り、要素の数を特に制限しないと、この要素は1つでも、複数であってもよい。さらに、本開示に使用される用語「及び/又は」は、リストされた項目のうちのいずれか1つ、及びすべての可能な組み合わせを含む。
車両ネットワーキング(V2X、Vehicle to Everything)技術では、全地球測位システム(GPS)ナビゲーション技術、車車間通信技術、無線通信及びリモートセンシング技術を統合することにより、新しい自動車技術の発展方向を築く。V2X技術では、路側検知技術によって道路情報を取得することで、スマート交通、自律運転などの計画に必要な情報を提供することができる。いくつかの適用では、道路付近に設置された路側検知機器によって所望の道路情報を取得することができる。たとえば、直線道路の両側又は交差点に設置された路側検知機器によって道路情報を取得することができる。
スマート交通の車両と道路の協調の1つのシステムアーキテクチャでは、路側機器は路側検知機器と路側計算機器とを含むことができる。路側検知機器(たとえば路側カメラ)は路側計算機器(たとえば路側計算ユニットRSCU)に接続され、路側計算機器はクラウド制御プラットフォームに接続される。別のシステムアーキテクチャでは、路側検知機器自体に計算機能を有し、即ち、路側機器は計算機能を有する路側検知機器であってもよく、路側検知機器は前記クラウド制御プラットフォームに直接接続することができる。以上の接続は有線又は無線であってもよい。クラウド制御プラットフォームは車両と道路の協調管理プラットフォーム、中心システム、エッジコンピューティングプラットフォーム、クラウドコンピューティングプラットフォーム、クラウドサーバーなどと呼ぶこともできる。クラウド制御プラットフォームはクラウドで処理を実行し、クラウド制御プラットフォームに含まれる電子機器は検知機器(たとえば路側カメラ)のデータ、たとえばピクチャーやビデオなどを取得して、画像ビデオ処理及びデータ計算を行うことができる。
路側検知技術は、路側センサと検知アルゴリズムにより検知した障害物を車両に送信して、車の自律運転機能を可能にする技術である。現在、路側検知センサは、ウェブカメラやライダー(lidar)などを含む。車両ネットワーキング(V2X)路側検知のシナリオでは、カメラにより視界を超えた道路交通情報を取得し、通常、カメラは街灯柱や信号機ポールに取り付けられ、カメラが高いほど、得られた画像は視界が大きく、より多くの情報量を含み、路側の検知能力は高い。しかしながら、カメラが高いポールに取り付けられる場合、風や重型車両が通過することによりカメラ振れが発生することはある。カメラの位置が変化した場合、オフラインでキャリブレーションしたカメラの外部パラメータを用いて障害物を3Dに投影し戻すと、振れの誤差が導入されてしまう。振れが大きすぎると、オフライン外部パラメータは無効になり、障害物の位置の精度が大幅に低下する。したがって、カメラが振れた場合の3D位置の検出を最適化させるアルゴリズムは必要とされる。ここで、カメラの外部パラメータは回転行列と並進行列を含むことができる。カメラ外部パラメータとしての回転行列と並進行列は、如何に点を世界座標系からカメラ座標系に変換するかを共同で説明する。
一般的に、カメラ振れを解決する方法には、光学振れ防止、機械的振れ防止方法及び電子振れ防止方法があり、路側検知のコストによる限制のため、追加コストを必要とする光学振れ防止及び機械的振れ防止のいずれも広く利用できず、一般的な電子振れ防止は、路側カメラのシナリオでは、誤差が大きい場合もある。
一般的な方法は、外部パラメータをオンラインでキャリブレーションし、カメラの外部パラメータをリアルタイムで計算することによって、オフライン外部パラメータを更新し、それにより、路側検知システムにおけるオフライン外部パラメータが無効になるという問題を解決することであり、このような方法は、ハードウェアが良好である場合、精度及びリアルタイム性が要件を満たすが、計算コストがかかり、コストが高い。
上記問題を解決するために、本開示は、カメラ振れに起因する外部パラメータの変化による誤差を簡便に修正できる新しい障害物検出方法を提供する。
以下、図面を参照しながら本開示の実施例を詳細に説明する。
図1は、本開示の実施例に係る本明細書に記載の各種の方法及び装置を実施できる例示的なシステム100の模式図を示す。図1に示すように、該システム100は、1つ又は複数のクライアント機器101、102、103、104、105及び106と、サーバ120と、1つ又は複数のクライアント機器をサーバ120に結合する1つ又は複数の通信ネットワーク110とを含む。クライアント機器101、102、103、104、105、及び106は、1つ又は複数のアプリケーションを実行するように構成されてもよい。
本開示の実施例では、サーバ120は、運行すると、本開示に係る障害物検出方法の1つ又は複数のサービス又はソフトウェアアプリケーションを実行させることができる。いくつかの実施例では、クライアント機器101、102、103、104、105、及び106を用いて、本開示に係る障害物検出方法の1つ又は複数のサービス又はソフトウェアアプリケーションを運行してもよい。いくつかの実施形態では、クライアント機器101、102、103、104、105、及び106は、車両ネットワーキングシステムにおける路側機器として実現するために使用できる。
いくつかの実施例では、サーバ120は、非仮想環境と仮想環境を含みうる他のサービス又はソフトウェアアプリケーションを提供してもよい。いくつかの実施例では、このようなサービスはwebに基づくサービス又はクラウドサービスとして提供することができ、たとえば、ソフトウェア即ちサービス(SaaS)モデルでクライアント機器101、102、103、104、105及び/又は106のユーザに提供する。
図1に示す構成では、サーバ120は、サーバ120によって実行される機能の1つ又は複数を実現するコンポーネントを含むことができる。これらのコンポーネントは、1つ又は複数のプロセッサによって実行可能なソフトウェアコンポーネント、ハードウェアコンポーネント又はこれらの組み合わせを含むことができる。クライアント機器101、102、103、104、105及び/又は106を操作するユーザは、1つ又は複数のクライアントアプリケーションを順次用いてサーバ120とインタラクションすることによって、これらのコンポーネントにより提供されたサービスを利用できる。なお、さまざまなシステム構成が可能であり、システム100と異なってもよい。したがって、図1は本明細書に記載の各種方法を実施するためのシステムの一例であり、制限するものではない。
クライアント機器は、クライアント機器のユーザとクライアント機器とのインタラクションを可能にするインタフェースを提供できる。クライアント機器はまた、該インタフェースを介してユーザに情報を出力することもできる。図1には、6種類のライアント機器だけが示されているが、当業者にとって自明なように、本開示は任意の数のクライアント機器をサポートできる。
クライアント機器101、102、103、104、105及び/又は106は、各種のタイプのコンピュータ機器、たとえば携帯型手持ち機器、汎用コンピュータ(たとえば、パーソナルコンピュータやラップトップコンピュータ)、ワークステーションコンピュータ、ウェアラブル機器、ゲームシステム、シンクライアント、各種のメッセージング機器、センサ又は他の感知機器などを含みうる。これらのコンピュータ機器は、各種タイプ及びバージョンのソフトウェアアプリケーション及びオペレーティングシステム、たとえばMicrosoft Windows、Apple iOS、UNIX(登録商標)ライクなオペレーティングシステム、Linux(登録商標)又はLinux(登録商標)ライクなオペレーティングシステム(たとえばGoogle Chrome OS)を運行したり、又は各種の移動オペレーティングシステム、たとえばMicrosoft Windows Mobile OS、iOS、Windows Phone、Androidを含んだりすることができる。携帯型手持ち機器は、セルラー電話、スマートフォン、タブレットコンピュータ、パーソナル・デジタル・アシスタント(PDA)などを含むことができる。ウェアラブル機器はヘッドマウントディスプレイ及び他の機器を含むことができる。ゲームシステムは各種の手持ち式ゲーム機器、インターネットをサポートするゲーム機器などを含む。クライアント機器は、さまざまなアプリケーション、たとえばInternetに関連する各種のアプリケーション、通信アプリケーション(たとえば電子メールアプリケーション)、ショートメッセージサービス(SMS)アプリケーションを実行し、かつ各種の通信プロトコルを使用することができる。
ネットワーク110は、当業者にとって周知の任意のタイプのネットワークであってもよく、利用可能な様々なプロトコルのいずれか(TCP/IP、SNA、IPXなどを含むが、これらに限定されない)を使用してデータ通信をサポートすることができる。一例として、1つ又は複数のネットワーク110は、ローカルエリアネットワーク(LAN)、イーサネット(登録商標)に基づくネットワーク、トークンリング、ワイドエリアネットワーク(WAN)、インターネット、仮想ネットワーク、仮想プライベートネットワーク(VPN)、イントラネット、エクストラネット、公衆電話交換網(PSTN)、赤外線ネットワーク、無線ネットワーク(たとえば、ブルートゥース(登録商標)、WIFI)、及び/又は、これら及び/又は他のネットワークの任意の組み合わせであってもよい。
サーバ120は、1つ又は複数の汎用コンピュータ、専用サーバコンピュータ(たとえば、PC(パーソナルコンピュータ)サーバ、UNIX(登録商標)サーバ、ミッドレンジサーバ)、ブレードサーバ、メインフレームコンピュータ、サーバクラスタ、又は任意の他の適切な配置及び/又は組み合わせを含むことができる。サーバ120は、仮想オペレーティングシステムを運行する1つ又は複数の仮想マシン、又は仮想化を伴う他のコンピューティングアーキテクチャ(たとえば、サーバの仮想記憶機器をメンテナンスするために仮想化され得る論理記憶機器の1つ又は複数の柔軟なプール)を含むことができる。様々な実施例では、サーバ120は、以下に記載の機能を提供する1つ又は複数のサービス又はソフトウェアアプリケーションを運行することができる。
サーバ120の計算ユニットは、上記のいずれかのオペレーティングシステムと、商業的に利用可能ないずれかのサーバオペレーティングシステムとを含む1つ又は複数のオペレーティングシステムを運行することができる。サーバ120は、HTTPサーバ、FTPサーバ、CGIサーバ、JAVA(登録商標)サーバ、データベースサーバなどを含む、様々な追加のサーバアプリケーション及び/又は中間層アプリケーションのうちのいずれかを運行してもよい。
いくつかの実施形態では、サーバ120は、クライアント機器101、102、103、104、105、及び106のユーザから受信したデータフィード及び/又はイベント更新を分析・マージするように、1つ又は複数のアプリケーションを含むことができる。サーバ120は、クライアント機器101、102、103、104、105、及び106の1つ又は複数の表示機器を介してデータフィード及び/又はリアルタイムイベントを表示するように、1つ又は複数のアプリケーションを含むこともできる。
いくつかの実施形態では、サーバ120は、分散システムのサーバであってもよく、ブロックチェーンを組み込んだサーバであってもよい。サーバ120は、クラウドサーバ、又は人工知能技術を備えたスマートクラウドコンピューティングサーバ又はスマートクラウドホストであってもよい。クラウドサーバは、クラウドコンピューティングサービスシステムにおけるホスト製品の1つであり、従来の物理ホストと仮想専用サーバ(VPS、Virtual Private Server)サービスに存在する、管理が困難で、ビジネスの拡張性が低いという欠点を解決するようにする。
システム100はまた、1つ又は複数のデータベース130を含むことができる。いくつかの実施例では、これらのデータベースは、データ及び他の情報を記憶することに用いられ得る。たとえば、データベース130のうちの1つ又は複数は、オーディオファイル及びビデオファイルのような情報を記憶することに用いられ得る。データリポジトリ130は、様々な場所に配置されることができる。たとえば、サーバ120によって使用されるデータリポジトリは、サーバ120に対してローカルであってもよく、サーバ120から離れるとともに、ネットワークベース又は専用の接続を介してサーバ120と通信してもよい。データリポジトリ130は、さまざまなタイプであってもよい。いくつかの実施例では、サーバ120によって使用されるデータリポジトリは、リレーショナルデータベースなどのデータベースであってもよい。これらのデータベースの1つ又は複数は、命令に応答して、データベース及びデータベースからのデータを記憶、更新、及び検索できる。
いくつかの実施例では、データベース130のうちの1つ又は複数は、アプリケーションによって使用されることによってアプリケーションのデータを記憶することもできる。アプリケーションによって使用されるデータベースは、キー値リポジトリ、オブジェクトリポジトリ、又はファイルシステムによってサポートされる通常のリポジトリなど、異なる種類のデータベースであってもよい。
図1のシステム100は、本開示に記載の各種の方法及び装置を適用できるように、各種の方式で構成・操作することができる。
図2は、本開示に係る実施例の障害物検出方法の模式的なフローチャートを示す。
図2に示すように、ステップS202では、所定の平面に位置する少なくとも1つの障害物を示す少なくとも1つの障害物対象を含むことができる現在画像を取得する。
いくつかの実施例では、現在画像は、路側機器によって収集された道路の監視画像であり得る。いくつかの実施形態では、現在画像は路側機器によって収集された1枚の写真であり得る。別のいくつかの実施形態では、現在画像は路側機器によって収集されたビデオの1つのビデオフレームであってもよい。
路側機器によって収集された監視画像は道路上の障害物の位置を監視できる。いくつかの実施例では、所定の平面は地平面としてもよい。即ち、現在画像内の障害物は地面にある。
いくつかの実施例では、単眼カメラを用いて現在画像を取得することができる。
一般的に、単眼カメラによって取得された画像を用いて画像内の対象の三次元世界座標系での位置を決定することは、制約不足の問題である。他の制約がない場合、画像内の対象の画素座標は世界座標系における1本の光線に対応する。即ち、三次元世界座標系では、この光線上のすべての点は、カメラによって取得された画像内の画素座標が同じである。しかしながら、画像において特定の平面を示す方程式を予めキャリブレーションできれば、単眼カメラを用いて、画像のうち中該特定の平面上に位置する対象の世界座標系での位置を決定できる。
車両ネットワーキングの適用シナリオでは、撮像される画像は一般に道路画像であるため、画像内の地平面をキャリブレーションし、カメラ座標系での地平面方程式Ax+By+Cz+D=0(ただし、A、B、C、Dは予めキャリブレーションされた係数であり、x、y、zはカメラ座標系における3つの次元の独立変数である。)を得ることができる。
カメラ座標系での地平面方程式が既知の場合、画素点の画素座標に対応する光線と地平面方程式との交差点を計算することによって、この画素点の地平面での位置を得ることができる。
ステップS204では、所定の平面における複数の基準点の、現在画像内の現在座標とテンプレート画像内の複数の基準点に対応する基準点のテンプレート座標とに基づいて、現在画像とテンプレート画像との間の変換パラメータを決定する。ここで、複数の基準点が所在する平面は障害物が所在する所定の平面とは同一の平面である。
いくつかの実施例では、路側機器が使用される前に、路側機器が元外部パラメータの状態で撮像した画像をテンプレート画像として取得することができる。テンプレート画像を撮像するときの路側機器の元外部パラメータ(即ちオフライン外部パラメータ)を決定することができる。路側機器が使用されたときに、オフライン外部パラメータに基づいて路側機器によって撮像された画像を処理し、画像内の障害物の三次元位置を決定することができる。
外界環境の影響のため、画像を収集するための路側機器には、振れや恒久的移動が発生することはある。たとえば、強風が吹いたり重型車両が通過したりする場合、路側機器のカメラの外部パラメータが変化する可能性があるが、地平面方程式はオフラインで決定されたカメラの元外部パラメータに基づいてキャリブレーションされるままである。このような場合、カメラの元外部パラメータを用いてキャリブレーションされた地平面方程式によって決定された画像内の障害物対象の世界座標系での位置の精度は低下する。
路側機器の振れや移動による障害物の位置検出への影響を修正するために、テンプレート画像と現在画像との間の画像変化に基づいて現在画像とテンプレート画像との間の変換パラメータを決定することができる。現在画像とテンプレート画像との間の変換パラメータは、現在画像を収集するときの現在のカメラの外部パラメータの、テンプレート画像を収集するときの元カメラ外部パラメータに対する変化を反映することができる。このような変換パラメータを用いると、外部パラメータの変化の具体的な値自体を特に決定することなく、路側機器が現在の外部パラメータで収集された現在画像内の画素座標を、オフライン外部パラメータで収集された画像のうち各画素点に対応する座標に変換することができる。
ステップS206では、ステップS204において決定した変換パラメータと現在画像内の障害物の画素座標とを用いて、障害物の世界座標系での位置を決定することができる。
ステップS204において決定した変換パラメータを用いて、現在画像内の障害物の画素座標に対して座標変換を行い、オフライン外部パラメータを用いて収集したテンプレート画像内の障害物に対応する画素座標を得ることができる。
本開示による方法を用いると、画像内の複数の基準点を用いて、路側機器によって取得された現在画像と路側機器がオフライン外部パラメータで取得したテンプレート画像との間の変換を決定することができ、それによって、外界環境に起因する路側機器の外部パラメータ変化による誤差を簡便に修正することができ、外部パラメータが実際に変化したが、カメラにおいて外部パラメータを再度キャリブレーションしないので、取得された画像内の障害物の位置検出に与える悪影響を解消するようにする。
図3は、本開示の実施例に係る現在画像とテンプレート画像との間の変換パラメータ(たとえば上記ステップS204)を決定するための模式的なフローチャートを示す。図3に示す方法を使用し、カメラの外部パラメータの変化を知る必要せずに、テンプレート座標に基づいて基準点の現在座標を得ることができ、それによって、画像処理方式によって、カメラの外部パラメータの変化による誤差を修正できる。
ステップS302では、前記テンプレート画像と前記現在画像とに基づくとともに、テンプレート画像内の基準点に対応するテンプレート座標に基づいて、現在画像内の複数の基準点の現在座標を決定することができる。
車両ネットワーキングシステムにおいて、路側機器によって収集されたテンプレート画像内の複数の基準点は、路面での標識ライン(たとえば、レーンライン、ストップライン又は折れ標識ライン)上の点としてもよい。たとえば、基準点は、レーンライン、ストップライン又は折れ標識ラインの角点であってもよい。ここでの角点とは、レーンライン、ストップライン又は折れ標識ラインを示すための道路上のグラフィックに含まれる線分の交差点であってもよい。
なお、レーン又は運転規則を示すためのレーンライン、ストップライン、折れ標識ラインのグラフィックが道路上に存在する。このような標識ラインのグラフィックは、実際の使用シナリオでは、一般的に固定されている。したがって、地平面上の標識ラインのグラフィックによって基準点が決定されることができる。
当業者にとって自明なように、本開示による方法を他のシナリオに適用する場合、実際の状況に応じてテンプレート画像内のほかの固定パターン上の点を基準点としてもよい。
現在画像とテンプレート画像との間の変換パラメータは、テンプレート画像内の対応する基準点に対する現在画像内の基準点の変化によって決定されることができる。いくつかの実施例では、オプティカルフロー追跡方法によって、テンプレート画像の対応する基準点に対する現在画像内の各基準点の第1のズレ量を決定する。基準点の現在座標は、テンプレート画像内の基準点のテンプレート座標と第1のズレ量とに基づいて決定されることができる。オプティカルフロー追跡方法を使用し、現在画像内の基準点の位置を簡便に決定できる。
オプティカルフロー追跡方法は画像内の点の動きの追跡に利用できる。ここで、オプティカルフローは、ターゲット、シナリオ又はカメラが2フレームの画像の間で動くときに発生するターゲットの動きであってもよい。オプティカルフローは、一定の時間間隔で動きにより生じる画像の変化を反映して、画像点上の動き方向や動き速度を決定できる。
オプティカルフロー追跡方法を使用し、現在画像のうち複数の基準点の、テンプレート画像のうち対応する基準点に対する動きを決定し、複数の基準点がテンプレート画像内の対応する位置から現在画像内の位置に動くまでの第1のズレ量を決定することができる。対応する基準点のテンプレート画像内のテンプレート座標が既知である場合、基準点の現在画像内の現在座標は、対応する基準点のテンプレート座標に第1のズレ量によって決定される動きベクトルを加算することによって得られる。
ステップS304では、複数の基準点の現在座標と対応する基準点のテンプレート座標との間の変換に基づいて、現在画像とテンプレート画像との間の変換パラメータを決定することができる。ここで、変換パラメータは、現在画像内の複数の基準点が所在する平面を、テンプレート画像内の対応する基準点が所在する平面に変換するために使用できる。
現在画像とテンプレート画像との間の基準点の位置の差は、外界環境の影響に起因するカメラの外部パラメータの変化により生じるものである。つまり、世界座標系におけるカメラが回転及び/又は並進したため、画像内の基準点の位置が変化する。したがって、座標変換方式に基づいて基準点が所在する平面の変換パラメータを、現在画像とテンプレート画像との間の変換パラメータとして算出できる。
いくつかの実施例では、変換パラメータはホモグラフィ行列としてもよい。ここで、ホモグラフィ行列は、画像収集機器の回転又は平面同士の変換関係の記述に利用できる。本開示に係る実施例では、基準点は地平面上にある。したがって、基準点のテンプレート座標と地平面座標とを用いて、現在画像内の地平面とテンプレート画像内の地平面との変換関係を計算できる。いくつかの実施形態では、ホモグラフィ変換パラメータは、1つの8自由度の3*3次元のホモグラフィ行列であってもよい。基準点の座標が2つの独立変数を含む二次元画素座標として示されることができると考慮すると、テンプレート画像内の基準点と現在画像内の対応する基準点とを1対のマッチング点とみなされる場合、少なくとも4つのマッチング点を用いてホモグラフィ行列を計算できる。いくつかの例では、4対よりも多いマッチング点を用いてホモグラフィ行列を計算できる。このような場合、ホモグラフィ行列の係数の計算過程は、過剰決定方程式を解く過程に変換され、ホモグラフィ行列の係数は過剰決定方程式の最小二乗解により決定されることができる。計算過程に使用されるマッチング点の対数が多いほど、算出したホモグラフィ行列の正確性が高い。
図4は、本開示の実施例に係る複数の基準点の現在座標と対応する基準点のテンプレート座標とに基づいて現在画像とテンプレート画像との間の変換パラメータ(たとえば上記ステップS304)を決定する模式的なフローチャートを示す。図4に示す方法を使用し、変換パラメータの正確性を向上させるために誤差の大きな基準点を除去できる。
場合によっては、撮像された道路画像に移動している歩行者及び車両が存在するので、テンプレート画像のうち決定された基準点の一部を遮断する可能性がある。このような場合、オプティカルフロー追跡方法によって決定された現在画像内の基準点の座標の正確性が不十分である可能性がある。したがって、いくつかの実施例では、複数の基準点の現在座標と対応する基準点のテンプレート座標とからなるマッチング点対を用いて算出したホモグラフィ行列の係数は、現在画像とテンプレート画像との間の変換パラメータとして直接決定されない。図4に示す方法によって、複数の基準点を選別して、上記変換パラメータの決定に適した複数の基準点のサブセットを決定する。
図4に示すように、ステップS401では、複数の基準点の現在座標とテンプレート座標とを用いて、候補変換パラメータを決定することができる。
いくつかの実施例では、変換パラメータをホモグラフィ行列として、複数の基準点の現在座標と対応する基準点のテンプレート座標とからなるマッチング点対を用いて、ホモグラフィ行列の係数を候補変換パラメータとして計算することができる。
ステップS402では、候補変換パラメータを用いて複数の基準点の現在座標に対して座標変換を行い、複数の基準点の第1の変換座標を得ることができる。
理想的な場合に、候補変換パラメータを計算するためのマッチング点対の座標は正確であると、候補変換パラメータを用いて複数の基準点の現在座標に対して座標変換を行って得た第1の変換座標は、テンプレート画像内の対応する基準点のテンプレート座標と同じである。しかしながら、オプティカルフロー追跡方法によって決定された基準点の、現在画像内の現在座標に大きな誤差が存在すると、ステップS402において得られた基準点の第1の変換座標とテンプレート座標との間にも、大きな誤差が存在するようになる。
ステップS403では、対応するテンプレート座標に対する複数の基準点の第1の変換座標の再投影誤差を決定することができる。
ステップS404では、ステップS403において決定された再投影誤差を用いて、複数の基準点の第1のサブセットを決定することができ、ここで、第1のサブセット中の基準点は、誤差閾値未満の再投影誤差を有する。
ステップS405では、第1のサブセット中の基準点の現在座標とテンプレート画像内の第1のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、変換パラメータを決定することができる。
図4に記載の過程と組み合わせると、候補変換パラメータを用いて基準点の現在座標を変換し、候補変換パラメータを用いて得たテンプレート画像のうち基準点の座標と予めキャリブレーションしたテンプレート座標との間の差を比較し、差の大きな基準点を除去することができる。差の小さな基準点を用いて、現在画像とテンプレート画像との間の変換パラメータを再計算することができる。
図5は、本開示の実施例に係る複数の基準点の現在座標と対応する基準点のテンプレート座標とに基づいて現在画像とテンプレート画像との間の変換パラメータ(たとえば、上記ステップS304)を決定する別の模式的なフローチャートを示す。図5に示す方法を使用し、変換パラメータの正確性を向上させるために、誤差の大きな基準点を除去できる。
ステップS501では、複数の基準点のそれぞれに対して、現在画像のうち該基準点を中心とする現在ピクチャーブロックとテンプレート画像のうち該基準点に対応する基準点を中心とするテンプレートピクチャーブロックとの間の類似度を用いて、該基準点と該基準点に対応する基準点との間の第2のズレ量を決定することができる。
いくつかの実施例では、現在ピクチャーブロックとテンプレートピクチャーブロックは、長さ、幅がともに101画素のピクチャーブロックとしてもよい。該基準点の第2のズレ量は、現在ピクチャーブロックとテンプレートピクチャーブロックとの間の類似度を計算することにより決定されることができる。いくつかの実施形態では、第2のズレ量は、現在ピクチャーブロックとテンプレートピクチャーブロックとの間の位相に基づく類似度を計算することにより決定されることができる。当業者にとって自明なように、現在ピクチャーブロックとテンプレートピクチャーブロックとの間の類似度は、他の任意の画像処理方法によって決定されてもよく、このような類似度であれば、基準点のズレ量を指示できる。
ステップS502では、第1のズレ量と第2のズレ量とに基づいて、複数の基準点の第2のサブセットを決定することができ、第2のサブセット中の基準点の第1のズレ量と第2のズレ量との間の差が差閾値未満である。
ステップS501において決定された第2のズレ量によって、第1のサブセット中の基準点をさらに選別できる。第1のズレ量と第2のズレ量との間の差が差閾値よりも大きい場合、該基準点の位置は信頼できないと考えられる。したがって、変換パラメータを計算するときに、このような基準点を除去することができる。
ステップS503では、第2のサブセット中の基準点の現在座標とテンプレート画像内の第2のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、変換パラメータを決定することができる。
いくつかの実施例では、図4に示す方法によって第1のサブセットの基準点を得た後、第1のサブセット中の基準点に対して図5に記載のステップを実行して、第2のサブセットを得ることができる。このような場合、第2のサブセットは第1のサブセットのサブセットであってもよい。
図6は、本開示の実施例に係る変換パラメータと現在画像内の障害物対象の画素座標とを用いて、障害物の世界座標系での位置(たとえば上記ステップS206)を決定する過程の模式的なフローチャートを示す。障害物と基準点が同一の平面にあるため、基準点を用いて計算された変換パラメータは、現在画像内の障害物対象の座標をテンプレート画像に簡便に変換し、障害物の世界座標系での三次元座標を決定できる。
ステップS602では、現在画像内の障害物対象の第1の座標を決定することができる。
いくつかの実施例では、ターゲット検出アルゴリズムによって現在画像を処理し、現在画像に存在する、障害物を示す障害物対象を認識することができる。車両ネットワーキングの適用シナリオでは、障害物は歩行者又は車両であってもよい。いくつかの実施形態では、ターゲット検出アルゴリズムによって現在画像に存在する障害物対象のターゲットボックスを認識し、障害物対象を示す底面中心点座標をターゲットボックス上で第1の座標として決定することができる。たとえば、障害物のタイプに応じてターゲットボックスで障害物対象を示す底面中心点座標を決定することができる。別のいくつかの実施形態では、ターゲット検出アルゴリズムを実現するためのモデルを訓練することができ、モデルが障害物対象の底面中心点の位置を学習できるようにし、モデルによって出力される結果を用いて、障害物対象の底面中心点の位置を直接決定することができる。
ステップS604では、変換パラメータに基づいて障害物の第1の座標を変換し、障害物の第2の座標を得ることができる。
図1~図5のうちの少なくとも1つの図を参照して説明する方法によって決定された変換パラメータを使用し、現在画像内の障害物対象の第1の座標に基づいて、障害物対象のテンプレート画像内の第2の座標を決定することができる。このような方法を使用し、カメラの外部パラメータの変化に起因する画像内の障害物対象の不正確な位置の問題を解決できる。
ステップS606では、障害物対象の第2の座標に基づいて、障害物の世界座標系での位置を決定することができる。
前記のように、路側機器が使用される前に、テンプレート画像内の地平面はすでにキャリブレーションされている。したがって、カメラ座標系において所定の平面を示す方程式を用いて、障害物対象の第2の座標に基づいて、障害物のカメラ座標系での位置を決定できる。カメラ座標系と世界座標系との幾何学的変換関係に基づいて、障害物のカメラ座標系での位置に基づいて、障害物の世界座標系での位置を決定できる。既知の所定の平面の方程式を使用し、所定の平面における障害物の深さ情報を提供できる。
図7は、本開示の実施例に係る画像内の基準点の模式図を示す。図7に示すように、道路上の標識ライン上の点は基準点として決定されることができる。たとえば、点701、702、703、705はレーンラインの角点、点704は折れ標識ラインの角点である。
図7には、基準点701~705のみが示されているが、理解できるのは、当業者は、図7に示す標識ライン上のより多くの点を基準点として決定してもよい。
図8A及び図8Bは、障害物検出結果の模式図を示す。
図8Aには、修正されていない場合、2つの路側機器を用いて、カメラに振れが存在する場合、それぞれ認識した道路上の障害物が示されている。ブロック801及び803は、2つの路側機器がそれぞれ検出した実際の道路上の同一車両の検出位置に対応し、ブロック802及び804は、2つの路側機器がそれぞれ検出した実際の道路上の同一の別の車両の検出位置に対応する。カメラ振れが修正されていないため、2つの路側機器によって収集された画像のうち、検出された障害物(車両)の位置が異なる。このような場合、2つの路側機器によって取得された画像を統合すると、交差点に4台の車両が存在すると考えられる可能性があり、これは実際の状況と異なる。
図8Bには、修正された場合、2つの路側機器を用いて、カメラに振れが存在する場合、それぞれ認識した道路上の障害物が示されている。路側機器のカメラ振れが修正されたので、2つの路側機器は、異なる撮像角度で、同一の位置に車両801及び802を検出できる。これによって、カメラ振れによる検出誤差を避ける。
図9は、本開示の実施例に係る障害物検出装置の模式的ブロック図を示す。図9に示すように、障害物検出装置900は、画像取得ユニット910、変換決定ユニット920、及び障害物位置決定ユニット930を含みうる。
画像取得ユニット910は、所定の平面に位置する少なくとも1つの障害物を含む現在画像を取得するように構成される。変換決定ユニット920は、所定の平面における複数の基準点の、現在画像内の現在座標とテンプレート画像内の複数の基準点に対応する基準点のテンプレート座標とに基づいて、現在画像とテンプレート画像との間の変換パラメータを決定するように構成される。障害物位置決定ユニット930は、変換パラメータと現在画像内の障害物の画素座標とを用いて、障害物の世界座標系での位置を決定するように構成される。
ここでの障害物検出装置900の上記各ユニット910~930の操作は、それぞれ、前述のステップS202~S206の操作と類似しているので、ここで再度言及しない。
いくつかの実施例によれば、変換決定ユニットは、テンプレート画像と現在画像とに基づくとともに、テンプレート画像内の対応する基準点のテンプレート座標に基づいて、複数の基準点の現在画像内の現在座標を決定するように構成される座標決定サブユニットと、複数の基準点の現在座標と対応する基準点のテンプレート座標との間の変換に基づいて、現在画像とテンプレート画像との間の変換パラメータを決定するように構成されるパラメータ決定ユニットとを含む。
いくつかの実施例によれば、座標決定サブユニットは、オプティカルフロー追跡方法によって、テンプレート画像の対応する基準点に対する現在画像内の基準点の第1のズレ量を決定するように構成される追跡サブユニットと、基準点の第1のズレ量とテンプレート座標とに基づいて、基準点の現在座標を決定するように構成されるズレサブユニットとを含む。
いくつかの実施例によれば、パラメータ決定ユニットは、複数の基準点の現在座標とテンプレート座標を用いて、候補変換パラメータを決定するように構成される候補変換決定サブユニットと、候補変換パラメータを用いて複数の基準点の現在座標に対して座標変換を行い、複数の基準点の第1の変換座標を得るように構成される変換サブユニットと、対応するテンプレート座標に対する複数の基準点の第1の変換座標の再投影誤差を決定するように構成される誤差決定サブユニットと、基準点が誤差閾値未満の再投影誤差を有する複数の基準点の第1のサブセットを決定するように構成される選別サブユニットと、第1のサブセット中の基準点の現在座標と前記テンプレート画像内の第1のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、前記変換パラメータを決定するように構成される変換パラメータ決定サブユニットとを含む。
いくつかの実施例によれば、パラメータ決定ユニットは、複数の基準点のそれぞれに対して、現在画像のうち該基準点を中心とする現在ピクチャーブロックとテンプレート画像のうち該基準点に対応する基準点を中心とするテンプレートピクチャーブロックとの間の類似度を用いて、該基準点と該基準点に対応する基準点との間の第2のズレ量を決定するように構成される類似度決定サブユニットと、第1のズレ量と第2のズレ量とに基づいて、複数の基準点の第2のサブセットを決定するように構成される選別サブユニットであって、第2のサブセット中の基準点の第1のズレ量と第2のズレ量との間の差が差閾値未満である選別サブユニットと、第2のサブセット中の基準点の現在座標とテンプレート画像内の第2のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、変換パラメータを決定するように構成される変換パラメータ決定サブユニットとを含む。
いくつかの実施例によれば、障害物位置決定ユニットは、現在画像内の障害物対象の第1の座標を決定するように構成される第1の座標決定サブユニットと、変換パラメータに基づいて障害物対象の第1の座標を変換し、障害物対象の第2の座標を得るように構成される第2の座標決定サブユニットと、障害物対象の第2の座標に基づいて、障害物の世界座標系での位置を決定するように構成される世界座標決定サブユニットとを含む。
本開示による装置を用いると、画像内の複数の基準点を用いて、路側機器によって取得された現在画像と路側機器がオフライン外部パラメータで取得したテンプレート画像との間の変換を決定することができ、それによって、外界環境に起因する路側機器の外部パラメータ変化を簡便に修正し、取得した画像内の障害物の位置検出に与える外部パラメータの変化の悪影響を解消できる。
本開示の実施例によれば、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含み、前記メモリは、前記少なくとも1つのプロセッサにより実行可能な命令を記憶しており、前記命令は前記少なくとも1つのプロセッサにより実行されて、前記少なくとも1つのプロセッサが図1~図6を参照して説明した方法を実行できるようにする電子機器をさらに提供する。
本開示の実施例によれば、上記のような電子機器を含む路側機器をさらに提供する。
本開示の実施例によれば、上記のような電子機器を含むクラウド制御プラットフォームをさらに提供する。
本開示の実施例によれば、図1~図6を参照して説明した方法を前記コンピュータに実行させるためのコンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体をさらに提供する。
本開示の実施例によれば、プロセッサにより実行されると、図1~図6を参照して説明した方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供する。
図10を参照すると、本開示の移動端末として機能できる電子機器1000の構造ブロック図を示し、これは、本開示の各態様のハードウェア機器に適用できる例である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナル・デジタル・アシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータのような、様々な形態のデジタル電子のコンピュータ機器を示すことを意図する。電子機器はまた、パーソナルデジタルプロセッシング、セルラー電話、スマートフォン、ウェアラブル機器、及び他の類似するコンピューティング装置のような様々な形態の移動装置を示すことができる。本明細書に示す構成要素、それらの接続及び関係、ならびにそれらの機能は、単なる一例であり、本明細書に記載及び/又は必要とされる本開示の実現を制限することを意図するものではない。
図10に示すように、機器1000は、読み取り専用メモリ(ROM)1002に記憶されたコンピュータプログラム、又は記憶ユニット1008からランダムアクセスメモリ(RAM)1003にロードされたコンピュータプログラムに従って、各種の適切な動作及び処理を実行することができる計算ユニット1001を含む。RAM 1003には、機器1000の操作に必要な各種のプログラムやデータが記憶されていてもよい。計算ユニット1001、ROM1002、及びRAM1003は、バス1004を介して互いに接続されている。入力/出力(I/O)インタフェース1005もバス1004に接続されている。
機器1000の複数の構成要素は、I/Oインタフェース1005に接続され、入力ユニット1006、出力ユニット1007、記憶ユニット1008、及び通信ユニット1009を含む。入力ユニット1006は、機器1000に情報を入力することができる任意のタイプの機器であってもよく、入力ユニット1006は、入力された数字又は文字情報を受信し、電子機器のユーザ設定及び/又は機能制御に関連するキー信号入力を生成することができ、マウス、キーボード、タッチスクリーン、トラックボード、トラックボール、ジョイスティック、マイクロフォン、及び/又はリモートコントローラを含むことができるが、これらに限定される。出力ユニット1007は、情報を表示することができる任意のタイプの機器であってもよく、ディスプレイ、スピーカ、ビデオ/オーディオ出力端末、バイブレータ、及び/又はプリンタを含むことができるが、これらに限定される。記憶ユニット1008は、磁気ディスク、光ディスクを含むことができるが、これらに限定される。通信ユニット1009は、機器1000がインターネットなどのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他の機器と情報/データを交換することを可能にし、モデム、ネットワークカード、赤外線通信機器、無線通信トランシーバ、及び/又はチップセット、たとえば、ブルートゥース(登録商標) TM機器、1302.11機器、WiFi機器、WiMax機器、セルラー通信機器、及び/又は類似物を含むことができるが、これらに限定される。
計算ユニット1001は、処理能力及び計算能力を有する様々な汎用及び/又は専用の処理コンポーネントとすることができる。計算ユニット1001のいくつかの例には、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、様々な専用人工知能(AI)計算チップ、機械学習モデルアルゴリズムを運行する様々な計算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどが含まれるが、これらに限定される。計算ユニット1001は、本開示の実施例に係る障害物検出方法などの以上に記載の様々な方法及び処理を実行する。たとえば、いくつかの実施例では、障害物検出は、記憶ユニット1008のような機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例では、コンピュータプログラムの一部又は全部を、ROM1002及び/又は通信ユニット1009を介して機器1000にロード及び/又はインストールすることができる。コンピュータプログラムがRAM1003にロードされ、計算ユニット1001によって実行されると、以上に記載の方法の1つ又は複数のステップを実行することができる。オプションとして、別の実施例では、計算ユニット1001は、他の任意の適切な方法で(たとえば、ファームウェア)、障害物検出方法を実行するように構成される。
本明細書で前述したシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブル論理機器(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせにおいて実現されてもよい。これら様々な実施形態は、1つ又は複数のコンピュータプログラムで実行することを含むことができ、この1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行又は解釈可能であり、このプログラマブルシステムは、専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、この記憶システム、この少なくとも1つの入力装置、及びこの少なくとも1つの出力装置にデータ及び命令を転送することができる。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせを用いてプログラミングすることができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されることができ、プログラムコードがプロセッサ又はコントローラによって実行されると、フローチャート及び/又はブロック図に規定された機能/動作が実施されるようにする。プログラムコードは、完全にマシン上で実行されてもよく、部分的にマシン上で実行されてもよく、スタンドアロンパッケージとして一部がマシン上で実行され且つ一部がリモートマシン上で実行されてもよく、又は完全にリモートマシン又はサーバ上で実行されてもよい。
本開示の文脈では、機械読み取り可能な媒体は、命令実行システム、装置、又は機器によって使用され、又は命令実行システム、装置、又は機器と合わせて使用されるためのプログラムを含むか、格納することができる有形媒体とすることができる。機械読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又は機器、あるいはこれらの任意の適切な組み合わせを含むことができるが、これらに限定される。機械読み取り可能な記憶媒体のより具体的な例は、1つ以上のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶機器、磁気記憶機器、又はこれらの任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで記載されたシステム及び技術はコンピュータ上で実施してもよく、このコンピュータは、ユーザに情報を表示するためのディスプレイ装置(たとえば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、ユーザがコンピュータに入力を提供するキーボード及びポインティング装置(たとえば、マウス又はトラックボール)とを含む。他の種類の装置は、ユーザとのインタラクションを提供するために使用されることもでき、たとえば、ユーザに提供されるフィードバックは、任意の形態の感知フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、ユーザからの入力は、任意の形態(音声入力、音声入力、又は触覚入力を含む)で受信することができる。
ここで記載されたシステム及び技術は、バックグラウンドコンポーネントを含むコンピューティングシステム(たとえば、データサーバとして)、又はミドルウェアコンポーネントを含むコンピューティングシステム(たとえば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(たとえば、ユーザがここで記載されたシステム及び技術の実施形態とインタラクションできるグラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ)、又はそのようなバックグラウンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムにおいて実現され得る。システムのコンポーネントは、任意の形態又は媒体のデジタルデータ通信(たとえば、通信ネットワーク)を介して相互に接続することができる。通信ネットワークの例には、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及びインターネットが含まれる。
コンピュータシステムは、クライアント及びサーバを含むことができる。クライアント及びサーバは、一般的に互いに離れており、通常、通信ネットワークを介してインタラクションする。クライアントとサーバの関係は、対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによって生成される。
なお、上記の様々な形態のプロセスを使用して、ステップを並べ替えたり、追加したり、削除したりすることができる。たとえば、本開示に記載された各ステップは、本開示で開示された技術案によって期待される結果を達成できる限り、並行して実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよく、本明細書はここで限定しない。
図面を参照して本開示の実施例又は例を説明したが、上記した方法、システム、及び機器は例示的な実施例又は例にすぎず、本発明の範囲はこれらの実施例又は例によって限定されなく、授権された特許請求の範囲及びそれらの同等の範囲のみによって限定されることが理解されるべきである。実施例又は例における様々な要素は、省略されてもよく、又はそれらの同等の要素によって置き換えられてもよい。なお、各ステップは、本開示で説明されている順序と異なる順序で実行されてもよい。さらに、実施例又は例における様々な要素を様々な方法で組み合わせることができる。ここで記載された多くの要素が、技術の進化に伴って、本開示の後に現れる同等要素で置き換えられてもよいことが重要である。

Claims (21)

  1. 障害物検出方法であって、
    所定の平面に位置する少なくとも1つの障害物を示す少なくとも1つの障害物対象を含む現在画像を取得することと、
    現在画像内の前記所定の平面における複数の基準点の現在座標とテンプレート画像内の前記複数の基準点に対応する基準点のテンプレート座標とに基づいて、前記現在画像と前記テンプレート画像との間の変換パラメータを決定することと、
    前記変換パラメータと前記現在画像内の前記障害物対象の画素座標とを用いて前記障害物の世界座標系での位置を決定することとを含む、障害物検出方法。
  2. 現在画像内の前記所定の平面における複数の基準点の現在座標とテンプレート画像内の前記複数の基準点に対応する基準点のテンプレート座標とに基づいて、前記現在画像と前記テンプレート画像との間の変換パラメータを決定することは、
    前記テンプレート画像と前記現在画像とに基づくとともに、前記テンプレート画像内の対応する基準点のテンプレート座標に基づいて、前記複数の基準点の前記現在画像内の現在座標を決定することと、
    前記複数の基準点の前記現在座標と対応する基準点の前記テンプレート座標との間の変換に基づいて前記現在画像と前記テンプレート画像との間の変換パラメータを決定することとを含む、請求項1に記載の方法。
  3. 前記テンプレート画像と前記現在画像とに基づくとともに、前記テンプレート画像内の対応する基準点のテンプレート座標に基づいて、前記複数の基準点の前記現在画像内の現在座標を決定することは、
    オプティカルフロー追跡方法によって、前記テンプレート画像の対応する基準点に対する前記現在画像内の前記基準点の第1のズレ量を決定することと、
    前記基準点の前記第1のズレ量と前記テンプレート座標とに基づいて、前記基準点の現在座標を決定することとを含む、請求項2に記載の方法。
  4. 前記複数の基準点の前記現在座標と対応する基準点の前記テンプレート座標とに基づいて前記現在画像と前記テンプレート画像との間の変換パラメータを決定することは、
    前記複数の基準点の前記現在座標と前記テンプレート座標を用いて、候補変換パラメータを決定することと、
    前記候補変換パラメータを用いて前記複数の基準点の前記現在座標に対して座標変換を行い、前記複数の基準点の第1の変換座標を得ることと、
    対応するテンプレート座標に対する前記複数の基準点の第1の変換座標の再投影誤差を決定することと、
    誤差閾値未満の再投影誤差を有する前記複数の基準点の第1のサブセットを決定することと、
    前記第1のサブセット中の基準点の現在座標と前記テンプレート画像内の前記第1のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、前記変換パラメータを決定することとを含む、請求項3に記載の方法。
  5. 前記複数の基準点の前記現在座標と対応する基準点の前記テンプレート座標とに基づいて前記現在画像と前記テンプレート画像との間の変換パラメータを決定することは、
    前記複数の基準点のそれぞれに対して、前記現在画像のうち該基準点を中心とする現在ピクチャーブロックと前記テンプレート画像のうち該基準点に対応する基準点を中心とするテンプレートピクチャーブロックとの間の類似度を用いて、該基準点と該基準点に対応する基準点との間の第2のズレ量を決定することと、
    前記第1のズレ量と前記第2のズレ量とに基づいて、前記複数の基準点の第2のサブセットを決定することであって、前記第2のサブセット中の基準点の第1のズレ量と第2のズレ量との間の差が差閾値未満であることと、
    前記第2のサブセット中の基準点の現在座標と前記テンプレート画像内の前記第2のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、前記変換パラメータを決定することとを含む、請求項3に記載の方法。
  6. 前記変換パラメータはホモグラフィ行列である、請求項1~5のいずれか1項に記載の方法。
  7. 前記変換パラメータと前記現在画像内の前記障害物対象の画素座標とを用いて前記障害物の世界座標系での位置を決定することは、
    前記現在画像内の前記障害物対象の第1の座標を決定することと、
    前記変換パラメータに基づいて前記障害物対象の前記第1の座標を変換し、前記障害物対象の第2の座標を得ることと、
    前記障害物対象の第2の座標に基づいて、前記障害物の世界座標系での位置を決定することとを含む、請求項1~6のいずれか1項に記載の方法。
  8. 前記障害物対象の第2の座標に基づいて、前記障害物の世界座標系での位置を決定することは、
    カメラ座標系において所定の平面を示す方程式を用いて、前記障害物対象の前記第2の座標に基づいて、前記障害物のカメラ座標系での位置を決定することと、
    前記障害物のカメラ座標系での位置に基づいて前記障害物の世界座標系での位置を決定することとを含む、請求項7に記載の方法。
  9. 前記障害物は歩行者又は車両である、請求項1~8のいずれか1項に記載の方法。
  10. 前記基準点はレーンライン、ストップライン又は折れ標識ラインの角点である、請求項1~9のいずれか1項に記載の方法。
  11. 障害物検出装置であって、
    所定の平面に位置する少なくとも1つの障害物を示す少なくとも1つの障害物対象を含む現在画像を取得するように構成される画像取得ユニットと、
    現在画像内の前記所定の平面における複数の基準点の現在座標とテンプレート画像内の前記複数の基準点に対応する基準点のテンプレート座標とに基づいて、前記現在画像と前記テンプレート画像との間の変換パラメータを決定するように構成される変換決定ユニットと、
    前記変換パラメータと前記現在画像内の前記障害物対象の画素座標とを用いて前記障害物の世界座標系での位置を決定するように構成される障害物位置決定ユニットとを含む、障害物検出装置。
  12. 変換決定ユニットは、
    前記テンプレート画像と前記現在画像とに基づくとともに、前記テンプレート画像内の対応する基準点のテンプレート座標に基づいて、前記複数の基準点の前記現在画像内の現在座標を決定するように構成される座標決定サブユニットと、
    前記複数の基準点の前記現在座標と対応する基準点の前記テンプレート座標との間の変換に基づいて前記現在画像と前記テンプレート画像との間の変換パラメータを決定するように構成されるパラメータ決定ユニットとを含む、請求項11に記載の装置。
  13. 座標決定サブユニットは、
    オプティカルフロー追跡方法によって、前記テンプレート画像の対応する基準点に対する前記現在画像内の前記基準点の第1のズレ量を決定するように構成される追跡サブユニットと、
    前記基準点の前記第1のズレ量と前記テンプレート座標とに基づいて、前記基準点の現在座標を決定するように構成されるズレサブユニットとを含む、請求項12に記載の装置。
  14. パラメータ決定ユニットは、
    前記複数の基準点の前記現在座標と前記テンプレート座標を用いて、候補変換パラメータを決定するように構成される候補変換決定サブユニットと、
    前記候補変換パラメータを用いて前記複数の基準点の前記現在座標に対して座標変換を行い、前記複数の基準点の第1の変換座標を得るように構成される変換サブユニットと、
    対応するテンプレート座標に対する前記複数の基準点の第1の変換座標の再投影誤差を決定するように構成される誤差決定サブユニットと、
    基準点が誤差閾値未満の再投影誤差を有する前記複数の基準点の第1のサブセットを決定するように構成される選別サブユニットと、
    前記第1のサブセット中の基準点の現在座標と前記テンプレート画像内の前記第1のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、前記変換パラメータを決定するように構成される変換パラメータ決定サブユニットとを含む、請求項13に記載の装置。
  15. パラメータ決定ユニットは、
    前記複数の基準点のそれぞれに対して、前記現在画像のうち該基準点を中心とする現在ピクチャーブロックと前記テンプレート画像のうち該基準点に対応する基準点を中心とするテンプレートピクチャーブロックとの間の類似度を用いて、該基準点と該基準点に対応する基準点との間の第2のズレ量を決定するように構成される類似度決定サブユニットと、
    前記第1のズレ量と前記第2のズレ量とに基づいて、前記複数の基準点の第2のサブセットを決定するように構成される選別サブユニットであって、前記第2のサブセット中の基準点の第1のズレ量と第2のズレ量との間の差が差閾値未満である選別サブユニットと、
    前記第2のサブセット中の基準点の現在座標と前記テンプレート画像内の前記第2のサブセット中の基準点に対応する基準点のテンプレート座標とを用いて、前記変換パラメータを決定するように構成される変換パラメータ決定サブユニットとを含む、請求項13に記載の装置。
  16. 障害物位置決定ユニットは、
    前記現在画像内の前記障害物対象の第1の座標を決定するように構成される第1の座標決定サブユニットと、
    前記変換パラメータに基づいて前記障害物対象の前記第1の座標を変換し、前記障害物対象の第2の座標を得るように構成される第2の座標決定サブユニットと、
    前記障害物対象の第2の座標に基づいて、前記障害物の世界座標系での位置を決定するように構成される世界座標決定サブユニットとを含む、請求項11~15のいずれか1項に記載の装置。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含み、
    前記メモリは、前記少なくとも1つのプロセッサにより実行可能な命令を記憶しており、前記命令は前記少なくとも1つのプロセッサにより実行されて、前記少なくとも1つのプロセッサが請求項1~10のいずれか1項に記載の方法を実行できるようにする、電子機器。
  18. 請求項17に記載の電子機器を含む路側機器。
  19. 請求項1~10のいずれか1項に記載の方法を前記コンピュータに実行させるためのコンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体。
  20. プロセッサにより実行されると、請求項1~10のいずれか1項に記載の方法を実現するコンピュータプログラムを含む、コンピュータプログラム製品。
  21. 請求項17に記載の電子機器を含むクラウド制御プラットフォーム。
JP2021210732A 2020-12-25 2021-12-24 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム Active JP7351892B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011558835.0A CN112560769B (zh) 2020-12-25 2020-12-25 用于检测障碍物的方法、电子设备、路侧设备和云控平台
CN202011558835.0 2020-12-25

Publications (2)

Publication Number Publication Date
JP2022034034A true JP2022034034A (ja) 2022-03-02
JP7351892B2 JP7351892B2 (ja) 2023-09-27

Family

ID=75032413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021210732A Active JP7351892B2 (ja) 2020-12-25 2021-12-24 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム

Country Status (5)

Country Link
US (1) US20220114813A1 (ja)
EP (1) EP3961583A3 (ja)
JP (1) JP7351892B2 (ja)
KR (1) KR20220004604A (ja)
CN (1) CN112560769B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312979B (zh) * 2021-04-30 2024-04-16 阿波罗智联(北京)科技有限公司 图像处理方法、装置、电子设备、路侧设备及云控平台
CN113819890B (zh) * 2021-06-04 2023-04-14 腾讯科技(深圳)有限公司 测距方法、装置、电子设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319218A (ja) * 2000-02-29 2001-11-16 Hitachi Ltd 画像監視装置
JP2005182504A (ja) * 2003-12-19 2005-07-07 Matsushita Electric Ind Co Ltd 駐車支援システム
JP2008197917A (ja) * 2007-02-13 2008-08-28 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
JP2009020800A (ja) * 2007-07-13 2009-01-29 Casio Comput Co Ltd 特徴点追跡装置及びプログラム
JP2010103877A (ja) * 2008-10-27 2010-05-06 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2010287153A (ja) * 2009-06-15 2010-12-24 Renesas Electronics Corp 混雑状況判定装置と混雑状況判定方法並びにプログラム
JP2012146199A (ja) * 2011-01-13 2012-08-02 Nippon Steel Corp 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム
JP2015111339A (ja) * 2013-12-06 2015-06-18 株式会社デンソーアイティーラボラトリ 画像検索システム、画像検索装置、検索サーバ装置、画像検索方法、及び画像検索プログラム
JP6227211B1 (ja) * 2017-03-15 2017-11-08 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2020013293A (ja) * 2018-07-18 2020-01-23 アマノ株式会社 駐車場管理システム、駐車場管理装置、駐車場管理方法、及びプログラム
CN111612760A (zh) * 2020-05-20 2020-09-01 北京百度网讯科技有限公司 用于检测障碍物的方法和装置
JP2020187385A (ja) * 2019-05-09 2020-11-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 幾何パラメータ推定装置、幾何パラメータ推定システム、幾何パラメータ推定方法及びコンピュータプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JP4406381B2 (ja) * 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
JP4297501B2 (ja) * 2004-08-11 2009-07-15 国立大学法人東京工業大学 移動体周辺監視装置
CN101441076B (zh) * 2008-12-29 2010-06-02 东软集团股份有限公司 一种检测障碍物的方法和装置
US8417062B2 (en) * 2009-10-19 2013-04-09 Ut-Battelle, Llc System and method for stabilization of fisheye video imagery
JP2013061773A (ja) * 2011-09-13 2013-04-04 Ricoh Co Ltd 前方障害物検知装置
CN104299244B (zh) * 2014-09-26 2017-07-25 东软集团股份有限公司 基于单目相机的障碍物检测方法及装置
US10248124B2 (en) * 2016-07-21 2019-04-02 Mobileye Vision Technologies, Inc. Localizing vehicle navigation using lane measurements
CN108682038B (zh) * 2018-04-27 2021-12-14 腾讯科技(深圳)有限公司 位姿确定方法、装置及存储介质
CN108830257A (zh) * 2018-06-29 2018-11-16 电子科技大学 一种基于单目光流的潜在障碍物检测方法
CN109300159B (zh) * 2018-09-07 2021-07-20 百度在线网络技术(北京)有限公司 位置检测方法、装置、设备、存储介质及车辆
CN111754580A (zh) * 2019-03-28 2020-10-09 阿里巴巴集团控股有限公司 一种摄像头标定方法、路侧感知设备和智慧交通系统
CN110146869B (zh) * 2019-05-21 2021-08-10 北京百度网讯科技有限公司 确定坐标系转换参数的方法、装置、电子设备和存储介质
CN110213488B (zh) * 2019-06-06 2022-01-18 腾讯科技(深圳)有限公司 一种定位方法及相关设备
CN110728720B (zh) * 2019-10-21 2023-10-13 阿波罗智能技术(北京)有限公司 用于相机标定的方法、装置、设备和存储介质
CN111046762A (zh) * 2019-11-29 2020-04-21 腾讯科技(深圳)有限公司 一种对象定位方法、装置电子设备及存储介质
CN111578839B (zh) * 2020-05-25 2022-09-20 阿波罗智联(北京)科技有限公司 障碍物坐标处理方法、装置、电子设备及可读存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319218A (ja) * 2000-02-29 2001-11-16 Hitachi Ltd 画像監視装置
JP2005182504A (ja) * 2003-12-19 2005-07-07 Matsushita Electric Ind Co Ltd 駐車支援システム
JP2008197917A (ja) * 2007-02-13 2008-08-28 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
JP2009020800A (ja) * 2007-07-13 2009-01-29 Casio Comput Co Ltd 特徴点追跡装置及びプログラム
JP2010103877A (ja) * 2008-10-27 2010-05-06 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2010287153A (ja) * 2009-06-15 2010-12-24 Renesas Electronics Corp 混雑状況判定装置と混雑状況判定方法並びにプログラム
JP2012146199A (ja) * 2011-01-13 2012-08-02 Nippon Steel Corp 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム
JP2015111339A (ja) * 2013-12-06 2015-06-18 株式会社デンソーアイティーラボラトリ 画像検索システム、画像検索装置、検索サーバ装置、画像検索方法、及び画像検索プログラム
JP6227211B1 (ja) * 2017-03-15 2017-11-08 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2020013293A (ja) * 2018-07-18 2020-01-23 アマノ株式会社 駐車場管理システム、駐車場管理装置、駐車場管理方法、及びプログラム
JP2020187385A (ja) * 2019-05-09 2020-11-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 幾何パラメータ推定装置、幾何パラメータ推定システム、幾何パラメータ推定方法及びコンピュータプログラム
CN111612760A (zh) * 2020-05-20 2020-09-01 北京百度网讯科技有限公司 用于检测障碍物的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
市村直幸: "フレーム毎の特徴点抽出に基づく特徴点の追跡", [ONLINE], JPN7022004931, 2001, ISSN: 0004905068 *

Also Published As

Publication number Publication date
JP7351892B2 (ja) 2023-09-27
US20220114813A1 (en) 2022-04-14
CN112560769A (zh) 2021-03-26
EP3961583A2 (en) 2022-03-02
EP3961583A3 (en) 2022-06-22
KR20220004604A (ko) 2022-01-11
CN112560769B (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
CN110322500B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
US10794710B1 (en) High-precision multi-layer visual and semantic map by autonomous units
US11618438B2 (en) Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network
US20200082561A1 (en) Mapping objects detected in images to geographic positions
JP2020534617A (ja) 二次元画像および点群データからの三次元境界ボックス
WO2019099802A1 (en) Iterative closest point process based on lidar with integrated motion estimation for high definitions maps
CN112668460A (zh) 目标检测方法、电子设备、路侧设备和云控平台
CN115631418B (zh) 图像处理方法及装置、神经辐射场的训练方法
US20220282993A1 (en) Map fusion method, device and storage medium
JP7273129B2 (ja) 車線検出方法、装置、電子機器、記憶媒体及び車両
JP7351892B2 (ja) 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム
JP7422105B2 (ja) 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム
CN110675635B (zh) 相机外参的获取方法、装置、电子设备及存储介质
CN111578839B (zh) 障碍物坐标处理方法、装置、电子设备及可读存储介质
CN113887400B (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
CN115578433B (zh) 图像处理方法、装置、电子设备及存储介质
CN113989450A (zh) 图像处理方法、装置、电子设备和介质
EP4307219A1 (en) Three-dimensional target detection method and apparatus
CN113610702B (zh) 一种建图方法、装置、电子设备及存储介质
CN115019060A (zh) 目标识别方法、目标识别模型的训练方法及装置
CN115082690B (zh) 目标识别方法、目标识别模型训练方法及装置
CN113920174A (zh) 点云配准方法、装置、设备、介质和自动驾驶车辆
CN114549988A (zh) 用于智能交通的图像处理方法、装置、电子设备和介质
CN115578432B (zh) 图像处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R150 Certificate of patent or registration of utility model

Ref document number: 7351892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150