JP2023523527A - ターゲット動き情報検出方法、装置、機器及び媒体 - Google Patents

ターゲット動き情報検出方法、装置、機器及び媒体 Download PDF

Info

Publication number
JP2023523527A
JP2023523527A JP2022557731A JP2022557731A JP2023523527A JP 2023523527 A JP2023523527 A JP 2023523527A JP 2022557731 A JP2022557731 A JP 2022557731A JP 2022557731 A JP2022557731 A JP 2022557731A JP 2023523527 A JP2023523527 A JP 2023523527A
Authority
JP
Japan
Prior art keywords
target
image
information
detection box
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022557731A
Other languages
English (en)
Other versions
JP7306766B2 (ja
Inventor
ミン、ウェンミン
チュー、ホンメイ
ジャン、チィエン
Original Assignee
地平▲線▼征程(杭州)人工智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 地平▲線▼征程(杭州)人工智能科技有限公司 filed Critical 地平▲線▼征程(杭州)人工智能科技有限公司
Publication of JP2023523527A publication Critical patent/JP2023523527A/ja
Application granted granted Critical
Publication of JP7306766B2 publication Critical patent/JP7306766B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ターゲット動き情報検出方法、装置、機器と媒体を開示する。【解決手段】動き情報検出方法は、第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るステップと、第1の画像の対応する第1のカメラ座標系における深度情報を取得し、これにより第1のターゲットの検出ボックスの深度情報を決定するステップと、第1のターゲットの検出ボックスの画像座標系における位置と深度情報とに基づいて第1のターゲットの第1のカメラ座標系における第1の座標を決定するステップと、撮像装置の位置姿勢変化情報に基づいて、第2のターゲットの第2の画像に対応する第2のカメラ座標系における第2の座標を第1のカメラ座標系における第3の座標に変換するステップと、第1の座標と第3の座標とに基づいて第1のターゲットの動き情報を決定するステップと、を含む。本開示の実施例に係る技術的構成は、膨大な計算処理を回避し、処理効率を向上させることができる。【選択図】図2

Description

本開示は、コンピュータビジョン技術に関し、特にターゲット動き情報検出方法及び装置、ターゲット動き情報に基づく走行対象制御方法、装置、電子機器及び記憶媒体である。
物体の動き速度及び方向の推定は、自動運転、防犯モニタリング、シーン理解などの分野での研究重点である。自動運転、防犯モニタリング、シーン理解などの分野において、意思決定層が相応する意思決定を行うように、シーンにおける全ての物体の動き速度及び方向を推定して意思決定層に提供する必要がある。例えば、自動運転システムにおいて、道路側方における動き物体(例えば、人や動物など)が道路中央に近づいていることを感知した場合、意思決定層は、車両を制御して減速ひいては停止させて、車両の安全走行を保障することができる。
現在、自動運転、防犯モニタリング、シーン理解などのシーンにおいて、レーザレーダを採用してデータを採集することが多く、レーザビームを高頻度で出射し、レーザビームの出射時間と受信時間とに基づいてターゲットポイントとの距離を計算して点群データを得てから、ある時間範囲に対応する2つの時刻に採集した点群データでターゲット検出とターゲット追踪とを行って、ターゲットのこの時間範囲内における動き速度及び方向を計算する。
本開示は、上記技術的課題を解決するために創作された。本開示の実施例は、ターゲット動き情報検出方法及び装置、ターゲット動き情報に基づく走行対象制御方法及び装置、電子機器、記憶媒体を提供する。
本開示の実施例の1つの態様に係るターゲット動き情報検出方法は、
走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るステップと、
前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するステップと、
前記第1の画像の深度情報に基づいて、前記第1のターゲットの検出ボックスの深度情報を決定し、前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するステップと、
前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの撮像装置の位置姿勢変化情報を取得するステップと、
前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップと、
前記第1の座標と前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するステップと、を含む。
本開示の実施例の別の態様に係るインテリジェント運転制御方法は、
走行対象の走行中において前記走行対象上の撮像装置によって前記走行対象外シーンの画像シーケンスを採集するステップと、
前記画像シーケンスにおける少なくとも1フレームのレート画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像とし、本開示のいずれか1つの実施例に記載のターゲット動き情報検出方法利用して前記シーンにおけるターゲットの動き情報を決定するステップと、
前記ターゲットの動き情報に基づいて前記走行対象の走行状態を制御するための制御命令を生成するステップと、を含む。
本開示の実施例のまた別の態様に係るターゲット動き情報検出装置は、
走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るための検出モジュールと、
前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するための第1の取得モジュールと、
前記第1の取得モジュールによって取得された前記第1の画像の深度情報に基づいて、前記第1のターゲットの検出ボックスの深度情報を決定するための第1の決定モジュールと、
前記検出モジュールによって得られた前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1の決定モジュールによって決定された前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するための第2の決定モジュールと、
前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの撮像装置の位置姿勢変化情報を取得するための第2の取得モジュールと、
前記第2の取得モジュールによって取得された前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するための変換モジュールと、
前記第2の決定モジュールによって決定された前記第1の座標と前記変換モジュールによって変換された前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するための第3の決定モジュールと、を含む。
本開示の実施例のさらに別の態様に係るインテリジェント運転制御装置は、
走行対象上に設けられ、走行対象の走行中において前記走行対象外シーンの画像シーケンスを採集するための撮像装置と、
前記画像シーケンスにおける少なくとも1フレームの画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像として、前記シーンにおけるターゲットの動き情報を決定するための本開示のいずれか1つの実施例に記載のターゲットの動き情報を検出する動き情報検出装置と、
前記動き情報検出装置によって検出された前記ターゲットの動き情報に基づいて、前記走行対象の走行状態を制御するための制御命令を生成するための制御装置と、を含む。
本開示の実施例のさらに別の態様に係るコンピュータ可読記憶媒体には、コンピュータプログラムが記憶され、前記コンピュータプログラムは、本開示の上記いずれか1つの実施例に記載のターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法を実行させる。
本開示の実施例のさらに別の態様に係る電子機器は、
プロセッサと、
前記プロセッサの実行可能命令を記憶するためのメモリと、を含み、
前記プロセッサは、前記メモリから前記実行可能命令を読み出し、前記命令を実行して本開示の上記いずれか1つの実施例に記載のターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法を実施する。
本開示の上記実施例に係るターゲット動き情報検出方法、装置、電子機器及び記憶媒体によれば、走行対象上の撮像装置によって走行対象の走行中においてこの走行対象外シーンの画像を採集し、採集した第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得、第1の画像の対応する第1のカメラ座標系における深度情報を取得し、この第1の画像の深度情報に基づいて第1のターゲットの検出ボックスの深度情報を決定してから、第1のターゲットの検出ボックスの画像座標系における位置と第1のターゲットの検出ボックスの深度情報とに基づいて、第1のターゲットの第1のカメラ座標系における第1の座標を決定し、第1の画像が位置する画像シーケンスにおいて時間系列が第1の画像前であり且つ第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報を取得し、この位置姿勢変化情報に基づいて、第1のターゲットに対応する第2の画像におけるターゲットを第2のターゲットとし、第2のターゲットの第2の画像に対応する第2のカメラ座標系における第2の座標を第1のカメラ座標系における第3の座標に変換し、第1の座標と第3の座標とに基づいて、第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の第1のターゲットの動き情報を決定する。本開示の実施例は、コンピュータビジョン技術を利用して、運転シーン画像シーケンスに基づいて運転シーンにおけるターゲットの動き情報を決定し、レーザレーダに依頼する必要がなく、レーザレーダを採用してターゲットの動き速度及び方向を取得する方式に比べて、レーザビームを高頻度で出射することによって点群データを構築し、2つの点群データ上でターゲット検出及びターゲット追踪を行ってターゲットの動き速度及び方向を計算する必要がないため、膨大な計算処理を回避し、処理時間を節約し、処理効率を向上させることができ、リアルタイム性に対する要求が比較的高い自動運転などのシーン需要を満たすに有利である。
本開示の上記実施例に係るターゲット動き情報に基づく走行対象制御方法、装置、電子機器及び記憶媒体によれば、走行対象の走行中において走行対象上の撮像装置によって走行対象外シーンの画像シーケンスを採集し、画像シーケンスにおける少なくとも1フレームのレート画像を第1の画像とし、画像シーケンスにおいて第1の画像前であり且つ第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像とし、本開示のいずれか1つの実施例に記載のターゲット動き情報検出方法を利用して運転シーンにおけるターゲットの動き情報を決定し、このターゲットの動き情報に基づいて走行対象の走行状態を制御するための制御命令を生成することによって、コンピュータビジョン技術の利用による運転シーンにおけるターゲットの動き情報の検出、走行対象に対するインテリジェント運転制御を実現し、自動運転シーンにおける走行対象に対するリアルタイムなインテリジェント運転制御を満たすに有利であり、走行対象の安全な走行を保障することができる。
以下、添付図面及び実施例を基に、本開示の技術的構成をより詳細に記述する。
添付図面を参照しながら本開示の実施例をより詳細に記述することによって、本開示の上記及び他の目的、特徴や利点は、より明らかになる。添付図面は、本開示の実施例に対するさらなる理解を提供するために用いられ、明細書の一部を構成し、本開示の実施例とともに本開示を解釈するために用いられ、本開示に対する制限を構成するものではない。添付図面において、同じ参照符号は、一般に同じ部品又はステップを代表するものである。
本開示が適用されるシーン図である。 本開示の一例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。 本開示の別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。 本開示のまた別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。 本開示のさらに別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。 本開示のさらに別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。 本開示のさらに別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。 本開示の一例示的な実施例に係るターゲット動き情報検出方法の応用フローチャートである。 本開示の一例示的な実施例に係るターゲット動き情報に基づく走行対象制御方法のフローチャートである。 本開示の一例示的な実施例に係るターゲット動き情報検出装置の構造概略図である。 本開示の別の例示的な実施例に係るターゲット動き情報検出装置の構造概略図である。 本開示の一例示的な実施例に係るターゲット動き情報に基づく走行対象制御装置の構造概略図である。 本開示の一例示的な実施例に係る電子機器の構造図である。
以下、添付図面を参照しながら本開示に係る例示的な実施例を詳細に記述する。記述された実施例は、本開示の一部の実施例に過ぎず、本開示の全ての実施例ではない。なお、本開示は、ここに記述される例示的な実施例の制限を受けることではない。
特に断らない限り、これらの実施例に記述される部品やステップの相対的配置、数式及び数値は、本開示の範囲を制限することではない。
当業者が理解できるように、本開示の実施例における「第1」、「第2」などの用語は、異なるステップ、機器やモジュールなどを区別するために使用されるのであり、いずれの特定の技術的意味やそれらの間の必然的な論理順序を示すのではない。
なお、本開示の実施例において、「複数」とは、2つ又は2つ以上であり、「少なくとも1つ」とは、1つ、2つ又は2つ以上であることができる。
なお、本開示の実施例に言及されるいずれか一部品、データ又は構造に対し、明確に限定されていない場合又は前後文で逆の啓示が与えられた場合、一般に1つ又は複数と理解されるべきである。
また、本開示における「及び/又は」との用語は、関連対象の関連関係を記述するものに過ぎず、3つの関係が存在し得ることを示し、例えば、A及び/又はBは、Aのみが存在する場合、AとBとが同時に存在する場合、Bのみが存在する場合という3つの場合を示すことができる。また、本開示における「/」とのキャラクタは、一般に前後関連対象が「又は」の関係であることを示す。
なお、本開示における各実施例に対する記述について、その重点は、主に各実施例間の相違点を強調することにあり、その同じ又は類似の点を相互に参照することができ、簡素加のために、再度説明しない。
また、記述の便宜上、添付図面に示される各部分の寸法は、実際の割合関係に従って描かれていないこともある。
以下、少なくとも1つの例示的な実施例に対する記述は、実際には単なる説明にすぎず、本開示及びその応用又は使用に対するいかなる制限とならない。
当業者の周知技術、方法や機器については、詳細に説明しないが、前記技術、方法や機器は、明細書の一部と見なされる。
なお、類似の符号やアルファベットは、以下の添付図面において類似項を示すため、ある項目が1つの添付図面で定義されると、その後の添付図面においてそれを再度説明する必要はない。
本開示の実施例は、端末機器、コンピュータシステム、サーバなどの電子機器に適用されることができ、多くの他の汎用又は専用のコンピューティングシステム環境又は配置とともに操作されることができる。端末機器、コンピュータシステム、サーバなどの電子機器とともに使用される好適な周知の端末機器、コンピューティングシステム、環境及び/又は配置の例としては、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルド又はラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費電子製品、ネットワークパーソナルコンピュータ、小型コンピュータシステム、大型コンピュータシステム、及び、上記任意のシステムを含む分散クラウドコンピューティング技術環境などがあるが、それらに限定されることではない。
端末機器、コンピュータシステム、サーバなどの電子機器は、コンピュータシステムによって実行されるコンピュータシステム実行可能命令(例えば、プログラムモジュール)の一般的な言語環境で説明される。通常、プログラムモジュールは、特定のタスクを実行するか、又は特定の抽象データタイプを実現するインスタンス、プログラム、ターゲットプログラム、コンポーネント、論理、データ構造などを含むことができる。コンピュータシステム/サーバは、分散クラウドコンピューティング環境で実施されることができ、分散クラウドコンピューティング環境において、タスクは、通信ネットワークを介してリンクされる遠隔プロセッシングデバイスによって実行される。分散クラウドコンピューティング環境において、プログラムモジュールは、記憶機器を含むローカル又は遠隔コンピューティングシステム記憶媒体に位置することができる。
(出願概要)
本開示を実現する過程において、本開示の発明者は、研究によって、レーザレーダが、ある瞬時的シーンにおける複数の点の深度値(depth value)を得ることができるが、ある物体の動き速度及び方向などの情報は直接得ることができず、ある時間範囲内における物体の動き速度及び方向を知るためには、この時間範囲で対応する2つの時刻に採集した点群データでターゲット検出とターゲット追踪とを行ってから、ターゲットのこの時間範囲内における動き速度及び方向を計算する必要があるので、膨大な計算処理が必要であり、所要時間が比較的長く、効率が比較的低く、リアルタイム性に対する要求が比較的高い自動運転などのシーン需要を満たすことができなかったことを発見した。
本開示の実施例は、コンピュータビジョン技術を利用し、運転シーン画像シーケンスに基づいて運転シーンにおけるターゲットの動き情報を取得する技術的構成を提供し、走行対象上の撮像装置によって走行対象の走行中においてこの走行対象外シーンの画像を採集し、採集した画像シーケンスにおいて予め設定のフレーム数間隔を有する第1の画像と第2の画像とに対してターゲット検出とターゲット追跡とを行い、同一のターゲットの、第1の画像に対応する第1のカメラ座標系における第1の座標と第2の画像に対応する第2のカメラ座標系における第2の座標とを、第1のカメラ座標系へ変換して第3の座標を得、第1の座標と第3の座標とに基づいて第1の画像と第2の画像との採集時刻に対応する時間範囲内におけるこのターゲットの動き情報を決定する。本開示の実施例は、レーザレーダに依頼する必要がないので、膨大な計算処理を回避し、処理時間を節約し、処理効率を向上させることができ、リアルタイム性に対する要求が比較的高い自動運転などのシーン需要を満たすに有利である。
本開示の上記実施例に係る上記技術的構成に基づいて運転シーンにおけるターゲットの動き情報を検出した後、ターゲットの動き情報に基づいて走行対象の走行状態を制御するための制御命令を生成することによって、コンピュータビジョン技術の利用による運転シーンにおけるターゲットの動き情報の検出、走行対象に対するインテリジェント運転制御を実現し、自動運転シーンにおける走行対象に対するリアルタイムなインテリジェント運転制御を満たすに有利であり、走行対象の安全走行を保障することができる。
(例示的なシステム)
本開示の実施例は、走行対象、ロボット、玩具車などの走行対象のインテリジェント運転制御シーンに適用され、走行対象の運転シーンにおけるターゲットの動き情報を検出することによって、走行対象の走行状態を制御するための制御命令を生成して、走行対象の走行状態を制御することができる。
図1は、本開示が適用される1つのシーン図である。図1に示すように、本開示の実施例を走行対象のインテリジェント運転制御シーンに適用する場合、走行対象上の画像採集モジュール101(例えば、カメラなどの撮像装置)は、画像シーケンスを採集して、本開示の実施例の動き情報検出装置102に入力する。動き情報検出装置102は、この画像シーケンスにおける各フレーム毎の画像又は複数のフレーム間隔をあけて選択された1フレームの画像を第2の画像とし、この画像シーケンスにおいて時間系列が第2の画像後でありかつ第2の画像と所定のフレーム数間隔の1フレームの画像を第1の画像とし、第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得、第1の画像の対応する第1のカメラ座標系における深度情報を取得し、この第1の画像の深度情報に基づいて第1のターゲットの検出ボックスの深度情報を決定し、第1のターゲットの検出ボックスの画像座標系における位置と第1のターゲットの検出ボックスの深度情報とに基づいて第1のターゲットの第1のカメラ座標系における第1の座標を決定し、第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報に基づいて、第2のターゲットの第2の画像に対応する第2のカメラ座標系における第2の座標を第1のカメラ座標系における第3の座標に変換し、第1の座標と第3の座標とに基づいて、第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の第1のターゲットの動き情報を決定して出力する。制御装置103は、動き情報検出装置102から出力された対応する時間範囲内の第1のターゲットの動き情報に基づいて、車両、ロボット、玩具車などの走行対象の走行状態を制御する。例えば、走行対象の走行状態を制御する応用シーンにおいて、第1のターゲットの動き情報(この動き情報は、動き速度及び動き方向を含む)と走行対象の走行状態(この走行状態は、走行速度及び走行方向を含む)に基づいて、走行対象と第1のターゲットとがその後5秒以内に衝突する恐れがあると決定すると、制御装置103は、走行対象を制御して減速走行させるための制御命令を生成して当該走行対象に出力して、当該走行対象を制御して減速走行させることにより、走行対象と第1のターゲットとの衝突を回避する。本開示の実施例は、具体的な応用シーンを制限することではない。
(例示的な方法)
図2は、本開示の一例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。本実施例は、電子機器に適用されてもよいし、車両、ロボット、玩具車などの走行対象に適用されてもよい。図2に示すように、この実施例のターゲット動き情報検出方法は、以下のステップを含む。
ステップ201では、第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得る。
ここで、第1の画像は、走行対象上の撮像装置がこの走行対象の走行中に採集したこの走行対象外シーンの画像である。この第1の画像は、RGB(赤緑青)画像であってもよいし、階調画像であってもよく、本開示の実施例は、第1の画像を制限することではない。
選択的に、本開示の実施例におけるターゲットは、走行対象外シーンにおける任意の関心有りのターゲット(例えば、運動又は静止の人、小動物、物体など)であることができ、そのうちの物体は、例えば、車両、道路両側の建物、緑植、道路標示、交通信号機などであることができ、本開示の実施例は、検出しようとするターゲットを限定せず、実際の要求に応じて決定してもよい。
選択的に、そのうちのいくつかの実施形態では、予め設定のターゲット検出フレーム、(例えば、再帰型畳み込みニューラルネットワーク(Recurrent Neural Network、RCNN)、高速再帰型畳み込みニューラルネットワーク(Fast RCNN)、マスク(Mask RCNN)などの領域に基づくアルゴリズム、ユー・オンリー・ルック・ワンス(You Only Look Once、YOLO)などの回帰に基づくアルゴリズム、Faster RCNNとYOLOとを組み合わせて得られたシングルショットマルチボックス検出(Single Shot MultiBox Detector、SSD)アルゴリズム、など)を採用して、第1の画像に対してターゲット検出を行うことができる。本開示の実施例は、ターゲット検出の具体的な方式、採用されるターゲット検出ボックスを制限することではない。
本開示の実施例では、第1のターゲットは、第1の画像におけるターゲットであり、1つのターゲットであってもよいし、複数のターゲットであってもよく、複数のターゲットは、同じタイプのターゲット(例えば、全てが人である)であってもよいし、異なるタイプのターゲット(例えば、人、車両などを含む)であってもよい。それに応じて、第1の画像に対してターゲット検出を行って得られた第1のターゲットの検出ボックスは、1つであってもよいし、複数であってもよい。本開示の実施例は、第1のターゲットの数及びタイプを制限することではない。
本開示の実施例における検出ボックスは、ターゲットのバウンディングボックス(Bounding Box)である。選択的に、4次元ベクトル(x,y,w,h)で各検出ボックスを表すことができ、ここで、(x,y)は、画像座標系における検出ボックスの座標を表し、検出ボックスの中心点又は画像座標系における予め設定のいずれか1つの頂点の座標であってもよく、w、hは、それぞれ検出ボックスの幅及び高さを表す。
ステップ202では、第1の画像の対応する第1のカメラ座標系における深度情報を取得する。
本開示の実施例では、深度(Depth)情報は、シーンにおける各ドット(それぞれ画像における各画素ドットに対応する)と撮像装置との間の距離情報に用いられ、そのうちのいくつかの実施形態では、深度情報は、具体的に深度図として表されることができる。深度図は、シーンにおける各ドットと撮像装置との間の距離情報を含む画像又は画像チャンネルである。深度図は、階調画像と類似し、その各画素値は、撮像装置からシーンにおける1ドットの実際の距離(L)であり、各画素値は、1つの短い(short)長さを占用して撮像装置から対応する1ドットまでの距離を記憶する。
選択的に、そのうちのいくつかの実施形態では、1つのニューラルネットワークを介して、第1の画像の対応する第1のカメラ座標系における深度情報を取得することができる。そのうちのニューラルネットワークは、予め訓練されたニューラルネットワークであり、入力された画像に基づいて深度推定を行い、その画像におけるシーンの深度情報を出力することができる。例えば、1つのエンド・ツー・エンドのU-型ディープニューラルネットワークを採用し、ディープラーニングの単眼深度推定方法に基づいて、入力された第1の画像に対して深度推定を行って、第1の画像の対応する第1のカメラ座標系における深度情報を得ることができる。
本開示の実施例では、カメラ座標系は、撮像装置のフォーカス中心を原点とし、光軸(即ち、奥行方向)をZ軸として確立された3次元(3D)座標系である。走行対象の走行中において、走行対象上の撮像装置は動き状態となり、撮像装置の位置姿勢も変化状態となり、対応的に確立される3D座標系も異なり、第1の画像に対応する第1のカメラ座標系は、即ち撮像装置が第1の画像を採集する時の3D座標系である。
選択的に、ステップ202は、ステップ201と同時に実行されてもよいし、任意の時間順で実行されてもよく、本開示の実施例は、これを制限することではない。
ステップ203では、第1の画像の深度情報に基づいて、第1のターゲットの検出ボックスの深度情報を決定し、第1のターゲットの検出ボックスの画像座標系における位置と第1のターゲットの検出ボックスの深度情報とに基づいて、第1のターゲットの第1のカメラ座標系における第1の座標を決定する。
ここで、ステップ203において、第1の画像の深度情報は、ステップ202で決定された第1の画像の対応する第1のカメラ座標系における深度情報であり、第1のターゲットの検出ボックスの深度情報は、第1のターゲットの検出ボックスの第1のカメラ座標系における深度情報である。
ステップ204では、第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報を取得する。
ここで、第2の画像は、第1の画像が位置する画像シーケンスにおいてその時間系列が第1の画像の前であり且つ第1の画像と予め設定のフレーム数間隔を有する画像である。
本開示の実施例では、予め設定のフレーム数の具体的な値は、実際の要求(例えば、具体的なシーン、走行対象の動き状態、撮像装置の画像採集頻度など)によって設定されることができ、0、1、2、3などであることができ、予め設定のフレーム数が0である場合、第2の画像と第1の画像とは、隣接する2つのフレーム画像である。例えば、高速運転シーンにおいて、走行対象の動き速度が比較的速い及び/又は撮像装置の画像採集頻度が比較的高い場合、予め設定のフレーム数の値を比較的小さくすることにより、撮像装置が第1の画像を採集する時に第2の画像におけるターゲットが撮像装置の撮影範囲外に移動されて第1の画像に現れることができないことを回避して、走行対象外シーンにおけるターゲットの動き情報に対する有効な検出を実現する。しかし、混雑な都市道路運転シーンにおいては、走行対象の動き速度が比較的遅い及び/又は撮像装置の画像採集頻度が比較的低い場合、予め設定のフレーム数の値を比較的大きくすることにより、第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の同一のターゲットの動き情報を検出することができるだけではなく、動き情報検出方法の頻繁な実行によって計算リソース及び記憶リソースを占用されることを回避することができ、リソース利用率を向上させることができる。
選択的に、本開示の実施例における位置姿勢変化情報は、撮像装置が第1の画像を採集する時の位置姿勢と第2の画像を採集する時の位置姿勢との差分である。この位置姿勢変化情報は、3D空間に基づく位置姿勢変化情報であり、具体的に、行列として表されるため、位置姿勢変化行列と呼ばれることができる。この位置姿勢変化情報は、撮像装置の平行移動情報と回転情報とを含むことができる。ここで、撮像装置の平行移動情報は、撮像装置の、3D座標系における3つの座標軸XYZ上のそれぞれの変位量を含むことができる。そのうちの撮像装置の回転情報は、ロール(Roll)とヨー(Yaw)とピッチ(Pitch)とによる回転ベクトルであることができ、Roll、Yaw及びPitchとの3つの回転方向による回転分量ベクトルを含み、ここで、Roll、Yaw及びPitchは、それぞれ3D座標系における3つの座標軸XYZを中心とする撮像装置の回転を表す。
選択的に、そのうちのいくつかの実施形態では、ビジョン技術を利用して、第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報を取得することができる。例えば、自己位置推定と環境地図作成(Simultaneous Localization And Mapping、SLAM)技術を利用して、位置姿勢変化情報を取得することができる。例えば、第1の画像(RGB画像)と第1の画像の深度情報及び第2の画像(RGB画像)をORB(Oriented FAST and Rotated BRIEF)-SLAMフレームワークの赤緑青深度(Red Green Blue Depth、RGBD)モデルに入力し、RGBDモデルが位置姿勢変化情報を出力することができる。また、本開示の実施例は、他の方式を採用し、例えば、グローバルポジショニングシステム(Global Positioning System、GPS)及び角速度センサを利用して、第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報を取得することができる。本開示の実施例は、第2の画像採集までのから第1の画像の採集までの撮像装置の位置姿勢変化情報を取得する具体的な方式を制限することではない。
ステップ205では、第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報に基づいて、第2のターゲットの第2の画像に対応する第2のカメラ座標系における第2の座標を第1のカメラ座標系における第3の座標に変換する。
ここで、第2のターゲットは、第1のターゲットに対応する第2の画像におけるターゲットであり、第1のターゲットに対応して、第2のターゲットは、1つのターゲットであってもよいし、複数のターゲットであってもよく、複数のターゲットは、同じタイプのターゲット(例えば、全てが人である)であってもよいし、異なるタイプのターゲット(例えば、人、車両などを含む)であってもよい。
本開示の実施例では、第2の画像に対応する第2のカメラ座標系は、撮像装置が第2の画像を採集する時の3D座標系である。
選択的に、ステップ204からステップ205は、ステップ201からステップ203と同時に実行されてもよいし、任意の時間順で実行されてもよく、本開示の実施例は、これを制限することではない。
ステップ206では、第1の座標と第3の座標とに基づいて、第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の第1のターゲットの動き情報を決定する。
本開示の実施例では、第1のターゲットの動き情報は、対応する時間範囲内の第1のターゲットの動き速度及び動き方向を含むことができる。
本実施例では、走行対象上の撮像装置によって走行対象の走行中においてこの走行対象外シーンの画像を採集し、採集した第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得、第1の画像の対応する第1のカメラ座標系における深度情報を取得し、この第1の画像の深度情報に基づいて第1のターゲットの検出ボックスの深度情報を決定してから、第1のターゲットの検出ボックスの画像座標系における位置と第1のターゲットの検出ボックスの深度情報とに基づいて、第1のターゲットの第1のカメラ座標系における第1の座標を決定し、第1の画像が位置する画像シーケンスにおいて時間系列が第1の画像前であり且つ第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報を取得し、この位置姿勢変化情報に基づいて、第1のターゲットに対応する第2の画像におけるターゲットを第2のターゲットとし、第2のターゲットの第2の画像に対応する第2のカメラ座標系における第2の座標を第1のカメラ座標系における第3の座標に変換し、第1の座標と第3の座標とに基づいて、第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の第1のターゲットの動き情報を決定する。本開示の実施例は、コンピュータビジョン技術を利用し、運転シーン画像シーケンスに基づいて運転シーンにおけるターゲットの動き情報を決定し、レーザレーダに依頼する必要がなく、レーザレーダを採用してターゲットの動き速度及び方向を取得する方式に比べて、レーザビームを高頻度で出射することによって点群データを構築し、2つの点群データ上でターゲット検出及びターゲット追踪を行ってターゲットの動き速度及び方向を計算する必要がないため、膨大な計算処理を回避し、処理時間を節約し、処理効率を向上させることができ、リアルタイム性に対する要求が比較的高い自動運転などのシーン需要を満たすに有利である。
図3は、本開示の別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。図3に示すように、上記図2に示された実施例に加えて、ステップ203は、以下のステップを含むことができる。
ステップ2031では、第1の画像の深度情報から第1のターゲットの検出ボックスにおける各画素ドットの深度値を取得する。
第1の画像の深度情報は、第1の画像における各画素ドットの深度値を含み、第1の画像の深度情報から第1のターゲットの検出ボックスにおける各画素ドットの深度値を検索することができる。
ステップ2032では、予め設定の方式を採用し、第1のターゲットの検出ボックスにおける各画素ドットの深度値に基づいて、第1のターゲットの検出ボックスの深度情報を決定する。
第1のターゲットの検出ボックスには、複数の画素ドットが含まれており、各画素は、それぞれの深度値を有しており、本実施例によれば、第1のターゲットの検出ボックスにおける各画素ドットの深度値に基づいて第1のターゲットの検出ボックスの深度情報を総合的に決定し、この深度情報と第1のターゲットの検出ボックスの画像座標系における位置とに基づいて、第1のターゲットの第1のカメラ座標系における第1の座標を正確に決定することを容易にし、第1のターゲットの第1のカメラ座標系における座標の正確性を向上させることができる。
例えば、そのうちのいくつかの実施形態では、第1のターゲットの検出ボックスにおける各画素ドットの深度値のうち、出現頻度が最高の深度値を第1のターゲットの検出ボックスの深度情報として選択することができる。
本開示の発明を実現する過程において、発明者は、研究によって、実際の応用において、車両走行中の振動、光線などの原因により、撮像装置により採集された画像品質に影響を及ぼすことによって、画像にいくつかのノイズ点(noise spot)が存在し、これらのノイズ点の深度値を正確に取得することができないことによって、深度情報におけるこれらのノイズ点の深度値が大き過ぎるか又は小さ過ぎることを発見した。シーンにおける同一のターゲット上の各ドットと撮像装置との間の距離が近接し、対応する画素の深度値も近いことにより、本実施例では、第1のターゲットの検出ボックスにおける各画素ドットの深度値のうち、出現頻度が最高の深度値、即ち最多の画素ドットに対応する深度値を選択し、一部差異が比較的大きい画素ドットの深度値を無視することにより、第1の画像におけるノイズ画素ドットの深度値による第1のターゲット全体の検出ボックスの深度情報に対する影響を回避して、第1のターゲットの検出ボックスの深度情報の正確性を向上させることができる。
又は、別のいくつかの実施形態では、第1のターゲットの検出ボックスにおける各画素ドットの深度値のうち、それぞれ予め設定の各深度値範囲内にある画素ドットの数を決定してから、深度値が同一の深度値の範囲内にある画素ドットの数が最多の深度値範囲に基づいて、第1のターゲットの検出ボックスの深度情報を決定する。例えば、この深度値が同一の深度値の範囲内にある画素ドットの数が最多の深度値範囲の最大値、最小値、最大値と最小値との平均値、又は中央値などを、第1のターゲットの検出ボックスの深度値とすることができる。
本実施例では、各深度値範囲を予め区分し、第1のターゲットの検出ボックスにおける各画素ドットの深度値のうち、それぞれ予め設定の各深度値範囲内にある画素ドットの数を統計し、ある深度値範囲内にある画素ドットの数が多いほど、対応する第1のターゲットの表面上の点が、多く、深度値のうち、ある深度値範囲内にある画素ドットの数が最多の深度値範囲に基づいて第1のターゲットの検出ボックスの深度情報を決定し、一部差異が比較的大きい画素ドットの深度値を無視することにより、第1の画像におけるノイズ画素ドットの深度値による第1のターゲット全体の検出ボックスの深度情報に対する影響を回避して、第1のターゲットの検出ボックスの深度情報の正確性を向上させることができる。
又は、さらに別のいくつかの実施形態では、第1のターゲットの検出ボックスにおける各画素ドットの深度値の平均値を、第1のターゲットの検出ボックスの深度情報として取得することもできる。
本実施例では、第1のターゲットの検出ボックスにおける各画素ドットの深度値の平均値を第1のターゲットの検出ボックスの深度情報として取得することで、第1のターゲットの検出ボックスの深度情報を迅速に決定することにより、一部差異が比較的大きい画素ドットの深度値による第1のターゲット全体の検出ボックスの深度情報に対する影響を低減して、第1のターゲットの検出ボックスの深度情報の正確性を向上させることができる。
図4は、本開示のまた別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。図4に示すように、上記図2や図3に示された実施例に加えて、ステップ205前に、以下のステップをさらに含むことができる。
ステップ301では、第1の画像における少なくとも1つのターゲットと第2の画像における少なくとも1つのターゲットとの対応関係を決定する。
ここで、第1の画像における少なくとも1つのターゲットは、上記第1のターゲットを含む。
本開示の実施例では、第1の画像における少なくとも1つのターゲット及び第2の画像における少なくとも1つのターゲットは、走行対象外シーンにおける任意の関心有りのターゲット(例えば、人、車両、建物などの様々なタイプのターゲット)であることができる。そのうちの第1のターゲットは、第1の画像における少なくとも1つのターゲットのうちの1つのターゲット又は複数のターゲットであり、第2のターゲットは、第2の画像における少なくとも1つのターゲットのうちの1つのターゲット又は複数のターゲットである。
第1の画像における少なくとも1つのターゲットと第2の画像における少なくとも1つのターゲットとの間の対応関係を決定することは、第1の画像と第2の画像とのターゲット間でどのターゲットが同一のターゲットに属するかを決定し、第1の画像と第2の画像とで同一のターゲットに属する2つのターゲット間に対応関係を確立することである。例えば、第1のターゲットは、第1の画像において動き情報検出を行う必要があるターゲットであり、第2のターゲットは、第2の画像において第1のターゲットと同一のターゲットに属するターゲットである。
ステップ302では、上記対応関係に基づいて、第1のターゲットに対応する第2の画像におけるターゲットを第2のターゲットとして決定する。
ステップ301で第1の画像における少なくとも1つのターゲットと第2の画像における少なくとも1つのターゲットとの対応関係を決定した後、この対応関係に基づいて、第1の画像における第1のターゲットに対応する第2の画像におけるターゲットを第2のターゲットとして決定することができる。
本実施例によれば、2つの画像に対し、2つの画像におけるターゲット間の対応関係を決定することにより、直接対応関係に基づいて第1のターゲットに対応する第2の画像における第2のターゲットを決定することができ、これにより、第2のターゲットを決定する効率を向上させることができる。
選択的に、そのうちのいくつかの実施形態では、ステップ301において、第2の画像における少なくとも1つのターゲットの検出ボックスを追跡し、第1の画像における少なくとも1つのターゲットと第2の画像における少なくとも1つのターゲットとの間の対応関係を得ることができる。
本実施例によれば、ターゲットの検出ボックスを追跡することにより、異なる画像におけるターゲット間の対応関係を得ることができる。
図5は、本開示のさらに別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。図5に示すように、別のいくつかの実施形態では、ステップ301は、以下のステップを含むことができる。
ステップ3011では、第2の画像から第1の画像へのオプティカルフロー情報を取得する。
本開示の実施例では、オプティカルフロー情報は、ビデオや画像シーケンスにおいて画像間の画素ドットの動きや時間系列情報を表すために用いられる。第2の画像から第1の画像へのオプティカルフロー情報は、第2の画像から第1の画像への画素の2次元モーションフィールドであり、第2の画像における画素ドットが第1の画像に移動する移動状況を表すために用いられる。そのうちのいくつかの実施形態では、オープンコンピュータビジョンライブラリー(Open Source Computer Vision Library、OpenCV)のようなビジョン技術を利用することができ、例えば、第2の画像と第1の画像とをOpenCVによるモデルに入力し、このモデルが第2の画像と第1の画像との間のオプティカルフロー情報を出力することができる。
ステップ3012では、それぞれ第2の画像における少なくとも1つのターゲットのうちの各ターゲットの検出ボックスに対し、オプティカルフロー情報と第2の画像におけるターゲットの検出ボックスとに基づいて、第2の画像におけるターゲットの検出ボックス内の画素ドットが第1の画像に移行する位置を決定する。
ステップ3013では、第2の画像におけるターゲットの検出ボックス内の画素ドットが第1の画像に移行する位置のセットと第1の画像における各検出ボックスとの交差オーバーユニオン(Intersection over Union、IoU)比率、即ちこのセットと第1の画像における各検出ボックスとの被覆割合を取得する。
選択的に、そのうちのいくつかの実施形態では、上記セットと第1の画像における各検出ボックスとの積集合I、上記セットと第1の画像における各検出ボックスとの和集合Uを取得し、上記セットと第1の画像における各検出ボックスとの、積集合Iと和集合Uとの比率をそれぞれ計算して、セットと第1の画像における各検出ボックスとの被覆割合とすることができる。
ステップ3014では、第2の画像におけるターゲットと第1の画像における交差オーバーユニオン比率が最大の検出ボックスに対応するターゲットとの対応関係を確立し、この第1の画像における交差オーバーユニオン比率が最大の検出ボックスに対応するターゲットをこの第2の画像におけるターゲットに対応するターゲットとする。
本実施例によれば、2つの画像間のオプティカルフロー情報に基づいて第2の画像におけるあるターゲットの検出ボックス内の画素ドットが第1の画像に移行する位置のセットを決定し、このセットと第1の画像における各検出ボックスとの交差オーバーユニオン比率をそれぞれ取得し、交差オーバーユニオン比率が大きいほど、第1の画像におけるこの検出ボックスと上記セットにおける画素との重複割合が大きく、第1の画像における各検出ボックスのうち、このセットとの交差オーバーユニオン比率が最大の検出ボックスが第2の画像におけるこのターゲットの検出ボックスである確率が大きいことを説明し、2つの画像間のオプティカルフロー情報と、第2の画像におけるターゲットの検出ボックス内の画素ドットが第1の画像に移行する位置のセットと第1の画像における各検出ボックスとの間の交差オーバーユニオン比率とによって、2つの画像におけるターゲット間の対応関係を決定することで、2つの画像におけるターゲット間の対応関係をより正確に且つ客観的に決定することができる。
図6は、本開示のさらに別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。図6に示すように、上記図2や図3に示された実施例に加えて、ステップ206は、以下のステップを含むことができる。
ステップ2061では、第3の座標から第1の座標へのベクトルを取得する。
ここで、第3の座標から第1の座標へのベクトルは、第3の座標から第1の座標への変位(displacement)ベクトル、即ち第3の座標から第1の座標への有向線分であり、この変位ベクトルの大きさは、第3の座標から第1の座標までの直線距離であり、この変位ベクトルの方向は、第3の座標から第1の座標を向く。
ステップ2062では、第3の座標から第1の座標へのベクトルの方向に基づいて、第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の第1のターゲットの動き方向を決定し、第3の座標から第1の座標へのベクトルのノルムと上記時間範囲とに基づいて、第1のターゲットの上記時間範囲内における動き速度を決定する。例えば、第3の座標から第1の座標へのベクトルのノルムと上記時間範囲との比の値を、第1のターゲットの上記時間範囲内における動き速度として取得することができる。ここで、第1のターゲットの上記時間範囲内における動き方向及び動き速度は、第1のターゲットの上記時間範囲内における動き情報を構成する。
本実施例によれば、第3の座標から第1の座標へのベクトルに基づいて、上記対応する時間範囲内の第1のターゲットの動き方向及び動き速度を正確に決定することによって、第1のターゲットの動き状態を把握することができる。
図7は、本開示のさらに別の例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。図7に示すように、上記図2から図6に示された実施例に加えて、ステップ205前、以下のステップをさらに含むことができる。
ステップ401では、第2の画像に対してターゲット検出を行って、第2のターゲットの検出ボックスを得る。
ステップ402では、第2の画像の第2のカメラ座標系における深度情報を取得する。
また、第2の画像の第2のカメラ座標系における深度情報を決定した後、この第2の画像の第2のカメラ座標系における深度情報に基づいて、第2のターゲットの検出ボックスの深度情報を決定する。ここで、第2のターゲットの検出ボックスの深度情報は、第2のターゲットの検出ボックスの第2のカメラ座標系における深度情報である。
ステップ403では、第2のターゲットの検出ボックスの画像座標系における位置と第2のターゲットの検出ボックスの深度情報とに基づいて、第2のターゲットの第2のカメラ座標系における第2の座標を決定する。
本実施例によれば、後で直接この第2のターゲットの第2の座標に対して変換処理を行って対応する時間範囲内の第1のターゲットの動き情報を決定することができるように、予め画像シーケンスにおいて時間系列が第1の画像前である第2の画像に対してターゲット検出を行って深度情報を取得するこれにより、第2のターゲットの第2のカメラ座標系における第2の座標を決定する。これにより、シーンにおけるターゲットの動き情報の検出効率を向上させることができる。
選択的に、そのうちのいくつかの実施形態では、上記図7に示される実施例によれば、第2のターゲットの前記第2のカメラ座標系における第2の座標を決定した後、後で直接照会して使用することができるように、第2のターゲットの第2の座標を記憶しておくこともできる。これにより、シーンにおけるターゲットの動き情報の検出効率を向上させることができる。
選択的に、第1の画像を新たな第2の画像とし、画像シーケンスにおいて時間系列が第1の画像後である第3の画像を新たな第1の画像とし、本開示の上記いずれか1つの実施例に記載のターゲット動き情報検出方法を実行して、上記第1の画像の採集時刻から第3の画像の採集時刻までの対応する時間範囲内の第3の画像におけるターゲットの動き情報を決定することもできる。
本実施例によれば、画像シーケンスのフレームごと又は所定のフレーム間隔で画像におけるターゲットの動き情報を検出することによって、走行対象の走行中において、走行対象外シーンにおけるターゲットの動き状態に対する持続的な検出を実現して、ターゲットの動き状態に基づいて走行対象の走行を制御し、走行対象の安全な走行を保障することができる。
図8は、本開示の一例示的な実施例に係るターゲット動き情報検出方法の応用フローチャートである。以下、1つの応用実施例を例として、本開示の実施例のターゲット動き情報検出方法をさらに説明する。図8に示すように、この応用実施例は、以下のステップを含む。
ステップ501では、走行対象の走行中において、走行対象上の撮像装置がこの走行対象外シーンの画像を採集して画像シーケンスを得る。
この画像シーケンスにおいて、t-1時刻に採集した画像を第2の画像とし、It-1と示し、ステップ502からステップ505及びステップ507を実行し、この画像シーケンスにおいて、t時刻に採集した画像を第1の画像とし、Iと示し、ステップ508からステップ511を実行する。撮像装置に対してステップ506を実行する。
ステップ502では、予め設定のターゲット検出フレームを採用して第2の画像It-1に対してターゲット検出を行い、第2の画像It-1におけるターゲットの検出ボックスを得、検出されたターゲットの検出ボックスが1つ又は複数である可能性があるため、検出ボックスセットBBoxt-1で検出された第2の画像It-1におけるターゲットの検出ボックスを表し、t-1時刻に番号がkであるターゲット(以下、ターゲットkと呼ばれる)の検出ボックスは、以下のように記述される。
Figure 2023523527000002
ここで、(x,y)は、ターゲットkの検出ボックスの画像座標系における座標を表し、w、hは、それぞれターゲットkの検出ボックスの幅及び高さを表す。
ステップ503では、予め設定の深度推定方式を採用して第2の画像It-1に対して深度推定を行い、第2の画像It-1に対応する深度図Dt-1を得る。
ここで、深度図Dt-1には、第2の画像It-1における異なる画素ドットのt-1時刻に対応する第2のカメラ座標系における深度値が含まれ、第2のカメラ座標系における第2の画像It-1における画素ドット(i,j)の深度値は、
Figure 2023523527000003
として表されることができる。
ステップ504では、第2の画像It-1に対応する深度図Dt-1から第2の画像It-1における各ターゲットの検出ボックスにおける各画素ドットの深度値を取得し、予め設定の方式を採用して、第2の画像It-1における各ターゲットの検出ボックスにおける各画素ドットの深度値に基づいて、第2の画像It-1における各ターゲットの検出ボックスの深度値を決定する。
ここで、第2の画像It-1における各ターゲットの検出ボックス内の各画素ドットの深度値は、第2の画像It-1における各ターゲットの検出ボックスにおける各画素ドットの第2のカメラ座標系における深度値である。
続いてt-1時刻のターゲットkを例とし、第2の画像It-1に対応する深度図Dt-1から、ターゲットkの検出ボックス
Figure 2023523527000004
における各画素ドットの深度値を取得してから、本開示の上記実施例の方式を採用して、ターゲットkの検出ボックス
Figure 2023523527000005
における各画素ドットの深度値に基づいてターゲットkの検出ボックス
Figure 2023523527000006
の深度値
Figure 2023523527000007
を決定する。
ここで、ステップ503からステップ504は、ステップ502と同時に実行されてもよいし、任意の時間順で実行されてもよく、本開示の実施例は、これを制限することではない。
ステップ505では、第2の画像It-1における各ターゲットの検出ボックスに対し、各ターゲットの検出ボックスの画像座標系における位置と各ターゲットの検出ボックスの深度値とに基づいて、各ターゲットのt-1時刻に対応する第2のカメラ座標系における3D座標(第2の座標)を決定する。
例えば、続いてt-1時刻のターゲットkを例として、以下の式によってターゲットkの検出ボックスのt-1時刻に対応する第2のカメラ座標系における3D座標
Figure 2023523527000008
を得ることができる。
Figure 2023523527000009
ここで、Kは、撮像装置自身の属性を表すための撮像装置のパラメータであり、予めキャリブレーションすることによって得ることができる。
ステップ506では、撮像装置のt-1時刻からt時刻までの位置姿勢変化行列Tt-1→tを取得する。
ここで、ステップ506は、ステップ502からステップ505、及びステップ508から513と同時に実行されてもよいし、任意の時間順で実行されてもよく、本開示の実施例は、これを制限することではない。
ステップ507では、上記位置姿勢変化行列Tt-1→tに基づいて、第2の画像It-1における各ターゲットの第2のカメラ座標系における第2の座標を第1のカメラ座標系における3D座標(即ち上記第3の座標)に変換する。
例えば、続いてt-1時刻のターゲットkを例として、以下の式によって第2の画像It-1におけるターゲットkの検出ボックスの第2の座標
Figure 2023523527000010
を第3の座標
Figure 2023523527000011
に変換することができる。
Figure 2023523527000012
ステップ508では、予め設定のターゲット検出フレームを採用して、第1の画像Iに対してターゲット検出を行い、第1の画像Iにおけるターゲット(即ち、上記第1のターゲット)の検出ボックスを得、検出されたターゲットの検出ボックスが1つ又は複数である可能性があるため、検出ボックスセットBBoxで第1のターゲットの検出ボックスを表し、t時刻の第1のターゲットのうち、番号がkであるターゲット(以下、ターゲットkと呼ばれる)の検出ボックスは、以下の式のように記述される。
Figure 2023523527000013
ここで、(x,y)は、ターゲットpの検出ボックスの画像座標系における座標を表し、w、hは、それぞれターゲットkの検出ボックスの幅及び高さを表す。
ステップ509では、予め設定の深度推定方式を採用して、第1の画像Iに対して深度推定を行い、第1の画像Iに対応する深度図Dを得る。
ここで、深度図Dには、第1の画像Iにおける異なる画素ドットのt時刻に対応する第1のカメラ座標系における深度値が含まれ、第1の画像Iにおける画素ドット(i,j)の第1のカメラ座標系における深度値は、
Figure 2023523527000014
として表されることができる。
ステップ510では、第1の画像Iに対応する深度図Dから第1のターゲットの検出ボックスにおける各画素ドットの深度値を取得し、予め設定の方式を採用して、第1のターゲットの検出ボックスにおける各画素ドットの深度値に基づいて、第1のターゲットの検出ボックスの深度値を決定する。
ここで、第1のターゲットの検出ボックスの深度値は、第1のターゲットの検出ボックスの第1のカメラ座標系における深度値である。
続いてt時刻のターゲットkを例として、第1の画像Iに対応する深度図Dから、ターゲットkの検出ボックス
Figure 2023523527000015
における各画素ドットの深度値を取得してから、本開示の上記実施例の方式を採用して、ターゲットkの検出ボックス
Figure 2023523527000016
における各画素ドットの深度値に基づいてターゲットkの検出ボックス
Figure 2023523527000017
の深度値
Figure 2023523527000018
を決定する。
ここで、ステップ509からステップ510は、ステップ508と同時に実行されてもよいし、任意の時間順で実行されてもよく、本開示の実施例は、これを制限することではない。
ステップ511では、第1のターゲットの検出ボックスの画像座標系における位置と第1のターゲットの検出ボックスの深度値とに基づいて、第1のターゲットのt時刻に対応する第1のカメラ座標系における第1の座標を決定する。
そのうちの第1のターゲットは、1つのターゲットであってもよいし、複数のターゲットであってもよく、第1のターゲットが複数のターゲットである場合、第1のターゲットのうちの各ターゲットに対し、各ターゲットの検出ボックスの画像座標系における位置と深度値に基づいて、このターゲットの検出ボックスのt時刻に対応する第1のカメラ座標系における3D座標(即ち、上記第1の座標)を決定する。例えば、続いてt時刻のターゲットkを例として、以下の式によってターゲットkの検出ボックスのt時刻に対応する第1のカメラ座標系における3D座標
Figure 2023523527000019
を得ることができる。
Figure 2023523527000020
ここで、Kは、撮像装置自身の属性を表すための撮像装置のパラメータであり、予めキャリブレーションすることによって得ることができる。
ステップ512では、第1の画像It-1における第1のターゲットと第2の画像Iにおけるターゲットとの対応関係を決定する。
ステップ513では、上記対応関係に基づいて、第1のターゲットに対応する第2の画像におけるターゲットを第2のターゲットとして決定する。
そのうちの第2のターゲットは、1つのターゲットであってもよいし、複数のターゲットであってもよい。第1のターゲットと対応的に、第2のターゲットは、1つのターゲットであってもよいし、複数のターゲットであってもよく、複数のターゲットは、同じタイプのターゲット(例えば、全てが人である)であってもよいし、異なるタイプのターゲット(例えば、人、車両、建物などを含む)であってもよい。
ここで、ステップ512からステップ513は、本開示の上記図4から図5のいずれか1つの実施例に記載の方式によって、第1のターゲットに対応する第2の画像における第2のターゲットを決定してもよい。
ここで、ステップ512からステップ513は、ステップ502とステップ508後に実行されればよく、本応用の実施例における上記他のステップとの間で同時に実行されてもよいし、任意の時間順で実行されてもよい。本開示の実施例は、これを制限することではない。
ステップ514では、第1のターゲットの第1の座標と対応する第2のターゲットの第3の座標とに基づいて、t-1時刻からt時刻までの対応する時間範囲Δ内の第1のターゲットの動き情報を決定する。
そのうちの第1のターゲットは、1つのターゲットであってもよいし、複数のターゲットであってもよく、第1のターゲットが複数のターゲットである場合、各第1のターゲットに対し、それぞれこのステップ514を実行する。
第2の画像It-1における第2のターゲットkが第1の画像Iにおける第1のターゲットkに対応すると仮定すると、第1のターゲットkのt時刻の第1の座標
Figure 2023523527000021
と、対応する第2のターゲットkのt-1時刻の第3の座標
Figure 2023523527000022
と、に基づいて、第1のターゲットkの対応する時間範囲Δ内の動き情報を決定する。具体的には、第3の座標
Figure 2023523527000023
から第1の座標
Figure 2023523527000024
へのベクトルを取得し、このベクトルの方向を第1のターゲットkの対応する時間範囲Δ内の動き方向とし、以下の式のように示される。
Figure 2023523527000025
第3の座標
Figure 2023523527000026
から第1の座標
Figure 2023523527000027
に形成されたベクトルのノルム
Figure 2023523527000028
を取得し、以下の式によって第1のターゲットkの対応する時間範囲Δ内の動き速度vを取得する。
Figure 2023523527000029
図9は、本開示の一例示的な実施例に係るターゲット動き情報に基づく走行対象制御方法のフローチャートである。本実施例は、車両、ロボット、玩具車などの走行対象上に応用されることができる。図9に示すように、この実施例のターゲット動き情報に基づく走行対象制御方法は、以下のステップを含む。
ステップ601では、走行対象の走行中において走行対象上の撮像装置によって走行対象外シーンの画像シーケンスを採集する。
ステップ602では、画像シーケンスにおける少なくとも1フレームの画像を第1の画像とし、画像シーケンスにおいて前記第1の画像前であり且つ第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像とし、本開示の上記いずれか1つの実施例の走行中の動き情報検出方法の方法を利用して、走行対象外シーンにおけるターゲットの動き情報を決定する。
ステップ603では、上記ターゲットの動き情報に基づいて、走行対象の走行状態を制御するように、走行対象の走行状態を制御するための制御命令を生成する。
本実施例によれば、走行対象の走行中において、本開示のいずれか1つの実施例に記載の走行中の動き情報検出方法を利用して運転シーンにおけるターゲットの動き情報を決定し、このターゲットの動き情報に基づいて走行対象の走行状態を制御するための制御命令を生成することによって、コンピュータビジョン技術の利用による運転シーンにおけるターゲットの動き情報の検出、走行対象に対するインテリジェント運転制御を実現し、自動運転シーンにおける走行対象に対するリアルタイムなインテリジェント運転制御を満たすに有利であり、走行対象の安全な走行を保障することができる。
選択的に、そのうちのいくつかの実施形態では、上記制御命令は、例えば、動き速度の大きさを保持するための制御命令、動き速度の大きさを調整するための制御命令(例えば減速走行の制御命令、加速走行の制御命令など)、動き方向を保持するための制御命令、動き方向を調整するための制御命令(例えば、左折の制御命令、右折の制御命令、左側への車線変更の制御命令、又は右側への車線変更の制御命令など)、警報提示のための制御命令(例えば、前方ターゲットなどに対する注意喚起メッセージ)、運転モード切り替えを行うための制御命令(例えば、自動巡航運転モードへの切り替えの制御命令、人工運転モードへの切り替えの制御命令など)などのうちの少なくとも1つを含むことができるが、それらに限らない。本開示の実施例の制御命令は、実際の要求によって設定することができ、上記制御命令には限らない。
本開示の上記いずれか1つの実施例に係るターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法は、データ処理能力を有する任意の適切な機器によって実行されることができ、端末機器及びサーバなどを含むが、それらに限らない。又は、本開示の上記いずれか1つの実施例に係るターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法は、プロセッサによって実行されることができ、例えば、プロセッサは、メモリに記憶されている相応する命令を呼び出すことによって、本開示の上記いずれか1つの実施例に係るターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法を実行する。以下では、その説明を省略する。
(例示的な装置)
図10は、本開示の一例示的な実施例に係るターゲットの動き情報を検出する装置の構造概略図である。このターゲットの動き情報を検出する装置は、端末機器、サーバなどの電子機器に設けられてもよいし、車両、ロボット、玩具車などの走行対象に設けられてもよく、本開示の上記いずれか1つの実施例のターゲット動き情報検出方法を実行する。図10に示すように、このターゲットの動き情報を検出する装置は、検出モジュール701と、第1の取得モジュール702と、第1の決定モジュール703と、第2の決定モジュール704と、第2の取得モジュール705と、変換モジュール706と、第3の決定モジュール707と、を含む。
検出モジュール701は、第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るために用いられ、そのうちの第1の画像は、走行対象上の撮像装置が走行対象の走行中に採集した走行対象外シーンの画像である。
第1の取得モジュール702は、第1の画像の対応する第1のカメラ座標系における深度情報を取得するために用いられる。
第1の決定モジュール703は、第1の取得モジュール702によって取得された第1の画像の深度情報に基づいて、第1のターゲットの検出ボックスの深度情報を決定するために用いられる。
第2の決定モジュール704は、検出モジュール701によって得られた第1のターゲットの検出ボックスの画像座標系における位置と第1の決定モジュール703によって決定された第1のターゲットの検出ボックスの深度情報とに基づいて、第1のターゲットの第1のカメラ座標系における第1の座標を決定するために用いられる。
第2の取得モジュール705は、第2の画像の採集から第1の画像の採集までの撮像装置の位置姿勢変化情報を取得するために用いられる。ここで、第2の画像は、第1の画像が位置する画像シーケンスにおいて時間系列が第1の画像前であり且つ第1の画像と予め設定のフレーム数の間隔を有する画像である。
変換モジュール706は、第2の取得モジュール705によって取得された位置姿勢変化情報に基づいて、第2のターゲットの第2の画像に対応する第2のカメラ座標系における第2の座標を第1のカメラ座標系における第3の座標に変換するために用いられる。ここで、第2のターゲットは、第1のターゲットに対応する第2の画像におけるターゲットである。
第3の決定モジュール707は、第2の決定モジュール704によって決定された第1の座標と変換モジュール706によって変換された第3の座標とに基づいて、第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の第1のターゲットの動き情報を決定するために用いられる。
本実施例によれば、コンピュータビジョン技術を利用して、走行対象の走行中に採集したこの走行対象外シーンの画像に基づいて運転シーンにおけるターゲットの動き情報を決定し、レーザレーダに依頼する必要がなく、レーザレーダを採用してターゲットの動き速度及び方向を取得する方式に比べて、レーザビームを高頻度で出射することによって点群データを構築し、2つの点群データ上でターゲット検出及びターゲット追跡を行って、ターゲットの動き速度及び方向を計算する必要がないため、膨大な計算処理を回避し、処理時間を節約し、処理効率を向上させることができ、リアルタイム性に対する要求が比較的高い自動運転などのシーン需要を満たすに有利である。
図11は、本開示の別の例示的な実施例に係るターゲットの動き情報を検出する装置の構造概略図である。図11に示すように、上記図11に示される実施例に加えて、この実施例のターゲットの動き情報を検出する装置において、第1の決定モジュール703は、第1の画像の深度情報から第1のターゲットの検出ボックスにおける各画素ドットの深度値を取得するための第1の取得ユニット7031と、予め設定の方式を採用して、第1の取得ユニット7031によって取得された第1のターゲットの検出ボックスにおける各画素ドットの深度値に基づいて、第1のターゲットの検出ボックスの深度情報を決定するための第1の決定ユニット7032と、を含む。
選択的に、そのうちのいくつかの実施形態では、第1の決定ユニット7032は、具体的に、第1の取得ユニット7031によって取得された第1のターゲットの検出ボックスにおける各画素ドットの深度値のうち、出現頻度が最高の深度値を第1のターゲットの検出ボックスの深度情報として選択するために用いられる。
又は、別のいくつかの実施形態では、第1の決定ユニット7032は、具体的に、第1のターゲットの検出ボックスにおける各画素ドットの深度値のうち、それぞれ予め設定の各深度値範囲内にある画素ドットの数を決定し、深度値が同一の深度値の範囲内にある画素ドットの数が最多の深度値範囲に基づいて、第1のターゲットの検出ボックスの深度情報を決定するために用いられる。
又は、さらに別のいくつかの実施形態では、第1の決定ユニット7032は、具体的に、第1のターゲットの検出ボックスにおける各画素ドットの深度値の平均値を、第1のターゲットの検出ボックスの深度情報として取得するために用いられる。
選択的に、図11を再度参照すると、上記実施例のターゲットの動き情報を検出する装置は、第4の決定モジュール708と、第5の決定モジュール709と、をさらに含むことができる。
第4の決定モジュール708は、第1の画像における少なくとも1つのターゲットと第2の画像における少なくとも1つのターゲットとの対応関係を決定するために用いられ、ここで、第1の画像におけるターゲットは、上記第1のターゲットを含む。
第5の決定モジュール709は、第4のモジュール708によって決定された対応関係に基づいて、第1のターゲットに対応する第2の画像におけるターゲットを上記第2のターゲットとして決定するために用いられる。
選択的に、そのうちのいくつかの実施形態では、第4の決定モジュール708は、具体的に、第2の画像における少なくとも1つのターゲットの検出ボックスを追跡し、第1の画像における少なくとも1つのターゲットと第2の画像における少なくとも1つのターゲットとの対応関係を得るために用いられる。
又は、別のいくつかの実施形態では、第4の決定モジュール708は、第2の画像から第1の画像へのオプティカルフロー情報を取得するための第2の取得ユニット7081と、それぞれ第2の画像における少なくとも1つのターゲットのうちの各ターゲットの検出ボックスに対し、上記オプティカルフロー情報と第2の画像におけるターゲットの検出ボックスとに基づいて、第2の画像におけるターゲットの検出ボックス内の画素ドットが第1の画像に移行する位置を決定するための第2の決定ユニット7082と、ターゲットの検出ボックス内の画素ドットが第1の画像に移行する位置のセットと第1の画像における各検出ボックスとの間の交差オーバーユニオン比率を取得するための第3の取得ユニット7083と、第2の画像におけるターゲットと第1の画像における交差オーバーユニオン比率が最大の検出ボックスに対応するターゲットとの対応関係を確立するための確立ユニット7084と、を含む。
選択的に、図11を再度参照すると、そのうちのいくつかの実施形態では、第3の決定モジュール707は、第3の座標から第1の座標へのベクトルを取得するための第4の取得ユニット7071と、第4の取得ユニット7071によって取得されたベクトルの方向に基づいて、第1のターゲットの上記時間範囲内における動き方向を決定し、上記ベクトルのノルムと上記時間範囲とに基づいて第1のターゲットの上記時間範囲内における動き速度を決定するための第3の決定ユニット7072と、を含む。
選択的に、上記各実施例のターゲットの動き情報を検出する装置において、検出モジュール701は、第2の画像に対してターゲット検出を行って、第2のターゲットの検出ボックスを得るために用いられることもできる。第1の取得モジュール702は、第2の画像の第2のカメラ座標系における深度情報を取得するために用いられることもできる。第2の決定モジュール704は、検出モジュール701によって得られた第2のターゲットの検出ボックスの画像座標系における位置と第1の決定モジュール703によって決定された第2のターゲットの検出ボックスの深度情報とに基づいて、第2のターゲットの第2のカメラ座標系における第2の座標を決定するために用いられることもできる。
選択的に、図11を再度参照すると、上記実施例のターゲットの動き情報を検出する装置は、第2の決定モジュール704によって決定された第2のターゲットの前記第2の座標を記憶するための記憶モジュール710をさらに含むことができる。
選択的に、上記各実施例がターゲットの動き情報を検出する装置において、第1の画像を新たな第2の画像とし、画像シーケンスにおいて時間系列が第1の画像後である第3の画像を新たな第1の画像とし、ターゲットの動き情報を検出する装置における各モジュールは、該当する操作を実行して、上記第1の画像の採集時刻から第3の画像の採集時刻までの対応する時間範囲内の第3の画像におけるターゲットの動き情報を決定することもできる。
図12は、本開示の一例示的な実施例に係るターゲットの動き情報に基づいて走行対象を制御する装置の構造概略図である。この走行中のターゲットの動き情報に基づいて走行対象を制御する装置は、車両、ロボット、玩具車などの走行対象に設けられて、走行対象に対してターゲットの動き情報に基づく走行対象の制御を行うことができる。図12に示すように、このターゲットの動き情報に基づいて走行対象を制御する装置は、撮像装置801と、動き情報検出装置802と、制御装置803と、を含む。
撮像装置801は、走行対象上に設けられ、走行対象の走行中において走行対象外シーンの画像シーケンスを採集するために用いられる。
動き情報検出装置802は、上記画像シーケンスにおける少なくとも1フレームの画像を第1の画像とし、上記画像シーケンスにおいて第1の画像前であり且つ第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像として、走行対象外シーンにおけるターゲットの動き情報を決定するために用いられる。この動き情報検出装置802は、具体的に、上記図10から図11のいずれか1つの実施例のターゲットの動き情報を検出する装置によって実現されることができる。
制御装置803は、動き情報検出装置802によって検出されたターゲットの動き情報に基づいて、走行対象の走行状態を制御するための制御命令を生成するために用いられる。
本実施例によれば、走行対象の走行中において、走行対象上の撮像装置によって走行対象外シーンの画像シーケンスを採集し、画像シーケンスにおける少なくとも1フレームの画像を第1の画像とし、画像シーケンスにおいて第1の画像前であり且つ第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像とし、本開示のいずれか1つの実施例に記載のターゲット動き情報検出方法を利用して運転シーンにおけるターゲットの動き情報を決定し、このターゲットの動き情報に基づいて走行対象の走行状態を制御するための制御命令を生成することによって、コンピュータビジョン技術の利用による運転シーンにおけるターゲットの動き情報の検出、走行対象に対するインテリジェント運転制御を実現し、自動運転シーンにおける走行対象に対するリアルタイムなインテリジェント運転制御を満たすに有利であり、走行対象の安全な走行を保障することができる。
選択的に、そのうちのいくつかの実施形態では、上記制御命令は、例えば、動き速度の大きさを保持するための制御命令、動き速度の大きさを調整するための制御命令、動き方向を保持するための制御命令、動き方向を調整するための制御命令、警報提示のための制御命令、運転モード切り替えを行うための制御命令などのうちの少なくとも1つを含んでもよいが、それらに限らない。
(例示的な電子機器)
以下、図13を参照しながら本開示の実施例に基づく電子機器を記述する。図13は、本開示の実施例に基づく電子機器のブロック図を示す。図13に示すように、電子機器は、1つ又は複数のプロセッサ11と、メモリ12と、を含む。
プロセッサ11は、中央処理ユニット(Central Processing Unit、CPU)又はデータ処理能力及び/又は命令実行能力を有する他の形式の処理ユニットであってもよく、電子機器10における他のコンポーネントを制御して所望の機能を実行することができる。
メモリ12は、1つ又は複数のコンピュータプログラム製品を含むことができ、前記コンピュータプログラム製品は、揮発性メモリ及び/又は不揮発性メモリなどの様々な形式のコンピュータ可読記憶媒体を含むことができる。前記揮発性メモリは、例えば、ランダムアクセスメモリ(Random Access Memory、RAM)及び/又は高速キャッシュメモリ(cache)などを含むことができる。前記不揮発性メモリは、例えば、リードオンリーメモリ(Read-Only Memory、ROM)、ハードディスク、フラッシュメモリなどを含むことができる。前記コンピュータ可読記憶媒体には、1つ又は複数のコンピュータプログラム命令が記憶されることができ、プロセッサ11は、前記プログラム命令を実行して、上述した本開示の各実施例のターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法及び/又は他の所望の機能を実現することができる。前記コンピュータ可読記憶媒体には、例えば、画像の深度情報、ターゲットの検出ボックスの深度情報、撮像装置の位置姿勢変化情報などの様々な内容が記憶されることができる。
一例では、電子機器10は、入力装置13と出力装置14とをさらに含むことができ、これらのコンポーネントは、バスシステム及び/又は他の形式の接続機構(図示せず)を介して相互接続される。
例えば、この入力装置13は、上記のマイクロホン又はマイクロホンアレイであってもよく、又は、この入力装置13は、通信ネットワークコネクタであってもよい。
なお、この入力装置13は、例えば、キーボード、マウスなどをさらに含んでもよい。
この出力装置14は、決定された第2の画像の採集時刻から第1の画像の採集時刻までの対応する時間範囲内の第1のターゲットの動き情報などを含む様々な情報を外部に出力することができる。この出力装置14は、例えば、ディスプレイ、スピーカ、プリンタ、通信ネットワーク及びそれに接続されている遠隔出力装置などを含むことができる。
無論、簡素化のために、図13には、この電子機器10のうち、本開示に関連するコンポーネントの一部のみが示されており、例えば、バス、入力/出力インタフェースなどのコンポーネントは省略されている。このほか、具体的な応用状況に応じ、電子機器10は、任意の他の適切なコンポーネントをさらに含んでもよい。
(例示的なコンピュータプログラム製品とコンピュータ可読記憶媒体)
上記方法と機器のほか、本開示の実施例は、コンピュータプログラム命令を含むコンピュータプログラム製品であることもできる。前記コンピュータプログラム命令がプロセッサによって実行されると、前記プロセッサに、本明細書の上記「例示的な方法」の部分に記述されている本開示の様々な実施例に基づくターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法におけるステップを実行させる。
前記コンピュータプログラム製品は、1つ又は複数のプログラミング言語の任意の組み合わせによって本開示の実施例の操作を実行するためのプログラムコードを作成することができ、前記プログラミング言語は、Java(登録商標)、C++などのオブジェクト向けのプログラミング言語を含み、例えば、「C」言語又は類似のプログラミング言語などの一般的な手続き型プログラミング言語をさらに含む。プログラムコードは、下記のように実行されることができ、すなわち、ユーザコンピューティングデバイス上で全体的に実行される、ユーザ機器上で部分的に実行される、独立したソフトウェアパッケージとして実行される、一部はユーザコンピューティングデバイス上で実行され、別の一部は遠隔コンピューティングデバイス上で実行される、又は、遠隔コンピューティングデバイス又はサーバ上で全体的に実行される。
なお、本開示の実施例は、コンピュータプログラム命令が記憶されるコンピュータ可読記憶媒体であることもできる。前記コンピュータプログラム命令がプロセッサによって実行されると、前記プロセッサに、本明細書の上記「例示的な方法」の部分に記述されている本開示の様々な実施例に基づくターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法におけるステップを実行させる。
前記コンピュータ可読記憶媒体は、1つ又は複数の可読媒体の任意の組み合わせを採用することができる。可読媒体は、可読信号媒体又は可読記憶媒体であってもよい。可読記憶媒体は、例えば、電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又は任意以上の組み合わせを含むことができるが、それらに限らない。可読記憶媒体のより具体的な例(非網羅的リスト)は、1つ又は複数の導線を有する電気接続、ポータブルディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ((Erasable Programmable Read-Only Memory、EPROM)又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(Compact Disc Read-Only Memory、CD-ROM)、光記憶デバイス、磁気記憶デバイス、又は上記の任意の適切な組み合わせを含む。
以上、具体的な実施例を参照しながら本開示の基本的原理を記述してきたが、本開示に言及された利点、優位性、効果などは、制限されず、例示に過ぎず、これらの利点、優位性、効果などは、本開示の各実施例が必ずしも備えられるのではない。また、上記開示の具体的な細部は、例示的な作用及び理解しやすい作用のためのものにすぎず、限定的なものではなく、上記細部は、本開示を必ずしも上記具体的な詳細により実現されるように制限するものではない。
本明細書における各実施例は、いずれも逐次的な方法で記述されており、各実施例間に同じである部分や類似した部分は、互いに参照さればよく、各実施例では、主に他の実施例との相違点を重点として説明した。システム実施例においては、基本的に方法の実施例に対応するため、その記述は、比較的簡単であり、関連内容は、方法の実施例の部分の説明を参照すればよい。
本開示に関わるデバイス、装置、機器、システムのブロック図は、単なる例示的な例にすぎず、必ずしもブロック図に示される方式で接続、レイアウト、配置することを要求又は暗示することを意図しない。当業者が理解できるように、これらのデバイス、装置、機器、システムを任意の形態で接続、レイアウト、配置することができる。例えば、「含む」、「備える」、「有する」などの単語は開放的語彙であり、「含むが限定されない」ことを指し、互いに置き換えて使用され得る。本明細書で使用される「又は」及び「及び」という用語は、「及び/又は」という用語を指し、そのようでないと明記しない限り、互いに置き換えて使用され得る。ここで使用される語彙「例えば」とは、「例えば、…であるが、これに限定されない」という連語を指し、互いに置き換えて使用され得る。
本開示の方法及び装置は、多くの形態で実現され得る。例えば、本開示の方法及び装置は、ソフトウェア、ハードウェア、ファームウェア、又はソフトウェア、ハードウェア、ファームウェアのいかなる組み合わせで実現され得る。前記方法に使用されるステップの上記順序は、単なる説明のためのものであり、本開示の方法のステップは、特に他の形態で説明しない限り、以上具体的に説明された順序に限定されない。また、いくつかの実施例では、本開示は、記録媒体に記録されたプログラムとして実施されてもよく、これらのプログラムは、本開示に係る方法を実現するための機械読み取り可能な命令を含む。したがって、本開示に係る方法を実行するためのプログラムを記憶する記録媒体も本開示に含まれる
また、本開示の装置、機器、及び方法において、各部材又は各ステップは、分解及び/又は再度組み合わせされてもよいことに指摘されたい。これらの分解及び/又は再度組み合わせは、本開示の同等な形態とみなされるべきである。
開示された態様の上記の説明は、当業者が本開示を作成又は使用することを可能にするために提供される。これらの態様に対する様々な修正は、当業者にとって非常に明らかであり、本明細書で定義された一般的な原理は、本開示の範囲から逸脱することなく他の態様に適用され得る。したがって、本開示は、本明細書に示された態様に制限されることを意図しておらず、本明細書に開示された原理及び新規な特徴と一致する最も広い範囲に従うものである。
上記の説明は、例示及び説明のために提供される。さらに、この説明は、本開示の実施例を本明細書に開示された形態に制限することを意図しない。以上、複数の例示的な態様及び実施例を説明したが、当業者であれば、それらの特定の変形、修正、変更、追加、及びサブコンビネーションを認識することができる。

Claims (11)

  1. 走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るステップと、
    前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するステップと、
    前記第1の画像の深度情報に基づいて前記第1のターゲットの検出ボックスの深度情報を決定し、前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するステップと、
    前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの前記撮像装置の位置姿勢変化情報を取得するステップと、
    前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップと、
    前記第1の座標と前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するステップと、を含む、
    ことを特徴とするターゲット動き情報検出方法。
  2. 前記第1の画像の対応する第1のカメラ座標系における深度情報に基づいて前記第1のターゲットの検出ボックスの深度情報を決定するステップは、
    前記第1の画像の深度情報から前記第1のターゲットの検出ボックスにおける各画素ドットの深度値を取得するステップと、
    予め設定の方式を採用して、前記第1のターゲットの検出ボックスにおける各画素ドットの深度値に基づいて前記第1のターゲットの検出ボックスの深度情報を決定するステップと、を含む、
    ことを特徴とする請求項1に記載のターゲット動き情報検出方法。
  3. 前記位置姿勢変化情報に基づいて、第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップ前に、
    前記第1の画像における少なくとも1つのターゲットと前記第2の画像における少なくとも1つのターゲットとの対応関係を決定するステップであって、前記第1の画像における少なくとも1つのターゲットは、前記第1のターゲットを含むステップと、
    前記対応関係に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットを前記第2のターゲットとして決定するステップと、をさらに含む、
    ことを特徴とする請求項1に記載のターゲット動き情報検出方法。
  4. 前記第1の画像における少なくとも1つのターゲットと前記第2の画像における少なくとも1つのターゲットとの対応関係を決定する前記ステップは、
    前記第2の画像における少なくとも1つのターゲットの検出ボックスを追跡し、前記第1の画像における少なくとも1つのターゲットと前記第2の画像における少なくとも1つのターゲットとの対応関係を得るステップを含む、
    又は、
    前記第2の画像から前記第1の画像へのオプティカルフロー情報を取得するステップと、
    前記第2の画像における少なくとも1つのターゲットのうちの各ターゲットの検出ボックスに対し、前記オプティカルフロー情報と前記第2の画像におけるターゲットの検出ボックスとに基づいて、前記第2の画像におけるターゲットの検出ボックス内の画素ドットが前記第1の画像に移行する位置を決定するステップと、
    前記ターゲットの検出ボックス内の画素ドットが前記第1の画像に移行する位置のセットと前記第1の画像における各検出ボックスとの交差オーバーユニオン比率を取得するステップと、
    前記第2の画像におけるターゲットと前記第1の画像における交差オーバーユニオン比率が最大の検出ボックスに対応するターゲットとの対応関係を確立するステップと、を含む、
    ことを特徴とする請求項3に記載のターゲット動き情報検出方法。
  5. 前記第1の座標と前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するステップは、
    前記第3の座標から前記第1の座標へのベクトルを取得するステップと、
    前記ベクトルの方向に基づいて前記第1のターゲットの前記時間範囲内における動き方向を決定し、前記ベクトルのノルムと前記時間範囲とに基づいて前記第1のターゲットの前記時間範囲内における動き速度を決定するステップであって、前記第1のターゲットの前記時間範囲内における動き情報は、前記第1のターゲットの前記時間範囲内における動き方向と動き速度とを含むステップと、を含む、
    ことを特徴とする請求項1に記載のターゲット動き情報検出方法。
  6. 前記位置姿勢変化情報に基づいて、第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップ前に、
    前記第2の画像に対してターゲット検出を行って前記第2のターゲットの検出ボックスを得るステップと、
    前記第2の画像の前記第2のカメラ座標系における深度情報を取得し、前記第2の画像の前記第2のカメラ座標系における深度情報に基づいて、前記第2のターゲットの検出ボックスの深度情報を決定するステップと、
    前記第2のターゲットの検出ボックスの画像座標系における位置と前記第2のターゲットの検出ボックスの深度情報とに基づいて、前記第2のターゲットの前記第2のカメラ座標系における第2の座標を決定するステップと、をさらに含む、
    ことを特徴とする請求項1から5のいずれか1項に記載のターゲット動き情報検出方法。
  7. 走行対象の走行中において、前記走行対象上の撮像装置によって前記走行対象外シーンの画像シーケンスを採集するステップと、
    前記画像シーケンスにおける少なくとも1フレームの画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像とし、請求項1から7のいずれか1項に記載の方法を利用して、前記シーンにおけるターゲットの動き情報を決定するステップと、
    前記ターゲットの動き情報に基づいて前記走行対象の走行状態を制御するための制御命令を生成するステップと、を含む、
    ことを特徴とするターゲット動き情報に基づく走行対象制御方法。
  8. 走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るための検出モジュールと、
    前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するための第1の取得モジュールと、
    前記第1の取得モジュールによって取得された前記第1の画像の深度情報に基づいて、前記第1のターゲットの検出ボックスの深度情報を決定するための第1の決定モジュールと、
    前記検出モジュールによって得られた前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1の決定モジュールによって決定された前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するための第2の決定モジュールと、
    前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの撮像装置の位置姿勢変化情報を取得するための第2の取得モジュールと、
    前記第2の取得モジュールによって取得された前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するための変換モジュールと、
    前記第2の決定モジュールによって決定された前記第1の座標と前記変換モジュールによって変換された前記第3の座標に基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するための第3の決定モジュールと、を含む、
    ことを特徴とするターゲット動き情報検出装置。
  9. 走行対象上に設けられ、走行対象の走行中において前記走行対象外シーンの画像シーケンスを採集するための撮像装置と、
    前記画像シーケンスにおける少なくとも1フレームのレート画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像として、前記シーンにおけるターゲットの動き情報を決定するための請求項10から16のいずれか1項に記載の動き情報検出装置と、
    前記動き情報検出装置によって検出された前記ターゲットの動き情報に基づいて、前記走行対象の走行状態を制御するための制御命令を生成するための制御装置と、を含む、
    ことを特徴とするターゲット動き情報に基づく走行対象制御装置。
  10. 請求項1から7のいずれか1項に記載の方法を実行させるためのコンピュータプログラムが記憶される、
    ことを特徴とするコンピュータ可読記憶媒体。
  11. プロセッサと、
    前記プロセッサの実行可能命令を記憶するためのメモリと、を含み、
    前記プロセッサは、前記メモリから前記実行可能命令を読み出し、前記命令を実行して請求項1から7のいずれか1項に記載の方法を実施する、
    ことを特徴とする電子機器。
JP2022557731A 2021-04-07 2022-02-18 ターゲット動き情報検出方法、装置、機器及び媒体 Active JP7306766B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110373003.XA CN113096151B (zh) 2021-04-07 2021-04-07 对目标的运动信息进行检测的方法和装置、设备和介质
CN202110373003.X 2021-04-07
PCT/CN2022/076765 WO2022213729A1 (zh) 2021-04-07 2022-02-18 对目标的运动信息进行检测的方法和装置、设备和介质

Publications (2)

Publication Number Publication Date
JP2023523527A true JP2023523527A (ja) 2023-06-06
JP7306766B2 JP7306766B2 (ja) 2023-07-11

Family

ID=76674988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022557731A Active JP7306766B2 (ja) 2021-04-07 2022-02-18 ターゲット動き情報検出方法、装置、機器及び媒体

Country Status (4)

Country Link
EP (1) EP4246437A1 (ja)
JP (1) JP7306766B2 (ja)
CN (1) CN113096151B (ja)
WO (1) WO2022213729A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096151B (zh) * 2021-04-07 2022-08-09 地平线征程(杭州)人工智能科技有限公司 对目标的运动信息进行检测的方法和装置、设备和介质
CN113936042B (zh) * 2021-12-16 2022-04-05 深圳佑驾创新科技有限公司 一种目标跟踪方法、装置和计算机可读存储介质
CN115890639A (zh) * 2022-11-17 2023-04-04 浙江荣图智能科技有限公司 一种机器人视觉引导定位抓取控制系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179311A (zh) * 2019-12-23 2020-05-19 全球能源互联网研究院有限公司 多目标跟踪方法、装置及电子设备
CN111344644A (zh) * 2018-08-01 2020-06-26 深圳市大疆创新科技有限公司 用于基于运动的自动图像捕获的技术
CN111354037A (zh) * 2018-12-21 2020-06-30 北京欣奕华科技有限公司 一种定位方法及系统
CN111881749A (zh) * 2020-06-24 2020-11-03 北京工业大学 基于rgb-d多模态数据的双向人流量统计方法
CN111897429A (zh) * 2020-07-30 2020-11-06 腾讯科技(深圳)有限公司 图像显示方法、装置、计算机设备及存储介质
CN112541553A (zh) * 2020-12-18 2021-03-23 深圳地平线机器人科技有限公司 目标对象的状态检测方法、装置、介质以及电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6009502B2 (ja) * 2014-07-29 2016-10-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
WO2019084804A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
CN108734726A (zh) * 2017-12-04 2018-11-02 北京猎户星空科技有限公司 一种目标跟踪方法、装置、电子设备及存储介质
CN109816690A (zh) * 2018-12-25 2019-05-28 北京飞搜科技有限公司 基于深度特征的多目标追踪方法及系统
CN111402286B (zh) * 2018-12-27 2024-04-02 杭州海康威视系统技术有限公司 一种目标跟踪方法、装置、系统及电子设备
CN109727273B (zh) * 2018-12-29 2020-12-04 北京茵沃汽车科技有限公司 一种基于车载鱼眼相机的移动目标检测方法
EP3680858A1 (en) * 2019-01-11 2020-07-15 Tata Consultancy Services Limited Dynamic multi-camera tracking of moving objects in motion streams
CN111213153A (zh) * 2019-01-30 2020-05-29 深圳市大疆创新科技有限公司 目标物体运动状态检测方法、设备及存储介质
CN111247557A (zh) * 2019-04-23 2020-06-05 深圳市大疆创新科技有限公司 用于移动目标物体检测的方法、系统以及可移动平台
CN112015170A (zh) * 2019-05-29 2020-12-01 北京市商汤科技开发有限公司 运动物体检测及智能驾驶控制方法、装置、介质及设备
JP7383870B2 (ja) * 2019-05-30 2023-11-21 モービルアイ ビジョン テクノロジーズ リミテッド デバイス、方法、システムおよびコンピュータプログラム
CN110415276B (zh) * 2019-07-30 2022-04-05 北京字节跳动网络技术有限公司 运动信息计算方法、装置及电子设备
CN110533699B (zh) * 2019-07-30 2024-05-24 平安科技(深圳)有限公司 基于光流法的像素变化的动态多帧测速方法
JP7339616B2 (ja) * 2019-08-07 2023-09-06 眞次 中村 速度測定装置および速度測定方法
CN110929567B (zh) * 2019-10-17 2022-09-27 北京全路通信信号研究设计院集团有限公司 基于单目相机监控场景下目标的位置速度测量方法及系统
CN111583329B (zh) * 2020-04-09 2023-08-04 深圳奇迹智慧网络有限公司 增强现实眼镜显示方法、装置、电子设备和存储介质
CN111723716B (zh) * 2020-06-11 2024-03-08 深圳地平线机器人科技有限公司 确定目标对象朝向的方法、装置、系统、介质及电子设备
CN112509047A (zh) * 2020-12-10 2021-03-16 北京地平线信息技术有限公司 基于图像的位姿确定方法、装置、存储介质及电子设备
CN112541938A (zh) * 2020-12-17 2021-03-23 通号智慧城市研究设计院有限公司 一种行人速度测量方法、系统、介质及计算设备
CN112419385B (zh) * 2021-01-25 2021-04-09 国汽智控(北京)科技有限公司 一种3d深度信息估计方法、装置及计算机设备
CN113096151B (zh) * 2021-04-07 2022-08-09 地平线征程(杭州)人工智能科技有限公司 对目标的运动信息进行检测的方法和装置、设备和介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111344644A (zh) * 2018-08-01 2020-06-26 深圳市大疆创新科技有限公司 用于基于运动的自动图像捕获的技术
CN111354037A (zh) * 2018-12-21 2020-06-30 北京欣奕华科技有限公司 一种定位方法及系统
CN111179311A (zh) * 2019-12-23 2020-05-19 全球能源互联网研究院有限公司 多目标跟踪方法、装置及电子设备
CN111881749A (zh) * 2020-06-24 2020-11-03 北京工业大学 基于rgb-d多模态数据的双向人流量统计方法
CN111897429A (zh) * 2020-07-30 2020-11-06 腾讯科技(深圳)有限公司 图像显示方法、装置、计算机设备及存储介质
CN112541553A (zh) * 2020-12-18 2021-03-23 深圳地平线机器人科技有限公司 目标对象的状态检测方法、装置、介质以及电子设备

Also Published As

Publication number Publication date
CN113096151A (zh) 2021-07-09
JP7306766B2 (ja) 2023-07-11
WO2022213729A1 (zh) 2022-10-13
CN113096151B (zh) 2022-08-09
EP4246437A1 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
JP7306766B2 (ja) ターゲット動き情報検出方法、装置、機器及び媒体
US10192113B1 (en) Quadocular sensor design in autonomous platforms
CN110163904B (zh) 对象标注方法、移动控制方法、装置、设备及存储介质
US10496104B1 (en) Positional awareness with quadocular sensor in autonomous platforms
JP6571274B2 (ja) レーザ深度マップサンプリングのためのシステム及び方法
US10849543B2 (en) Focus-based tagging of sensor data
WO2019179464A1 (zh) 用于预测目标对象运动朝向的方法、车辆控制方法及装置
US10668921B2 (en) Enhanced vehicle tracking
WO2023216572A1 (zh) 一种跨视频目标跟踪方法、系统、电子设备以及存储介质
JP2021504796A (ja) センサーデータセグメンテーション
US20110091073A1 (en) Moving object detection apparatus and moving object detection method
US10679369B2 (en) System and method for object recognition using depth mapping
Samal et al. Task-driven rgb-lidar fusion for object tracking in resource-efficient autonomous system
Manglik et al. Forecasting time-to-collision from monocular video: Feasibility, dataset, and challenges
CN114723955A (zh) 图像处理方法、装置、设备和计算机可读存储介质
CN111986472B (zh) 车辆速度确定方法及车辆
O’Mahony et al. Computer vision for 3d perception: a review
CN111783675A (zh) 基于车辆语义感知的智慧城市视频自适应hdr控制方法
CN113910224A (zh) 机器人跟随的方法、装置及电子设备
Manglik et al. Future near-collision prediction from monocular video: Feasibility, dataset, and challenges
JP2024019629A (ja) 予測装置、予測方法、プログラムおよび車両制御システム
GB2551239A (en) A computer implemented method for tracking an object in a 3D scene
Zhang et al. Improved SLAM Method Based on Dynamic Objects Detecting with the Fusion of Vision and Lidar
Høilund et al. Improving stereo camera depth measurements and benefiting from intermediate results
US20240062386A1 (en) High throughput point cloud processing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230622

R150 Certificate of patent or registration of utility model

Ref document number: 7306766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150