JP2023523527A - ターゲット動き情報検出方法、装置、機器及び媒体 - Google Patents
ターゲット動き情報検出方法、装置、機器及び媒体 Download PDFInfo
- Publication number
- JP2023523527A JP2023523527A JP2022557731A JP2022557731A JP2023523527A JP 2023523527 A JP2023523527 A JP 2023523527A JP 2022557731 A JP2022557731 A JP 2022557731A JP 2022557731 A JP2022557731 A JP 2022557731A JP 2023523527 A JP2023523527 A JP 2023523527A
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- information
- detection box
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 266
- 230000033001 locomotion Effects 0.000 title claims abstract description 199
- 238000003384 imaging method Methods 0.000 claims abstract description 61
- 238000000034 method Methods 0.000 claims abstract description 52
- 230000008859 change Effects 0.000 claims abstract description 32
- 230000001131 transforming effect Effects 0.000 claims abstract description 8
- 230000003287 optical effect Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 230000007704 transition Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 21
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るステップと、
前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するステップと、
前記第1の画像の深度情報に基づいて、前記第1のターゲットの検出ボックスの深度情報を決定し、前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するステップと、
前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの撮像装置の位置姿勢変化情報を取得するステップと、
前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップと、
前記第1の座標と前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するステップと、を含む。
走行対象の走行中において前記走行対象上の撮像装置によって前記走行対象外シーンの画像シーケンスを採集するステップと、
前記画像シーケンスにおける少なくとも1フレームのレート画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像とし、本開示のいずれか1つの実施例に記載のターゲット動き情報検出方法利用して前記シーンにおけるターゲットの動き情報を決定するステップと、
前記ターゲットの動き情報に基づいて前記走行対象の走行状態を制御するための制御命令を生成するステップと、を含む。
走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るための検出モジュールと、
前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するための第1の取得モジュールと、
前記第1の取得モジュールによって取得された前記第1の画像の深度情報に基づいて、前記第1のターゲットの検出ボックスの深度情報を決定するための第1の決定モジュールと、
前記検出モジュールによって得られた前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1の決定モジュールによって決定された前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するための第2の決定モジュールと、
前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの撮像装置の位置姿勢変化情報を取得するための第2の取得モジュールと、
前記第2の取得モジュールによって取得された前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するための変換モジュールと、
前記第2の決定モジュールによって決定された前記第1の座標と前記変換モジュールによって変換された前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するための第3の決定モジュールと、を含む。
走行対象上に設けられ、走行対象の走行中において前記走行対象外シーンの画像シーケンスを採集するための撮像装置と、
前記画像シーケンスにおける少なくとも1フレームの画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像として、前記シーンにおけるターゲットの動き情報を決定するための本開示のいずれか1つの実施例に記載のターゲットの動き情報を検出する動き情報検出装置と、
前記動き情報検出装置によって検出された前記ターゲットの動き情報に基づいて、前記走行対象の走行状態を制御するための制御命令を生成するための制御装置と、を含む。
プロセッサと、
前記プロセッサの実行可能命令を記憶するためのメモリと、を含み、
前記プロセッサは、前記メモリから前記実行可能命令を読み出し、前記命令を実行して本開示の上記いずれか1つの実施例に記載のターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法を実施する。
添付図面を参照しながら本開示の実施例をより詳細に記述することによって、本開示の上記及び他の目的、特徴や利点は、より明らかになる。添付図面は、本開示の実施例に対するさらなる理解を提供するために用いられ、明細書の一部を構成し、本開示の実施例とともに本開示を解釈するために用いられ、本開示に対する制限を構成するものではない。添付図面において、同じ参照符号は、一般に同じ部品又はステップを代表するものである。
本開示を実現する過程において、本開示の発明者は、研究によって、レーザレーダが、ある瞬時的シーンにおける複数の点の深度値(depth value)を得ることができるが、ある物体の動き速度及び方向などの情報は直接得ることができず、ある時間範囲内における物体の動き速度及び方向を知るためには、この時間範囲で対応する2つの時刻に採集した点群データでターゲット検出とターゲット追踪とを行ってから、ターゲットのこの時間範囲内における動き速度及び方向を計算する必要があるので、膨大な計算処理が必要であり、所要時間が比較的長く、効率が比較的低く、リアルタイム性に対する要求が比較的高い自動運転などのシーン需要を満たすことができなかったことを発見した。
本開示の実施例は、走行対象、ロボット、玩具車などの走行対象のインテリジェント運転制御シーンに適用され、走行対象の運転シーンにおけるターゲットの動き情報を検出することによって、走行対象の走行状態を制御するための制御命令を生成して、走行対象の走行状態を制御することができる。
図2は、本開示の一例示的な実施例に係るターゲット動き情報検出方法のフローチャートである。本実施例は、電子機器に適用されてもよいし、車両、ロボット、玩具車などの走行対象に適用されてもよい。図2に示すように、この実施例のターゲット動き情報検出方法は、以下のステップを含む。
図10は、本開示の一例示的な実施例に係るターゲットの動き情報を検出する装置の構造概略図である。このターゲットの動き情報を検出する装置は、端末機器、サーバなどの電子機器に設けられてもよいし、車両、ロボット、玩具車などの走行対象に設けられてもよく、本開示の上記いずれか1つの実施例のターゲット動き情報検出方法を実行する。図10に示すように、このターゲットの動き情報を検出する装置は、検出モジュール701と、第1の取得モジュール702と、第1の決定モジュール703と、第2の決定モジュール704と、第2の取得モジュール705と、変換モジュール706と、第3の決定モジュール707と、を含む。
以下、図13を参照しながら本開示の実施例に基づく電子機器を記述する。図13は、本開示の実施例に基づく電子機器のブロック図を示す。図13に示すように、電子機器は、1つ又は複数のプロセッサ11と、メモリ12と、を含む。
上記方法と機器のほか、本開示の実施例は、コンピュータプログラム命令を含むコンピュータプログラム製品であることもできる。前記コンピュータプログラム命令がプロセッサによって実行されると、前記プロセッサに、本明細書の上記「例示的な方法」の部分に記述されている本開示の様々な実施例に基づくターゲット動き情報検出方法又はターゲット動き情報に基づく走行対象制御方法におけるステップを実行させる。
Claims (11)
- 走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るステップと、
前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するステップと、
前記第1の画像の深度情報に基づいて前記第1のターゲットの検出ボックスの深度情報を決定し、前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するステップと、
前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの前記撮像装置の位置姿勢変化情報を取得するステップと、
前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップと、
前記第1の座標と前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するステップと、を含む、
ことを特徴とするターゲット動き情報検出方法。 - 前記第1の画像の対応する第1のカメラ座標系における深度情報に基づいて前記第1のターゲットの検出ボックスの深度情報を決定するステップは、
前記第1の画像の深度情報から前記第1のターゲットの検出ボックスにおける各画素ドットの深度値を取得するステップと、
予め設定の方式を採用して、前記第1のターゲットの検出ボックスにおける各画素ドットの深度値に基づいて前記第1のターゲットの検出ボックスの深度情報を決定するステップと、を含む、
ことを特徴とする請求項1に記載のターゲット動き情報検出方法。 - 前記位置姿勢変化情報に基づいて、第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップ前に、
前記第1の画像における少なくとも1つのターゲットと前記第2の画像における少なくとも1つのターゲットとの対応関係を決定するステップであって、前記第1の画像における少なくとも1つのターゲットは、前記第1のターゲットを含むステップと、
前記対応関係に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットを前記第2のターゲットとして決定するステップと、をさらに含む、
ことを特徴とする請求項1に記載のターゲット動き情報検出方法。 - 前記第1の画像における少なくとも1つのターゲットと前記第2の画像における少なくとも1つのターゲットとの対応関係を決定する前記ステップは、
前記第2の画像における少なくとも1つのターゲットの検出ボックスを追跡し、前記第1の画像における少なくとも1つのターゲットと前記第2の画像における少なくとも1つのターゲットとの対応関係を得るステップを含む、
又は、
前記第2の画像から前記第1の画像へのオプティカルフロー情報を取得するステップと、
前記第2の画像における少なくとも1つのターゲットのうちの各ターゲットの検出ボックスに対し、前記オプティカルフロー情報と前記第2の画像におけるターゲットの検出ボックスとに基づいて、前記第2の画像におけるターゲットの検出ボックス内の画素ドットが前記第1の画像に移行する位置を決定するステップと、
前記ターゲットの検出ボックス内の画素ドットが前記第1の画像に移行する位置のセットと前記第1の画像における各検出ボックスとの交差オーバーユニオン比率を取得するステップと、
前記第2の画像におけるターゲットと前記第1の画像における交差オーバーユニオン比率が最大の検出ボックスに対応するターゲットとの対応関係を確立するステップと、を含む、
ことを特徴とする請求項3に記載のターゲット動き情報検出方法。 - 前記第1の座標と前記第3の座標とに基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するステップは、
前記第3の座標から前記第1の座標へのベクトルを取得するステップと、
前記ベクトルの方向に基づいて前記第1のターゲットの前記時間範囲内における動き方向を決定し、前記ベクトルのノルムと前記時間範囲とに基づいて前記第1のターゲットの前記時間範囲内における動き速度を決定するステップであって、前記第1のターゲットの前記時間範囲内における動き情報は、前記第1のターゲットの前記時間範囲内における動き方向と動き速度とを含むステップと、を含む、
ことを特徴とする請求項1に記載のターゲット動き情報検出方法。 - 前記位置姿勢変化情報に基づいて、第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するステップ前に、
前記第2の画像に対してターゲット検出を行って前記第2のターゲットの検出ボックスを得るステップと、
前記第2の画像の前記第2のカメラ座標系における深度情報を取得し、前記第2の画像の前記第2のカメラ座標系における深度情報に基づいて、前記第2のターゲットの検出ボックスの深度情報を決定するステップと、
前記第2のターゲットの検出ボックスの画像座標系における位置と前記第2のターゲットの検出ボックスの深度情報とに基づいて、前記第2のターゲットの前記第2のカメラ座標系における第2の座標を決定するステップと、をさらに含む、
ことを特徴とする請求項1から5のいずれか1項に記載のターゲット動き情報検出方法。 - 走行対象の走行中において、前記走行対象上の撮像装置によって前記走行対象外シーンの画像シーケンスを採集するステップと、
前記画像シーケンスにおける少なくとも1フレームの画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像とし、請求項1から7のいずれか1項に記載の方法を利用して、前記シーンにおけるターゲットの動き情報を決定するステップと、
前記ターゲットの動き情報に基づいて前記走行対象の走行状態を制御するための制御命令を生成するステップと、を含む、
ことを特徴とするターゲット動き情報に基づく走行対象制御方法。 - 走行対象上の撮像装置が前記走行対象の走行中に採集した前記走行対象外シーンの画像としての第1の画像に対してターゲット検出を行って第1のターゲットの検出ボックスを得るための検出モジュールと、
前記第1の画像の対応する第1のカメラ座標系における深度情報を取得するための第1の取得モジュールと、
前記第1の取得モジュールによって取得された前記第1の画像の深度情報に基づいて、前記第1のターゲットの検出ボックスの深度情報を決定するための第1の決定モジュールと、
前記検出モジュールによって得られた前記第1のターゲットの検出ボックスの画像座標系における位置と前記第1の決定モジュールによって決定された前記第1のターゲットの検出ボックスの深度情報とに基づいて、前記第1のターゲットの前記第1のカメラ座標系における第1の座標を決定するための第2の決定モジュールと、
前記第1の画像が位置する画像シーケンスにおいて時間系列が前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する画像としての第2の画像の採集から前記第1の画像の採集までの撮像装置の位置姿勢変化情報を取得するための第2の取得モジュールと、
前記第2の取得モジュールによって取得された前記位置姿勢変化情報に基づいて、前記第1のターゲットに対応する第2の画像におけるターゲットとしての第2のターゲットの前記第2の画像に対応する第2のカメラ座標系における第2の座標を前記第1のカメラ座標系における第3の座標に変換するための変換モジュールと、
前記第2の決定モジュールによって決定された前記第1の座標と前記変換モジュールによって変換された前記第3の座標に基づいて、前記第2の画像の採集時刻から前記第1の画像の採集時刻までの対応する時間範囲内の前記第1のターゲットの動き情報を決定するための第3の決定モジュールと、を含む、
ことを特徴とするターゲット動き情報検出装置。 - 走行対象上に設けられ、走行対象の走行中において前記走行対象外シーンの画像シーケンスを採集するための撮像装置と、
前記画像シーケンスにおける少なくとも1フレームのレート画像を第1の画像とし、前記画像シーケンスにおいて前記第1の画像前であり且つ前記第1の画像と予め設定のフレーム数間隔を有する少なくとも1フレームの画像を第2の画像として、前記シーンにおけるターゲットの動き情報を決定するための請求項10から16のいずれか1項に記載の動き情報検出装置と、
前記動き情報検出装置によって検出された前記ターゲットの動き情報に基づいて、前記走行対象の走行状態を制御するための制御命令を生成するための制御装置と、を含む、
ことを特徴とするターゲット動き情報に基づく走行対象制御装置。 - 請求項1から7のいずれか1項に記載の方法を実行させるためのコンピュータプログラムが記憶される、
ことを特徴とするコンピュータ可読記憶媒体。 - プロセッサと、
前記プロセッサの実行可能命令を記憶するためのメモリと、を含み、
前記プロセッサは、前記メモリから前記実行可能命令を読み出し、前記命令を実行して請求項1から7のいずれか1項に記載の方法を実施する、
ことを特徴とする電子機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110373003.XA CN113096151B (zh) | 2021-04-07 | 2021-04-07 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
CN202110373003.X | 2021-04-07 | ||
PCT/CN2022/076765 WO2022213729A1 (zh) | 2021-04-07 | 2022-02-18 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023523527A true JP2023523527A (ja) | 2023-06-06 |
JP7306766B2 JP7306766B2 (ja) | 2023-07-11 |
Family
ID=76674988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022557731A Active JP7306766B2 (ja) | 2021-04-07 | 2022-02-18 | ターゲット動き情報検出方法、装置、機器及び媒体 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4246437A1 (ja) |
JP (1) | JP7306766B2 (ja) |
CN (1) | CN113096151B (ja) |
WO (1) | WO2022213729A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096151B (zh) * | 2021-04-07 | 2022-08-09 | 地平线征程(杭州)人工智能科技有限公司 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
CN113936042B (zh) * | 2021-12-16 | 2022-04-05 | 深圳佑驾创新科技有限公司 | 一种目标跟踪方法、装置和计算机可读存储介质 |
CN115890639A (zh) * | 2022-11-17 | 2023-04-04 | 浙江荣图智能科技有限公司 | 一种机器人视觉引导定位抓取控制系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179311A (zh) * | 2019-12-23 | 2020-05-19 | 全球能源互联网研究院有限公司 | 多目标跟踪方法、装置及电子设备 |
CN111344644A (zh) * | 2018-08-01 | 2020-06-26 | 深圳市大疆创新科技有限公司 | 用于基于运动的自动图像捕获的技术 |
CN111354037A (zh) * | 2018-12-21 | 2020-06-30 | 北京欣奕华科技有限公司 | 一种定位方法及系统 |
CN111881749A (zh) * | 2020-06-24 | 2020-11-03 | 北京工业大学 | 基于rgb-d多模态数据的双向人流量统计方法 |
CN111897429A (zh) * | 2020-07-30 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 图像显示方法、装置、计算机设备及存储介质 |
CN112541553A (zh) * | 2020-12-18 | 2021-03-23 | 深圳地平线机器人科技有限公司 | 目标对象的状态检测方法、装置、介质以及电子设备 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6009502B2 (ja) * | 2014-07-29 | 2016-10-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
WO2019084804A1 (zh) * | 2017-10-31 | 2019-05-09 | 深圳市大疆创新科技有限公司 | 一种视觉里程计及其实现方法 |
CN108734726A (zh) * | 2017-12-04 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种目标跟踪方法、装置、电子设备及存储介质 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN111402286B (zh) * | 2018-12-27 | 2024-04-02 | 杭州海康威视系统技术有限公司 | 一种目标跟踪方法、装置、系统及电子设备 |
CN109727273B (zh) * | 2018-12-29 | 2020-12-04 | 北京茵沃汽车科技有限公司 | 一种基于车载鱼眼相机的移动目标检测方法 |
EP3680858A1 (en) * | 2019-01-11 | 2020-07-15 | Tata Consultancy Services Limited | Dynamic multi-camera tracking of moving objects in motion streams |
CN111213153A (zh) * | 2019-01-30 | 2020-05-29 | 深圳市大疆创新科技有限公司 | 目标物体运动状态检测方法、设备及存储介质 |
CN111247557A (zh) * | 2019-04-23 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 用于移动目标物体检测的方法、系统以及可移动平台 |
CN112015170A (zh) * | 2019-05-29 | 2020-12-01 | 北京市商汤科技开发有限公司 | 运动物体检测及智能驾驶控制方法、装置、介质及设备 |
JP7383870B2 (ja) * | 2019-05-30 | 2023-11-21 | モービルアイ ビジョン テクノロジーズ リミテッド | デバイス、方法、システムおよびコンピュータプログラム |
CN110415276B (zh) * | 2019-07-30 | 2022-04-05 | 北京字节跳动网络技术有限公司 | 运动信息计算方法、装置及电子设备 |
CN110533699B (zh) * | 2019-07-30 | 2024-05-24 | 平安科技(深圳)有限公司 | 基于光流法的像素变化的动态多帧测速方法 |
JP7339616B2 (ja) * | 2019-08-07 | 2023-09-06 | 眞次 中村 | 速度測定装置および速度測定方法 |
CN110929567B (zh) * | 2019-10-17 | 2022-09-27 | 北京全路通信信号研究设计院集团有限公司 | 基于单目相机监控场景下目标的位置速度测量方法及系统 |
CN111583329B (zh) * | 2020-04-09 | 2023-08-04 | 深圳奇迹智慧网络有限公司 | 增强现实眼镜显示方法、装置、电子设备和存储介质 |
CN111723716B (zh) * | 2020-06-11 | 2024-03-08 | 深圳地平线机器人科技有限公司 | 确定目标对象朝向的方法、装置、系统、介质及电子设备 |
CN112509047A (zh) * | 2020-12-10 | 2021-03-16 | 北京地平线信息技术有限公司 | 基于图像的位姿确定方法、装置、存储介质及电子设备 |
CN112541938A (zh) * | 2020-12-17 | 2021-03-23 | 通号智慧城市研究设计院有限公司 | 一种行人速度测量方法、系统、介质及计算设备 |
CN112419385B (zh) * | 2021-01-25 | 2021-04-09 | 国汽智控(北京)科技有限公司 | 一种3d深度信息估计方法、装置及计算机设备 |
CN113096151B (zh) * | 2021-04-07 | 2022-08-09 | 地平线征程(杭州)人工智能科技有限公司 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
-
2021
- 2021-04-07 CN CN202110373003.XA patent/CN113096151B/zh active Active
-
2022
- 2022-02-18 JP JP2022557731A patent/JP7306766B2/ja active Active
- 2022-02-18 WO PCT/CN2022/076765 patent/WO2022213729A1/zh active Application Filing
- 2022-02-18 EP EP22783799.4A patent/EP4246437A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111344644A (zh) * | 2018-08-01 | 2020-06-26 | 深圳市大疆创新科技有限公司 | 用于基于运动的自动图像捕获的技术 |
CN111354037A (zh) * | 2018-12-21 | 2020-06-30 | 北京欣奕华科技有限公司 | 一种定位方法及系统 |
CN111179311A (zh) * | 2019-12-23 | 2020-05-19 | 全球能源互联网研究院有限公司 | 多目标跟踪方法、装置及电子设备 |
CN111881749A (zh) * | 2020-06-24 | 2020-11-03 | 北京工业大学 | 基于rgb-d多模态数据的双向人流量统计方法 |
CN111897429A (zh) * | 2020-07-30 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 图像显示方法、装置、计算机设备及存储介质 |
CN112541553A (zh) * | 2020-12-18 | 2021-03-23 | 深圳地平线机器人科技有限公司 | 目标对象的状态检测方法、装置、介质以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113096151A (zh) | 2021-07-09 |
JP7306766B2 (ja) | 2023-07-11 |
WO2022213729A1 (zh) | 2022-10-13 |
CN113096151B (zh) | 2022-08-09 |
EP4246437A1 (en) | 2023-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7306766B2 (ja) | ターゲット動き情報検出方法、装置、機器及び媒体 | |
US10192113B1 (en) | Quadocular sensor design in autonomous platforms | |
CN110163904B (zh) | 对象标注方法、移动控制方法、装置、设备及存储介质 | |
US10496104B1 (en) | Positional awareness with quadocular sensor in autonomous platforms | |
JP6571274B2 (ja) | レーザ深度マップサンプリングのためのシステム及び方法 | |
US10849543B2 (en) | Focus-based tagging of sensor data | |
WO2019179464A1 (zh) | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 | |
US10668921B2 (en) | Enhanced vehicle tracking | |
WO2023216572A1 (zh) | 一种跨视频目标跟踪方法、系统、电子设备以及存储介质 | |
JP2021504796A (ja) | センサーデータセグメンテーション | |
US20110091073A1 (en) | Moving object detection apparatus and moving object detection method | |
US10679369B2 (en) | System and method for object recognition using depth mapping | |
Samal et al. | Task-driven rgb-lidar fusion for object tracking in resource-efficient autonomous system | |
Manglik et al. | Forecasting time-to-collision from monocular video: Feasibility, dataset, and challenges | |
CN114723955A (zh) | 图像处理方法、装置、设备和计算机可读存储介质 | |
CN111986472B (zh) | 车辆速度确定方法及车辆 | |
O’Mahony et al. | Computer vision for 3d perception: a review | |
CN111783675A (zh) | 基于车辆语义感知的智慧城市视频自适应hdr控制方法 | |
CN113910224A (zh) | 机器人跟随的方法、装置及电子设备 | |
Manglik et al. | Future near-collision prediction from monocular video: Feasibility, dataset, and challenges | |
JP2024019629A (ja) | 予測装置、予測方法、プログラムおよび車両制御システム | |
GB2551239A (en) | A computer implemented method for tracking an object in a 3D scene | |
Zhang et al. | Improved SLAM Method Based on Dynamic Objects Detecting with the Fusion of Vision and Lidar | |
Høilund et al. | Improving stereo camera depth measurements and benefiting from intermediate results | |
US20240062386A1 (en) | High throughput point cloud processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220921 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7306766 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |