JP6893564B2 - ターゲット識別方法、装置、記憶媒体および電子機器 - Google Patents
ターゲット識別方法、装置、記憶媒体および電子機器 Download PDFInfo
- Publication number
- JP6893564B2 JP6893564B2 JP2019557616A JP2019557616A JP6893564B2 JP 6893564 B2 JP6893564 B2 JP 6893564B2 JP 2019557616 A JP2019557616 A JP 2019557616A JP 2019557616 A JP2019557616 A JP 2019557616A JP 6893564 B2 JP6893564 B2 JP 6893564B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- path
- information
- waiting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 60
- 238000003860 storage Methods 0.000 title claims description 12
- 238000012790 confirmation Methods 0.000 claims description 142
- 238000013527 convolutional neural network Methods 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 claims 2
- 241001417524 Pomacanthidae Species 0.000 claims 1
- 238000003384 imaging method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
本願は2017年07月28日に出願された、出願番号201710633604.3の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
図1は本発明の実施例1に係るターゲット識別方法のフローチャートである。図1に示すように、本実施例のターゲット識別方法は以下のステップを含む。
図2を参照すると、本発明の実施例2に係るターゲット識別方法のフローチャートが示される。
図3を参照すると、本発明の実施例3に係るターゲット識別方法のフローチャートが示される。本実施例では、確定待ちのターゲットが交通手段である場合を例にし、本発明の実施例のターゲット識別方法を説明するが、当業者であれば、実際の適用では、他の確定待ちのターゲットについて本実施例を参照することで対応するターゲット識別動作を実現することができることを理解すべきである。
同じ技術思想に基づき、図4は本発明の実施例4に係るターゲット識別装置を示す構成模式図である。実施例1に記載のターゲット識別方法のフローを実行するために用いることができる。
同じ技術思想に基づき、図5は本発明の実施例5に係るターゲット識別装置を示す構成模式図である。実施例2に記載のターゲット識別方法のフローを実行するために用いることができる。
同じ技術思想に基づき、図6は本発明の実施例6に係るターゲット識別装置を示す構成模式図である。実施例3に記載のターゲット識別方法のフローを実行するために用いることができる。
本発明の実施例7は電子機器を提供し、例えば移動端末、パーソナルコンピュータ(PC)、タブレット、サーバなどであってもよい。以下に図7を参照すると、本発明の実施例の端末機器またはサーバの実現に適する電子機器700の構成模式図が示される。図7に示すように、電子機器700は一つ以上のプロセッサ、通信要素などを含み、前記一つ以上のプロセッサは例えば、一つ以上の中央処理装置(CPU)701、および/または一つ以上の画像処理装置(GPU)713などであり、プロセッサは読み取り専用メモリ(ROM)702に記憶されている実行可能命令または記憶部分708からランダムアクセスメモリ(RAM)703にロードされた実行可能命令に従って様々な適当の動作および処理を実行できる。通信要素は通信コンポーネント712および/または通信インタフェース709を含む。ここで、通信コンポーネント712はネットワークカードを含むことができるが、これに限定されず、前記ネットワークカードはIB(Infiniband)ネットワークカードを含むことができるが、これに限定されず、通信インタフェース709はLANカード、モデムのネットワークインタフェースカードなどの通信インタフェースを含み、かつインターネットなどのネットワークによって通信処理を実行する。
Claims (28)
- 第一画像および第二画像を取得することであって、前記第一画像および前記第二画像がいずれも確定待ちのターゲットを含む、ことと、
前記第一画像および前記第二画像に基づき、予測経路を生成することであって、前記予測経路の両端がそれぞれ前記第一画像および前記第二画像に対応する、ことと、
前記予測経路の有効性を判断し、判断結果に基づき、前記第一画像および前記第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定することと、を含む、ターゲット識別方法。 - 前記確定待ちのターゲットは交通手段である、請求項1に記載の方法。
- 前記第一画像および前記第二画像に基づき、予測経路を生成するステップの前に、さらに、
前記第一画像の時間情報、空間情報、画像特徴情報、および、前記第二画像の時間情報、空間情報、画像特徴情報に基づき、前記第一画像および前記第二画像にそれぞれ含まれる確定待ちのターゲットが同一ターゲットである初歩的同一確率値を確定することを含み、
前記第一画像および前記第二画像に基づき、予測経路を生成するステップは、
前記初歩的同一確率値が所定値よりも大きい場合、前記第一画像および前記第二画像に基づき、前記予測経路を生成することを含む、請求項1に記載の方法。 - 前記第一画像の時間情報、空間情報、画像特徴情報、および、前記第二画像の時間情報、空間情報、画像特徴情報に基づき、前記第一画像および前記第二画像にそれぞれ含まれる確定待ちのターゲットが同一ターゲットである初歩的同一確率値を確定するステップは、
前記第一画像および前記第二画像、ならびに、前記第一画像と前記第二画像との間の時間情報の差異および空間情報の差異をシャム畳み込みニューラルネットワーク(Siamese−CNN)に入力し、前記第一画像および第二画像における確定待ちのターゲットが同一ターゲットである初歩的同一確率値を得ることを含む、請求項3に記載の方法。 - 前記第一画像および前記第二画像に基づき、予測経路を生成するステップは、
前記第一画像の特徴情報、前記第一画像の時間情報、前記第一画像の空間情報、前記第二画像の特徴情報、前記第二画像の時間情報、および前記第二画像の空間情報に基づき、確率モデルによって前記確定待ちのターゲットの予測経路を生成することを含む、請求項1から4のいずれか一項に記載の方法。 - 確率モデルによって前記確定待ちのターゲットの予測経路を生成するステップは、
得られた画像セットから鎖状マルコフ確率場モデル(MRF)によって、前記確定待ちのターゲットの情報が含まれる、前記第一画像と前記第二画像のいずれもと時空間系列関係を有する全ての画像を確定し出すことと、
確定し出した全ての画像に対応する時間情報および空間情報に基づき、前記確定待ちのターゲットの予測経路を生成することと、を含む、請求項5に記載の方法。 - 確定し出した全ての画像に対応する時間情報および空間情報に基づき、前記確定待ちのターゲットの予測経路を生成するステップは、
確定し出した全ての画像に対応する時間情報および空間情報に基づき、前記第一画像を先頭ノードと、前記第二画像を末尾ノードとした、予測経路を生成することであって、前記予測経路が、前記先頭ノードおよび前記末尾ノードに対応する以外に、さらに少なくとも一つの中間ノードに対応すること、を含む、請求項6に記載の方法。 - 得られた画像セットから鎖状マルコフ確率場モデル(MRF)によって、前記確定待ちのターゲットの情報が含まれる、前記第一画像と前記第二画像のいずれもと時空間系列関係を有する全ての画像を確定し出すステップは、
前記第一画像の空間情報に対応する位置を開始位置とし、前記第二画像の空間情報に対応する位置を終了位置とし、前記開始位置から前記終了位置までの全ての撮影機器の位置情報を取得することと、
全ての撮影機器の位置情報が示す位置間の関係に基づき、前記開始位置に対応する撮影機器を起点とし、前記終了位置に対応する撮影機器を終点とし、少なくとも一つの機器経路を生成することであって、各機器経路が、前記起点の撮影機器および前記終点の撮影機器以外に、少なくとも一つの他の撮影機器の情報をさらに含む、ことと、
各機器経路に対して、前記第一画像の時間情報に対応する時間を開始時間とし、前記第二画像の時間情報に対応する時間を終了時間とし、現在の経路における各々の他の撮影機器が撮影した画像から、現在の撮影機器に隣接する1つ前の撮影機器が撮影した前記確定待ちのターゲットの情報を含む画像との設定時系列関係を有し、かつ前記確定待ちのターゲットの情報を含む画像を確定することと、を含む、請求項7に記載の方法。 - 確定し出した全ての画像に対応する時間情報および空間情報に基づき、前記第一画像を先頭ノードと、前記第二画像を末尾ノードとした予測経路を生成するステップは、
各機器経路に対して、確定した前記画像の時系列関係に基づいて、互いに接続された、時空間系列関係を有する複数の中間ノードを生成し、前記先頭ノード、前記末尾ノード、および前記中間ノードに基づき、現在の機器経路に対応した、時空間系列関係を有する画像経路を生成することと、
各機器経路に対応する画像経路から、前記第一画像を先頭ノードと、前記第二画像を末尾ノードとした、確率最大画像経路を前記確定待ちのターゲットの予測経路として確定することと、を含む、請求項8に記載の方法。 - 各機器経路に対応する画像経路から、前記第一画像を先頭ノードと、前記第二画像を末尾ノードとした、確率最大画像経路を前記確定待ちのターゲットの予測経路として確定するステップは、
各機器経路に対応する画像経路に対して、前記画像経路における各隣接の二つのノードの画像同士が同一確定待ちのターゲットの情報を有する確率を取得することと、
前記画像経路における各隣接の二つのノードの画像同士が同一確定待ちのターゲットの情報を有する確率に基づいて、前記画像経路が前記確定待ちのターゲットの予測経路とされる確率を計算することと、
各画像経路が前記確定待ちのターゲットの予測経路とされる確率に基づいて、確率最大画像経路を前記確定待ちのターゲットの予測経路として確定することと、を含む、請求項9に記載の方法。 - 前記予測経路の有効性を判断し、判断結果に基づき、前記第一画像および前記第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定するステップは、
ニューラルネットワークによって、前記予測経路の有効性を判断し、判断結果に基づき、前記第一画像および第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定することを含む、請求項1から10のいずれか一項に記載の方法。 - ニューラルネットワークによって、前記予測経路の有効性を判断し、判断結果に基づき、前記第一画像および第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定するステップは、
前記予測経路における隣接画像の時間情報に基づき、隣接画像の時間差異を取得し、隣接画像の空間情報に基づき、隣接画像の空間差異を取得し、隣接画像における確定待ちのターゲットの特徴情報に基づき、隣接画像における確定待ちのターゲットの特徴差異を取得することと、
取得した前記予測経路における隣接画像の時間差異、空間差異および特徴差異を長短期記憶ネットワーク(LSTM)に入力し、前記予測経路の確定待ちのターゲットの識別確率を取得することと、
前記予測経路の確定待ちのターゲットの識別確率に基づき、前記第一画像および第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定することと、を含む、請求項11に記載の方法。 - 隣接画像における確定待ちのターゲットの特徴情報に基づき、隣接画像における確定待ちのターゲットの特徴差異を取得するステップは、
Siamese−CNNによって隣接画像における確定待ちのターゲットの特徴情報をそれぞれ取得することと、
それぞれ取得した前記特徴情報に基づき、隣接画像における確定待ちのターゲットの特徴差異を取得することと、を含む、請求項12に記載の方法。 - 第一画像および第二画像を取得するように構成された取得モジュールであって、前記第一画像および前記第二画像がいずれも確定待ちのターゲットを含む、取得モジュールと、
前記第一画像および前記第二画像に基づき、予測経路を生成するように構成された生成モジュールであって、前記予測経路の両端がそれぞれ前記第一画像および前記第二画像に対応する、生成モジュールと、
前記予測経路の有効性を判断し、判断結果に基づき、前記第一画像および前記第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定するように構成された第一確定モジュールと、を含む、ターゲット識別装置。 - 前記確定待ちのターゲットは交通手段である、請求項14に記載の装置。
- さらに、
前記第一画像の時間情報、空間情報、画像特徴情報、および、前記第二画像の時間情報、空間情報、画像特徴情報に基づき、前記第一画像および前記第二画像にそれぞれ含まれる確定待ちのターゲットが同一ターゲットである初歩的同一確率値を確定するように構成された第二確定モジュールを含み、
前記生成モジュールは、
前記初歩的同一確率値が所定値よりも大きい場合、前記第一画像および前記第二画像に基づき、前記予測経路を生成するように構成された第一生成サブモジュールを含む、請求項14に記載の装置。 - 前記第二確定モジュールは、
前記第一画像および前記第二画像、ならびに、前記第一画像と前記第二画像との間の時間情報の差異および空間情報の差異をシャム畳み込みニューラルネットワーク(Siamese−CNN)に入力し、前記第一画像および第二画像における確定待ちのターゲットが同一ターゲットである初歩的同一確率値を得るように構成された第一確定サブモジュールを含む、請求項16に記載の装置。 - 前記生成モジュールは、
前記第一画像の特徴情報、前記第一画像の時間情報、前記第一画像の空間情報、前記第二画像の特徴情報、前記第二画像の時間情報、および前記第二画像の空間情報に基づき、確率モデルによって前記確定待ちのターゲットの予測経路を生成するように構成された第
二生成サブモジュールを含む、請求項14から17のいずれか一項に記載の装置。 - 前記第二生成サブモジュールは、
得られた画像セットから鎖状マルコフ確率場モデル(MRF)によって、前記確定待ちのターゲットの情報が含まれる、前記第一画像と前記第二画像のいずれもと時空間系列関係を有する全ての画像を確定し出すように構成された第一確定ユニットと、
確定し出した全ての画像に対応する時間情報および空間情報に基づき、前記確定待ちのターゲットの予測経路を生成するように構成された第一生成ユニットと、を含む、請求項18に記載の装置。 - 前記第一生成ユニットは、
確定し出した全ての画像に対応する時間情報および空間情報に基づき、前記第一画像を先頭ノードと、前記第二画像を末尾ノードとした、予測経路を生成するように構成された第二生成ユニットであって、前記予測経路が、前記先頭ノードおよび前記末尾ノードに対応する以外に、さらに少なくとも一つの中間ノードに対応する第二生成ユニットを含む、請求項19に記載の装置。 - 前記第一確定ユニットは、
前記第一画像の空間情報に対応する位置を開始位置とし、前記第二画像の空間情報に対応する位置を終了位置とし、前記開始位置から前記終了位置までの全ての撮影機器の位置情報を取得し、
全ての撮影機器の位置情報が示す位置間の関係に基づき、前記開始位置に対応する撮影機器を起点とし、前記終了位置に対応する撮影機器を終点とし、少なくとも一つの機器経路を生成し、各機器経路が、前記起点の撮影機器および前記終点の撮影機器以外に、少なくとも一つの他の撮影機器の情報をさらに含み、
各機器経路に対して、前記第一画像の時間情報に対応する時間を開始時間とし、前記第二画像の時間情報に対応する時間を終了時間とし、現在の経路における各々の他の撮影機器が撮影した画像から、現在の撮影機器に隣接する1つ前の撮影機器が撮影した前記確定待ちのターゲットの情報を含む画像との設定時系列関係を有し、かつ前記確定待ちのターゲットの情報を含む画像を確定するように構成される、請求項20に記載の装置。 - 前記第二生成ユニットは、
各機器経路に対して、確定した前記画像の時系列関係に基づいて、互いに接続された、時空間系列関係を有する複数の中間ノードを生成し、前記先頭ノード、前記末尾ノード、および前記中間ノードに基づき、現在の機器経路に対応した、時空間系列関係を有する画像経路を生成し、
各機器経路に対応する画像経路から、前記第一画像を先頭ノードと、前記第二画像を末尾ノードとした、確率最大画像経路を前記確定待ちのターゲットの予測経路として確定するように構成される、請求項21に記載の装置。 - 前記第二生成ユニットはさらに、
各機器経路に対応する画像経路に対して、前記画像経路における各隣接の二つのノードの画像同士が同一確定待ちのターゲットの情報を有する確率を取得し、
前記画像経路における各隣接の二つのノードの画像同士が同一確定待ちのターゲットの情報を有する確率に基づいて、前記画像経路が前記確定待ちのターゲットの予測経路とされる確率を計算し、
各画像経路が前記確定待ちのターゲットの予測経路とされる確率に基づいて、確率最大画像経路を前記確定待ちのターゲットの予測経路として確定するように構成される、請求項22に記載の装置。 - 前記第一確定モジュールは、
ニューラルネットワークによって、前記予測経路の有効性を判断し、判断結果に基づき、前記第一画像および第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定するように構成された第二確定サブモジュールを含む、請求項14から23のいずれか一項に記載の装置。 - 前記第二確定サブモジュールは、
前記予測経路における隣接画像の時間情報に基づき、隣接画像の時間差異を取得し、隣接画像の空間情報に基づき、隣接画像の空間差異を取得し、隣接画像における確定待ちのターゲットの特徴情報に基づき、隣接画像における確定待ちのターゲットの特徴差異を取得するように構成された第一取得ユニットと、
取得した前記予測経路における隣接画像の時間差異、空間差異および特徴差異を長短期記憶ネットワーク(LSTM)に入力し、前記予測経路の確定待ちのターゲットの識別確率を取得するように構成された第二取得ユニットと、
前記予測経路の確定待ちのターゲットの識別確率に基づき、前記第一画像および第二画像における確定待ちのターゲットが同一確定待ちのターゲットであるかどうかを確定するように構成された第二確定ユニットと、を含む、請求項24に記載の装置。 - 前記第一取得ユニットは、
Siamese−CNNによって隣接画像における確定待ちのターゲットの特徴情報をそれぞれ取得し、
それぞれ取得した前記特徴情報に基づき、隣接画像における確定待ちのターゲットの特徴差異を取得するように構成される、請求項25に記載の装置。 - コンピュータプログラム命令が記憶されているコンピュータ読み取り可能記憶媒体であって、前記プログラム命令がプロセッサに実行される時に請求項1から13のいずれか一項に記載のターゲット識別方法のステップを実現する、コンピュータ読み取り可能記憶媒体。
- プロセッサ、メモリ、通信要素および通信バスを含み、前記プロセッサ、前記メモリおよび前記通信要素は前記通信バスによって互いに通信し、
前記メモリは、前記プロセッサに請求項1から13のいずれか一項に記載のターゲット識別方法のステップを実行させる少なくとも一つの実行可能命令を記憶するために用いられる、電子機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710633604.3A CN108229292A (zh) | 2017-07-28 | 2017-07-28 | 目标识别方法、装置、存储介质和电子设备 |
CN201710633604.3 | 2017-07-28 | ||
PCT/CN2018/097374 WO2019020103A1 (zh) | 2017-07-28 | 2018-07-27 | 目标识别方法、装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020519989A JP2020519989A (ja) | 2020-07-02 |
JP6893564B2 true JP6893564B2 (ja) | 2021-06-23 |
Family
ID=62654256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019557616A Active JP6893564B2 (ja) | 2017-07-28 | 2018-07-27 | ターゲット識別方法、装置、記憶媒体および電子機器 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11200682B2 (ja) |
JP (1) | JP6893564B2 (ja) |
KR (1) | KR102339323B1 (ja) |
CN (1) | CN108229292A (ja) |
SG (1) | SG11201911625YA (ja) |
WO (1) | WO2019020103A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229292A (zh) | 2017-07-28 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标识别方法、装置、存储介质和电子设备 |
CN108921811B (zh) * | 2018-04-03 | 2020-06-30 | 阿里巴巴集团控股有限公司 | 检测物品损伤的方法和装置、物品损伤检测器 |
CN109508787A (zh) * | 2018-10-16 | 2019-03-22 | 深圳大学 | 用于超声位移估计的神经网络模型训练方法及系统 |
CN111160067A (zh) * | 2018-11-07 | 2020-05-15 | 北京奇虎科技有限公司 | 危险识别方法、装置、电子设备及计算机可读存储介质 |
CN109740479A (zh) * | 2018-12-25 | 2019-05-10 | 苏州科达科技股份有限公司 | 一种车辆重识别方法、装置、设备及可读存储介质 |
CN109726684B (zh) * | 2018-12-29 | 2021-02-19 | 百度在线网络技术(北京)有限公司 | 一种地标元素获取方法和地标元素获取系统 |
US10373323B1 (en) * | 2019-01-29 | 2019-08-06 | StradVision, Inc. | Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using V2X-enabled applications, sensor fusion via multiple vehicles |
WO2021003379A1 (en) | 2019-07-03 | 2021-01-07 | Waymo Llc | Agent trajectory prediction using anchor trajectories |
CN110443828A (zh) * | 2019-07-31 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 对象跟踪方法和装置、存储介质及电子装置 |
CN110490906A (zh) * | 2019-08-20 | 2019-11-22 | 南京邮电大学 | 一种基于孪生卷积网络和长短期记忆网络的实时视觉目标跟踪方法 |
CN110728330A (zh) * | 2019-10-23 | 2020-01-24 | 腾讯科技(深圳)有限公司 | 基于人工智能的对象识别方法、装置、设备及存储介质 |
CN110991413B (zh) * | 2019-12-20 | 2020-12-15 | 西南交通大学 | 一种基于ReID的跑步检测方法 |
CN112766301B (zh) * | 2020-12-11 | 2024-04-12 | 南京富岛信息工程有限公司 | 一种采油机示功图相似性判断方法 |
CN113627260A (zh) * | 2021-07-12 | 2021-11-09 | 科大讯飞股份有限公司 | 识别手写汉字的笔顺的方法、系统和计算设备 |
CN113673412B (zh) * | 2021-08-17 | 2023-09-26 | 驭势(上海)汽车科技有限公司 | 关键目标物的识别方法、装置、计算机设备及存储介质 |
CN113688776B (zh) * | 2021-09-06 | 2023-10-20 | 北京航空航天大学 | 一种用于跨视场目标重识别的时空约束模型构建方法 |
CN114338974A (zh) * | 2021-12-02 | 2022-04-12 | 深圳市领航卫士安全技术有限公司 | 多通道的活动路径确定方法、装置、设备及存储介质 |
CN114783003B (zh) * | 2022-06-23 | 2022-09-20 | 之江实验室 | 一种基于局部特征注意力的行人重识别方法和装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001208844A (ja) * | 2000-01-25 | 2001-08-03 | Sumitomo Electric Ind Ltd | 光学式車両感知装置および光学式車両感知方法 |
US7623674B2 (en) * | 2003-11-05 | 2009-11-24 | Cognex Technology And Investment Corporation | Method and system for enhanced portal security through stereoscopy |
JP4447309B2 (ja) * | 2003-12-25 | 2010-04-07 | 財団法人生産技術研究奨励会 | 交差点交通量計測装置および交差点交通量計測方法 |
US9002060B2 (en) * | 2012-06-28 | 2015-04-07 | International Business Machines Corporation | Object retrieval in video data using complementary detectors |
JP5941987B2 (ja) * | 2012-08-08 | 2016-06-29 | 株式会社日立製作所 | 交通量予測装置および方法 |
US9436895B1 (en) * | 2015-04-03 | 2016-09-06 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining similarity of objects represented in images |
JP6439571B2 (ja) * | 2015-04-28 | 2018-12-19 | オムロン株式会社 | 交通情報収集装置、交通情報収集方法、および交通情報収集プログラム |
CN105095362B (zh) * | 2015-06-25 | 2019-02-22 | 深圳码隆科技有限公司 | 一种基于目标对象的图像显示方法和装置 |
JP6521835B2 (ja) * | 2015-10-27 | 2019-05-29 | 日本電信電話株式会社 | 移動経路予測装置、移動経路予測方法、及び移動経路予測プログラム |
JP6433877B2 (ja) * | 2015-10-27 | 2018-12-05 | 日本電信電話株式会社 | 目的地予測装置、目的地予測方法、及び目的地予測プログラム |
WO2017122086A1 (en) * | 2016-01-11 | 2017-07-20 | Mobileye Vision Technologies Ltd. | Systems and methods for augmenting upright object detection |
CN106326837B (zh) * | 2016-08-09 | 2019-09-17 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
CN106778517A (zh) * | 2016-11-25 | 2017-05-31 | 河南高速公路驻信段改扩建工程有限公司 | 一种监控视频序列图像车辆再识别的方法 |
CN106650660A (zh) * | 2016-12-19 | 2017-05-10 | 深圳市华尊科技股份有限公司 | 一种车型识别方法及终端 |
CN108229292A (zh) * | 2017-07-28 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标识别方法、装置、存储介质和电子设备 |
-
2017
- 2017-07-28 CN CN201710633604.3A patent/CN108229292A/zh active Pending
-
2018
- 2018-07-27 JP JP2019557616A patent/JP6893564B2/ja active Active
- 2018-07-27 WO PCT/CN2018/097374 patent/WO2019020103A1/zh active Application Filing
- 2018-07-27 KR KR1020197031657A patent/KR102339323B1/ko active IP Right Grant
- 2018-07-27 SG SG11201911625YA patent/SG11201911625YA/en unknown
-
2019
- 2019-09-09 US US16/565,069 patent/US11200682B2/en active Active
-
2021
- 2021-10-29 US US17/452,776 patent/US20220051417A1/en not_active Abandoned
- 2021-11-03 US US17/453,487 patent/US20220058812A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN108229292A (zh) | 2018-06-29 |
KR20190128724A (ko) | 2019-11-18 |
US20220051417A1 (en) | 2022-02-17 |
JP2020519989A (ja) | 2020-07-02 |
US11200682B2 (en) | 2021-12-14 |
US20200005090A1 (en) | 2020-01-02 |
WO2019020103A1 (zh) | 2019-01-31 |
KR102339323B1 (ko) | 2021-12-14 |
US20220058812A1 (en) | 2022-02-24 |
SG11201911625YA (en) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6893564B2 (ja) | ターゲット識別方法、装置、記憶媒体および電子機器 | |
CN109188457B (zh) | 物体检测框的生成方法、装置、设备、存储介质及车辆 | |
JP7335274B2 (ja) | ジオロケーションの予測のためのシステムおよび方法 | |
US20180300549A1 (en) | Road detecting method and apparatus | |
US10037607B2 (en) | Topology determination for non-overlapping camera network | |
CN110033386B (zh) | 车辆事故的鉴定方法及装置、电子设备 | |
WO2020232909A1 (zh) | 行人视觉跟踪方法、模型训练方法、装置、设备及存储介质 | |
JP2019145174A (ja) | 画像処理システム、画像処理方法及びプログラム記憶媒体 | |
CN111767750A (zh) | 图像处理方法和装置 | |
JP2024533864A (ja) | ユニバーサル敵対的摂動を生成するためのニューラルネットワークを訓練するための方法およびシステム | |
CN110490058B (zh) | 行人检测模型的训练方法、装置、系统和计算机可读介质 | |
CN115546705A (zh) | 目标识别方法、终端设备及存储介质 | |
CN114429641A (zh) | 一种时序动作检测方法、装置、存储介质及终端 | |
CN116579460A (zh) | 信息预测方法、装置、计算机设备和存储介质 | |
CN111553474A (zh) | 船只检测模型训练方法及基于无人机视频的船只跟踪方法 | |
US20230410523A1 (en) | Information processing apparatus, control method, and program | |
CN111310595A (zh) | 用于生成信息的方法和装置 | |
CN111611836A (zh) | 基于背景消除法的船只检测模型训练及船只跟踪方法 | |
CN112150529A (zh) | 一种图像特征点的深度信息确定方法及装置 | |
CN115393423A (zh) | 目标检测方法和装置 | |
CN113762017B (zh) | 一种动作识别方法、装置、设备及存储介质 | |
Sen et al. | Pothole detection system using object detection through dash cam video feed | |
CN114596580B (zh) | 一种多人体目标识别方法、系统、设备及介质 | |
CN118262099A (zh) | 图像遮挡识别方法、装置、设备及介质 | |
CN117830354A (zh) | 轨迹的获取方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6893564 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |