JP7268076B2 - 車両再識別の方法、装置、機器及び記憶媒体 - Google Patents

車両再識別の方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP7268076B2
JP7268076B2 JP2021050599A JP2021050599A JP7268076B2 JP 7268076 B2 JP7268076 B2 JP 7268076B2 JP 2021050599 A JP2021050599 A JP 2021050599A JP 2021050599 A JP2021050599 A JP 2021050599A JP 7268076 B2 JP7268076 B2 JP 7268076B2
Authority
JP
Japan
Prior art keywords
vehicle
image
camera
preselected
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021050599A
Other languages
English (en)
Other versions
JP2021103565A (ja
Inventor
ミンユエ ジアン、
シャオ タン、
ハオ スン、
ホンウー チャン、
シレイ ウエン、
エルイ ディン、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021103565A publication Critical patent/JP2021103565A/ja
Application granted granted Critical
Publication of JP7268076B2 publication Critical patent/JP7268076B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Description

本願の実施例は、コンピュータ技術分野におけるスマート検索分野に関し、特に、車両再識別の方法、装置、機器及び記憶媒体に関する。
車両再識別(Vehicle Re-indentiftication、Reid)技術は、車両検索、車両追跡などの分野に広く適用されている。
現在の車両再識別方法は、サーバが第1のカメラによって撮影された第1の車両の第1の画像を受信した後、第1の車両の第1のグローバル特徴を抽出し、当該第1のグローバル特徴と車両画像ライブラリにおける第2の画像から抽出した車両の第2のグローバル特徴を比較して、車両画像ライブラリに含まれる車両画像から第1の車両の画像を決定することである。上記車両再識別方法には、2つの車両の外観が非常に似ている場合、2つの車両の画像を同一車両の画像と判断を誤る場合があるという問題があり、即ち、現在の車両再識別方法には、精度が低い技術的問題がある。
本願は車両再識別の方法、装置、機器及び記憶媒体を提供し、車両再識別の精度を向上させる。
本願の第1の態様では、車両再識別方法を提供し、端末機器からの再識別要求を受信することであって、前記再識別要求は、第1のカメラによって撮影された第1の車両の第1の画像と前記第1のカメラの情報を含むことと、前記第1の画像に基づいて、前記第1の車両の第1の特徴と第1の車両の第1の車両ヘッド向きを取得することと、前記第1の特徴、画像データベースにおける複数の車両の画像から抽出された複数の第2の特徴、前記第1の車両ヘッド向き及び前記第1のカメラの情報に基づいて、前記複数の車両の画像から前記第1の車両の第2の画像を決定することと、前記第2の画像を端末機器に送信することと、を含む。
本願の第2の態様では、車両再識別装置を提供し、端末機器からの再識別要求を受信することに用いられる送受信モジュールであって、前記再識別要求は、第1のカメラによって撮影された第1の車両の第1の画像と前記第1のカメラの情報を含む送受信モジュールと、前記第1の画像に基づいて、前記第1の車両の第1の特徴と前記第1の車両の第1車両ヘッド向きを取得するための処理モジュールと、を含み、前記処理モジュールは、前記第1の特徴、画像データベースにおける複数の車両の画像に基づいて抽出された複数の第2の特徴、前記第1の車両ヘッド向き及び前記第1のカメラの情報に基づいて、前記複数の車両の画像から前記第1の車両の第2の画像を決定することに用いられ、前記送受信モジュールは、さらに、前記第2の画像を端末機器に送信することに用いられる。
本願の第3の態様では、電子機器を提供し、少なくとも1つのプロセッサ、及び前記少なくとも1つのプロセッサと通信的に接続されるメモリ、を含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサは上記の第1の態様に記載の方法を実行することができる。
本願の第4の態様では、コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体を提供し、前記コンピュータ命令は、コンピュータが上記の第1の態様に記載の方法を実行するようにするためのものである。
第5の態様では、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータ可読記憶媒体に記憶され、電子機器の少なくとも1つのプロセッサは、前記コンピュータ可読記憶媒体から前記コンピュータプログラムを読み取ることができ、前記少なくとも1つのプロセッサは、前記コンピュータプログラムを実行することによって、前記電子機器に上記の第1の態様に記載の方法を実行させる。
本願の技術は車両再識別の精度を向上させる。
なお、この部分に記載されている内容は、本願の実施例の肝心な又は重要な特徴を特定することを意図しておらず、本願の範囲を限定するものでもない。本願の他の特徴は、以下の説明を通じて容易に理解される。
図面は、本解決手段をよりよく理解するために使用され、本願を限定するものではない。
本願の実施例に係るシステムアーキテクチァーである。 本願の実施例に係る車両再識別方法のフローチャートである。 本願の実施例に係る画像での車両の車両ヘッド向きの模式図である。 本願の実施例に係る車両ヘッド向きとカメラの情報に基づく車両再識別の模式図1である。 本願の実施例に係る車両ヘッド向きとカメラの情報に基づく車両再識別の模式図2である。 本願の実施例に係る車両再識別装置の構造模式図である。 本願の実施例の車両再識別方法を実現するための電子機器のブロック図である。
以下、図面を組み合わせて本願の例示的な実施例を説明し、理解を容易にするためにその中には本願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
本願をよりよく理解するために、本願は次のような要素を導入する。
カメラAが車両の画像を撮影した後、次に当該車両の画像を撮影したカメラがカメラBであると、カメラAとカメラBは隣接している。あるいは、カメラBが車両の画像を撮影した後、次に当該車両の画像を撮影したカメラがカメラAであると、カメラAとカメラBは隣接している。
本願の実施例は、車両再識別の精度を高めるためのコンピュータ視覚、スマート検索、深層学習、知能交通領域に関する。
現在の車両再識別方法は、サーバが第1のカメラによって撮影された第1の車両の第1の画像を受信した後、第1の車両の第1のグローバル特徴を抽出し、当該第1のグローバル特徴と車両画像ライブラリにおける第2の画像から抽出した車両の第2のグローバル特徴を比較して、車両画像ライブラリに含まれる車両画像から第1の車両の画像を決定することである。上記車両再識別方法には、2つの車両の外観が非常に似ている場合、2つの車両の画像を同一車両の画像と判断を誤る場合があるという問題があり、即ち、現在の車両再識別方法には、精度が低い技術的問題がある。
当該技術的問題を解決するために、本願ではカメラの情報とカメラが撮影した画像での車両の車両ヘッド向きを導入し、車両再識別の精度を向上させる。
図1は、本願の実施例に係るシステム構造の模式図であり、図1を参照すると、当該システムアーキテクチャーはサーバ及び端末機器を含む。
端末機器は、第1のカメラによって撮影された第1の車両の第1の画像と第1のカメラの情報を含む再識別要求をサーバに送信する。サーバは、第1の画像に基づいて、第1の画像に基づいて、第1の車両の第1の特徴と第1の車両の第1の車両ヘッド向きを取得し、第1の特徴、画像データベースにおける複数の車両の画像から抽出された複数の第2の特徴、第1の車両ヘッド向き及び第1のカメラの情報に基づいて、複数の車両の画像から第1の車両の第2の画像を決定する。サーバは、第2の画像を端末機器に送信する。サーバは、さらに第2の画像の撮影時間、第2の画像を撮影したカメラの情報などを端末機器に送信してもよいことが理解できる。
以下は、具体的な実施例を用いて、本願の車両再識別方法について説明する。
図2は、本願の実施例に係る車両再識別方法のフローチャートであり、図2を参照して、本実施例の方法は、以下を含む。
ステップS201、端末機器は、第1のカメラによって撮影された第1の車両の第1の画像と第1のカメラの情報を含む再識別要求をサーバに送信する。
カメラが画像を撮影すると、画像、画像の撮影時間、カメラの情報が関連して記憶されることが理解できる。ただし、カメラの情報は、カメラの地理位置とカメラのレンズの向きを含む。
即ち、第1の車両の第1の画像は、第1の画像の撮影時間及び第1のカメラの情報と関連して記憶されるため、再識別要求には、第1の画像の撮影時間も含まれてもよい。
任意選択で、再識別要求には、プリセット時間帯が含まれてもよい。
第1の車両の少なくとも一つのフレームの第1の画像の取得方法は、サーバが第1のカメラが第1の時間帯内に撮影した少なくとも一つのフレームの画像を取得し、ターゲット検出方法を用いて少なくとも一つのフレームの画像から第1の車両を検出し、第1の車両の少なくとも一つのフレームの第1の画像を得ることであってよい。第1の画像の撮影時間は当該第1の時間帯に属することが理解できる。
ステップS202、サーバは、第1の画像に基づいて、第1の車両の第1の特徴と第1の車両の第1の車両ヘッド向きを取得する。
当該ステップにおいて、サーバが基づく第1の画像は、再識別要求に含まれた全ての第1の画像としてもよく、解像度がプリセット解像度より小さい第1の画像を除去した後に残った第1の画像とすることもできる。
第1の車両の第1の特徴は、第1の画像に基づいて得られたものであるため、第1の車両の第1の特徴は少なくとも、車両のグローバル特徴のような車両の外観と類似しているので、一つの解決手段において、第1の車両の第1の特徴は、第1の車両のグローバル特徴である。別の解決手段では、第1の車両の第1の特徴は、第1の車両のグローバルサブ特徴と特徴点サブ特徴が融合した特徴である。ここで、N個の特徴点を定義することができ、第1の車両の特徴点サブ特徴は、第1の車両のN個の特徴点のうちの少なくとも一部の特徴点の特徴を含む。ここで、車両のグローバル特徴は、車両の輪郭情報、車両の色情報、車両の型番情報などの情報のうちの少なくとも1つを含むことができる。
本実施例における第1の車両の車両ヘッド向きは、第1の車両の第1の画像での車両の車両ヘッド向きによって得られたものであって、例えば車両は図3のA図では車両ヘッド向きが下上向きであり、図3のB図では車両ヘッド向きが上向きであり、図3のC図では車両ヘッド向きが右側である。
画像での車両の車両ヘッド向きは、当該画像を撮影したカメラのレンズの向き及び車両の現在の走行姿勢に関連することが理解できる。例えば、車両の走行姿勢にしたがってカメラのレンズの向きが車両の車両ヘッドに対向すると、撮影された画像は図3のA図のように、画像での車両の車両ヘッド向きは下に向けている。車両の走行姿勢にしたがってカメラのレンズの向きが車両の左側であると、撮影された画像は図3のC図のように、画像での車両の車両ヘッド向きは右に向けている。車両の走行姿勢にしたがってカメラのレンズが車尾に対向すると、撮影された画像は図3のB図のように、画像での車両の車両ヘッド向きは上に向けている。
ステップS203、サーバは、第1の特徴、画像データベースにおける複数の車両の画像から抽出された複数の第2の特徴、第1の車両の第1の車両ヘッド向き及び第1のカメラの情報に基づいて、複数の車両の画像から第1の車両の第2の画像を決定する。
再識別要求にプリセット時間帯が含まれている場合、複数の車両の画像は、プリセット時間帯にプリセット領域内のカメラによって撮影された車両画像であることが理解できる。
本実施での複数の車両は、複数の第2の特徴と一々対応する。第1の車両の第1の特徴が第1の車両のグローバル特徴である場合には、第2の特徴も車両のグローバル特徴であり、第1の車両の第1の特徴が第1の車両のグローバルサブ特徴と特徴点サブ特徴を融合した特徴である場合には、第2の特徴も対応する車両のグローバルサブ特徴と特徴点サブ特徴を融合した特徴であることが理解できる。また、第1の特徴の取得方法は、第2の特徴の取得方法と同じである。
画像データベースにおける画像に対応するいずれかの車両について、当該車両がカメラの撮影範囲に現れてから車両が当該カメラの撮影範囲から消えるまでの時間帯において、当該カメラは車両の少なくとも一つのフレームの画像を撮影することができ、当該車両の少なくとも一つのフレームの画像に基づいて、その車両の第2の特徴を得ることができることが理解できる。
本実施例における車両再識別方法は、車両の特徴だけでなく、画像での車両の車両ヘッド向きと当該画像を撮影したカメラの情報も考慮し、画像での車両の車両ヘッド向きと当該画像を撮影したカメラの情報に基づいて、当該車両が隣接するカメラによって撮影された当該車両の画像での予測車両ヘッド向きを予測することができる。このようにして、隣接するカメラによって撮影された特徴は似ているが、車両ヘッド向きは予測車とは違った画像をフィルタする。したがって、本実施例の方法は、再識別される車両の外観に似た車両の画像を再識別される車両と識別する確率を低減し、車両再識別の精度を向上させることができる。例えば、再識別対象車両は車両aであり、車両bの特徴は車両aの特徴と類似度が高く、車両bの車両ヘッドが第1の方向に向いているが、撮影車両bのカメラbのレンズの向きによって、車両aがカメラbを通過する時の車両ヘッド向きが第2の方向になると予測されるので、車両bと車両aが同じ車両ではないと判断できる。即ち、車両bの画像を正確にしない。車両aがカメラbで撮影された画像とする。
ステップS204、サーバは、複数の車両の画像から第1の車両の第2の画像を端末機器に送信する。
第2の画像は、第2の画像の撮影時間、第2の画像を撮影するカメラの情報と関連して記憶されているので、サーバは、第2の画像の撮影時間、第2の画像を撮影するカメラの情報を端末機器に送信することが理解できる。
本実施例における車両再識別方法は、車両の特徴だけでなく、画像での車両の車両ヘッド向きや対応するカメラの情報も考慮しているので、再識別される車両の外観に似た車両の画像を当該再識別される車両と識別する確率を低減することができ、車両再識別の精度を向上させることができる。
以下、いくつかの具体的な実施例を用いて、図2に示す実施例を詳細に説明する。
まず、具体的な実施例を用いて、第1の画像から第1の画像を取得する第1の特徴について説明する。
一態様では、第1の車両の第1の特徴は、第1の車両のグローバル特徴を含み、これに応じて、第1の車両の第1の画像に基づいて第2のニューラルネットワークモデルを用いて第1の車両のグローバル特徴を取得することを含む。ここで、第2のニューラルネットワークモデルは、車両のグローバル特徴を抽出するために事前に訓練されたニューラルネットワークモデルである。
第1の画像は少なくとも一つのフレームであり、具体的な実施において、少なくとも一つのフレームの第1の画像に基づいて、第2のニューラルネットワークモデルを用いて第1の車両のグローバル特徴を取得することは、以下のa1~a2を含むことが理解できる。
a1は、各フレームの第1の画像について、当該第1の画像に基づいて、当該第1の画像に対応する第1の車両のグローバル特徴を第2のニューラルネットワークモデルを用いて取得する。
即ち、第1の画像に基づいて第2のニューラルネットワークモデルの入力ベクトルが得られ、当該入力ベクトルを第2のニューラルネットワークモデルに入力し、第2のニューラルネットワークモデルに対応するアルゴリズムを介して計算した後、第2のニューラルネットワークモデルの出力ベクトルが得られ、当該出力ベクトルは第1の車両が当該第1の画像に対応するグローバル特徴である。
a2は、第1の画像のフレーム数が複数フレームである場合には、第1の車両と各第1の画像に対応するグローバル特徴に基づいて、第1の車両のグローバル特徴を得る。
一具体的な実施において、第1の車両と各第1の画像に対応するグローバル特徴に基づいて、第1の車両のグローバル特徴を得ることは、各第1の画像に基づいて、第2のニューラルネットワークモデルを用いて得られた出力ベクトルを平均値にとり、得られたベクトルを第1の車両のグローバル特徴とすることを含む。ここで、複数のベクトルは平均値を取るという意味は、各ベクトルの同じ位置の成分を加算して平均値をとるということです。
このようにして、第1の車両の第1の特徴を取得する効率が高い。
他の態様では、第1の画像に応じて、第1の車両の第1の特徴を取得することは、以下のb1~b2を含む。
b1は、第1の画像に基づいて、第1の車両のグローバルサブ特徴を第2のニューラルネットワークモデルを用いて取得する。
当該ステップの具体的な実現は、上記a1~a2に記載されたものを参照することができ、ここでは繰り返して説明しない。
b2、第1の画像に基づいて、第1の車両の特徴点サブ特徴を第3のニューラルネットワークモデルを用いて取得する。
具体的な実施において、第1の画像に基づいて、第3のニューラルネットワークモデルを用いて第1の車両の特徴点サブ特徴を取得することは、b21~b23を含む。
b21は、各フレームの第1の画像について、第1の画像を予め訓練された特徴点抽出モデルに入力し、特徴点抽出モデルの出力結果に基づいて、第1の車両の特徴点と特徴点の識別を含む第1の車両の特徴点情報を取得する。
ここで、特徴点抽出モデルは、訓練データを取得し、取得したトレーニングデータには、各訓練車両画像及び各訓練車両画像での車両の特徴点情報が含まれており、特徴点情報には、訓練車両の各特徴点及び各特徴点の識別情報が含まれている。訓練中は、訓練車両画像から得られたベクトルを入力として、車両画像中の訓練車両の特徴点情報を所望の出力として訓練し、ニューラルネットワークを訓練し、特徴点抽出モデルを得る。
b22、第1の車両と各第1の画像に対応する特徴点情報に含まれる同じ目の特徴点を選択する。各フレームの第1の画像に対して、ターゲット特徴点に基づいて、第1の車両が第1の画像に対応する特徴点サブ特徴を取得する。
本ステップは、以下のようにすることができ、各フレームの第1の画像について、決定された各ターゲット特徴点に基づいて、第1の画像から取得された1つのターゲット特徴点のみを含む最大矩形領域を、各ターゲット特徴点に対応する部分ブロックとして、例えば、対象の特徴点の位置を中心に、他の特徴点を含まない最大矩形領域のみが車両画像に含まれる特徴点を取得し、各ターゲット特徴点に対応する部分ブロックを統一サイズに調整した後、各ターゲット特徴点に対応する部分ブロックを順次つなぎ合わせ、つなぎ合わせ結果を特徴抽出し、抽出した特徴を第1の車両として当該第1の画像に対応する特徴点サブ特徴とする。ここで、本ステップは、予め訓練された特徴抽出モデルを用いてスティッチング結果の特徴抽出を行うことができる。本ステップは、各ターゲット特徴点に対応する部分ブロックを取得する必要なく、直接に第1の車両の各ターゲット特徴点を順次スティッチングし、スティッチング結果から抽出された特徴を第1の車両としてその第1の画像に対応する特徴点サブ特徴としてもよいことが理解できる。
b23、第1の車両と各第1の画像に対応する特徴点サブ特徴に基づいて、第1の車両の特徴点サブ特徴を得る。
第1の車両と第1の画像に対応する特徴的なアイデアは、特徴ベクトルとして機能し、各特徴ベクトルを平均して第1の車両の特徴点サブ特徴を得ることができることが理解できる。
b3、第1の車両のグローバルサブ特徴と第1の車両の特徴点サブ特徴を融合させ、第1の車両の第1の特徴を得る。
この方式で取得した第1の車両の第1の特徴は、比較的全面的であり、さらに車両再識別の精度を向上させる。
本実施例では、第1の画像に基づいて、第1の車両の第1の特徴を取得する具体的な実現形態について説明した。
次に、具体的な実施例を用いて、「第1の画像から第1の車両の第1の車両ヘッド向きを取得する」具体的な実現について説明する。
一態様では、第1の画像に基づいて、第1の車両の第1の車両ヘッド向きを取得することは、以下のd1~d2を含む。
d1は、各フレームの第1の画像について第1の画像から第1の車両の車両ヘッド向きを取得する。
当該第1の画像に基づいて、第1の画像での第1の車両の車両ヘッド向きを第1のニューラルネットワークモデルを用いて取得する。具体的な実施において、当該第1の画像に基づいて、第1のニューラルネットワークモデルを採用して、車両ヘッド向きがラベルに向かって取得し、車両ヘッド向きがラベルに向かって、第1の車が当該第1の画像の中の車の車両ヘッドがそれぞれのプリセット車両ヘッドに向けられている確率を示すためのものである。車両ヘッド向きがラベルに向かっていることにより、予め設定された各車両ヘッド向きから、第1の車両の当該第一の画像での車両ヘッド向きが決定される。
設定された車両ヘッド向きの向きは、上、下、左、右、右下、右上、左下、左上の8方向を含むことができる。車両ヘッド向きのラベルは(x1、x2、x3、x4、x5、x6、x7、x8)とすることができ、x1~x8はそれぞれ車両ヘッド向きが上、下、左、右、右下、左下、左下、左上、左下、左上、左上、左上、左下、左上に向かう確率を示すことができます。
例えば、当該第1の画像に基づいて第1のニューラルネットワークモデルを用いて車両ヘッド向きラベルを取得すると(0.1,0.05,0.7,0.05,0,0,0.1,0)、第1の車両は当該第1の画像の車両ヘッドを左に向ける。
d2は、各第1の画像での第1の車両の車両ヘッド向きに基づいて、第1の車両の第1の車両ヘッド向きを取得する。
第1の車両の各第1の画像での車両ヘッド向きは、少なくとも一つのフレームの第1の画像に対応する各車両の向きを含むことがあり、ここで、車の車両ヘッドが対応する画像に向かっているという意味は、車両が当該画像において当該車両ヘッド向きを指すことである。このとき、第1の車両の第1の車両ヘッド向きは、複数種類の車種の車両ヘッド向きであり、第1の車両の向きは第1の画像の数が最も多い。例外的に、この複数の車種の向きの中の各種の車両ヘッドが対応する第1の画像の数に向かって同じであれば、第1の車両は撮影時間の最も遅い第1の画像での車両ヘッド向きが第1の車両の第1の車両ヘッド向きか、またはこの複数の車種の向きの中からランダムに1種の車の車両ヘッドが第1の車両として向きに向いているかを決定する。この複数の車両ヘッド向きのうち、対応する第1の画像の数が最も多い車両ヘッド向きが少なくとも2種類ある場合、少なくとも2種類の車両ヘッド向きの中からランダムに1種の車の車両ヘッドを選択して、第1の車両の第1の車両ヘッド向きに向ける。
この方式では、取得した第1の車両の第1の車両ヘッド向きの精度が高い。
他の態様では、第1の画像に基づいて、第1の車両の第1の車両ヘッド向きを取得することと、第1の車両の撮影時間の最も遅い第1の画像での車両ヘッド向きを取得することと、この車両の車両ヘッドが第1の車両の第1の車両の向きを向いていると判断することとを含む。
このようにして、第1の車両の第1の車両ヘッド向きを取得する効率が高い。
本実施例では、第1の画像に従って、第1の車両の第1の車両ヘッド向きを取得する具体的な実施例について説明した。
次に、具体的な実施例を用いて、「サーバは、第1の特徴、複数の車両の画像から抽出された複数の第2の特徴、第1の車両の第1の車両ヘッド向き及び第1のカメラの情報に基づいて、複数の車両の画像から第1の車両の第2の画像を決定する」ことを説明する。
一態様では、サーバは、第1の特徴、複数の車両の画像から抽出された複数の第2の特徴、第1の車両の第1の車両ヘッド向き及び第1のカメラの情報に基づいて、複数の車両の画像から第1の車両の第2の画像を決定し、以下のe1~e2を含む。
e1は、第1の車両の第1の特徴に基づいて、画像データベースにおける複数の車両の画像に基づいて抽出された複数の第2の特徴、複数の車両の画像から予備選択車両の画像を決定し、予備選択車両の画像に基づいて抽出された第2の特徴は、第1の特徴との類似度がプリセット類似度以上である。
ここでは、車両の特徴類似度に関するアルゴリズムは、既存の一般的なアルゴリズムを参照することができ、ここでは繰り返して説明しない。
e2では、予備選択車両の車両ヘッド向き、第1の車両ヘッド向き、第1のカメラの情報、及び予備選択車両の画像を撮影したカメラの情報に基づいて、予備選択車両の画像から第1の車両の第2の画像を決定する。
ここで、予備選択車両の車両ヘッド向き取得方法は、第1の車両の第1の車両ヘッド向きの取得方法とおなじである。つまり、予備選択車両の車両ヘッド向きは、当該予備選択車両の画像に基づいて得られる。
具体的な実現において、ターゲット撮影時間が第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像に対して、予備選択車両の画像から第1の車両の第2の画像を決定することはe21~e23を含む。
e21では、第1の操作を実行し、第1の操作は、第iの基準車両の車両ヘッド向き、第iの基準カメラの情報、第iの予備選択カメラの情報に基づいて、第iの基準車両が第iの予備選択車両の画像を撮影する第iの予備選択カメラに現れるか否かを決定することと、そうであると、第iの基準車両が第iの予備選択カメラに現れたときの第iの予測車両ヘッド向きを取得することと、第iの予測車両ヘッド向きが第iの予備選択車両の車両ヘッド向きと同じ向きであると、第iの予備選択車両の画像を第1の車両の第2の画像として決定することとを含み、初期時、i=1の場合、第1の基準車両は第1の車両であり、第1の基準カメラは第1のカメラであり、第iの基準車両の画像のターゲット撮影時間は、第iの予備選択車両の画像のターゲット撮影時間より早く時間であり、そして、第iの予備選択車両の画像のターゲット撮影時間との時間間隔が最も短い。
本実施例では、カメラがある時間帯に複数フレームの車両Aの画像を撮影した場合、その時間帯に撮影された第1のフレームの車両Aの画像の撮影時間を車両Aの画像のターゲット撮影時間として定義するか、または当該時間帯に撮影された最後フレームの車両Aの画像の撮影時間を車両Aの画像のターゲット撮影時間として定義する。車両Aの画像のターゲット撮影時間は、他の定義も可能であり、本実施例では限定されない。
第iの予備選択カメラは、同一の時間帯において、1つ以上の第iの予備選択車両の画像を対応的に有する可能性があり、複数の第iの予備選択車両の画像に対応する場合、複数の第iの予備選択車両の画像のターゲット撮影時間は同じであり、このとき、第iの予備選択車両の画像ごとにe21の操作を行う必要があり、当業者は、当該複数の第iの予備選択車両の画像の中に第1の車両でない画像が存在することを理解すべきである。
通常走行中は、第iの基準カメラと第iの予備選択カメラが隣接し、第iの予備選択カメラと第i+1予備選択カメラが隣接していることが理解できる。
ここで、第iの基準車両が第iの予備選択車両の画像を撮影する第iの予備選択カメラに現れるか否かを決定することは、第iの基準車両の車両ヘッド向き、第iの基準カメラのレンズの向き、第iの基準カメラの地理位置に基づいて、第iの基準車両の第iの基準カメラのある道路での可能な走行方向を決定し、第iの予備選択カメラの地理位置、第iの基準車両の可能な運転方向に基づいて、第iの基準車両が第iの予備選択カメラに現れるか否かを決定することを含んでもよい。
e22では、第2の操作を実行し、第2の操作は、巡回されなかった、ターゲット撮影時間が第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像がある場合は、iに1を加えることと、第iの予備選択車両の画像が第2の画像として決定された場合、第iの予備選択車両を第i+1の基準車両とし、そうでない場合は、第iの基準車両を第i+1の基準車両とする。
e23では、ターゲット撮影時間が第1の画像のターゲット撮影時間よりも遅い全ての予備選択車両の画像を巡回するまで、第1の操作と第2の操作を繰り返す。
ターゲット撮影時間が第1の画像のターゲット撮影時間の前の予備選択車両の画像に対して、予備選択車両の画像から第1の車両の第2の画像を決定することはe24~e26を含む。
e24では、第3の操作を実行し、第3の操作は、第jの基準車両の車両ヘッド向き、第j基準カメラの情報、第iの予備選択カメラの情報に基づいて、第jの基準車両が第jの予備選択車両を撮影するが第jの予備選択カメラに現れるか否かを決定することと、そうであると、第jの基準車両が第jの予備選択カメラに現れるときの第jの予測車両ヘッド向きを取得することと、第jの予測車両ヘッド向きが第jの予備選択車両の車両ヘッド向きと同じ場合、第jの予備選択車両の画像を第1の車両の第2の画像として決定することとを含み、初期時、j=1の場合、第1の基準車両は第1の車両であり、第1の基準カメラは第1のカメラであり、第jの基準車両の画像のターゲット撮影時間は、第jの予備選択車両の画像のターゲット撮影時間よりも遅い時間であり、第jの予備選択車両の画像のターゲット撮影時間との時間間隔が最も短い。
ここで、第jの基準車両が第jの予備選択車両の画像を撮影する第jの予備選択カメラに現れるか否かを決定することは、第jの基準車両の車両ヘッド向き、第jの基準カメラのレンズの向き、第jの基準カメラの地理位置に基づいて、第jの基準車両が第jの基準カメラまで走行可能な走行可能方向を決定し、第jの予備選択カメラの地理位置、第jの基準車両が第jの基準カメラまで走行可能な走行可能方向に基づいて、第jの基準車両が第jの予備選択カメラに現れるか否かを決定することを含んでよい。
第jの予備選択カメラは、同一の時間帯において、1つ以上の第jの予備選択車両の画像を対応的に有する可能性があり、複数の第jの予備選択車両の画像に対応する場合、複数の第jの予備選択車両の画像のターゲット撮影時間は同じであり、このとき、第jの予備選択車両の画像ごとにe24の操作を行う必要があり、当業者は、当該複数の第jの予備選択車両の画像の中に第1の車両でない画像が存在することを理解すべきである。
通常走行中は、第j基準カメラと第jの予備選択カメラが隣接し、第jの予備選択カメラと第j+1予備選択カメラが隣接していることが理解できる。
e25では、第4の操作を実行し、第4の操作は、巡回されなかった、撮影時間が第1の画像よりも早い予備選択車両の画像がある場合は、jに1を加えることと、第jの予備選択車両の画像が前記第2の画像である場合は、第jの予備選択車両を第j+1の基準車両とし、そうでない場合は、第jの基準車両を第j+1の基準車両とする。
e26では、全てのターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像が巡回されるまで、前記第3の操作と前記第4の操作を繰り返す。
例示的には、各予備選択車両の画像は、予備選択車両1の画像1、予備選択車両2の画像2と画像3、予備選択車両3の画像4、予備選択車両4の画像5、画像6と画像7を含み、画像1は、予備選択カメラ1で撮影された画像、画像2、画像3は、予備選択カメラ2で撮影された画像、画像4は、予備選択カメラ3で撮影された画像、画像5、画像6および画像7は、予備選択カメラ4で撮影された画像である。ここで、画像1のターゲット撮影時間は、第1の画像のターゲット撮影時間よりも早く、画像2~7に対応する撮影時間は、第1の画像のターゲット撮影時間よりも遅い。予備選択車両1の画像1のターゲット撮影時間は、第1の車両の第1の画像のターゲット撮影時間よりも早く、第1の車両の第1の画像のターゲット撮影時間は、予備選択車両2の画像のターゲット撮影時間よりも早く、予備選択車両2の画像のターゲット撮影時間は、予備選択車両3の画像のターゲット撮影時間よりも早く、予備選択車両3の画像のターゲット撮影時間は、予備選択車両4の画像のターゲット撮影時間よりも早い。
第1の車両の第1の車両ヘッド向き、第1のカメラの地理位置、第1のカメラのレンズの向き、及び予備選択カメラ2の地理位置に基づいて、第1の車両が予備選択車両2の画像を撮影する予備選択カメラ2に出現するか否かを決定する。具体的な決定方法として、第1の車両の第1の車両ヘッド向き、第1のカメラのレンズの向き、及び第1のカメラの地理位置に基づいて、第1の車両の可能な走行方向を決定することができる。次に、予備選択カメラ2の地理位置と第1の車両の可能な運転方向に基づいて、第1の車両が予備選択カメラ2に現れるか否かを決定する。具体的には、図4に示すように、第1の車両41の第1の車両ヘッド向き、第1のカメラ42のレンズの向き、及び第1のカメラの地理位置に基づいて第1の車両の走行状態を決定し、走行状態には走行位置範囲と車の姿勢が含まれており、例えば図4には第一車両の可能な位置と第一車両の姿勢を示しており、車の姿勢は、411が第一車両の車両ヘッドであり、412が第一車両の後尾である。当該走行状態に応じて、第1の車両41の可能な運転方向は方向43であると決定する。予備選択カメラ2の地理位置が、第1の車両が方向43に沿って走行して到達可能なカメラの地理位置であると決定されると、第1の車両が予備選択カメラ2に現れると決定する。
第1の車両が予備選択カメラ2に現れると決定した場合は、第1の車両の可能な走行方向、及び予備選択カメラ2のレンズの向きに応じて、予備選択カメラ2で撮影した第1の車両の画像での第1の車両の車両ヘッド向きを予測する。すなわち、第1の車両が予備選択カメラ2に現れる予測車両ヘッド向きを取得し、当該予測車両ヘッド向きが予備選択車両2の車両ヘッド向きと同じ場合、予備選択車両2の画像2と画像3は第1の車両の第2の画像であると決定する。予備選択車両2の車両ヘッド向きは、画像2と画像3に基づいて、第1のニューラルネットワークモデルを用いて得られることが理解できる。
次に、予備選択車両2の車両ヘッド向き、予備選択カメラ2の地理位置、予備選択カメラ2のレンズの向き、及び予備選択カメラ3の地理位置に基づいて、予備選択車両2が予備選択カメラ3に現れるか否かを決定する。具体的な決定方法として、予備選択車両2の車両ヘッド向き、予備選択カメラ2のレンズの向き、及び予備選択カメラ2の地理位置に基づいて、予備選択車両2の可能な走行方向を決定することができる。次に、予備選択カメラ3の地理位置と予備選択車両2の可能な運転方向に基づいて、予備選択車両2が予備選択カメラ3に現れるか否かを決定する。予備選択車両2が予備選択カメラ3に現れると決定されると、予備選択車両2の可能な走行方向及び予備選択カメラ2のレンズの向きに応じて、予備選択カメラ3で撮影した予備選択車両2の画像での予備選択車両2の車両ヘッド向きを予測し、すなわち、予備選択車両2が予備選択カメラ3に現れるときの予測車両ヘッド向きを取得し、当該予測車両ヘッド向きが予備選択車両3の車両ヘッド向きが同じ場合、予備選択車両3の画像4は第1の車両の第2の画像である決定する。
続いて、予備選択車両3の車両ヘッド向き、予備選択カメラ3の地理位置、予備選択カメラ3のレンズの向き、及び予備選択カメラ4の地理位置に基づいて、予備選択車両3が予備選択カメラ4に現れるか否かを決定する。予備選択車両3が予備選択カメラ4に現れると決定すると、予備選択車両3の可能な走行方向、及び予備選択カメラ4のレンズの向きに応じて、予備選択カメラ4で撮影した予備選択車両3の画像での予備選択車両3の両ヘッド向きを予測し、すなわち、予備選択車両3が予備選択カメラ4に現れるときの予測車両ヘッド向きを取得し、当該予測車両ヘッド向きが予備選択車両4の車両ヘッド向きと異なると、予備選択車両4の画像5~画像7は第1の車両の第2の画像ではないと決定する。
最後に、第1の車両の第1の車両ヘッド向き、第1のカメラの地理位置、第1のカメラのレンズの向き、予備選択カメラ1の地理位置に基づいて、第1の車両が予備選択車両1の画像を撮影するカメラ1に出現するか否かを決定する。具体的な決定方法として、第1の車両の第1の車両ヘッド向き、第1のカメラのレンズの向きに基づいて、第1の車両が走行して第1のカメラに到達可能な走行方向を決定することができる。次に、予備選択カメラ1の地理位置及び第1の車両が第1のカメラまで走行可能な走行方向に基づいて、第1の車両が予備選択カメラ1に現れるか否かを決定する。具体的には、図5に示すように、第1の車両41の第1の車両ヘッド向き、第1のカメラ42のレンズの向き、及び第1のカメラの地理位置に基づいて、第1の車両の走行状態を決定し、走行状態は走行位置範囲と車両の姿勢を含み、例えば、図5には第1の車両の位置と車両の姿勢が示されており、車両の姿勢は、411が第1の車両の車両ヘッドであり、412が第1の車両の後尾である。当該走行状態に基づいて、第1のカメラに走行可能な方向は51であると決定する。予備選択カメラ1の地理位置により、第1の車両が予備選択カメラ1から方向51に向かって走行して第1のカメラに到達することができる決定すると、第1の車両は予備選択カメラ1に現れると決定する。
第1の車両が予備選択カメラ1に現れると決定すると、第1の車両が第1のカメラまで走行可能な走行方向、予備選択カメラ1のレンズの向きに基づいて、予備選択カメラ1で撮影された第1の車両の画像での第1の車両の車両ヘッド向きを予測し、すなわち、第1の車両が予備選択カメラ1に現れる時の予測車両ヘッド向きを取得し、当該予測車両ヘッド向きが予備選択車両1の車両ヘッド向きと同じ場合、予備選択車両1の画像1は第1の車両の第2の画像と決定する。予備選択車両1の画像1が第1の車両の第2の画像である場合、第1の車両は、まず予備選択カメラ1の視野範囲に現れてから、第1のカメラの視野範囲に現れることが理解できる。
本実施例は、サーバが第1の特徴、複数の車両の画像から抽出した複数の第2の特徴、第1の車両の第1の車両ヘッド向き及び第1のカメラの情報に基づいて、複数の車両の画像から第1の車両の第2の画像を決定する具体的な実施例を示している。
以上、本願に係る方法を説明したが、以下、具体的な実施例を用いて、本願に係る装置について説明する。
図6は、本願の実施例に係る車両再識別装置の構造模式図であり、図6を参照して、本実施例の装置は、送受信モジュール601と処理モジュール602とを含んでもよい。
送受信モジュール601は、端末機器からの再識別要求を受信するためのものであって、前記再識別要求は、第1のカメラによって撮影された第1の車両の第1の画像と前記第1のカメラの情報を含み、処理モジュール602は、前記第1の画像に基づいて、前記第1の車両の第1の特徴と前記第1の車両の第1の車両ヘッド向きを取得するためのものであって、前記処理モジュール602は、前記第1の特徴、画像データベースにおける複数の車両の画像から抽出された複数の第2の特徴、前記第1の車両ヘッド向き及び前記第1のカメラの情報に基づいて、前記複数の車両の画像から前記第1の車両の第2の画像を決定するためのものであり、前記送受信モジュール601は、さらに、前記第2の画像を端末機器に送信するためのものである。
任意選択で、ここで、前記再識別要求は、第1のカメラによって撮影された第1の車両の複数フレームの第1の画像を含み、前記処理モジュール602は、具体的に、各フレームの第1の画像に対して、当該第1の画像に基づいて、当該第1の画像での前記第1の車両の車両ヘッド向きを取得することと、各第1の画像での前記第1の車両の車両ヘッド向きに基づいて、前記第1の車両の第1の車両ヘッド向きを取得することと、に用いられる。
任意選択で、ここで、前記処理モジュール602は、具体的に、当該第1の画像に基づいて、第1のニューラルネットワークモデルを用いて当該第1の画像での前記第1の車両の車両ヘッド向きを取得することに用いられる。
任意選択で、前記処理モジュール602は、具体的に、前記第1の特徴、複数の車両の画像に基づいて抽出された複数の第2の特徴に基づいて、前記複数の車両の画像から予備選択車両の画像を決定し、前記予備選択車両の画像に基づいて抽出された第2の特徴と前記第1の特徴の類似度がプリセット類似度以上であることと、前記予備選択車両の車両ヘッド向き、前記第1の車両ヘッド向き、前記第1のカメラの情報、及び前記予備選択車両の画像を撮影したカメラの情報に基づいて、前記予備選択車両の画像から前記第1の車両の第2の画像を決定することに用いられる。
任意選択で、前記再識別要求は、前記第1の画像の撮影時間をさらに含み、前記処理モジュール602は、具体的に、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像に対して、第1の操作を実行し、前記第1の操作は、第iの基準車両の車両ヘッド向き、第iの基準カメラの情報、第iの予備選択車両の画像を撮影する第iの予備選択カメラの情報に基づいて、第iの基準車両が第iの予備選択カメラに現れるか否かを決定することと、そうであると、第iの基準車両が第iの予備選択カメラに現れたときの第iの予測車両ヘッド向きを取得することと、第iの予測車両ヘッド向きが第iの予備選択車両の車両ヘッド向きと同じであると、第iの予備選択車両の画像を前記第1の車両の第2の画像として決定することとを含み、初期時、i=1の場合、第1の基準車両は前記第1の車両であり、第1の基準カメラは前記第1のカメラであり、前記第iの基準車両の画像のターゲット撮影時間は、第iの予備選択車両の画像のターゲット撮影時間より早く、且つ、第iの予備選択車両の画像のターゲット撮影時間と最も短く、第2の操作を実行し、前記第2の操作は、巡回されなかった、ターゲット撮影時間が前記第1の画像よりも遅い予備選択車両の画像がある場合は、iに1を加えることと、第iの予備選択車両の画像が第2の画像であると決定された場合は、第iの予備選択車両を第i+1の基準車両とし、そうでない場合は、前記第iの基準車両を第i+1の基準車両とすることと、含み、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い全ての予備選択車両の画像を巡回するまで、前記第1の操作と前記第2の操作を繰り返すことに用いられる。
任意選択で、前記再識別要求は、前記第1の画像の撮影時間をさらに含み、前記処理モジュール602は、具体的に、ターゲット撮影時間が前記第1の画像のターゲット撮影時間の前の予備選択車両の画像について、第3の操作を実行し、前記第3の操作は、第jの基準車両の車両ヘッド向き、第j基準カメラの情報、第jの予備選択車両の画像を撮影する第jの予備選択カメラの情報に基づいて、第jの基準車両が第jの予備選択カメラに現れるか否かを決定することと、そうであると、第jの基準車両が第jの予備選択カメラに現れるときの第jの予測車両ヘッド向きを取得することと、第jの予測車両ヘッド向きが第jの予備選択車両の車両ヘッド向きと同じ場合、第jの予備選択車両の画像は前記第1の車両の第2の画像であると決定することとを含み、初期時、j=1の場合、第1の基準車両は前記第1の車両であり、第1の基準カメラは前記第1のカメラであり、前記第jの基準車両の画像の撮影時間は、第jの予備選択車両の画像のターゲット撮影時間よりも遅く、且つ、第jの予備選択車両の画像のターゲット撮影時間とは最も短く、第4の操作を実行し、前記第4の操作は、巡回されなかった、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像がある場合は、jに1を加えることと、第jの予備選択車両の画像が第2の画像であると決定された場合は、第jの予備選択車両を第j+1の基準車両とし、そうでない場合は、前記第jの基準車両を第j+1の基準車両とすることと、含み、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像を全て巡回するまで、前記第3の操作と前記第4の操作を繰り返すことに用いられる。
任意選択で、ここで、前記第1の特徴は前記第1の車両のグローバル特徴であり、前記処理モジュール602は、具体的に、前記第1の画像に基づいて、第2のニューラルネットワークモデルを用いて前記第1の車両のグローバル特徴を取得することに用いられる。
任意選択で、ここで、前記第1の特徴は、前記第1の車両のグローバルサブ特徴と特徴点サブ特徴を融合した特徴であり、前記第1の画像に基づいて、前記第1の車両の第1の特徴を取得することは、前記第1の画像に基づいて、第2のニューラルネットワークモデルを用いて前記第1の車両のグローバルサブ特徴を取得することと、前記第1の画像に基づいて、第3のニューラルネットワークモデルを用いて前記第1の車両の特徴点サブ特徴を取得することと、前記グローバルサブ特徴と前記特徴点サブ特徴を融合して、前記第1の車両の第1の特徴を得ることに用いられる。
任意選択で、ここで、カメラの情報は、当該カメラの地理位置と当該カメラのレンズの向きを含む。
本開示の実施例の別の態様において、本開示の実施例はさらに、コンピュータプログラムをさらに提供し、前記コンピュータプログラムは、コンピュータ可読記憶媒体に記憶され、電子機器の少なくとも1つのプロセッサは、コンピュータ可読記憶媒体からコンピュータプログラムを読み取ることができ、少なくとも1つのプロセッサは、コンピュータプログラムを実行することによって、電子機器に上記実施例に記載の方法を実行させる。
本実施例の装置は、上述した方法の実施例の技術的解決手段を実行するために使用されることができ、その原理と技術効果は同様であり、ここでは繰り返して説明しない。
本願の実施例によれば、本願は、電子機器及び読取可能な記憶媒体をさらに提供する。
図7に示すように、本願の実施例に係る車両再識別方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本願の実現を制限することを意図したものではない。
図7に示すように、該電子機器は、1つ又は複数のプロセッサ701と、メモリ702と、高速インタフェース及び低速インタフェースを含む各コンポーネントを接続するためのインタフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、電子機器内で実行される命令を処理することができ、該命令は、外部入力/出力装置(例えば、インタフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリ内又はメモリに記憶されている命令を含む。他の実施方式では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリと一緒に使用することができる。同様に、複数の電子機器を接続することができ、各機器は、一部の必要な操作(例えば、サーバアレイ、1グループのブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図7では、1つのプロセッサ701を例とする。
メモリ702は、本願により提供される非一時的なコンピュータ読取可能な記憶媒体である。その中で、前記メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記少なくとも1つのプロセッサが本願により提供される車両再識別方法を実行するようにする。本願の非一時的なコンピュータ読取可能な記憶媒体には、コンピュータに本願により提供される車両再識別方法を実行させるためのコンピュータ命令が記憶されている。
メモリ702は、非一時的なコンピュータ読取可能な記憶媒体として、本願の実施例における車両再識別方法に対応するプログラム命令/モジュール(例えば、図6に示す送受信モジュール601、処理モジュール602)のような、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサ701は、メモリ702に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記の方法の実施例における車両再識別方法を実現する。
メモリ702は、ストレージプログラムエリアとストレージデータエリアとを含むことができ、その中で、ストレージプログラムエリアは、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、ストレージデータエリアは、車両再識別の電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ702は、高速ランダムアクセスメモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ702は、プロセッサ701に対して遠隔に設定されたメモリを選択的に含むことができ、これらの遠隔メモリは、ネットワークを介して車両再識別の電子機器に接続されることができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
車両再識別方法の電子機器は、入力装置703と出力装置704とをさらに含むことができる。プロセッサ701、メモリ702、入力装置703、及び出力装置704は、バス又は他の方式を介して接続することができ、図7では、バスを介して接続することを例とする。
入力装置703は、入力された数字又は文字情報を受信し、車両再識別の電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置704は、ディスプレイデバイス、補助照明装置(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態で、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を該ストレージシステム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含むことができ、高レベルのプロセス及び/又は対象指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することができる。本明細書に使用されるような、「機械読取可能な媒体」及び「コンピュータ読取可能な媒体」の用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読取可能な信号である機械命令を受信する機械読取可能な媒体を含む。「機械読取可能な信号」の用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上で、ここで説明されているシステム及び技術を実施することができ、該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、該キーボード及び該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、該グラフィカルユーザインタフェース又は該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。
本実施例における車両再識別方法は、車両の特徴だけでなく、車両の画像での車両ヘッド向きと当該画像を撮影したカメラの情報も考慮して、車両の画像での車両ヘッド向きとその画像を撮影したカメラの情報に基づいて、隣接するカメラによって撮影された当該車両の画像での予測車両ヘッド向きを予測することができる。このようにして、隣接するカメラによって撮影された特徴は似ているが、車両ヘッド向きは予測車両ヘッド向きと異なる画像をフィルタ出来る。したがって、本実施例の方法は、再識別対象車両の外観に似た車両の画像を再識別対象車両と識別する確率を低減し、車両再識別の精度を向上させることができる。
本明細書の説明において、用語「上」、「下」、「前」、「後」、「左」、「右」、「縦」、「水平」、「頂」、「底」、「内」、「外」等が示す方位又は位置関係は、図面に示す方位又は位置関係に基づくものであって、単に、本明細書の記述を容易にし、説明を簡略化するためであって、示す装置又は要素が必ず特定の方位を有し、且つ、特定の方位構造及び動作をしなければならないことを指示又は暗示しておらず、本明細書に対する制限として理解してはいけない。
上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本願で開示されている技術案が所望の結果を実現することができれば、本明細書では限定しない。
上記の具体的な実施方式は、本願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本願の保護範囲内に含まれるべきである。

Claims (19)

  1. 端末機器からの再識別要求を受信することであって、前記再識別要求は、第1のカメラによって撮影された第1の車両の第1の画像と前記第1のカメラの情報を含むことと、
    前記第1の画像に基づいて、前記第1の車両の第1の特徴と前記第1の車両の第1の車両ヘッド向きを取得することと、
    前記第1の特徴、画像データベースにおける複数の車両の画像から抽出された複数の第2の特徴、前記第1の車両ヘッド向き及び前記第1のカメラの情報に基づいて、前記複数の車両の画像から前記第1の車両の第2の画像を決定することと、
    前記第2の画像を端末機器に送信することと、を含み、
    前記複数の車両の画像から前記第1の車両の第2の画像を決定することは、
    前記第1の特徴、及び複数の車両の画像に基づいて抽出された複数の第2の特徴に基づいて、前記複数の車両の画像から予備選択車両の画像を決定することであって、前記予備選択車両の画像に基づいて抽出された第2の特徴と前記第1の特徴の類似度がプリセット類似度以上であることと、
    前記予備選択車両の車両ヘッド向き、前記第1の車両ヘッド向き、前記第1のカメラの情報、及び前記予備選択車両の画像を撮影したカメラの情報に基づいて、前記予備選択車両の画像から前記第1の車両の第2の画像を決定することと、を含み、
    前記再識別要求は、前記第1の画像の撮影時間をさらに含み、
    前記予備選択車両の画像から前記第1の車両の第2の画像を決定することは、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像に対して、
    第1の操作を実行し、前記第1の操作は、第iの基準車両の車両ヘッド向き、第iの基準カメラの情報、第iの予備選択車両の画像を撮影する第iの予備選択カメラの情報に基づいて、第iの基準車両が第iの予備選択カメラに現れるか否かを決定することと、そうであると、第iの基準車両が第iの予備選択カメラに現れたときの第iの予測車両ヘッド向きを取得することと、第iの予測車両ヘッド向きが第iの予備選択車両の車両ヘッド向きと同じ場合、第iの予備選択車両の画像は前記第1の車両の第2の画像であると決定することとを含み、初期時、i=1の場合、第1の基準車両は前記第1の車両であり、第1の基準カメラは前記第1のカメラであり、前記第iの基準車両の画像のターゲット撮影時間は、第iの予備選択車両の画像のターゲット撮影時間より早く、そして、第iの予備選択車両の画像のターゲット撮影時間との時間間隔が最も短いことを含
    カメラが1つの時間帯に複数フレームの車両の画像を撮影した場合、前記時間帯に撮影された第1のフレームの車両の画像の撮影時間を車両の画像のターゲット撮影時間として定義するか、または前記時間帯に撮影された最後フレームの車両の画像の撮影時間を車両の画像のターゲット撮影時間として定義する、車両再識別方法。
  2. 前記再識別要求は、第1のカメラによって撮影された第1の車両の複数フレームの第1の画像を含み、前記第1の画像に基づいて、前記第1の車両の第1の車両ヘッド向きを取得することは、
    各フレームの第1の画像に対して、当該第1の画像に基づいて、当該第1の画像での前記第1の車両の車両ヘッド向きを取得することと、
    各第1の画像での前記第1の車両の車両ヘッド向きに基づいて、前記第1の車両の第1の車両ヘッド向きを取得することと、を含む、請求項1に記載の車両再識別方法。
  3. 当該第1の画像での前記第1の車両の車両ヘッド向きを取得することは、
    当該第1の画像に基づいて、第1のニューラルネットワークモデルを用いて当該第1の画像での前記第1の車両の車両ヘッド向きを取得することを含む、請求項2に記載の車両再識別方法。
  4. 前記予備選択車両の画像から前記第1の車両の第2の画像を決定することは、さらに、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像に対して、
    第2の操作を実行し、前記第2の操作は、巡回されなかった、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像がある場合は、iに1を加えることと、及び第iの予備選択車両の画像が第2の画像であると決定された場合は、第iの予備選択車両を第i+1の基準車両とし、そうでない場合は、前記第iの基準車両を第i+1の基準車両とすることとを含むことと、
    ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い全ての予備選択車両の画像を巡回するまで、前記第1の操作と前記第2の操作を繰り返すことと、を含む、請求項1に記載の車両再識別方法。
  5. 前記再識別要求は、前記第1の画像の撮影時間をさらに含み、前記予備選択車両の画像から前記第1の車両の第2の画像を決定することは、ターゲット撮影時間が前記第1の画像のターゲット撮影時間の前の予備選択車両の画像について、
    第3の操作を実行し、前記第3の操作は、第jの基準車両の車両ヘッド向き、第j基準カメラの情報、第jの予備選択車両の画像を撮影する第jの予備選択カメラの情報に基づいて、第jの基準車両が第jの予備選択カメラに現れるか否かを決定することと、そうであると、第jの基準車両が第jの予備選択カメラに現れるときの第jの予測車両ヘッド向きを取得することと、第jの予測車両ヘッド向きが第jの予備選択車両の車両ヘッド向きと同じ場合、第jの予備選択車両の画像は前記第1の車両の第2の画像であると決定することとを含み、初期時、j=1の場合、第1の基準車両は前記第1の車両であり、第1の基準カメラは前記第1のカメラであり、前記第jの基準車両の画像のターゲット撮影時間は、第jの予備選択車両の画像のターゲット撮影時間よりも遅く、且つ、第jの予備選択車両の画像のターゲット撮影時間との時間間隔が最も短いことと、
    第4の操作を実行し、前記第4の操作は、巡回されなかった、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像がある場合は、jに1を加えることと、及び第jの予備選択車両の画像が第2の画像であると決定された場合は、第jの予備選択車両を第j+1の基準車両とし、そうでない場合は、前記第jの基準車両を第j+1の基準車両とすることとを含むことと、
    ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像を全て巡回するまで、前記第3の操作と前記第4の操作を繰り返すことと、を含む、請求項1に記載の車両再識別方法。
  6. 前記第1の車両の第1の特徴は前記第1の車両のグローバル特徴であり、前記第1の画像に基づいて、前記第1の車両の第1の特徴を取得することは、
    前記第1の画像に基づいて、第2のニューラルネットワークモデルを用いて前記第1の車両のグローバル特徴を取得することを含む、請求項1~請求項3のいずれか1項に記載の車両再識別方法。
  7. 前記第1の特徴は、前記第1の車両のグローバルサブ特徴と特徴点サブ特徴を融合した特徴であり、前記第1の画像に基づいて、前記第1の車両の第1の特徴を取得することは、
    前記第1の画像に基づいて、第2のニューラルネットワークモデルを用いて前記第1の車両のグローバルサブ特徴を取得することと、
    前記第1の画像に基づいて、第3のニューラルネットワークモデルを用いて前記第1の車両の特徴点サブ特徴を取得することと、
    前記グローバルサブ特徴と前記特徴点サブ特徴を融合して、前記第1の車両の第1の特徴を得ることと、を含む、請求項1~請求項3のいずれか1項に記載の車両再識別方法。
  8. カメラの情報は、当該カメラの地理位置と当該カメラのレンズの向きを含む、請求項1~請求項3のいずれか1項に記載の車両再識別方法。
  9. 端末機器からの再識別要求を受信することに用いられる送受信モジュールであって、前記再識別要求は、第1のカメラによって撮影された第1の車両の第1の画像と前記第1のカメラの情報を含む送受信モジュールと、
    前記第1の画像に基づいて、前記第1の車両の第1の特徴と前記第1の車両の第1の車両ヘッド向きを取得するための処理モジュールと、を含み、
    前記処理モジュールは、前記第1の特徴、画像データベースにおける複数の車両の画像に基づいて抽出された複数の第2の特徴、前記第1の車両ヘッド向き及び前記第1のカメラの情報に基づいて、前記複数の車両の画像から前記第1の車両の第2の画像を決定することに用いられ、
    前記送受信モジュールは、さらに、前記第2の画像を端末機器に送信することに用いられ、
    前記処理モジュールは、
    前記第1の特徴に基づいて、複数の車両の画像に基づいて抽出された複数の第2の特徴、前記複数の車両の画像から予備選択車両の画像を決定し、前記予備選択車両の画像に基づいて抽出された第2の特徴と前記第1の特徴の類似度がプリセット類似度以上であることと、
    前記予備選択車両の車両ヘッド向き、前記第1の車両ヘッド向き、前記第1のカメラの情報、及び前記予備選択車両の画像を撮影したカメラの情報に基づいて、前記予備選択車両の画像から前記第1の車両の第2の画像を決定することに用いられ、
    前記再識別要求は、前記第1の画像の撮影時間をさらに含み、
    前記処理モジュールは、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像に対して、
    第1の操作を実行し、前記第1の操作は、第iの基準車両の車両ヘッド向き、第iの基準カメラの情報、第iの予備選択車両の画像を撮影する第iの予備選択カメラの情報に基づいて、第iの基準車両が第iの予備選択カメラに現れるか否かを決定することと、そうであると、第iの基準車両が第iの予備選択カメラに現れたときの第iの予測車両ヘッド向きを取得することと、第iの予測車両ヘッド向きが第iの予備選択車両の車両ヘッド向きと同じ場合、第iの予備選択車両の画像は前記第1の車両の第2の画像であると決定することとを含み、初期時、i=1の場合、第1の基準車両は前記第1の車両であり、第1の基準カメラは前記第1のカメラであり、前記第iの基準車両の画像のターゲット撮影時間は、第iの予備選択車両の画像のターゲット撮影時間より早く、且つ、第iの予備選択車両の画像のターゲット撮影時間との時間間隔が最も短いことに用いられ、
    カメラが1つの時間帯に複数フレームの車両の画像を撮影した場合、前記時間帯に撮影された第1のフレームの車両の画像の撮影時間を車両の画像のターゲット撮影時間として定義するか、または前記時間帯に撮影された最後フレームの車両の画像の撮影時間を車両の画像のターゲット撮影時間として定義する、車両再識別装置。
  10. 前記再識別要求は、第1のカメラによって撮影された第1の車両の複数フレームの第1の画像を含み、前記処理モジュールは、
    各フレームの第1の画像に対して、当該第1の画像に基づいて、当該第1の画像での前記第1の車両の車両ヘッド向きを取得することと、
    各第1の画像での前記第1の車両の車両ヘッド向きに基づいて、前記第1の車両の第1の車両ヘッド向きを取得することに用いられる、請求項9に記載の車両再識別装置。
  11. 前記処理モジュールは、
    当該第1の画像に基づいて、第1のニューラルネットワークモデルを用いて当該第1の画像での前記第1の車両の車両ヘッド向きを取得することに用いられる、請求項9に記載の車両再識別装置。
  12. 前記処理モジュールは、さらに、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像に対して、
    第2の操作を実行し、前記第2の操作は、巡回されなかった、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像がある場合は、iに1を加えることと、及び第iの予備選択車両の画像が第2の画像である場合は、第iの予備選択車両を第i+1の基準車両とし、そうでない場合は、前記第iの基準車両を第i+1の基準車両とすることを含むことと、
    ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも遅い予備選択車両の画像を全て巡回するまで、前記第1の操作と前記第2の操作を繰り返すこととに用いられる、請求項9に記載の車両再識別装置。
  13. 前記再識別要求は、前記第1の画像の撮影時間をさらに含み、前記処理モジュールは、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像について、
    第3の操作を実行し、前記第3の操作は、第jの基準車両の車両ヘッド向き、第j基準カメラの情報、第jの予備選択車両の画像を撮影する第jの予備選択カメラの情報に基づいて、第jの基準車両が第jの予備選択カメラに現れるか否かを決定することと、そうであると、第jの基準車両が第jの予備選択カメラに現れるときの第jの予測車両ヘッド向きを取得することと、第jの予測車両ヘッド向きが第jの予備選択車両の車両ヘッド向きと同じ場合、第jの予備選択車両の画像は前記第1の車両の第2の画像であると決定することとを含み、初期時、j=1の場合、第1の基準車両は前記第1の車両であり、第1の基準カメラは前記第1のカメラであり、前記第jの基準車両の画像のターゲット撮影時間は、第jの予備選択車両の画像のターゲット撮影時間よりも遅く、且つ、第jの予備選択車両の画像のターゲット撮影時間との時間間隔が最も短いことと、
    第4の操作を実行し、前記第4の操作は、巡回されなかった、ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像がある場合は、jに1を加えることと、及び第jの予備選択車両の画像が第2の画像である場合は、第jの予備選択車両を第j+1の基準車両とし、そうでない場合は、前記第jの基準車両を第j+1の基準車両とすることとを含むことと、
    ターゲット撮影時間が前記第1の画像のターゲット撮影時間よりも早い予備選択車両の画像を全て巡回するまで、前記第3の操作と前記第4の操作を繰り返すこととに用いられる、請求項9に記載の車両再識別装置。
  14. 前記第1の特徴は前記第1の車両のグローバル特徴であり、前記処理モジュールは、
    前記第1の画像に基づいて、第2のニューラルネットワークモデルを用いて前記第1の車両のグローバル特徴を取得することに用いられる、請求項9~請求項11のいずれか1項に記載の車両再識別装置。
  15. 前記第1の特徴は、前記第1の車両のグローバルサブ特徴と特徴点サブ特徴を融合した特徴であり、前記第1の画像に基づいて、前記第1の車両の第1の特徴を取得することは、
    前記第1の画像に基づいて、第2のニューラルネットワークモデルを用いて前記第1の車両のグローバルサブ特徴を取得することと、
    前記第1の画像に基づいて、第3のニューラルネットワークモデルを用いて前記第1の車両の特徴点サブ特徴を取得することと、
    前記グローバルサブ特徴と前記特徴点サブ特徴を融合して、前記第1の車両の第1の特徴を得ることに用いられる、請求項9~請求項11のいずれか1項に記載の車両再識別装置。
  16. カメラの情報は、当該カメラの地理位置と当該カメラのレンズの向きを含む、請求項9~請求項11のいずれか1項に記載の車両再識別装置。
  17. 少なくとも1つのプロセッサ、及び
    前記少なくとも1つのプロセッサと通信的に接続されるメモリ、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサは請求項1~請求項8のいずれか1項に記載の車両再識別方法を実行することができる、電子機器。
  18. コンピュータ命令を記憶している非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1~請求項8のいずれか1項に記載の車両再識別方法を実行させるためのものである、ことを特徴とする非一時的なコンピュータ可読記憶媒体。
  19. コンピュータプログラムであって、前記コンピュータプログラムがプロセッサで実行されると、コンピュータに請求項1~請求項8のいずれか1項に記載の車両再識別方法を実行させる、コンピュータプログラム。

JP2021050599A 2020-06-30 2021-03-24 車両再識別の方法、装置、機器及び記憶媒体 Active JP7268076B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010613125.7A CN111723768B (zh) 2020-06-30 2020-06-30 车辆重识别的方法、装置、设备和存储介质
CN202010613125.7 2020-06-30

Publications (2)

Publication Number Publication Date
JP2021103565A JP2021103565A (ja) 2021-07-15
JP7268076B2 true JP7268076B2 (ja) 2023-05-02

Family

ID=72570428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050599A Active JP7268076B2 (ja) 2020-06-30 2021-03-24 車両再識別の方法、装置、機器及び記憶媒体

Country Status (5)

Country Link
US (1) US11694436B2 (ja)
EP (1) EP3812963B1 (ja)
JP (1) JP7268076B2 (ja)
KR (1) KR20210037623A (ja)
CN (1) CN111723768B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111629151B (zh) * 2020-06-12 2023-01-24 北京字节跳动网络技术有限公司 视频合拍方法、装置、电子设备及计算机可读介质
CN112530169A (zh) * 2020-10-29 2021-03-19 泰州市出彩网络科技有限公司 自适应潮汐车道变换系统
CN112289040B (zh) * 2020-11-25 2022-08-19 浙江大华技术股份有限公司 一种车辆行驶方向识别的方法、装置及存储介质
CN112990217A (zh) * 2021-03-24 2021-06-18 北京百度网讯科技有限公司 针对车辆的图像识别方法、装置、电子设备和介质
CN113569912A (zh) * 2021-06-28 2021-10-29 北京百度网讯科技有限公司 车辆识别方法、装置、电子设备及存储介质
CN113435333A (zh) * 2021-06-28 2021-09-24 深圳市商汤科技有限公司 一种数据处理方法、装置、计算机设备和存储介质
US20230298350A1 (en) * 2022-03-15 2023-09-21 Genetec Inc. Vehicle identification system
CN115588239B (zh) * 2022-11-22 2023-04-18 浙江莲荷科技有限公司 交互行为识别方法、装置、设备及存储介质
CN115641559B (zh) * 2022-12-23 2023-06-02 深圳佑驾创新科技有限公司 一种环视摄像头组的目标匹配方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019024771A1 (zh) 2017-07-31 2019-02-07 阿里巴巴集团控股有限公司 车险图像处理方法、装置、服务器及系统
JP2019106193A (ja) 2019-01-22 2019-06-27 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法
JP2020065200A (ja) 2018-10-18 2020-04-23 パナソニックi−PROセンシングソリューションズ株式会社 車両等検知システムおよび車両等検知方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229468B (zh) * 2017-06-28 2020-02-21 北京市商汤科技开发有限公司 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备
CN107622229B (zh) 2017-08-29 2021-02-02 中山大学 一种基于融合特征的视频车辆重识别方法与系统
CN110363193B (zh) * 2019-06-12 2022-02-25 北京百度网讯科技有限公司 车辆重识别方法、装置、设备和计算机存储介质
CN110458086A (zh) * 2019-08-07 2019-11-15 北京百度网讯科技有限公司 车辆重识别方法及装置
CN110795580B (zh) * 2019-10-23 2023-12-08 武汉理工大学 基于时空约束模型优化的车辆重识别方法
CN111160174B (zh) * 2019-12-19 2023-07-25 深圳市捷顺科技实业股份有限公司 网络训练方法、车头朝向识别方法、装置及终端设备
CN111275983B (zh) * 2020-02-14 2022-11-01 阿波罗智联(北京)科技有限公司 车辆追踪方法、装置、电子设备和计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019024771A1 (zh) 2017-07-31 2019-02-07 阿里巴巴集团控股有限公司 车险图像处理方法、装置、服务器及系统
JP2020065200A (ja) 2018-10-18 2020-04-23 パナソニックi−PROセンシングソリューションズ株式会社 車両等検知システムおよび車両等検知方法
JP2019106193A (ja) 2019-01-22 2019-06-27 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法

Also Published As

Publication number Publication date
US20210192214A1 (en) 2021-06-24
EP3812963A3 (en) 2021-08-04
CN111723768B (zh) 2023-08-11
US11694436B2 (en) 2023-07-04
EP3812963A2 (en) 2021-04-28
CN111723768A (zh) 2020-09-29
KR20210037623A (ko) 2021-04-06
JP2021103565A (ja) 2021-07-15
EP3812963B1 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
JP7268076B2 (ja) 車両再識別の方法、装置、機器及び記憶媒体
US11961297B2 (en) Terminal device, information processing device, object identifying method, program, and object identifying system
CN111553282B (zh) 用于检测车辆的方法和装置
WO2020228643A1 (zh) 交互控制方法、装置、电子设备及存储介质
US11288887B2 (en) Object tracking method and apparatus
JP2021101365A (ja) 測位方法、測位装置及び電子機器
US11380035B2 (en) Method and apparatus for generating map
CN113591573A (zh) 多任务学习深度网络模型的训练及目标检测方法、装置
CN111767853A (zh) 车道线检测方法和装置
CN112668428A (zh) 车辆变道的检测方法、路侧设备、云控平台和程序产品
CN110798681B (zh) 成像设备的监测方法、装置和计算机设备
CN113378605A (zh) 多源信息融合方法及装置、电子设备和存储介质
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
CN114429631B (zh) 三维对象检测方法、装置、设备以及存储介质
CN112183484B (zh) 一种图像处理方法、装置、设备以及存储介质
CN110689575B (zh) 图像采集器标定方法、装置、设备和介质
CN112381877A (zh) 定位融合、室内定位方法、装置、设备及介质
CN112307872A (zh) 用于检测目标对象的方法的和装置
WO2021118560A1 (en) Scene lock mode for capturing camera images
CN111476063A (zh) 目标跟踪方法、装置、存储介质和电子设备
CN113587916B (zh) 实时稀疏视觉里程计、导航方法以及系统
WO2024000558A1 (zh) 目标跟踪方法、目标跟踪系统和电子设备
CN110751205A (zh) 物体关联方法、装置、设备和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230420

R150 Certificate of patent or registration of utility model

Ref document number: 7268076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150