JP2023084392A - Information processor - Google Patents
Information processor Download PDFInfo
- Publication number
- JP2023084392A JP2023084392A JP2021198550A JP2021198550A JP2023084392A JP 2023084392 A JP2023084392 A JP 2023084392A JP 2021198550 A JP2021198550 A JP 2021198550A JP 2021198550 A JP2021198550 A JP 2021198550A JP 2023084392 A JP2023084392 A JP 2023084392A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- target vehicle
- target
- center server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 description 50
- 238000000034 method Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000005034 decoration Methods 0.000 description 10
- 231100000241 scar Toxicity 0.000 description 9
- 208000032544 Cicatrix Diseases 0.000 description 8
- 230000006399 behavior Effects 0.000 description 8
- 230000037387 scars Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本開示は、情報処理装置に関する。 The present disclosure relates to an information processing device.
特許文献1には、車載カメラを搭載した車両と、当該車両と通信可能に構成されたサーバとを備えた車両捜索システムが開示されている。サーバは捜索対象車両のナンバープレート情報を車両に送信する。そして、車両は、カメラの画像から取得した検出車両のナンバープレート情報と、車両データに含まれるナンバープレート情報とを比較することが開示されている。
本開示は、従来よりも的確に車両の追跡を可能とする技術の提供を目的とする。 An object of the present disclosure is to provide a technology that enables tracking of vehicles more accurately than in the past.
本開示の第1の態様に係る情報処理装置は、
追跡の対象である対象車両に関する車両関連情報を協力車両に対して送信することと、
前記車両関連情報に基づいて特定された前記対象車両の画像を含む提供情報を前記協力車両から取得することと、
前記画像から特定された前記対象車両の特徴に関する特徴情報を前記協力車両に送信することと、
を実行する制御部を備える。
An information processing device according to a first aspect of the present disclosure includes:
transmitting vehicle-related information about the target vehicle being tracked to the cooperating vehicle;
Acquiring provided information including an image of the target vehicle identified based on the vehicle-related information from the cooperating vehicle;
transmitting feature information about the features of the target vehicle identified from the image to the cooperating vehicle;
A control unit for executing
本開示により、的確に車両の追跡が可能になる。 The present disclosure enables accurate vehicle tracking.
本開示の態様の一つである情報処理装置は、追跡に協力する協力車両と通信可能に構成された情報処理装置である。情報処理装置が備える制御部は、追跡の対象である対象車両に関する車両関連情報を協力車両に対して送信する。車両関連情報には、例えば、追跡の対象である対象車両に関するナンバープレート情報(ナンバープレートに標記された自動車登録番号)が含まれる。また、車両関連情報には、対象車両を捜索する範囲を指示する対象エリア情報が含まれてもよい。さらに、対象車両の車種、車両カラー等が含まれてもよい。 An information processing device that is one aspect of the present disclosure is an information processing device that is configured to be able to communicate with a cooperative vehicle that cooperates in tracking. A control unit included in the information processing device transmits vehicle-related information about the target vehicle to be tracked to the cooperating vehicle. Vehicle-related information includes, for example, license plate information (vehicle registration number marked on the license plate) of the target vehicle to be tracked. Also, the vehicle-related information may include target area information that indicates a range in which to search for the target vehicle. Furthermore, the model of the target vehicle, the vehicle color, and the like may be included.
また、制御部は、車両関連情報に基づいて特定された対象車両の画像を含む提供情報を協力車両から取得する。協力車両は車載カメラを搭載し、車載カメラで撮像された画像に含まれる画像認識機能により、ナンバープレート情報の認識処理を行う。ナンバープレート情報の認識には、公知の技術が採用できる。協力車両は車両関連情報に基づいて特定された対象車両の画像を含む提供情報を情報処理装置に送信する。対象車両の画像には、対象車両に乗車する搭乗者、対象車両の色、対象車両の車体に貼付された貼付物、対象車両に設けられた装飾物、対象車両の車体の傷痕の少なくとも1つが特定可能である画像が含
まれる。また、提供情報には、前記対象車両が検出された時刻情報、位置情報、道路リンク情報が含まれる。
In addition, the control unit acquires provided information including an image of the target vehicle specified based on the vehicle-related information from the cooperating vehicle. The cooperating vehicle is equipped with an on-board camera, and the license plate information is recognized by the image recognition function included in the image captured by the on-board camera. A known technique can be used to recognize the license plate information. The cooperating vehicle transmits to the information processing device provision information including an image of the target vehicle specified based on the vehicle-related information. The image of the target vehicle includes at least one of the following: passengers riding in the target vehicle, the color of the target vehicle, stickers attached to the body of the target vehicle, decorations provided on the target vehicle, and scratches on the body of the target vehicle. Contains images that are identifiable. Further, the provided information includes time information when the target vehicle is detected, position information, and road link information.
そして、制御部は、画像から特定された対象車両の特徴に関する特徴情報を協力車両に送信する。協力車両は、情報処理装置から送信された対象車両の特徴に関する特徴情報に基づいて、対象車両を特定することが可能になる。例えば、対象車両の対向車線を走行する車両のように、ナンバープレート情報の認識が難しい場合であっても、特徴情報に基づいて対象車両の検出が可能になる。ナンバープレートが検知できなくなった場合であっても、車両の追跡が可能になる。 Then, the control unit transmits feature information about the feature of the target vehicle identified from the image to the cooperating vehicle. The cooperating vehicle can identify the target vehicle based on the feature information regarding the feature of the target vehicle transmitted from the information processing device. For example, even if it is difficult to recognize license plate information, such as a vehicle traveling in the opposite lane of the target vehicle, the target vehicle can be detected based on the feature information. Vehicles can be tracked even if the license plate is no longer detectable.
以下、図面を参照して、本開示の実施の形態を説明する。以下の実施形態の構成は例示であり、本開示は実施形態の構成に限定されない。また、以下の実施形態は可能な限り組み合わせることができる。 Embodiments of the present disclosure will be described below with reference to the drawings. The configurations of the following embodiments are examples, and the present disclosure is not limited to the configurations of the embodiments. Moreover, the following embodiments can be combined as much as possible.
<第1実施形態>
図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。情報処理システム1は、追跡対象になる車両の、ナンバープレート情報以外の特徴画像に基づいて、当該追跡対象車両の追跡を可能にするシステムである。
<First Embodiment>
FIG. 1 is a diagram showing an example of the configuration of an
図1に例示の情報処理システム1は、センターサーバ10、車両2(#1~#3)のそれぞれに搭載された車載装置20(#1~#3)を含む。センターサーバ10、各車両に搭載された車載装置20(#1~#3)は、ネットワークN1によって相互に接続されている。以下、車両2(#1~#3)を総称して車両2、車載装置20(#1~#3)を総称して車載装置20ともいう。センターサーバ10は、車載装置20を搭載する複数の車両2を管理する情報処理装置である。車載装置20は、センターサーバ10とネットワークN1を通じて通信可能であり、後述する機能を実行可能な制御装置である。
The
ネットワークN1は、例えば、インターネット等の世界規模の公衆通信網でありWAN(Wide Area Network)やその他の通信網が採用されてもよい。また、ネットワークN1は、携帯電話等の電話通信網、Wi-Fi(登録商標)等の無線通信網、VPN(Virtual Private Network)等の専用通信網を含んでもよい。なお、図1では
、1台のセンターサーバ10を例示するが、異なる領域を管轄する複数のセンターサーバ10が接続されるようにしてもよい。また、車載装置20をそれぞれに搭載する3台の車両2(#1~#3)が図示されているが、これらの車両2は3台以上に存在し得る。
The network N1 is, for example, a worldwide public communication network such as the Internet, and may employ a WAN (Wide Area Network) or other communication networks. The network N1 may also include a telephone communication network such as a mobile phone, a wireless communication network such as Wi-Fi (registered trademark), and a dedicated communication network such as a VPN (Virtual Private Network). Although one
図2は、本実施形態に係る情報処理システム1を構成するセンターサーバ10および車載装置20のハードウェア構成の一例を示す図である。図2に示すように、センターサーバ10は、接続バスによって相互に接続されたプロセッサ101、主記憶部102、補助記憶部103、通信部104、入出力IF105を含むコンピュータである。主記憶部102および補助記憶部103は、センターサーバ10が読み取り可能な記録媒体である。主記憶部102および補助記憶部103は、センターサーバ10のメモリを構成する。上記の構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素を設けないようにしてもよい。
FIG. 2 is a diagram showing an example of the hardware configuration of the
プロセッサ101は、センターサーバ10全体の制御を行う中央処理演算装置である。プロセッサ101は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等である。プロセッサ101
は、制御部の一例である。プロセッサ101は、例えば、補助記憶部103に記憶されたプログラムを主記憶部102の作業領域に実行可能に展開し、当該プログラムの実行を通じて周辺機器の制御を行うことで所定の目的に合致した機能を提供する。
The processor 101 is a central processing unit that controls the
is an example of a control unit. The processor 101, for example, develops a program stored in the auxiliary storage unit 103 in a work area of the main storage unit 102 so that it can be executed, and controls peripheral devices through execution of the program to perform a function that meets a predetermined purpose. I will provide a.
主記憶部102は、プロセッサ101が実行するプログラム、当該プロセッサが処理するデータ等を記憶する。主記憶部102は、フラッシュメモリ、RAM(Random Access Memory)やROM(Read Only Memory)を含む。補助記憶部103は、不揮発性半導体メモリ(フラッシュメモリ、EPROM(Erasable Programmable ROM))を含むシリコン
ディスク、ソリッドステートドライブ装置、ハードディスクドライブ(HDD、Hard Disk Drive)装置等である。補助記憶部103は、各種のプログラムおよび各種のデータを
読み書き自在に記録媒体に格納する。補助記憶部103は、外部記憶装置とも呼ばれる。補助記憶部103は、主記憶部102を補助する記憶領域として使用され、プロセッサ101が実行するプログラム、プロセッサ101が処理するデータ等を記憶する。補助記憶部103には、例えば、オペレーティングシステム(OS:Operating System)、各種プログラム、各種テーブル等が格納される。OSは、通信部104を介して接続された機器との間でデータの受け渡しを行う通信インターフェースプログラムを含む。なお、センターサーバ10は、単一のコンピュータであってもよいし、複数台のコンピュータが連携したものであってもよい。また、補助記憶部103に格納される情報は、主記憶部102に格納されてもよい。また、主記憶部102に格納される情報は、補助記憶部103に格納されてもよい。なお、センターサーバ10で実行される一連の処理については、上述のように、プロセッサ101がプログラムにより実行する。ただし、一連の処理の少なくとも一部はデジタル回路等のハードウェアにより実行させることもできる。
The main storage unit 102 stores programs executed by the processor 101, data processed by the processor, and the like. The main storage unit 102 includes flash memory, RAM (Random Access Memory), and ROM (Read Only Memory). The auxiliary storage unit 103 is a silicon disk including a nonvolatile semiconductor memory (flash memory, EPROM (Erasable Programmable ROM)), a solid state drive device, a hard disk drive (HDD, Hard Disk Drive) device, or the like. The auxiliary storage unit 103 stores various programs and various data in a recording medium in a readable and writable manner. The auxiliary storage unit 103 is also called an external storage device. The auxiliary storage unit 103 is used as a storage area that assists the main storage unit 102, and stores programs executed by the processor 101, data processed by the processor 101, and the like. The auxiliary storage unit 103 stores, for example, an operating system (OS), various programs, various tables, and the like. The OS includes a communication interface program that exchanges data with devices connected via the communication unit 104 . Note that the
通信部104は、ネットワークN1経由で車載装置20と通信を行う手段である。通信部104は、ネットワークN1との接続方式に応じて適宜の構成を採用できる。通信部104は、例えば、LAN(Local Area Network)インターフェースボード、無線通信のための無線通信回路である。通信部104は、ネットワークN1との接続方式に応じて適宜の構成を採用できる。入出力IF105は、センターサーバ10に接続される機器との間でデータの入出力を行うインターフェースである。入出力IF105には、例えば、タッチパネル、マウス、キーボード等の入力デバイスが接続される。入出力IF105を介し、入力デバイスを操作する操作者からの操作指示等を受け付ける。また、入出力IF105には、例えば、LCD(Liquid Crystal Display)、EL(Electroluminescence)パ
ネル等の表示デバイス、プリンタ、スピーカ等の出力デバイスが接続される。
The communication unit 104 is means for communicating with the in-
車載装置20は、車両2に搭載可能なコンピュータである。図2に示されるように、車載装置20は、接続バスによって相互に接続されたプロセッサ201、主記憶部202、補助記憶部203、通信部204、入力IF205、位置情報センサ206、車載カメラ207を有する。上記の構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素
を設けないようにしてもよい。プロセッサ201、主記憶部202、補助記憶部203、通信部204は、それぞれセンターサーバ10のプロセッサ101、主記憶部102、補助記憶部103、通信部104と同様であるため説明が省略される。センターサーバ10はと同様にして、車載装置20は単一のコンピュータであってもよいし、複数台のコンピュータが連携したものであってもよい。また、車載装置20で実行される一連の処理については、プロセッサ201がプログラムにより実行する。ただし、一連の処理の少なくとも一部はデジタル回路等のハードウェアにより実行させることもできる。
The in-
入力IF205は、車両2内の車内ネットワーク(例えば、CAN(Controller Area Network)等)とのインターフェースである。入力IF205を介して、車内ネットワー
クに接続されたECU(Electronic Control Unit)等から車両2の速度等が取得される
。位置情報センサ206は、車載装置20が搭載された車両2の位置情報(例えば緯度、経度)を取得する。位置情報センサ206は、例えばGPS(Global Positioning System)受信部、無線LAN通信部等である。車載カメラ207は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor
)イメージセンサ等の撮像素子を用いて撮影を行う。車載カメラ207は、フロントカメラ、バックカメラ、サイドカメラ等であってもよいが、先行車、対向車あるいは後続車の映像を撮影可能な位置に設置されていることが好ましい。撮影により得られる画像は、静止画または所定のフレームレート(例えば30fps)の動画の何れであってもよい。
The input IF 205 is an interface with an in-vehicle network (for example, CAN (Controller Area Network), etc.) in the
) Photographing is performed using an imaging device such as an image sensor. The in-vehicle camera 207 may be a front camera, a back camera, a side camera, or the like, but is preferably installed at a position capable of capturing images of a preceding vehicle, an oncoming vehicle, or a following vehicle. An image obtained by shooting may be either a still image or a moving image with a predetermined frame rate (eg, 30 fps).
本実施形態に係る情報処理システム1では、センターサーバ10は、追跡対象になる車両(以下、追跡車両、対象車両ともいう)に関する車両関連情報を車載装置20が搭載された車両2に送信する。車両関連情報には、少なくとも対象車両に関するナンバープレート情報(ナンバープレートに標記された自動車登録番号)が含まれる。また、車両関連情報には、対象車両を捜索する範囲を指示する対象エリア情報が含まれてもよい。対象車両を捜索する範囲を限定することで、各車両2における処理負荷を低減できる。さらに、対象車両の車種、車両カラー等が含まれてもよい。
In the
センターサーバ10から送信された対象車両に関する車両関連情報はネットワークN1を介して車両2の車載装置20に受信される。車載装置20は、車載カメラ207で撮像された画像データを取得し、画像に含まれるナンバープレート情報の認識処理を行う。ナンバープレート情報の認識には、公知の技術が採用できる。また、車両関連情報に対象車両の車種、車両カラーが含まれる場合には、これらの情報をフィルタ情報として対象車両の分別を行い、分別後の画像データに対してナンバープレート情報の認識処理を行うとしてもよい。
The vehicle-related information about the target vehicle transmitted from the
車載装置20は、対象車両を検知したときには、対象車両の撮像画像、対象車両の管理番号(タグ番号)、自車両の車両ID(ナンバープレート情報等)、時刻情報、位置情報、走行中の道路を識別する道路リンク番号等を含む提供情報をセンターサーバ10に送信する。そして対象車両を検知した車載装置20は、対象車両の提供情報を連続してセンターサーバ10に送信する状態(以下、「追跡モード」ともいう)に移行する。追跡モードに移行した車載装置20は、対象車両の追跡が継続されている間、定期的にセンターサーバ10に提供情報を送信する。また、追跡モードに移行した車載装置20は、車載カメラ207で撮像された画像データから対象車両の新たな特徴が検出されたときには、当該特徴画像を抽出し、提供情報としてセンターサーバ10に送信する。このような特徴として、対象車両の搭乗者、ステッカー等の貼付物、車内に設けられた飾りやカップホルダ、人形等の装飾物、車体の傷痕等が例示される。
When the in-
図3は、対象車両(追跡車両)の追跡を説明する図である。図3において対象車両V1は追跡対象の車両であり、片側1車線の道路R1を白抜き矢印方向に走行しているものと
する。車両2#1、2#2は車載装置20を搭載する車両であり、各車両はセンターサーバ10から送信された車両関連情報を受信しているものとする。車両2#2は、対象車両V1に先行する車両であり、破線で示される扇形の領域は車載カメラ207(バックカメラ)の視野角を表す。また、車両2#1は対象車両V1の後方を走行する車両であり、細破線で示される扇形の領域は車載カメラ207(フロントカメラ)の視野角を表す。なお、対象車両V1の後方を走行する車両2#1は、「対象車両V1から後行する車両」ともいうことができる。
FIG. 3 is a diagram for explaining tracking of a target vehicle (tracked vehicle). In FIG. 3, the target vehicle V1 is the vehicle to be tracked, and is traveling in the direction of the white arrow on the one-lane road R1.
図4は、対象車両の特徴を説明する図である。図4(a)には、対象車両V1を後方側から視た概略的な視認図が例示され、図4(b)には、対象車両V1の前方側から視た概略的な視認図が例示されている。 FIG. 4 is a diagram for explaining features of the target vehicle. FIG. 4(a) illustrates a schematic visual view of the target vehicle V1 viewed from the rear side, and FIG. 4(b) illustrates a schematic visual view of the target vehicle V1 viewed from the front side. It is
車両2#1の車載装置20は、例えば、図4(a)に示される画像データをフロントカメラから取得し、破線枠V1aで囲まれた領域の画像データからナンバープレート情報の認識処理を行い、対象車両V1を検出する。そして、車両2#1の車載装置20は、追跡モードに移行し、例えば、破線枠V1bの領域に示される車体カラー、破線枠V1cの領域に示されるステッカー等の貼付物、破線枠V1dの領域に示される傷痕等を特徴として検出する。検出された特徴は画像データとして抽出され、提供情報としてセンターサーバ10に送信される。例えば、対象車両V1に関する新たな特徴が検出されるたびに、提供情報がセンターサーバ10に送信される。ただし、提供情報が所定期間、主記憶部202等に蓄積され、定期的にセンターサーバ10に送信されてもよい。
The in-
また、車両2#2の車載装置20は、例えば、図4(b)に示される画像データをバックカメラから取得し、破線枠V1aで囲まれた領域の画像データからナンバープレート情報の認識処理を行い、対象車両V1を検出する。そして、車両2#2の車載装置20は、追跡モードに移行し、例えば、破線枠V1bの領域に示される車体カラー、破線枠V1eの領域に示されるように車内に吊下げられた装飾物、破線枠V1f、V1gの領域に示される搭乗員等を特徴として検出する。検出された特徴は画像データとして抽出され、提供情報としてセンターサーバ10に送信される。車両2#2においても、対象車両V1に関する新たな特徴が検出されるたびに、提供情報がセンターサーバ10に送信される。ただし、提供情報が所定期間、主記憶部202等に蓄積され、定期的にセンターサーバ10に送信されてもよい。
Further, the in-
なお、対象車両V1を検知した車載装置20は、入力I/F205に接続された車内ネットワークを介して自車両の車速を取得し、当該車速を提供情報に含めて送信してもよい。また、追跡モードに移行した車載装置20は、対象車両V1の左右折に伴うウィンカーランプの点灯、停車等に伴う尾灯の点灯を、対象車両V1の挙動を示すイベントとして検出し、提供情報としてセンターサーバ10に送信する。この際においても、車載装置20は、車内ネットワークを介して取得された自車両の車速、ウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報を提供情報に含めて送信することもできる。
Note that the in-
センターサーバ10は、各車両から送信された対象車両V1の特徴データを取集し、データベースに蓄積する。そしてセンターサーバ10は、データベースに蓄積された特徴データを特徴の種別を示すカテゴリ単位に分類する。分類された対象車両V1の新たな特徴は、対象車両V1が存在すると推定された道路リンク情報とともに各車両に送信される。
The
図3に戻り、片側1車線の道路R1の対向車線を走行する車両2#3には、センターサーバ10から対象車両V1の車両関連情報、特徴情報、対象車両V1が存在する道路リンク情報が送信される。例えば、特徴情報には図4(b)の破線枠V1e、V1f、V1gに示される特徴データが含まれているものとする。
Returning to FIG. 3, vehicle-related information, characteristic information, and road link information of the target vehicle V1 are transmitted from the
対象車両V1が走行する車線に対して対向車線を走行する車両2#3の車載装置20は、一点鎖線で示される扇形の視野角で撮像された車載カメラ207の画像データから対象車両V1を検出する。例えば、車両2#3の車載装置20は、ナンバープレート情報が認識できない場合であっても、対象車両V1の車体カラー、特徴情報を用いて対象車両V1の検出が可能になる。車載装置20は、例えば、画像データから図4(b)の破線枠V1bの領域に示される車体カラー、破線枠V1eの領域に示される装飾物の認識処理を行ことで対象車両V1の検出が可能になる。同様にして、車載装置20は、破線枠V1fに示される搭乗員(運転者)、破線枠V1gに示される搭乗員(運転補助者)の認識処理を行うことで対象車両V1の検出が可能になる。
The in-
このように、本実施形態に係る情報処理システム1では、例えば、対象車両V1の対向車線を走行する車両のように、ナンバープレート情報の認識が難しい場合であっても、特徴情報に基づいて対象車両の検出が可能になる。また、例えば、対象車両V1の対向車線を走行する車両からは、車両2#1のように後続車では検知できない特徴(運転者、運転補助者の特徴、ステッカー等の貼付物、装飾物、傷痕)が検知できるため、より多くの特徴を収集して蓄積することが可能になる。本実施形態に係る情報処理システム1によれば、精度の高い対象車両の情報を取得することが可能になる。したがって、情報処理システム1は、的確に車両の追跡が可能となる。
As described above, in the
(機能構成)
次に、図5から図9を参照して、本実施形態に係る情報処理システム1のセンターサーバ10、車載装置20の機能構成を説明する。
(Functional configuration)
Next, functional configurations of the
(センターサーバ)
図5は、センターサーバ10の機能構成の一例を概略的に示す図である。センターサーバ10は、機能構成要素に、車両関連情報送信部11、提供情報取得部12、特徴データ処理部13、対象車両DB14、提供情報DB15、特徴情報DB16、地図情報DB17を備える。センターサーバ10のプロセッサ101は、主記憶部102に展開されたコンピュータプログラムにより、車両関連情報送信部11、提供情報取得部12、特徴データ処理部13の処理を実行する。ただし、各機能構成素のいずれか、またはその処理の一部がデジタル回路等のハードウェアにより実行されてもよい。
(Center server)
FIG. 5 is a diagram schematically showing an example of the functional configuration of the
追跡車両DB14、提供情報DB15、特徴情報DB16は、プロセッサ101によって実行されるデータベース管理システム(Database Management System:DBMS)のプログラムが、補助記憶部103に記憶されるデータを管理することで構築される。追跡車両DB14、提供情報DB15、特徴情報DB16は、例えば、リレーショナルデータベースである。地図情報DB17には、道路リンク番号や交差点等のノード番号等の地物位置を含む地図データ、当該地図データ上の各地点の特性を示す文字や写真等のPOI情報を含む地図情報が格納される。地図情報DB17は、ネットワークN1に接続される他のシステム、例えば、GIS(Geographic Information System)から提供されてもよい。
また、センターサーバ10の各機能構成要素のいずれか、またはその処理の一部は、ネットワークN1に接続される他のコンピュータにより実行されてもよい。
The tracked vehicle DB 14, the provided information DB 15, and the characteristic information DB 16 are constructed by managing data stored in the auxiliary storage unit 103 by a database management system (DBMS) program executed by the processor 101. . The tracked vehicle DB 14, the provided information DB 15, and the feature information DB 16 are, for example, relational databases. The map information DB 17 stores map data including feature positions such as road link numbers and node numbers such as intersections, and map information including POI information such as characters and photographs indicating the characteristics of each point on the map data. be. The map information DB 17 may be provided from another system connected to the network N1, such as a GIS (Geographic Information System).
Also, any one of the functional components of the
車両関連情報送信部11は、追跡車両DB14を参照し、対象車両に関する車両関連情報を車載装置20が搭載された車両2に送信する。追跡車両DB14には、センターサーバ10が対象車両を管理するための識別番号(タグ番号)と関連付けされた車両関連情報が格納されている。車両関連情報には、少なくとも対象車両に関するナンバープレート情報が含まれる。また、車両関連情報送信部11は、特徴情報DB16を参照し、対象車両に関する特徴情報を車両2に送信する。対象車両に関する特徴情報は、当該対象車両の車
両関連情報、および当該対象車両が存在すると推定された道路リンク情報とともに送信される。
The vehicle-related information transmission unit 11 refers to the tracked vehicle DB 14 and transmits vehicle-related information regarding the target vehicle to the
提供情報取得部12は、対象車両を検知した車両2から送信された提供情報を取得する。提供情報には、対象車両の撮像画像、対象車両の管理番号(タグ番号)、自車両の車両ID(ナンバープレート情報等)、時刻情報、位置情報、走行中の道路を識別する道路リンク番号等が含まれる。また、提供情報には、対象車両から検出された新たな特徴情報(特徴データ、左右折や停車等の挙動に関するイベント発生を示す画像データ、車速等)が含まれる。提供情報取得部12は、取得された提供情報を時刻情報に関連付けて提供情報DB15に格納する。対象車両の提供情報は、管理番号毎に収集・蓄積される。
The provided information acquisition unit 12 acquires provided information transmitted from the
特徴データ処理部13は、提供情報DB15を参照し、各車両から収集した特徴データ、撮像データを対象車両毎に集約し、特徴の種別を示すカテゴリ単位に分類する。分類された特徴は、特徴情報DB16に格納される。また、特徴データ処理部13は、地図情報DB17を参照し、左右折や停車等の挙動に関するイベント発生を示す提供情報から、対象車両が存在する道路リンクを推定する。そして、特徴データ処理部13は、推定された道路リンクから当該道路リンク周辺の道路リンクを特定する。特定された道路リンクは、追跡車両DB14に格納される。 The feature data processing unit 13 refers to the provided information DB 15, aggregates the feature data and the imaging data collected from each vehicle for each target vehicle, and classifies them into categories indicating types of features. The classified features are stored in the feature information DB 16 . Further, the feature data processing unit 13 refers to the map information DB 17 and estimates the road link on which the target vehicle is located from the provided information indicating the occurrence of an event related to behavior such as turning left or right or stopping. Then, the feature data processing unit 13 identifies road links around the road link from the estimated road link. The identified road link is stored in the tracked vehicle DB 14 .
追跡車両DB14には、追跡対象となる車両の管理番号と関連付けされた車両関連情報が格納される。車両関連情報には、少なくとも対象車両に関するナンバープレート情報が含まれる。また、車両関連情報には、対象車両を捜索する範囲を指示する対象エリア情報が含まれてもよい。対象車両を捜索する範囲を限定することで、各車両2における処理負荷を低減できる。対象エリア情報は、例えば、標準地域メッシュコード、分割地域メッシュコードといった地域メッシュ情報である。但し、対象エリア情報は、市区町村等を示す情報でもよく、地域を特定する緯度・経度で区切られた情報であってもよい。また、追跡の初期段階で、車種や車両カラー等が特定されている場合にはこれらの情報が車両関連情報に含まれてもよい。さらに、対象車両が検知され、当該対象車両の存在が推定される道路リンクから絞り込まれて特定された道路リンク情報が車両関連情報に追加される。
The tracked vehicle DB 14 stores vehicle-related information associated with the management number of the vehicle to be tracked. The vehicle-related information includes at least license plate information about the target vehicle. Also, the vehicle-related information may include target area information that indicates a range in which to search for the target vehicle. The processing load on each
図6は、提供情報DB15に格納される提供情報の一例を示す図である。提供情報は、図6に例示のように、対象車両毎の提供情報テーブルとして管理される。提供情報テーブルに登録される情報は、適宜にフィールドの追加、変更、削除が可能である。図6において、提供情報テーブルは、取得日時、協力車両ID、位置情報、リンクNo、画像情報、イベントの各フィールドを有する。画像情報フィールドは、さらに複数の画像が格納されるサブフィールドを有する。画像情報フィールドにおけるサブフィールド数においても適宜に追加、変更、削除が可能である。 FIG. 6 is a diagram showing an example of provided information stored in the provided information DB 15. As shown in FIG. The provided information is managed as a provided information table for each target vehicle, as illustrated in FIG. Information registered in the provided information table can be appropriately added, changed, or deleted. In FIG. 6, the provided information table has fields of acquisition date and time, cooperating vehicle ID, position information, link No., image information, and event. The image information field further has subfields in which a plurality of images are stored. The number of subfields in the image information field can also be appropriately added, changed, or deleted.
取得日時には、対象車両を検知した車載装置20から送信された提供情報の取得日時を示す情報が格納される。図6においては、分単位の取得日時が示されているが、取得日時は秒単位であってもよく、5分単位、30分単位であってもよい。提供情報テーブルは最新の取得日時によって更新される。協力車両IDには、センターサーバ10で管理されている追跡に協力可能な車両2を一意に識別する識別情報(協力車両ID)が格納される。協力車両IDは、車両2の自動車登録番号であってもよい。位置情報には、提供情報を送信した車両2の位置を示す位置情報(緯度、経度等)が格納される。リンクNoには、提供情報を送信した車両2が存在する道路リンク番号を示す情報が格納される。なお、リンクNoには、交差点等のノード番号や住所等が含まれてもよい。画像情報には、提供情報に含まれる、車載カメラ207を介して撮像された対象車両の画像データを示す情報が格納される。画像情報として例えば、車体カラー、ステッカー等の貼付物、傷痕、装飾物、搭乗員(運転者、運転補助者)等の画像データが格納される。イベントには、対象車両に
関する挙動を示す画像データ(左右折に伴うウィンカーランプの点灯、停車に伴う尾灯の点灯等)が格納される。なお、画像情報およびイベントに格納される画像は静止画であってもよく動画であってもよい。また、提供情報に車速やウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報が含まれる場合には、画像情報あるいはイベントに関連付けて格納してもよい。なお、画像情報およびイベントに格納される情報が存在しない場合には、当該情報が存在しないことを示す「空欄」、「---」といった情報が格納さ
れる。
Acquisition date and time stores information indicating the acquisition date and time of the provided information transmitted from the in-
図7は、特徴情報DB16に格納される特徴情報の一例を示す図である。特徴情報は、図7に例示のように、特徴情報テーブルとして管理される。特徴情報テーブルに登録される情報は、適宜にフィールドの追加、変更、削除が可能である。図7において、特徴情報テーブルは、車両ID、特徴情報の各フィールドを有する。特徴情報フィールドは、さらに特徴を示す種別毎の画像が格納されるサブフィールドを有する。特徴情報フィールドにおけるサブフィールド数においても適宜に追加、変更、削除が可能である。 FIG. 7 is a diagram showing an example of feature information stored in the feature information DB 16. As shown in FIG. The feature information is managed as a feature information table as illustrated in FIG. Information registered in the feature information table can be appropriately added, changed, or deleted. In FIG. 7, the characteristic information table has fields of vehicle ID and characteristic information. The feature information field further has subfields in which images of each type representing features are stored. The number of subfields in the feature information field can also be added, changed, or deleted as appropriate.
車両IDには、追跡対象となる車両を識別する管理番号が格納される。特徴情報には、特徴データ処理部13によって集約して分類された対象車両の特徴データが格納される。色サブフィールドには集約された車両カラーを示す情報が格納される。ここで、集約された車両カラーとは、各車両から収集した1台の追跡対象となる車両の特徴データに複数の車両の色が含まれる場合、例えば、多数決によって決定される色である。例えば、1台の追跡対象となる車両の外観に複数の色が含まれる場合、最も大きい面積を占める色から順に1または複数の車両カラーが決定されればよい。また、複数の車両から収集した提供情報において、1台の追跡対象となる車両に関して、異なる車両カラーが含まれる場合、提供回数多い順に、1または複数の車両カラーが決定されればよい。同様にして、搭乗者Aには運転者を示す集約された画像データ、搭乗者Bには運転補助者を示す集約された画像データ、貼付物にはステッカー等を示す集約された画像データ、装飾物には車内における集約された装飾物を示す画像データが格納される。また、傷痕には集約された傷痕を示す画像データが格納される。ここで、集約された画像データとは、類似の特徴を有する画像データを除去した画像データの集合をいう。したがって、特徴情報に格納される画像データは単一であってもよく、複数であってもよい。また、特徴情報に格納される画像データが存在しない場合には、当該情報が存在しないことを示す「空欄」、「---」といった情
報が格納される。なお、類似の特徴を有する画像データが除去される場合、コントラスト等が鮮明な画像データが優先して残されるようにしてもよい。
The vehicle ID stores a management number that identifies the vehicle to be tracked. The feature information stores the feature data of the target vehicle aggregated and classified by the feature data processing unit 13 . The color subfield stores information indicating the aggregated vehicle color. Here, the aggregated vehicle color is, for example, the color determined by majority vote when the feature data of one tracked vehicle collected from each vehicle includes the color of a plurality of vehicles. For example, if the appearance of one tracked vehicle includes a plurality of colors, one or more vehicle colors may be determined in order from the color that occupies the largest area. In addition, in the provided information collected from a plurality of vehicles, when different vehicle colors are included for one vehicle to be tracked, one or more vehicle colors may be determined in descending order of the number of times provided. Similarly, for Passenger A, aggregated image data indicating the driver, for Passenger B, aggregated image data indicating the driver's assistant, and for the pasted matter, aggregated image data indicating a sticker or the like, decorations, etc. Objects store image data representing aggregated decorations in the vehicle. In addition, image data representing aggregated scars is stored in scars. Here, the aggregated image data refers to a set of image data from which image data having similar features are removed. Therefore, the image data stored in the feature information may be single or plural. Further, when there is no image data stored in the feature information, information such as "blank" or "---" indicating that the information does not exist is stored. When image data having similar features are removed, image data with clear contrast and the like may be preferentially left.
(車載装置)
次に、車載装置20を説明する。図8は、車載装置20の機能構成の一例を概略的に示す図である。車載装置20は、機能構成要素に、車両関連情報取得部21、画像情報取得部22、追跡処理部23、情報提供処理部24、対象車両DB25、車両画像DB26、地図情報DB27を備える。車載装置20のプロセッサ201は、主記憶部202に展開されたコンピュータプログラムにより、車両関連情報取得部21、画像情報取得部22、追跡処理部23、情報提供処理部24の処理を実行する。ただし、各機能構成素のいずれか、またはその処理の一部がデジタル回路等のハードウェアにより実行されてもよい。
(In-vehicle device)
Next, the in-
対象車両DB25、車両画像DB26は、プロセッサ201によって実行されるデータベース管理システムのプログラムが、補助記憶部203に記憶されるデータを管理することで構築される。対象車両DB25、車両画像DB26は、例えば、リレーショナルデータベースである。地図情報DB27は、例えば、車内ネットワークを介して接続されたナビゲーションシステムから提供されるデータベースである。地図情報DB27には、道路リンク番号や交差点等のノード番号等の地物位置を含む地図データ、当該地図データ上の各地点の特性を示す文字や写真等のPOI情報を含む地図情報が格納される。 The target vehicle DB 25 and the vehicle image DB 26 are constructed by managing data stored in the auxiliary storage unit 203 by a database management system program executed by the processor 201 . The target vehicle DB 25 and the vehicle image DB 26 are, for example, relational databases. The map information DB 27 is, for example, a database provided by a navigation system connected via an in-vehicle network. The map information DB 27 stores map data including feature positions such as road link numbers and node numbers such as intersections, and map information including POI information such as characters and photographs indicating the characteristics of each point on the map data. be.
車両関連情報取得部21は、センターサーバ10から送信された対象車両に関する車両関連情報を取得する。取得された車両関連情報は、対象車両DB25に格納される。また、車両関連情報取得部21は、センターサーバ10から送信された対象車両に関する特徴情報を取得する。取得された特徴情報は、対象車両の管理番号に関連付けされて対象車両DB25に格納される。
The vehicle-related information acquisition unit 21 acquires vehicle-related information regarding the target vehicle transmitted from the
画像情報取得部22は、自車両の位置が所定条件を持たす場合には、車載カメラ207から撮像されたカメラ画像を取得する。例えば、画像情報取得部22は、対象車両DB25および地図情報DB27を参照し、位置情報センサ206から取得した自車両の位置情報(緯度、経度)が、車両関連情報で指定された対象エリアに含まれる場合にはカメラ画像を取得する。同様にして、画像情報取得部22は、位置情報センサ206から取得した自車両の位置情報が、車両関連情報で指定された道路リンク情報に対応する場合にはカメラ画像を取得する。画像情報取得部22は、取得されたカメラ画像に、画像が取得された時刻情報、位置情報、道路リンク情報、対象車両の管理番号を関連付けて車両画像DB26に格納する。 The image information acquisition unit 22 acquires a camera image captured by the vehicle-mounted camera 207 when the position of the own vehicle satisfies a predetermined condition. For example, the image information acquisition unit 22 refers to the target vehicle DB 25 and the map information DB 27, and the position information (latitude, longitude) of the own vehicle acquired from the position information sensor 206 is included in the target area specified by the vehicle-related information. Acquire the camera image if possible. Similarly, the image information acquisition unit 22 acquires a camera image when the position information of the own vehicle acquired from the position information sensor 206 corresponds to the road link information designated by the vehicle-related information. The image information acquiring unit 22 stores the acquired camera image in the vehicle image DB 26 in association with the time information at which the image was acquired, the position information, the road link information, and the management number of the target vehicle.
追跡処理部23は、対象車両DB25および車両画像DB26を参照し、追跡対象になる車両を検知する。追跡処理部23は、例えば、車両画像DB26に格納された画像データを取得し、画像に含まれるナンバープレート情報、特徴情報、車両カラー、車種の認識処理を行う。これら画像認識処理には、公知の技術が採用できる。追跡処理部23は、対象車両が検知されたときには、検知された対象車両の管理番号、画像データを情報提供処理部24に引き渡し、対象車両の提供情報を連続してセンターサーバ10に送信する状態(追跡モード)に移行する。追跡モードに移行した追跡処理部23は、対象車両が検知されている間は、定期的に対象車両の管理番号および画像データが情報提供処理部24に引き渡される。
The tracking processing unit 23 refers to the target vehicle DB 25 and the vehicle image DB 26 to detect vehicles to be tracked. The tracking processing unit 23 acquires image data stored in the vehicle image DB 26, for example, and performs recognition processing of license plate information, feature information, vehicle color, and vehicle type included in the image. A known technique can be adopted for these image recognition processes. When the target vehicle is detected, the tracking processing unit 23 transfers the management number and image data of the detected target vehicle to the information provision processing unit 24, and continuously transmits the provided information of the target vehicle to the
追跡モードに移行した追跡処理部23は、車載カメラ207で撮像されたカメラ画像から、対象車両の新たな特徴の検出を行う。追跡処理部23は、例えば、対象車両の搭乗者、ステッカー等の貼付物、車内に設けられた飾りやカップホルダ、人形等の装飾物、車体の傷痕等の特徴が検知されたときには、当該特徴を含む画像データを抽出し、情報提供処理部24に引き渡す。 The tracking processing unit 23 shifted to the tracking mode detects new characteristics of the target vehicle from the camera image captured by the vehicle-mounted camera 207 . For example, when the tracking processing unit 23 detects a feature such as a passenger of the target vehicle, an attached object such as a sticker, an ornament provided in the vehicle, a cup holder, an ornament such as a doll, or a scar on the vehicle body, the tracking processing unit 23 detects the feature. is extracted and handed over to the information provision processing unit 24 .
また、追跡モードに移行した追跡処理部23は、車載カメラ207で撮像されたカメラ画像から、対象車両の左右折、停車といった挙動を示すイベントが検知された場合には、当該イベントを示す画像データを抽出し、情報提供処理部24に引き渡す。追跡処理部23は、例えば、対象車両の左右折に伴うウィンカーランプの点灯、停車等に伴う尾灯の点灯を、挙動を示すイベントとして検出する。 Further, when the tracking processing unit 23 that has shifted to the tracking mode detects an event indicating the behavior of the target vehicle such as turning left or right or stopping from the camera image captured by the vehicle-mounted camera 207, image data indicating the event is detected. is extracted and handed over to the information provision processing unit 24 . The tracking processing unit 23 detects, for example, the turn-on of the turn signal lamp when the target vehicle turns left or right, and the turn-on of the tail light when the target vehicle stops, as an event indicating the behavior.
情報提供処理部24は、追跡処理部23から引き渡された画像データ、対象車両の管理番号に、画像が取得された時刻情報、位置情報、道路リンク情報、自車両の車両ID(協力車両ID)を含めた提供情報をセンターサーバ10に送信する。なお、情報提供処理部24は、車内ネットワークを介して取得された車速、自車両の車速、ウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報を提供情報に含めて送信してもよい。
The information provision processing unit 24 adds the image data handed over from the tracking processing unit 23, the management number of the target vehicle, the time information when the image was acquired, the position information, the road link information, and the vehicle ID of the own vehicle (cooperating vehicle ID). to the
図9は、対象車両DB25に格納される情報の一例を示す図である。図9に例示のように、対象車両DB25に格納される情報は対象車両の管理番号毎に行分けされた車両情報テーブルとして管理される。車両情報テーブルに登録される情報は、適宜にフィールドの追加、変更、削除が可能である。図9において、車両情報テーブルは、No、車両ID、ナンバープレート情報、対象エリア、特徴情報の各フィールドを有する。特徴情報フィー
ルドは、特徴を示す種別毎の画像が格納されるサブフィールドを有する。特徴情報フィールドにおけるサブフィールド数においても適宜に追加、変更、削除が可能である。
FIG. 9 is a diagram showing an example of information stored in the target vehicle DB 25. As shown in FIG. As illustrated in FIG. 9, the information stored in the target vehicle DB 25 is managed as a vehicle information table in which lines are separated for each target vehicle management number. Information registered in the vehicle information table can be appropriately added, changed, or deleted. In FIG. 9, the vehicle information table has fields for No, vehicle ID, license plate information, target area, and feature information. The feature information field has subfields in which an image for each type indicating features is stored. The number of subfields in the feature information field can also be added, changed, or deleted as appropriate.
Noには、車載装置20で付与された対象車両を管理する番号が格納される。車両IDには、センターサーバ10で追跡対象の車両を識別する管理番号が格納される。ナンバープレート情報には、対象車両のナンバープレートに標記された自動車登録番号を示す情報が格納される。対象エリアには、対象車両を捜索する範囲を指示する対象エリア情報が格納される。対象エリア情報は、例えば、標準地域メッシュコード、分割地域メッシュコードといった地域メッシュ情報である。但し、対象エリア情報は、市区町村等を示す情報でもよく、地域を特定する緯度・経度で区切られた情報であってもよい。
In No, a number assigned by the in-
特徴情報には、センターサーバ10によって集約して分類された対象車両の特徴データおよび特定された道路リンク情報が格納される。色サブフィールドには集約された車両カラーを示す情報が格納される。同様にして、搭乗者Aには運転者を示す集約された画像データ、搭乗者Bには運転補助者を示す集約された画像データ、貼付物にはステッカー等を示す集約された画像データ、装飾物には車内における集約された装飾物を示す画像データが格納される。また、傷痕には集約された傷痕を示す画像データが格納される。リンクNoサブフィールドには、対象車両の存在が推定される道路リンクから絞り込まれて特定された道路リンク情報が格納される。特徴情報に格納される画像データや道路リンクは単一であってもよく、複数であってもよい。また、特徴情報に格納されるデータが存在しない場合には、当該情報が存在しないことを示す「空欄」、「---」といった情報が格納され
る。
The feature information stores the feature data of the target vehicle aggregated and classified by the
(処理の流れ)
図10、11を参照して、本実施形態に係る情報処理システム1の処理を説明する。図10、11は、センターサーバ10、車載装置20が実行する処理の流れの一例を示すシーケンス図である。
(Processing flow)
Processing of the
図10において、センターサーバ10は、追跡対象の車両に関する車両関連情報を車載装置20が搭載された車両2に一斉に送信する(S1)。車両関連情報には、少なくともセンターサーバ10が対象車両を管理するためのタグ番号(図9、車両ID)およびナンバープレート情報が含まれる。また、車両カラー、車種、対象車両を捜索する範囲を指示する対象エリア情報等が存在する場合には、これらの情報を車両関連情報に含めて送信される。センターサーバ10から送信された対象車両に関する車両関連情報は、車載装置20が搭載された車両2に受信される(S2)。
In FIG. 10, the
車載装置20は、受信した車両関連情報を対象車両DB25に格納する。車載装置20は、対象車両DB25を参照し、対象車両に関するナンバープレート情報、車種、車両カラーといった特徴を取得する。そして、車載装置20は、車載カメラ207から撮像されたカメラ画像を取得し、画像認識により、対象車両に関するナンバープレート情報および特徴に合致する車両を照合する(S3)。車載装置20は、照合の結果、対象車両が検知されたときには対象車両の情報を連続してセンターサーバ10に送信する状態(追跡モード)に移行し、S5の処理に移行する(S4でYES)。そして、車載装置20は、少なくとも検知された対象車両のカメラ画像に、対象車両のタグ番号、自車両の識別情報(図6、協力車両ID)、時刻情報、位置情報(緯度、経度)、道路リンク情報を関連付けた提供情報をセンターサーバ10に送信する。なお、対象車両が検知されない場合には、車載装置20は、S3に処理を戻し(S4でNO)、対象車両に関するナンバープレート情報および特徴に合致する車両の照合を継続する。
The in-
追跡モードに移行した車載装置20は、定期的に対象車両のカメラ画像に、対象車両の
タグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報を関連付けた提供情報をセンターサーバ10に送信する(S5)。また、新たな特徴(対象車両の搭乗者、ステッカー等の貼付物、車内に設けられた飾りやカップホルダ、人形等の装飾物、車体の傷痕等)が検知されたときには、当該特徴を含む画像データを抽出し、センターサーバ10に送信する。新たな特徴を含む画像データは、対象車両のタグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報とともに提供情報として送信される。追跡処理が継続される車載装置20は、さらに新たな特徴が検知された際には、新たな特徴を含む画像データを抽出し、対象車両のタグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報とともにセンターサーバ10に送信する(S6)。なお、提供情報には自車両の車速等の情報が含まれてもよい。
The in-
車載装置20から送信された提供情報は、センターサーバ10で受信される(S7)。センターサーバ10は、車載装置20から送信された提供情報DB15に格納する。提供情報DB15では、車載装置20から送信された提供情報は、取得日時順にソーティングされて収集・蓄積され、対象車両毎の提供情報テーブルとして管理される。
The provided information transmitted from the in-
センターサーバ10は、提供情報DB15に格納された、各車両から収集した特徴データ、撮像データを対象車両毎に集約し、特徴の種別を示すカテゴリ単位に分類する。分類された特徴は、特徴情報DB16に格納される(S8)。そして、センターサーバ10は、追加された特徴を示す特徴データ、対象車両の存在する道路リンク情報を各車両に送信する(S9)。センターサーバ10から送信された、追加された特徴を示す特徴データ、対象車両の存在する道路リンク情報は車載装置20に受信され、当該車載装置が管理する対象車両DB25が最新の情報に格納される。
The
なお、センターサーバ10は、提供情報に含まれる位置情報、道路リンク情報から対象車両の現在の所在位置を推定し、当該所在位置を含む所定の領域内の車両に対して特徴データを送信してもよい。所定の領域は、対象エリア情報として指定される。但し、図12で後述するように、対象エリア情報は所定の領域の中心になる位置(緯度、経度)と、距離半径(例えば、10km等)を指定してもよい。対象エリアの指定により、対象車両の存在する範囲を絞り込むことで、追跡精度を向上させることができる。また、センターサーバ10は、対象車両の所在位置周辺の道路リンク上の車両に対して特徴情報を送信するようにしてもよく、当該道路リンク上に位置する車両に限定して追跡処理の継続指示を送信してもよい。この場合においても、対象車両の追跡精度が向上できる。
Note that the
追跡処理が継続する車両2は、対象車両の挙動を示すイベント(左右折、停車)を検知した際には、イベントの発生を示す画像データを抽出し、提供情報としてセンターサーバ10に送信する(S10)。提供情報には、対象車両のタグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報が含まれる。なお、追跡処理が継続する車両2には、追加された特徴データとともに道路リンク情報が指定された情報を受信した後に、追跡モードに移行した車載装置20が含まれる。また、対象車両に後続して左右折する車両2の場合には、提供情報に、ノード番号、車内ネットワークを介して取得された車速やウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報を含めてもよい。
When the
センターサーバ10は、イベントの発生に伴う提供情報を受信する(S11)。イベントの発生に伴い車載装置20から送信された提供情報は提供情報DB15に格納される。そして、センターサーバ10は、地図情報DB17を参照し、検知された対象車両の挙動、提供情報に含まれる道路リンクやノード情報から、対象車両が存在可能な道路リンクを推定する(S12)。
The
センターサーバ10は、さらに、地図情報DB17を参照し、対象車両が存在すると推
定された所在位置周辺の道路リンクを特定する。そして、特定された特定道路リンク上の車両に限定して、対象車両に関する特徴情報、追跡処理を行う指示を送信する(S13)。センターサーバ10から送信された特定道路リンク情報は車載装置20に受信される。
The
図11に移り、そして、センターサーバ10は、追跡を終了するか否かを判定する(図11のS14)。センターサーバ10は、追跡を終了しない場合、処理S7に戻し、次の提供情報の受信を待つ。一方、センターサーバ10は、追跡を終了する場合、当該追跡対象の車両に対する追跡を終了する指示を車両2に一斉に送信する(S15)。そして、センターサーバ10は、追跡を終了する。車両2は、追跡を終了する指示を受信しない場合(S16でNO)、処理をS3に戻す。そして、特定道路リンクを走行する車両2の車載装置20では対象車両の検知が行われ(S3)、当該対象車両に対する追跡処理が行われる(S5-S6、S10)。一方、車両2は、追跡を終了する指示を受信した場合(S16でYES)、処理を終了する。
Moving on to FIG. 11, the
以上の処理により、本実施形態に係る情報処理システム1では、対象車両の特徴(ステッカー類等の貼付物、装飾物、傷痕、車両カラー等)や搭乗員(運転者、運転補助者)の特徴を各車両(協力車両)が取得し、センターサーバ10に送信できる。センターサーバ10は、各車両から収集・蓄積された対象車両の特徴を画像解析して集約し、対象車両周辺の車両に対して集約された特徴データを送信できる。対象車両の特徴と合致した車両を検知した際には、当該車両の撮像データをセンターサーバ10にアップできるため、対象車両の追跡をより効率化できる。
Through the above processing, the
本実施形態に係る情報処理システム1では、例えば、対象車両の対向車線を走行する車両のように、ナンバープレート情報の認識が難しい場合であっても、車両の特徴データから対象車両の検知が可能になる。また、追跡したい車両の情報がナンバープレート情報だけであっても、ナンバープレート情報によって対象車両を検知した車両から、車両位置、走行道路を把握し、対象車両が存在する周辺の地域エリア、道路リンクを絞り込むことができる。情報処理システム1は、絞り込まれた地域エリア、道路リンクを走行する車両から、それぞれの視野角度で検出された対象車両の特徴を蓄積できるため、より精度の高い対象車両の情報を入手することが可能になる。
In the
本実施形態においては、車載装置20からセンターサーバ10に送信される提供情報には、対象車両のタグ番号、協力車両の識別情報(協力車両ID)、時刻情報、位置情報(緯度、経度)、道路リンク情報を含むことができる。このため、センターサーバ10では、取得された対象車両のタグ番号、協力両の識別情報、時刻情報、位置情報、道路リンク情報を用いて、対象車両の存在位置を時系列的に推定可能になる。
In this embodiment, the provided information transmitted from the in-
そして、本実施形態においては、センターサーバ10は、提供情報から推定された対象車両の所在位置を含む所定の領域内の車両2に対して特徴情報が送信できる。特徴情報が送信される対象エリアを、対象車両の所在位置を含む所定の領域内に絞り込まれることで、車両追跡に関する処理負担が軽減されるとともに、対象車両の検出確度を高めることができる。センターサーバ10は、さらに、提供情報から特定された対象車両の所在位置周辺の道路リンク上に位置する車両2に対して、特徴情報を送信してもよい。車両追跡に関する処理負担をさらに軽減し、対象車両の検出確度の向上が期待できる。
In this embodiment, the
(変形例)
センターサーバ10は、入出力I/F105を介して接続されたLCD等の表示デバイスに、各車両から送信された対象車両の検知位置を表示させるようにしてもよい。図12は、表示デバイスに表示された対象車両の一例を説明する図である。図12において、黒丸は対象車両が検知された位置を表し、黒丸に付番されたt1、t2、t3は対象車両が
検知された時刻を表す。
(Modification)
The
図12に示されるように、対象車両の走行経路を一定期間ごとに地図上にプロットすることにより、対象車両の移動の軌跡と、走行経路周辺地域との情報が時系列で視認ながら追跡するができる。センターサーバ10は、対象車両の管理番号毎に提供情報DB15に蓄積された提供情報の時刻情報と位置情報、道路リンク情報を用いて地図上にプロットすればよい。
As shown in FIG. 12, by plotting the travel route of the target vehicle on a map at regular intervals, the trajectory of the target vehicle and the information on the area around the travel route can be tracked while visually recognizing it in time series. can. The
例えば、追跡を担当する担当者は、道路リンクR2の時刻t1で検知された対象車両が時刻t2の位置に表示された場合、対象車両は道路リンクR2をノードN1方向に移動していることが把握できる。また、担当者は、対象車両が検知された道路リンクR2は、ノードN1で道路リンクR3と交差するといった周辺地域の様相が把握できる。担当者は、例えば、破線で囲まれた所定の範囲(t2)を指定して対象車両の車両関連情報、特徴情報の送信をセンターサーバ10に指示する。このように、対象車両の走行が予測されるノードN1周辺の道路リンクR2、R3を走行する車両を対象として対象車両の情報を事前に通知することで、追跡精度を高めることができる。なお、所定の範囲(t2)は、例えば、ノードN1を中心として距離半径を指定する一例である。
For example, if the target vehicle detected at time t1 on road link R2 is displayed at time t2, the person in charge of tracking knows that the target vehicle is moving along road link R2 in the direction of node N1. I can grasp it. Also, the person in charge can grasp the aspect of the surrounding area such that the road link R2 where the target vehicle is detected intersects with the road link R3 at the node N1. For example, the person in charge designates a predetermined range (t2) surrounded by a dashed line and instructs the
次に、道路リンクR2上で検知された対象車両が時刻t3の位置に表示された場合、対象車両は道路リンクR2をノードN2方向に移動していることが把握できる。対象車両が検知された道路リンクR2は、ノードN2で道路リンクR4と道路リンクR5と交差するといった周辺地域の様相が把握できる。担当者は、例えば、破線で囲まれた所定の範囲(t3)を指定して対象車両の車両関連情報、特徴情報の送信をセンターサーバ10に指示する。あるいは、道路リンクR2,R4,R5を指定して対象車両の車両関連情報、特徴情報の送信をセンターサーバ10に指示してもよい。この場合においても、対象車両の走行が予測されるノードN2周辺の道路リンクR2、R4、R5を走行する車両に対して対象車両の情報を事前に通知できる。
Next, when the target vehicle detected on road link R2 is displayed at the position at time t3, it can be understood that the target vehicle is moving on road link R2 in the direction of node N2. The road link R2 on which the target vehicle is detected intersects with the road link R4 and the road link R5 at the node N2. For example, the person in charge designates a predetermined range (t3) surrounded by a dashed line and instructs the
<その他の実施形態>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
<Other embodiments>
The above-described embodiment is merely an example, and the present disclosure can be modified as appropriate without departing from the scope of the present disclosure. The processes and means described in the present disclosure can be freely combined and implemented as long as there is no technical contradiction.
また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。例えば、車載装置20の一部の機能(例えば、画像認識機能)を、センターサーバ10が備えてもよい。
Also, the processing described as being performed by one device may be shared and performed by a plurality of devices. Alternatively, processes described as being performed by different devices may be performed by one device. In a computer system, it is possible to flexibly change the hardware configuration (server configuration) to implement each function. For example, the
本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、または光学式カードのような、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present disclosure can also be implemented by supplying a computer program implementing the functions described in the above embodiments to a computer, and reading and executing the program by one or more processors of the computer. Such a computer program may be provided to the computer by a non-transitory computer-readable storage medium connectable to the system bus of the computer, or may be provided to the computer via a network. A non-transitory computer readable storage medium is any type of disk such as, for example, a magnetic disk (floppy disk, hard disk drive (HDD), etc.), an optical disk (CD-ROM, DVD disk, Blu-ray disk, etc.), It includes any type of medium suitable for storing electronic instructions, such as read only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic card, flash memory, or optical card.
1 情報処理システム
2 車両(協力車両)
10 センターサーバ(情報処理装置)
11 車両関連情報送信部
12 提供情報取得部
13 特徴データ処理部
14 追跡車両データベース
15 提供情報データベース
16 特徴情報データベース
20 車載装置(制御装置)
21 車両関連情報取得部
22 画像情報取得部
23 追跡処理部
24 情報提供処理部
25 対象車両データベース
26 車両画像データベース
1
10 center server (information processing device)
11 vehicle-related information transmitting unit 12 provided information acquiring unit 13 feature data processing unit 14 tracked vehicle database 15 provided information database 16
21 vehicle-related information acquisition unit 22 image information acquisition unit 23 tracking processing unit 24 information provision processing unit 25 target vehicle database 26 vehicle image database
Claims (1)
前記車両関連情報に基づいて特定された前記対象車両の画像を含む提供情報を前記協力車両から取得することと、
前記画像から特定された前記対象車両の特徴に関する特徴情報を前記協力車両に送信することと、
を実行する制御部を備える情報処理装置。 transmitting vehicle-related information about the target vehicle being tracked to the cooperating vehicle;
Acquiring provided information including an image of the target vehicle identified based on the vehicle-related information from the cooperating vehicle;
transmitting feature information about the features of the target vehicle identified from the image to the cooperating vehicle;
An information processing apparatus comprising a control unit that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021198550A JP2023084392A (en) | 2021-12-07 | 2021-12-07 | Information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021198550A JP2023084392A (en) | 2021-12-07 | 2021-12-07 | Information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023084392A true JP2023084392A (en) | 2023-06-19 |
Family
ID=86771642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021198550A Pending JP2023084392A (en) | 2021-12-07 | 2021-12-07 | Information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023084392A (en) |
-
2021
- 2021-12-07 JP JP2021198550A patent/JP2023084392A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11367107B2 (en) | Information processing apparatus and information processing method | |
CN107749170B (en) | Vehicle tracking device and method | |
US11940291B2 (en) | Method for updating a map of the surrounding area, device for executing method steps of said method on the vehicle, vehicle, device for executing method steps of the method on a central computer, and computer-readable storage medium | |
US20140376778A1 (en) | License plate recognition system and location forecasting | |
JP6603506B2 (en) | Parking position guidance system | |
WO2019030916A1 (en) | Traffic lane information management method, running control method, and traffic lane information management device | |
JP2008139320A (en) | Notification apparatus and notification program of road environmental information | |
US20200074507A1 (en) | Information processing apparatus and information processing method | |
US20200327317A1 (en) | Unmanned autonomous vehicle and method of controlling the same | |
US20200250973A1 (en) | Traffic management system, control method, and vehicle | |
JP6605883B2 (en) | Parking stop monitoring support system and parking stop monitoring support method | |
CN107344499A (en) | Display apparatus | |
JP7010172B2 (en) | Advertising control device, advertising system, advertising control method and advertising control program | |
JP2013117809A (en) | Safety driving support information distribution system and information collection vehicle | |
CN110450790A (en) | For the drive assistance device of vehicle, non-transitory computer-readable storage media and control method | |
JP2009129290A (en) | Traffic signal detection apparatus, traffic signal detection method and program | |
US20200286371A1 (en) | Traffic system for predicting and providing traffic signal switching timing | |
JP2013080286A (en) | Moving body identification device and moving body information transmission device | |
CN114096996A (en) | Method and apparatus for using augmented reality in traffic | |
CN115761661A (en) | Pipeline architecture for road sign detection and evaluation | |
US20200292350A1 (en) | Server apparatus and information processing method | |
CN108765955B (en) | Intelligent automobile state detection sharing method and system based on license plate recognition | |
JP2023084392A (en) | Information processor | |
US20190382035A1 (en) | Recognition processing device, vehicle control device, recognition control method, and storage medium | |
JP2018045732A (en) | Moving body identification device |