JP2023084392A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2023084392A
JP2023084392A JP2021198550A JP2021198550A JP2023084392A JP 2023084392 A JP2023084392 A JP 2023084392A JP 2021198550 A JP2021198550 A JP 2021198550A JP 2021198550 A JP2021198550 A JP 2021198550A JP 2023084392 A JP2023084392 A JP 2023084392A
Authority
JP
Japan
Prior art keywords
vehicle
information
target vehicle
target
center server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021198550A
Other languages
Japanese (ja)
Inventor
功一 鈴木
Koichi Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021198550A priority Critical patent/JP2023084392A/en
Publication of JP2023084392A publication Critical patent/JP2023084392A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To enable accurate tracking of vehicles.SOLUTION: An information processor includes a control unit that executes operations of: Transmitting, to a cooperating vehicle, vehicle-related information on a target vehicle to be tracked; acquiring, from the cooperating vehicle, provision information including an image of the target vehicle identified based on the vehicle-related information; and transmitting, to the cooperating vehicle, feature information concerning features of the target vehicle identified from the image.SELECTED DRAWING: Figure 10

Description

本開示は、情報処理装置に関する。 The present disclosure relates to an information processing device.

特許文献1には、車載カメラを搭載した車両と、当該車両と通信可能に構成されたサーバとを備えた車両捜索システムが開示されている。サーバは捜索対象車両のナンバープレート情報を車両に送信する。そして、車両は、カメラの画像から取得した検出車両のナンバープレート情報と、車両データに含まれるナンバープレート情報とを比較することが開示されている。 Patent Literature 1 discloses a vehicle search system including a vehicle equipped with an in-vehicle camera and a server configured to be able to communicate with the vehicle. The server transmits the license plate information of the vehicle to be searched to the vehicle. Then, it is disclosed that the vehicle compares the license plate information of the detected vehicle acquired from the image of the camera with the license plate information included in the vehicle data.

特開2019-67201号公報JP 2019-67201 A

本開示は、従来よりも的確に車両の追跡を可能とする技術の提供を目的とする。 An object of the present disclosure is to provide a technology that enables tracking of vehicles more accurately than in the past.

本開示の第1の態様に係る情報処理装置は、
追跡の対象である対象車両に関する車両関連情報を協力車両に対して送信することと、
前記車両関連情報に基づいて特定された前記対象車両の画像を含む提供情報を前記協力車両から取得することと、
前記画像から特定された前記対象車両の特徴に関する特徴情報を前記協力車両に送信することと、
を実行する制御部を備える。
An information processing device according to a first aspect of the present disclosure includes:
transmitting vehicle-related information about the target vehicle being tracked to the cooperating vehicle;
Acquiring provided information including an image of the target vehicle identified based on the vehicle-related information from the cooperating vehicle;
transmitting feature information about the features of the target vehicle identified from the image to the cooperating vehicle;
A control unit for executing

本開示により、的確に車両の追跡が可能になる。 The present disclosure enables accurate vehicle tracking.

実施形態に係る情報処理システムの構成の一例を示す図である。It is a figure showing an example of composition of an information processing system concerning an embodiment. センターサーバ、車載装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a center server and an in-vehicle device. 対象車両の追跡を説明する図である。It is a figure explaining tracking of a target vehicle. 対象車両の特徴を説明する図である。It is a figure explaining the characteristic of a target vehicle. センターサーバの機能構成の一例を概略的に示す図である。It is a figure which shows roughly an example of the functional structure of a center server. 提供情報DBに格納される提供情報の一例を示す図である。It is a figure which shows an example of the provision information stored in provision information DB. 特徴情報DBに格納される特徴情報の一例を示す図である。It is a figure which shows an example of the characteristic information stored in characteristic information DB. 車載装置の機能構成の一例を概略的に示す図である。It is a figure showing roughly an example of functional composition of an in-vehicle device. 対象車両DBに格納される情報の一例を示す図である。It is a figure which shows an example of the information stored in object vehicle DB. 実施形態に係る情報処理システムの処理の流れを示すシーケンス図である。4 is a sequence diagram showing the flow of processing of the information processing system according to the embodiment; FIG. 実施形態に係る情報処理システムの処理の流れを示すシーケンス図である。4 is a sequence diagram showing the flow of processing of the information processing system according to the embodiment; FIG. 対象車両の追跡処理を説明する図である。It is a figure explaining the pursuit process of a target vehicle.

本開示の態様の一つである情報処理装置は、追跡に協力する協力車両と通信可能に構成された情報処理装置である。情報処理装置が備える制御部は、追跡の対象である対象車両に関する車両関連情報を協力車両に対して送信する。車両関連情報には、例えば、追跡の対象である対象車両に関するナンバープレート情報(ナンバープレートに標記された自動車登録番号)が含まれる。また、車両関連情報には、対象車両を捜索する範囲を指示する対象エリア情報が含まれてもよい。さらに、対象車両の車種、車両カラー等が含まれてもよい。 An information processing device that is one aspect of the present disclosure is an information processing device that is configured to be able to communicate with a cooperative vehicle that cooperates in tracking. A control unit included in the information processing device transmits vehicle-related information about the target vehicle to be tracked to the cooperating vehicle. Vehicle-related information includes, for example, license plate information (vehicle registration number marked on the license plate) of the target vehicle to be tracked. Also, the vehicle-related information may include target area information that indicates a range in which to search for the target vehicle. Furthermore, the model of the target vehicle, the vehicle color, and the like may be included.

また、制御部は、車両関連情報に基づいて特定された対象車両の画像を含む提供情報を協力車両から取得する。協力車両は車載カメラを搭載し、車載カメラで撮像された画像に含まれる画像認識機能により、ナンバープレート情報の認識処理を行う。ナンバープレート情報の認識には、公知の技術が採用できる。協力車両は車両関連情報に基づいて特定された対象車両の画像を含む提供情報を情報処理装置に送信する。対象車両の画像には、対象車両に乗車する搭乗者、対象車両の色、対象車両の車体に貼付された貼付物、対象車両に設けられた装飾物、対象車両の車体の傷痕の少なくとも1つが特定可能である画像が含
まれる。また、提供情報には、前記対象車両が検出された時刻情報、位置情報、道路リンク情報が含まれる。
In addition, the control unit acquires provided information including an image of the target vehicle specified based on the vehicle-related information from the cooperating vehicle. The cooperating vehicle is equipped with an on-board camera, and the license plate information is recognized by the image recognition function included in the image captured by the on-board camera. A known technique can be used to recognize the license plate information. The cooperating vehicle transmits to the information processing device provision information including an image of the target vehicle specified based on the vehicle-related information. The image of the target vehicle includes at least one of the following: passengers riding in the target vehicle, the color of the target vehicle, stickers attached to the body of the target vehicle, decorations provided on the target vehicle, and scratches on the body of the target vehicle. Contains images that are identifiable. Further, the provided information includes time information when the target vehicle is detected, position information, and road link information.

そして、制御部は、画像から特定された対象車両の特徴に関する特徴情報を協力車両に送信する。協力車両は、情報処理装置から送信された対象車両の特徴に関する特徴情報に基づいて、対象車両を特定することが可能になる。例えば、対象車両の対向車線を走行する車両のように、ナンバープレート情報の認識が難しい場合であっても、特徴情報に基づいて対象車両の検出が可能になる。ナンバープレートが検知できなくなった場合であっても、車両の追跡が可能になる。 Then, the control unit transmits feature information about the feature of the target vehicle identified from the image to the cooperating vehicle. The cooperating vehicle can identify the target vehicle based on the feature information regarding the feature of the target vehicle transmitted from the information processing device. For example, even if it is difficult to recognize license plate information, such as a vehicle traveling in the opposite lane of the target vehicle, the target vehicle can be detected based on the feature information. Vehicles can be tracked even if the license plate is no longer detectable.

以下、図面を参照して、本開示の実施の形態を説明する。以下の実施形態の構成は例示であり、本開示は実施形態の構成に限定されない。また、以下の実施形態は可能な限り組み合わせることができる。 Embodiments of the present disclosure will be described below with reference to the drawings. The configurations of the following embodiments are examples, and the present disclosure is not limited to the configurations of the embodiments. Moreover, the following embodiments can be combined as much as possible.

<第1実施形態>
図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。情報処理システム1は、追跡対象になる車両の、ナンバープレート情報以外の特徴画像に基づいて、当該追跡対象車両の追跡を可能にするシステムである。
<First Embodiment>
FIG. 1 is a diagram showing an example of the configuration of an information processing system 1 according to this embodiment. The information processing system 1 is a system that enables tracking of a tracked vehicle based on a feature image of the tracked vehicle other than license plate information.

図1に例示の情報処理システム1は、センターサーバ10、車両2(#1~#3)のそれぞれに搭載された車載装置20(#1~#3)を含む。センターサーバ10、各車両に搭載された車載装置20(#1~#3)は、ネットワークN1によって相互に接続されている。以下、車両2(#1~#3)を総称して車両2、車載装置20(#1~#3)を総称して車載装置20ともいう。センターサーバ10は、車載装置20を搭載する複数の車両2を管理する情報処理装置である。車載装置20は、センターサーバ10とネットワークN1を通じて通信可能であり、後述する機能を実行可能な制御装置である。 The information processing system 1 illustrated in FIG. 1 includes a center server 10 and in-vehicle devices 20 (#1 to #3) mounted on vehicles 2 (#1 to #3), respectively. The center server 10 and the in-vehicle devices 20 (#1 to #3) mounted on each vehicle are interconnected by a network N1. Hereinafter, the vehicles 2 (#1 to #3) are also collectively referred to as the vehicle 2, and the in-vehicle devices 20 (#1 to #3) are also collectively referred to as the in-vehicle devices 20. The center server 10 is an information processing device that manages a plurality of vehicles 2 on which the in-vehicle devices 20 are mounted. The in-vehicle device 20 is a control device capable of communicating with the center server 10 through the network N1 and capable of executing functions to be described later.

ネットワークN1は、例えば、インターネット等の世界規模の公衆通信網でありWAN(Wide Area Network)やその他の通信網が採用されてもよい。また、ネットワークN1は、携帯電話等の電話通信網、Wi-Fi(登録商標)等の無線通信網、VPN(Virtual Private Network)等の専用通信網を含んでもよい。なお、図1では
、1台のセンターサーバ10を例示するが、異なる領域を管轄する複数のセンターサーバ10が接続されるようにしてもよい。また、車載装置20をそれぞれに搭載する3台の車両2(#1~#3)が図示されているが、これらの車両2は3台以上に存在し得る。
The network N1 is, for example, a worldwide public communication network such as the Internet, and may employ a WAN (Wide Area Network) or other communication networks. The network N1 may also include a telephone communication network such as a mobile phone, a wireless communication network such as Wi-Fi (registered trademark), and a dedicated communication network such as a VPN (Virtual Private Network). Although one center server 10 is illustrated in FIG. 1, a plurality of center servers 10 that control different areas may be connected. Also, although three vehicles 2 (#1 to #3) each having an in-vehicle device 20 mounted thereon are illustrated, there may be three or more of these vehicles 2 .

図2は、本実施形態に係る情報処理システム1を構成するセンターサーバ10および車載装置20のハードウェア構成の一例を示す図である。図2に示すように、センターサーバ10は、接続バスによって相互に接続されたプロセッサ101、主記憶部102、補助記憶部103、通信部104、入出力IF105を含むコンピュータである。主記憶部102および補助記憶部103は、センターサーバ10が読み取り可能な記録媒体である。主記憶部102および補助記憶部103は、センターサーバ10のメモリを構成する。上記の構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素を設けないようにしてもよい。 FIG. 2 is a diagram showing an example of the hardware configuration of the center server 10 and the in-vehicle device 20 that configure the information processing system 1 according to this embodiment. As shown in FIG. 2, the center server 10 is a computer including a processor 101, a main storage section 102, an auxiliary storage section 103, a communication section 104, and an input/output IF 105, which are interconnected by a connection bus. The main storage unit 102 and the auxiliary storage unit 103 are recording media readable by the center server 10 . The main storage unit 102 and the auxiliary storage unit 103 constitute memory of the center server 10 . A plurality of the above components may be provided, or some of the components may be omitted.

プロセッサ101は、センターサーバ10全体の制御を行う中央処理演算装置である。プロセッサ101は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等である。プロセッサ101
は、制御部の一例である。プロセッサ101は、例えば、補助記憶部103に記憶されたプログラムを主記憶部102の作業領域に実行可能に展開し、当該プログラムの実行を通じて周辺機器の制御を行うことで所定の目的に合致した機能を提供する。
The processor 101 is a central processing unit that controls the center server 10 as a whole. The processor 101 is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or the like. processor 101
is an example of a control unit. The processor 101, for example, develops a program stored in the auxiliary storage unit 103 in a work area of the main storage unit 102 so that it can be executed, and controls peripheral devices through execution of the program to perform a function that meets a predetermined purpose. I will provide a.

主記憶部102は、プロセッサ101が実行するプログラム、当該プロセッサが処理するデータ等を記憶する。主記憶部102は、フラッシュメモリ、RAM(Random Access Memory)やROM(Read Only Memory)を含む。補助記憶部103は、不揮発性半導体メモリ(フラッシュメモリ、EPROM(Erasable Programmable ROM))を含むシリコン
ディスク、ソリッドステートドライブ装置、ハードディスクドライブ(HDD、Hard Disk Drive)装置等である。補助記憶部103は、各種のプログラムおよび各種のデータを
読み書き自在に記録媒体に格納する。補助記憶部103は、外部記憶装置とも呼ばれる。補助記憶部103は、主記憶部102を補助する記憶領域として使用され、プロセッサ101が実行するプログラム、プロセッサ101が処理するデータ等を記憶する。補助記憶部103には、例えば、オペレーティングシステム(OS:Operating System)、各種プログラム、各種テーブル等が格納される。OSは、通信部104を介して接続された機器との間でデータの受け渡しを行う通信インターフェースプログラムを含む。なお、センターサーバ10は、単一のコンピュータであってもよいし、複数台のコンピュータが連携したものであってもよい。また、補助記憶部103に格納される情報は、主記憶部102に格納されてもよい。また、主記憶部102に格納される情報は、補助記憶部103に格納されてもよい。なお、センターサーバ10で実行される一連の処理については、上述のように、プロセッサ101がプログラムにより実行する。ただし、一連の処理の少なくとも一部はデジタル回路等のハードウェアにより実行させることもできる。
The main storage unit 102 stores programs executed by the processor 101, data processed by the processor, and the like. The main storage unit 102 includes flash memory, RAM (Random Access Memory), and ROM (Read Only Memory). The auxiliary storage unit 103 is a silicon disk including a nonvolatile semiconductor memory (flash memory, EPROM (Erasable Programmable ROM)), a solid state drive device, a hard disk drive (HDD, Hard Disk Drive) device, or the like. The auxiliary storage unit 103 stores various programs and various data in a recording medium in a readable and writable manner. The auxiliary storage unit 103 is also called an external storage device. The auxiliary storage unit 103 is used as a storage area that assists the main storage unit 102, and stores programs executed by the processor 101, data processed by the processor 101, and the like. The auxiliary storage unit 103 stores, for example, an operating system (OS), various programs, various tables, and the like. The OS includes a communication interface program that exchanges data with devices connected via the communication unit 104 . Note that the center server 10 may be a single computer, or may be a combination of a plurality of computers. Information stored in the auxiliary storage unit 103 may also be stored in the main storage unit 102 . Information stored in the main storage unit 102 may also be stored in the auxiliary storage unit 103 . A series of processes executed by the center server 10 are executed by the processor 101 according to a program as described above. However, at least part of the series of processes can also be executed by hardware such as a digital circuit.

通信部104は、ネットワークN1経由で車載装置20と通信を行う手段である。通信部104は、ネットワークN1との接続方式に応じて適宜の構成を採用できる。通信部104は、例えば、LAN(Local Area Network)インターフェースボード、無線通信のための無線通信回路である。通信部104は、ネットワークN1との接続方式に応じて適宜の構成を採用できる。入出力IF105は、センターサーバ10に接続される機器との間でデータの入出力を行うインターフェースである。入出力IF105には、例えば、タッチパネル、マウス、キーボード等の入力デバイスが接続される。入出力IF105を介し、入力デバイスを操作する操作者からの操作指示等を受け付ける。また、入出力IF105には、例えば、LCD(Liquid Crystal Display)、EL(Electroluminescence)パ
ネル等の表示デバイス、プリンタ、スピーカ等の出力デバイスが接続される。
The communication unit 104 is means for communicating with the in-vehicle device 20 via the network N1. The communication unit 104 can adopt an appropriate configuration according to the connection method with the network N1. The communication unit 104 is, for example, a LAN (Local Area Network) interface board or a wireless communication circuit for wireless communication. The communication unit 104 can adopt an appropriate configuration according to the connection method with the network N1. The input/output IF 105 is an interface for inputting/outputting data with devices connected to the center server 10 . Input devices such as a touch panel, a mouse, and a keyboard are connected to the input/output IF 105 . Through the input/output IF 105, an operation instruction or the like from an operator who operates an input device is received. Further, the input/output IF 105 is connected to, for example, display devices such as LCD (Liquid Crystal Display) and EL (Electroluminescence) panels, and output devices such as printers and speakers.

車載装置20は、車両2に搭載可能なコンピュータである。図2に示されるように、車載装置20は、接続バスによって相互に接続されたプロセッサ201、主記憶部202、補助記憶部203、通信部204、入力IF205、位置情報センサ206、車載カメラ207を有する。上記の構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素
を設けないようにしてもよい。プロセッサ201、主記憶部202、補助記憶部203、通信部204は、それぞれセンターサーバ10のプロセッサ101、主記憶部102、補助記憶部103、通信部104と同様であるため説明が省略される。センターサーバ10はと同様にして、車載装置20は単一のコンピュータであってもよいし、複数台のコンピュータが連携したものであってもよい。また、車載装置20で実行される一連の処理については、プロセッサ201がプログラムにより実行する。ただし、一連の処理の少なくとも一部はデジタル回路等のハードウェアにより実行させることもできる。
The in-vehicle device 20 is a computer that can be mounted in the vehicle 2 . As shown in FIG. 2, the in-vehicle device 20 includes a processor 201, a main storage unit 202, an auxiliary storage unit 203, a communication unit 204, an input IF 205, a position information sensor 206, and an in-vehicle camera 207, which are interconnected by a connection bus. have. A plurality of the above components may be provided, or some of the components may be omitted. The processor 201, the main storage unit 202, the auxiliary storage unit 203, and the communication unit 204 are the same as the processor 101, the main storage unit 102, the auxiliary storage unit 103, and the communication unit 104 of the center server 10, respectively, so the description thereof is omitted. Similarly to the center server 10, the in-vehicle device 20 may be a single computer, or may be a combination of multiple computers. A series of processes executed by the in-vehicle device 20 are executed by the processor 201 according to a program. However, at least part of the series of processes can also be executed by hardware such as a digital circuit.

入力IF205は、車両2内の車内ネットワーク(例えば、CAN(Controller Area Network)等)とのインターフェースである。入力IF205を介して、車内ネットワー
クに接続されたECU(Electronic Control Unit)等から車両2の速度等が取得される
。位置情報センサ206は、車載装置20が搭載された車両2の位置情報(例えば緯度、経度)を取得する。位置情報センサ206は、例えばGPS(Global Positioning System)受信部、無線LAN通信部等である。車載カメラ207は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor
)イメージセンサ等の撮像素子を用いて撮影を行う。車載カメラ207は、フロントカメラ、バックカメラ、サイドカメラ等であってもよいが、先行車、対向車あるいは後続車の映像を撮影可能な位置に設置されていることが好ましい。撮影により得られる画像は、静止画または所定のフレームレート(例えば30fps)の動画の何れであってもよい。
The input IF 205 is an interface with an in-vehicle network (for example, CAN (Controller Area Network), etc.) in the vehicle 2 . Via the input IF 205, the speed and the like of the vehicle 2 are obtained from an ECU (Electronic Control Unit) or the like connected to the in-vehicle network. The position information sensor 206 acquires position information (for example, latitude and longitude) of the vehicle 2 on which the in-vehicle device 20 is mounted. The position information sensor 206 is, for example, a GPS (Global Positioning System) receiver, a wireless LAN communication unit, or the like. The in-vehicle camera 207 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor).
) Photographing is performed using an imaging device such as an image sensor. The in-vehicle camera 207 may be a front camera, a back camera, a side camera, or the like, but is preferably installed at a position capable of capturing images of a preceding vehicle, an oncoming vehicle, or a following vehicle. An image obtained by shooting may be either a still image or a moving image with a predetermined frame rate (eg, 30 fps).

本実施形態に係る情報処理システム1では、センターサーバ10は、追跡対象になる車両(以下、追跡車両、対象車両ともいう)に関する車両関連情報を車載装置20が搭載された車両2に送信する。車両関連情報には、少なくとも対象車両に関するナンバープレート情報(ナンバープレートに標記された自動車登録番号)が含まれる。また、車両関連情報には、対象車両を捜索する範囲を指示する対象エリア情報が含まれてもよい。対象車両を捜索する範囲を限定することで、各車両2における処理負荷を低減できる。さらに、対象車両の車種、車両カラー等が含まれてもよい。 In the information processing system 1 according to the present embodiment, the center server 10 transmits vehicle-related information about a vehicle to be tracked (hereinafter also referred to as a tracked vehicle or target vehicle) to the vehicle 2 on which the in-vehicle device 20 is mounted. The vehicle-related information includes at least license plate information (vehicle registration number marked on the license plate) about the target vehicle. Also, the vehicle-related information may include target area information that indicates a range in which to search for the target vehicle. The processing load on each vehicle 2 can be reduced by limiting the range in which the target vehicle is searched. Furthermore, the model of the target vehicle, the vehicle color, and the like may be included.

センターサーバ10から送信された対象車両に関する車両関連情報はネットワークN1を介して車両2の車載装置20に受信される。車載装置20は、車載カメラ207で撮像された画像データを取得し、画像に含まれるナンバープレート情報の認識処理を行う。ナンバープレート情報の認識には、公知の技術が採用できる。また、車両関連情報に対象車両の車種、車両カラーが含まれる場合には、これらの情報をフィルタ情報として対象車両の分別を行い、分別後の画像データに対してナンバープレート情報の認識処理を行うとしてもよい。 The vehicle-related information about the target vehicle transmitted from the center server 10 is received by the in-vehicle device 20 of the vehicle 2 via the network N1. The in-vehicle device 20 acquires image data captured by the in-vehicle camera 207 and performs recognition processing of license plate information included in the image. A known technique can be used to recognize the license plate information. If the vehicle-related information includes the type and color of the target vehicle, the target vehicle is sorted using this information as filter information, and the image data after sorting is subjected to license plate information recognition processing. may be

車載装置20は、対象車両を検知したときには、対象車両の撮像画像、対象車両の管理番号(タグ番号)、自車両の車両ID(ナンバープレート情報等)、時刻情報、位置情報、走行中の道路を識別する道路リンク番号等を含む提供情報をセンターサーバ10に送信する。そして対象車両を検知した車載装置20は、対象車両の提供情報を連続してセンターサーバ10に送信する状態(以下、「追跡モード」ともいう)に移行する。追跡モードに移行した車載装置20は、対象車両の追跡が継続されている間、定期的にセンターサーバ10に提供情報を送信する。また、追跡モードに移行した車載装置20は、車載カメラ207で撮像された画像データから対象車両の新たな特徴が検出されたときには、当該特徴画像を抽出し、提供情報としてセンターサーバ10に送信する。このような特徴として、対象車両の搭乗者、ステッカー等の貼付物、車内に設けられた飾りやカップホルダ、人形等の装飾物、車体の傷痕等が例示される。 When the in-vehicle device 20 detects the target vehicle, the in-vehicle device 20 detects the captured image of the target vehicle, the management number (tag number) of the target vehicle, the vehicle ID of the own vehicle (license plate information, etc.), the time information, the position information, the road on which the vehicle is traveling, to the center server 10, including the road link number for identifying the After detecting the target vehicle, the in-vehicle device 20 shifts to a state of continuously transmitting the provided information of the target vehicle to the center server 10 (hereinafter also referred to as "tracking mode"). The in-vehicle device 20 shifted to the tracking mode periodically transmits the provided information to the center server 10 while tracking the target vehicle is continued. Further, when a new feature of the target vehicle is detected from the image data captured by the on-vehicle camera 207, the in-vehicle apparatus 20 that has shifted to the tracking mode extracts the feature image and transmits it to the center server 10 as provided information. . Such features include, for example, passengers of the target vehicle, attachments such as stickers, ornaments and cup holders provided in the vehicle, decorations such as dolls, and scars on the vehicle body.

図3は、対象車両(追跡車両)の追跡を説明する図である。図3において対象車両V1は追跡対象の車両であり、片側1車線の道路R1を白抜き矢印方向に走行しているものと
する。車両2#1、2#2は車載装置20を搭載する車両であり、各車両はセンターサーバ10から送信された車両関連情報を受信しているものとする。車両2#2は、対象車両V1に先行する車両であり、破線で示される扇形の領域は車載カメラ207(バックカメラ)の視野角を表す。また、車両2#1は対象車両V1の後方を走行する車両であり、細破線で示される扇形の領域は車載カメラ207(フロントカメラ)の視野角を表す。なお、対象車両V1の後方を走行する車両2#1は、「対象車両V1から後行する車両」ともいうことができる。
FIG. 3 is a diagram for explaining tracking of a target vehicle (tracked vehicle). In FIG. 3, the target vehicle V1 is the vehicle to be tracked, and is traveling in the direction of the white arrow on the one-lane road R1. Vehicles 2 # 1 and 2 # 2 are vehicles equipped with in-vehicle device 20 , and each vehicle receives vehicle-related information transmitted from center server 10 . Vehicle 2#2 is a vehicle that precedes target vehicle V1, and the fan-shaped area indicated by the dashed line represents the viewing angle of vehicle-mounted camera 207 (rear camera). Vehicle 2#1 is a vehicle that travels behind target vehicle V1, and the fan-shaped area indicated by the thin dashed line represents the viewing angle of vehicle-mounted camera 207 (front camera). The vehicle 2#1 traveling behind the target vehicle V1 can also be called "a vehicle that follows the target vehicle V1".

図4は、対象車両の特徴を説明する図である。図4(a)には、対象車両V1を後方側から視た概略的な視認図が例示され、図4(b)には、対象車両V1の前方側から視た概略的な視認図が例示されている。 FIG. 4 is a diagram for explaining features of the target vehicle. FIG. 4(a) illustrates a schematic visual view of the target vehicle V1 viewed from the rear side, and FIG. 4(b) illustrates a schematic visual view of the target vehicle V1 viewed from the front side. It is

車両2#1の車載装置20は、例えば、図4(a)に示される画像データをフロントカメラから取得し、破線枠V1aで囲まれた領域の画像データからナンバープレート情報の認識処理を行い、対象車両V1を検出する。そして、車両2#1の車載装置20は、追跡モードに移行し、例えば、破線枠V1bの領域に示される車体カラー、破線枠V1cの領域に示されるステッカー等の貼付物、破線枠V1dの領域に示される傷痕等を特徴として検出する。検出された特徴は画像データとして抽出され、提供情報としてセンターサーバ10に送信される。例えば、対象車両V1に関する新たな特徴が検出されるたびに、提供情報がセンターサーバ10に送信される。ただし、提供情報が所定期間、主記憶部202等に蓄積され、定期的にセンターサーバ10に送信されてもよい。 The in-vehicle device 20 of the vehicle 2#1 acquires, for example, the image data shown in FIG. A target vehicle V1 is detected. Then, the in-vehicle device 20 of the vehicle 2#1 shifts to the tracking mode, and, for example, the vehicle body color shown in the area of the dashed line frame V1b, the attached object such as the sticker shown in the area of the dashed line frame V1c, and the area of the dashed line frame V1d. is detected as a feature. The detected features are extracted as image data and transmitted to the center server 10 as provided information. For example, the provided information is transmitted to the center server 10 each time a new feature regarding the target vehicle V1 is detected. However, the provided information may be accumulated in the main storage unit 202 or the like for a predetermined period and periodically transmitted to the center server 10 .

また、車両2#2の車載装置20は、例えば、図4(b)に示される画像データをバックカメラから取得し、破線枠V1aで囲まれた領域の画像データからナンバープレート情報の認識処理を行い、対象車両V1を検出する。そして、車両2#2の車載装置20は、追跡モードに移行し、例えば、破線枠V1bの領域に示される車体カラー、破線枠V1eの領域に示されるように車内に吊下げられた装飾物、破線枠V1f、V1gの領域に示される搭乗員等を特徴として検出する。検出された特徴は画像データとして抽出され、提供情報としてセンターサーバ10に送信される。車両2#2においても、対象車両V1に関する新たな特徴が検出されるたびに、提供情報がセンターサーバ10に送信される。ただし、提供情報が所定期間、主記憶部202等に蓄積され、定期的にセンターサーバ10に送信されてもよい。 Further, the in-vehicle device 20 of vehicle 2#2 acquires, for example, the image data shown in FIG. to detect the target vehicle V1. Then, the in-vehicle device 20 of the vehicle 2#2 shifts to the tracking mode, and for example, the vehicle body color shown in the area of the dashed line frame V1b, the decorations hung inside the vehicle as shown in the area of the dashed line frame V1e, Crews and the like shown in the areas of dashed-line frames V1f and V1g are detected as features. The detected features are extracted as image data and transmitted to the center server 10 as provided information. In the vehicle 2#2, the provided information is also transmitted to the center server 10 each time a new feature regarding the target vehicle V1 is detected. However, the provided information may be accumulated in the main storage unit 202 or the like for a predetermined period and periodically transmitted to the center server 10 .

なお、対象車両V1を検知した車載装置20は、入力I/F205に接続された車内ネットワークを介して自車両の車速を取得し、当該車速を提供情報に含めて送信してもよい。また、追跡モードに移行した車載装置20は、対象車両V1の左右折に伴うウィンカーランプの点灯、停車等に伴う尾灯の点灯を、対象車両V1の挙動を示すイベントとして検出し、提供情報としてセンターサーバ10に送信する。この際においても、車載装置20は、車内ネットワークを介して取得された自車両の車速、ウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報を提供情報に含めて送信することもできる。 Note that the in-vehicle device 20 that has detected the target vehicle V1 may acquire the vehicle speed of its own vehicle via the in-vehicle network connected to the input I/F 205, and include the vehicle speed in the provided information and transmit it. In addition, the in-vehicle device 20 that has shifted to the tracking mode detects the lighting of the turn signal lamps when the target vehicle V1 turns left or right, and the lighting of the tail lights when the target vehicle V1 stops, etc., as events indicating the behavior of the target vehicle V1. Send to server 10 . In this case as well, the in-vehicle device 20 can include information indicating the vehicle speed of the own vehicle, the operation direction of the turn signal lever, the operation position of the brake pedal, and the like acquired via the in-vehicle network in the provided information.

センターサーバ10は、各車両から送信された対象車両V1の特徴データを取集し、データベースに蓄積する。そしてセンターサーバ10は、データベースに蓄積された特徴データを特徴の種別を示すカテゴリ単位に分類する。分類された対象車両V1の新たな特徴は、対象車両V1が存在すると推定された道路リンク情報とともに各車両に送信される。 The center server 10 collects the characteristic data of the target vehicle V1 transmitted from each vehicle, and accumulates it in a database. Then, the center server 10 classifies the feature data accumulated in the database into categories indicating types of features. The new characteristics of the classified target vehicle V1 are sent to each vehicle together with the road link information on which the target vehicle V1 is presumed to exist.

図3に戻り、片側1車線の道路R1の対向車線を走行する車両2#3には、センターサーバ10から対象車両V1の車両関連情報、特徴情報、対象車両V1が存在する道路リンク情報が送信される。例えば、特徴情報には図4(b)の破線枠V1e、V1f、V1gに示される特徴データが含まれているものとする。 Returning to FIG. 3, vehicle-related information, characteristic information, and road link information of the target vehicle V1 are transmitted from the center server 10 to the vehicle 2#3 traveling in the opposite lane of the one-lane road R1. be done. For example, it is assumed that the feature information includes feature data indicated by dashed-line frames V1e, V1f, and V1g in FIG. 4(b).

対象車両V1が走行する車線に対して対向車線を走行する車両2#3の車載装置20は、一点鎖線で示される扇形の視野角で撮像された車載カメラ207の画像データから対象車両V1を検出する。例えば、車両2#3の車載装置20は、ナンバープレート情報が認識できない場合であっても、対象車両V1の車体カラー、特徴情報を用いて対象車両V1の検出が可能になる。車載装置20は、例えば、画像データから図4(b)の破線枠V1bの領域に示される車体カラー、破線枠V1eの領域に示される装飾物の認識処理を行ことで対象車両V1の検出が可能になる。同様にして、車載装置20は、破線枠V1fに示される搭乗員(運転者)、破線枠V1gに示される搭乗員(運転補助者)の認識処理を行うことで対象車両V1の検出が可能になる。 The in-vehicle device 20 of vehicle 2#3, which is traveling in the opposite lane to the lane in which the target vehicle V1 is traveling, detects the target vehicle V1 from the image data captured by the in-vehicle camera 207 at the fan-shaped viewing angle indicated by the dashed-dotted line. do. For example, the in-vehicle device 20 of the vehicle 2#3 can detect the target vehicle V1 using the body color and characteristic information of the target vehicle V1 even if the license plate information cannot be recognized. The in-vehicle device 20 detects the target vehicle V1 by, for example, recognizing the vehicle body color shown in the area of the dashed frame V1b in FIG. be possible. Similarly, the in-vehicle device 20 can detect the target vehicle V1 by recognizing the crew member (driver) indicated by the dashed frame V1f and the crew member (driver assistant) indicated by the dashed frame V1g. Become.

このように、本実施形態に係る情報処理システム1では、例えば、対象車両V1の対向車線を走行する車両のように、ナンバープレート情報の認識が難しい場合であっても、特徴情報に基づいて対象車両の検出が可能になる。また、例えば、対象車両V1の対向車線を走行する車両からは、車両2#1のように後続車では検知できない特徴(運転者、運転補助者の特徴、ステッカー等の貼付物、装飾物、傷痕)が検知できるため、より多くの特徴を収集して蓄積することが可能になる。本実施形態に係る情報処理システム1によれば、精度の高い対象車両の情報を取得することが可能になる。したがって、情報処理システム1は、的確に車両の追跡が可能となる。 As described above, in the information processing system 1 according to the present embodiment, for example, even if it is difficult to recognize the license plate information, such as a vehicle traveling in the oncoming lane of the target vehicle V1, the target vehicle V1 is based on the feature information. Vehicle detection is possible. In addition, for example, from a vehicle traveling in the opposite lane of the target vehicle V1, characteristics that cannot be detected by the following vehicle like the vehicle 2#1 (characteristics of the driver and driver assistant, attached objects such as stickers, ornaments, scars, etc.) ) can be detected, allowing more features to be collected and accumulated. According to the information processing system 1 according to the present embodiment, it is possible to acquire highly accurate information on the target vehicle. Therefore, the information processing system 1 can accurately track the vehicle.

(機能構成)
次に、図5から図9を参照して、本実施形態に係る情報処理システム1のセンターサーバ10、車載装置20の機能構成を説明する。
(Functional configuration)
Next, functional configurations of the center server 10 and the in-vehicle device 20 of the information processing system 1 according to the present embodiment will be described with reference to FIGS. 5 to 9. FIG.

(センターサーバ)
図5は、センターサーバ10の機能構成の一例を概略的に示す図である。センターサーバ10は、機能構成要素に、車両関連情報送信部11、提供情報取得部12、特徴データ処理部13、対象車両DB14、提供情報DB15、特徴情報DB16、地図情報DB17を備える。センターサーバ10のプロセッサ101は、主記憶部102に展開されたコンピュータプログラムにより、車両関連情報送信部11、提供情報取得部12、特徴データ処理部13の処理を実行する。ただし、各機能構成素のいずれか、またはその処理の一部がデジタル回路等のハードウェアにより実行されてもよい。
(Center server)
FIG. 5 is a diagram schematically showing an example of the functional configuration of the center server 10. As shown in FIG. The center server 10 includes a vehicle-related information transmission unit 11, a provided information acquisition unit 12, a feature data processing unit 13, a target vehicle DB 14, a provided information DB 15, a feature information DB 16, and a map information DB 17 as functional components. The processor 101 of the center server 10 executes the processes of the vehicle-related information transmitting section 11, the provided information acquiring section 12, and the characteristic data processing section 13 by the computer program developed in the main storage section 102. FIG. However, any one of the functional constituents or part of the processing thereof may be executed by hardware such as a digital circuit.

追跡車両DB14、提供情報DB15、特徴情報DB16は、プロセッサ101によって実行されるデータベース管理システム(Database Management System:DBMS)のプログラムが、補助記憶部103に記憶されるデータを管理することで構築される。追跡車両DB14、提供情報DB15、特徴情報DB16は、例えば、リレーショナルデータベースである。地図情報DB17には、道路リンク番号や交差点等のノード番号等の地物位置を含む地図データ、当該地図データ上の各地点の特性を示す文字や写真等のPOI情報を含む地図情報が格納される。地図情報DB17は、ネットワークN1に接続される他のシステム、例えば、GIS(Geographic Information System)から提供されてもよい。
また、センターサーバ10の各機能構成要素のいずれか、またはその処理の一部は、ネットワークN1に接続される他のコンピュータにより実行されてもよい。
The tracked vehicle DB 14, the provided information DB 15, and the characteristic information DB 16 are constructed by managing data stored in the auxiliary storage unit 103 by a database management system (DBMS) program executed by the processor 101. . The tracked vehicle DB 14, the provided information DB 15, and the feature information DB 16 are, for example, relational databases. The map information DB 17 stores map data including feature positions such as road link numbers and node numbers such as intersections, and map information including POI information such as characters and photographs indicating the characteristics of each point on the map data. be. The map information DB 17 may be provided from another system connected to the network N1, such as a GIS (Geographic Information System).
Also, any one of the functional components of the center server 10 or part of the processing thereof may be executed by another computer connected to the network N1.

車両関連情報送信部11は、追跡車両DB14を参照し、対象車両に関する車両関連情報を車載装置20が搭載された車両2に送信する。追跡車両DB14には、センターサーバ10が対象車両を管理するための識別番号(タグ番号)と関連付けされた車両関連情報が格納されている。車両関連情報には、少なくとも対象車両に関するナンバープレート情報が含まれる。また、車両関連情報送信部11は、特徴情報DB16を参照し、対象車両に関する特徴情報を車両2に送信する。対象車両に関する特徴情報は、当該対象車両の車
両関連情報、および当該対象車両が存在すると推定された道路リンク情報とともに送信される。
The vehicle-related information transmission unit 11 refers to the tracked vehicle DB 14 and transmits vehicle-related information regarding the target vehicle to the vehicle 2 in which the in-vehicle device 20 is mounted. The tracked vehicle DB 14 stores vehicle-related information associated with an identification number (tag number) for the center server 10 to manage the target vehicle. The vehicle-related information includes at least license plate information about the target vehicle. Further, the vehicle-related information transmission unit 11 refers to the characteristic information DB 16 and transmits characteristic information regarding the target vehicle to the vehicle 2 . The characteristic information about the target vehicle is transmitted together with the vehicle-related information of the target vehicle and road link information on which the target vehicle is presumed to exist.

提供情報取得部12は、対象車両を検知した車両2から送信された提供情報を取得する。提供情報には、対象車両の撮像画像、対象車両の管理番号(タグ番号)、自車両の車両ID(ナンバープレート情報等)、時刻情報、位置情報、走行中の道路を識別する道路リンク番号等が含まれる。また、提供情報には、対象車両から検出された新たな特徴情報(特徴データ、左右折や停車等の挙動に関するイベント発生を示す画像データ、車速等)が含まれる。提供情報取得部12は、取得された提供情報を時刻情報に関連付けて提供情報DB15に格納する。対象車両の提供情報は、管理番号毎に収集・蓄積される。 The provided information acquisition unit 12 acquires provided information transmitted from the vehicle 2 that has detected the target vehicle. The provided information includes the captured image of the target vehicle, the management number (tag number) of the target vehicle, the vehicle ID of the own vehicle (license plate information, etc.), the time information, the position information, the road link number that identifies the road on which it is traveling, etc. is included. The provided information also includes new feature information (feature data, image data indicating occurrence of events related to behavior such as turning left or right or stopping, vehicle speed, etc.) detected from the target vehicle. The provided information acquisition unit 12 stores the acquired provided information in the provided information DB 15 in association with the time information. The provided information of the target vehicle is collected and accumulated for each management number.

特徴データ処理部13は、提供情報DB15を参照し、各車両から収集した特徴データ、撮像データを対象車両毎に集約し、特徴の種別を示すカテゴリ単位に分類する。分類された特徴は、特徴情報DB16に格納される。また、特徴データ処理部13は、地図情報DB17を参照し、左右折や停車等の挙動に関するイベント発生を示す提供情報から、対象車両が存在する道路リンクを推定する。そして、特徴データ処理部13は、推定された道路リンクから当該道路リンク周辺の道路リンクを特定する。特定された道路リンクは、追跡車両DB14に格納される。 The feature data processing unit 13 refers to the provided information DB 15, aggregates the feature data and the imaging data collected from each vehicle for each target vehicle, and classifies them into categories indicating types of features. The classified features are stored in the feature information DB 16 . Further, the feature data processing unit 13 refers to the map information DB 17 and estimates the road link on which the target vehicle is located from the provided information indicating the occurrence of an event related to behavior such as turning left or right or stopping. Then, the feature data processing unit 13 identifies road links around the road link from the estimated road link. The identified road link is stored in the tracked vehicle DB 14 .

追跡車両DB14には、追跡対象となる車両の管理番号と関連付けされた車両関連情報が格納される。車両関連情報には、少なくとも対象車両に関するナンバープレート情報が含まれる。また、車両関連情報には、対象車両を捜索する範囲を指示する対象エリア情報が含まれてもよい。対象車両を捜索する範囲を限定することで、各車両2における処理負荷を低減できる。対象エリア情報は、例えば、標準地域メッシュコード、分割地域メッシュコードといった地域メッシュ情報である。但し、対象エリア情報は、市区町村等を示す情報でもよく、地域を特定する緯度・経度で区切られた情報であってもよい。また、追跡の初期段階で、車種や車両カラー等が特定されている場合にはこれらの情報が車両関連情報に含まれてもよい。さらに、対象車両が検知され、当該対象車両の存在が推定される道路リンクから絞り込まれて特定された道路リンク情報が車両関連情報に追加される。 The tracked vehicle DB 14 stores vehicle-related information associated with the management number of the vehicle to be tracked. The vehicle-related information includes at least license plate information about the target vehicle. Also, the vehicle-related information may include target area information that indicates a range in which to search for the target vehicle. The processing load on each vehicle 2 can be reduced by limiting the range in which the target vehicle is searched. The target area information is, for example, regional mesh information such as a standard regional mesh code and a divided regional mesh code. However, the target area information may be information indicating a municipality or the like, or may be information separated by latitude and longitude for specifying an area. Further, when the vehicle type, vehicle color, etc. are specified in the initial stage of tracking, such information may be included in the vehicle-related information. Furthermore, the target vehicle is detected, and the road link information narrowed down and specified from the road links on which the presence of the target vehicle is estimated is added to the vehicle-related information.

図6は、提供情報DB15に格納される提供情報の一例を示す図である。提供情報は、図6に例示のように、対象車両毎の提供情報テーブルとして管理される。提供情報テーブルに登録される情報は、適宜にフィールドの追加、変更、削除が可能である。図6において、提供情報テーブルは、取得日時、協力車両ID、位置情報、リンクNo、画像情報、イベントの各フィールドを有する。画像情報フィールドは、さらに複数の画像が格納されるサブフィールドを有する。画像情報フィールドにおけるサブフィールド数においても適宜に追加、変更、削除が可能である。 FIG. 6 is a diagram showing an example of provided information stored in the provided information DB 15. As shown in FIG. The provided information is managed as a provided information table for each target vehicle, as illustrated in FIG. Information registered in the provided information table can be appropriately added, changed, or deleted. In FIG. 6, the provided information table has fields of acquisition date and time, cooperating vehicle ID, position information, link No., image information, and event. The image information field further has subfields in which a plurality of images are stored. The number of subfields in the image information field can also be appropriately added, changed, or deleted.

取得日時には、対象車両を検知した車載装置20から送信された提供情報の取得日時を示す情報が格納される。図6においては、分単位の取得日時が示されているが、取得日時は秒単位であってもよく、5分単位、30分単位であってもよい。提供情報テーブルは最新の取得日時によって更新される。協力車両IDには、センターサーバ10で管理されている追跡に協力可能な車両2を一意に識別する識別情報(協力車両ID)が格納される。協力車両IDは、車両2の自動車登録番号であってもよい。位置情報には、提供情報を送信した車両2の位置を示す位置情報(緯度、経度等)が格納される。リンクNoには、提供情報を送信した車両2が存在する道路リンク番号を示す情報が格納される。なお、リンクNoには、交差点等のノード番号や住所等が含まれてもよい。画像情報には、提供情報に含まれる、車載カメラ207を介して撮像された対象車両の画像データを示す情報が格納される。画像情報として例えば、車体カラー、ステッカー等の貼付物、傷痕、装飾物、搭乗員(運転者、運転補助者)等の画像データが格納される。イベントには、対象車両に
関する挙動を示す画像データ(左右折に伴うウィンカーランプの点灯、停車に伴う尾灯の点灯等)が格納される。なお、画像情報およびイベントに格納される画像は静止画であってもよく動画であってもよい。また、提供情報に車速やウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報が含まれる場合には、画像情報あるいはイベントに関連付けて格納してもよい。なお、画像情報およびイベントに格納される情報が存在しない場合には、当該情報が存在しないことを示す「空欄」、「---」といった情報が格納さ
れる。
Acquisition date and time stores information indicating the acquisition date and time of the provided information transmitted from the in-vehicle device 20 that has detected the target vehicle. In FIG. 6, the date and time of acquisition are shown in units of minutes, but the date and time of acquisition may be in units of seconds, 5 minutes, or 30 minutes. The provided information table is updated with the latest acquisition date and time. The cooperating vehicle ID stores identification information (cooperating vehicle ID) for uniquely identifying the vehicle 2 managed by the center server 10 and capable of cooperating in tracking. The cooperating vehicle ID may be the automobile registration number of the vehicle 2 . The location information stores location information (latitude, longitude, etc.) indicating the location of the vehicle 2 that has transmitted the provided information. The link No stores information indicating the road link number on which the vehicle 2 that has transmitted the provided information exists. Note that the link No. may include a node number such as an intersection, an address, and the like. The image information stores information indicating the image data of the target vehicle imaged via the vehicle-mounted camera 207, which is included in the provided information. As the image information, for example, image data such as vehicle body color, attachments such as stickers, scars, decorations, crew members (driver, driving assistant), etc. are stored. The event stores image data indicating the behavior of the target vehicle (lighting of turn signal lamps when turning left or right, lighting of taillights when the vehicle stops, etc.). Images stored in image information and events may be still images or moving images. If the provided information includes information indicating the vehicle speed, the operation direction of the turn signal lever, the operation position of the brake pedal, etc., the information may be stored in association with the image information or the event. When there is no image information or information stored in the event, information such as "blank" or "---" indicating that the information does not exist is stored.

図7は、特徴情報DB16に格納される特徴情報の一例を示す図である。特徴情報は、図7に例示のように、特徴情報テーブルとして管理される。特徴情報テーブルに登録される情報は、適宜にフィールドの追加、変更、削除が可能である。図7において、特徴情報テーブルは、車両ID、特徴情報の各フィールドを有する。特徴情報フィールドは、さらに特徴を示す種別毎の画像が格納されるサブフィールドを有する。特徴情報フィールドにおけるサブフィールド数においても適宜に追加、変更、削除が可能である。 FIG. 7 is a diagram showing an example of feature information stored in the feature information DB 16. As shown in FIG. The feature information is managed as a feature information table as illustrated in FIG. Information registered in the feature information table can be appropriately added, changed, or deleted. In FIG. 7, the characteristic information table has fields of vehicle ID and characteristic information. The feature information field further has subfields in which images of each type representing features are stored. The number of subfields in the feature information field can also be added, changed, or deleted as appropriate.

車両IDには、追跡対象となる車両を識別する管理番号が格納される。特徴情報には、特徴データ処理部13によって集約して分類された対象車両の特徴データが格納される。色サブフィールドには集約された車両カラーを示す情報が格納される。ここで、集約された車両カラーとは、各車両から収集した1台の追跡対象となる車両の特徴データに複数の車両の色が含まれる場合、例えば、多数決によって決定される色である。例えば、1台の追跡対象となる車両の外観に複数の色が含まれる場合、最も大きい面積を占める色から順に1または複数の車両カラーが決定されればよい。また、複数の車両から収集した提供情報において、1台の追跡対象となる車両に関して、異なる車両カラーが含まれる場合、提供回数多い順に、1または複数の車両カラーが決定されればよい。同様にして、搭乗者Aには運転者を示す集約された画像データ、搭乗者Bには運転補助者を示す集約された画像データ、貼付物にはステッカー等を示す集約された画像データ、装飾物には車内における集約された装飾物を示す画像データが格納される。また、傷痕には集約された傷痕を示す画像データが格納される。ここで、集約された画像データとは、類似の特徴を有する画像データを除去した画像データの集合をいう。したがって、特徴情報に格納される画像データは単一であってもよく、複数であってもよい。また、特徴情報に格納される画像データが存在しない場合には、当該情報が存在しないことを示す「空欄」、「---」といった情
報が格納される。なお、類似の特徴を有する画像データが除去される場合、コントラスト等が鮮明な画像データが優先して残されるようにしてもよい。
The vehicle ID stores a management number that identifies the vehicle to be tracked. The feature information stores the feature data of the target vehicle aggregated and classified by the feature data processing unit 13 . The color subfield stores information indicating the aggregated vehicle color. Here, the aggregated vehicle color is, for example, the color determined by majority vote when the feature data of one tracked vehicle collected from each vehicle includes the color of a plurality of vehicles. For example, if the appearance of one tracked vehicle includes a plurality of colors, one or more vehicle colors may be determined in order from the color that occupies the largest area. In addition, in the provided information collected from a plurality of vehicles, when different vehicle colors are included for one vehicle to be tracked, one or more vehicle colors may be determined in descending order of the number of times provided. Similarly, for Passenger A, aggregated image data indicating the driver, for Passenger B, aggregated image data indicating the driver's assistant, and for the pasted matter, aggregated image data indicating a sticker or the like, decorations, etc. Objects store image data representing aggregated decorations in the vehicle. In addition, image data representing aggregated scars is stored in scars. Here, the aggregated image data refers to a set of image data from which image data having similar features are removed. Therefore, the image data stored in the feature information may be single or plural. Further, when there is no image data stored in the feature information, information such as "blank" or "---" indicating that the information does not exist is stored. When image data having similar features are removed, image data with clear contrast and the like may be preferentially left.

(車載装置)
次に、車載装置20を説明する。図8は、車載装置20の機能構成の一例を概略的に示す図である。車載装置20は、機能構成要素に、車両関連情報取得部21、画像情報取得部22、追跡処理部23、情報提供処理部24、対象車両DB25、車両画像DB26、地図情報DB27を備える。車載装置20のプロセッサ201は、主記憶部202に展開されたコンピュータプログラムにより、車両関連情報取得部21、画像情報取得部22、追跡処理部23、情報提供処理部24の処理を実行する。ただし、各機能構成素のいずれか、またはその処理の一部がデジタル回路等のハードウェアにより実行されてもよい。
(In-vehicle device)
Next, the in-vehicle device 20 will be described. FIG. 8 is a diagram schematically showing an example of the functional configuration of the in-vehicle device 20. As shown in FIG. The in-vehicle device 20 includes a vehicle-related information acquisition unit 21, an image information acquisition unit 22, a tracking processing unit 23, an information provision processing unit 24, a target vehicle DB 25, a vehicle image DB 26, and a map information DB 27 as functional components. The processor 201 of the in-vehicle device 20 executes the processes of the vehicle-related information acquisition section 21, the image information acquisition section 22, the tracking processing section 23, and the information provision processing section 24 according to the computer program developed in the main storage section 202. FIG. However, any one of the functional constituents or part of the processing thereof may be executed by hardware such as a digital circuit.

対象車両DB25、車両画像DB26は、プロセッサ201によって実行されるデータベース管理システムのプログラムが、補助記憶部203に記憶されるデータを管理することで構築される。対象車両DB25、車両画像DB26は、例えば、リレーショナルデータベースである。地図情報DB27は、例えば、車内ネットワークを介して接続されたナビゲーションシステムから提供されるデータベースである。地図情報DB27には、道路リンク番号や交差点等のノード番号等の地物位置を含む地図データ、当該地図データ上の各地点の特性を示す文字や写真等のPOI情報を含む地図情報が格納される。 The target vehicle DB 25 and the vehicle image DB 26 are constructed by managing data stored in the auxiliary storage unit 203 by a database management system program executed by the processor 201 . The target vehicle DB 25 and the vehicle image DB 26 are, for example, relational databases. The map information DB 27 is, for example, a database provided by a navigation system connected via an in-vehicle network. The map information DB 27 stores map data including feature positions such as road link numbers and node numbers such as intersections, and map information including POI information such as characters and photographs indicating the characteristics of each point on the map data. be.

車両関連情報取得部21は、センターサーバ10から送信された対象車両に関する車両関連情報を取得する。取得された車両関連情報は、対象車両DB25に格納される。また、車両関連情報取得部21は、センターサーバ10から送信された対象車両に関する特徴情報を取得する。取得された特徴情報は、対象車両の管理番号に関連付けされて対象車両DB25に格納される。 The vehicle-related information acquisition unit 21 acquires vehicle-related information regarding the target vehicle transmitted from the center server 10 . The acquired vehicle-related information is stored in the target vehicle DB 25 . Further, the vehicle-related information acquisition unit 21 acquires feature information regarding the target vehicle transmitted from the center server 10 . The acquired feature information is stored in the target vehicle DB 25 in association with the management number of the target vehicle.

画像情報取得部22は、自車両の位置が所定条件を持たす場合には、車載カメラ207から撮像されたカメラ画像を取得する。例えば、画像情報取得部22は、対象車両DB25および地図情報DB27を参照し、位置情報センサ206から取得した自車両の位置情報(緯度、経度)が、車両関連情報で指定された対象エリアに含まれる場合にはカメラ画像を取得する。同様にして、画像情報取得部22は、位置情報センサ206から取得した自車両の位置情報が、車両関連情報で指定された道路リンク情報に対応する場合にはカメラ画像を取得する。画像情報取得部22は、取得されたカメラ画像に、画像が取得された時刻情報、位置情報、道路リンク情報、対象車両の管理番号を関連付けて車両画像DB26に格納する。 The image information acquisition unit 22 acquires a camera image captured by the vehicle-mounted camera 207 when the position of the own vehicle satisfies a predetermined condition. For example, the image information acquisition unit 22 refers to the target vehicle DB 25 and the map information DB 27, and the position information (latitude, longitude) of the own vehicle acquired from the position information sensor 206 is included in the target area specified by the vehicle-related information. Acquire the camera image if possible. Similarly, the image information acquisition unit 22 acquires a camera image when the position information of the own vehicle acquired from the position information sensor 206 corresponds to the road link information designated by the vehicle-related information. The image information acquiring unit 22 stores the acquired camera image in the vehicle image DB 26 in association with the time information at which the image was acquired, the position information, the road link information, and the management number of the target vehicle.

追跡処理部23は、対象車両DB25および車両画像DB26を参照し、追跡対象になる車両を検知する。追跡処理部23は、例えば、車両画像DB26に格納された画像データを取得し、画像に含まれるナンバープレート情報、特徴情報、車両カラー、車種の認識処理を行う。これら画像認識処理には、公知の技術が採用できる。追跡処理部23は、対象車両が検知されたときには、検知された対象車両の管理番号、画像データを情報提供処理部24に引き渡し、対象車両の提供情報を連続してセンターサーバ10に送信する状態(追跡モード)に移行する。追跡モードに移行した追跡処理部23は、対象車両が検知されている間は、定期的に対象車両の管理番号および画像データが情報提供処理部24に引き渡される。 The tracking processing unit 23 refers to the target vehicle DB 25 and the vehicle image DB 26 to detect vehicles to be tracked. The tracking processing unit 23 acquires image data stored in the vehicle image DB 26, for example, and performs recognition processing of license plate information, feature information, vehicle color, and vehicle type included in the image. A known technique can be adopted for these image recognition processes. When the target vehicle is detected, the tracking processing unit 23 transfers the management number and image data of the detected target vehicle to the information provision processing unit 24, and continuously transmits the provided information of the target vehicle to the center server 10. (tracking mode). While the target vehicle is being detected, the tracking processing unit 23 that has shifted to the tracking mode periodically transfers the management number and image data of the target vehicle to the information providing processing unit 24 .

追跡モードに移行した追跡処理部23は、車載カメラ207で撮像されたカメラ画像から、対象車両の新たな特徴の検出を行う。追跡処理部23は、例えば、対象車両の搭乗者、ステッカー等の貼付物、車内に設けられた飾りやカップホルダ、人形等の装飾物、車体の傷痕等の特徴が検知されたときには、当該特徴を含む画像データを抽出し、情報提供処理部24に引き渡す。 The tracking processing unit 23 shifted to the tracking mode detects new characteristics of the target vehicle from the camera image captured by the vehicle-mounted camera 207 . For example, when the tracking processing unit 23 detects a feature such as a passenger of the target vehicle, an attached object such as a sticker, an ornament provided in the vehicle, a cup holder, an ornament such as a doll, or a scar on the vehicle body, the tracking processing unit 23 detects the feature. is extracted and handed over to the information provision processing unit 24 .

また、追跡モードに移行した追跡処理部23は、車載カメラ207で撮像されたカメラ画像から、対象車両の左右折、停車といった挙動を示すイベントが検知された場合には、当該イベントを示す画像データを抽出し、情報提供処理部24に引き渡す。追跡処理部23は、例えば、対象車両の左右折に伴うウィンカーランプの点灯、停車等に伴う尾灯の点灯を、挙動を示すイベントとして検出する。 Further, when the tracking processing unit 23 that has shifted to the tracking mode detects an event indicating the behavior of the target vehicle such as turning left or right or stopping from the camera image captured by the vehicle-mounted camera 207, image data indicating the event is detected. is extracted and handed over to the information provision processing unit 24 . The tracking processing unit 23 detects, for example, the turn-on of the turn signal lamp when the target vehicle turns left or right, and the turn-on of the tail light when the target vehicle stops, as an event indicating the behavior.

情報提供処理部24は、追跡処理部23から引き渡された画像データ、対象車両の管理番号に、画像が取得された時刻情報、位置情報、道路リンク情報、自車両の車両ID(協力車両ID)を含めた提供情報をセンターサーバ10に送信する。なお、情報提供処理部24は、車内ネットワークを介して取得された車速、自車両の車速、ウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報を提供情報に含めて送信してもよい。 The information provision processing unit 24 adds the image data handed over from the tracking processing unit 23, the management number of the target vehicle, the time information when the image was acquired, the position information, the road link information, and the vehicle ID of the own vehicle (cooperating vehicle ID). to the center server 10. The information provision processing unit 24 may include information indicating the vehicle speed, the vehicle speed of the own vehicle, the operation direction of the turn signal lever, the operation position of the brake pedal, and the like acquired through the in-vehicle network in the provided information and transmit the information. .

図9は、対象車両DB25に格納される情報の一例を示す図である。図9に例示のように、対象車両DB25に格納される情報は対象車両の管理番号毎に行分けされた車両情報テーブルとして管理される。車両情報テーブルに登録される情報は、適宜にフィールドの追加、変更、削除が可能である。図9において、車両情報テーブルは、No、車両ID、ナンバープレート情報、対象エリア、特徴情報の各フィールドを有する。特徴情報フィー
ルドは、特徴を示す種別毎の画像が格納されるサブフィールドを有する。特徴情報フィールドにおけるサブフィールド数においても適宜に追加、変更、削除が可能である。
FIG. 9 is a diagram showing an example of information stored in the target vehicle DB 25. As shown in FIG. As illustrated in FIG. 9, the information stored in the target vehicle DB 25 is managed as a vehicle information table in which lines are separated for each target vehicle management number. Information registered in the vehicle information table can be appropriately added, changed, or deleted. In FIG. 9, the vehicle information table has fields for No, vehicle ID, license plate information, target area, and feature information. The feature information field has subfields in which an image for each type indicating features is stored. The number of subfields in the feature information field can also be added, changed, or deleted as appropriate.

Noには、車載装置20で付与された対象車両を管理する番号が格納される。車両IDには、センターサーバ10で追跡対象の車両を識別する管理番号が格納される。ナンバープレート情報には、対象車両のナンバープレートに標記された自動車登録番号を示す情報が格納される。対象エリアには、対象車両を捜索する範囲を指示する対象エリア情報が格納される。対象エリア情報は、例えば、標準地域メッシュコード、分割地域メッシュコードといった地域メッシュ情報である。但し、対象エリア情報は、市区町村等を示す情報でもよく、地域を特定する緯度・経度で区切られた情報であってもよい。 In No, a number assigned by the in-vehicle device 20 for managing the target vehicle is stored. The vehicle ID stores a management number that identifies the vehicle to be tracked by the center server 10 . The license plate information stores information indicating the vehicle registration number marked on the license plate of the target vehicle. The target area stores target area information that indicates a range in which to search for a target vehicle. The target area information is, for example, regional mesh information such as a standard regional mesh code and a divided regional mesh code. However, the target area information may be information indicating a municipality or the like, or may be information separated by latitude and longitude for specifying an area.

特徴情報には、センターサーバ10によって集約して分類された対象車両の特徴データおよび特定された道路リンク情報が格納される。色サブフィールドには集約された車両カラーを示す情報が格納される。同様にして、搭乗者Aには運転者を示す集約された画像データ、搭乗者Bには運転補助者を示す集約された画像データ、貼付物にはステッカー等を示す集約された画像データ、装飾物には車内における集約された装飾物を示す画像データが格納される。また、傷痕には集約された傷痕を示す画像データが格納される。リンクNoサブフィールドには、対象車両の存在が推定される道路リンクから絞り込まれて特定された道路リンク情報が格納される。特徴情報に格納される画像データや道路リンクは単一であってもよく、複数であってもよい。また、特徴情報に格納されるデータが存在しない場合には、当該情報が存在しないことを示す「空欄」、「---」といった情報が格納され
る。
The feature information stores the feature data of the target vehicle aggregated and classified by the center server 10 and the specified road link information. The color subfield stores information indicating the aggregated vehicle color. Similarly, for Passenger A, aggregated image data indicating the driver, for Passenger B, aggregated image data indicating the driver's assistant, and for the pasted matter, aggregated image data indicating a sticker or the like, decorations, etc. Objects store image data representing aggregated decorations in the vehicle. In addition, image data representing aggregated scars is stored in scars. The link No. subfield stores road link information specified by narrowing down road links where the presence of the target vehicle is estimated. The image data and road links stored in the feature information may be single or plural. Further, when there is no data stored in the feature information, information such as "blank" or "---" indicating that the information does not exist is stored.

(処理の流れ)
図10、11を参照して、本実施形態に係る情報処理システム1の処理を説明する。図10、11は、センターサーバ10、車載装置20が実行する処理の流れの一例を示すシーケンス図である。
(Processing flow)
Processing of the information processing system 1 according to the present embodiment will be described with reference to FIGS. 10 and 11 are sequence diagrams showing an example of the flow of processing executed by the center server 10 and the in-vehicle device 20. FIG.

図10において、センターサーバ10は、追跡対象の車両に関する車両関連情報を車載装置20が搭載された車両2に一斉に送信する(S1)。車両関連情報には、少なくともセンターサーバ10が対象車両を管理するためのタグ番号(図9、車両ID)およびナンバープレート情報が含まれる。また、車両カラー、車種、対象車両を捜索する範囲を指示する対象エリア情報等が存在する場合には、これらの情報を車両関連情報に含めて送信される。センターサーバ10から送信された対象車両に関する車両関連情報は、車載装置20が搭載された車両2に受信される(S2)。 In FIG. 10, the center server 10 simultaneously transmits vehicle-related information about vehicles to be tracked to the vehicles 2 on which the in-vehicle devices 20 are mounted (S1). The vehicle-related information includes at least a tag number (vehicle ID in FIG. 9) and license plate information for the center server 10 to manage the target vehicle. In addition, when there is information such as vehicle color, vehicle type, and target area information indicating the range to search for the target vehicle, such information is included in the vehicle-related information and transmitted. The vehicle-related information about the target vehicle transmitted from the center server 10 is received by the vehicle 2 on which the in-vehicle device 20 is mounted (S2).

車載装置20は、受信した車両関連情報を対象車両DB25に格納する。車載装置20は、対象車両DB25を参照し、対象車両に関するナンバープレート情報、車種、車両カラーといった特徴を取得する。そして、車載装置20は、車載カメラ207から撮像されたカメラ画像を取得し、画像認識により、対象車両に関するナンバープレート情報および特徴に合致する車両を照合する(S3)。車載装置20は、照合の結果、対象車両が検知されたときには対象車両の情報を連続してセンターサーバ10に送信する状態(追跡モード)に移行し、S5の処理に移行する(S4でYES)。そして、車載装置20は、少なくとも検知された対象車両のカメラ画像に、対象車両のタグ番号、自車両の識別情報(図6、協力車両ID)、時刻情報、位置情報(緯度、経度)、道路リンク情報を関連付けた提供情報をセンターサーバ10に送信する。なお、対象車両が検知されない場合には、車載装置20は、S3に処理を戻し(S4でNO)、対象車両に関するナンバープレート情報および特徴に合致する車両の照合を継続する。 The in-vehicle device 20 stores the received vehicle-related information in the target vehicle DB 25 . The in-vehicle device 20 refers to the target vehicle DB 25 and acquires features of the target vehicle such as license plate information, vehicle type, and vehicle color. Then, the in-vehicle device 20 acquires the camera image captured by the in-vehicle camera 207, and collates the vehicle that matches the license plate information and characteristics of the target vehicle by image recognition (S3). When the target vehicle is detected as a result of the collation, the in-vehicle device 20 shifts to a state (tracking mode) in which information on the target vehicle is continuously transmitted to the center server 10, and shifts to the processing of S5 (YES in S4). . Then, the in-vehicle device 20 adds at least the camera image of the detected target vehicle to the tag number of the target vehicle, identification information of the own vehicle ( FIG. 6 , cooperating vehicle ID), time information, position information (latitude, longitude), road Provided information associated with the link information is transmitted to the center server 10 . If the target vehicle is not detected, the in-vehicle device 20 returns the process to S3 (NO in S4), and continues to collate vehicles that match the license plate information and characteristics of the target vehicle.

追跡モードに移行した車載装置20は、定期的に対象車両のカメラ画像に、対象車両の
タグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報を関連付けた提供情報をセンターサーバ10に送信する(S5)。また、新たな特徴(対象車両の搭乗者、ステッカー等の貼付物、車内に設けられた飾りやカップホルダ、人形等の装飾物、車体の傷痕等)が検知されたときには、当該特徴を含む画像データを抽出し、センターサーバ10に送信する。新たな特徴を含む画像データは、対象車両のタグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報とともに提供情報として送信される。追跡処理が継続される車載装置20は、さらに新たな特徴が検知された際には、新たな特徴を含む画像データを抽出し、対象車両のタグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報とともにセンターサーバ10に送信する(S6)。なお、提供情報には自車両の車速等の情報が含まれてもよい。
The in-vehicle device 20 that has shifted to the tracking mode periodically provides the center server 10 with provision information in which the camera image of the target vehicle is associated with the tag number of the target vehicle, the identification information of the own vehicle, the time information, the position information, and the road link information. (S5). In addition, when new features (passengers of the target vehicle, stickers and other attachments, decorations and cup holders installed in the vehicle, decorations such as dolls, scars on the vehicle body, etc.) are detected, images containing such features Data is extracted and transmitted to the center server 10 . The image data including the new features is transmitted as provided information together with the tag number of the target vehicle, the identification information of the own vehicle, the time information, the position information, and the road link information. When a new feature is detected, the in-vehicle device 20 that continues the tracking process extracts image data including the new feature, and extracts the tag number of the target vehicle, the identification information of the own vehicle, the time information, the location, and the like. Information and road link information are sent to the center server 10 (S6). The provided information may include information such as the vehicle speed of the own vehicle.

車載装置20から送信された提供情報は、センターサーバ10で受信される(S7)。センターサーバ10は、車載装置20から送信された提供情報DB15に格納する。提供情報DB15では、車載装置20から送信された提供情報は、取得日時順にソーティングされて収集・蓄積され、対象車両毎の提供情報テーブルとして管理される。 The provided information transmitted from the in-vehicle device 20 is received by the center server 10 (S7). The center server 10 stores the provided information DB 15 transmitted from the in-vehicle device 20 . In the provided information DB 15, the provided information transmitted from the in-vehicle device 20 is sorted in order of acquisition date and time, collected and accumulated, and managed as a provided information table for each target vehicle.

センターサーバ10は、提供情報DB15に格納された、各車両から収集した特徴データ、撮像データを対象車両毎に集約し、特徴の種別を示すカテゴリ単位に分類する。分類された特徴は、特徴情報DB16に格納される(S8)。そして、センターサーバ10は、追加された特徴を示す特徴データ、対象車両の存在する道路リンク情報を各車両に送信する(S9)。センターサーバ10から送信された、追加された特徴を示す特徴データ、対象車両の存在する道路リンク情報は車載装置20に受信され、当該車載装置が管理する対象車両DB25が最新の情報に格納される。 The center server 10 aggregates the feature data and imaging data collected from each vehicle and stored in the provided information DB 15 for each target vehicle, and classifies them into categories indicating types of features. The classified features are stored in the feature information DB 16 (S8). Then, the center server 10 transmits the feature data indicating the added feature and the road link information on which the target vehicle exists to each vehicle (S9). Feature data indicating added features and road link information on which the target vehicle exists, which are transmitted from the center server 10, are received by the vehicle-mounted device 20, and the target vehicle DB 25 managed by the vehicle-mounted device is stored as the latest information. .

なお、センターサーバ10は、提供情報に含まれる位置情報、道路リンク情報から対象車両の現在の所在位置を推定し、当該所在位置を含む所定の領域内の車両に対して特徴データを送信してもよい。所定の領域は、対象エリア情報として指定される。但し、図12で後述するように、対象エリア情報は所定の領域の中心になる位置(緯度、経度)と、距離半径(例えば、10km等)を指定してもよい。対象エリアの指定により、対象車両の存在する範囲を絞り込むことで、追跡精度を向上させることができる。また、センターサーバ10は、対象車両の所在位置周辺の道路リンク上の車両に対して特徴情報を送信するようにしてもよく、当該道路リンク上に位置する車両に限定して追跡処理の継続指示を送信してもよい。この場合においても、対象車両の追跡精度が向上できる。 Note that the center server 10 estimates the current location of the target vehicle from the location information and road link information included in the provided information, and transmits characteristic data to vehicles within a predetermined area including the location. good too. A predetermined area is designated as target area information. However, as will be described later with reference to FIG. 12, the target area information may specify the center position (latitude and longitude) of a predetermined area and the distance radius (for example, 10 km). By specifying the target area and narrowing down the range in which the target vehicle exists, it is possible to improve the tracking accuracy. Further, the center server 10 may transmit the characteristic information to vehicles on the road link around the location of the target vehicle, and instruct the continuation of the tracking process only to the vehicles located on the road link. may be sent. Also in this case, the tracking accuracy of the target vehicle can be improved.

追跡処理が継続する車両2は、対象車両の挙動を示すイベント(左右折、停車)を検知した際には、イベントの発生を示す画像データを抽出し、提供情報としてセンターサーバ10に送信する(S10)。提供情報には、対象車両のタグ番号、自車両の識別情報、時刻情報、位置情報、道路リンク情報が含まれる。なお、追跡処理が継続する車両2には、追加された特徴データとともに道路リンク情報が指定された情報を受信した後に、追跡モードに移行した車載装置20が含まれる。また、対象車両に後続して左右折する車両2の場合には、提供情報に、ノード番号、車内ネットワークを介して取得された車速やウィンカーレバーの操作方向、ブレーキペダルの操作位置等を示す情報を含めてもよい。 When the vehicle 2 for which the tracking process continues detects an event indicating the behavior of the target vehicle (turn left or right, stop), it extracts image data indicating the occurrence of the event and transmits it to the center server 10 as provided information ( S10). The provided information includes the tag number of the target vehicle, identification information of the own vehicle, time information, position information, and road link information. The vehicle 2 for which the tracking process continues includes the vehicle-mounted device 20 that has shifted to the tracking mode after receiving the information specifying the road link information together with the added feature data. In the case of the vehicle 2 that turns left and right following the target vehicle, the provided information includes information indicating the node number, the vehicle speed acquired via the in-vehicle network, the operation direction of the turn signal lever, the operation position of the brake pedal, and the like. may be included.

センターサーバ10は、イベントの発生に伴う提供情報を受信する(S11)。イベントの発生に伴い車載装置20から送信された提供情報は提供情報DB15に格納される。そして、センターサーバ10は、地図情報DB17を参照し、検知された対象車両の挙動、提供情報に含まれる道路リンクやノード情報から、対象車両が存在可能な道路リンクを推定する(S12)。 The center server 10 receives the provided information accompanying the occurrence of the event (S11). The provided information transmitted from the in-vehicle device 20 with the occurrence of the event is stored in the provided information DB 15 . Then, the center server 10 refers to the map information DB 17 and estimates a road link on which the target vehicle can exist based on the detected behavior of the target vehicle and road links and node information included in the provided information (S12).

センターサーバ10は、さらに、地図情報DB17を参照し、対象車両が存在すると推
定された所在位置周辺の道路リンクを特定する。そして、特定された特定道路リンク上の車両に限定して、対象車両に関する特徴情報、追跡処理を行う指示を送信する(S13)。センターサーバ10から送信された特定道路リンク情報は車載装置20に受信される。
The center server 10 further refers to the map information DB 17 to identify road links around the location where the target vehicle is estimated to exist. Then, the feature information about the target vehicle and an instruction to perform the tracking process are transmitted only to the vehicles on the specified specific road link (S13). The specific road link information transmitted from the center server 10 is received by the in-vehicle device 20 .

図11に移り、そして、センターサーバ10は、追跡を終了するか否かを判定する(図11のS14)。センターサーバ10は、追跡を終了しない場合、処理S7に戻し、次の提供情報の受信を待つ。一方、センターサーバ10は、追跡を終了する場合、当該追跡対象の車両に対する追跡を終了する指示を車両2に一斉に送信する(S15)。そして、センターサーバ10は、追跡を終了する。車両2は、追跡を終了する指示を受信しない場合(S16でNO)、処理をS3に戻す。そして、特定道路リンクを走行する車両2の車載装置20では対象車両の検知が行われ(S3)、当該対象車両に対する追跡処理が行われる(S5-S6、S10)。一方、車両2は、追跡を終了する指示を受信した場合(S16でYES)、処理を終了する。 Moving on to FIG. 11, the center server 10 determines whether or not to end tracking (S14 in FIG. 11). If the center server 10 does not end the tracking, it returns to the process S7 and waits for reception of the next provided information. On the other hand, when terminating the tracking, the center server 10 simultaneously transmits to the vehicles 2 an instruction to terminate the tracking of the vehicle to be tracked (S15). Then, the center server 10 ends tracking. If the vehicle 2 does not receive the instruction to end tracking (NO in S16), the process returns to S3. Then, the in-vehicle device 20 of the vehicle 2 traveling on the specific road link detects the target vehicle (S3), and the target vehicle is tracked (S5-S6, S10). On the other hand, when the vehicle 2 receives an instruction to end tracking (YES in S16), the process ends.

以上の処理により、本実施形態に係る情報処理システム1では、対象車両の特徴(ステッカー類等の貼付物、装飾物、傷痕、車両カラー等)や搭乗員(運転者、運転補助者)の特徴を各車両(協力車両)が取得し、センターサーバ10に送信できる。センターサーバ10は、各車両から収集・蓄積された対象車両の特徴を画像解析して集約し、対象車両周辺の車両に対して集約された特徴データを送信できる。対象車両の特徴と合致した車両を検知した際には、当該車両の撮像データをセンターサーバ10にアップできるため、対象車両の追跡をより効率化できる。 Through the above processing, the information processing system 1 according to the present embodiment can perform the following operations: can be acquired by each vehicle (cooperating vehicle) and transmitted to the center server 10 . The center server 10 can image-analyze and summarize the features of the target vehicle collected and accumulated from each vehicle, and can transmit the aggregated feature data to vehicles around the target vehicle. When a vehicle that matches the characteristics of the target vehicle is detected, the imaging data of the vehicle can be uploaded to the center server 10, so tracking of the target vehicle can be made more efficient.

本実施形態に係る情報処理システム1では、例えば、対象車両の対向車線を走行する車両のように、ナンバープレート情報の認識が難しい場合であっても、車両の特徴データから対象車両の検知が可能になる。また、追跡したい車両の情報がナンバープレート情報だけであっても、ナンバープレート情報によって対象車両を検知した車両から、車両位置、走行道路を把握し、対象車両が存在する周辺の地域エリア、道路リンクを絞り込むことができる。情報処理システム1は、絞り込まれた地域エリア、道路リンクを走行する車両から、それぞれの視野角度で検出された対象車両の特徴を蓄積できるため、より精度の高い対象車両の情報を入手することが可能になる。 In the information processing system 1 according to the present embodiment, even if it is difficult to recognize the license plate information, such as a vehicle traveling in the opposite lane of the target vehicle, the target vehicle can be detected from the characteristic data of the vehicle. become. In addition, even if the information of the vehicle to be tracked is only the license plate information, the vehicle position and driving road can be grasped from the vehicle that detected the target vehicle by the license plate information, and the area around the target vehicle and the road link can be narrowed down. Since the information processing system 1 can accumulate the characteristics of the target vehicle detected at each viewing angle from vehicles traveling in the narrowed-down regional area and road link, it is possible to obtain information on the target vehicle with higher accuracy. be possible.

本実施形態においては、車載装置20からセンターサーバ10に送信される提供情報には、対象車両のタグ番号、協力車両の識別情報(協力車両ID)、時刻情報、位置情報(緯度、経度)、道路リンク情報を含むことができる。このため、センターサーバ10では、取得された対象車両のタグ番号、協力両の識別情報、時刻情報、位置情報、道路リンク情報を用いて、対象車両の存在位置を時系列的に推定可能になる。 In this embodiment, the provided information transmitted from the in-vehicle device 20 to the center server 10 includes the tag number of the target vehicle, identification information of the cooperating vehicle (cooperating vehicle ID), time information, position information (latitude, longitude), May include road link information. Therefore, in the center server 10, the location of the target vehicle can be estimated in chronological order using the acquired tag number of the target vehicle, identification information of cooperating vehicles, time information, position information, and road link information. .

そして、本実施形態においては、センターサーバ10は、提供情報から推定された対象車両の所在位置を含む所定の領域内の車両2に対して特徴情報が送信できる。特徴情報が送信される対象エリアを、対象車両の所在位置を含む所定の領域内に絞り込まれることで、車両追跡に関する処理負担が軽減されるとともに、対象車両の検出確度を高めることができる。センターサーバ10は、さらに、提供情報から特定された対象車両の所在位置周辺の道路リンク上に位置する車両2に対して、特徴情報を送信してもよい。車両追跡に関する処理負担をさらに軽減し、対象車両の検出確度の向上が期待できる。 In this embodiment, the center server 10 can transmit the feature information to the vehicle 2 within a predetermined area including the location of the target vehicle estimated from the provided information. By narrowing down the target area to which the feature information is transmitted to a predetermined area including the location of the target vehicle, the processing load related to vehicle tracking can be reduced and the detection accuracy of the target vehicle can be increased. The center server 10 may further transmit the characteristic information to the vehicles 2 positioned on the road link around the location of the target vehicle identified from the provided information. It is expected that the processing load related to vehicle tracking will be further reduced, and the detection accuracy of the target vehicle will be improved.

(変形例)
センターサーバ10は、入出力I/F105を介して接続されたLCD等の表示デバイスに、各車両から送信された対象車両の検知位置を表示させるようにしてもよい。図12は、表示デバイスに表示された対象車両の一例を説明する図である。図12において、黒丸は対象車両が検知された位置を表し、黒丸に付番されたt1、t2、t3は対象車両が
検知された時刻を表す。
(Modification)
The center server 10 may display the detected position of the target vehicle transmitted from each vehicle on a display device such as an LCD connected via the input/output I/F 105 . FIG. 12 is a diagram illustrating an example of the target vehicle displayed on the display device. In FIG. 12, the black circles represent the positions at which the target vehicle was detected, and t1, t2, and t3 numbered to the black circles represent the times at which the target vehicle was detected.

図12に示されるように、対象車両の走行経路を一定期間ごとに地図上にプロットすることにより、対象車両の移動の軌跡と、走行経路周辺地域との情報が時系列で視認ながら追跡するができる。センターサーバ10は、対象車両の管理番号毎に提供情報DB15に蓄積された提供情報の時刻情報と位置情報、道路リンク情報を用いて地図上にプロットすればよい。 As shown in FIG. 12, by plotting the travel route of the target vehicle on a map at regular intervals, the trajectory of the target vehicle and the information on the area around the travel route can be tracked while visually recognizing it in time series. can. The center server 10 may plot on a map using the time information, position information, and road link information of the provided information accumulated in the provided information DB 15 for each management number of the target vehicle.

例えば、追跡を担当する担当者は、道路リンクR2の時刻t1で検知された対象車両が時刻t2の位置に表示された場合、対象車両は道路リンクR2をノードN1方向に移動していることが把握できる。また、担当者は、対象車両が検知された道路リンクR2は、ノードN1で道路リンクR3と交差するといった周辺地域の様相が把握できる。担当者は、例えば、破線で囲まれた所定の範囲(t2)を指定して対象車両の車両関連情報、特徴情報の送信をセンターサーバ10に指示する。このように、対象車両の走行が予測されるノードN1周辺の道路リンクR2、R3を走行する車両を対象として対象車両の情報を事前に通知することで、追跡精度を高めることができる。なお、所定の範囲(t2)は、例えば、ノードN1を中心として距離半径を指定する一例である。 For example, if the target vehicle detected at time t1 on road link R2 is displayed at time t2, the person in charge of tracking knows that the target vehicle is moving along road link R2 in the direction of node N1. I can grasp it. Also, the person in charge can grasp the aspect of the surrounding area such that the road link R2 where the target vehicle is detected intersects with the road link R3 at the node N1. For example, the person in charge designates a predetermined range (t2) surrounded by a dashed line and instructs the center server 10 to transmit the vehicle-related information and feature information of the target vehicle. In this way, the tracking accuracy can be improved by notifying the target vehicle information in advance to the vehicles traveling on the road links R2 and R3 around the node N1 where the target vehicle is expected to travel. Note that the predetermined range (t2) is an example of designating a distance radius centered on the node N1, for example.

次に、道路リンクR2上で検知された対象車両が時刻t3の位置に表示された場合、対象車両は道路リンクR2をノードN2方向に移動していることが把握できる。対象車両が検知された道路リンクR2は、ノードN2で道路リンクR4と道路リンクR5と交差するといった周辺地域の様相が把握できる。担当者は、例えば、破線で囲まれた所定の範囲(t3)を指定して対象車両の車両関連情報、特徴情報の送信をセンターサーバ10に指示する。あるいは、道路リンクR2,R4,R5を指定して対象車両の車両関連情報、特徴情報の送信をセンターサーバ10に指示してもよい。この場合においても、対象車両の走行が予測されるノードN2周辺の道路リンクR2、R4、R5を走行する車両に対して対象車両の情報を事前に通知できる。 Next, when the target vehicle detected on road link R2 is displayed at the position at time t3, it can be understood that the target vehicle is moving on road link R2 in the direction of node N2. The road link R2 on which the target vehicle is detected intersects with the road link R4 and the road link R5 at the node N2. For example, the person in charge designates a predetermined range (t3) surrounded by a dashed line and instructs the center server 10 to transmit the vehicle-related information and characteristic information of the target vehicle. Alternatively, the center server 10 may be instructed to transmit the vehicle-related information and characteristic information of the target vehicle by designating the road links R2, R4, and R5. In this case as well, the information of the target vehicle can be notified in advance to the vehicles traveling on the road links R2, R4, and R5 around the node N2 where the target vehicle is expected to travel.

<その他の実施形態>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
<Other embodiments>
The above-described embodiment is merely an example, and the present disclosure can be modified as appropriate without departing from the scope of the present disclosure. The processes and means described in the present disclosure can be freely combined and implemented as long as there is no technical contradiction.

また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。例えば、車載装置20の一部の機能(例えば、画像認識機能)を、センターサーバ10が備えてもよい。 Also, the processing described as being performed by one device may be shared and performed by a plurality of devices. Alternatively, processes described as being performed by different devices may be performed by one device. In a computer system, it is possible to flexibly change the hardware configuration (server configuration) to implement each function. For example, the center server 10 may have a part of the functions of the in-vehicle device 20 (for example, the image recognition function).

本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、または光学式カードのような、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present disclosure can also be implemented by supplying a computer program implementing the functions described in the above embodiments to a computer, and reading and executing the program by one or more processors of the computer. Such a computer program may be provided to the computer by a non-transitory computer-readable storage medium connectable to the system bus of the computer, or may be provided to the computer via a network. A non-transitory computer readable storage medium is any type of disk such as, for example, a magnetic disk (floppy disk, hard disk drive (HDD), etc.), an optical disk (CD-ROM, DVD disk, Blu-ray disk, etc.), It includes any type of medium suitable for storing electronic instructions, such as read only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic card, flash memory, or optical card.

1 情報処理システム
2 車両(協力車両)
10 センターサーバ(情報処理装置)
11 車両関連情報送信部
12 提供情報取得部
13 特徴データ処理部
14 追跡車両データベース
15 提供情報データベース
16 特徴情報データベース
20 車載装置(制御装置)
21 車両関連情報取得部
22 画像情報取得部
23 追跡処理部
24 情報提供処理部
25 対象車両データベース
26 車両画像データベース
1 information processing system 2 vehicle (cooperating vehicle)
10 center server (information processing device)
11 vehicle-related information transmitting unit 12 provided information acquiring unit 13 feature data processing unit 14 tracked vehicle database 15 provided information database 16 feature information database 20 in-vehicle device (control device)
21 vehicle-related information acquisition unit 22 image information acquisition unit 23 tracking processing unit 24 information provision processing unit 25 target vehicle database 26 vehicle image database

Claims (1)

追跡の対象である対象車両に関する車両関連情報を協力車両に対して送信することと、
前記車両関連情報に基づいて特定された前記対象車両の画像を含む提供情報を前記協力車両から取得することと、
前記画像から特定された前記対象車両の特徴に関する特徴情報を前記協力車両に送信することと、
を実行する制御部を備える情報処理装置。
transmitting vehicle-related information about the target vehicle being tracked to the cooperating vehicle;
Acquiring provided information including an image of the target vehicle identified based on the vehicle-related information from the cooperating vehicle;
transmitting feature information about the features of the target vehicle identified from the image to the cooperating vehicle;
An information processing apparatus comprising a control unit that executes
JP2021198550A 2021-12-07 2021-12-07 Information processor Pending JP2023084392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021198550A JP2023084392A (en) 2021-12-07 2021-12-07 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021198550A JP2023084392A (en) 2021-12-07 2021-12-07 Information processor

Publications (1)

Publication Number Publication Date
JP2023084392A true JP2023084392A (en) 2023-06-19

Family

ID=86771642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021198550A Pending JP2023084392A (en) 2021-12-07 2021-12-07 Information processor

Country Status (1)

Country Link
JP (1) JP2023084392A (en)

Similar Documents

Publication Publication Date Title
US11367107B2 (en) Information processing apparatus and information processing method
CN107749170B (en) Vehicle tracking device and method
US11940291B2 (en) Method for updating a map of the surrounding area, device for executing method steps of said method on the vehicle, vehicle, device for executing method steps of the method on a central computer, and computer-readable storage medium
US20140376778A1 (en) License plate recognition system and location forecasting
JP6603506B2 (en) Parking position guidance system
WO2019030916A1 (en) Traffic lane information management method, running control method, and traffic lane information management device
JP2008139320A (en) Notification apparatus and notification program of road environmental information
US20200074507A1 (en) Information processing apparatus and information processing method
US20200327317A1 (en) Unmanned autonomous vehicle and method of controlling the same
US20200250973A1 (en) Traffic management system, control method, and vehicle
JP6605883B2 (en) Parking stop monitoring support system and parking stop monitoring support method
CN107344499A (en) Display apparatus
JP7010172B2 (en) Advertising control device, advertising system, advertising control method and advertising control program
JP2013117809A (en) Safety driving support information distribution system and information collection vehicle
CN110450790A (en) For the drive assistance device of vehicle, non-transitory computer-readable storage media and control method
JP2009129290A (en) Traffic signal detection apparatus, traffic signal detection method and program
US20200286371A1 (en) Traffic system for predicting and providing traffic signal switching timing
JP2013080286A (en) Moving body identification device and moving body information transmission device
CN114096996A (en) Method and apparatus for using augmented reality in traffic
CN115761661A (en) Pipeline architecture for road sign detection and evaluation
US20200292350A1 (en) Server apparatus and information processing method
CN108765955B (en) Intelligent automobile state detection sharing method and system based on license plate recognition
JP2023084392A (en) Information processor
US20190382035A1 (en) Recognition processing device, vehicle control device, recognition control method, and storage medium
JP2018045732A (en) Moving body identification device