JP2012198790A - Moving-body position estimation server - Google Patents

Moving-body position estimation server Download PDF

Info

Publication number
JP2012198790A
JP2012198790A JP2011062895A JP2011062895A JP2012198790A JP 2012198790 A JP2012198790 A JP 2012198790A JP 2011062895 A JP2011062895 A JP 2011062895A JP 2011062895 A JP2011062895 A JP 2011062895A JP 2012198790 A JP2012198790 A JP 2012198790A
Authority
JP
Japan
Prior art keywords
information
user
moving body
vehicle
registration number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011062895A
Other languages
Japanese (ja)
Inventor
Kazufumi Watanabe
一史 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nifty Corp
Original Assignee
Nifty Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nifty Corp filed Critical Nifty Corp
Priority to JP2011062895A priority Critical patent/JP2012198790A/en
Publication of JP2012198790A publication Critical patent/JP2012198790A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To effectively support identification of the position of a photographed moving body thereafter under a situation where a moving body can photograph another moving body.SOLUTION: A server performs the steps of: receiving, from a moving-body, photographing information in which positional information of the moving body acquired by a position identification function, a photographed image, the image photographed from the moving body, of at least one of a front side and a rear side of another moving body, and photographing date/time are correlated with one another; storing, in a database, moving-body analysis information in which photographed character information included in the photographed image, and the positional information and the photographing date/time included in the photographing information are correlated with one another; accepting input of user moving-body information including a moving body registration number by a user; and estimating, based on the moving body analysis information including at least the photographed character information corresponding to the moving body registration number input by the user, a travel range of the moving body identified by the moving body registration number from a position indicated by the latest positional information in the positional information stored in correlation with the photographed character information corresponding to the moving body registration number included in the user moving-body information.

Description

本発明は、移動体で撮影した画像等の移動体で得られた情報に基づき、他の移動体の走行範囲を推定するサーバに関する。   The present invention relates to a server that estimates a traveling range of another moving body based on information obtained by the moving body such as an image taken by the moving body.

近年、自動車やオートバイ等の車両盗難が多発していることが問題となっている。ところで、携帯電話にはカメラが搭載されているものが多い。従って、人が移動中に携帯電話のカメラで走行中の車両を撮影することも可能である。また、自動車自体にカメラが搭載されている場合もある。従って、運転者が自車に搭載されたカメラで、他の車両を撮影することも可能である。そこで、携帯電話や車両に搭載されたカメラで撮影した画像により車両盗難に対処する技術が知られている。   In recent years, vehicle theft such as automobiles and motorcycles has been a problem. By the way, many mobile phones are equipped with a camera. Therefore, it is possible to take a picture of a running vehicle with a mobile phone camera while a person is moving. In some cases, a camera is mounted on the car itself. Accordingly, it is possible for the driver to take a picture of another vehicle with the camera mounted on the own vehicle. Therefore, a technique for dealing with vehicle theft by an image taken by a mobile phone or a camera mounted on the vehicle is known.

特開平8−30892号公報JP-A-8-30892 特開2009−35065号公報JP 2009-35065 A 特開2010−86201号公報JP 2010-86201 A

しかしながら、車両のような移動体は移動可能であるため、移動体を撮影したとしても、撮影された移動体のその後の位置を特定することは困難である。   However, since a moving body such as a vehicle is movable, even if the moving body is photographed, it is difficult to specify the subsequent position of the photographed moving body.

車両の位置の特定は、車両盗難後の対処、交通管理、防犯、企業等の組織管理、交通運輸業における運行管理等、極めて有用である。そこで、本発明は、移動体が他の移動体を撮影可能な状況下を前提に、撮影された移動体のその後の位置の特定を効果的に支援する技術を提供することを目的とする。   The identification of the position of the vehicle is extremely useful for handling after the vehicle theft, traffic management, crime prevention, organization management of companies, etc., operation management in the transportation industry. Therefore, an object of the present invention is to provide a technique that effectively supports the subsequent position of a photographed moving body on the assumption that the moving body can photograph another moving body.

上記目的を達成するための本発明の第1の態様は、次のようなサーバとして例示できる。このサーバは、移動体から、位置特定機能により取得した前記移動体の位置情報と前記移動体から撮影した他の移動体の前部側及び後部側の少なくとも一方の撮影画像と撮影日時とを対応付けた撮影情報を受信する受信手段と、少なくとも前記撮影画像に含まれる撮影文字情報と前記撮影情報に含まれる前記位置情報と前記撮影日時とを対応付けた移動体解析情報をデータベースに記憶する記憶手段と、ユーザによる移動体登録番号を含むユーザ移動体情報の入力を受け付ける入力手段と、前記ユーザにより入力された前記移動体登録番号と一致する撮影文字情報を含む移動体解析情報を前記データベースから取得する取得手段と、少なくとも取得された前記移動体解析情報を基に、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点からの前記移動体登録番号で特定される移動体の走行範囲を推定する推定手段とを備える。   The first aspect of the present invention for achieving the above object can be exemplified as the following server. This server correlates the position information of the moving body acquired from the moving body by the position specifying function, the captured image of at least one of the front side and the rear side of the other moving body captured from the moving body, and the shooting date and time. Receiving means for receiving attached shooting information, and storage for storing in a database moving body analysis information in which at least shooting character information included in the shot image, the position information included in the shooting information, and the shooting date and time are associated with each other Means, input means for receiving user moving body information including a moving body registration number by a user, and moving body analysis information including photographed character information that matches the moving body registration number input by the user from the database. Based on the acquisition means to acquire and at least the acquired mobile body analysis information, it matches the mobile body registration number included in the user mobile body information. And a estimation unit that estimates a running range of the moving object identified by the mobile registration number from the point indicated by the latest position information of the position information stored in association with the captured text information.

かかる第1の態様では、移動体から受信した、移動体から撮影した他の移動体の前部側及び後部側の少なくとも一方を撮影した撮影画像、撮影日時、移動体の位置情報に基づき、ユーザにより入力された移動体登録番号に対応するユーザの移動体の走行範囲を推定する。これにより、サーバは、複数の移動体から受信した情報に基づき、ユーザが検索した移動体が最後に撮影された地点(本願の発明の「直近の位置情報の示す地点」の一例であ
る)からの走行範囲を推定することが可能となる。また、複数の移動体から受信した情報に基づき、ユーザが検索した移動体についての撮影(目撃)情報、走行範囲を得ることが可能であるため、自己発信装置を備えていない、又は自己発信装置が遮断された移動体についても、走行範囲などの情報を得ることが可能となる。
In such a first aspect, the user is based on a captured image obtained by capturing at least one of the front side and the rear side of another moving body received from the moving body, the shooting date and time, and the position information of the moving body. The traveling range of the moving body of the user corresponding to the moving body registration number input by is estimated. Thereby, the server is based on the information received from a plurality of moving objects, from the point where the moving object searched by the user was last taken (an example of “the point indicated by the latest position information” of the present invention). It is possible to estimate the traveling range. In addition, since it is possible to obtain shooting (sighting) information and traveling range of the moving body searched by the user based on information received from a plurality of moving bodies, the self-transmitting apparatus is not provided. It is possible to obtain information such as the travel range even for a mobile object in which is blocked.

本発明の第2の態様は、第1の態様に記載するサーバにおいて、前記取得手段で取得された前記移動体登録番号と一致する撮影文字情報を含む前記移動体解析情報を基に、前記移動体登録番号で特定される移動体の予測速度である地点間速度を算出する速度算出手段をさらに備え、前記推定手段は、前記算出された前記地点間速度にさらに基づいて、前記走行範囲を推定することを特徴とする。   According to a second aspect of the present invention, in the server described in the first aspect, the movement is performed based on the moving body analysis information including photographed character information that matches the moving body registration number acquired by the acquiring unit. A speed calculation unit that calculates a point-to-point speed that is a predicted speed of the moving body specified by the body registration number, and the estimation unit estimates the travel range further based on the calculated point-to-point speed It is characterized by doing.

かかる第2の態様では、ユーザにより入力された移動体登録番号と一致する撮影文字情報を含む移動体解析情報を基に、ユーザの移動体の予測速度である地点間速度を算出し、算出された地点間速度に基づくことで走行範囲を推定する。これにより、ユーザが検索した移動体の予測される速度に基づき、当該移動体の走行範囲を推定することが可能となるため、走行範囲を高精度に推定することが可能となる。   In the second aspect, the point-to-point speed, which is the predicted speed of the user's moving body, is calculated based on the moving body analysis information including the photographed character information that matches the moving body registration number input by the user. The travel range is estimated based on the speed between points. Thereby, since it is possible to estimate the travel range of the mobile body based on the predicted speed of the mobile body searched by the user, the travel range can be estimated with high accuracy.

本発明の第3の態様は、第1又は第2の態様に記載するサーバにおいて、前記推定手段は、前記撮影画像から検出される移動体の方向指示器点灯状況にさらに基づいて、前記走行範囲を推定することを特徴とする。   According to a third aspect of the present invention, in the server described in the first or second aspect, the estimation unit further includes the travel range based on a turn indicator lighting state of the moving object detected from the captured image. Is estimated.

かかる第3の態様では、撮影画像から検出される移動体の方向指示器点灯状況に基づくことで走行範囲を推定する。これにより、ユーザが検索した移動体の方向指示器の点灯状況、すなわち、当該移動体がこの先進行すると考えられる方向に基づき、当該移動体の走行範囲を推定することが可能となるため、走行範囲を高精度に推定することが可能となる。   In the third aspect, the traveling range is estimated based on the lighting state of the direction indicator of the moving object detected from the captured image. This makes it possible to estimate the travel range of the mobile body based on the lighting status of the direction indicator of the mobile body searched by the user, that is, the direction in which the mobile body is considered to travel ahead. Can be estimated with high accuracy.

本発明の第4の態様は、第1から第3のいずれか一つの態様に記載するサーバにおいて、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点の渋滞情報を取得する渋滞情報取得手段をさらに備え、前記推定手段は、前記取得した前記渋滞情報にさらに基づいて、前記走行範囲を推定することを特徴とする。   According to a fourth aspect of the present invention, in the server described in any one of the first to third aspects, the photographed character information that matches the mobile body registration number included in the user mobile body information is stored in association with the user mobile body information. The traffic information further includes traffic information acquisition means for acquiring traffic information at a point indicated by the latest positional information, and the estimation means estimates the travel range further based on the acquired traffic information. Features.

かかる第4の態様では、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点の渋滞情報に基づくことで走行範囲を推定する。これにより、ユーザが検索した移動体が最後に撮影された地点の渋滞情報を加味した当該移動体の走行範囲を推定することが可能となるため、走行範囲を高精度に推定することが可能となる。   In the fourth aspect, based on the traffic congestion information at the point indicated by the latest position information among the position information stored in association with the photographed character information that matches the moving body registration number included in the user moving body information. Estimate the travel range. As a result, it is possible to estimate the travel range of the mobile object taking into account the traffic jam information of the point where the mobile object searched by the user was last photographed, so the travel range can be estimated with high accuracy. Become.

本発明によれば、移動体が他の移動体を撮影可能な状況下を前提に、撮影された移動体のその後の位置の特定を効果的に支援する技術を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the technique which assists specification of the subsequent position of the image | photographed moving body effectively on the assumption that the moving body can image | photograph another moving body.

図1は実施形態1に係るサーバを含む盗難車の検索を行う盗難車検索システムの概略を示す概略構成図である。FIG. 1 is a schematic configuration diagram showing an outline of a stolen vehicle search system that searches for stolen vehicles including a server according to the first embodiment. 図2は実施形態1に係る自動車に搭載された盗難車検索システムに係るハードウェアの一例を示す構成図である。FIG. 2 is a configuration diagram illustrating an example of hardware related to a stolen vehicle search system installed in the automobile according to the first embodiment. 図3は実施形態1に係るサーバのハードウェアの一例を示す構成図である。FIG. 3 is a configuration diagram illustrating an example of server hardware according to the first embodiment. 図4は実施形態1に係る自動車の機能構成の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating an example of a functional configuration of the automobile according to the first embodiment. 図5は実施形態1に係るサーバの機能構成の一例を示す機能ブロック図である。FIG. 5 is a functional block diagram illustrating an example of a functional configuration of the server according to the first embodiment. 図6は実施形態1に係る自動車の処理フローを示す図である。FIG. 6 is a diagram illustrating a processing flow of the automobile according to the first embodiment. 図7は実施形態1に係る撮影情報データベースのデータ構成例を示す図である。FIG. 7 is a diagram illustrating a data configuration example of the shooting information database according to the first embodiment. 図8は実施形態1に係るサーバの処理フローを示す図である。FIG. 8 is a diagram illustrating a processing flow of the server according to the first embodiment. 図9は実施形態1に係る目撃情報データベースのデータ構成例を示す図である。FIG. 9 is a diagram illustrating a data configuration example of the sighting information database according to the first embodiment. 図10は実施形態1に係るユーザ車両検索時のサーバの処理フローを示す図である。FIG. 10 is a diagram illustrating a processing flow of the server when searching for a user vehicle according to the first embodiment. 図11は実施形態1に係るユーザ車両検索時のサーバの走行範囲予測の処理フローを示す図である。FIG. 11 is a diagram showing a processing flow for predicting the travel range of the server when searching for a user vehicle according to the first embodiment. 図12は実施形態1に係る渋滞重み付け情報データベースのデータ構成例を示す図である。FIG. 12 is a diagram illustrating a data configuration example of the congestion weighting information database according to the first embodiment. 図13は実施形態1に係るユーザ車両の走行範囲X1の例を示す図である。FIG. 13 is a diagram illustrating an example of a travel range X1 of the user vehicle according to the first embodiment. 図14は実施形態1に係る渋滞情報を考慮したユーザ車両の走行範囲X2の例を示す図である。FIG. 14 is a diagram illustrating an example of a travel range X2 of the user vehicle in consideration of traffic jam information according to the first embodiment. 図15は実施形態1に係る渋滞情報を考慮したユーザ車両の走行範囲X2の例を示す図である。FIG. 15 is a diagram illustrating an example of a travel range X2 of the user vehicle in consideration of traffic jam information according to the first embodiment. 図16は実施形態1に係る方向重み付け情報データベースのデータ構成例を示す図である。FIG. 16 is a diagram illustrating a data configuration example of the direction weighting information database according to the first embodiment. 図17は実施形態1に係る方向指示器点灯状況を考慮したユーザ車両の走行範囲X3の例を示す図である。FIG. 17 is a diagram illustrating an example of the travel range X3 of the user vehicle in consideration of the turn indicator lighting state according to the first embodiment.

以下、本発明を実施するための最良の形態について説明する。なお、以下の各実施形態の構成は例示であり、本発明は以下の構成に限定されない。   Hereinafter, the best mode for carrying out the present invention will be described. In addition, the structure of each following embodiment is an illustration, and this invention is not limited to the following structures.

<実施形態1>
[概略構成]
図1は、本発明の実施形態1に係るサーバを含む盗難車の検索を行う盗難車検索システムの概略構成図である。図示するように、このシステムにおいて、本実施形態1のサーバ1は、複数の自動車20と無線基地局80及びネットワークN1を介してデータの送受信が可能となるよう接続される。
<Embodiment 1>
[Outline configuration]
FIG. 1 is a schematic configuration diagram of a stolen vehicle search system that searches for stolen vehicles including a server according to Embodiment 1 of the present invention. As shown in the figure, in this system, the server 1 of the first embodiment is connected so as to be able to transmit and receive data via a plurality of automobiles 20 and a radio base station 80 and a network N1.

自動車20は、本発明に係る「移動体」の一例である。この発明において、「移動体」とは自動車、原動機付自転車、軽車両、鉄道車両などの車両を含む概念である。自動車20は、撮影装置で撮影した撮影画像を含む撮影情報を、無線基地局80及びネットワークN1を介してサーバ1に送信する。   The automobile 20 is an example of the “moving body” according to the present invention. In the present invention, the “moving body” is a concept including vehicles such as automobiles, motorbikes, light vehicles, and railway vehicles. The automobile 20 transmits photographing information including a photographed image photographed by the photographing device to the server 1 via the wireless base station 80 and the network N1.

サーバ1は、本発明に係るサーバである。サーバ1は、自動車20から送信された撮影画像を含む撮影情報を受信する。また、サーバ1は、目撃情報データベース108を備えている。目撃情報データベース108は、詳細は後述するが、複数の自動車20からサーバ1に送信された撮影情報などを記憶するものである。サーバ1は、自動車20から受信した撮影情報を目撃情報データベース108に記憶する。   The server 1 is a server according to the present invention. The server 1 receives shooting information including a shot image transmitted from the automobile 20. The server 1 also includes a sighting information database 108. Although details will be described later, the sighting information database 108 stores shooting information and the like transmitted from the plurality of automobiles 20 to the server 1. The server 1 stores the shooting information received from the automobile 20 in the sighting information database 108.

自動車20と無線基地局80との間では、例えば、携帯電話網、PHS(Personal Handy-phone System)網、無線LAN(Local Area Network)、WiMAX(Worldwide Int
eroperability for Microwave Access)、DSRC(Dedicated Short Range Communication)等を利用した無線通信が行なわれる。無線基地局80とサーバ1を接続するネット
ワークN1は、例えば、デジタル通信ネットワーク(ISDN)、光ファイバ等の有線ネットワークである。但し、ネットワークN1内の経路上に無線通信経路があってもよい。
Between the automobile 20 and the wireless base station 80, for example, a mobile phone network, a PHS (Personal Handy-phone System) network, a wireless LAN (Local Area Network), a WiMAX (Worldwide Int)
Wireless communication using eroperability for microwave access (DSRC), dedicated short range communication (DSRC), or the like is performed. The network N1 connecting the radio base station 80 and the server 1 is, for example, a wired network such as a digital communication network (ISDN) or an optical fiber. However, there may be a wireless communication path on the path in the network N1.

図2は、本実施形態1に係るサーバ1と無線基地局80及びネットワークN1を介して接続される自動車20のハードウェアの構成例を示すハードウェア構成図である。図3は、本発明の実施形態1に係るサーバ1のハードウェア構成例を示すハードウェア構成図である。図3の説明に先立ち、図2により自動車20のハードウェア構成を説明する。   FIG. 2 is a hardware configuration diagram illustrating a hardware configuration example of the automobile 20 connected to the server 1 according to the first embodiment via the radio base station 80 and the network N1. FIG. 3 is a hardware configuration diagram illustrating a hardware configuration example of the server 1 according to the first embodiment of the present invention. Prior to the description of FIG. 3, the hardware configuration of the automobile 20 will be described with reference to FIG.

[自動車]
図2は、本実施形態1に係る自動車20に搭載された盗難車検索システムに係るハードウェアの構成例を示すハードウェア構成図である。図示するように、自動車20は、カメラ21、GPS(Global Positioning System:全地球測位システム)アンテナ22、通
信アンテナ23、車載器24を備えている。
[Car]
FIG. 2 is a hardware configuration diagram illustrating a configuration example of hardware related to the stolen vehicle search system mounted on the automobile 20 according to the first embodiment. As shown in the figure, the automobile 20 includes a camera 21, a GPS (Global Positioning System) antenna 22, a communication antenna 23, and an in-vehicle device 24.

カメラ21は、本発明に係る「撮影装置」の一例である。この発明において、「撮影装置」とは、車線認識制御用のカメラ、衝突予防安全制御用のカメラ、ドライブレコーダーとして用いられるカメラに加えて、携帯電話に搭載されているカメラなどを含む概念である。そのため、「撮影装置」は、自動車の乗客が所持する携帯電話に搭載されているカメラ及び自動車に取り付けられた携帯電話に搭載されているカメラであってもよい。   The camera 21 is an example of a “photographing device” according to the present invention. In the present invention, the “imaging device” is a concept including a camera mounted on a mobile phone in addition to a camera for lane recognition control, a camera for collision prevention safety control, a camera used as a drive recorder, and the like. . Therefore, the “photographing device” may be a camera mounted on a mobile phone carried by a passenger of a car and a camera mounted on a mobile phone attached to the car.

カメラ21は、自動車20に取り付けられ、自動車20の前方、後方を撮影する。カメラ21は自動車20の前方又は後方のどちらか一方を撮影するものであってもよいし、自動車の前方及び自動車の後方の両方向を撮影するものであってもよい。また、カメラ21は、自動車の前方撮影用と後方撮影用の各々1台ずつ設置されてもよい。なお、カメラ21は、前方車両、後方車両(以下、「周辺車両」と言う)のナンバープレート(正式には、自動車登録番号標、又は車両番号標)や方向指示器(ウィンカー)を撮影可能に形成される。   The camera 21 is attached to the automobile 20 and photographs the front and rear of the automobile 20. The camera 21 may shoot either the front or rear of the automobile 20, or may shoot both the front of the automobile and the rear of the automobile. Further, one camera 21 may be installed for each of the front photographing and the rear photographing of the automobile. The camera 21 can photograph a license plate (formally, an automobile registration number mark or a vehicle number mark) and a direction indicator (winker) of a front vehicle and a rear vehicle (hereinafter referred to as “peripheral vehicle”). It is formed.

カメラ21は、例えば、所定周期で(例えば、数秒おきに)周辺車両の画像を撮影するようにしてもよいし、自動車20の乗客による撮影指示などのイベント発生時に撮影するようにしてもよい。   For example, the camera 21 may take an image of a surrounding vehicle at a predetermined cycle (for example, every few seconds), or may take an image when an event such as a shooting instruction by a passenger of the automobile 20 occurs.

GPSアンテナ22は、地球上空の複数のGPS衛星からの電波を受信するアンテナである。通信アンテナ23は、サーバ1との情報の送受信を行うために、サーバ1へ電波を送信し、またサーバ1から電波を受信する。   The GPS antenna 22 is an antenna that receives radio waves from a plurality of GPS satellites over the earth. The communication antenna 23 transmits radio waves to the server 1 and receives radio waves from the server 1 in order to transmit and receive information to and from the server 1.

車載器24は、自動車20の現在位置を示す位置情報、カメラ21により撮影された撮影画像及び撮影を行った日時である撮影日時を取得する装置である。この自動車20の車載器24のハードウェア構成は次のとおりである。   The vehicle-mounted device 24 is a device that acquires position information indicating the current position of the automobile 20, a photographed image photographed by the camera 21, and a photographing date and time that is a photographing date and time. The hardware configuration of the vehicle-mounted device 24 of the automobile 20 is as follows.

車載器24は、CPU(Central Processing Unit)25、主記憶装置26、外部記憶
装置27、時刻装置28、GPS装置29、通信IF(Interface)2A、通信バス2B
を備えている。
The vehicle-mounted device 24 includes a CPU (Central Processing Unit) 25, a main storage device 26, an external storage device 27, a time device 28, a GPS device 29, a communication IF (Interface) 2A, and a communication bus 2B.
It has.

CPU25は、自動車20全体の制御を行い、具体的には、主記憶装置26に実行可能に展開されたプログラムを実行し、自動車20の機能を提供する。CPU25は、通信バス2Bを介して、自動車20の各装置と接続される。   The CPU 25 controls the entire automobile 20, specifically, executes a program that is executable on the main storage device 26 and provides the functions of the automobile 20. The CPU 25 is connected to each device of the automobile 20 via the communication bus 2B.

主記憶装置26は、処理対象のデータ、例えば、カメラ21が撮影した撮影画像、GPS装置29により取得した位置情報、時刻装置28で取得した撮影日時などのデータ、あるいは、CPU25が実行するプログラムを保持する。主記憶装置26としては、ROM(Read Only Memory)及びRAM(Random Access Memory)が例示される。   The main storage device 26 processes data, for example, a photographed image photographed by the camera 21, position information obtained by the GPS device 29, data such as photographing date and time obtained by the time device 28, or a program executed by the CPU 25. Hold. Examples of the main storage device 26 include a ROM (Read Only Memory) and a RAM (Random Access Memory).

外部記憶装置27は、主記憶装置26に格納されるデータやプログラム等を保存する。例えば、外部記憶装置27は、カメラ21が撮影した撮影画像、GPS装置29により取得した位置情報、時刻装置28で取得した撮影日時などのデータを含むようにしてもよい。外部記憶装置27としては、HDD(Hard disk drive)、フロッピーディスク(登録
商標)(floppy disk、以下、FDという)、MO(Magneto-Optical disk)、CD(Compact Disc)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)フ
ラッシュメモリが例示される。FD、MO、CD、DVD、USBフラッシュメモリ等は着脱可能記憶媒体ともいう。
The external storage device 27 stores data, programs, and the like stored in the main storage device 26. For example, the external storage device 27 may include data such as a captured image captured by the camera 21, position information acquired by the GPS device 29, and a capturing date / time acquired by the time device 28. The external storage device 27 includes a hard disk drive (HDD), a floppy disk (registered trademark) (floppy disk, hereinafter referred to as FD), a magneto-optical disk (MO), a compact disc (CD), and a digital versatile disk (DVD). USB (Universal Serial Bus) flash memory is exemplified. The FD, MO, CD, DVD, USB flash memory, and the like are also called removable storage media.

時刻装置28は、現在時刻を計測する装置である。時刻装置28では、撮影装置が撮影を行った時刻を計測し取得する。この発明において、「撮影日時」とは、撮影装置が撮影を行った際の日時をいい、撮影を行った年月日及び時刻(時間、分、秒)の組み合わせによる情報が例示される。   The time device 28 is a device that measures the current time. The time device 28 measures and acquires the time when the image capturing device performs image capturing. In the present invention, the “shooting date / time” refers to the date / time when the shooting apparatus has shot, and is exemplified by the combination of the date and time (hour, minute, second) when the shooting was performed.

GPS装置29は、GPSアンテナ22で受信した電波により、自動車20の現在位置を示す位置情報を取得する装置である。この発明において、「位置情報」とは、移動体の位置に関する情報をいい、緯度と経度を含む概念である。   The GPS device 29 is a device that acquires position information indicating the current position of the automobile 20 from the radio wave received by the GPS antenna 22. In the present invention, “position information” refers to information relating to the position of the moving object, and is a concept including latitude and longitude.

通信IF2Aは、サーバ1と情報の送受信を行うインタフェースである。通信IF2Aは、カメラ21により撮影された撮影画像などのサーバに送信するデータを通信アンテナ23に送信する。なお、CPU25が実行するプログラムは、例えば、通信IF2Aを通じた自動車20外のコンピュータとの通信によりインストールできる。インストールとは、例えば、実行可能なプログラムを外部記憶装置27に展開すること、又は、主記憶装置26に展開することをいう。但し、着脱可能な記憶媒体を通じてプログラムをインストールしてもよい。   The communication IF 2A is an interface for transmitting / receiving information to / from the server 1. The communication IF 2 </ b> A transmits data to be transmitted to a server such as a captured image captured by the camera 21 to the communication antenna 23. Note that the program executed by the CPU 25 can be installed by communication with a computer outside the automobile 20 through the communication IF 2A, for example. Installation refers to, for example, deploying an executable program to the external storage device 27 or deploying it to the main storage device 26. However, the program may be installed through a removable storage medium.

[サーバ]
図3は、本発明の実施形態1に係るサーバ1のハードウェア構成例を示すハードウェア構成図である。図示するように、サーバ1は、CPU2、主記憶装置3、外部記憶装置4、通信IF5、通信バス6、入力装置7、表示装置8、渋滞情報送受信装置9を備えている。
[server]
FIG. 3 is a hardware configuration diagram illustrating a hardware configuration example of the server 1 according to the first embodiment of the present invention. As illustrated, the server 1 includes a CPU 2, a main storage device 3, an external storage device 4, a communication IF 5, a communication bus 6, an input device 7, a display device 8, and a traffic jam information transmitting / receiving device 9.

CPU2は、サーバ1全体の制御を行い、具体的には、主記憶装置3に実行可能に展開されたプログラムを実行し、サーバ1の機能を提供する。CPU2は、通信バス6を介して、サーバ1の各装置と接続される。   The CPU 2 controls the entire server 1, specifically, executes a program that is executed in the main storage device 3 and provides the functions of the server 1. The CPU 2 is connected to each device of the server 1 via the communication bus 6.

主記憶装置3は、処理対象のデータ、例えば、詳細は後述するが、自動車20から受信した撮影画像などを含む撮影情報、渋滞情報などのデータ、あるいは、CPU2が実行するプログラムを保持する。主記憶装置3としては、ROM及びRAMが例示される。   The main storage device 3 holds data to be processed, for example, shooting information including a shot image received from the automobile 20, data such as traffic jam information, or a program executed by the CPU 2. Examples of the main storage device 3 include a ROM and a RAM.

外部記憶装置4は、主記憶装置3に格納されるデータやプログラム等を保存する。例えば、外部記憶装置4は、自動車20から受信した撮影画像などを含む撮影情報、渋滞情報などのデータを含むようにしてもよい。外部記憶装置4としては、HDD、フロッピーディスク、MO、CD、DVD、USBフラッシュメモリが例示される。   The external storage device 4 stores data and programs stored in the main storage device 3. For example, the external storage device 4 may include data such as shooting information including traffic images received from the automobile 20 and traffic jam information. Examples of the external storage device 4 include an HDD, a floppy disk, an MO, a CD, a DVD, and a USB flash memory.

通信IF5は、自動車20及びユーザ装置30とネットワークN1、N2を介して情報の送受信を行うインタフェースである。例えば、通信IF5は、詳細は後述するが、ユーザがユーザ装置30にて検索した自動車の予測される走行範囲などの情報を、ネットワークN2を介してユーザ装置30に送信する。また、例えば、通信IF5は、ユーザ装置30からのユーザ情報、検索した自動車の自動車登録番号などの情報を、ネットワークN2を介して受信する。   The communication IF 5 is an interface that transmits / receives information to / from the automobile 20 and the user device 30 via the networks N1 and N2. For example, although details will be described later, the communication IF 5 transmits information such as a predicted travel range of the automobile searched by the user in the user device 30 to the user device 30 via the network N2. Further, for example, the communication IF 5 receives information such as user information from the user device 30 and a car registration number of the searched car via the network N2.

入力装置7は、キーボード、マウス、タッチパネルなどから構成され、入力を受け付ける装置である。マウス、タッチパネルはポインティングデバイスとも呼ばれる。例えば、サーバ1のオペレータなどのユーザにより、ユーザの検索したい自動車の自動車登録番号の入力を受け付ける。   The input device 7 includes a keyboard, a mouse, a touch panel, and the like, and is a device that receives input. The mouse and touch panel are also called pointing devices. For example, a user such as an operator of the server 1 receives an input of a car registration number of a car that the user wants to search.

表示装置8は、例えば、液晶表示パネル(LCD:Liquid Crystal Display)やCRT(Cathode Ray Tube)などから構成されるディスプレイであって、各種画面を表示する。表示装置8は、例えば、詳細は後述するが、ユーザがユーザ装置30にて検索した自動車の予測される走行範囲などの情報を表示する。   The display device 8 is a display composed of, for example, a liquid crystal display panel (LCD) or a CRT (Cathode Ray Tube), and displays various screens. The display device 8 displays information such as a predicted travel range of the automobile searched by the user device 30 by the user, for example, although details will be described later.

渋滞情報送受信装置9は、VICS(Vehicle Information and Communication System:道路交通情報通信システム)センタ(図示せず)との間で無線通信により渋滞情報のデータの送受信を行う装置である。この発明において、「渋滞情報」とは、VICSが提供する、高速道路や主要幹線道路の混雑、渋滞、所要時間、規制情報等の情報をいい、「渋滞あり」、「混雑あり」、「順調」などの道路状況を示す情報を含む概念である。なお、「VICS」とは、渋滞や交通規制などの道路交通情報をリアルタイムに送信し、カーナビゲーションなどの車載器に文字・図形で表示する情報通信システムである。   The traffic jam information transmitting / receiving device 9 is a device for transmitting / receiving traffic jam information data to / from a VICS (Vehicle Information and Communication System) center (not shown) by wireless communication. In this invention, “congestion information” refers to information provided by VICS, such as congestion on highways and main highways, congestion, required time, regulatory information, etc., “congestion”, “congestion”, “smooth” It is a concept including information indicating road conditions such as “”. Note that “VICS” is an information communication system that transmits road traffic information such as traffic jams and traffic regulations in real time, and displays them in characters and figures on a vehicle-mounted device such as a car navigation system.

図4は、本実施形態1に係るサーバ1と無線基地局80及びネットワークN1を介して接続される自動車20の機能構成を示す機能ブロック図である。図5は、本発明の実施形態1に係るサーバ1の機能構成を示す機能ブロック図である。図5の説明に先立ち、図4により自動車20の機能を説明する。   FIG. 4 is a functional block diagram illustrating a functional configuration of the automobile 20 connected to the server 1 according to the first embodiment via the radio base station 80 and the network N1. FIG. 5 is a functional block diagram showing a functional configuration of the server 1 according to the first embodiment of the present invention. Prior to the description of FIG. 5, the function of the automobile 20 will be described with reference to FIG.

[自動車]
図4は、本実施形態1に係る自動車20の機能構成を示す機能ブロック図である。図示するように、自動車20は、撮影部201、自車位置検出部202(本願の発明の「位置特定機能」の一例である)、時刻計測部203、撮影情報記憶部204、通信部205、撮影情報データベース206を備えている。なお、図4に示す自動車20の機能は、主として車載器24において提供される。また、これらの各種処理部201〜205は、CPU25が主記憶装置26などに保持されたプログラムを呼び出して実行することにより実現される。
[Car]
FIG. 4 is a functional block diagram showing a functional configuration of the automobile 20 according to the first embodiment. As shown in the figure, the automobile 20 includes an imaging unit 201, a vehicle position detection unit 202 (which is an example of the “position specifying function” of the present invention), a time measurement unit 203, an imaging information storage unit 204, a communication unit 205, A photographing information database 206 is provided. The functions of the automobile 20 shown in FIG. The various processing units 201 to 205 are realized by the CPU 25 calling and executing a program held in the main storage device 26 or the like.

図7は、撮影情報データベース206の例を示した図である。図示するように、撮影情報データベース206の各列には、番号、自動車20がカメラ21により撮影した撮影日時、撮影時の自動車20の位置情報、撮影画像の項目が含まれている。また、図7の各行は、各撮影情報1レコードを表している。撮影を行う度に撮影情報データベース206のレコードが一つ登録される。   FIG. 7 is a diagram showing an example of the shooting information database 206. As shown in the drawing, each column of the shooting information database 206 includes items such as a number, shooting date and time when the car 20 was shot by the camera 21, position information of the car 20 at the time of shooting, and a shot image. Further, each row in FIG. 7 represents one shooting information record. Every time shooting is performed, one record of the shooting information database 206 is registered.

図7の番号は、撮影情報データベース206の各行のレコードを識別する情報、例えば、行番号、又は撮影情報データベース206が含まれるファイルのレコード番号、主記憶装置26のアドレス番号等である。   The numbers in FIG. 7 are information for identifying records in each row of the photographing information database 206, for example, a row number, a record number of a file including the photographing information database 206, an address number of the main storage device 26, or the like.

図7では、撮影日時を、年月日と時分秒により表しているが、本発明はこれに限るもの
ではなく、例えば、ミリ秒を含んでもよいし、年が含まれていなくてもよい。また、図7では、位置情報として、緯度、経度を、度分秒を用いて表すDMS(Degrees Minutes Seconds:度分秒)表記としているが、10進数の度のみを用いて表すDEG(degree)表
記であってもよい。
In FIG. 7, the shooting date and time is represented by the date and time and the hour, minute, and second. However, the present invention is not limited to this, and may include, for example, milliseconds or may not include the year. . In FIG. 7, as position information, latitude and longitude are expressed in DMS (Degrees Minutes Seconds) using degrees, minutes and seconds, but DEG (degree) is expressed using only decimal degrees. Notation may be used.

図4に示した撮影部201は、カメラ21により撮影された、自動車20の前方、後方の撮影画像を取得する。撮影部201により取得された撮影画像には、自動車20の周辺車両のナンバープレートや方向指示器などが含まれる。   The imaging unit 201 illustrated in FIG. 4 acquires captured images of the front and rear of the automobile 20 captured by the camera 21. The captured image acquired by the imaging unit 201 includes a license plate of a vehicle around the automobile 20 and a direction indicator.

自車位置検出部202は、GPSアンテナ22及びGPS装置29により受信した、GPS衛星からの送信電波に基づいて自動車20の現在位置の位置情報を検出し、取得する。   The own vehicle position detection unit 202 detects and acquires position information of the current position of the automobile 20 based on the transmission radio waves received from the GPS satellites received by the GPS antenna 22 and the GPS device 29.

時刻計測部203は、カメラ21により撮影を行なった際の日時である撮影日時を計測し、取得する。 The time measuring unit 203 measures and acquires the shooting date and time, which is the date and time when the camera 21 performs shooting.

撮影情報記憶部204は、撮影部201により取得された撮影画像、自車位置検出部202により取得された位置情報、及び時刻計測部203により取得された撮影日時を対応付けて撮影情報データベース206に記憶する。対応付けられた記憶された撮影画像、位置情報及び撮影日時を、「撮影情報」と総称する。   The shooting information storage unit 204 associates the shot image acquired by the shooting unit 201 with the position information acquired by the vehicle position detection unit 202 and the shooting date and time acquired by the time measurement unit 203 in the shooting information database 206. Remember. The stored captured image, position information, and shooting date and time associated with each other are collectively referred to as “shooting information”.

通信部205は、撮影情報記憶部204により記憶された撮影情報をサーバ1へ送信する。   The communication unit 205 transmits the shooting information stored in the shooting information storage unit 204 to the server 1.

[サーバ]
図5は、本発明の実施形態1に係るサーバ1の機能構成を示す機能ブロック図である。図示するように、サーバ1は、受信部101(本願の発明の「受信手段」および「記憶手段」の一例である)、画像解析部102(本願の発明の「記憶手段」の一例である)、入力部103(本願の発明の「入力手段」の一例である)、検索部104(本願の発明の「取得手段」の一例である)、走行範囲推定部105(本願の発明の「推定手段」の一例である)、結果表示部106、結果送信部107、目撃情報データベース108、地図情報データベース109、渋滞重み付け情報データベース110、ユーザ情報データベース111を備えている。
[server]
FIG. 5 is a functional block diagram showing a functional configuration of the server 1 according to the first embodiment of the present invention. As shown in the figure, the server 1 includes a receiving unit 101 (an example of “reception unit” and “storage unit” of the present invention) and an image analysis unit 102 (an example of “storage unit” of the present invention). , Input unit 103 (which is an example of “input means” of the present invention), search unit 104 (which is an example of “acquisition means” of the present invention), and travel range estimation unit 105 (“estimation means of the present invention” ), A result display unit 106, a result transmission unit 107, a sighting information database 108, a map information database 109, a traffic jam weighting information database 110, and a user information database 111.

図9は、目撃情報データベース108の例を示した図である。図示するように、目撃情報データベース108の各列には、番号、撮影日時、位置情報、撮影画像に加え後述する自動車登録番号の項目が含まれる。また、目撃情報データベース108の各行は、各撮影情報に対応する情報(本願の発明の「移動体解析情報」の一例である)の1レコードを表している。目撃情報データベース108には、複数の自動車20についての撮影情報に対応する情報(移動体解析情報)が記憶される。   FIG. 9 is a diagram illustrating an example of the sighting information database 108. As shown in the drawing, each column of the sighting information database 108 includes an item of an automobile registration number to be described later in addition to a number, shooting date / time, position information, and a shot image. Each row of the sighting information database 108 represents one record of information corresponding to each piece of photographing information (an example of “moving body analysis information” according to the present invention). The sighting information database 108 stores information (moving body analysis information) corresponding to imaging information about the plurality of automobiles 20.

図9の番号は、目撃情報データベース108の各行のレコードを識別する情報、例えば、行番号、又は目撃情報データベース108が含まれるファイルのレコード番号、主記憶装置3のアドレス等である。図9では、撮影日時を、年月日と時分秒により表しているが、本発明はこれに限るものではなく、例えば、ミリ秒を含んでもよいし、年が含まれていなくてもよい。また、図9では、位置情報を、緯度、経度を、度分秒を用いて表すDMS(Degrees Minutes Seconds:度分秒)表記により表しているが、緯度、経度を10進数
の度のみを用いて表すDEG(degree)表記であってもよい。また、図9では、自動車登録番号を、「多摩500 さ XX−XX」と表しているが、本発明はこれに限るものではなく、例えば、「松本 あ XX−XX」のような番号でもよい。
The numbers in FIG. 9 are information for identifying records in each row of the sighting information database 108, for example, the row number, the record number of the file including the sighting information database 108, the address of the main storage device 3, and the like. In FIG. 9, the shooting date and time is represented by the date and time and the hour, minute, second. However, the present invention is not limited to this, and may include, for example, milliseconds or may not include the year. . Further, in FIG. 9, the position information is represented by DMS (Degrees Minutes Seconds) notation using latitude, longitude, and degrees, minutes and seconds, but only latitude and longitude are used as decimal numbers. DEG (degree) notation may be used. In FIG. 9, the automobile registration number is represented as “Tama 500 XX-XX”, but the present invention is not limited to this, and for example, a number such as “Matsumoto Ah XX-XX” may be used. .

なお、目撃情報データベース108の列には、どの自動車により撮影された画像(撮影情報)であるかを識別可能とするために、撮影を行った自動車20を一意に特定する自動車識別情報の項目が含まれていてもよい。自動車識別情報としては、当該自動車の自動車識別番号や当該自動車の所有者の情報などが例示される。   In the column of the sighting information database 108, there is an item of vehicle identification information that uniquely identifies the vehicle 20 that has been shot in order to be able to identify which image (shooting information) was taken by which vehicle. It may be included. Examples of the vehicle identification information include a vehicle identification number of the vehicle and information on the owner of the vehicle.

また、目撃情報データベース108は、複数の自動車20から受信した撮影情報に対応する移動体解析情報を集約して一元管理してもよいし、自動車20毎の移動解析情報を異なるテーブルに保持していてもよい。   Further, the sighting information database 108 may collectively manage the moving body analysis information corresponding to the shooting information received from the plurality of automobiles 20, and keep the movement analysis information for each automobile 20 in different tables. May be.

さらに、目撃情報データベース108の列には、上記情報に加えて、後述する方向指示器点灯状況、地点間速度、渋滞情報、渋滞重み付け値、走行範囲などの項目が含まれていてもよい。また、渋滞情報自体は、他のDBに格納してもよい。その場合には、目撃情報データベース108には、渋滞情報へのリンク情報、例えばファイルパス名、インターネット上のURL等を保持するようにすればよい。   Furthermore, in addition to the above information, the column of the sighting information database 108 may include items such as a direction indicator lighting state, a speed between points, traffic jam information, a traffic jam weighting value, and a travel range, which will be described later. Further, the traffic jam information itself may be stored in another DB. In that case, the sighting information database 108 may hold link information to traffic jam information, such as a file path name, a URL on the Internet, and the like.

地図情報データベース109には、地図情報が記憶される。地図情報としては、主要な施設名、道路データ(各道路のルートや距離等)、地名データなどが例示される。   The map information database 109 stores map information. Examples of the map information include main facility names, road data (routes and distances of each road), place name data, and the like.

図12は、渋滞重み付け情報データベース110の例を示した図である。図示するように、図12の各行には、渋滞度と渋滞重み付け値の項目が含まれる。図12の場合、渋滞度としては、「渋滞あり」、「混雑あり」、「順調」が用いられており、それぞれの渋滞度に対応して、渋滞重み付け値である「5.0」、「2.0」、「1.0」が設定されている。図12の例で示した渋滞重み付け値は、道路が「順調」である場合にユーザ車両がその道路を通過するのに要する時間に対する重み付けを行うものである。例えば、特定の道路について得られた渋滞情報が「渋滞あり」の場合、渋滞重み付けデータベース110により取得される渋滞重み付け値は「5.0」であるため、当該道路を通過するには、当該道路が「順調」である時の5倍の時間を要することとなる。   FIG. 12 is a diagram illustrating an example of the traffic jam weighting information database 110. As shown in the figure, each line in FIG. 12 includes items of a congestion degree and a congestion weight value. In the case of FIG. 12, “congested”, “congested”, and “smooth” are used as the degree of congestion, and “5.0”, “ 2.0 "and" 1.0 "are set. The traffic congestion weighting value shown in the example of FIG. 12 weights the time required for the user vehicle to pass the road when the road is “smooth”. For example, when the traffic jam information obtained for a specific road is “congested”, the traffic jam weighting value acquired by the traffic jam weighting database 110 is “5.0”. It takes 5 times as long as the time is “smooth”.

なお、本発明では、渋滞重み付け値は、道路を通過するために要する時間に対する重み付け値に限るものではなく、速度や距離に対する重み付け値であってもよい。また、渋滞重み付け値の数値は、図12に示した値に制限するものではなく、経験則などにより決められるものであってよい。   In the present invention, the traffic jam weighting value is not limited to the weighting value for the time required to pass the road, but may be a weighting value for speed or distance. Moreover, the numerical value of the traffic jam weighting value is not limited to the value shown in FIG. 12, but may be determined by an empirical rule or the like.

ユーザ情報データベース111には、サーバ1へのアクセスが許可されたユーザの、ユーザを一意に特定するユーザ情報が記憶(登録)される。ユーザ情報としては、ユーザの電話番号や、ユーザID(Identification)、パスワードが例示される。本実施形態1では、ユーザ情報データベース111に、盗難車検索システムに登録したユーザのユーザ情報が記憶されている。   The user information database 111 stores (registers) user information that uniquely identifies a user who is permitted to access the server 1. As user information, a user's telephone number, user ID (Identification), and a password are illustrated. In the first embodiment, the user information database 111 stores user information of users registered in the stolen vehicle search system.

なお、目撃情報データベース108、地図情報データベース109、渋滞重み付け情報データベース110、ユーザ情報データベース111は、サーバ1自体が備えている必要はなく、別の情報処理装置に備わっていてもよい。この場合、サーバ1が、ネットワーク越しにその情報処理装置のこれらのデータベースを利用できるようにすればよい。   The sighting information database 108, the map information database 109, the traffic jam weighting information database 110, and the user information database 111 are not necessarily provided in the server 1 itself, and may be provided in another information processing apparatus. In this case, the server 1 may use these databases of the information processing apparatus over the network.

受信部101は、自動車20から撮影情報を受信する。受信部101は、受信した撮影情報を目撃情報データベース108に記憶する。   The receiving unit 101 receives shooting information from the automobile 20. The receiving unit 101 stores the received shooting information in the sighting information database 108.

画像解析部102は、受信部101により受信した撮影情報に含まれる撮影画像の画像処理を行い、撮影画像から、撮影画像に含まれる周辺車両の自動車登録番号を検出する。
自動車登録番号は、本発明に係る「移動体登録番号」及び「撮影文字情報」の一例である。この発明において、「移動体登録番号」は、車両番号(軽自動車及び二輪車に付された番号)及び自動車登録番号(それ以外の車両に付された番号)を含む概念である。また、この発明において、「撮影文字情報」とは、撮影画像に含まれる文字情報をいい、移動体登録番号を含む概念である。
The image analysis unit 102 performs image processing on the captured image included in the captured information received by the receiving unit 101, and detects the automobile registration number of the surrounding vehicle included in the captured image from the captured image.
The automobile registration number is an example of the “mobile object registration number” and “photographed character information” according to the present invention. In the present invention, the “mobile object registration number” is a concept including a vehicle number (a number assigned to a light vehicle and a two-wheeled vehicle) and an automobile registration number (a number assigned to other vehicles). In the present invention, “photographed character information” refers to character information included in a photographed image, and is a concept including a mobile object registration number.

画像解析部102による周辺車両の自動車登録番号の検出は、例えば、特開平8−30892号公報や特開2010−86201号公報に記載された方法により行うことができる。画像解析部102は、検出した周辺車両の自動車登録番号を目撃情報データベース108に、撮影情報と対応付けて記憶する。   Detection of automobile registration numbers of surrounding vehicles by the image analysis unit 102 can be performed by a method described in, for example, Japanese Patent Application Laid-Open Nos. 8-30892 and 2010-86201. The image analysis unit 102 stores the detected automobile registration number of the surrounding vehicle in the sighting information database 108 in association with the shooting information.

また、画像解析部102は、自動車登録番号の検出と併せて、撮影画像に含まれる周辺車両の方向指示器点灯状況の検出を行ってもよい。この発明において、「方向指示器点灯状況」とは、方向指示器(ウィンカ)のランプの点灯状況をいい、方向指示器の左右のランプの点灯有無を含む概念である。「方向指示器点灯状況」としては、点灯している方向として「右」、「左」などが例示される。   In addition, the image analysis unit 102 may detect the turn-on status of surrounding turners included in the captured image in conjunction with the detection of the automobile registration number. In the present invention, the “direction indicator lighting condition” refers to the lighting condition of the lamp of the direction indicator (winker), and is a concept including whether or not the left and right lamps of the direction indicator are lit. Examples of the “direction indicator lighting state” include “right” and “left” as lighting directions.

画像解析部102による周辺車両の方向指示器点灯状況の検出は、例えば、画像処理により、撮影画像から方向指示器のランプが点灯している画像が抽出されないか否かを確認することで行われる。この確認は例えばランプの光強度が画像の中で基準値より強いことを手がかりの一つとして行われる。例えば、同一の自動車登録番号が検出された複数の画像において車両の側部近傍で、相対的に明るさが所定値以上変動している場合に、その明るさが変動している箇所をランプの位置としてもよい。なお、方向指示器点灯状況について検出を行った場合は、方向指示器点灯状況を目撃情報データベース108に、撮影情報と対応付けて記憶してもよい。また、例えば、相手車両の前部、後部を区別する情報とともに方向指示器点灯状況(なし、左、右)等を検出するようにしてもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。   The detection of the turn indicator lighting status of the surrounding vehicle by the image analysis unit 102 is performed, for example, by confirming whether or not an image in which the lamp of the turn indicator is lit is extracted from the captured image by image processing. . This confirmation is performed, for example, as a clue that the light intensity of the lamp is stronger than the reference value in the image. For example, if the brightness fluctuates more than a predetermined value near the side of the vehicle in a plurality of images where the same car registration number is detected, the location where the brightness fluctuates is It is good also as a position. Note that when the direction indicator lighting state is detected, the direction indicator lighting state may be stored in the sighting information database 108 in association with the photographing information. Further, for example, the turn indicator lighting status (none, left, right) and the like may be detected together with information for distinguishing the front and rear of the opponent vehicle. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

入力部103は、ユーザが検索したい自動車(以下、「ユーザ車両」という)の自動車登録番号やユーザ情報を含む情報などの入力を受け付ける。自動車登録番号とユーザ情報を含む情報を、「ユーザ移動体情報」と総称する。本実施形態1では、例えば、盗難による被害を受けた自動車の保有者であるユーザにより、被害を受けたユーザ車両の自動車登録番号の入力を受け付ける。また、例えば、サーバ1のオペレータ(ユーザ)が特定の盗難車の検索を行う場合に、オペレータ(ユーザ)により、盗難車の自動車登録番号の入力を受け付ける。   The input unit 103 accepts input of information including an automobile registration number and user information of an automobile that the user wants to search (hereinafter referred to as “user vehicle”). Information including the automobile registration number and user information is collectively referred to as “user mobile body information”. In the first embodiment, for example, a user who is the owner of an automobile damaged by theft receives an input of the automobile registration number of the damaged user vehicle. For example, when the operator (user) of the server 1 searches for a specific stolen vehicle, the operator (user) receives an input of the automobile registration number of the stolen vehicle.

入力部103は、この際、ユーザからユーザ情報の入力を受け付ける。入力部103は、受け付けたユーザ情報とユーザ情報データベース111に記憶(登録)されたユーザ情報とを照合することにより、入力部103に入力を行ったユーザが、サーバ1へのアクセスを許可されたユーザであるか否かを確認する。   At this time, the input unit 103 receives input of user information from the user. The input unit 103 collates the received user information with the user information stored (registered) in the user information database 111, so that the user who has input to the input unit 103 is permitted to access the server 1. Check if you are a user.

検索部104は、入力部103に入力された自動車登録番号と一致する自動車登録番号が目撃情報データベース108に登録されているか否かを検索する。検索部104は、検索した結果である、入力部103に入力された自動車登録番号と一致する自動車登録番号を含むレコード(目撃情報データベース108の各行に相当。以下「一致レコード」という)を取得する。検索部104が検索をした結果、一致した自動車登録番号があるときは、ユーザ車両が、他の自動車により目撃(撮影)されたということになる。なお、取得した一致レコードは、サーバ1が他にデータベース(図示せず)を備えることで、当該データベースに記憶するようにしてもよい。   The search unit 104 searches whether or not a vehicle registration number that matches the vehicle registration number input to the input unit 103 is registered in the sighting information database 108. The search unit 104 obtains a record (corresponding to each row of the sighting information database 108, hereinafter referred to as “matching record”) including the vehicle registration number that matches the vehicle registration number input to the input unit 103, which is the search result. . As a result of the search performed by the search unit 104, if there is a matching automobile registration number, the user vehicle has been witnessed (captured) by another automobile. In addition, you may make it memorize | store the acquired matching record in the said database, when the server 1 is equipped with another database (not shown).

走行範囲推定部105は、検索部104で検索した結果、一致レコードが複数登録されていた場合に、詳細は後述するが、これら複数の一致レコードに基づき、ユーザの検索時点におけるユーザ車両の走行可能範囲(走行範囲)を推定する。走行範囲推定部105は、推定された走行範囲、地点間速度、渋滞情報、渋滞重み付け値などを目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。   When a plurality of matching records are registered as a result of searching by the searching unit 104, the traveling range estimation unit 105 can run the user vehicle at the time of the user search based on the plurality of matching records, as will be described in detail later. Estimate the range (traveling range). The travel range estimation unit 105 may store the estimated travel range, inter-point speed, traffic jam information, traffic jam weight value, and the like in the sighting information database 108. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

結果表示部106は、検索部104の検索結果及び走行範囲推定部105の推定結果である走行範囲などの情報を表示させる。これにより、サーバ1のオペレータなどのユーザ車両(盗難車)が、検索時点でどの付近を走行しているか、また、検索時点より以前にユーザ車がどのような地点を走行していたか等を視認させることができる。   The result display unit 106 displays information such as the travel range that is the search result of the search unit 104 and the estimation result of the travel range estimation unit 105. As a result, the user vehicle (stolen vehicle) such as the operator of the server 1 can see where the user vehicle is traveling at the time of the search and what point the user vehicle was traveling before the time of the search. Can be made.

結果送信部107は、結果表示部106で表示された各種データと同様のデータを、ユーザ装置30へ送信する。これにより、ユーザ装置30により自動車登録番号を入力したユーザは、ユーザ車両(盗難車)が検索時点でどの付近を走行しているか、また、検索時点より以前にユーザ車両がどのような地点を走行していたか等を視認することができる。   The result transmission unit 107 transmits data similar to the various data displayed on the result display unit 106 to the user device 30. As a result, the user who has entered the automobile registration number by the user device 30 indicates which location the user vehicle (theft vehicle) is traveling at the time of search, and what point the user vehicle travels before the search time. It is possible to visually recognize whether or not it was done.

さらに、走行範囲推定部105は、速度算出部1051(本願の発明の「速度算出手段」に該当)、渋滞情報取得部1052(本願の発明の「渋滞情報取得手段」に該当)、重み付け値取得部1053、走行範囲算出部1054を備えている。   Further, the travel range estimation unit 105 includes a speed calculation unit 1051 (corresponding to “speed calculation unit” of the present invention), a traffic jam information acquisition unit 1052 (corresponding to “congestion information acquisition unit” of the present invention), and weight value acquisition. A unit 1053 and a travel range calculation unit 1054.

速度算出部1051は、検索部104で検索した結果、一致レコードが複数ある場合に、これら複数の一致レコードに基づき、ユーザ車が撮影された(目撃された)各地点間の地点間速度を算出する。この発明において、「地点間速度」とは、移動体が複数の地点で撮影された場合に、各地点間を当該移動体が走行する際の速度として予測される予測速度をいう。速度算出部1051は、算出した地点間速度を、目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。   When there are a plurality of matching records as a result of the search by the search unit 104, the speed calculation unit 1051 calculates the inter-point speed between each point where the user vehicle is photographed (witnessed) based on the plurality of matching records. To do. In the present invention, the “inter-point speed” refers to a predicted speed that is predicted as a speed when the moving body travels between the points when the moving body is photographed at a plurality of points. The speed calculation unit 1051 may store the calculated speed between points in the sighting information database 108. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

渋滞情報取得部1052は、渋滞情報送受信装置9により渋滞情報を取得する。なお、渋滞情報取得部1052は、渋滞情報を文字情報として取得できるほか、地図情報データベース109に記憶された地図情報(地図)を呼び出し、渋滞情報を地図上に重ね合わせた情報として取得することが可能である。渋滞情報取得部1052は、取得した渋滞情報を、目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。   The traffic jam information acquisition unit 1052 acquires traffic jam information by the traffic jam information transmitting / receiving device 9. The traffic jam information acquisition unit 1052 can acquire the traffic jam information as character information, and can also call the map information (map) stored in the map information database 109 and acquire the traffic jam information as information superimposed on the map. Is possible. The traffic jam information acquisition unit 1052 may store the acquired traffic jam information in the sighting information database 108. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

重み付け値取得部1053は、渋滞情報取得部1052により取得された渋滞情報に基づき、渋滞重み付け情報データベース110に記憶された重み付け値を取得する。例えば、渋滞情報取得部1052により取得された渋滞情報と渋滞重み付け情報データベース110に記憶された渋滞度とを照合することで、渋滞及び混雑していないと仮定した場合に走行可能な走行範囲に対する重み付け値を取得する。重み付け値取得部1053は、取得した重み付け値を、目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。   The weighting value acquisition unit 1053 acquires the weighting value stored in the traffic jam weighting information database 110 based on the traffic jam information acquired by the traffic jam information acquisition unit 1052. For example, by comparing the traffic jam information acquired by the traffic jam information acquisition unit 1052 with the traffic jam degree stored in the traffic jam weighting information database 110, weighting for a travelable range when it is assumed that there is no traffic jam or congestion. Get the value. The weight value acquisition unit 1053 may store the acquired weight value in the sighting information database 108. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

走行範囲算出部1054は、速度算出部1051で算出された地点間速度のうち直近の地点間速度や渋滞情報取得部1052により取得された渋滞情報に基づき、ユーザ車両の最終撮影地点(目撃地点)からの走行範囲を算出する。この発明において、「走行範囲」とは、移動体の現在(検索時に)走行中と予測される位置を示す範囲をいう。走行範囲算出部1054は、算出された走行範囲を、目撃情報データベース108に記憶してもよい
。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
The travel range calculation unit 1054 is based on the latest point-to-point speed among the point-to-point speeds calculated by the speed calculation unit 1051 and the traffic information acquired by the traffic information acquisition unit 1052, and the final shooting point (sighting point) of the user vehicle. The travel range from is calculated. In the present invention, the “traveling range” refers to a range indicating a position where the mobile object is predicted to be traveling (at the time of search). The travel range calculation unit 1054 may store the calculated travel range in the sighting information database 108. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

(動作フローの説明:自動車)
図6は、実施形態1に係る自動車20の車載器24の処理フローである。図6を用いて、自動車20の処理フローについて説明する。
(Explanation of operation flow: Automobile)
FIG. 6 is a processing flow of the vehicle-mounted device 24 of the automobile 20 according to the first embodiment. The processing flow of the automobile 20 will be described with reference to FIG.

撮影部201は、カメラ21を介して撮影画像を取得する(ステップ1、以下S1のように表記する)。また、時刻計測部203は、カメラ21が撮影を行った際の撮影日時を、時刻装置28を介して取得する(S2)。さらに、自車位置検出部202は、カメラ21が撮影を行った際の自動車20の位置を示す位置情報を、GPSアンテナ22及びGPS装置29を介して取得する(S3)。なお、ステップ2〜3は順不同であり、自車位置検出部202により位置情報を検出した後に、時刻計測部203により撮影日時を取得してもよい。   The photographing unit 201 acquires a photographed image via the camera 21 (step 1; hereinafter referred to as S1). Further, the time measuring unit 203 acquires the shooting date and time when the camera 21 has shot through the time device 28 (S2). Furthermore, the own vehicle position detection unit 202 acquires position information indicating the position of the automobile 20 when the camera 21 has taken an image via the GPS antenna 22 and the GPS device 29 (S3). Note that steps 2 to 3 are in no particular order, and the time and date may be acquired by the time measuring unit 203 after the position information is detected by the own vehicle position detecting unit 202.

撮影情報記憶部204は、ステップ1〜3で取得した撮影画像、撮影日時、位置情報をそれぞれ対応付けて、撮影情報として撮影情報データベース206に記憶する(S4)。   The shooting information storage unit 204 associates the shot image, the shooting date / time, and the position information acquired in Steps 1 to 3 with each other and stores them in the shooting information database 206 as shooting information (S4).

通信部205は、撮影情報データベース206に記憶された撮影情報をサーバ1へ送信する(S5)。更に、通信部205は、正常に撮影情報をサーバ1に送信できたか否かを判断し(S6)、正常に送信できていない場合は(S6;No)、再度撮影情報の送信を試みる。正常に送信できた場合は(S6;Yes)、車載器24のCPU25は、カメラ21による撮影を終了するか否かを判断する(S7)。例えば、カメラ21の電源OFFや、自動車20のエンジン停止などにより撮影を終了する場合は(S7;Yes)、自動車20の本処理フローを終了する。引き続き撮影を行う場合は(S7;No)、再度ステップ1の処理に戻る。   The communication unit 205 transmits the shooting information stored in the shooting information database 206 to the server 1 (S5). Further, the communication unit 205 determines whether or not the photographing information has been normally transmitted to the server 1 (S6). When the photographing information has not been normally transmitted (S6; No), the communication unit 205 tries to transmit the photographing information again. When the transmission is successful (S6; Yes), the CPU 25 of the vehicle-mounted device 24 determines whether or not the photographing by the camera 21 is ended (S7). For example, when the photographing is ended by turning off the power of the camera 21 or stopping the engine of the automobile 20 (S7; Yes), the processing flow of the automobile 20 is ended. If the shooting is continued (S7; No), the process returns to step 1 again.

(動作フローの説明:サーバ)
図8は、実施形態1に係るサーバ1の処理フローである。図8を用いて、サーバ1の処理フローについて説明する。サーバ1のCPU2は、主記憶装置3のコンピュータプログラムにより、図8の処理を実行する。
(Explanation of operation flow: Server)
FIG. 8 is a processing flow of the server 1 according to the first embodiment. A processing flow of the server 1 will be described with reference to FIG. The CPU 2 of the server 1 executes the process of FIG. 8 by the computer program in the main storage device 3.

受信部101は、通信IF5を介して、自動車20から撮影情報を受信したか否かを判断する(S11)。受信部101で撮影情報を受信していない場合(S11;No)、再度ステップ11の処理に戻る。受信部101で撮影情報を受信した場合(S11;Yes)、この受信した撮影情報を目撃情報データベース108に記憶する(S12)。   The receiving unit 101 determines whether or not imaging information has been received from the automobile 20 via the communication IF 5 (S11). When photographing information is not received by the receiving unit 101 (S11; No), the processing returns to step 11 again. When imaging information is received by the receiving unit 101 (S11; Yes), the received imaging information is stored in the sighting information database 108 (S12).

画像解析部102は、受信した撮影情報に含まれる撮影画像の画像解析を行うことにより、撮影画像から周辺車両の自動車登録番号の認識(検出)を行う(S13)。この処理により、撮影画像に含まれる周辺車両のナンバープレートに記載された自動車登録番号が文字情報として認識される。   The image analysis unit 102 recognizes (detects) the vehicle registration numbers of the surrounding vehicles from the captured image by performing image analysis of the captured image included in the received captured information (S13). By this processing, the automobile registration number written on the license plate of the surrounding vehicle included in the photographed image is recognized as character information.

なお、ステップ13では、自動車登録番号を認識すると共に、画像解析部102は、撮影画像を画像解析することで、撮影画像に含まれる周辺車両の方向指示器点灯状況を認識するようにしてもよい。   In step 13, the vehicle registration number is recognized, and the image analysis unit 102 may perform image analysis on the captured image, thereby recognizing a turn indicator lighting state of a surrounding vehicle included in the captured image. .

画像解析部102は、画像解析が正常に行われたか否かを判断する(S14)。正常に画像解析が行われなかった場合(S14;No)、画像解析部102は、再度撮影画像の解析を試みる。正常に画像解析が行われた場合(S14;Yes)、画像解析部102は、画像解析結果である自動車登録番号や方向指示器点灯状況を、目撃情報データベース1
08に、画像解析を行った撮影画像に対応する撮影情報と対応付けて記憶する(S15)。上述のとおり、目撃情報データベース108に記憶された情報を、移動体解析情報と総称する。
The image analysis unit 102 determines whether the image analysis has been performed normally (S14). When the image analysis is not normally performed (S14; No), the image analysis unit 102 tries to analyze the captured image again. When the image analysis is performed normally (S14; Yes), the image analysis unit 102 displays the vehicle registration number and the turn indicator lighting status as the image analysis result in the sighting information database 1
In 08, the information is stored in association with the photographing information corresponding to the photographed image subjected to the image analysis (S15). As described above, information stored in the sighting information database 108 is collectively referred to as moving body analysis information.

ステップ15で画像解析結果が目撃情報データベース108に記憶されると、サーバ1は、サーバ1の本処理フローを終了する。   When the image analysis result is stored in the sighting information database 108 in step 15, the server 1 ends the main processing flow of the server 1.

(動作フローの説明:検索時のサーバの処理)
図10は、ユーザがユーザ車両について検索を行った際の、実施形態1に係るサーバ1の処理フローである。図10を用いて、ユーザがユーザ車両について検索を行った際の、サーバ1の処理フローについて説明する。
(Explanation of operation flow: Server processing during search)
FIG. 10 is a processing flow of the server 1 according to the first embodiment when the user searches for the user vehicle. The processing flow of the server 1 when the user searches for the user vehicle will be described with reference to FIG.

入力部103は、ユーザからのユーザ情報及び自動車登録番号(以下、「ユーザ車番」という)の入力を受けたか否かを判断する(S101)。ユーザ情報及びユーザ車番の入力を受けていない場合(S101;No)、再度ステップ101の処理に戻る。入力部103は、ユーザ情報及びユーザ車番の入力を受けた場合(S101;Yes)、このユーザ情報と、予めサーバ1にアクセス可能なユーザのユーザ情報を記憶したユーザ情報データベース111との照合を行う(S102)。   The input unit 103 determines whether user information and a car registration number (hereinafter referred to as “user car number”) are received from the user (S101). When the user information and the user car number are not received (S101; No), the process returns to Step 101 again. When the input unit 103 receives input of user information and a user car number (S101; Yes), the input unit 103 collates the user information with a user information database 111 that stores user information of users who can access the server 1 in advance. Perform (S102).

入力部103は、ユーザにより入力されたユーザ情報がユーザ情報データベース111に登録されているか否かを判断し(S103)、入力されたユーザ情報がユーザ情報データベース111に登録されていない場合(S103;No)、再度ステップ101の処理に戻る。入力されたユーザ情報がユーザ情報データベース111に登録されている場合(S103;Yes)、ステップ104の処理に進む。   The input unit 103 determines whether the user information input by the user is registered in the user information database 111 (S103), and when the input user information is not registered in the user information database 111 (S103; No), the process returns to step 101 again. When the input user information is registered in the user information database 111 (S103; Yes), the process proceeds to step 104.

検索部104は、ユーザ情報データベース111に登録されていると判断されたユーザにより入力されたユーザ車番と一致する自動車登録番号が目撃情報データベース108に記憶(登録)されているか否かを判断する(S104)。ユーザ車番と一致する自動車登録番号が目撃情報データベース108に記憶されていない場合(S104;No)、サーバ1の本処理フローを終了する。なお、この場合、一致する撮影情報(目撃情報)がない旨をユーザに通知(送信)するようにしてもよい。   The search unit 104 determines whether or not an automobile registration number that matches a user vehicle number input by a user determined to be registered in the user information database 111 is stored (registered) in the sighting information database 108. (S104). When the car registration number that matches the user car number is not stored in the sighting information database 108 (S104; No), the processing flow of the server 1 is terminated. In this case, the user may be notified (transmitted) that there is no matching shooting information (sighting information).

検索部104は、ユーザ車番と一致する自動車登録番号が目撃情報データベース108に記憶されている場合(S104;Yes)、ユーザ車番と一致する自動車登録番号を含む、目撃情報データベース108内のレコード(一致レコード)が複数あるか否かを判断する(S105)。   When the vehicle registration number that matches the user vehicle number is stored in the sighting information database 108 (S104; Yes), the search unit 104 includes a record in the sighting information database 108 that includes the vehicle registration number that matches the user vehicle number. It is determined whether there are a plurality of (matching records) (S105).

検索部104で、一致レコードが複数ない(一つしかない)と判断された場合(S105;No)、結果表示部106は、この一致レコード、すなわち、移動体解析情報を表示装置8に表示させる(S107)。結果送信部107は、この移動体解析情報をユーザ装置30で視認可能とするため、移動体解析情報を、通信IF5を介してユーザ装置30へ送信する(S108)。   When the search unit 104 determines that there are not a plurality of matching records (only one) (S105; No), the result display unit 106 causes the display device 8 to display the matching records, that is, the moving body analysis information. (S107). The result transmitting unit 107 transmits the moving body analysis information to the user apparatus 30 via the communication IF 5 so that the moving body analysis information can be visually recognized by the user apparatus 30 (S108).

検索部104で、一致レコードが複数あると判断された場合(S105;Yes)、走行範囲推定部105は、これら複数の一致レコードに基づき、ユーザがユーザ車両を検索した時点でのユーザ車両の走行可能範囲(走行範囲)を算出(推定)する(S106)。走行範囲の算出方法(処理フロー)についての詳細は図11を用いて後述する。   When the search unit 104 determines that there are a plurality of matching records (S105; Yes), the traveling range estimation unit 105 travels the user vehicle at the time when the user searches for the user vehicle based on the plurality of matching records. A possible range (traveling range) is calculated (estimated) (S106). Details of the travel range calculation method (processing flow) will be described later with reference to FIG.

結果表示部106は、算出(推定)した走行範囲及び一致レコードである移動体解析情報を表示装置8に表示させる(S107)。なお、結果表示部106は、詳細は後述する
が、走行範囲を算出するために取得された、地点間速度、渋滞情報、渋滞重み付け値などの情報を走行範囲と併せて表示するようにしてもよい。
The result display unit 106 causes the display device 8 to display the calculated (estimated) travel range and the moving body analysis information that is a matching record (S107). Although the details will be described later, the result display unit 106 may display information such as the speed between points, the traffic jam information, and the traffic jam weight value acquired to calculate the travel range together with the travel range. Good.

なお、結果表示部106は、例えば、移動体解析情報や走行範囲を算出するために取得された情報のうち一部(例えば、撮影情報のみ)を表示させるようにしてもよいし、移動体解析情報及び走行範囲を算出するために取得された情報に含まれる全ての情報を表示させるようにしてもよい。また、走行範囲の結果表示としては、地図上にユーザ車両の走行ルート(軌跡)や走行範囲を示したものとして表示してもよいし、文字情報として、例えば、「最終目撃地点から半径300m以内」のように表示してもよい。また、地図上に取得した全位置情報を示す点をプロットするようにしてもよい。   Note that the result display unit 106 may display, for example, a part (for example, only shooting information) of the mobile body analysis information or the information acquired for calculating the travel range, or the mobile body analysis. You may make it display all the information contained in the information acquired in order to calculate information and a travel range. Moreover, as a result display of a driving | running | working range, you may display as what showed the driving | running route (trajectory) and driving | running | working range of the user vehicle on the map, ”May be displayed. Moreover, you may make it plot the point which shows all the positional information acquired on the map.

結果送信部107は、走行範囲、移動体解析情報、走行範囲を算出するために取得された情報などをユーザ装置で視認可能とするため、これらの情報を、通信IF5を介してユーザ装置30へ送信する(S108)。   The result transmission unit 107 makes it possible for the user device to visually recognize the travel range, the moving body analysis information, the information acquired to calculate the travel range, and the like, and sends these information to the user device 30 via the communication IF 5. Transmit (S108).

ステップ108で結果送信部107が送信を行うと、サーバ1は、サーバ1の本処理フローを終了する。   When the result transmission unit 107 performs transmission in step 108, the server 1 ends this processing flow of the server 1.

(動作フローの説明:サーバにおける走行範囲推定)
図11は、実施形態1に係るサーバ1における走行範囲推定処理の処理フローである。図11を用いてサーバ1における走行範囲推定処理について説明する。
(Explanation of operation flow: Estimated travel range in server)
FIG. 11 is a process flow of the travel range estimation process in the server 1 according to the first embodiment. The travel range estimation process in the server 1 will be described with reference to FIG.

速度算出部1051は、複数の一致レコードに基づき、ユーザ車両が撮影された各地点間の地点間速度を算出する(S1061)。地点間速度の算出方法としては、目撃情報データベース108に記憶された複数の一致レコードに含まれる位置情報と撮影日時による算出方法が例示される。この方法では、速度算出部1051は、目撃情報データベース108に記憶された複数の一致レコードに含まれる各位置情報により、各位置情報が示す各地点間の直線距離である地点間距離を算出する。また、速度算出部1051は、複数の一致レコードに含まれる各撮影日時から、ユーザ車が各地点間を走行するのに要した時間(以下、「地点間所要時間」という)を算出する。算出された地点間距離及び地点間所要時間を用いることで、地点間速度は、(地点間速度)=(地点間距離)/(地点間所要時間)により算出される。   The speed calculation unit 1051 calculates a point-to-point speed between points where the user vehicle is photographed based on a plurality of matching records (S1061). Examples of the method for calculating the speed between points include a calculation method based on position information and shooting date / time included in a plurality of matching records stored in the sighting information database 108. In this method, the speed calculation unit 1051 calculates a point-to-point distance, which is a linear distance between points indicated by the position information, based on the position information included in the plurality of matching records stored in the sighting information database 108. Further, the speed calculation unit 1051 calculates the time required for the user vehicle to travel between the points (hereinafter referred to as “time required between points”) from each shooting date and time included in the plurality of matching records. By using the calculated distance between points and the required time between points, the speed between points is calculated by (speed between points) = (distance between points) / (time required between points).

なお、ここでは、地点間距離を算出する際に、地点間距離を各地点間の直線距離として算出したが、本発明はこれに限るものではなく、地球の丸みを考慮した地点間距離の算出方法を用いてもよい。なお、速度算出部1051で算出された地点間速度は、目撃情報データベース108に対応する移動体解析情報と対応付けて記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。   Here, when calculating the distance between the points, the distance between the points is calculated as a linear distance between the points. However, the present invention is not limited to this, and the calculation of the distance between the points considering the roundness of the earth. A method may be used. The point-to-point speed calculated by the speed calculation unit 1051 may be stored in association with the moving body analysis information corresponding to the sighting information database 108. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

渋滞情報取得部1052は、渋滞情報送受信装置9により、渋滞情報を取得する(S1062)。渋滞情報取得部1052は、特に、一致レコードに含まれる位置情報が示す各地点及びその周辺の渋滞情報を取得する。この取得した渋滞情報により、ユーザ車両が撮影された地点やその周辺の道路の渋滞情報を把握することができる。   The traffic jam information acquisition unit 1052 acquires traffic jam information by the traffic jam information transmitting / receiving device 9 (S1062). In particular, the traffic jam information acquisition unit 1052 acquires traffic jam information at each point indicated by the position information included in the matching record and its surroundings. Based on the acquired traffic jam information, it is possible to grasp traffic jam information of a point where the user vehicle is photographed and roads in the vicinity thereof.

重み付け値取得部1053は、取得した渋滞情報に基づき、ユーザ車両が撮影された地点及びその周辺の道路についての渋滞重み付け値を取得する(S1063)。例えば、取得した渋滞情報と、道路の渋滞度合いや混雑度合いを示す渋滞度と渋滞重み付け値を対応付けた渋滞重み付け情報データベース110を照合することで、渋滞重み付け値を取得することができる。ここで、渋滞重み付け値とは、各道路に対する渋滞情報に応じて、各道
路に関する情報(速度、所要時間等)に対して重み付けを行うための値である。
Based on the acquired traffic jam information, the weight value acquisition unit 1053 acquires the traffic jam weight value for the spot where the user vehicle was photographed and the surrounding road (S1063). For example, the traffic congestion weighting value can be acquired by comparing the acquired traffic congestion information with the traffic congestion weighting information database 110 that associates the traffic congestion degree indicating the degree of traffic congestion or the degree of congestion with the traffic congestion weighting value. Here, the traffic jam weighting value is a value for weighting information (speed, required time, etc.) regarding each road according to the traffic jam information for each road.

なお、ステップ1061とステップ1062〜1063は順不同であり、例えば、渋滞情報及び渋滞重み付け値を取得した後に地点間速度の算出を行ってもよい。   Note that step 1061 and steps 1062 to 1063 are out of order, and for example, the speed between points may be calculated after acquiring the traffic information and the traffic weight.

走行範囲算出部1054は、算出された地点間速度、取得された渋滞情報及び渋滞重み付け値により、ユーザ車両の最終撮影地点からの走行可能範囲(走行範囲)を算出する(S1064)。走行範囲の算出方法として、次に示す方法が例示される。なお、この例では、まず初めにユーザ車両の走行範囲が、以下で算出される半径rの円により表される。すなわち、検索時点で、ユーザ車両は、最終撮影地点を中心とした半径rの円に含まれる道路を走行していると推定される。   The travel range calculation unit 1054 calculates a travelable range (travel range) from the last shooting point of the user vehicle based on the calculated speed between points, the acquired traffic jam information, and the traffic jam weighting value (S1064). The following method is exemplified as a method for calculating the travel range. In this example, first, the travel range of the user vehicle is represented by a circle of radius r calculated below. That is, at the time of the search, it is estimated that the user vehicle is traveling on a road included in a circle with a radius r centered on the final shooting point.

[走行範囲X1:地点間速度]
走行範囲算出部1054は、目撃情報データベース108に記憶された複数の一致レコードのうち直近の一致レコードとその直前の一致レコードから算出された地点間速度、すなわち、ユーザ車両が最後に撮影された地点とその直前に撮影された地点の間の地点間速度(以下、「最終地点間速度」という)を取得する。また、走行範囲算出部1054は、ユーザにより検索が行われた日時(以下、「検索日時」という)及びユーザ車両が最後に撮影された撮影日時(直近のレコードに含まれる撮影日時)から、最後に撮影された日時から検索日時までに経過した経過時間(以下、「検索時経過時間」という)を算出する。
[Running range X1: Speed between points]
The traveling range calculation unit 1054 calculates the speed between points calculated from the most recent matching record and the immediately preceding matching record among the plurality of matching records stored in the sighting information database 108, that is, the point where the user vehicle was last photographed. And the point-to-point speed (hereinafter referred to as “final point-to-point speed”) between the point and the point immediately before that. In addition, the travel range calculation unit 1054 calculates the last time from the date and time when the search was performed by the user (hereinafter referred to as “search date and time”) and the shooting date and time when the user vehicle was last shot (the shooting date and time included in the latest record). Elapsed time (hereinafter referred to as “elapsed time during search”) from the date / time when the image was taken to the search date / time is calculated.

走行範囲算出部1054は、取得した最終地点間速度と検索時経過時間を用いることで、ユーザ車両の走行範囲(円)の半径rは、r=(最終地点間速度)×(検索時経過時間)により算出される。最終撮影地点(直近の一致レコードに含まれる位置情報)を中心としたこの半径rの円を、渋滞及び混雑がない(順調である)と仮定した際のユーザ車両の走行範囲X1とする。   The travel range calculation unit 1054 uses the acquired speed between the last points and the elapsed time at the search time, so that the radius r of the travel range (circle) of the user vehicle is r = (the speed between the last points) × (the elapsed time at the search time). ). A circle of this radius r centered on the last shooting point (position information included in the latest matching record) is assumed to be the travel range X1 of the user vehicle when it is assumed that there is no traffic jam and congestion (smooth).

図13は、最終撮影地点を中心とした、半径rを半径とする走行範囲X1を示す図である。   FIG. 13 is a diagram showing a traveling range X1 centered on the final photographing point and having a radius r.

走行範囲算出部1054で算出された走行範囲は、文字情報として、算出した半径rのほか、地図情報データベース109に記憶された地図情報を呼び出し、走行範囲X1を地図上に重ね合わせたデータを、目撃情報データベース108に、移動体解析情報と対応付けて記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。   The travel range calculated by the travel range calculation unit 1054 is obtained by calling the map information stored in the map information database 109 in addition to the calculated radius r as character information, and superimposing the travel range X1 on the map. It may be stored in the sighting information database 108 in association with the moving body analysis information. Moreover, you may make it memorize | store in the said database by providing the server 1 with another database.

[走行範囲X2:地点間速度、渋滞情報]
走行範囲算出部1054は、重み付け値取得部1053により取得された渋滞重み付け値に基づき、渋滞情報を考慮したユーザ車両の走行範囲X2を算出する。なお、走行範囲X2は、渋滞の影響により走行速度(距離)が制限された上での走行可能範囲であるため、渋滞及び混雑がないと仮定した際のユーザ車両の走行範囲X1より面積が小さい範囲となる。走行範囲算出部1054の走行範囲X2を算出する方法として、次に示す方法が例示される。
[Running range X2: Speed between points, traffic jam information]
The travel range calculation unit 1054 calculates the travel range X2 of the user vehicle in consideration of traffic jam information based on the traffic jam weight value acquired by the weight value acquisition unit 1053. Note that the travel range X2 is a travelable range with the travel speed (distance) limited by the influence of traffic jams, and therefore has a smaller area than the travel range X1 of the user vehicle when it is assumed that there is no traffic jam or congestion. It becomes a range. As a method for calculating the travel range X2 of the travel range calculation unit 1054, the following method is exemplified.

走行範囲算出部1054は、走行範囲X1に含まれる道路を地図情報で確定したのち、ステップ1063で取得した渋滞重み付け値のうちの、確定された各道路についての渋滞重み付け値を取得する。走行範囲算出部1054は、取得した渋滞重み付け値により、確定された各道路に対して重み付けを行う。詳細を前述したとおり、図12の例では、走行範囲算出部1054は、各道路を通過するのに要する時間に対しての重み付けを行う。すなわち、走行範囲算出部1054は、道路が「順調」である時にユーザ車両が通過に要す
る時間に対して渋滞重み付け値を掛け合わせる。
The travel range calculation unit 1054 determines the road included in the travel range X1 using map information, and then acquires the traffic congestion weight value for each determined road among the traffic congestion weight values acquired in step 1063. The travel range calculation unit 1054 performs weighting on each confirmed road based on the acquired congestion weighting value. As described in detail above, in the example of FIG. 12, the travel range calculation unit 1054 weights the time required to pass each road. That is, the travel range calculation unit 1054 multiplies the traffic weighting value by the time required for the user vehicle to pass when the road is “smooth”.

走行範囲算出部1054は、渋滞重み付け値を掛け合わせることで算出された各道路の所要時間を考慮し、ユーザ車両が検索時経過時間の間で走行可能なルート(道路の組み合わせ)について、到達可能地点(距離)を算出(確定)する。走行範囲算出部1054は、例えば、確定した各ルートの到達可能地点を地図上でつなぎ合わせることで、走行範囲X2を求めることが可能である。また、確定した各ルートの到達可能地点を地図上でつなぎ合わせた直線に対して近似曲線を算出することで、この近似曲線を走行範囲X2としてもよい。このように、確定した各ルートの到達可能地点により走行範囲X2を確定する方法は、直線やその近似曲線、又は走行範囲X1の曲線の一部を用いるなど様々な方法をとり得るものである。   The travel range calculation unit 1054 takes into account the time required for each road calculated by multiplying the congestion weighting value, and can reach a route (a combination of roads) that the user vehicle can travel during the elapsed time during the search. Calculate (determine) the point (distance). For example, the travel range calculation unit 1054 can obtain the travel range X2 by connecting the reachable points of the determined routes on the map. Further, this approximate curve may be set as the travel range X2 by calculating an approximate curve with respect to a straight line obtained by connecting the determined reachable points of each route on the map. As described above, the method of determining the travel range X2 based on the reachable points of the determined routes can be various methods such as using a straight line, an approximate curve thereof, or a part of the curve of the travel range X1.

図14は、渋滞情報を考慮したユーザ車両の走行可能範囲である走行範囲X2の例を示す図である。図示するように、走行範囲X1に含まれるルート毎に到達可能地点を地点1〜7により表している。なお、地点0は、最終撮影地点を表している。   FIG. 14 is a diagram illustrating an example of a travel range X2 that is a travelable range of the user vehicle in consideration of traffic jam information. As illustrated, the reachable points are represented by points 1 to 7 for each route included in the travel range X1. Note that the point 0 represents the final shooting point.

また、図14で示すように、破線で示した領域を走行範囲X2とする。図示するように、地点0と地点1〜3との間のルートは、それぞれ渋滞による影響を受けていない道路のみからなるルートであるため、図示するように、走行範囲X1の曲線をそのまま用いるようにしてもよい(下の半円部分)。また、例えば、図14では、地点0と地点6、7などの間のルート(道路)は、それぞれ渋滞による影響を受けて走行可能距離が制限されている。走行範囲算出部1054は、これら渋滞による影響を受けたルートの到達可能地点(地点6、7など)と渋滞による影響を受けていないルートの到達可能地点(地点1、2など)の地点間を直線で繋げることで、図示するように走行範囲X2を求めてもよい。   Moreover, as shown in FIG. 14, the area | region shown with the broken line is made into the driving range X2. As shown in the figure, since the route between the point 0 and the points 1 to 3 is a route composed only of roads that are not affected by traffic congestion, the curve of the travel range X1 is used as it is as shown. It may be (lower semicircle part). Further, for example, in FIG. 14, a route (road) between the point 0 and the points 6 and 7 is restricted by the influence of traffic congestion and the travelable distance is limited. The travel range calculation unit 1054 calculates the distance between the reachable points (points 6 and 7 etc.) of the route affected by the traffic jam and the reachable points (points 1 and 2 etc.) of the route not affected by the traffic jam. You may obtain | require the driving | running | working range X2 as shown in figure by connecting with a straight line.

走行範囲算出部1054は、走行するルートが異なるため、同一の道路に到達可能地点が複数存在する場合や、図14の地点4、5のように最終撮影地点0から見て同方向に複数の点が存在する場合は、図示するように、これら複数の地点のうち地点5のように外側の地点(走行距離が長い地点)のみを他の地点と直線で結ぶこととしてもよい。   Since the traveling route is different, the traveling range calculation unit 1054 has a plurality of reachable points on the same road, or a plurality of traveling directions in the same direction as viewed from the final shooting point 0 like the points 4 and 5 in FIG. When there is a point, as shown in the drawing, only the outer point (point where the travel distance is long), such as the point 5, may be connected to other points with a straight line.

なお、図14では、地点間を直線で繋げることで走行範囲X2を求めているが、本発明はこれに限るものではなく、近似曲線を算出することにより走行範囲X2を求めてもよい。   In FIG. 14, the travel range X2 is obtained by connecting the points with a straight line. However, the present invention is not limited to this, and the travel range X2 may be obtained by calculating an approximate curve.

なお、本実施形態1では、渋滞情報(渋滞度)を「渋滞あり」、「混雑あり」、「順調」とし、この渋滞情報(渋滞度)に対応する渋滞重み付け値を取得することで、渋滞情報を考慮した走行範囲X2を算出したが、本発明はこれに限定するものではなく、例えば、渋滞情報として所要時間を用いることにより、走行範囲X2を算出するようにしてもよい。なお、この方法では、サーバ1は渋滞重み付け情報データベース110を備えていなくてもよい。   In the first embodiment, the congestion information (congestion level) is “congested”, “congested”, and “smooth”, and the traffic congestion weighting value corresponding to this congestion information (congestion level) is acquired. Although the travel range X2 in consideration of information is calculated, the present invention is not limited to this. For example, the travel range X2 may be calculated by using the required time as traffic jam information. In this method, the server 1 may not include the traffic congestion weighting information database 110.

図15は、所要時間を用いることで求めた走行範囲X2の例を示す図である。この方法では、例えば、走行範囲算出部1054は、渋滞情報により取得された各道路の所要時間、例えば、図15に示した、「20分」、「30分」、「50分」などの所要時間に基づき、ユーザ車両が検索時経過時間の間で到達可能な地点(距離)を算出(確定)する。この算出された到達可能地点により走行範囲X2を求めてもよい。なお、到達可能地点から走行範囲X2を求める方法は、図14で走行範囲X2を求める場合と同様である。   FIG. 15 is a diagram illustrating an example of the travel range X2 obtained by using the required time. In this method, for example, the travel range calculation unit 1054 requires the required time of each road acquired from the traffic jam information, for example, “20 minutes”, “30 minutes”, “50 minutes” and the like shown in FIG. Based on the time, a point (distance) that the user vehicle can reach during the search elapsed time is calculated (determined). The travel range X2 may be obtained from the calculated reachable point. The method for obtaining the travel range X2 from the reachable point is the same as the method for obtaining the travel range X2 in FIG.

[走行範囲X3:地点間速度、方向指示器点灯状況]
画像解析部102が撮影画像の画像解析を行った結果、撮影画像に含まれる周辺車両の
方向指示器点灯状況を認識(取得)した場合に、走行範囲算出部1054は、認識された方向指示器点灯状況に基づき走行範囲X3を求める。走行範囲算出部1054の走行範囲X3を算出する方法として、次に示す方法が例示される。
[Running range X3: Speed between points, lighting direction indicator]
As a result of the image analysis of the captured image performed by the image analysis unit 102, when the turn indicator lighting state of the surrounding vehicle included in the captured image is recognized (acquired), the traveling range calculation unit 1054 recognizes the recognized direction indicator. A travel range X3 is obtained based on the lighting state. As a method for calculating the travel range X3 of the travel range calculation unit 1054, the following method is exemplified.

走行範囲算出部1054は、最終撮影地点における方向指示器点灯状況、すなわち、方向指示器が指し示す方向(以下、「指示方向」という)に基づき、指示方向、指示方向の左右の方向(以下、「左右方向」という)、及び指示方向とは逆方向(以下、「逆方向」という)の各方向と方向重み付け値を対応付ける方向重み付け情報テーブル(データベース)(図示せず)を参照する。   The travel range calculation unit 1054 is based on the lighting direction of the direction indicator at the final shooting point, that is, the direction indicated by the direction indicator (hereinafter, referred to as “instruction direction”). Reference is made to a direction weighting information table (database) (not shown) for associating each direction in the direction (referred to as “left and right direction”) and the direction opposite to the designated direction (hereinafter referred to as “reverse direction”) with a direction weight value.

図16は、方向重み付け情報データベースの例を示した図である。図示するように、図16の各列には、方向と方向重み付け値の項目が含まれる。図16の場合、「指示方向」、「左右方向」、「逆方向」のそれぞれに対応して、方向重み付け値である「1.0」、「0.7」、「0.5」が設定されている。図16の例で示した方向重み付け値は、ユーザ車両が、方向指示器が指し示す方向である指示方向に進んだ可能性が高く、左右方向及び逆方向に進んだ可能性は低いとの予測に基づくものである。   FIG. 16 is a diagram showing an example of the direction weighting information database. As illustrated, each column of FIG. 16 includes items of direction and direction weighting value. In the case of FIG. 16, the direction weight values “1.0”, “0.7”, and “0.5” are set corresponding to each of “instruction direction”, “left / right direction”, and “reverse direction”. Has been. The direction weighting value shown in the example of FIG. 16 predicts that the possibility that the user vehicle has advanced in the indicated direction, which is the direction indicated by the direction indicator, is low, and the possibility that the user vehicle has advanced in the left-right direction and the reverse direction is low. Is based.

図17は、方向指示器点灯状況を考慮したユーザ車両の走行可能範囲である走行範囲X3の例を示す図である。破線で示した領域を走行範囲X3とする。図17の例では、方向重み付け値を走行範囲X1の半径rに掛け合わせることで走行範囲X3を求めている。   FIG. 17 is a diagram illustrating an example of a travel range X3 that is a travelable range of the user vehicle in consideration of the direction indicator lighting state. A region indicated by a broken line is defined as a travel range X3. In the example of FIG. 17, the travel range X3 is obtained by multiplying the direction weighting value by the radius r of the travel range X1.

図17では、ユーザ車両が矢印1の方向に向かって走行していたと仮定し、最終撮影地点である地点0において、ユーザ車両の方向指示器が矢印2の方向を指示していたと仮定する。この場合、指示方向については方向重み付け値が「1.0」であるため、指示方向には距離r(半径r×1.0)だけ走行可能とする(地点1)。また、左右方向については方向重み付け値が「0.7」であるため、距離0.7r(半径r×0.7)だけ走行可能とする(地点2、4)。逆方向については方向重み付け値が「0.5」であるため、距離0.5r(半径r×0.5)だけ走行可能とする(地点3)。   In FIG. 17, it is assumed that the user vehicle is traveling in the direction of the arrow 1, and it is assumed that the direction indicator of the user vehicle indicates the direction of the arrow 2 at the point 0 which is the final shooting point. In this case, since the direction weighting value is “1.0” for the designated direction, the vehicle can travel in the designated direction for a distance r (radius r × 1.0) (point 1). Further, since the direction weighting value is “0.7” in the left-right direction, the vehicle can travel for a distance of 0.7r (radius r × 0.7) (points 2 and 4). Since the direction weighting value is “0.5” for the reverse direction, the vehicle can travel for a distance of 0.5r (radius r × 0.5) (point 3).

走行範囲算出部1054は、このように方向指示器点灯状況に基づいた重み付けを行うことで、各方向におけるユーザ車両の到達可能地点(図17の地点1〜4)を算出できる。この算出された到達可能地点により走行範囲X3を求める。なお、到達可能地点から走行範囲X3を求める方法は、図14で走行範囲X2を求める場合と同様である。   The travel range calculation unit 1054 can calculate the reachable points (points 1 to 4 in FIG. 17) of the user vehicle in each direction by performing weighting based on the direction indicator lighting state in this way. A travel range X3 is obtained from the calculated reachable point. The method for obtaining the travel range X3 from the reachable point is the same as the method for obtaining the travel range X2 in FIG.

なお、本発明では、方向重み付け値は、走行範囲X1の半径rに対する重み付け値に限るものではなく、速度や時間に対する重み付け値であってもよい。また、方向重み付け値の数値は、図16に示した値に制限するものではなく、経験則などにより決められるものであってよい。   In the present invention, the direction weighting value is not limited to the weighting value for the radius r of the travel range X1, and may be a weighting value for speed or time. Further, the numerical value of the direction weighting value is not limited to the value shown in FIG. 16, but may be determined by an empirical rule or the like.

[走行範囲X4:地点間速度、渋滞情報、方向指示器点灯状況]
走行範囲算出部1054は、渋滞情報と方向指示器点灯状況の両者を考慮したユーザ車両の走行範囲X4を求めてもよい。走行範囲算出部1054の走行範囲X4を算出する方法としては、渋滞情報を考慮したユーザ車両の走行範囲X2を求める際に算出した到達可能地点(図13〜15の地点1〜7)と最終撮影地点である地点0との間の各ルートの距離に対して、方向重み付け値を掛け合わせる(重み付けを行う)方法が例示される。
[Running range X4: Inter-point speed, traffic jam information, turn-on indicator lighting status]
The travel range calculation unit 1054 may obtain the travel range X4 of the user vehicle in consideration of both the traffic jam information and the turn indicator lighting state. As a method of calculating the travel range X4 of the travel range calculation unit 1054, the reachable points (points 1 to 7 in FIGS. 13 to 15) calculated when obtaining the travel range X2 of the user vehicle in consideration of traffic jam information and the final shooting A method of multiplying (weighting) the direction weighting value by the distance of each route between the point 0 as the point is exemplified.

[撮影された各地点間のルート推定]
走行範囲算出部1054は、最終撮影地点からの走行範囲X1〜X4を算出するほか、ユーザ車両が撮影された各地点間において、ユーザ車両が走行したと予測されるルートを推定するようにしてもよい。
[Estimation of route between each shot]
The travel range calculation unit 1054 may calculate the travel ranges X1 to X4 from the final shooting point, and may estimate a route predicted that the user vehicle has traveled between the points where the user vehicle has been shot. Good.

この各地点間のルート推定方法としては、各地点間の道路の渋滞情報を取得し、取得した渋滞情報に基づきルートを推定する方法が例示される。具体的には、2地点間でユーザ車両が走行可能なルート(道路)の渋滞情報に基づき、ユーザ車両が2地点間を走行するのに実際に要した時間(当該2地点についての撮影情報に含まれる撮影日時により算出可能)の間で走行可能なルートを推定することが例示される。   Examples of the route estimation method between the points include a method of acquiring the traffic congestion information on the road between the points and estimating the route based on the acquired traffic congestion information. Specifically, based on the traffic jam information of the route (road) where the user vehicle can travel between two points, the time actually required for the user vehicle to travel between the two points (according to the shooting information about the two points) It is exemplified to estimate a route that can be traveled between (capable of calculation based on the shooting date and time included).

例えば、ユーザ車両が2地点間を走行するのに要した時間が30分である場合に、2地点間の特定の道路が渋滞により所要時間が50分であった場合は、ユーザ車両がこの特定の道路を走行していないと判断することができる。   For example, if the time required for the user vehicle to travel between two points is 30 minutes and the time required for the specific road between the two points is 50 minutes due to traffic congestion, the user vehicle It can be determined that the vehicle is not traveling on the road.

また、走行範囲算出部1054は、各地点間のルート推定を行う際に、各地点間の地点間速度を用いて推定を行うようにしてもよい。   In addition, the travel range calculation unit 1054 may perform estimation using the speed between points when performing route estimation between points.

走行範囲算出部1054により、各地点間のルート推定を行う場合は、結果表示部106は、推定された各地点間のルートや、推定するために用いた情報(渋滞情報、地点間速度)を視認可能とするように表示を行ってもよい。また、結果送信部107は、これらの推定されたルートや情報をユーザ装置に送信するようにしてもよい。   When the travel range calculation unit 1054 performs route estimation between points, the result display unit 106 displays the estimated route between points and information (congestion information, speed between points) used for estimation. The display may be performed so as to be visible. The result transmitting unit 107 may transmit the estimated route and information to the user device.

走行範囲算出部1054がステップ1064で走行範囲算出処理を終了すると、サーバ1は、サーバ1の本処理フローを終了する。   When the travel range calculation unit 1054 ends the travel range calculation process in step 1064, the server 1 ends the main processing flow of the server 1.

以上に説明したように、サーバ1は、(複数の)移動体から受信した、移動体から撮影した他の移動体の前部側及び後部側の少なくとも一方を撮影した撮影画像、撮影日時、移動体の位置情報に基づき、ユーザが検索した移動体が検索時点に(現在)走行中であると予測される走行範囲を推定することが可能となる。また、複数の移動体から受信した情報に基づき、ユーザが検索した移動体についての撮影(目撃)情報、走行範囲を得ることが可能であるため、自己発信装置を備えていない、又は自己発信装置が遮断された移動体についても、走行範囲などの情報を得ることが可能となる。   As described above, the server 1 receives from the moving body (a plurality of) the captured image obtained by capturing at least one of the front side and the rear side of the other moving body captured from the moving body, the shooting date and time, and the movement. Based on the body position information, it is possible to estimate the travel range in which the mobile body searched by the user is predicted to be traveling (currently) at the time of the search. In addition, since it is possible to obtain shooting (sighting) information and traveling range of the moving body searched by the user based on information received from a plurality of moving bodies, the self-transmitting apparatus is not provided. It is possible to obtain information such as the travel range even for a mobile object in which is blocked.

また、サーバ1は、ユーザが検索した移動体の予測速度である地点間速度、当該移動体の方向指示器の点灯状況、すなわち、当該移動体がこの先進行すると考えられる方向、及び当該移動体が最後に撮影された地点の渋滞情報などに基づいて、走行範囲を推定することにより、走行範囲を高精度に推定することが可能となる。   Further, the server 1 determines the speed between the points, which is the predicted speed of the moving body searched by the user, the lighting state of the direction indicator of the moving body, that is, the direction in which the moving body is considered to travel ahead, and the moving body It is possible to estimate the travel range with high accuracy by estimating the travel range based on the traffic jam information of the last photographed point.

<変形例1>
本実施形態1では、サーバ1が画像解析部102を備えることで、撮影画像の画像解析を行い、撮影画像から自動車登録番号や方向指示器点灯状況を認識(取得)するようにしたが、自動車20に画像解析部を備えることで撮影画像の画像解析を行うようにしてもよい。この場合には、サーバ1が画像解析部102を必ずしも備える必要はなく、サーバ1では、自動車20により認識(取得)された自動車登録番号や方向指示器点灯状況などを受信するような構成にすればよい。なお、サーバ1及び自動車20の両者が画像解析部を備えることで、それぞれが適宜画像解析を行うようにしてもよい。例えば、自動車20では、撮影画像からナンバープレートの切り出しを行う画像処理を行い、サーバ1では切り出されたナンバープレートの画像から文字情報である自動車登録番号を画像解析により取得するようにしてもよい。
<Modification 1>
In the first embodiment, the server 1 includes the image analysis unit 102 to perform image analysis of the captured image, and recognize (acquire) the vehicle registration number and the turn indicator lighting state from the captured image. The image analysis of the captured image may be performed by providing an image analysis unit 20. In this case, the server 1 does not necessarily include the image analysis unit 102, and the server 1 is configured to receive a vehicle registration number recognized by the vehicle 20, a turn indicator lighting condition, and the like. That's fine. Note that both the server 1 and the automobile 20 may include an image analysis unit, so that each of them may perform image analysis as appropriate. For example, the automobile 20 may perform image processing for cutting out a license plate from a photographed image, and the server 1 may acquire the automobile registration number, which is character information, from the cut out license plate image by image analysis.

<変形例2>
本実施形態1では、地点間速度の算出方法として位置情報と撮影日時による算出方法を例示したが、撮影を行う側の自動車20の速度(自車速度)と、撮影された(被写体であ
る)自動車の自動車20に対する相対速度を用いることで地点間速度を算出してもよい。
<Modification 2>
In the first embodiment, the calculation method based on the position information and the shooting date / time is illustrated as the method for calculating the speed between the points. However, the speed of the automobile 20 on the side where the shooting is performed (the vehicle speed) and the shot (the subject) are taken. The point-to-point speed may be calculated by using the relative speed of the car with respect to the car 20.

この方法では、サーバ1又は自動車20において、取得された撮影画像の画像解析を行い、撮影画像に含まれる周辺車両のナンバープレートの大きさを認識することで、撮影された自動車の自動車20に対する相対速度を算出する。この相対速度を算出する方法は、例えば、特開2006−17473号公報に記載された方法により行うことができる。また、この方法では、自動車20の自車速度を取得するために、自動車20がサーバ1に送信する撮影情報の中に自車速度(撮影時の自動車20の速度)又は自車の走行距離を含めることが必要となる。   In this method, the server 1 or the vehicle 20 performs image analysis of the acquired captured image, and recognizes the size of the license plate of the surrounding vehicle included in the captured image, so that the captured vehicle is relative to the vehicle 20. Calculate the speed. The method for calculating the relative speed can be performed, for example, by a method described in JP-A-2006-17473. Further, in this method, in order to obtain the own vehicle speed of the automobile 20, the own vehicle speed (the speed of the automobile 20 at the time of photographing) or the traveling distance of the own vehicle is included in the photographing information transmitted from the automobile 20 to the server 1. It is necessary to include.

速度算出部1051は、自動車20の自車速度と算出した相対速度に基づき、撮影された自動車の地点間速度を算出することができる。   The speed calculation unit 1051 can calculate the point-to-point speed of the photographed automobile based on the own vehicle speed of the automobile 20 and the calculated relative speed.

<変形例3>
本実施形態1では、自車位置検出部202は、GPS衛星からの送信電波に基づいて自動
車20の現在位置の位置情報を取得することとしたが、本発明はこれに限るものではない。自車位置検出部202は、自動車20と路側に設置された装置(基地局)との路車間通信(DSRCなど)やレーンマーカ等により自動車20の現在位置の位置情報を取得するようにしてもよい。例えば、複数の路側装置からの信号の受信感度(電波の強さ)の比に応じて、自動車20の各路側装置からの相対距離を求めるようにしてもよい。
<Modification 3>
In the first embodiment, the vehicle position detection unit 202 acquires the position information of the current position of the automobile 20 based on the transmission radio wave from the GPS satellite, but the present invention is not limited to this. The own vehicle position detection unit 202 may acquire position information of the current position of the automobile 20 by road-to-vehicle communication (such as DSRC) between the automobile 20 and a device (base station) installed on the roadside, a lane marker, or the like. . For example, the relative distance from each roadside device of the automobile 20 may be obtained according to the ratio of the reception sensitivity (the strength of radio waves) of signals from a plurality of roadside devices.

<その他の実施形態>
上述の実施形態1では、盗難の被害にあったユーザなどにより盗難車の自動車登録番号を入力するようにしたが、本発明では盗難車に限るものではなく、本発明に係るサーバは、例えば、配達車両、タクシー、出張サポートを行う車両、出前サービスのオートバイなどの追跡システム(サーバ)に応用できる。
<Other embodiments>
In Embodiment 1 described above, the vehicle registration number of the stolen car is input by a user who has been damaged by theft. However, the present invention is not limited to the stolen car, and the server according to the present invention is, for example, It can be applied to tracking systems (servers) for delivery vehicles, taxis, business trip support vehicles, and delivery service motorcycles.

実施形態1では、ユーザ情報データベース111を盗難車検索システムに登録したユーザのユーザ情報が記憶されるものとして例示したが、後述するとおり、ユーザ情報データベース111は盗難車に関する情報を記憶するものに限るものではない。   In the first embodiment, the user information database 111 is exemplified as the user information stored in the stolen vehicle search system being stored. However, as will be described later, the user information database 111 is limited to storing information about the stolen vehicle. It is not a thing.

(配達車両の追跡システム)
本発明に係るサーバは、ユーザ(客)が配達車両の現在位置を追跡可能とする追跡システムに応用できる。配達車両の追跡システムの場合、ユーザ情報データベース111には、例えば、配達を依頼したユーザや配達先のユーザなどの、配達業者の当該追跡システムを利用可能なユーザ(客)のユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及びユーザへ配達を行う車両の自動車登録番号は予めユーザに通知される。
(Delivery vehicle tracking system)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a delivery vehicle. In the case of a delivery vehicle tracking system, the user information database 111 stores, for example, user information of users (customers) who can use the tracking system of a delivery company, such as a user who requested delivery or a delivery destination user ( Registered). The user is notified in advance of user information such as a login name and a password necessary for the user to use the system and a vehicle registration number of a vehicle to be delivered to the user.

これにより、ユーザは本発明に係るサーバ1にユーザ情報及び配達を行う車両の自動車登録番号を入力することで、当該配達車両がどのあたりを走行しているかを視認可能となる。   Thereby, the user can visually recognize which area the delivery vehicle travels by inputting the user information and the automobile registration number of the vehicle to be delivered to the server 1 according to the present invention.

(タクシーの追跡システム)
本発明に係るサーバは、ユーザ(客)がタクシーの現在位置を追跡可能とする追跡システムに応用できる。タクシーの追跡システムの場合、ユーザ情報データベース111には、例えば、タクシーの送迎を依頼したユーザなどの、タクシー会社の当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及びユーザの送迎を行うタクシーの自動車登録番号は予めユーザに通知される。
(Taxi tracking system)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a taxi. In the case of a taxi tracking system, the user information database 111 stores (registers) user information of users who can use the tracking system of a taxi company, such as a user who has requested taxi pick-up. The user is notified in advance of user information such as a login name and a password necessary for the user to use the system, and a taxi car registration number for picking up the user.

これにより、ユーザは本発明に係るサーバ1にユーザ情報及び送迎を行うタクシーの自動車登録番号を入力することで、当該タクシーがどのあたりを走行しているかを視認可能となる。   Thereby, the user can visually recognize which area the taxi is traveling by inputting the user information and the automobile registration number of the taxi to be picked up and transferred to the server 1 according to the present invention.

(出張サポート業務を行う車両の追跡システム)
本発明に係るサーバは、ユーザ(客)が出張サポート業務を行う車両の現在位置を追跡可能とする追跡システムに応用できる。出張サポート業務を行う車両の追跡システムの場合、ユーザ情報データベース111には、例えば、出張サポートを受けるユーザなどの、当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及び出張サポートを行う車両の自動車登録番号は予めユーザに通知される。
(Vehicle tracking system for business trip support)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a vehicle performing a business trip support service. In the case of a vehicle tracking system that performs a business trip support service, the user information database 111 stores (registers) user information of users who can use the tracking system, such as users who receive business trip support. The user is notified in advance of user information such as a login name and a password necessary for the user to use the system, and an automobile registration number of a vehicle that provides business trip support.

これより、ユーザは本発明に係るサーバ1にユーザ情報及び出張サポートを行う車両の自動車登録番号を入力することで、当該車両がどのあたりを走行しているかを視認可能となる。   Thus, the user can visually recognize which area the vehicle is driving by inputting the user information and the vehicle registration number of the vehicle that supports the business trip to the server 1 according to the present invention.

(出前サービスを行うオートバイの追跡システム)
本発明に係るサーバは、ユーザ(客)が出前サービスを行うオートバイの現在位置を追跡可能とする追跡システムに応用できる。出前サービスを行う車両の追跡システムの場合、ユーザ情報データベース111には、例えば、出前サービスを受けるユーザなどの、当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及び出前サービスを行う車両の自動車登録番号は予めユーザに通知される。
(Motorcycle tracking system for on-site service)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a motorcycle that provides a delivery service. In the case of a vehicle tracking system that performs a delivery service, the user information database 111 stores (registers) user information of a user who can use the tracking system, such as a user who receives a delivery service. The user is notified in advance of user information such as a login name and a password necessary for the user to use the system, and an automobile registration number of the vehicle that performs the delivery service.

これより、ユーザは本発明に係るサーバ1にユーザ情報及び出前サービスを行う車両の自動車登録番号を入力することで、当該車両がどのあたりを走行しているかを視認可能となる。   Thus, the user can visually recognize which area the vehicle is driving by inputting the user information and the vehicle registration number of the vehicle performing the delivery service to the server 1 according to the present invention.

(外回りの営業活動チェックシステム)
本発明に係るサーバは、例えば、保険、銀行の外回り、集金等を行う様々な企業、団体、役所のスタッフが乗車する車両の現在位置を追跡可能とする追跡システムに応用できる。本追跡システムの場合、ユーザ情報データベース111には、例えば、これらのスタッフを管理する管理者などの、当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。
(Outside sales activity check system)
The server according to the present invention can be applied to, for example, a tracking system that can track the current position of a vehicle on which various companies, organizations, and government staff who carry out insurance, bank trips, collection, and the like get on. In the case of this tracking system, the user information database 111 stores (registers) user information of users who can use the tracking system, such as an administrator who manages these staff members.

これより、スタッフを管理する管理者などのユーザは、本発明に係るサーバ1にユーザ情報及びスタッフが乗車する車両の自動車登録番号を入力することで、当該車両がどのあたりを走行しているかをチェックすることが可能となる。   Thus, a user such as an administrator who manages the staff inputs the user information and the vehicle registration number of the vehicle on which the staff gets into the server 1 according to the present invention, so as to which area the vehicle is traveling. It becomes possible to check.

1 サーバ
2、25 CPU
3、26 主記憶装置
4、27 外部記憶装置
5、2A 通信IF
6、2B 通信バス
7 入力装置
8 表示装置
9 渋滞情報送受信装置
20 自動車
21 カメラ
22 GPSアンテナ
23 通信アンテナ
24 車載器
28 時刻装置
29 GPS装置
30 ユーザ装置
80 無線基地局
N1、N2 ネットワーク
101 受信部
102 画像解析部
103 入力部
104 検索部
105 走行範囲推定部
106 結果表示部
107 結果送信部
108 目撃情報データベース
109 地図情報データベース
110 渋滞重み付け情報データベース
111 ユーザ情報データベース
1051 速度算出部
1052 渋滞情報取得部
1053 重み付け値取得部
1054 走行範囲算出部
201 撮影部
202 自車位置検出部
203 時刻計測部
204 撮影情報記憶部
205 通信部
206 撮影情報データベース
1 Server 2, 25 CPU
3, 26 Main storage device 4, 27 External storage device 5, 2A Communication IF
6, 2B Communication bus 7 Input device 8 Display device 9 Traffic jam information transmitting / receiving device 20 Car 21 Camera 22 GPS antenna 23 Communication antenna 24 On-board unit 28 Time unit 29 GPS device 30 User device 80 Wireless base station N1, N2 Network 101 Receiver 102 Image analysis unit 103 Input unit 104 Search unit 105 Travel range estimation unit 106 Result display unit 107 Result transmission unit 108 Sighting information database 109 Map information database 110 Congestion weighting information database 111 User information database 1051 Speed calculation unit 1052 Congestion information acquisition unit 1053 Weighting Value acquisition unit 1054 Traveling range calculation unit 201 Shooting unit 202 Vehicle position detection unit 203 Time measurement unit 204 Shooting information storage unit 205 Communication unit 206 Shooting information database

Claims (4)

移動体から、位置特定機能により取得した前記移動体の位置情報と前記移動体から撮影した他の移動体の前部側及び後部側の少なくとも一方の撮影画像と撮影日時とを対応付けた撮影情報を受信する受信手段と、
少なくとも前記撮影画像に含まれる撮影文字情報と前記撮影情報に含まれる前記位置情報と前記撮影日時とを対応付けた移動体解析情報をデータベースに記憶する記憶手段と、
ユーザによる移動体登録番号を含むユーザ移動体情報の入力を受け付ける入力手段と、
前記ユーザにより入力された前記移動体登録番号と一致する撮影文字情報を含む移動体解析情報を前記データベースから取得する取得手段と、
少なくとも取得された前記移動体解析情報を基に、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点からの前記移動体登録番号で特定される移動体の走行範囲を推定する推定手段と
を備えるサーバ。
Shooting information in which the position information of the moving body acquired from the moving body by the position specifying function is associated with the shooting date and time of at least one of the front side and the rear side of the other moving body shot from the moving body. Receiving means for receiving
Storage means for storing, in a database, moving body analysis information in which at least photographing character information included in the photographed image, the position information included in the photographing information, and the photographing date and time are associated with each other;
Input means for accepting input of user moving body information including a moving body registration number by a user;
Acquisition means for acquiring moving body analysis information including photographed character information matching the moving body registration number input by the user from the database;
Based on at least the acquired mobile body analysis information, from the point indicated by the latest position information among the positional information stored in association with the photographed character information that matches the mobile body registration number included in the user mobile body information A server comprising: estimation means for estimating a travel range of the mobile body specified by the mobile body registration number.
前記取得手段で取得された前記移動体登録番号と一致する撮影文字情報を含む前記移動体解析情報を基に、前記移動体登録番号で特定される移動体の予測速度である地点間速度を算出する速度算出手段をさらに備え、
前記推定手段は、前記算出された前記地点間速度にさらに基づいて、前記走行範囲を推定する請求項1に記載のサーバ。
Based on the moving body analysis information including photographed character information that matches the moving body registration number acquired by the acquiring means, a point-to-point speed that is a predicted speed of the moving body specified by the moving body registration number is calculated. A speed calculating means for
The server according to claim 1, wherein the estimation unit estimates the travel range further based on the calculated inter-point speed.
前記推定手段は、前記撮影画像から検出される移動体の方向指示器点灯状況にさらに基づいて、前記走行範囲を推定する請求項1又は2に記載のサーバ。   The server according to claim 1, wherein the estimation unit estimates the travel range further based on a turn indicator lighting state of a moving object detected from the captured image. 前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点の渋滞情報を取得する渋滞情報取得手段をさらに備え、
前記推定手段は、前記取得した前記渋滞情報にさらに基づいて、前記走行範囲を推定する請求項1から3のいずれか1項に記載のサーバ。
A traffic jam information acquiring means for acquiring traffic jam information at a point indicated by the latest location information among the location information stored in association with the photographed character information that matches the mobile phone registration number included in the user mobile body information;
The server according to any one of claims 1 to 3, wherein the estimation unit estimates the travel range further based on the acquired traffic jam information.
JP2011062895A 2011-03-22 2011-03-22 Moving-body position estimation server Withdrawn JP2012198790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011062895A JP2012198790A (en) 2011-03-22 2011-03-22 Moving-body position estimation server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011062895A JP2012198790A (en) 2011-03-22 2011-03-22 Moving-body position estimation server

Publications (1)

Publication Number Publication Date
JP2012198790A true JP2012198790A (en) 2012-10-18

Family

ID=47180932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011062895A Withdrawn JP2012198790A (en) 2011-03-22 2011-03-22 Moving-body position estimation server

Country Status (1)

Country Link
JP (1) JP2012198790A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190473A1 (en) * 2014-06-12 2015-12-17 本田技研工業株式会社 Photographic image replacement system, imaging device, and photographic image replacement method
JP2016212848A (en) * 2015-04-29 2016-12-15 ゼネラル・エレクトリック・カンパニイ System and method of image analysis for automated asset identification
JP2019046092A (en) * 2017-08-31 2019-03-22 古野電気株式会社 On-vehicle unit, base station device, video information providing system, video information providing method, and computer program
JP2020014158A (en) * 2018-07-19 2020-01-23 Zホールディングス株式会社 Information processing device, information processing method, program, and application program
JP2021051371A (en) * 2019-09-20 2021-04-01 ヤフー株式会社 Estimation device, estimation method and estimation program
CN114237209A (en) * 2020-09-09 2022-03-25 夏普株式会社 Travel time prediction device and travel time prediction method
CN114999222A (en) * 2021-03-02 2022-09-02 丰田自动车株式会社 Abnormal behavior notification device, notification system, notification method, and recording medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190473A1 (en) * 2014-06-12 2015-12-17 本田技研工業株式会社 Photographic image replacement system, imaging device, and photographic image replacement method
JPWO2015190473A1 (en) * 2014-06-12 2017-04-20 本田技研工業株式会社 Captured image exchange system, imaging apparatus, and captured image exchange method
US10306188B2 (en) 2014-06-12 2019-05-28 Honda Motor Co., Ltd. Photographic image exchange system, imaging device, and photographic image exchange method
JP2016212848A (en) * 2015-04-29 2016-12-15 ゼネラル・エレクトリック・カンパニイ System and method of image analysis for automated asset identification
JP2019046092A (en) * 2017-08-31 2019-03-22 古野電気株式会社 On-vehicle unit, base station device, video information providing system, video information providing method, and computer program
JP2020014158A (en) * 2018-07-19 2020-01-23 Zホールディングス株式会社 Information processing device, information processing method, program, and application program
JP2021051371A (en) * 2019-09-20 2021-04-01 ヤフー株式会社 Estimation device, estimation method and estimation program
JP7001648B2 (en) 2019-09-20 2022-01-19 ヤフー株式会社 Estimator, estimation method and estimation program
CN114237209A (en) * 2020-09-09 2022-03-25 夏普株式会社 Travel time prediction device and travel time prediction method
CN114999222A (en) * 2021-03-02 2022-09-02 丰田自动车株式会社 Abnormal behavior notification device, notification system, notification method, and recording medium
CN114999222B (en) * 2021-03-02 2023-11-10 丰田自动车株式会社 Abnormal behavior notification device, notification system, notification method, and recording medium

Similar Documents

Publication Publication Date Title
JP2012198790A (en) Moving-body position estimation server
US7834778B2 (en) Parking space locator
JP6175846B2 (en) Vehicle tracking program, server device, and vehicle tracking method
WO2017080039A1 (en) Vehicle driving safety monitoring method and device and system
CN103105173B (en) Navigation system and air navigation aid
CN102770893B (en) Method and system for generating and supplying traffic-relevant information
US11062599B2 (en) Traffic management system, control method, and vehicle
KR101836990B1 (en) Method for gathering of car accident, apparatus and system for the same
JP7400247B2 (en) Report creation support system, server device, and computer program
JP2014211705A (en) Nearest parking lot estimation system, nearest parking lot estimation method, and nearest parking lot estimation program
JP2019067201A (en) Vehicle search system, vehicle search method, and vehicle and program employed in the same
JP2020144747A (en) Road surface information registration system and road surface information registration device
JP5088420B2 (en) Information providing apparatus and information providing system
JP2017027546A (en) Parking position guide system
JP2018067136A (en) Parking management system and parking management server device
JP4619319B2 (en) Navigation system and route search server
JP2007206785A (en) Vehicle tracking system, and image processing unit, central unit and onboard unit for use in the same, and vehicle tracking method
JP2004252661A (en) Parking lot system
KR20110092945A (en) Navigation apparatus for informing car accident and estimate simulation system according to the car accident and method thereof
JP2004287500A (en) Road information providing system and its method
CN108955717A (en) A kind of electric car intelligent navigation equipment
KR101413409B1 (en) System for managing car accident and Method thereof
JP2011209849A (en) Driving support method and driving support device
JP5471744B2 (en) Charging facility information notification system using automatic toll collection system
CN111462513A (en) Server, server control method, server control program, communication terminal, terminal control method, and terminal control program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603