JP2012198790A - Moving-body position estimation server - Google Patents
Moving-body position estimation server Download PDFInfo
- Publication number
- JP2012198790A JP2012198790A JP2011062895A JP2011062895A JP2012198790A JP 2012198790 A JP2012198790 A JP 2012198790A JP 2011062895 A JP2011062895 A JP 2011062895A JP 2011062895 A JP2011062895 A JP 2011062895A JP 2012198790 A JP2012198790 A JP 2012198790A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- moving body
- vehicle
- registration number
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、移動体で撮影した画像等の移動体で得られた情報に基づき、他の移動体の走行範囲を推定するサーバに関する。 The present invention relates to a server that estimates a traveling range of another moving body based on information obtained by the moving body such as an image taken by the moving body.
近年、自動車やオートバイ等の車両盗難が多発していることが問題となっている。ところで、携帯電話にはカメラが搭載されているものが多い。従って、人が移動中に携帯電話のカメラで走行中の車両を撮影することも可能である。また、自動車自体にカメラが搭載されている場合もある。従って、運転者が自車に搭載されたカメラで、他の車両を撮影することも可能である。そこで、携帯電話や車両に搭載されたカメラで撮影した画像により車両盗難に対処する技術が知られている。 In recent years, vehicle theft such as automobiles and motorcycles has been a problem. By the way, many mobile phones are equipped with a camera. Therefore, it is possible to take a picture of a running vehicle with a mobile phone camera while a person is moving. In some cases, a camera is mounted on the car itself. Accordingly, it is possible for the driver to take a picture of another vehicle with the camera mounted on the own vehicle. Therefore, a technique for dealing with vehicle theft by an image taken by a mobile phone or a camera mounted on the vehicle is known.
しかしながら、車両のような移動体は移動可能であるため、移動体を撮影したとしても、撮影された移動体のその後の位置を特定することは困難である。 However, since a moving body such as a vehicle is movable, even if the moving body is photographed, it is difficult to specify the subsequent position of the photographed moving body.
車両の位置の特定は、車両盗難後の対処、交通管理、防犯、企業等の組織管理、交通運輸業における運行管理等、極めて有用である。そこで、本発明は、移動体が他の移動体を撮影可能な状況下を前提に、撮影された移動体のその後の位置の特定を効果的に支援する技術を提供することを目的とする。 The identification of the position of the vehicle is extremely useful for handling after the vehicle theft, traffic management, crime prevention, organization management of companies, etc., operation management in the transportation industry. Therefore, an object of the present invention is to provide a technique that effectively supports the subsequent position of a photographed moving body on the assumption that the moving body can photograph another moving body.
上記目的を達成するための本発明の第1の態様は、次のようなサーバとして例示できる。このサーバは、移動体から、位置特定機能により取得した前記移動体の位置情報と前記移動体から撮影した他の移動体の前部側及び後部側の少なくとも一方の撮影画像と撮影日時とを対応付けた撮影情報を受信する受信手段と、少なくとも前記撮影画像に含まれる撮影文字情報と前記撮影情報に含まれる前記位置情報と前記撮影日時とを対応付けた移動体解析情報をデータベースに記憶する記憶手段と、ユーザによる移動体登録番号を含むユーザ移動体情報の入力を受け付ける入力手段と、前記ユーザにより入力された前記移動体登録番号と一致する撮影文字情報を含む移動体解析情報を前記データベースから取得する取得手段と、少なくとも取得された前記移動体解析情報を基に、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点からの前記移動体登録番号で特定される移動体の走行範囲を推定する推定手段とを備える。 The first aspect of the present invention for achieving the above object can be exemplified as the following server. This server correlates the position information of the moving body acquired from the moving body by the position specifying function, the captured image of at least one of the front side and the rear side of the other moving body captured from the moving body, and the shooting date and time. Receiving means for receiving attached shooting information, and storage for storing in a database moving body analysis information in which at least shooting character information included in the shot image, the position information included in the shooting information, and the shooting date and time are associated with each other Means, input means for receiving user moving body information including a moving body registration number by a user, and moving body analysis information including photographed character information that matches the moving body registration number input by the user from the database. Based on the acquisition means to acquire and at least the acquired mobile body analysis information, it matches the mobile body registration number included in the user mobile body information. And a estimation unit that estimates a running range of the moving object identified by the mobile registration number from the point indicated by the latest position information of the position information stored in association with the captured text information.
かかる第1の態様では、移動体から受信した、移動体から撮影した他の移動体の前部側及び後部側の少なくとも一方を撮影した撮影画像、撮影日時、移動体の位置情報に基づき、ユーザにより入力された移動体登録番号に対応するユーザの移動体の走行範囲を推定する。これにより、サーバは、複数の移動体から受信した情報に基づき、ユーザが検索した移動体が最後に撮影された地点(本願の発明の「直近の位置情報の示す地点」の一例であ
る)からの走行範囲を推定することが可能となる。また、複数の移動体から受信した情報に基づき、ユーザが検索した移動体についての撮影(目撃)情報、走行範囲を得ることが可能であるため、自己発信装置を備えていない、又は自己発信装置が遮断された移動体についても、走行範囲などの情報を得ることが可能となる。
In such a first aspect, the user is based on a captured image obtained by capturing at least one of the front side and the rear side of another moving body received from the moving body, the shooting date and time, and the position information of the moving body. The traveling range of the moving body of the user corresponding to the moving body registration number input by is estimated. Thereby, the server is based on the information received from a plurality of moving objects, from the point where the moving object searched by the user was last taken (an example of “the point indicated by the latest position information” of the present invention). It is possible to estimate the traveling range. In addition, since it is possible to obtain shooting (sighting) information and traveling range of the moving body searched by the user based on information received from a plurality of moving bodies, the self-transmitting apparatus is not provided. It is possible to obtain information such as the travel range even for a mobile object in which is blocked.
本発明の第2の態様は、第1の態様に記載するサーバにおいて、前記取得手段で取得された前記移動体登録番号と一致する撮影文字情報を含む前記移動体解析情報を基に、前記移動体登録番号で特定される移動体の予測速度である地点間速度を算出する速度算出手段をさらに備え、前記推定手段は、前記算出された前記地点間速度にさらに基づいて、前記走行範囲を推定することを特徴とする。 According to a second aspect of the present invention, in the server described in the first aspect, the movement is performed based on the moving body analysis information including photographed character information that matches the moving body registration number acquired by the acquiring unit. A speed calculation unit that calculates a point-to-point speed that is a predicted speed of the moving body specified by the body registration number, and the estimation unit estimates the travel range further based on the calculated point-to-point speed It is characterized by doing.
かかる第2の態様では、ユーザにより入力された移動体登録番号と一致する撮影文字情報を含む移動体解析情報を基に、ユーザの移動体の予測速度である地点間速度を算出し、算出された地点間速度に基づくことで走行範囲を推定する。これにより、ユーザが検索した移動体の予測される速度に基づき、当該移動体の走行範囲を推定することが可能となるため、走行範囲を高精度に推定することが可能となる。 In the second aspect, the point-to-point speed, which is the predicted speed of the user's moving body, is calculated based on the moving body analysis information including the photographed character information that matches the moving body registration number input by the user. The travel range is estimated based on the speed between points. Thereby, since it is possible to estimate the travel range of the mobile body based on the predicted speed of the mobile body searched by the user, the travel range can be estimated with high accuracy.
本発明の第3の態様は、第1又は第2の態様に記載するサーバにおいて、前記推定手段は、前記撮影画像から検出される移動体の方向指示器点灯状況にさらに基づいて、前記走行範囲を推定することを特徴とする。 According to a third aspect of the present invention, in the server described in the first or second aspect, the estimation unit further includes the travel range based on a turn indicator lighting state of the moving object detected from the captured image. Is estimated.
かかる第3の態様では、撮影画像から検出される移動体の方向指示器点灯状況に基づくことで走行範囲を推定する。これにより、ユーザが検索した移動体の方向指示器の点灯状況、すなわち、当該移動体がこの先進行すると考えられる方向に基づき、当該移動体の走行範囲を推定することが可能となるため、走行範囲を高精度に推定することが可能となる。 In the third aspect, the traveling range is estimated based on the lighting state of the direction indicator of the moving object detected from the captured image. This makes it possible to estimate the travel range of the mobile body based on the lighting status of the direction indicator of the mobile body searched by the user, that is, the direction in which the mobile body is considered to travel ahead. Can be estimated with high accuracy.
本発明の第4の態様は、第1から第3のいずれか一つの態様に記載するサーバにおいて、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点の渋滞情報を取得する渋滞情報取得手段をさらに備え、前記推定手段は、前記取得した前記渋滞情報にさらに基づいて、前記走行範囲を推定することを特徴とする。 According to a fourth aspect of the present invention, in the server described in any one of the first to third aspects, the photographed character information that matches the mobile body registration number included in the user mobile body information is stored in association with the user mobile body information. The traffic information further includes traffic information acquisition means for acquiring traffic information at a point indicated by the latest positional information, and the estimation means estimates the travel range further based on the acquired traffic information. Features.
かかる第4の態様では、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点の渋滞情報に基づくことで走行範囲を推定する。これにより、ユーザが検索した移動体が最後に撮影された地点の渋滞情報を加味した当該移動体の走行範囲を推定することが可能となるため、走行範囲を高精度に推定することが可能となる。 In the fourth aspect, based on the traffic congestion information at the point indicated by the latest position information among the position information stored in association with the photographed character information that matches the moving body registration number included in the user moving body information. Estimate the travel range. As a result, it is possible to estimate the travel range of the mobile object taking into account the traffic jam information of the point where the mobile object searched by the user was last photographed, so the travel range can be estimated with high accuracy. Become.
本発明によれば、移動体が他の移動体を撮影可能な状況下を前提に、撮影された移動体のその後の位置の特定を効果的に支援する技術を提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the technique which assists specification of the subsequent position of the image | photographed moving body effectively on the assumption that the moving body can image | photograph another moving body.
以下、本発明を実施するための最良の形態について説明する。なお、以下の各実施形態の構成は例示であり、本発明は以下の構成に限定されない。 Hereinafter, the best mode for carrying out the present invention will be described. In addition, the structure of each following embodiment is an illustration, and this invention is not limited to the following structures.
<実施形態1>
[概略構成]
図1は、本発明の実施形態1に係るサーバを含む盗難車の検索を行う盗難車検索システムの概略構成図である。図示するように、このシステムにおいて、本実施形態1のサーバ1は、複数の自動車20と無線基地局80及びネットワークN1を介してデータの送受信が可能となるよう接続される。
<
[Outline configuration]
FIG. 1 is a schematic configuration diagram of a stolen vehicle search system that searches for stolen vehicles including a server according to Embodiment 1 of the present invention. As shown in the figure, in this system, the
自動車20は、本発明に係る「移動体」の一例である。この発明において、「移動体」とは自動車、原動機付自転車、軽車両、鉄道車両などの車両を含む概念である。自動車20は、撮影装置で撮影した撮影画像を含む撮影情報を、無線基地局80及びネットワークN1を介してサーバ1に送信する。
The
サーバ1は、本発明に係るサーバである。サーバ1は、自動車20から送信された撮影画像を含む撮影情報を受信する。また、サーバ1は、目撃情報データベース108を備えている。目撃情報データベース108は、詳細は後述するが、複数の自動車20からサーバ1に送信された撮影情報などを記憶するものである。サーバ1は、自動車20から受信した撮影情報を目撃情報データベース108に記憶する。
The
自動車20と無線基地局80との間では、例えば、携帯電話網、PHS(Personal Handy-phone System)網、無線LAN(Local Area Network)、WiMAX(Worldwide Int
eroperability for Microwave Access)、DSRC(Dedicated Short Range Communication)等を利用した無線通信が行なわれる。無線基地局80とサーバ1を接続するネット
ワークN1は、例えば、デジタル通信ネットワーク(ISDN)、光ファイバ等の有線ネットワークである。但し、ネットワークN1内の経路上に無線通信経路があってもよい。
Between the
Wireless communication using eroperability for microwave access (DSRC), dedicated short range communication (DSRC), or the like is performed. The network N1 connecting the
図2は、本実施形態1に係るサーバ1と無線基地局80及びネットワークN1を介して接続される自動車20のハードウェアの構成例を示すハードウェア構成図である。図3は、本発明の実施形態1に係るサーバ1のハードウェア構成例を示すハードウェア構成図である。図3の説明に先立ち、図2により自動車20のハードウェア構成を説明する。
FIG. 2 is a hardware configuration diagram illustrating a hardware configuration example of the
[自動車]
図2は、本実施形態1に係る自動車20に搭載された盗難車検索システムに係るハードウェアの構成例を示すハードウェア構成図である。図示するように、自動車20は、カメラ21、GPS(Global Positioning System:全地球測位システム)アンテナ22、通
信アンテナ23、車載器24を備えている。
[Car]
FIG. 2 is a hardware configuration diagram illustrating a configuration example of hardware related to the stolen vehicle search system mounted on the
カメラ21は、本発明に係る「撮影装置」の一例である。この発明において、「撮影装置」とは、車線認識制御用のカメラ、衝突予防安全制御用のカメラ、ドライブレコーダーとして用いられるカメラに加えて、携帯電話に搭載されているカメラなどを含む概念である。そのため、「撮影装置」は、自動車の乗客が所持する携帯電話に搭載されているカメラ及び自動車に取り付けられた携帯電話に搭載されているカメラであってもよい。
The
カメラ21は、自動車20に取り付けられ、自動車20の前方、後方を撮影する。カメラ21は自動車20の前方又は後方のどちらか一方を撮影するものであってもよいし、自動車の前方及び自動車の後方の両方向を撮影するものであってもよい。また、カメラ21は、自動車の前方撮影用と後方撮影用の各々1台ずつ設置されてもよい。なお、カメラ21は、前方車両、後方車両(以下、「周辺車両」と言う)のナンバープレート(正式には、自動車登録番号標、又は車両番号標)や方向指示器(ウィンカー)を撮影可能に形成される。
The
カメラ21は、例えば、所定周期で(例えば、数秒おきに)周辺車両の画像を撮影するようにしてもよいし、自動車20の乗客による撮影指示などのイベント発生時に撮影するようにしてもよい。
For example, the
GPSアンテナ22は、地球上空の複数のGPS衛星からの電波を受信するアンテナである。通信アンテナ23は、サーバ1との情報の送受信を行うために、サーバ1へ電波を送信し、またサーバ1から電波を受信する。
The GPS antenna 22 is an antenna that receives radio waves from a plurality of GPS satellites over the earth. The
車載器24は、自動車20の現在位置を示す位置情報、カメラ21により撮影された撮影画像及び撮影を行った日時である撮影日時を取得する装置である。この自動車20の車載器24のハードウェア構成は次のとおりである。
The vehicle-mounted
車載器24は、CPU(Central Processing Unit)25、主記憶装置26、外部記憶
装置27、時刻装置28、GPS装置29、通信IF(Interface)2A、通信バス2B
を備えている。
The vehicle-mounted
It has.
CPU25は、自動車20全体の制御を行い、具体的には、主記憶装置26に実行可能に展開されたプログラムを実行し、自動車20の機能を提供する。CPU25は、通信バス2Bを介して、自動車20の各装置と接続される。
The
主記憶装置26は、処理対象のデータ、例えば、カメラ21が撮影した撮影画像、GPS装置29により取得した位置情報、時刻装置28で取得した撮影日時などのデータ、あるいは、CPU25が実行するプログラムを保持する。主記憶装置26としては、ROM(Read Only Memory)及びRAM(Random Access Memory)が例示される。
The
外部記憶装置27は、主記憶装置26に格納されるデータやプログラム等を保存する。例えば、外部記憶装置27は、カメラ21が撮影した撮影画像、GPS装置29により取得した位置情報、時刻装置28で取得した撮影日時などのデータを含むようにしてもよい。外部記憶装置27としては、HDD(Hard disk drive)、フロッピーディスク(登録
商標)(floppy disk、以下、FDという)、MO(Magneto-Optical disk)、CD(Compact Disc)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)フ
ラッシュメモリが例示される。FD、MO、CD、DVD、USBフラッシュメモリ等は着脱可能記憶媒体ともいう。
The
時刻装置28は、現在時刻を計測する装置である。時刻装置28では、撮影装置が撮影を行った時刻を計測し取得する。この発明において、「撮影日時」とは、撮影装置が撮影を行った際の日時をいい、撮影を行った年月日及び時刻(時間、分、秒)の組み合わせによる情報が例示される。
The
GPS装置29は、GPSアンテナ22で受信した電波により、自動車20の現在位置を示す位置情報を取得する装置である。この発明において、「位置情報」とは、移動体の位置に関する情報をいい、緯度と経度を含む概念である。
The
通信IF2Aは、サーバ1と情報の送受信を行うインタフェースである。通信IF2Aは、カメラ21により撮影された撮影画像などのサーバに送信するデータを通信アンテナ23に送信する。なお、CPU25が実行するプログラムは、例えば、通信IF2Aを通じた自動車20外のコンピュータとの通信によりインストールできる。インストールとは、例えば、実行可能なプログラムを外部記憶装置27に展開すること、又は、主記憶装置26に展開することをいう。但し、着脱可能な記憶媒体を通じてプログラムをインストールしてもよい。
The communication IF 2A is an interface for transmitting / receiving information to / from the
[サーバ]
図3は、本発明の実施形態1に係るサーバ1のハードウェア構成例を示すハードウェア構成図である。図示するように、サーバ1は、CPU2、主記憶装置3、外部記憶装置4、通信IF5、通信バス6、入力装置7、表示装置8、渋滞情報送受信装置9を備えている。
[server]
FIG. 3 is a hardware configuration diagram illustrating a hardware configuration example of the
CPU2は、サーバ1全体の制御を行い、具体的には、主記憶装置3に実行可能に展開されたプログラムを実行し、サーバ1の機能を提供する。CPU2は、通信バス6を介して、サーバ1の各装置と接続される。
The
主記憶装置3は、処理対象のデータ、例えば、詳細は後述するが、自動車20から受信した撮影画像などを含む撮影情報、渋滞情報などのデータ、あるいは、CPU2が実行するプログラムを保持する。主記憶装置3としては、ROM及びRAMが例示される。
The
外部記憶装置4は、主記憶装置3に格納されるデータやプログラム等を保存する。例えば、外部記憶装置4は、自動車20から受信した撮影画像などを含む撮影情報、渋滞情報などのデータを含むようにしてもよい。外部記憶装置4としては、HDD、フロッピーディスク、MO、CD、DVD、USBフラッシュメモリが例示される。
The
通信IF5は、自動車20及びユーザ装置30とネットワークN1、N2を介して情報の送受信を行うインタフェースである。例えば、通信IF5は、詳細は後述するが、ユーザがユーザ装置30にて検索した自動車の予測される走行範囲などの情報を、ネットワークN2を介してユーザ装置30に送信する。また、例えば、通信IF5は、ユーザ装置30からのユーザ情報、検索した自動車の自動車登録番号などの情報を、ネットワークN2を介して受信する。
The communication IF 5 is an interface that transmits / receives information to / from the
入力装置7は、キーボード、マウス、タッチパネルなどから構成され、入力を受け付ける装置である。マウス、タッチパネルはポインティングデバイスとも呼ばれる。例えば、サーバ1のオペレータなどのユーザにより、ユーザの検索したい自動車の自動車登録番号の入力を受け付ける。
The
表示装置8は、例えば、液晶表示パネル(LCD:Liquid Crystal Display)やCRT(Cathode Ray Tube)などから構成されるディスプレイであって、各種画面を表示する。表示装置8は、例えば、詳細は後述するが、ユーザがユーザ装置30にて検索した自動車の予測される走行範囲などの情報を表示する。
The
渋滞情報送受信装置9は、VICS(Vehicle Information and Communication System:道路交通情報通信システム)センタ(図示せず)との間で無線通信により渋滞情報のデータの送受信を行う装置である。この発明において、「渋滞情報」とは、VICSが提供する、高速道路や主要幹線道路の混雑、渋滞、所要時間、規制情報等の情報をいい、「渋滞あり」、「混雑あり」、「順調」などの道路状況を示す情報を含む概念である。なお、「VICS」とは、渋滞や交通規制などの道路交通情報をリアルタイムに送信し、カーナビゲーションなどの車載器に文字・図形で表示する情報通信システムである。
The traffic jam information transmitting / receiving
図4は、本実施形態1に係るサーバ1と無線基地局80及びネットワークN1を介して接続される自動車20の機能構成を示す機能ブロック図である。図5は、本発明の実施形態1に係るサーバ1の機能構成を示す機能ブロック図である。図5の説明に先立ち、図4により自動車20の機能を説明する。
FIG. 4 is a functional block diagram illustrating a functional configuration of the
[自動車]
図4は、本実施形態1に係る自動車20の機能構成を示す機能ブロック図である。図示するように、自動車20は、撮影部201、自車位置検出部202(本願の発明の「位置特定機能」の一例である)、時刻計測部203、撮影情報記憶部204、通信部205、撮影情報データベース206を備えている。なお、図4に示す自動車20の機能は、主として車載器24において提供される。また、これらの各種処理部201〜205は、CPU25が主記憶装置26などに保持されたプログラムを呼び出して実行することにより実現される。
[Car]
FIG. 4 is a functional block diagram showing a functional configuration of the
図7は、撮影情報データベース206の例を示した図である。図示するように、撮影情報データベース206の各列には、番号、自動車20がカメラ21により撮影した撮影日時、撮影時の自動車20の位置情報、撮影画像の項目が含まれている。また、図7の各行は、各撮影情報1レコードを表している。撮影を行う度に撮影情報データベース206のレコードが一つ登録される。
FIG. 7 is a diagram showing an example of the shooting
図7の番号は、撮影情報データベース206の各行のレコードを識別する情報、例えば、行番号、又は撮影情報データベース206が含まれるファイルのレコード番号、主記憶装置26のアドレス番号等である。
The numbers in FIG. 7 are information for identifying records in each row of the photographing
図7では、撮影日時を、年月日と時分秒により表しているが、本発明はこれに限るもの
ではなく、例えば、ミリ秒を含んでもよいし、年が含まれていなくてもよい。また、図7では、位置情報として、緯度、経度を、度分秒を用いて表すDMS(Degrees Minutes Seconds:度分秒)表記としているが、10進数の度のみを用いて表すDEG(degree)表
記であってもよい。
In FIG. 7, the shooting date and time is represented by the date and time and the hour, minute, and second. However, the present invention is not limited to this, and may include, for example, milliseconds or may not include the year. . In FIG. 7, as position information, latitude and longitude are expressed in DMS (Degrees Minutes Seconds) using degrees, minutes and seconds, but DEG (degree) is expressed using only decimal degrees. Notation may be used.
図4に示した撮影部201は、カメラ21により撮影された、自動車20の前方、後方の撮影画像を取得する。撮影部201により取得された撮影画像には、自動車20の周辺車両のナンバープレートや方向指示器などが含まれる。
The
自車位置検出部202は、GPSアンテナ22及びGPS装置29により受信した、GPS衛星からの送信電波に基づいて自動車20の現在位置の位置情報を検出し、取得する。
The own vehicle
時刻計測部203は、カメラ21により撮影を行なった際の日時である撮影日時を計測し、取得する。
The
撮影情報記憶部204は、撮影部201により取得された撮影画像、自車位置検出部202により取得された位置情報、及び時刻計測部203により取得された撮影日時を対応付けて撮影情報データベース206に記憶する。対応付けられた記憶された撮影画像、位置情報及び撮影日時を、「撮影情報」と総称する。
The shooting
通信部205は、撮影情報記憶部204により記憶された撮影情報をサーバ1へ送信する。
The
[サーバ]
図5は、本発明の実施形態1に係るサーバ1の機能構成を示す機能ブロック図である。図示するように、サーバ1は、受信部101(本願の発明の「受信手段」および「記憶手段」の一例である)、画像解析部102(本願の発明の「記憶手段」の一例である)、入力部103(本願の発明の「入力手段」の一例である)、検索部104(本願の発明の「取得手段」の一例である)、走行範囲推定部105(本願の発明の「推定手段」の一例である)、結果表示部106、結果送信部107、目撃情報データベース108、地図情報データベース109、渋滞重み付け情報データベース110、ユーザ情報データベース111を備えている。
[server]
FIG. 5 is a functional block diagram showing a functional configuration of the
図9は、目撃情報データベース108の例を示した図である。図示するように、目撃情報データベース108の各列には、番号、撮影日時、位置情報、撮影画像に加え後述する自動車登録番号の項目が含まれる。また、目撃情報データベース108の各行は、各撮影情報に対応する情報(本願の発明の「移動体解析情報」の一例である)の1レコードを表している。目撃情報データベース108には、複数の自動車20についての撮影情報に対応する情報(移動体解析情報)が記憶される。
FIG. 9 is a diagram illustrating an example of the
図9の番号は、目撃情報データベース108の各行のレコードを識別する情報、例えば、行番号、又は目撃情報データベース108が含まれるファイルのレコード番号、主記憶装置3のアドレス等である。図9では、撮影日時を、年月日と時分秒により表しているが、本発明はこれに限るものではなく、例えば、ミリ秒を含んでもよいし、年が含まれていなくてもよい。また、図9では、位置情報を、緯度、経度を、度分秒を用いて表すDMS(Degrees Minutes Seconds:度分秒)表記により表しているが、緯度、経度を10進数
の度のみを用いて表すDEG(degree)表記であってもよい。また、図9では、自動車登録番号を、「多摩500 さ XX−XX」と表しているが、本発明はこれに限るものではなく、例えば、「松本 あ XX−XX」のような番号でもよい。
The numbers in FIG. 9 are information for identifying records in each row of the
なお、目撃情報データベース108の列には、どの自動車により撮影された画像(撮影情報)であるかを識別可能とするために、撮影を行った自動車20を一意に特定する自動車識別情報の項目が含まれていてもよい。自動車識別情報としては、当該自動車の自動車識別番号や当該自動車の所有者の情報などが例示される。
In the column of the
また、目撃情報データベース108は、複数の自動車20から受信した撮影情報に対応する移動体解析情報を集約して一元管理してもよいし、自動車20毎の移動解析情報を異なるテーブルに保持していてもよい。
Further, the
さらに、目撃情報データベース108の列には、上記情報に加えて、後述する方向指示器点灯状況、地点間速度、渋滞情報、渋滞重み付け値、走行範囲などの項目が含まれていてもよい。また、渋滞情報自体は、他のDBに格納してもよい。その場合には、目撃情報データベース108には、渋滞情報へのリンク情報、例えばファイルパス名、インターネット上のURL等を保持するようにすればよい。
Furthermore, in addition to the above information, the column of the
地図情報データベース109には、地図情報が記憶される。地図情報としては、主要な施設名、道路データ(各道路のルートや距離等)、地名データなどが例示される。
The
図12は、渋滞重み付け情報データベース110の例を示した図である。図示するように、図12の各行には、渋滞度と渋滞重み付け値の項目が含まれる。図12の場合、渋滞度としては、「渋滞あり」、「混雑あり」、「順調」が用いられており、それぞれの渋滞度に対応して、渋滞重み付け値である「5.0」、「2.0」、「1.0」が設定されている。図12の例で示した渋滞重み付け値は、道路が「順調」である場合にユーザ車両がその道路を通過するのに要する時間に対する重み付けを行うものである。例えば、特定の道路について得られた渋滞情報が「渋滞あり」の場合、渋滞重み付けデータベース110により取得される渋滞重み付け値は「5.0」であるため、当該道路を通過するには、当該道路が「順調」である時の5倍の時間を要することとなる。
FIG. 12 is a diagram illustrating an example of the traffic jam
なお、本発明では、渋滞重み付け値は、道路を通過するために要する時間に対する重み付け値に限るものではなく、速度や距離に対する重み付け値であってもよい。また、渋滞重み付け値の数値は、図12に示した値に制限するものではなく、経験則などにより決められるものであってよい。 In the present invention, the traffic jam weighting value is not limited to the weighting value for the time required to pass the road, but may be a weighting value for speed or distance. Moreover, the numerical value of the traffic jam weighting value is not limited to the value shown in FIG. 12, but may be determined by an empirical rule or the like.
ユーザ情報データベース111には、サーバ1へのアクセスが許可されたユーザの、ユーザを一意に特定するユーザ情報が記憶(登録)される。ユーザ情報としては、ユーザの電話番号や、ユーザID(Identification)、パスワードが例示される。本実施形態1では、ユーザ情報データベース111に、盗難車検索システムに登録したユーザのユーザ情報が記憶されている。
The
なお、目撃情報データベース108、地図情報データベース109、渋滞重み付け情報データベース110、ユーザ情報データベース111は、サーバ1自体が備えている必要はなく、別の情報処理装置に備わっていてもよい。この場合、サーバ1が、ネットワーク越しにその情報処理装置のこれらのデータベースを利用できるようにすればよい。
The
受信部101は、自動車20から撮影情報を受信する。受信部101は、受信した撮影情報を目撃情報データベース108に記憶する。
The receiving
画像解析部102は、受信部101により受信した撮影情報に含まれる撮影画像の画像処理を行い、撮影画像から、撮影画像に含まれる周辺車両の自動車登録番号を検出する。
自動車登録番号は、本発明に係る「移動体登録番号」及び「撮影文字情報」の一例である。この発明において、「移動体登録番号」は、車両番号(軽自動車及び二輪車に付された番号)及び自動車登録番号(それ以外の車両に付された番号)を含む概念である。また、この発明において、「撮影文字情報」とは、撮影画像に含まれる文字情報をいい、移動体登録番号を含む概念である。
The
The automobile registration number is an example of the “mobile object registration number” and “photographed character information” according to the present invention. In the present invention, the “mobile object registration number” is a concept including a vehicle number (a number assigned to a light vehicle and a two-wheeled vehicle) and an automobile registration number (a number assigned to other vehicles). In the present invention, “photographed character information” refers to character information included in a photographed image, and is a concept including a mobile object registration number.
画像解析部102による周辺車両の自動車登録番号の検出は、例えば、特開平8−30892号公報や特開2010−86201号公報に記載された方法により行うことができる。画像解析部102は、検出した周辺車両の自動車登録番号を目撃情報データベース108に、撮影情報と対応付けて記憶する。
Detection of automobile registration numbers of surrounding vehicles by the
また、画像解析部102は、自動車登録番号の検出と併せて、撮影画像に含まれる周辺車両の方向指示器点灯状況の検出を行ってもよい。この発明において、「方向指示器点灯状況」とは、方向指示器(ウィンカ)のランプの点灯状況をいい、方向指示器の左右のランプの点灯有無を含む概念である。「方向指示器点灯状況」としては、点灯している方向として「右」、「左」などが例示される。
In addition, the
画像解析部102による周辺車両の方向指示器点灯状況の検出は、例えば、画像処理により、撮影画像から方向指示器のランプが点灯している画像が抽出されないか否かを確認することで行われる。この確認は例えばランプの光強度が画像の中で基準値より強いことを手がかりの一つとして行われる。例えば、同一の自動車登録番号が検出された複数の画像において車両の側部近傍で、相対的に明るさが所定値以上変動している場合に、その明るさが変動している箇所をランプの位置としてもよい。なお、方向指示器点灯状況について検出を行った場合は、方向指示器点灯状況を目撃情報データベース108に、撮影情報と対応付けて記憶してもよい。また、例えば、相手車両の前部、後部を区別する情報とともに方向指示器点灯状況(なし、左、右)等を検出するようにしてもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
The detection of the turn indicator lighting status of the surrounding vehicle by the
入力部103は、ユーザが検索したい自動車(以下、「ユーザ車両」という)の自動車登録番号やユーザ情報を含む情報などの入力を受け付ける。自動車登録番号とユーザ情報を含む情報を、「ユーザ移動体情報」と総称する。本実施形態1では、例えば、盗難による被害を受けた自動車の保有者であるユーザにより、被害を受けたユーザ車両の自動車登録番号の入力を受け付ける。また、例えば、サーバ1のオペレータ(ユーザ)が特定の盗難車の検索を行う場合に、オペレータ(ユーザ)により、盗難車の自動車登録番号の入力を受け付ける。
The
入力部103は、この際、ユーザからユーザ情報の入力を受け付ける。入力部103は、受け付けたユーザ情報とユーザ情報データベース111に記憶(登録)されたユーザ情報とを照合することにより、入力部103に入力を行ったユーザが、サーバ1へのアクセスを許可されたユーザであるか否かを確認する。
At this time, the
検索部104は、入力部103に入力された自動車登録番号と一致する自動車登録番号が目撃情報データベース108に登録されているか否かを検索する。検索部104は、検索した結果である、入力部103に入力された自動車登録番号と一致する自動車登録番号を含むレコード(目撃情報データベース108の各行に相当。以下「一致レコード」という)を取得する。検索部104が検索をした結果、一致した自動車登録番号があるときは、ユーザ車両が、他の自動車により目撃(撮影)されたということになる。なお、取得した一致レコードは、サーバ1が他にデータベース(図示せず)を備えることで、当該データベースに記憶するようにしてもよい。
The
走行範囲推定部105は、検索部104で検索した結果、一致レコードが複数登録されていた場合に、詳細は後述するが、これら複数の一致レコードに基づき、ユーザの検索時点におけるユーザ車両の走行可能範囲(走行範囲)を推定する。走行範囲推定部105は、推定された走行範囲、地点間速度、渋滞情報、渋滞重み付け値などを目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
When a plurality of matching records are registered as a result of searching by the searching
結果表示部106は、検索部104の検索結果及び走行範囲推定部105の推定結果である走行範囲などの情報を表示させる。これにより、サーバ1のオペレータなどのユーザ車両(盗難車)が、検索時点でどの付近を走行しているか、また、検索時点より以前にユーザ車がどのような地点を走行していたか等を視認させることができる。
The
結果送信部107は、結果表示部106で表示された各種データと同様のデータを、ユーザ装置30へ送信する。これにより、ユーザ装置30により自動車登録番号を入力したユーザは、ユーザ車両(盗難車)が検索時点でどの付近を走行しているか、また、検索時点より以前にユーザ車両がどのような地点を走行していたか等を視認することができる。
The
さらに、走行範囲推定部105は、速度算出部1051(本願の発明の「速度算出手段」に該当)、渋滞情報取得部1052(本願の発明の「渋滞情報取得手段」に該当)、重み付け値取得部1053、走行範囲算出部1054を備えている。
Further, the travel
速度算出部1051は、検索部104で検索した結果、一致レコードが複数ある場合に、これら複数の一致レコードに基づき、ユーザ車が撮影された(目撃された)各地点間の地点間速度を算出する。この発明において、「地点間速度」とは、移動体が複数の地点で撮影された場合に、各地点間を当該移動体が走行する際の速度として予測される予測速度をいう。速度算出部1051は、算出した地点間速度を、目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
When there are a plurality of matching records as a result of the search by the
渋滞情報取得部1052は、渋滞情報送受信装置9により渋滞情報を取得する。なお、渋滞情報取得部1052は、渋滞情報を文字情報として取得できるほか、地図情報データベース109に記憶された地図情報(地図)を呼び出し、渋滞情報を地図上に重ね合わせた情報として取得することが可能である。渋滞情報取得部1052は、取得した渋滞情報を、目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
The traffic jam
重み付け値取得部1053は、渋滞情報取得部1052により取得された渋滞情報に基づき、渋滞重み付け情報データベース110に記憶された重み付け値を取得する。例えば、渋滞情報取得部1052により取得された渋滞情報と渋滞重み付け情報データベース110に記憶された渋滞度とを照合することで、渋滞及び混雑していないと仮定した場合に走行可能な走行範囲に対する重み付け値を取得する。重み付け値取得部1053は、取得した重み付け値を、目撃情報データベース108に記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
The weighting
走行範囲算出部1054は、速度算出部1051で算出された地点間速度のうち直近の地点間速度や渋滞情報取得部1052により取得された渋滞情報に基づき、ユーザ車両の最終撮影地点(目撃地点)からの走行範囲を算出する。この発明において、「走行範囲」とは、移動体の現在(検索時に)走行中と予測される位置を示す範囲をいう。走行範囲算出部1054は、算出された走行範囲を、目撃情報データベース108に記憶してもよい
。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
The travel
(動作フローの説明:自動車)
図6は、実施形態1に係る自動車20の車載器24の処理フローである。図6を用いて、自動車20の処理フローについて説明する。
(Explanation of operation flow: Automobile)
FIG. 6 is a processing flow of the vehicle-mounted
撮影部201は、カメラ21を介して撮影画像を取得する(ステップ1、以下S1のように表記する)。また、時刻計測部203は、カメラ21が撮影を行った際の撮影日時を、時刻装置28を介して取得する(S2)。さらに、自車位置検出部202は、カメラ21が撮影を行った際の自動車20の位置を示す位置情報を、GPSアンテナ22及びGPS装置29を介して取得する(S3)。なお、ステップ2〜3は順不同であり、自車位置検出部202により位置情報を検出した後に、時刻計測部203により撮影日時を取得してもよい。
The photographing
撮影情報記憶部204は、ステップ1〜3で取得した撮影画像、撮影日時、位置情報をそれぞれ対応付けて、撮影情報として撮影情報データベース206に記憶する(S4)。
The shooting
通信部205は、撮影情報データベース206に記憶された撮影情報をサーバ1へ送信する(S5)。更に、通信部205は、正常に撮影情報をサーバ1に送信できたか否かを判断し(S6)、正常に送信できていない場合は(S6;No)、再度撮影情報の送信を試みる。正常に送信できた場合は(S6;Yes)、車載器24のCPU25は、カメラ21による撮影を終了するか否かを判断する(S7)。例えば、カメラ21の電源OFFや、自動車20のエンジン停止などにより撮影を終了する場合は(S7;Yes)、自動車20の本処理フローを終了する。引き続き撮影を行う場合は(S7;No)、再度ステップ1の処理に戻る。
The
(動作フローの説明:サーバ)
図8は、実施形態1に係るサーバ1の処理フローである。図8を用いて、サーバ1の処理フローについて説明する。サーバ1のCPU2は、主記憶装置3のコンピュータプログラムにより、図8の処理を実行する。
(Explanation of operation flow: Server)
FIG. 8 is a processing flow of the
受信部101は、通信IF5を介して、自動車20から撮影情報を受信したか否かを判断する(S11)。受信部101で撮影情報を受信していない場合(S11;No)、再度ステップ11の処理に戻る。受信部101で撮影情報を受信した場合(S11;Yes)、この受信した撮影情報を目撃情報データベース108に記憶する(S12)。
The receiving
画像解析部102は、受信した撮影情報に含まれる撮影画像の画像解析を行うことにより、撮影画像から周辺車両の自動車登録番号の認識(検出)を行う(S13)。この処理により、撮影画像に含まれる周辺車両のナンバープレートに記載された自動車登録番号が文字情報として認識される。
The
なお、ステップ13では、自動車登録番号を認識すると共に、画像解析部102は、撮影画像を画像解析することで、撮影画像に含まれる周辺車両の方向指示器点灯状況を認識するようにしてもよい。
In step 13, the vehicle registration number is recognized, and the
画像解析部102は、画像解析が正常に行われたか否かを判断する(S14)。正常に画像解析が行われなかった場合(S14;No)、画像解析部102は、再度撮影画像の解析を試みる。正常に画像解析が行われた場合(S14;Yes)、画像解析部102は、画像解析結果である自動車登録番号や方向指示器点灯状況を、目撃情報データベース1
08に、画像解析を行った撮影画像に対応する撮影情報と対応付けて記憶する(S15)。上述のとおり、目撃情報データベース108に記憶された情報を、移動体解析情報と総称する。
The
In 08, the information is stored in association with the photographing information corresponding to the photographed image subjected to the image analysis (S15). As described above, information stored in the
ステップ15で画像解析結果が目撃情報データベース108に記憶されると、サーバ1は、サーバ1の本処理フローを終了する。
When the image analysis result is stored in the
(動作フローの説明:検索時のサーバの処理)
図10は、ユーザがユーザ車両について検索を行った際の、実施形態1に係るサーバ1の処理フローである。図10を用いて、ユーザがユーザ車両について検索を行った際の、サーバ1の処理フローについて説明する。
(Explanation of operation flow: Server processing during search)
FIG. 10 is a processing flow of the
入力部103は、ユーザからのユーザ情報及び自動車登録番号(以下、「ユーザ車番」という)の入力を受けたか否かを判断する(S101)。ユーザ情報及びユーザ車番の入力を受けていない場合(S101;No)、再度ステップ101の処理に戻る。入力部103は、ユーザ情報及びユーザ車番の入力を受けた場合(S101;Yes)、このユーザ情報と、予めサーバ1にアクセス可能なユーザのユーザ情報を記憶したユーザ情報データベース111との照合を行う(S102)。
The
入力部103は、ユーザにより入力されたユーザ情報がユーザ情報データベース111に登録されているか否かを判断し(S103)、入力されたユーザ情報がユーザ情報データベース111に登録されていない場合(S103;No)、再度ステップ101の処理に戻る。入力されたユーザ情報がユーザ情報データベース111に登録されている場合(S103;Yes)、ステップ104の処理に進む。
The
検索部104は、ユーザ情報データベース111に登録されていると判断されたユーザにより入力されたユーザ車番と一致する自動車登録番号が目撃情報データベース108に記憶(登録)されているか否かを判断する(S104)。ユーザ車番と一致する自動車登録番号が目撃情報データベース108に記憶されていない場合(S104;No)、サーバ1の本処理フローを終了する。なお、この場合、一致する撮影情報(目撃情報)がない旨をユーザに通知(送信)するようにしてもよい。
The
検索部104は、ユーザ車番と一致する自動車登録番号が目撃情報データベース108に記憶されている場合(S104;Yes)、ユーザ車番と一致する自動車登録番号を含む、目撃情報データベース108内のレコード(一致レコード)が複数あるか否かを判断する(S105)。
When the vehicle registration number that matches the user vehicle number is stored in the sighting information database 108 (S104; Yes), the
検索部104で、一致レコードが複数ない(一つしかない)と判断された場合(S105;No)、結果表示部106は、この一致レコード、すなわち、移動体解析情報を表示装置8に表示させる(S107)。結果送信部107は、この移動体解析情報をユーザ装置30で視認可能とするため、移動体解析情報を、通信IF5を介してユーザ装置30へ送信する(S108)。
When the
検索部104で、一致レコードが複数あると判断された場合(S105;Yes)、走行範囲推定部105は、これら複数の一致レコードに基づき、ユーザがユーザ車両を検索した時点でのユーザ車両の走行可能範囲(走行範囲)を算出(推定)する(S106)。走行範囲の算出方法(処理フロー)についての詳細は図11を用いて後述する。
When the
結果表示部106は、算出(推定)した走行範囲及び一致レコードである移動体解析情報を表示装置8に表示させる(S107)。なお、結果表示部106は、詳細は後述する
が、走行範囲を算出するために取得された、地点間速度、渋滞情報、渋滞重み付け値などの情報を走行範囲と併せて表示するようにしてもよい。
The
なお、結果表示部106は、例えば、移動体解析情報や走行範囲を算出するために取得された情報のうち一部(例えば、撮影情報のみ)を表示させるようにしてもよいし、移動体解析情報及び走行範囲を算出するために取得された情報に含まれる全ての情報を表示させるようにしてもよい。また、走行範囲の結果表示としては、地図上にユーザ車両の走行ルート(軌跡)や走行範囲を示したものとして表示してもよいし、文字情報として、例えば、「最終目撃地点から半径300m以内」のように表示してもよい。また、地図上に取得した全位置情報を示す点をプロットするようにしてもよい。
Note that the
結果送信部107は、走行範囲、移動体解析情報、走行範囲を算出するために取得された情報などをユーザ装置で視認可能とするため、これらの情報を、通信IF5を介してユーザ装置30へ送信する(S108)。
The
ステップ108で結果送信部107が送信を行うと、サーバ1は、サーバ1の本処理フローを終了する。
When the
(動作フローの説明:サーバにおける走行範囲推定)
図11は、実施形態1に係るサーバ1における走行範囲推定処理の処理フローである。図11を用いてサーバ1における走行範囲推定処理について説明する。
(Explanation of operation flow: Estimated travel range in server)
FIG. 11 is a process flow of the travel range estimation process in the
速度算出部1051は、複数の一致レコードに基づき、ユーザ車両が撮影された各地点間の地点間速度を算出する(S1061)。地点間速度の算出方法としては、目撃情報データベース108に記憶された複数の一致レコードに含まれる位置情報と撮影日時による算出方法が例示される。この方法では、速度算出部1051は、目撃情報データベース108に記憶された複数の一致レコードに含まれる各位置情報により、各位置情報が示す各地点間の直線距離である地点間距離を算出する。また、速度算出部1051は、複数の一致レコードに含まれる各撮影日時から、ユーザ車が各地点間を走行するのに要した時間(以下、「地点間所要時間」という)を算出する。算出された地点間距離及び地点間所要時間を用いることで、地点間速度は、(地点間速度)=(地点間距離)/(地点間所要時間)により算出される。
The
なお、ここでは、地点間距離を算出する際に、地点間距離を各地点間の直線距離として算出したが、本発明はこれに限るものではなく、地球の丸みを考慮した地点間距離の算出方法を用いてもよい。なお、速度算出部1051で算出された地点間速度は、目撃情報データベース108に対応する移動体解析情報と対応付けて記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
Here, when calculating the distance between the points, the distance between the points is calculated as a linear distance between the points. However, the present invention is not limited to this, and the calculation of the distance between the points considering the roundness of the earth. A method may be used. The point-to-point speed calculated by the
渋滞情報取得部1052は、渋滞情報送受信装置9により、渋滞情報を取得する(S1062)。渋滞情報取得部1052は、特に、一致レコードに含まれる位置情報が示す各地点及びその周辺の渋滞情報を取得する。この取得した渋滞情報により、ユーザ車両が撮影された地点やその周辺の道路の渋滞情報を把握することができる。
The traffic jam
重み付け値取得部1053は、取得した渋滞情報に基づき、ユーザ車両が撮影された地点及びその周辺の道路についての渋滞重み付け値を取得する(S1063)。例えば、取得した渋滞情報と、道路の渋滞度合いや混雑度合いを示す渋滞度と渋滞重み付け値を対応付けた渋滞重み付け情報データベース110を照合することで、渋滞重み付け値を取得することができる。ここで、渋滞重み付け値とは、各道路に対する渋滞情報に応じて、各道
路に関する情報(速度、所要時間等)に対して重み付けを行うための値である。
Based on the acquired traffic jam information, the weight
なお、ステップ1061とステップ1062〜1063は順不同であり、例えば、渋滞情報及び渋滞重み付け値を取得した後に地点間速度の算出を行ってもよい。 Note that step 1061 and steps 1062 to 1063 are out of order, and for example, the speed between points may be calculated after acquiring the traffic information and the traffic weight.
走行範囲算出部1054は、算出された地点間速度、取得された渋滞情報及び渋滞重み付け値により、ユーザ車両の最終撮影地点からの走行可能範囲(走行範囲)を算出する(S1064)。走行範囲の算出方法として、次に示す方法が例示される。なお、この例では、まず初めにユーザ車両の走行範囲が、以下で算出される半径rの円により表される。すなわち、検索時点で、ユーザ車両は、最終撮影地点を中心とした半径rの円に含まれる道路を走行していると推定される。
The travel
[走行範囲X1:地点間速度]
走行範囲算出部1054は、目撃情報データベース108に記憶された複数の一致レコードのうち直近の一致レコードとその直前の一致レコードから算出された地点間速度、すなわち、ユーザ車両が最後に撮影された地点とその直前に撮影された地点の間の地点間速度(以下、「最終地点間速度」という)を取得する。また、走行範囲算出部1054は、ユーザにより検索が行われた日時(以下、「検索日時」という)及びユーザ車両が最後に撮影された撮影日時(直近のレコードに含まれる撮影日時)から、最後に撮影された日時から検索日時までに経過した経過時間(以下、「検索時経過時間」という)を算出する。
[Running range X1: Speed between points]
The traveling
走行範囲算出部1054は、取得した最終地点間速度と検索時経過時間を用いることで、ユーザ車両の走行範囲(円)の半径rは、r=(最終地点間速度)×(検索時経過時間)により算出される。最終撮影地点(直近の一致レコードに含まれる位置情報)を中心としたこの半径rの円を、渋滞及び混雑がない(順調である)と仮定した際のユーザ車両の走行範囲X1とする。
The travel
図13は、最終撮影地点を中心とした、半径rを半径とする走行範囲X1を示す図である。 FIG. 13 is a diagram showing a traveling range X1 centered on the final photographing point and having a radius r.
走行範囲算出部1054で算出された走行範囲は、文字情報として、算出した半径rのほか、地図情報データベース109に記憶された地図情報を呼び出し、走行範囲X1を地図上に重ね合わせたデータを、目撃情報データベース108に、移動体解析情報と対応付けて記憶してもよい。また、その他のデータベースをサーバ1が備えることで、当該データベースに記憶するようにしてもよい。
The travel range calculated by the travel
[走行範囲X2:地点間速度、渋滞情報]
走行範囲算出部1054は、重み付け値取得部1053により取得された渋滞重み付け値に基づき、渋滞情報を考慮したユーザ車両の走行範囲X2を算出する。なお、走行範囲X2は、渋滞の影響により走行速度(距離)が制限された上での走行可能範囲であるため、渋滞及び混雑がないと仮定した際のユーザ車両の走行範囲X1より面積が小さい範囲となる。走行範囲算出部1054の走行範囲X2を算出する方法として、次に示す方法が例示される。
[Running range X2: Speed between points, traffic jam information]
The travel
走行範囲算出部1054は、走行範囲X1に含まれる道路を地図情報で確定したのち、ステップ1063で取得した渋滞重み付け値のうちの、確定された各道路についての渋滞重み付け値を取得する。走行範囲算出部1054は、取得した渋滞重み付け値により、確定された各道路に対して重み付けを行う。詳細を前述したとおり、図12の例では、走行範囲算出部1054は、各道路を通過するのに要する時間に対しての重み付けを行う。すなわち、走行範囲算出部1054は、道路が「順調」である時にユーザ車両が通過に要す
る時間に対して渋滞重み付け値を掛け合わせる。
The travel
走行範囲算出部1054は、渋滞重み付け値を掛け合わせることで算出された各道路の所要時間を考慮し、ユーザ車両が検索時経過時間の間で走行可能なルート(道路の組み合わせ)について、到達可能地点(距離)を算出(確定)する。走行範囲算出部1054は、例えば、確定した各ルートの到達可能地点を地図上でつなぎ合わせることで、走行範囲X2を求めることが可能である。また、確定した各ルートの到達可能地点を地図上でつなぎ合わせた直線に対して近似曲線を算出することで、この近似曲線を走行範囲X2としてもよい。このように、確定した各ルートの到達可能地点により走行範囲X2を確定する方法は、直線やその近似曲線、又は走行範囲X1の曲線の一部を用いるなど様々な方法をとり得るものである。
The travel
図14は、渋滞情報を考慮したユーザ車両の走行可能範囲である走行範囲X2の例を示す図である。図示するように、走行範囲X1に含まれるルート毎に到達可能地点を地点1〜7により表している。なお、地点0は、最終撮影地点を表している。
FIG. 14 is a diagram illustrating an example of a travel range X2 that is a travelable range of the user vehicle in consideration of traffic jam information. As illustrated, the reachable points are represented by
また、図14で示すように、破線で示した領域を走行範囲X2とする。図示するように、地点0と地点1〜3との間のルートは、それぞれ渋滞による影響を受けていない道路のみからなるルートであるため、図示するように、走行範囲X1の曲線をそのまま用いるようにしてもよい(下の半円部分)。また、例えば、図14では、地点0と地点6、7などの間のルート(道路)は、それぞれ渋滞による影響を受けて走行可能距離が制限されている。走行範囲算出部1054は、これら渋滞による影響を受けたルートの到達可能地点(地点6、7など)と渋滞による影響を受けていないルートの到達可能地点(地点1、2など)の地点間を直線で繋げることで、図示するように走行範囲X2を求めてもよい。
Moreover, as shown in FIG. 14, the area | region shown with the broken line is made into the driving range X2. As shown in the figure, since the route between the point 0 and the
走行範囲算出部1054は、走行するルートが異なるため、同一の道路に到達可能地点が複数存在する場合や、図14の地点4、5のように最終撮影地点0から見て同方向に複数の点が存在する場合は、図示するように、これら複数の地点のうち地点5のように外側の地点(走行距離が長い地点)のみを他の地点と直線で結ぶこととしてもよい。
Since the traveling route is different, the traveling
なお、図14では、地点間を直線で繋げることで走行範囲X2を求めているが、本発明はこれに限るものではなく、近似曲線を算出することにより走行範囲X2を求めてもよい。 In FIG. 14, the travel range X2 is obtained by connecting the points with a straight line. However, the present invention is not limited to this, and the travel range X2 may be obtained by calculating an approximate curve.
なお、本実施形態1では、渋滞情報(渋滞度)を「渋滞あり」、「混雑あり」、「順調」とし、この渋滞情報(渋滞度)に対応する渋滞重み付け値を取得することで、渋滞情報を考慮した走行範囲X2を算出したが、本発明はこれに限定するものではなく、例えば、渋滞情報として所要時間を用いることにより、走行範囲X2を算出するようにしてもよい。なお、この方法では、サーバ1は渋滞重み付け情報データベース110を備えていなくてもよい。
In the first embodiment, the congestion information (congestion level) is “congested”, “congested”, and “smooth”, and the traffic congestion weighting value corresponding to this congestion information (congestion level) is acquired. Although the travel range X2 in consideration of information is calculated, the present invention is not limited to this. For example, the travel range X2 may be calculated by using the required time as traffic jam information. In this method, the
図15は、所要時間を用いることで求めた走行範囲X2の例を示す図である。この方法では、例えば、走行範囲算出部1054は、渋滞情報により取得された各道路の所要時間、例えば、図15に示した、「20分」、「30分」、「50分」などの所要時間に基づき、ユーザ車両が検索時経過時間の間で到達可能な地点(距離)を算出(確定)する。この算出された到達可能地点により走行範囲X2を求めてもよい。なお、到達可能地点から走行範囲X2を求める方法は、図14で走行範囲X2を求める場合と同様である。
FIG. 15 is a diagram illustrating an example of the travel range X2 obtained by using the required time. In this method, for example, the travel
[走行範囲X3:地点間速度、方向指示器点灯状況]
画像解析部102が撮影画像の画像解析を行った結果、撮影画像に含まれる周辺車両の
方向指示器点灯状況を認識(取得)した場合に、走行範囲算出部1054は、認識された方向指示器点灯状況に基づき走行範囲X3を求める。走行範囲算出部1054の走行範囲X3を算出する方法として、次に示す方法が例示される。
[Running range X3: Speed between points, lighting direction indicator]
As a result of the image analysis of the captured image performed by the
走行範囲算出部1054は、最終撮影地点における方向指示器点灯状況、すなわち、方向指示器が指し示す方向(以下、「指示方向」という)に基づき、指示方向、指示方向の左右の方向(以下、「左右方向」という)、及び指示方向とは逆方向(以下、「逆方向」という)の各方向と方向重み付け値を対応付ける方向重み付け情報テーブル(データベース)(図示せず)を参照する。
The travel
図16は、方向重み付け情報データベースの例を示した図である。図示するように、図16の各列には、方向と方向重み付け値の項目が含まれる。図16の場合、「指示方向」、「左右方向」、「逆方向」のそれぞれに対応して、方向重み付け値である「1.0」、「0.7」、「0.5」が設定されている。図16の例で示した方向重み付け値は、ユーザ車両が、方向指示器が指し示す方向である指示方向に進んだ可能性が高く、左右方向及び逆方向に進んだ可能性は低いとの予測に基づくものである。 FIG. 16 is a diagram showing an example of the direction weighting information database. As illustrated, each column of FIG. 16 includes items of direction and direction weighting value. In the case of FIG. 16, the direction weight values “1.0”, “0.7”, and “0.5” are set corresponding to each of “instruction direction”, “left / right direction”, and “reverse direction”. Has been. The direction weighting value shown in the example of FIG. 16 predicts that the possibility that the user vehicle has advanced in the indicated direction, which is the direction indicated by the direction indicator, is low, and the possibility that the user vehicle has advanced in the left-right direction and the reverse direction is low. Is based.
図17は、方向指示器点灯状況を考慮したユーザ車両の走行可能範囲である走行範囲X3の例を示す図である。破線で示した領域を走行範囲X3とする。図17の例では、方向重み付け値を走行範囲X1の半径rに掛け合わせることで走行範囲X3を求めている。 FIG. 17 is a diagram illustrating an example of a travel range X3 that is a travelable range of the user vehicle in consideration of the direction indicator lighting state. A region indicated by a broken line is defined as a travel range X3. In the example of FIG. 17, the travel range X3 is obtained by multiplying the direction weighting value by the radius r of the travel range X1.
図17では、ユーザ車両が矢印1の方向に向かって走行していたと仮定し、最終撮影地点である地点0において、ユーザ車両の方向指示器が矢印2の方向を指示していたと仮定する。この場合、指示方向については方向重み付け値が「1.0」であるため、指示方向には距離r(半径r×1.0)だけ走行可能とする(地点1)。また、左右方向については方向重み付け値が「0.7」であるため、距離0.7r(半径r×0.7)だけ走行可能とする(地点2、4)。逆方向については方向重み付け値が「0.5」であるため、距離0.5r(半径r×0.5)だけ走行可能とする(地点3)。
In FIG. 17, it is assumed that the user vehicle is traveling in the direction of the
走行範囲算出部1054は、このように方向指示器点灯状況に基づいた重み付けを行うことで、各方向におけるユーザ車両の到達可能地点(図17の地点1〜4)を算出できる。この算出された到達可能地点により走行範囲X3を求める。なお、到達可能地点から走行範囲X3を求める方法は、図14で走行範囲X2を求める場合と同様である。
The travel
なお、本発明では、方向重み付け値は、走行範囲X1の半径rに対する重み付け値に限るものではなく、速度や時間に対する重み付け値であってもよい。また、方向重み付け値の数値は、図16に示した値に制限するものではなく、経験則などにより決められるものであってよい。 In the present invention, the direction weighting value is not limited to the weighting value for the radius r of the travel range X1, and may be a weighting value for speed or time. Further, the numerical value of the direction weighting value is not limited to the value shown in FIG. 16, but may be determined by an empirical rule or the like.
[走行範囲X4:地点間速度、渋滞情報、方向指示器点灯状況]
走行範囲算出部1054は、渋滞情報と方向指示器点灯状況の両者を考慮したユーザ車両の走行範囲X4を求めてもよい。走行範囲算出部1054の走行範囲X4を算出する方法としては、渋滞情報を考慮したユーザ車両の走行範囲X2を求める際に算出した到達可能地点(図13〜15の地点1〜7)と最終撮影地点である地点0との間の各ルートの距離に対して、方向重み付け値を掛け合わせる(重み付けを行う)方法が例示される。
[Running range X4: Inter-point speed, traffic jam information, turn-on indicator lighting status]
The travel
[撮影された各地点間のルート推定]
走行範囲算出部1054は、最終撮影地点からの走行範囲X1〜X4を算出するほか、ユーザ車両が撮影された各地点間において、ユーザ車両が走行したと予測されるルートを推定するようにしてもよい。
[Estimation of route between each shot]
The travel
この各地点間のルート推定方法としては、各地点間の道路の渋滞情報を取得し、取得した渋滞情報に基づきルートを推定する方法が例示される。具体的には、2地点間でユーザ車両が走行可能なルート(道路)の渋滞情報に基づき、ユーザ車両が2地点間を走行するのに実際に要した時間(当該2地点についての撮影情報に含まれる撮影日時により算出可能)の間で走行可能なルートを推定することが例示される。 Examples of the route estimation method between the points include a method of acquiring the traffic congestion information on the road between the points and estimating the route based on the acquired traffic congestion information. Specifically, based on the traffic jam information of the route (road) where the user vehicle can travel between two points, the time actually required for the user vehicle to travel between the two points (according to the shooting information about the two points) It is exemplified to estimate a route that can be traveled between (capable of calculation based on the shooting date and time included).
例えば、ユーザ車両が2地点間を走行するのに要した時間が30分である場合に、2地点間の特定の道路が渋滞により所要時間が50分であった場合は、ユーザ車両がこの特定の道路を走行していないと判断することができる。 For example, if the time required for the user vehicle to travel between two points is 30 minutes and the time required for the specific road between the two points is 50 minutes due to traffic congestion, the user vehicle It can be determined that the vehicle is not traveling on the road.
また、走行範囲算出部1054は、各地点間のルート推定を行う際に、各地点間の地点間速度を用いて推定を行うようにしてもよい。
In addition, the travel
走行範囲算出部1054により、各地点間のルート推定を行う場合は、結果表示部106は、推定された各地点間のルートや、推定するために用いた情報(渋滞情報、地点間速度)を視認可能とするように表示を行ってもよい。また、結果送信部107は、これらの推定されたルートや情報をユーザ装置に送信するようにしてもよい。
When the travel
走行範囲算出部1054がステップ1064で走行範囲算出処理を終了すると、サーバ1は、サーバ1の本処理フローを終了する。
When the travel
以上に説明したように、サーバ1は、(複数の)移動体から受信した、移動体から撮影した他の移動体の前部側及び後部側の少なくとも一方を撮影した撮影画像、撮影日時、移動体の位置情報に基づき、ユーザが検索した移動体が検索時点に(現在)走行中であると予測される走行範囲を推定することが可能となる。また、複数の移動体から受信した情報に基づき、ユーザが検索した移動体についての撮影(目撃)情報、走行範囲を得ることが可能であるため、自己発信装置を備えていない、又は自己発信装置が遮断された移動体についても、走行範囲などの情報を得ることが可能となる。
As described above, the
また、サーバ1は、ユーザが検索した移動体の予測速度である地点間速度、当該移動体の方向指示器の点灯状況、すなわち、当該移動体がこの先進行すると考えられる方向、及び当該移動体が最後に撮影された地点の渋滞情報などに基づいて、走行範囲を推定することにより、走行範囲を高精度に推定することが可能となる。
Further, the
<変形例1>
本実施形態1では、サーバ1が画像解析部102を備えることで、撮影画像の画像解析を行い、撮影画像から自動車登録番号や方向指示器点灯状況を認識(取得)するようにしたが、自動車20に画像解析部を備えることで撮影画像の画像解析を行うようにしてもよい。この場合には、サーバ1が画像解析部102を必ずしも備える必要はなく、サーバ1では、自動車20により認識(取得)された自動車登録番号や方向指示器点灯状況などを受信するような構成にすればよい。なお、サーバ1及び自動車20の両者が画像解析部を備えることで、それぞれが適宜画像解析を行うようにしてもよい。例えば、自動車20では、撮影画像からナンバープレートの切り出しを行う画像処理を行い、サーバ1では切り出されたナンバープレートの画像から文字情報である自動車登録番号を画像解析により取得するようにしてもよい。
<
In the first embodiment, the
<変形例2>
本実施形態1では、地点間速度の算出方法として位置情報と撮影日時による算出方法を例示したが、撮影を行う側の自動車20の速度(自車速度)と、撮影された(被写体であ
る)自動車の自動車20に対する相対速度を用いることで地点間速度を算出してもよい。
<
In the first embodiment, the calculation method based on the position information and the shooting date / time is illustrated as the method for calculating the speed between the points. However, the speed of the
この方法では、サーバ1又は自動車20において、取得された撮影画像の画像解析を行い、撮影画像に含まれる周辺車両のナンバープレートの大きさを認識することで、撮影された自動車の自動車20に対する相対速度を算出する。この相対速度を算出する方法は、例えば、特開2006−17473号公報に記載された方法により行うことができる。また、この方法では、自動車20の自車速度を取得するために、自動車20がサーバ1に送信する撮影情報の中に自車速度(撮影時の自動車20の速度)又は自車の走行距離を含めることが必要となる。
In this method, the
速度算出部1051は、自動車20の自車速度と算出した相対速度に基づき、撮影された自動車の地点間速度を算出することができる。
The
<変形例3>
本実施形態1では、自車位置検出部202は、GPS衛星からの送信電波に基づいて自動
車20の現在位置の位置情報を取得することとしたが、本発明はこれに限るものではない。自車位置検出部202は、自動車20と路側に設置された装置(基地局)との路車間通信(DSRCなど)やレーンマーカ等により自動車20の現在位置の位置情報を取得するようにしてもよい。例えば、複数の路側装置からの信号の受信感度(電波の強さ)の比に応じて、自動車20の各路側装置からの相対距離を求めるようにしてもよい。
<
In the first embodiment, the vehicle
<その他の実施形態>
上述の実施形態1では、盗難の被害にあったユーザなどにより盗難車の自動車登録番号を入力するようにしたが、本発明では盗難車に限るものではなく、本発明に係るサーバは、例えば、配達車両、タクシー、出張サポートを行う車両、出前サービスのオートバイなどの追跡システム(サーバ)に応用できる。
<Other embodiments>
In
実施形態1では、ユーザ情報データベース111を盗難車検索システムに登録したユーザのユーザ情報が記憶されるものとして例示したが、後述するとおり、ユーザ情報データベース111は盗難車に関する情報を記憶するものに限るものではない。
In the first embodiment, the
(配達車両の追跡システム)
本発明に係るサーバは、ユーザ(客)が配達車両の現在位置を追跡可能とする追跡システムに応用できる。配達車両の追跡システムの場合、ユーザ情報データベース111には、例えば、配達を依頼したユーザや配達先のユーザなどの、配達業者の当該追跡システムを利用可能なユーザ(客)のユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及びユーザへ配達を行う車両の自動車登録番号は予めユーザに通知される。
(Delivery vehicle tracking system)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a delivery vehicle. In the case of a delivery vehicle tracking system, the
これにより、ユーザは本発明に係るサーバ1にユーザ情報及び配達を行う車両の自動車登録番号を入力することで、当該配達車両がどのあたりを走行しているかを視認可能となる。
Thereby, the user can visually recognize which area the delivery vehicle travels by inputting the user information and the automobile registration number of the vehicle to be delivered to the
(タクシーの追跡システム)
本発明に係るサーバは、ユーザ(客)がタクシーの現在位置を追跡可能とする追跡システムに応用できる。タクシーの追跡システムの場合、ユーザ情報データベース111には、例えば、タクシーの送迎を依頼したユーザなどの、タクシー会社の当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及びユーザの送迎を行うタクシーの自動車登録番号は予めユーザに通知される。
(Taxi tracking system)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a taxi. In the case of a taxi tracking system, the
これにより、ユーザは本発明に係るサーバ1にユーザ情報及び送迎を行うタクシーの自動車登録番号を入力することで、当該タクシーがどのあたりを走行しているかを視認可能となる。
Thereby, the user can visually recognize which area the taxi is traveling by inputting the user information and the automobile registration number of the taxi to be picked up and transferred to the
(出張サポート業務を行う車両の追跡システム)
本発明に係るサーバは、ユーザ(客)が出張サポート業務を行う車両の現在位置を追跡可能とする追跡システムに応用できる。出張サポート業務を行う車両の追跡システムの場合、ユーザ情報データベース111には、例えば、出張サポートを受けるユーザなどの、当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及び出張サポートを行う車両の自動車登録番号は予めユーザに通知される。
(Vehicle tracking system for business trip support)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a vehicle performing a business trip support service. In the case of a vehicle tracking system that performs a business trip support service, the
これより、ユーザは本発明に係るサーバ1にユーザ情報及び出張サポートを行う車両の自動車登録番号を入力することで、当該車両がどのあたりを走行しているかを視認可能となる。
Thus, the user can visually recognize which area the vehicle is driving by inputting the user information and the vehicle registration number of the vehicle that supports the business trip to the
(出前サービスを行うオートバイの追跡システム)
本発明に係るサーバは、ユーザ(客)が出前サービスを行うオートバイの現在位置を追跡可能とする追跡システムに応用できる。出前サービスを行う車両の追跡システムの場合、ユーザ情報データベース111には、例えば、出前サービスを受けるユーザなどの、当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。なお、ユーザが当該システムを利用するために必要なログイン名やパスワード等のユーザ情報及び出前サービスを行う車両の自動車登録番号は予めユーザに通知される。
(Motorcycle tracking system for on-site service)
The server according to the present invention can be applied to a tracking system that allows a user (customer) to track the current position of a motorcycle that provides a delivery service. In the case of a vehicle tracking system that performs a delivery service, the
これより、ユーザは本発明に係るサーバ1にユーザ情報及び出前サービスを行う車両の自動車登録番号を入力することで、当該車両がどのあたりを走行しているかを視認可能となる。
Thus, the user can visually recognize which area the vehicle is driving by inputting the user information and the vehicle registration number of the vehicle performing the delivery service to the
(外回りの営業活動チェックシステム)
本発明に係るサーバは、例えば、保険、銀行の外回り、集金等を行う様々な企業、団体、役所のスタッフが乗車する車両の現在位置を追跡可能とする追跡システムに応用できる。本追跡システムの場合、ユーザ情報データベース111には、例えば、これらのスタッフを管理する管理者などの、当該追跡システムを利用可能なユーザのユーザ情報が記憶(登録)されている。
(Outside sales activity check system)
The server according to the present invention can be applied to, for example, a tracking system that can track the current position of a vehicle on which various companies, organizations, and government staff who carry out insurance, bank trips, collection, and the like get on. In the case of this tracking system, the
これより、スタッフを管理する管理者などのユーザは、本発明に係るサーバ1にユーザ情報及びスタッフが乗車する車両の自動車登録番号を入力することで、当該車両がどのあたりを走行しているかをチェックすることが可能となる。
Thus, a user such as an administrator who manages the staff inputs the user information and the vehicle registration number of the vehicle on which the staff gets into the
1 サーバ
2、25 CPU
3、26 主記憶装置
4、27 外部記憶装置
5、2A 通信IF
6、2B 通信バス
7 入力装置
8 表示装置
9 渋滞情報送受信装置
20 自動車
21 カメラ
22 GPSアンテナ
23 通信アンテナ
24 車載器
28 時刻装置
29 GPS装置
30 ユーザ装置
80 無線基地局
N1、N2 ネットワーク
101 受信部
102 画像解析部
103 入力部
104 検索部
105 走行範囲推定部
106 結果表示部
107 結果送信部
108 目撃情報データベース
109 地図情報データベース
110 渋滞重み付け情報データベース
111 ユーザ情報データベース
1051 速度算出部
1052 渋滞情報取得部
1053 重み付け値取得部
1054 走行範囲算出部
201 撮影部
202 自車位置検出部
203 時刻計測部
204 撮影情報記憶部
205 通信部
206 撮影情報データベース
1
3, 26
6,
Claims (4)
少なくとも前記撮影画像に含まれる撮影文字情報と前記撮影情報に含まれる前記位置情報と前記撮影日時とを対応付けた移動体解析情報をデータベースに記憶する記憶手段と、
ユーザによる移動体登録番号を含むユーザ移動体情報の入力を受け付ける入力手段と、
前記ユーザにより入力された前記移動体登録番号と一致する撮影文字情報を含む移動体解析情報を前記データベースから取得する取得手段と、
少なくとも取得された前記移動体解析情報を基に、前記ユーザ移動体情報に含まれる移動体登録番号と一致する撮影文字情報と対応付けて記憶された位置情報のうち直近の位置情報の示す地点からの前記移動体登録番号で特定される移動体の走行範囲を推定する推定手段と
を備えるサーバ。 Shooting information in which the position information of the moving body acquired from the moving body by the position specifying function is associated with the shooting date and time of at least one of the front side and the rear side of the other moving body shot from the moving body. Receiving means for receiving
Storage means for storing, in a database, moving body analysis information in which at least photographing character information included in the photographed image, the position information included in the photographing information, and the photographing date and time are associated with each other;
Input means for accepting input of user moving body information including a moving body registration number by a user;
Acquisition means for acquiring moving body analysis information including photographed character information matching the moving body registration number input by the user from the database;
Based on at least the acquired mobile body analysis information, from the point indicated by the latest position information among the positional information stored in association with the photographed character information that matches the mobile body registration number included in the user mobile body information A server comprising: estimation means for estimating a travel range of the mobile body specified by the mobile body registration number.
前記推定手段は、前記算出された前記地点間速度にさらに基づいて、前記走行範囲を推定する請求項1に記載のサーバ。 Based on the moving body analysis information including photographed character information that matches the moving body registration number acquired by the acquiring means, a point-to-point speed that is a predicted speed of the moving body specified by the moving body registration number is calculated. A speed calculating means for
The server according to claim 1, wherein the estimation unit estimates the travel range further based on the calculated inter-point speed.
前記推定手段は、前記取得した前記渋滞情報にさらに基づいて、前記走行範囲を推定する請求項1から3のいずれか1項に記載のサーバ。 A traffic jam information acquiring means for acquiring traffic jam information at a point indicated by the latest location information among the location information stored in association with the photographed character information that matches the mobile phone registration number included in the user mobile body information;
The server according to any one of claims 1 to 3, wherein the estimation unit estimates the travel range further based on the acquired traffic jam information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011062895A JP2012198790A (en) | 2011-03-22 | 2011-03-22 | Moving-body position estimation server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011062895A JP2012198790A (en) | 2011-03-22 | 2011-03-22 | Moving-body position estimation server |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012198790A true JP2012198790A (en) | 2012-10-18 |
Family
ID=47180932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011062895A Withdrawn JP2012198790A (en) | 2011-03-22 | 2011-03-22 | Moving-body position estimation server |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012198790A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015190473A1 (en) * | 2014-06-12 | 2015-12-17 | 本田技研工業株式会社 | Photographic image replacement system, imaging device, and photographic image replacement method |
JP2016212848A (en) * | 2015-04-29 | 2016-12-15 | ゼネラル・エレクトリック・カンパニイ | System and method of image analysis for automated asset identification |
JP2019046092A (en) * | 2017-08-31 | 2019-03-22 | 古野電気株式会社 | On-vehicle unit, base station device, video information providing system, video information providing method, and computer program |
JP2020014158A (en) * | 2018-07-19 | 2020-01-23 | Zホールディングス株式会社 | Information processing device, information processing method, program, and application program |
JP2021051371A (en) * | 2019-09-20 | 2021-04-01 | ヤフー株式会社 | Estimation device, estimation method and estimation program |
CN114237209A (en) * | 2020-09-09 | 2022-03-25 | 夏普株式会社 | Travel time prediction device and travel time prediction method |
CN114999222A (en) * | 2021-03-02 | 2022-09-02 | 丰田自动车株式会社 | Abnormal behavior notification device, notification system, notification method, and recording medium |
-
2011
- 2011-03-22 JP JP2011062895A patent/JP2012198790A/en not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015190473A1 (en) * | 2014-06-12 | 2015-12-17 | 本田技研工業株式会社 | Photographic image replacement system, imaging device, and photographic image replacement method |
JPWO2015190473A1 (en) * | 2014-06-12 | 2017-04-20 | 本田技研工業株式会社 | Captured image exchange system, imaging apparatus, and captured image exchange method |
US10306188B2 (en) | 2014-06-12 | 2019-05-28 | Honda Motor Co., Ltd. | Photographic image exchange system, imaging device, and photographic image exchange method |
JP2016212848A (en) * | 2015-04-29 | 2016-12-15 | ゼネラル・エレクトリック・カンパニイ | System and method of image analysis for automated asset identification |
JP2019046092A (en) * | 2017-08-31 | 2019-03-22 | 古野電気株式会社 | On-vehicle unit, base station device, video information providing system, video information providing method, and computer program |
JP2020014158A (en) * | 2018-07-19 | 2020-01-23 | Zホールディングス株式会社 | Information processing device, information processing method, program, and application program |
JP2021051371A (en) * | 2019-09-20 | 2021-04-01 | ヤフー株式会社 | Estimation device, estimation method and estimation program |
JP7001648B2 (en) | 2019-09-20 | 2022-01-19 | ヤフー株式会社 | Estimator, estimation method and estimation program |
CN114237209A (en) * | 2020-09-09 | 2022-03-25 | 夏普株式会社 | Travel time prediction device and travel time prediction method |
CN114999222A (en) * | 2021-03-02 | 2022-09-02 | 丰田自动车株式会社 | Abnormal behavior notification device, notification system, notification method, and recording medium |
CN114999222B (en) * | 2021-03-02 | 2023-11-10 | 丰田自动车株式会社 | Abnormal behavior notification device, notification system, notification method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012198790A (en) | Moving-body position estimation server | |
US7834778B2 (en) | Parking space locator | |
JP6175846B2 (en) | Vehicle tracking program, server device, and vehicle tracking method | |
WO2017080039A1 (en) | Vehicle driving safety monitoring method and device and system | |
CN103105173B (en) | Navigation system and air navigation aid | |
CN102770893B (en) | Method and system for generating and supplying traffic-relevant information | |
US11062599B2 (en) | Traffic management system, control method, and vehicle | |
KR101836990B1 (en) | Method for gathering of car accident, apparatus and system for the same | |
JP7400247B2 (en) | Report creation support system, server device, and computer program | |
JP2014211705A (en) | Nearest parking lot estimation system, nearest parking lot estimation method, and nearest parking lot estimation program | |
JP2019067201A (en) | Vehicle search system, vehicle search method, and vehicle and program employed in the same | |
JP2020144747A (en) | Road surface information registration system and road surface information registration device | |
JP5088420B2 (en) | Information providing apparatus and information providing system | |
JP2017027546A (en) | Parking position guide system | |
JP2018067136A (en) | Parking management system and parking management server device | |
JP4619319B2 (en) | Navigation system and route search server | |
JP2007206785A (en) | Vehicle tracking system, and image processing unit, central unit and onboard unit for use in the same, and vehicle tracking method | |
JP2004252661A (en) | Parking lot system | |
KR20110092945A (en) | Navigation apparatus for informing car accident and estimate simulation system according to the car accident and method thereof | |
JP2004287500A (en) | Road information providing system and its method | |
CN108955717A (en) | A kind of electric car intelligent navigation equipment | |
KR101413409B1 (en) | System for managing car accident and Method thereof | |
JP2011209849A (en) | Driving support method and driving support device | |
JP5471744B2 (en) | Charging facility information notification system using automatic toll collection system | |
CN111462513A (en) | Server, server control method, server control program, communication terminal, terminal control method, and terminal control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |