JP2021051423A - Road information distribution system, road information distribution device, and road information distribution program - Google Patents

Road information distribution system, road information distribution device, and road information distribution program Download PDF

Info

Publication number
JP2021051423A
JP2021051423A JP2019172600A JP2019172600A JP2021051423A JP 2021051423 A JP2021051423 A JP 2021051423A JP 2019172600 A JP2019172600 A JP 2019172600A JP 2019172600 A JP2019172600 A JP 2019172600A JP 2021051423 A JP2021051423 A JP 2021051423A
Authority
JP
Japan
Prior art keywords
vehicle
information
image
road information
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019172600A
Other languages
Japanese (ja)
Other versions
JP7165110B2 (en
Inventor
維瀚 孫
Weihan Sun
維瀚 孫
英一郎 林
Eiichiro Hayashi
英一郎 林
千紗 平川
Chisa Hirakawa
千紗 平川
亮 大友
Ryo Otomo
亮 大友
憲介 夜久
Kensuke Yaku
憲介 夜久
藤田 稔
Minoru Fujita
稔 藤田
貴博 南
Takahiro Minami
貴博 南
昇平 山本
Shohei Yamamoto
昇平 山本
綾子 大野
Ayako Ono
綾子 大野
昭行 谷沢
Akiyuki Tanizawa
昭行 谷沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2019172600A priority Critical patent/JP7165110B2/en
Publication of JP2021051423A publication Critical patent/JP2021051423A/en
Application granted granted Critical
Publication of JP7165110B2 publication Critical patent/JP7165110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a road information distribution system for collecting detection information from a plurality of vehicles and distributing road information indicating a road state to the respective vehicles based on detection information.SOLUTION: A road information distribution system includes: an on-vehicle terminal for acquiring detection information; and a management device for distributing road information based on detection information. The on-vehicle terminal includes: first sensor equipment for imaging a front side and/or a rear side of a mounting vehicle with the on-vehicle terminal mounted thereon, and then acquiring an image; second sensor equipment for acquiring first position information indicating a position of the mounting vehicle; and a detection information acquisition section for acquiring detection information where an image is associated with the first position information. The management device includes: a storage section for storing detection information; an image recognition section for performing image recognition processing with respect to an image with which the first position information is associated, based on the second position information indicating a position of a vehicle of a distribution destination; and a determination section for generating road information. The determination section estimates an inter-vehicle distance and also generates road information indicating a congestion degree of vehicles.SELECTED DRAWING: Figure 1

Description

本発明は、道路情報を配信する技術に関する。 The present invention relates to a technique for distributing road information.

従来、複数の車両から画像データや位置情報を取得し、取得した画像データや位置情報に基づいて道路情報を各車両に配信するシステムがある。各車両では、配信された道路情報を参照することにより、例えば道路の混雑状況を把握することができる。 Conventionally, there is a system that acquires image data and position information from a plurality of vehicles and distributes road information to each vehicle based on the acquired image data and position information. In each vehicle, for example, the congestion status of the road can be grasped by referring to the distributed road information.

特開2014−191578号公報Japanese Unexamined Patent Publication No. 2014-191578 特開2007−071579号公報Japanese Unexamined Patent Publication No. 2007-071579

複数の車両から検出情報を収集し、検出情報に基づいて道路状況を示す道路情報を各車両に配信する道路情報配信システムを提供する。 Provided is a road information distribution system that collects detection information from a plurality of vehicles and distributes road information indicating road conditions to each vehicle based on the detection information.

実施形態の道路情報配信システムは、検出情報を取得する車載端末と、車載端末と通信可能であり、検出情報に基づく道路情報を配信する管理装置と、を含む道路情報配信システムである。車載端末は、車載端末が搭載された搭載車両の前方及び/又は後方を撮影して画像を取得する第1センサ機器と、搭載車両の位置を示す第1位置情報を取得する第2センサ機器と、所定時刻に取得される画像と、所定時刻に取得される第1位置情報とを紐付けた検出情報を取得する検出情報取得部と、を備える。管理装置は、検出情報を予め蓄積する記憶部と、道路情報の配信先の車両の位置を示す第2位置情報に基づいて、道路情報の配信先の車両の位置に関する所定範囲内の位置を示す第1位置情報が紐付けられた画像に対する画像認識処理を実行する画像認識部と、画像認識処理の結果に基づく判断により、所定範囲に関する道路情報を生成する判断部と、を備える。そして、判断部は、画像に含まれる車両に基づいて車間距離を推定するとともに、車両の混雑度を示す道路情報を生成する。 The road information distribution system of the embodiment is a road information distribution system including an in-vehicle terminal that acquires detection information and a management device that can communicate with the in-vehicle terminal and distributes road information based on the detection information. The in-vehicle terminal includes a first sensor device that captures an image of the front and / or rear of the on-board vehicle on which the in-vehicle terminal is mounted and acquires an image, and a second sensor device that acquires first position information indicating the position of the on-board vehicle. , A detection information acquisition unit for acquiring detection information in which an image acquired at a predetermined time and a first position information acquired at a predetermined time are linked is provided. The management device indicates a position within a predetermined range regarding the position of the vehicle to which the road information is distributed, based on the storage unit that stores the detection information in advance and the second position information indicating the position of the vehicle to which the road information is distributed. It includes an image recognition unit that executes an image recognition process for an image associated with the first position information, and a determination unit that generates road information regarding a predetermined range based on a determination based on the result of the image recognition process. Then, the determination unit estimates the inter-vehicle distance based on the vehicle included in the image, and generates road information indicating the degree of congestion of the vehicle.

第1実施形態の道路情報配信システムのネットワーク構成図である。It is a network block diagram of the road information distribution system of 1st Embodiment. 第1実施形態の道路情報配信システムの機能ブロック図である。It is a functional block diagram of the road information distribution system of 1st Embodiment.

以下、実施形態につき、図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.

(第1実施形態)
図1は、本実施形態の道路情報配信システムのネットワーク構成図である。道路情報配信システムは、車載端末100と、管理装置200(道路情報配信装置に相当する)とを含んで構成される。車載端末100及び管理装置200は、IP網などのネットワークを介して無線で接続される。車載端末100は、例えば自動車や原動機付自転車といった車両に搭載される。管理装置200は、例えば、道路交通状況を管理する道路交通管制センタ等に設けられる。車載端末100は、車載端末100が搭載された車両(以下、搭載車両という)に関する検出情報を取得し、管理装置200に送信する。検出情報は、後述するように、車両の位置情報や車両に搭載されたカメラで撮影された画像データ等を含む。
(First Embodiment)
FIG. 1 is a network configuration diagram of the road information distribution system of the present embodiment. The road information distribution system includes an in-vehicle terminal 100 and a management device 200 (corresponding to a road information distribution device). The in-vehicle terminal 100 and the management device 200 are wirelessly connected via a network such as an IP network. The in-vehicle terminal 100 is mounted on a vehicle such as an automobile or a motorized bicycle. The management device 200 is provided in, for example, a road traffic control center that manages road traffic conditions. The in-vehicle terminal 100 acquires detection information about a vehicle on which the in-vehicle terminal 100 is mounted (hereinafter referred to as an mounted vehicle) and transmits the detection information to the management device 200. The detection information includes vehicle position information, image data taken by a camera mounted on the vehicle, and the like, as will be described later.

管理装置200には、複数の搭載車両から、車載端末100によって取得された検出情報が送信される。管理装置200は、各搭載車両から受信した検出情報を蓄積することができる。管理装置200は、各搭載車両から受信した検出情報に基づく解析処理を実行し、各搭載車両が走行する道路の状況(交通状況)を把握するための道路情報を生成する。管理装置200は、道路情報を各搭載車両に対して配信する。言い換えると、搭載車両は、道路情報を生成するための検出情報を取得するセンサとして機能するプローブカーである。 The detection information acquired by the in-vehicle terminal 100 is transmitted to the management device 200 from a plurality of mounted vehicles. The management device 200 can accumulate the detection information received from each mounted vehicle. The management device 200 executes analysis processing based on the detection information received from each mounted vehicle, and generates road information for grasping the road condition (traffic condition) on which each mounted vehicle travels. The management device 200 distributes road information to each on-board vehicle. In other words, the on-board vehicle is a probe car that functions as a sensor that acquires detection information for generating road information.

図2は、道路情報配信システムの機能ブロック図である。車載端末100は、制御部110と、センサユニット120と、記憶部130と、通信部140と、出力部150とを備える。記憶部130は、各種情報を記憶する。通信部140は、管理装置200との間の通信制御を行う。 FIG. 2 is a functional block diagram of the road information distribution system. The in-vehicle terminal 100 includes a control unit 110, a sensor unit 120, a storage unit 130, a communication unit 140, and an output unit 150. The storage unit 130 stores various information. The communication unit 140 controls communication with the management device 200.

制御部110は、検出情報取得部111を備える。検出情報取得部111は、後述する取得設定情報に従って、搭載車両に関する検出情報を取得する。検出情報取得部111は、センサユニット120から出力される情報を検出情報として収集する。また、検出情報取得部111は、搭載車両に既に搭載されている機器によって検出される情報を検出情報として収集することもできる。例えば、検出情報取得部111は、ブレーキペダルのON/OFFに関する情報、ワイパーのON/OFFに関する情報、外気温センサで検出した気温に関する情報、走行速度に関する情報などを検出情報として収集する。 The control unit 110 includes a detection information acquisition unit 111. The detection information acquisition unit 111 acquires the detection information regarding the mounted vehicle according to the acquisition setting information described later. The detection information acquisition unit 111 collects the information output from the sensor unit 120 as the detection information. In addition, the detection information acquisition unit 111 can also collect information detected by a device already mounted on the mounted vehicle as detection information. For example, the detection information acquisition unit 111 collects information on ON / OFF of the brake pedal, information on ON / OFF of the wiper, information on the temperature detected by the outside air temperature sensor, information on running speed, and the like as detection information.

センサユニット120は、カメラ121(第1センサ機器に相当する)と、GPS(Global Positioning System)センサ122(第2センサ機器に相当する)とを有する。カメラ121は、搭載車両の前方及び/又は後方を撮影することができるように設けられている。カメラ121は、複数設けることができる。カメラ121は、撮影によって画像データを生成する。例えば、カメラ121は、可視光カメラ、近赤外線カメラ、赤外線カメラなどである。GPSセンサ122は、車両の位置情報(第1位置情報に相当する)を取得する。画像データや位置情報は、検出情報として検出情報取得部111に出力される。 The sensor unit 120 includes a camera 121 (corresponding to the first sensor device) and a GPS (Global Positioning System) sensor 122 (corresponding to the second sensor device). The camera 121 is provided so as to be able to photograph the front and / or the rear of the mounted vehicle. A plurality of cameras 121 can be provided. The camera 121 generates image data by shooting. For example, the camera 121 is a visible light camera, a near infrared camera, an infrared camera, or the like. The GPS sensor 122 acquires vehicle position information (corresponding to the first position information). The image data and the position information are output to the detection information acquisition unit 111 as detection information.

出力部150は、管理装置200から提供される道路情報を各出力機器によって搭載車両の乗員に伝達する。出力部150は、例えばディスプレイ(表示部)やスピーカを有し、管理装置200から提供される道路情報を表示したり、道路情報に基づいて音声を出力したりする。 The output unit 150 transmits the road information provided by the management device 200 to the occupants of the mounted vehicle by each output device. The output unit 150 has, for example, a display (display unit) and a speaker, displays road information provided by the management device 200, and outputs sound based on the road information.

記憶部130には、検出情報取得部111が所定の検出情報を取得するための取得設定情報が記憶されている。取得設定情報は、取得条件情報と、取得条件情報に対応する指定情報とを含む。取得条件情報は、検出情報を取得する条件を規定した情報である。指定情報は、取得する検出情報を規定した情報である。取得条件情報と指定情報は、それぞれ、検出情報で規定されている。 The storage unit 130 stores acquisition setting information for the detection information acquisition unit 111 to acquire predetermined detection information. The acquisition setting information includes acquisition condition information and designated information corresponding to the acquisition condition information. The acquisition condition information is information that defines the conditions for acquiring the detection information. The designated information is information that defines the detection information to be acquired. The acquisition condition information and the designated information are defined by the detection information, respectively.

車載端末100で検出情報を取得する処理について説明する。検出情報取得部111は、取得条件情報に規定された検出情報が検出されると、その検出情報を取得するとともに、指定情報に規定された検出情報を取得する。検出情報取得部111は、取得設定情報に基づいて、少なくとも所定時刻(後述する検出時刻)における画像データと、所定時刻における位置情報とを取得する。 The process of acquiring the detection information on the in-vehicle terminal 100 will be described. When the detection information specified in the acquisition condition information is detected, the detection information acquisition unit 111 acquires the detection information and the detection information specified in the designated information. The detection information acquisition unit 111 acquires image data at least at a predetermined time (detection time described later) and position information at a predetermined time based on the acquisition setting information.

例えば、取得条件情報に「位置情報[XXX(位置情報を示す位置座標)]」が条件として設定されているとき、指定情報には「画像データ」と「時刻」が設定されている。この場合、GPSセンサ122が位置情報[XXX]を取得するとき、カメラ121が撮影を行い、画像データを生成する。このとき、タイマー(不図示)は、時刻を計測しており、GPSセンサ122が位置情報[XXX]を取得する時刻、言い換えると、カメラ121による撮影時刻を把握することができる。ここで、位置情報を取得する時刻及び撮影時刻を検出時刻という。また、位置情報は、画像の撮影場所を示している。このようにして、検出情報取得部111は、搭載車両が所定の地点に到達したときに、所定の地点の位置情報と、画像データと、検出時刻とを紐付けて取得することができる。 For example, when "position information [XXX (position coordinates indicating position information)]" is set as a condition in the acquisition condition information, "image data" and "time" are set in the designated information. In this case, when the GPS sensor 122 acquires the position information [XXX], the camera 121 takes a picture and generates image data. At this time, the timer (not shown) measures the time, and the time when the GPS sensor 122 acquires the position information [XXX], in other words, the shooting time by the camera 121 can be grasped. Here, the time at which the position information is acquired and the shooting time are referred to as detection times. In addition, the position information indicates the shooting location of the image. In this way, the detection information acquisition unit 111 can acquire the position information of the predetermined point, the image data, and the detection time in association with each other when the mounted vehicle reaches the predetermined point.

なお、取得条件情報には、位置情報を用いた地理範囲を設定してもよい。例えば、取得条件情報には、A地点の位置情報と、B地点の位置情報と、C地点の位置情報を用いて範囲を設定することができる。このとき、搭載車両がA〜C地点で囲まれる範囲に入ると、検出情報取得部111は、上述した方法によって、各種検出情報を取得することができる。 In addition, the geographic range using the location information may be set in the acquisition condition information. For example, the range can be set in the acquisition condition information by using the position information of the A point, the position information of the B point, and the position information of the C point. At this time, when the mounted vehicle enters the range surrounded by the points A to C, the detection information acquisition unit 111 can acquire various detection information by the above-mentioned method.

なお、取得条件情報として設定する位置情報には、例えば交差点や分岐点といった交通量が多い(混雑しやすい)地点や、事故発生地点、事故多発地点などの位置情報を設定すると、取得した検出情報に基づいて、車両の乗員が注目すべき情報を管理装置200から提供しやすくなる。 If the location information set as the acquisition condition information includes location information such as a point with heavy traffic (prone to congestion) such as an intersection or a branch point, an accident occurrence point, or an accident frequent occurrence point, the acquired detection information is obtained. Based on the above, it becomes easier for the occupants of the vehicle to provide information that should be noted from the management device 200.

また、取得条件情報に「時刻[X時X分]」が条件として設定されているとき、指定情報には「画像データ」と「位置情報」が設定されている。この場合、タイマーで把握される時刻がX時X分になるとき、カメラ121が撮影を行って画像データを生成するとともに、GPS122が位置情報を取得する。このようにして、検出情報取得部111は、所定の時刻になるときに、この時刻(すなわち、検出時刻)と、位置情報と、画像データとを紐付けて取得することができる。なお、取得条件情報に所定時間毎に時刻を設定することで、検出情報取得部111は、所定時間毎に位置情報と、画像データと、検出時刻とを取得することができる。 Further, when "time [X hours X minutes]" is set as a condition in the acquisition condition information, "image data" and "position information" are set in the designated information. In this case, when the time grasped by the timer reaches X hours and X minutes, the camera 121 takes a picture to generate image data, and the GPS 122 acquires the position information. In this way, the detection information acquisition unit 111 can acquire the time (that is, the detection time), the position information, and the image data in association with each other when the predetermined time is reached. By setting the time in the acquisition condition information at each predetermined time, the detection information acquisition unit 111 can acquire the position information, the image data, and the detection time at each predetermined time.

検出情報取得部111が取得した情報は、管理装置200に送信され、管理装置200の記憶装置230(後述する)に蓄積される。 The information acquired by the detection information acquisition unit 111 is transmitted to the management device 200 and stored in the storage device 230 (described later) of the management device 200.

また、取得設定情報は、管理装置200において予め設定され、車載端末100に配信される。また、取得設定情報は、車載端末100側で予め設定することもできる。取得設定情報は、任意に追加したり、変更したりすることができる。取得された検出情報は、通信部140を介して管理装置200に送信され、後述する記憶装置230に蓄積される。言い換えると、管理装置200は、車載端末100から出力される検出情報を収集する。 Further, the acquisition setting information is preset in the management device 200 and distributed to the in-vehicle terminal 100. Further, the acquisition setting information can be set in advance on the in-vehicle terminal 100 side. The acquisition setting information can be arbitrarily added or changed. The acquired detection information is transmitted to the management device 200 via the communication unit 140, and is stored in the storage device 230, which will be described later. In other words, the management device 200 collects the detection information output from the in-vehicle terminal 100.

なお、上記説明では画像データと、位置情報と、検出時刻とを用いて説明したが、検出情報取得部111は、他にも搭載車両に既に搭載されている機器によって検出される検出情報を所定の条件で取得することができる。上述した取得設定情報は一例であり、検出情報取得部111は、所定の条件で指定される所定の検出情報を取得することができればよい。 In the above description, the image data, the position information, and the detection time have been used, but the detection information acquisition unit 111 determines the detection information detected by other devices already installed in the vehicle. It can be obtained under the conditions of. The above-mentioned acquisition setting information is an example, and it is sufficient that the detection information acquisition unit 111 can acquire the predetermined detection information specified by the predetermined conditions.

管理装置200は、通信装置210と、制御装置220と、記憶装置230とを備える。通信装置210は、車載端末100との間の通信制御を行う。記憶装置230には、車載端末100から受信した検出情報が記憶されている。制御装置220は、判定部221と、道路情報配信部222とを有する。判定部221は、後述する各種判定処理を実行し、判定処理の結果である道路情報を生成する。道路情報配信部222は、生成された道路情報を配信する。 The management device 200 includes a communication device 210, a control device 220, and a storage device 230. The communication device 210 controls communication with the in-vehicle terminal 100. The storage device 230 stores the detection information received from the in-vehicle terminal 100. The control device 220 has a determination unit 221 and a road information distribution unit 222. The determination unit 221 executes various determination processes described later and generates road information as a result of the determination processes. The road information distribution unit 222 distributes the generated road information.

判定部221は、画像認識部2211と、判断部2212とを有する。画像認識部2211は、検出情報として記憶装置230に蓄積された画像データに対し、画像認識処理を実行する。判断部2212は、画像認識処理の結果に基づく判断処理を実行し、各種道路情報を生成する。判定部221は、車線混雑度判定処理、路面状態判定処理、歩行者判定処理(後述する)を実行する。道路情報としては、車線混雑度情報、路面状態情報、歩行者情報とが挙げられる。 The determination unit 221 has an image recognition unit 2211 and a determination unit 2212. The image recognition unit 2211 executes an image recognition process on the image data stored in the storage device 230 as detection information. The determination unit 2212 executes a determination process based on the result of the image recognition process and generates various road information. The determination unit 221 executes a lane congestion degree determination process, a road surface condition determination process, and a pedestrian determination process (described later). Examples of road information include lane congestion information, road surface condition information, and pedestrian information.

車線混雑度判定処理について説明する。車線混雑度判定処理は、車線ごとの車両の混雑度を判定するための処理である。車線混雑度判定処理は、混雑度判定処理と、車線認識処理とを含む。 The lane congestion degree determination process will be described. The lane congestion degree determination process is a process for determining the congestion degree of a vehicle for each lane. The lane congestion degree determination process includes a congestion degree determination process and a lane recognition process.

まず、混雑度判定処理について説明する。画像認識部2211は、検出情報として収集された画像データに対する画像認識処理を実行する。例えば、画像認識部2211は、前方車両を認識するための車両検出辞書(以下、車両検出辞書という)に基づいて画像認識処理を実行する。例えば、車両検出辞書には、車両の輪郭、窓枠、バンパー、タイヤなどの車両の特徴部分を記述する特徴量が含まれる。車両検出辞書は、例えば記憶装置230に記憶されている。 First, the congestion degree determination process will be described. The image recognition unit 2211 executes an image recognition process on the image data collected as the detection information. For example, the image recognition unit 2211 executes the image recognition process based on the vehicle detection dictionary for recognizing the vehicle in front (hereinafter referred to as the vehicle detection dictionary). For example, a vehicle detection dictionary contains feature quantities that describe vehicle features such as vehicle contours, window frames, bumpers, and tires. The vehicle detection dictionary is stored in, for example, the storage device 230.

画像認識部2211は、搭載車両から収集した画像に特徴量抽出処理を施して得られる特徴量画像と、車両検出辞書とのマッチングにより、画像認識処理を実行する。これにより、画像認識部2211は、画像において前方車両の特徴部分が占める領域を認識する。判断部2212は、画像における前方車両の特徴部分が占める領域の大きさまたは車両が路面に設置する位置に基づいて、搭載車両と搭載車両の前方の車両との間の距離、すなわち車間距離を推定する。なお、同様にして搭載車両と搭載車両の後方の車両との車間距離を推定することもできる。なお、車間距離を推定する方法は、既存の他の方法でもよい。 The image recognition unit 2211 executes the image recognition process by matching the feature amount image obtained by performing the feature amount extraction process on the image collected from the mounted vehicle with the vehicle detection dictionary. As a result, the image recognition unit 2211 recognizes the area occupied by the characteristic portion of the vehicle in front in the image. The determination unit 2212 estimates the distance between the mounted vehicle and the vehicle in front of the mounted vehicle, that is, the inter-vehicle distance, based on the size of the area occupied by the characteristic portion of the vehicle in front in the image or the position where the vehicle is installed on the road surface. To do. In the same way, the inter-vehicle distance between the mounted vehicle and the vehicle behind the mounted vehicle can be estimated. The method of estimating the inter-vehicle distance may be another existing method.

例えば、判断部2212は、推定した車間距離が短ければ短いほど混雑度が高いと判断することができる。判断部2212は、推定した車間距離が長ければ長いほど混雑度が低いと判断することができる。 For example, the determination unit 2212 can determine that the shorter the estimated inter-vehicle distance, the higher the degree of congestion. The determination unit 2212 can determine that the longer the estimated inter-vehicle distance, the lower the degree of congestion.

次に、車線認識処理について説明する。画像認識部2211は、検出情報として収集された画像データに対する画像認識処理を実行する。例えば、画像認識部2211は、車線を認識するための線分検出処理および車線境界線の幅、色などの条件および車線の幅に関する条件、テンプレート画像(以下、車線テンプレート画像という)に基づいて画像認識処理を実行する。車線境界線の条件は、例えば記憶装置230に記憶されている。 Next, the lane recognition process will be described. The image recognition unit 2211 executes an image recognition process on the image data collected as the detection information. For example, the image recognition unit 2211 is an image based on a line segment detection process for recognizing a lane, conditions such as the width and color of the lane boundary, conditions related to the lane width, and a template image (hereinafter referred to as a lane template image). Execute recognition processing. The lane boundary condition is stored in, for example, the storage device 230.

ここで、道路には車線と車線の間の境界を規定する車線境界線が引かれている。したがって、カメラ121が撮影した画像における車線境界線の位置は、搭載車両が位置する車線に応じて異なる。例えば、搭載車両が左側車線に位置するとき、車線境界線は、車両の前方を撮影した画像において右側に位置する。例えば、搭載車両が右側車線に位置するとき、車線境界線は、車両の前方を撮影した画像において左側に位置する。例えば、搭載車両が中央車線に位置するとき、車線境界線は、車両の前方を撮影した画像において左右の両側に位置する。そこで、車線境界線の条件には、上述した画像それぞれに対して用意されている。 Here, a lane boundary line that defines a boundary between lanes is drawn on the road. Therefore, the position of the lane boundary line in the image taken by the camera 121 differs depending on the lane in which the mounted vehicle is located. For example, when the on-board vehicle is located in the left lane, the lane boundary is located on the right side in the image of the front of the vehicle. For example, when the on-board vehicle is located in the right lane, the lane boundary is located on the left side in the image of the front of the vehicle. For example, when the mounted vehicle is located in the central lane, the lane boundaries are located on both the left and right sides in the image of the front of the vehicle. Therefore, lane boundary conditions are prepared for each of the above-mentioned images.

画像認識部2211は、搭載車両から収集した画像と、その画像に線分検出処理を施した結果と、車線境界線の条件とのマッチングにより、画像認識処理を実行する。これにより、判断部2212は、搭載車両から収集した画像における車線境界線の位置を把握する。そして、判断部2212は、車線境界線の位置に基づいて、複数の車線のうち、搭載車両が位置する車線を判断することができる。なお、車線を認識する方法は、既存の他の方法でもよい。 The image recognition unit 2211 executes the image recognition process by matching the image collected from the mounted vehicle, the result of performing the line segment detection process on the image, and the condition of the lane boundary line. As a result, the determination unit 2212 grasps the position of the lane boundary line in the image collected from the mounted vehicle. Then, the determination unit 2212 can determine the lane in which the mounted vehicle is located among the plurality of lanes based on the position of the lane boundary line. The method of recognizing a lane may be another existing method.

上述したように混雑度とともに車線を把握することで、車線ごとの混雑度を判定することができる。車線ごとの混雑度は、後述するように車載端末100から送信されるリクエスト情報に応じて、車載端末100に配信される。なお、混雑度判定処理では、走行速度を考慮してもよい。例えば、画像データとともに搭載車両の走行速度に関する情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、走行速度を考慮して混雑度を判断することができる。これにより、車間距離が短くても走行速度が速い場合や車間距離が長くても走行速度が遅い場合など、車間距離と走行速度の両方に基づいて混雑度を判定することができる。同様に、ブレーキペダルのON/OFFに関する情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、ブレーキペダルのON/OFFを考慮して混雑度を判断することができる。例えば、ブレーキペダルがONの時間が長いときや、ブレーキペダルがONになった回数が多いときは、混雑度が高いと判断することができる。 By grasping the lane as well as the degree of congestion as described above, the degree of congestion for each lane can be determined. The degree of congestion for each lane is distributed to the in-vehicle terminal 100 according to the request information transmitted from the in-vehicle terminal 100 as described later. In the congestion degree determination process, the traveling speed may be taken into consideration. For example, when information on the traveling speed of the mounted vehicle is stored in the storage device 230 as detection information together with the image data, the determination unit 2212 can determine the degree of congestion in consideration of the traveling speed. Thereby, the degree of congestion can be determined based on both the inter-vehicle distance and the traveling speed, such as when the traveling speed is high even if the inter-vehicle distance is short, or when the traveling speed is slow even if the inter-vehicle distance is long. Similarly, when the information regarding the ON / OFF of the brake pedal is stored in the storage device 230 as the detection information, the determination unit 2212 can determine the degree of congestion in consideration of the ON / OFF of the brake pedal. For example, when the brake pedal is turned on for a long time or when the brake pedal is turned on many times, it can be determined that the degree of congestion is high.

路面状態判定処理について説明する。路面状態判定処理は、道路の路面の状態を判定するための処理である。路面の状態としては、積雪の状態や路面凍結の状態が挙げられる。路面状態判定処理は、積雪状態判定処理と、凍結状態判定処理とを含む。 The road surface condition determination process will be described. The road surface condition determination process is a process for determining the road surface condition of the road. Examples of the road surface condition include a snow condition and a road surface freezing condition. The road surface condition determination process includes a snow cover condition determination process and a frozen state determination process.

まず、積雪状態判定処理について説明する。画像認識部2211は、検出情報として収集された画像データに対する画像認識処理を実行する。例えば、画像認識部2211は、路面状態を認識するためのテンプレート画像(以下、路面状態テンプレート画像という)に基づいて画像認識処理を実行する。路面状態テンプレート画像は、例えば記憶装置230に記憶されている。 First, the snow cover state determination process will be described. The image recognition unit 2211 executes an image recognition process on the image data collected as the detection information. For example, the image recognition unit 2211 executes the image recognition process based on the template image for recognizing the road surface state (hereinafter, referred to as the road surface state template image). The road surface state template image is stored in, for example, the storage device 230.

ここで、積雪時の道路は、無積雪時の(積雪していない)道路に比べて、白色の割合が雪によって増加する。したがって、積雪時の道路を撮影した画像と無積雪時の道路を撮影した画像とを比較すると、積雪時の道路を撮影した画像の方が、白色の画素(白色を示す領域)が多くなる。そこで、路面状態テンプレート画像には、無積雪時の道路を撮影した画像が用意されている。 Here, in the road with snow, the proportion of white color increases due to snow as compared with the road without snow (without snow). Therefore, when comparing the image of the road with snow and the image of the road with no snow, the image of the road with snow has more white pixels (area showing white). Therefore, in the road surface condition template image, an image of the road when there is no snow is prepared.

画像認識部2211は、搭載車両から収集した画像を、路面テンプレート画像から探索し比較することにより、画像認識処理を実行する。これにより、判断部2212は、搭載車両から収集した画像と、路面テンプレート画像との差分から積雪によって白色に変化した領域を把握することができる。判断部2212は、白色に変化した領域に基づいて、積雪の有無を判断することができる。 The image recognition unit 2211 executes the image recognition process by searching for and comparing the images collected from the mounted vehicle from the road surface template image. As a result, the determination unit 2212 can grasp the region changed to white due to the snow cover from the difference between the image collected from the mounted vehicle and the road surface template image. The determination unit 2212 can determine the presence or absence of snow cover based on the region that has changed to white.

ここで、雪は路面から上方(路面から離れる方向)に向かって積もるため、路面において積雪している領域の上方には、積雪していない空間がある。積雪していない空間は、雪による発色がないため、白色になっていない。したがって、判断部2212は、積雪時に撮影された画像において、下方から順に検出される白色の領域に基づいて、積雪の深さ(例えば積雪深)を推定することができる。ここで、積雪深は、cmなどの単位で積雪の深さを表すことができる。なお、上記説明では、雪が白色に発色するものとして説明したが、雪によって発色する色を予め設定することで、予め設定された色の領域を積雪している領域として検出し、積雪している深さを判定することができる。このようにして、判定部211は、積雪状態判定処理の結果として積雪情報を生成する。なお、積雪の深さを推定する方法は、既存の他の方法でもよい。 Here, since snow accumulates upward from the road surface (in the direction away from the road surface), there is a space without snow above the snow-covered area on the road surface. The space without snow is not white because there is no color development due to snow. Therefore, the determination unit 2212 can estimate the snow depth (for example, the snow depth) based on the white regions detected in order from the bottom in the image taken at the time of snow cover. Here, the snow depth can be expressed in units such as cm. In the above description, the snow is colored white, but by presetting the color developed by the snow, the preset color region is detected as the snow-covered region, and the snow is covered. The depth can be determined. In this way, the determination unit 211 generates snow cover information as a result of the snow cover state determination process. The method for estimating the depth of snow cover may be another existing method.

次に、凍結状態判定処理について説明する。凍結した路面は、凍結していない路面に比べると、より暗い色に発色する。そこで、路面テンプレート画像には、凍結していない路面を撮影した画像が用意されている。 Next, the frozen state determination process will be described. Frozen road surfaces develop a darker color than non-frozen road surfaces. Therefore, as the road surface template image, an image of a non-frozen road surface is prepared.

画像認識部2211は、搭載車両から収集した画像と、路面テンプレート画像とのマッチングにより、画像認識処理を実行する。これにより、判断部2212は、搭載車両から収集した画像と、路面テンプレート画像との差分から凍結によって色が暗く変化した領域を把握することができる。このとき、判断部2212は、色が暗く変化した領域において、画素値が所定値以上変化したときに、路面が凍結したと判断(推定)する。これにより、画像認識部2211は、路面の凍結の有無を判定することができる。このようにして、判定部211は、凍結状態判定処理の結果として凍結情報を生成する。なお、凍結の有無を判定する方法は、既存の他の方法でもよい。 The image recognition unit 2211 executes the image recognition process by matching the image collected from the mounted vehicle with the road surface template image. As a result, the determination unit 2212 can grasp the region where the color has changed due to freezing from the difference between the image collected from the mounted vehicle and the road surface template image. At this time, the determination unit 2212 determines (estimates) that the road surface has frozen when the pixel value changes by a predetermined value or more in the region where the color has changed darkly. As a result, the image recognition unit 2211 can determine whether or not the road surface is frozen. In this way, the determination unit 211 generates freeze information as a result of the freeze state determination process. The method for determining the presence or absence of freezing may be another existing method.

なお、路面テンプレート画像は、路面に積雪や凍結の影響がない晴天時などに予め所定の位置情報で示される地点で撮影された画像を用意している。路面テンプレート画像には、撮影場所を示す位置情報が紐付けられている。例えば、画像認識部2211は、路面テンプレート画像に紐づく位置情報と、搭載車両から得られた画像データに紐づく位置情報とが一致するとき、路面状態判定処理を実行することができる。例えば、路面テンプレート画像と、路面テンプレート画像に紐づく位置情報は、予め搭載車両から収集したものでもよい。路面テンプレート画像と、路面テンプレート画像に紐づく位置情報は、例えば記憶装置230に記憶されている。 As the road surface template image, an image taken at a point indicated by predetermined position information in advance when the road surface is not affected by snow or freezing is prepared. Position information indicating the shooting location is associated with the road surface template image. For example, the image recognition unit 2211 can execute the road surface condition determination process when the position information associated with the road surface template image and the position information associated with the image data obtained from the mounted vehicle match. For example, the road surface template image and the position information associated with the road surface template image may be collected in advance from the mounted vehicle. The road surface template image and the position information associated with the road surface template image are stored in, for example, the storage device 230.

なお、路面状態判定処理では、外気温センサで検出した気温に関する情報(気温情報)やワイパーのON/OFFに関する情報を考慮してもよい。画像データとともに気温情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、画像認識の結果に加えて気温を考慮した判断を行うことができる。例えば、気温が所定値以下のとき、判断部2212は、画像認識の結果を踏まえて路面が凍結していることを追加的に判断する。同様にして、判断部2212は、積雪があることを追加的に判断することもできる。また、画像データとともにワイパーのON/OFFに関する情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、画像認識の結果に加えてワイパーのON/OFFを考慮した判断を行うことができる。例えば、ワイパーがONであるとき、判断部2212は、雪が降っていると判断し、画像認識の結果を踏まえて積雪があることを追加的に判断することができる。 In the road surface condition determination process, information on the temperature detected by the outside air temperature sensor (air temperature information) and information on the ON / OFF of the wiper may be taken into consideration. When the temperature information is stored in the storage device 230 as the detection information together with the image data, the determination unit 2212 can make a determination in consideration of the temperature in addition to the result of the image recognition. For example, when the air temperature is equal to or lower than a predetermined value, the determination unit 2212 additionally determines that the road surface is frozen based on the result of image recognition. Similarly, the determination unit 2212 can additionally determine that there is snow. Further, when the information on the ON / OFF of the wiper is stored in the storage device 230 as the detection information together with the image data, the determination unit 2212 makes a determination in consideration of the ON / OFF of the wiper in addition to the result of the image recognition. Can be done. For example, when the wiper is ON, the determination unit 2212 can determine that it is snowing, and can additionally determine that there is snow based on the result of image recognition.

歩行者判定処理について説明する。画像認識部2211は、検出情報として収集された画像データに基づいて、搭載車両の周囲に存在する人物(以下、歩行者という)を認識するための処理を実行する。例えば、画像認識部2211は、予め学習された特徴点やパターンを含む人物検出辞書(人物検出辞書という)を用いて、撮影画像に含まれる歩行者の領域を認識する。これにより、判断部2212は、歩行者の位置と人数を推定(判断)する。同様にして、画像認識部2211は、認識された歩行者の顔に関して顔検出辞書(顔検出辞書という)を用いて顔認識処理を行うことができる。これにより、判断部2212は、撮影された歩行者の性別、年齢層、表情などの歩行者の特性を推定(判断)する。上述した画像に撮影された歩行者の人数を把握するための処理や、顔認識処理には、既存の方法を適用することができる。 The pedestrian determination process will be described. The image recognition unit 2211 executes a process for recognizing a person (hereinafter referred to as a pedestrian) existing around the mounted vehicle based on the image data collected as the detection information. For example, the image recognition unit 2211 recognizes a pedestrian region included in a captured image by using a person detection dictionary (referred to as a person detection dictionary) including feature points and patterns learned in advance. As a result, the determination unit 2212 estimates (determines) the position and number of pedestrians. Similarly, the image recognition unit 2211 can perform face recognition processing on the recognized pedestrian face using a face detection dictionary (referred to as a face detection dictionary). As a result, the determination unit 2212 estimates (determines) the characteristics of the pedestrian such as the sex, age group, and facial expression of the photographed pedestrian. An existing method can be applied to the process for grasping the number of pedestrians captured in the above-mentioned image and the face recognition process.

判断部2212は、搭載車両の周囲に存在する歩行者の人数(歩行者の位置を含めてもよい)を把握することで、搭載車両の周囲に存在する歩行者の混雑度を判断することができる。例えば、搭載車両の周囲に存在する人物の人数が所定値を超えているときには、歩行者の混雑度が高いと判断する。歩行者の人数が多ければ多いほど、判断部2212は、歩行者の混雑度が高いと判定する。歩行者の人数が少なければ少ないほど、判断部2212は、歩行者の混雑度が低いと判断する。 The determination unit 2212 can determine the degree of congestion of pedestrians around the mounted vehicle by grasping the number of pedestrians existing around the mounted vehicle (may include the position of the pedestrian). it can. For example, when the number of people existing around the mounted vehicle exceeds a predetermined value, it is determined that the degree of congestion of pedestrians is high. The determination unit 2212 determines that the greater the number of pedestrians, the higher the degree of congestion of the pedestrians. As the number of pedestrians decreases, the determination unit 2212 determines that the degree of congestion of pedestrians is low.

また、歩行者の混雑度に加えて顔認識処理の結果を用いた判定を行うこともできる。例えば、顔認識処理の結果、歩行者における女性の割合が高いと判定され、歩行者の混雑度が高いと判定されるときは、搭載車両の周辺で女性向けのイベントが行われていることや、女性向けの観光地があることを予測できる。同様に、顔認識処理の結果、歩行者における男性の割合が高いと判定され、歩行者の混雑度が高いと判定されるときは、搭載車両の周辺で男性向けのイベントが行われていることや、男性向けの観光地があることを予測できる。搭載車両の周囲に存在する歩行者に関して判定された情報は、後述するように車載端末100から送信されるリクエスト情報に応じて、車載端末100に配信される。 In addition to the degree of congestion of pedestrians, it is also possible to make a determination using the result of face recognition processing. For example, as a result of face recognition processing, when it is determined that the proportion of women among pedestrians is high and the degree of congestion of pedestrians is high, it means that an event for women is being held around the vehicle. , It can be predicted that there are tourist destinations for women. Similarly, as a result of face recognition processing, when it is determined that the proportion of men among pedestrians is high and the degree of congestion of pedestrians is high, an event for men is being held around the onboard vehicle. And it can be predicted that there are tourist spots for men. The information determined regarding the pedestrians existing around the mounted vehicle is distributed to the in-vehicle terminal 100 in response to the request information transmitted from the in-vehicle terminal 100 as described later.

画像認識部2211は、複数の車載端末100から得られる各画像データに対し、上述の各種判定処理(車線混雑度判定処理、路面状態判定処理、歩行者判定処理)を実行することができる。管理装置200は、各種判定処理の結果を道路情報として配信する。管理装置200は、リクエスト情報が入力されると、各種判定処理を実行する。リクエスト情報に応じて実行される判定処理は、予め設定されている。 The image recognition unit 2211 can execute the above-mentioned various determination processes (lane congestion degree determination process, road surface condition determination process, pedestrian determination process) on each image data obtained from the plurality of in-vehicle terminals 100. The management device 200 distributes the results of various determination processes as road information. When the request information is input, the management device 200 executes various determination processes. The determination process executed according to the request information is preset.

ここで、リクエスト情報は、道路情報を要求するための情報であり、車載端末100から送信される。このとき、車載端末100は、リクエスト情報とともに位置情報(第2位置情報に相当する)を管理装置200に送信する。例えば、位置情報は、搭載車両が所定の位置に到達したときにGPSセンサ122から出力され、管理装置200に送信される。管理装置200は、リクエスト情報とともに取得した(入力された)位置情報に基づいて各種判定処理を実行する。 Here, the request information is information for requesting road information, and is transmitted from the in-vehicle terminal 100. At this time, the in-vehicle terminal 100 transmits the position information (corresponding to the second position information) to the management device 200 together with the request information. For example, the position information is output from the GPS sensor 122 when the mounted vehicle reaches a predetermined position, and is transmitted to the management device 200. The management device 200 executes various determination processes based on the position information acquired (input) together with the request information.

例えば、判定部221は、リクエスト情報とともに取得した位置情報に基づいて車線混雑度判定処理を実行する。判定部221は、リクエスト情報とともに取得された位置情報を基準とする所定の道路範囲内で予め撮影された画像データに基づいて、車線混雑度判定処理を実行する。具体的には、判定部221は、取得された位置情報を基準とする所定の道路範囲内の位置情報が紐付いた画像データを記憶装置230から読み出し、車線混雑度判定処理を実行する。道路情報配信部222は、車線混雑度判定処理の結果(車線混雑度情報)を道路情報として車載端末100に配信する。 For example, the determination unit 221 executes the lane congestion degree determination process based on the position information acquired together with the request information. The determination unit 221 executes the lane congestion degree determination process based on the image data taken in advance within a predetermined road range based on the position information acquired together with the request information. Specifically, the determination unit 221 reads the image data associated with the position information within the predetermined road range based on the acquired position information from the storage device 230, and executes the lane congestion degree determination process. The road information distribution unit 222 distributes the result of the lane congestion degree determination process (lane congestion degree information) to the in-vehicle terminal 100 as road information.

配信された車線混雑度情報が車載端末100の出力部150によって搭載車両の乗員(ユーザ)に伝達される。例えば、車載端末100が地図を表示するディスプレイを有するとき、所定の道路範囲の車線混雑度情報を混雑度に応じた色分け等によって地図に反映して表示することができる。また、車載端末100がスピーカを有するとき、車線混雑度情報を音声で出力することができる。これにより、ユーザは所定範囲における車線ごとの混雑度を把握し、混雑度が低い車線を選択することができる。 The distributed lane congestion degree information is transmitted to the occupants (users) of the on-board vehicle by the output unit 150 of the in-vehicle terminal 100. For example, when the in-vehicle terminal 100 has a display for displaying a map, lane congestion degree information in a predetermined road range can be reflected and displayed on the map by color coding according to the congestion degree. Further, when the in-vehicle terminal 100 has a speaker, lane congestion degree information can be output by voice. As a result, the user can grasp the degree of congestion for each lane in a predetermined range and select a lane with a low degree of congestion.

例えば、判定部221は、リクエスト情報とともに取得した位置情報に基づいて路面状態判定処理を実行する。判定部221は、リクエスト情報とともに取得された位置情報を基準とする所定の道路範囲内で予め撮影された画像データに基づいて、路面状態判定処理を実行する。具体的には、判定部221は、取得された位置情報を基準とする所定の道路範囲内の位置情報が紐付いた画像データを記憶装置230から読み出し、路面状態判定処理を実行する。道路情報配信部222は、路面状態判定処理の結果(路面状態情報)を道路情報として車載端末100に配信する。なお、積雪状態判定処理のみを実行したり、凍結状態判定処理のみを実行したりすることもできる。 For example, the determination unit 221 executes the road surface condition determination process based on the position information acquired together with the request information. The determination unit 221 executes the road surface condition determination process based on the image data taken in advance within a predetermined road range based on the position information acquired together with the request information. Specifically, the determination unit 221 reads the image data associated with the position information within the predetermined road range based on the acquired position information from the storage device 230, and executes the road surface condition determination process. The road information distribution unit 222 distributes the result of the road surface condition determination process (road surface condition information) to the in-vehicle terminal 100 as road information. It is also possible to execute only the snow cover state determination process or only the frozen state determination process.

配信された路面状態情報が車載端末100の出力部150によって搭載車両の乗員(ユーザ)に伝達される。例えば、車載端末100が地図を表示するディスプレイを有するとき、所定の道路範囲の路面状態情報を地図に反映して表示することができる。また、車載端末100がスピーカを有するとき、路面状態情報を音声で出力してもよい。これにより、ユーザは所定の道路範囲における路面の積雪深や路面凍結の有無を把握し、走行に悪影響を与える路面状態の道路を避けることができる。 The distributed road surface condition information is transmitted to the occupants (users) of the on-board vehicle by the output unit 150 of the in-vehicle terminal 100. For example, when the in-vehicle terminal 100 has a display for displaying a map, the road surface condition information of a predetermined road range can be reflected and displayed on the map. Further, when the in-vehicle terminal 100 has a speaker, the road surface condition information may be output by voice. As a result, the user can grasp the snow depth of the road surface and the presence or absence of freezing of the road surface in a predetermined road range, and can avoid the road in the road surface condition which adversely affects the traveling.

例えば、判定部221は、リクエスト情報とともに取得した位置情報に基づいて歩行者判定処理を実行する。判定部221は、リクエスト情報とともに取得された位置情報を基準とする所定の道路範囲内で予め撮影された画像データに基づいて、歩行者判定処理を実行する。具体的には、判定部221は、取得された位置情報を基準とする所定の道路範囲内の位置情報が紐付いた画像データを記憶装置230から読み出し、歩行者判定処理を実行する。道路情報配信部222は、歩行者判定処理の結果(歩行者情報)を道路情報として車載端末100に配信する。 For example, the determination unit 221 executes the pedestrian determination process based on the position information acquired together with the request information. The determination unit 221 executes the pedestrian determination process based on the image data taken in advance within a predetermined road range based on the position information acquired together with the request information. Specifically, the determination unit 221 reads the image data associated with the position information within the predetermined road range based on the acquired position information from the storage device 230, and executes the pedestrian determination process. The road information distribution unit 222 distributes the result of the pedestrian determination process (pedestrian information) to the in-vehicle terminal 100 as road information.

配信された歩行者情報が車載端末100の出力部150によって搭載車両の乗員(ユーザ)に伝達される。例えば、車載端末100が地図を表示するディスプレイを有するとき、所定の道路範囲の歩行者情報を地図に反映して表示することができる。また、車載端末100がスピーカを有するとき、歩行者情報を音声で出力してもよい。ユーザは、所定の道路範囲内における歩行者に関する情報を参照することで、歩行者の混雑度や歩行者の特性を把握することができる。これにより、ユーザは歩行者の混雑度が高い地点での歩行者の特性から、所定の道路範囲の近辺に位置する観光地や所定の道路範囲の近辺で開催されているイベントなどを予想したりすることができる。また、ユーザは歩行者の混雑度が高い地点を避けて移動することにより、人身事故のリスクを抑えることができる。 The distributed pedestrian information is transmitted to the occupants (users) of the on-board vehicle by the output unit 150 of the in-vehicle terminal 100. For example, when the in-vehicle terminal 100 has a display for displaying a map, pedestrian information in a predetermined road range can be reflected and displayed on the map. Further, when the in-vehicle terminal 100 has a speaker, pedestrian information may be output by voice. The user can grasp the degree of congestion of pedestrians and the characteristics of pedestrians by referring to the information about pedestrians within a predetermined road range. As a result, the user can predict a tourist spot located near a predetermined road range or an event held in the vicinity of a predetermined road range from the characteristics of the pedestrian at a point where the pedestrian is highly congested. can do. In addition, the user can reduce the risk of personal injury by moving away from a point where pedestrians are highly congested.

なお、取得された位置情報を基準とする所定の道路範囲は、予め設定しておくことができる。取得された位置情報を基準とする所定の道路範囲は、例えばリクエスト情報を送信した搭載車両が走行しうる範囲に設定することができる。また、車載端末100からリクエスト情報を送信するとき、搭載車両の出発地を示す位置情報と、目的地を示す位置情報を送信することもできる。この場合、出発地を示す位置情報と目的地を示す位置情報に基づいて予想される経路上で撮影された画像データに基づいて、各種判定処理を実行することができる。 A predetermined road range based on the acquired position information can be set in advance. The predetermined road range based on the acquired position information can be set to, for example, a range in which the on-board vehicle that has transmitted the request information can travel. Further, when the request information is transmitted from the in-vehicle terminal 100, the position information indicating the departure place of the mounted vehicle and the position information indicating the destination can also be transmitted. In this case, various determination processes can be executed based on the image data taken on the route expected based on the position information indicating the departure place and the position information indicating the destination.

なお、判定部221は、車載端末100から収集される検出情報に基づいて、リアルタイムで各種判定処理を実行することもできる。この場合、リクエスト情報とともに位置情報が入力されたときに各種判定処理の結果を道路情報配信部222が配信する。 The determination unit 221 can also execute various determination processes in real time based on the detection information collected from the in-vehicle terminal 100. In this case, the road information distribution unit 222 distributes the results of various determination processes when the position information is input together with the request information.

本実施形態の道路情報配信システムによれば、処理負荷の大きい画像認識処理を管理装置200が実行するため、車両ごとに画像認識処理を行うための高度な装置を設置する必要がない。したがって、車両側で画像認識処理を行う場合に比べてコストを抑えることができる。 According to the road information distribution system of the present embodiment, since the management device 200 executes the image recognition process having a large processing load, it is not necessary to install an advanced device for performing the image recognition process for each vehicle. Therefore, the cost can be suppressed as compared with the case where the image recognition processing is performed on the vehicle side.

さらに、本実施形態の道路情報配信システムによれば、画像データという1種のデータに基づいて各種判定処理を実行することで、車線ごとの混雑度、路面の状態(積雪、凍結)、歩行者の混雑度や特性といった複数の異なる情報を一括に抽出することができる。 Further, according to the road information distribution system of the present embodiment, by executing various determination processes based on one type of data called image data, the degree of congestion for each lane, the condition of the road surface (snow cover, freezing), and pedestrians. It is possible to extract a plurality of different information such as the degree of congestion and characteristics of the vehicle at once.

以上、実施形態の道路情報配信システムについて説明したが、車載端末100及び管理装置200は、ハードウェア構成として上述以外にも、メモリ(主記憶装置)、マウス、キーボード、タッチパネル、スキャナー等の操作入力手段、プリンタなどの出力手段、補助記憶装置(ハードディスク等)等を備えることができる。 Although the road information distribution system of the embodiment has been described above, the in-vehicle terminal 100 and the management device 200 have not only the above-mentioned hardware configurations but also operation inputs of a memory (main storage device), a mouse, a keyboard, a touch panel, a scanner, and the like. A means, an output means such as a printer, an auxiliary storage device (hardware, etc.), and the like can be provided.

また、本発明の各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行して、車載端末100や管理装置200に本発明の各部の機能を動作させることができる。他方、本発明の各機能は、各々個別の制御装置で構成することができ、複数の制御装置を直接に又はネットワークを介して接続してIVR装置を構成することもできる。 Further, each function of the present invention can be realized by a program, a computer program prepared in advance for realizing each function is stored in the auxiliary storage device, and a control unit such as a CPU is stored in the auxiliary storage device. The program is read into the main storage device, and the control unit executes the program read into the main storage device so that the in-vehicle terminal 100 and the management device 200 can operate the functions of each part of the present invention. On the other hand, each function of the present invention can be configured by an individual control device, and a plurality of control devices can be directly connected or connected via a network to form an IVR device.

また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD−ROM等の光ディスク、DVD−ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。 Further, the above program can be provided to a computer in a state of being recorded on a computer-readable recording medium. Computer-readable recording media include optical discs such as CD-ROMs, phase-changing optical discs such as DVD-ROMs, magneto-optical disks such as MO (Magnet Optical) and MD (Mini Disk), floppy (registered trademark) disks, and the like. Examples include magnetic disks such as removable hard disks, compact flash (registered trademark), smart media, SD memory cards, and memory cards such as memory sticks. Further, a hardware device such as an integrated circuit (IC chip or the like) specially designed and configured for the purpose of the present invention is also included as a recording medium.

なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described, the embodiment is presented as an example and is not intended to limit the scope of the invention. This novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

100 車載端末
110 制御部
111 検出情報取得部
120 センサユニット
121 カメラ
122 GPSセンサ
130 記憶部
140 通信部
150 出力部
200 管理装置
210 通信装置
220 制御装置
221 判定部
2211 画像認識部
2212 判断部
222 道路情報配信部
230 記憶装置
100 In-vehicle terminal 110 Control unit 111 Detection information acquisition unit 120 Sensor unit 121 Camera 122 GPS sensor 130 Storage unit 140 Communication unit 150 Output unit 200 Management device 210 Communication device 220 Control device 221 Judgment unit 2211 Image recognition unit 2212 Judgment unit 222 Road information Distribution unit 230 storage device

Claims (8)

検出情報を取得する車載端末と、前記車載端末と通信可能であり、前記検出情報に基づく道路情報を配信する管理装置と、を含む道路情報配信システムであって、
前記車載端末は、
前記車載端末が搭載された搭載車両の前方及び/又は後方を撮影して画像を取得する第1センサ機器と、
前記搭載車両の位置を示す第1位置情報を取得する第2センサ機器と、
所定時刻に取得される前記画像と、前記所定時刻に取得される前記第1位置情報とを紐付けた前記検出情報を取得する検出情報取得部と、を備え、
前記管理装置は、
前記検出情報を予め蓄積する記憶部と、
前記道路情報の配信先の車両の位置を示す第2位置情報に基づいて、前記道路情報の配信先の車両の位置に関する所定範囲内の位置を示す前記第1位置情報が紐付けられた前記画像に対する画像認識処理を実行する画像認識部と、
前記画像認識処理の結果に基づく判断により、前記所定範囲に関する前記道路情報を生成する判断部と、を備え、
前記判断部は、前記画像に含まれる車両に基づいて車間距離を推定するとともに、車両の混雑度を示す前記道路情報を生成することを特徴とする道路情報配信システム。
A road information distribution system including an in-vehicle terminal that acquires detection information and a management device that can communicate with the in-vehicle terminal and distributes road information based on the detection information.
The in-vehicle terminal is
A first sensor device that captures an image by photographing the front and / or rear of the vehicle on which the in-vehicle terminal is mounted, and
A second sensor device that acquires the first position information indicating the position of the mounted vehicle, and
It is provided with a detection information acquisition unit that acquires the detection information in which the image acquired at a predetermined time and the first position information acquired at the predetermined time are linked.
The management device is
A storage unit that stores the detection information in advance and
Based on the second position information indicating the position of the vehicle to which the road information is distributed, the image associated with the first position information indicating the position within a predetermined range regarding the position of the vehicle to which the road information is distributed. An image recognition unit that executes image recognition processing for
A determination unit for generating the road information regarding the predetermined range based on the determination based on the result of the image recognition process is provided.
The determination unit is a road information distribution system characterized in that the inter-vehicle distance is estimated based on the vehicle included in the image and the road information indicating the degree of congestion of the vehicle is generated.
前記画像認識部は、前記画像に含まれる車両と、車線と車線の境界線である車線境界線とを認識し、
前記判断部は、前記画像に含まれる車両に基づいて車間距離を推定するとともに、前記画像に含まれる前記車線境界線の位置に基づいて、複数の車線のうち前記搭載車両が位置する車線を判断し、前記車間距離と前記搭載車両が位置する車線に基づいて車線毎の車両の混雑度を示す前記道路情報を生成することを特徴とする請求項1に記載の道路情報配信システム。
The image recognition unit recognizes the vehicle included in the image and the lane boundary line which is the boundary line between lanes.
The determination unit estimates the inter-vehicle distance based on the vehicle included in the image, and determines the lane in which the mounted vehicle is located among the plurality of lanes based on the position of the lane boundary line included in the image. The road information distribution system according to claim 1, wherein the road information indicating the degree of congestion of the vehicle for each lane is generated based on the inter-vehicle distance and the lane in which the mounted vehicle is located.
前記検出情報は、さらに車両の走行速度もしくはブレーキペダルのON/OFFのいずれかの情報を含み、
前記判断部は、前記車間距離と前記走行速度もしくは前記ブレーキペダルのON/OFFのいずれかの情報に基づいて、車両の混雑度を示す前記道路情報を生成することを特徴とする請求項1又は2に記載の道路情報配信システム。
The detection information further includes information on either the traveling speed of the vehicle or ON / OFF of the brake pedal.
The determination unit is characterized in that it generates the road information indicating the degree of congestion of the vehicle based on the information of either the inter-vehicle distance and the traveling speed or the ON / OFF of the brake pedal. The road information distribution system described in 2.
前記画像認識部は、前記画像に含まれる積雪を認識し、
前記判断部は、前記積雪の積雪深を推定することにより、前記積雪深を示す前記道路情報を生成することを特徴とする請求項1乃至3のいずれかに記載の道路情報配信システム。
The image recognition unit recognizes the snow cover contained in the image and recognizes the snow cover.
The road information distribution system according to any one of claims 1 to 3, wherein the determination unit generates the road information indicating the snow depth by estimating the snow depth of the snow.
前記画像認識部は、前記画像に含まれる路面を認識し、
前記判断部は、前記路面における凍結の有無を判定することにより、凍結の有無を示す前記道路情報を生成することを特徴とする請求項1乃至4のいずれかに記載の道路情報配信システム。
The image recognition unit recognizes the road surface included in the image and recognizes the road surface.
The road information distribution system according to any one of claims 1 to 4, wherein the determination unit generates the road information indicating the presence or absence of freezing by determining the presence or absence of freezing on the road surface.
前記画像認識部は、前記画像に含まれる歩行者を認識するとともに、前記歩行者の顔を認識し、
前記判断部は、前記歩行者の位置および人数を推定するとともに、前記歩行者の顔に基づいて前記歩行者の特性を推定し、前記歩行者の位置および人数と前記歩行者の特性を示す前記道路情報を生成することを特徴とする請求項1乃至5のいずれかに記載の道路情報配信システム。
The image recognition unit recognizes the pedestrian included in the image and recognizes the face of the pedestrian.
The determination unit estimates the position and number of the pedestrian, estimates the characteristics of the pedestrian based on the face of the pedestrian, and indicates the position and number of the pedestrian and the characteristics of the pedestrian. The road information distribution system according to any one of claims 1 to 5, wherein the road information is generated.
車載端末と通信可能であり、前記車載端末から検出情報を収集することにより、前記検出情報に基づく道路情報を配信する道路情報配信装置であって、
前記車載端末が搭載された搭載車両の前方及び/又は後方を所定時刻に撮影した画像と、前記所定時刻における前記搭載車両の位置を示す第1位置情報とを紐付けた前記検出情報を予め蓄積する記憶部と、
前記道路情報の配信先の車両の位置を示す第2位置情報に基づいて、前記道路情報の配信先の車両の位置に関する所定範囲内の位置を示す前記第1位置情報が紐付けられた前記画像に対する画像認識処理を実行する画像認識部と、
前記画像認識処理の結果に基づく判断により、前記所定範囲に関する前記道路情報を生成する判断部と、を備え、
前記画像認識部は、前記画像に含まれる車両と、車線と車線の境界線である車線境界線とを認識し、
前記判断部は、前記画像に含まれる車両に基づいて車間距離を推定するとともに、前記画像に含まれる前記車線境界線の位置に基づいて、複数の車線のうち前記搭載車両が位置する車線を判断し、前記車間距離と前記搭載車両が位置する車線に基づいて車線毎の車両の混雑度を示す前記道路情報を生成することを特徴とする道路情報配信装置。
A road information distribution device that can communicate with an in-vehicle terminal and distributes road information based on the detection information by collecting detection information from the in-vehicle terminal.
The detection information that links the image of the front and / or rear of the mounted vehicle on which the in-vehicle terminal is mounted at a predetermined time with the first position information indicating the position of the mounted vehicle at the predetermined time is accumulated in advance. Memory part to do
Based on the second position information indicating the position of the vehicle to which the road information is distributed, the image associated with the first position information indicating the position within a predetermined range regarding the position of the vehicle to which the road information is distributed. An image recognition unit that executes image recognition processing for
A determination unit for generating the road information regarding the predetermined range based on the determination based on the result of the image recognition process is provided.
The image recognition unit recognizes the vehicle included in the image and the lane boundary line which is the boundary line between lanes.
The determination unit estimates the inter-vehicle distance based on the vehicle included in the image, and determines the lane in which the mounted vehicle is located among the plurality of lanes based on the position of the lane boundary line included in the image. A road information distribution device, which generates road information indicating the degree of congestion of vehicles in each lane based on the inter-vehicle distance and the lane in which the mounted vehicle is located.
車載端末が搭載された搭載車両の前方及び/又は後方を所定時刻に撮影した画像と、前記所定時刻における前記搭載車両の位置を示す第1位置情報とを紐付けた検出情報に基づく道路情報の配信を支援するコンピュータで実行されるプログラムであって、
前記車載端末で取得される前記検出情報を予め蓄積する第1機能と、
前記道路情報の配信先の車両の位置を示す第2位置情報に基づいて、前記道路情報の配信先の車両の位置に関する所定範囲内の位置を示す前記第1位置情報が紐付けられた前記画像に対する画像認識処理を実行する第2機能と、
前記画像認識処理の結果に基づく判断により、前記所定範囲に関する前記道路情報を生成する第3機能と、をコンピュータに実現させ、
前記第2機能は、前記画像に含まれる車両と、車線と車線の境界線である車線境界線とを認識する第1処理を実行し、
前記第3機能は、前記画像に含まれる車両に基づいて車間距離を推定するとともに、前記画像に含まれる前記車線境界線の位置に基づいて、複数の車線のうち前記搭載車両が位置する車線を判断し、前記車間距離と前記搭載車両が位置する車線に基づいて車線毎の車両の混雑度を示す前記道路情報を生成する第2処理を実行することを特徴とするプログラム。
Road information based on detection information that links an image of the front and / or rear of the mounted vehicle on which the in-vehicle terminal is mounted at a predetermined time with the first position information indicating the position of the mounted vehicle at the predetermined time. A program that runs on a computer that supports distribution
The first function of accumulating the detection information acquired by the in-vehicle terminal in advance and
Based on the second position information indicating the position of the vehicle to which the road information is distributed, the image associated with the first position information indicating the position within a predetermined range regarding the position of the vehicle to which the road information is distributed. The second function to execute image recognition processing for
Based on the judgment based on the result of the image recognition process, the computer is realized with the third function of generating the road information regarding the predetermined range.
The second function executes the first process of recognizing the vehicle included in the image and the lane boundary line which is the boundary line between lanes.
The third function estimates the inter-vehicle distance based on the vehicle included in the image, and based on the position of the lane boundary line included in the image, determines the lane in which the mounted vehicle is located among a plurality of lanes. A program characterized by executing a second process of determining and generating the road information indicating the degree of congestion of vehicles in each lane based on the inter-vehicle distance and the lane in which the mounted vehicle is located.
JP2019172600A 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program Active JP7165110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019172600A JP7165110B2 (en) 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172600A JP7165110B2 (en) 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program

Publications (2)

Publication Number Publication Date
JP2021051423A true JP2021051423A (en) 2021-04-01
JP7165110B2 JP7165110B2 (en) 2022-11-02

Family

ID=75157943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172600A Active JP7165110B2 (en) 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program

Country Status (1)

Country Link
JP (1) JP7165110B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021488A (en) * 1996-07-05 1998-01-23 Hitachi Ltd Method for estimating congested block and device therefor
JP2012117829A (en) * 2010-11-29 2012-06-21 Denso Corp Prediction device
JP2015076078A (en) * 2013-10-11 2015-04-20 パイオニア株式会社 Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program
JP2018018424A (en) * 2016-07-29 2018-02-01 パイオニア株式会社 Information processing device, control method, program and storage medium
JP2018190232A (en) * 2017-05-09 2018-11-29 矢崎エナジーシステム株式会社 On-vehicle unit
JP2019067018A (en) * 2017-09-29 2019-04-25 日本精機株式会社 Display device for vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021488A (en) * 1996-07-05 1998-01-23 Hitachi Ltd Method for estimating congested block and device therefor
JP2012117829A (en) * 2010-11-29 2012-06-21 Denso Corp Prediction device
JP2015076078A (en) * 2013-10-11 2015-04-20 パイオニア株式会社 Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program
JP2018018424A (en) * 2016-07-29 2018-02-01 パイオニア株式会社 Information processing device, control method, program and storage medium
JP2018190232A (en) * 2017-05-09 2018-11-29 矢崎エナジーシステム株式会社 On-vehicle unit
JP2019067018A (en) * 2017-09-29 2019-04-25 日本精機株式会社 Display device for vehicle

Also Published As

Publication number Publication date
JP7165110B2 (en) 2022-11-02

Similar Documents

Publication Publication Date Title
JP6200421B2 (en) Driving support system and driving support method
US9604648B2 (en) Driver performance determination based on geolocation
CN106611512B (en) Method, device and system for processing starting of front vehicle
US10521749B2 (en) Risk information processing method and server device
US20050096838A1 (en) Method for recognizing traveling lane and making lane change
JP4845876B2 (en) Road landscape map creation device, method and program
CN108460968A (en) A kind of method and device obtaining traffic information based on car networking
US11189162B2 (en) Information processing system, program, and information processing method
JP7103201B2 (en) Information processing systems, programs, and information processing methods
JP2023171455A (en) Route prediction device, in-vehicle device therewith, route prediction system, route prediction method, and computer program
KR102257078B1 (en) Fog detection device using coordinate system and method thereof
JP7165110B2 (en) road information distribution system, road information distribution device, road information distribution program
JP6431261B2 (en) Operation information management system
JP7347502B2 (en) Traffic jam information providing device, traffic jam information processing method and program
JP2014074627A (en) Navigation system for vehicle
JP7049289B2 (en) Information gathering equipment, information gathering methods, information gathering programs and recording media
CN114255526A (en) Driving evaluation device, driving evaluation system, and recording medium
JP6998237B2 (en) Server device, image collection method, and image acquisition system
CN113850111A (en) Road condition identification method and system based on semantic segmentation and neural network technology
JP2022056153A (en) Temporary stop detection device, temporary stop detection system, and temporary stop detection program
KR102414012B1 (en) An Apparatus for determining section over-speed, and system and method therefor
CN114495481A (en) Road condition determination method and device, electronic equipment and computer readable storage medium
KR102499023B1 (en) Apparatus and method for determining traffic flow by lane
US20220157169A1 (en) Information processing apparatus, information processing system, information processing method, and non-transitory storage medium
KR102496824B1 (en) Method of constructing map information using aerial image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211125

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7165110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150