JP7165110B2 - road information distribution system, road information distribution device, road information distribution program - Google Patents

road information distribution system, road information distribution device, road information distribution program Download PDF

Info

Publication number
JP7165110B2
JP7165110B2 JP2019172600A JP2019172600A JP7165110B2 JP 7165110 B2 JP7165110 B2 JP 7165110B2 JP 2019172600 A JP2019172600 A JP 2019172600A JP 2019172600 A JP2019172600 A JP 2019172600A JP 7165110 B2 JP7165110 B2 JP 7165110B2
Authority
JP
Japan
Prior art keywords
vehicle
information
road information
image
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019172600A
Other languages
Japanese (ja)
Other versions
JP2021051423A (en
Inventor
維瀚 孫
英一郎 林
千紗 平川
亮 大友
憲介 夜久
稔 藤田
貴博 南
昇平 山本
綾子 大野
昭行 谷沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Information Systems Japan Corp
Original Assignee
Toshiba Information Systems Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Information Systems Japan Corp filed Critical Toshiba Information Systems Japan Corp
Priority to JP2019172600A priority Critical patent/JP7165110B2/en
Publication of JP2021051423A publication Critical patent/JP2021051423A/en
Application granted granted Critical
Publication of JP7165110B2 publication Critical patent/JP7165110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、道路情報を配信する技術に関する。 The present invention relates to technology for distributing road information.

従来、複数の車両から画像データや位置情報を取得し、取得した画像データや位置情報に基づいて道路情報を各車両に配信するシステムがある。各車両では、配信された道路情報を参照することにより、例えば道路の混雑状況を把握することができる。 Conventionally, there is a system that acquires image data and position information from a plurality of vehicles and distributes road information to each vehicle based on the acquired image data and position information. By referring to the distributed road information, each vehicle can grasp, for example, the state of congestion on the road.

特開2014-191578号公報JP 2014-191578 A 特開2007-071579号公報JP 2007-071579 A

複数の車両から検出情報を収集し、検出情報に基づいて道路状況を示す道路情報を各車両に配信する道路情報配信システムを提供する。 Provided is a road information distribution system that collects detection information from a plurality of vehicles and distributes road information indicating road conditions to each vehicle based on the detection information.

実施形態の道路情報配信システムは、検出情報を取得する車載端末と、車載端末と通信可能であり、検出情報に基づく道路情報を配信する管理装置と、を含む道路情報配信システムである。車載端末は、車載端末が搭載された搭載車両の前方及び/又は後方を撮影して画像を取得する第1センサ機器と、搭載車両の位置を示す第1位置情報を取得する第2センサ機器と、所定時刻に取得される画像と、所定時刻に取得される第1位置情報とを紐付けた検出情報を取得する検出情報取得部と、を備える。管理装置は、検出情報を予め蓄積する記憶部と、道路情報の配信先の車両の位置を示す第2位置情報に基づいて、道路情報の配信先の車両の位置に関する所定範囲内の位置を示す第1位置情報が紐付けられた画像に対する画像認識処理を実行する画像認識部と、画像認識処理の結果に基づく判断により、所定範囲に関する道路情報を生成する判断部と、を備える。画像認識部は、画像に含まれる歩行者を認識するとともに、歩行者の顔を認識する。判断部は、歩行者の位置および人数を推定するとともに、歩行者の顔に基づいて歩行者の特性を推定し、歩行者の位置および人数と歩行者の特性を示す道路情報を生成する。 A road information distribution system according to an embodiment is a road information distribution system that includes an in-vehicle terminal that acquires detection information and a management device that can communicate with the in-vehicle terminal and distributes road information based on the detection information. The in-vehicle terminal includes a first sensor device that acquires an image by photographing the front and/or rear of the vehicle on which the in-vehicle terminal is mounted, and a second sensor device that acquires first position information indicating the position of the vehicle. and a detection information acquiring unit that acquires detection information that associates an image acquired at a predetermined time with the first position information acquired at the predetermined time. The management device indicates a position within a predetermined range regarding the position of the vehicle to which the road information is to be distributed, based on the storage unit that stores the detection information in advance and the second position information that indicates the position of the vehicle to which the road information is to be distributed. An image recognition unit that executes image recognition processing on an image associated with the first position information, and a judgment unit that generates road information about a predetermined range based on judgment based on the result of the image recognition processing. The image recognition unit recognizes a pedestrian included in the image and also recognizes the face of the pedestrian. The determination unit estimates the positions and number of pedestrians, estimates the characteristics of the pedestrians based on the faces of the pedestrians, and generates road information indicating the positions and the number of pedestrians and the characteristics of the pedestrians.

第1実施形態の道路情報配信システムのネットワーク構成図である。1 is a network configuration diagram of a road information distribution system according to a first embodiment; FIG. 第1実施形態の道路情報配信システムの機能ブロック図である。1 is a functional block diagram of a road information distribution system according to a first embodiment; FIG.

以下、実施形態につき、図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.

(第1実施形態)
図1は、本実施形態の道路情報配信システムのネットワーク構成図である。道路情報配信システムは、車載端末100と、管理装置200(道路情報配信装置に相当する)とを含んで構成される。車載端末100及び管理装置200は、IP網などのネットワークを介して無線で接続される。車載端末100は、例えば自動車や原動機付自転車といった車両に搭載される。管理装置200は、例えば、道路交通状況を管理する道路交通管制センタ等に設けられる。車載端末100は、車載端末100が搭載された車両(以下、搭載車両という)に関する検出情報を取得し、管理装置200に送信する。検出情報は、後述するように、車両の位置情報や車両に搭載されたカメラで撮影された画像データ等を含む。
(First embodiment)
FIG. 1 is a network configuration diagram of the road information distribution system of this embodiment. The road information distribution system includes an in-vehicle terminal 100 and a management device 200 (corresponding to a road information distribution device). The in-vehicle terminal 100 and the management device 200 are wirelessly connected via a network such as an IP network. The in-vehicle terminal 100 is mounted in a vehicle such as an automobile or a motorized bicycle. The management device 200 is provided, for example, in a road traffic control center that manages road traffic conditions. The in-vehicle terminal 100 acquires detection information regarding a vehicle in which the in-vehicle terminal 100 is mounted (hereinafter referred to as a mounted vehicle), and transmits the detected information to the management device 200 . The detection information includes vehicle position information, image data captured by a camera mounted on the vehicle, and the like, as will be described later.

管理装置200には、複数の搭載車両から、車載端末100によって取得された検出情報が送信される。管理装置200は、各搭載車両から受信した検出情報を蓄積することができる。管理装置200は、各搭載車両から受信した検出情報に基づく解析処理を実行し、各搭載車両が走行する道路の状況(交通状況)を把握するための道路情報を生成する。管理装置200は、道路情報を各搭載車両に対して配信する。言い換えると、搭載車両は、道路情報を生成するための検出情報を取得するセンサとして機能するプローブカーである。 Detection information acquired by the in-vehicle terminal 100 is transmitted to the management device 200 from a plurality of vehicles. The management device 200 can accumulate detection information received from each on-board vehicle. The management device 200 executes analysis processing based on the detection information received from each mounted vehicle, and generates road information for grasping the conditions (traffic conditions) of the roads on which each mounted vehicle travels. The management device 200 distributes road information to each mounted vehicle. In other words, the equipped vehicle is a probe car that functions as a sensor that acquires detection information for generating road information.

図2は、道路情報配信システムの機能ブロック図である。車載端末100は、制御部110と、センサユニット120と、記憶部130と、通信部140と、出力部150とを備える。記憶部130は、各種情報を記憶する。通信部140は、管理装置200との間の通信制御を行う。 FIG. 2 is a functional block diagram of the road information distribution system. The in-vehicle terminal 100 includes a control section 110 , a sensor unit 120 , a storage section 130 , a communication section 140 and an output section 150 . The storage unit 130 stores various information. The communication unit 140 controls communication with the management device 200 .

制御部110は、検出情報取得部111を備える。検出情報取得部111は、後述する取得設定情報に従って、搭載車両に関する検出情報を取得する。検出情報取得部111は、センサユニット120から出力される情報を検出情報として収集する。また、検出情報取得部111は、搭載車両に既に搭載されている機器によって検出される情報を検出情報として収集することもできる。例えば、検出情報取得部111は、ブレーキペダルのON/OFFに関する情報、ワイパーのON/OFFに関する情報、外気温センサで検出した気温に関する情報、走行速度に関する情報などを検出情報として収集する。 The control unit 110 has a detection information acquisition unit 111 . The detection information acquisition unit 111 acquires detection information related to the equipped vehicle according to acquisition setting information described later. The detection information acquisition unit 111 collects information output from the sensor unit 120 as detection information. The detection information acquisition unit 111 can also collect information detected by devices already installed in the vehicle as detection information. For example, the detection information acquisition unit 111 collects, as detection information, information regarding ON/OFF of the brake pedal, information regarding ON/OFF of the wiper, information regarding temperature detected by an outside air temperature sensor, information regarding traveling speed, and the like.

センサユニット120は、カメラ121(第1センサ機器に相当する)と、GPS(Global Positioning System)センサ122(第2センサ機器に相当する)とを有する。カメラ121は、搭載車両の前方及び/又は後方を撮影することができるように設けられている。カメラ121は、複数設けることができる。カメラ121は、撮影によって画像データを生成する。例えば、カメラ121は、可視光カメラ、近赤外線カメラ、赤外線カメラなどである。GPSセンサ122は、車両の位置情報(第1位置情報に相当する)を取得する。画像データや位置情報は、検出情報として検出情報取得部111に出力される。 The sensor unit 120 has a camera 121 (corresponding to first sensor equipment) and a GPS (Global Positioning System) sensor 122 (corresponding to second sensor equipment). The camera 121 is provided so as to be able to photograph the front and/or rear of the mounted vehicle. A plurality of cameras 121 can be provided. The camera 121 generates image data by photographing. For example, the camera 121 is a visible light camera, a near-infrared camera, an infrared camera, or the like. The GPS sensor 122 acquires vehicle position information (corresponding to first position information). Image data and position information are output to the detection information acquisition unit 111 as detection information.

出力部150は、管理装置200から提供される道路情報を各出力機器によって搭載車両の乗員に伝達する。出力部150は、例えばディスプレイ(表示部)やスピーカを有し、管理装置200から提供される道路情報を表示したり、道路情報に基づいて音声を出力したりする。 The output unit 150 transmits the road information provided from the management device 200 to the occupants of the mounted vehicle through each output device. The output unit 150 has, for example, a display (display unit) and a speaker, and displays road information provided from the management device 200 and outputs audio based on the road information.

記憶部130には、検出情報取得部111が所定の検出情報を取得するための取得設定情報が記憶されている。取得設定情報は、取得条件情報と、取得条件情報に対応する指定情報とを含む。取得条件情報は、検出情報を取得する条件を規定した情報である。指定情報は、取得する検出情報を規定した情報である。取得条件情報と指定情報は、それぞれ、検出情報で規定されている。 Acquisition setting information for the detection information acquisition unit 111 to acquire predetermined detection information is stored in the storage unit 130 . The acquisition setting information includes acquisition condition information and designation information corresponding to the acquisition condition information. Acquisition condition information is information that defines conditions for acquiring detection information. The designation information is information that defines detection information to be acquired. Acquisition condition information and designation information are each defined in detection information.

車載端末100で検出情報を取得する処理について説明する。検出情報取得部111は、取得条件情報に規定された検出情報が検出されると、その検出情報を取得するとともに、指定情報に規定された検出情報を取得する。検出情報取得部111は、取得設定情報に基づいて、少なくとも所定時刻(後述する検出時刻)における画像データと、所定時刻における位置情報とを取得する。 A process of acquiring detection information by the in-vehicle terminal 100 will be described. When the detection information specified in the acquisition condition information is detected, the detection information acquisition unit 111 acquires the detection information and also acquires the detection information specified in the designation information. The detection information acquisition unit 111 acquires at least image data at a predetermined time (detection time described later) and position information at a predetermined time based on the acquisition setting information.

例えば、取得条件情報に「位置情報[XXX(位置情報を示す位置座標)]」が条件として設定されているとき、指定情報には「画像データ」と「時刻」が設定されている。この場合、GPSセンサ122が位置情報[XXX]を取得するとき、カメラ121が撮影を行い、画像データを生成する。このとき、タイマー(不図示)は、時刻を計測しており、GPSセンサ122が位置情報[XXX]を取得する時刻、言い換えると、カメラ121による撮影時刻を把握することができる。ここで、位置情報を取得する時刻及び撮影時刻を検出時刻という。また、位置情報は、画像の撮影場所を示している。このようにして、検出情報取得部111は、搭載車両が所定の地点に到達したときに、所定の地点の位置情報と、画像データと、検出時刻とを紐付けて取得することができる。 For example, when "position information [XXX (position coordinates indicating position information)]" is set as a condition in the acquisition condition information, "image data" and "time" are set in the designation information. In this case, when the GPS sensor 122 acquires the position information [XXX], the camera 121 shoots and generates image data. At this time, a timer (not shown) measures the time, and can grasp the time when the GPS sensor 122 acquires the position information [XXX], in other words, the time when the camera 121 captures the image. Here, the time when the position information is acquired and the shooting time are referred to as detection time. Also, the position information indicates the shooting location of the image. In this manner, the detection information acquisition unit 111 can acquire the position information of the predetermined point, the image data, and the detection time in association with each other when the vehicle equipped with the vehicle has arrived at the predetermined point.

なお、取得条件情報には、位置情報を用いた地理範囲を設定してもよい。例えば、取得条件情報には、A地点の位置情報と、B地点の位置情報と、C地点の位置情報を用いて範囲を設定することができる。このとき、搭載車両がA~C地点で囲まれる範囲に入ると、検出情報取得部111は、上述した方法によって、各種検出情報を取得することができる。 Note that a geographic range using position information may be set in the acquisition condition information. For example, in the acquisition condition information, the range can be set using the location information of the A point, the location information of the B point, and the location information of the C point. At this time, when the mounted vehicle enters the range surrounded by points A to C, the detection information acquisition unit 111 can acquire various detection information by the method described above.

なお、取得条件情報として設定する位置情報には、例えば交差点や分岐点といった交通量が多い(混雑しやすい)地点や、事故発生地点、事故多発地点などの位置情報を設定すると、取得した検出情報に基づいて、車両の乗員が注目すべき情報を管理装置200から提供しやすくなる。 For the location information to be set as the acquisition condition information, for example, if you set location information such as intersections and junctions where traffic is heavy (easily congested), accident locations, and accident-prone locations, the acquired detection information , it becomes easier for the management device 200 to provide information that the vehicle occupants should pay attention to.

また、取得条件情報に「時刻[X時X分]」が条件として設定されているとき、指定情報には「画像データ」と「位置情報」が設定されている。この場合、タイマーで把握される時刻がX時X分になるとき、カメラ121が撮影を行って画像データを生成するとともに、GPS122が位置情報を取得する。このようにして、検出情報取得部111は、所定の時刻になるときに、この時刻(すなわち、検出時刻)と、位置情報と、画像データとを紐付けて取得することができる。なお、取得条件情報に所定時間毎に時刻を設定することで、検出情報取得部111は、所定時間毎に位置情報と、画像データと、検出時刻とを取得することができる。 Further, when "time [X hour X minute]" is set as a condition in the acquisition condition information, "image data" and "position information" are set in the designation information. In this case, when the time ascertained by the timer reaches X:X:00, the camera 121 takes a picture and generates image data, and the GPS 122 acquires position information. In this manner, the detection information acquisition unit 111 can associate and acquire the time (that is, the detection time), the position information, and the image data at a predetermined time. By setting a time in the acquisition condition information every predetermined time, the detection information acquisition unit 111 can acquire the position information, the image data, and the detection time every predetermined time.

検出情報取得部111が取得した情報は、管理装置200に送信され、管理装置200の記憶装置230(後述する)に蓄積される。 The information acquired by the detection information acquiring unit 111 is transmitted to the management device 200 and accumulated in a storage device 230 (described later) of the management device 200 .

また、取得設定情報は、管理装置200において予め設定され、車載端末100に配信される。また、取得設定情報は、車載端末100側で予め設定することもできる。取得設定情報は、任意に追加したり、変更したりすることができる。取得された検出情報は、通信部140を介して管理装置200に送信され、後述する記憶装置230に蓄積される。言い換えると、管理装置200は、車載端末100から出力される検出情報を収集する。 Acquisition setting information is set in advance in the management device 200 and distributed to the in-vehicle terminal 100 . Also, the acquired setting information can be set in advance on the in-vehicle terminal 100 side. Acquisition setting information can be arbitrarily added or changed. The acquired detection information is transmitted to the management device 200 via the communication unit 140 and accumulated in the storage device 230, which will be described later. In other words, the management device 200 collects detection information output from the in-vehicle terminal 100 .

なお、上記説明では画像データと、位置情報と、検出時刻とを用いて説明したが、検出情報取得部111は、他にも搭載車両に既に搭載されている機器によって検出される検出情報を所定の条件で取得することができる。上述した取得設定情報は一例であり、検出情報取得部111は、所定の条件で指定される所定の検出情報を取得することができればよい。 In the above explanation, the image data, the position information, and the detection time are used. can be obtained under the following conditions: The acquisition setting information described above is just an example, and the detection information acquisition unit 111 only needs to be able to acquire predetermined detection information specified under predetermined conditions.

管理装置200は、通信装置210と、制御装置220と、記憶装置230とを備える。通信装置210は、車載端末100との間の通信制御を行う。記憶装置230には、車載端末100から受信した検出情報が記憶されている。制御装置220は、判定部221と、道路情報配信部222とを有する。判定部221は、後述する各種判定処理を実行し、判定処理の結果である道路情報を生成する。道路情報配信部222は、生成された道路情報を配信する。 The management device 200 includes a communication device 210 , a control device 220 and a storage device 230 . The communication device 210 controls communication with the in-vehicle terminal 100 . The storage device 230 stores detection information received from the in-vehicle terminal 100 . The control device 220 has a determination section 221 and a road information distribution section 222 . The determination unit 221 executes various types of determination processing, which will be described later, and generates road information as a result of the determination processing. The road information distribution unit 222 distributes the generated road information.

判定部221は、画像認識部2211と、判断部2212とを有する。画像認識部2211は、検出情報として記憶装置230に蓄積された画像データに対し、画像認識処理を実行する。判断部2212は、画像認識処理の結果に基づく判断処理を実行し、各種道路情報を生成する。判定部221は、車線混雑度判定処理、路面状態判定処理、歩行者判定処理(後述する)を実行する。道路情報としては、車線混雑度情報、路面状態情報、歩行者情報とが挙げられる。 The determination unit 221 has an image recognition unit 2211 and a determination unit 2212 . The image recognition unit 2211 performs image recognition processing on image data accumulated in the storage device 230 as detection information. The determination unit 2212 executes determination processing based on the result of image recognition processing and generates various types of road information. The determination unit 221 executes lane congestion degree determination processing, road surface state determination processing, and pedestrian determination processing (to be described later). Road information includes lane congestion degree information, road surface condition information, and pedestrian information.

車線混雑度判定処理について説明する。車線混雑度判定処理は、車線ごとの車両の混雑度を判定するための処理である。車線混雑度判定処理は、混雑度判定処理と、車線認識処理とを含む。 The lane congestion degree determination processing will be described. The lane congestion level determination process is a process for determining the vehicle congestion level for each lane. The lane congestion degree determination processing includes congestion degree determination processing and lane recognition processing.

まず、混雑度判定処理について説明する。画像認識部2211は、検出情報として収集された画像データに対する画像認識処理を実行する。例えば、画像認識部2211は、前方車両を認識するための車両検出辞書(以下、車両検出辞書という)に基づいて画像認識処理を実行する。例えば、車両検出辞書には、車両の輪郭、窓枠、バンパー、タイヤなどの車両の特徴部分を記述する特徴量が含まれる。車両検出辞書は、例えば記憶装置230に記憶されている。 First, the congestion degree determination process will be described. The image recognition unit 2211 performs image recognition processing on image data collected as detection information. For example, the image recognition unit 2211 executes image recognition processing based on a vehicle detection dictionary (hereinafter referred to as a vehicle detection dictionary) for recognizing forward vehicles. For example, the vehicle detection dictionary includes feature quantities that describe features of the vehicle such as the outline of the vehicle, window frames, bumpers, and tires. A vehicle detection dictionary is stored, for example, in the storage device 230 .

画像認識部2211は、搭載車両から収集した画像に特徴量抽出処理を施して得られる特徴量画像と、車両検出辞書とのマッチングにより、画像認識処理を実行する。これにより、画像認識部2211は、画像において前方車両の特徴部分が占める領域を認識する。判断部2212は、画像における前方車両の特徴部分が占める領域の大きさまたは車両が路面に接地する位置に基づいて、搭載車両と搭載車両の前方の車両との間の距離、すなわち車間距離を推定する。なお、同様にして搭載車両と搭載車両の後方の車両との車間距離を推定することもできる。なお、車間距離を推定する方法は、既存の他の方法でもよい。 The image recognition unit 2211 performs image recognition processing by matching a feature amount image obtained by performing feature amount extraction processing on an image collected from a mounted vehicle and a vehicle detection dictionary. Thereby, the image recognition unit 2211 recognizes the area occupied by the characteristic portion of the forward vehicle in the image. Based on the size of the area occupied by the characteristic portion of the forward vehicle in the image or the position where the vehicle touches the road surface, the determination unit 2212 estimates the distance between the equipped vehicle and the vehicle ahead of the equipped vehicle, that is, the inter-vehicle distance. do. It should be noted that the inter-vehicle distance between the mounted vehicle and the vehicle behind the mounted vehicle can be similarly estimated. Note that other existing methods may be used to estimate the inter-vehicle distance.

例えば、判断部2212は、推定した車間距離が短ければ短いほど混雑度が高いと判断することができる。判断部2212は、推定した車間距離が長ければ長いほど混雑度が低いと判断することができる。 For example, the determination unit 2212 can determine that the shorter the estimated inter-vehicle distance, the higher the degree of congestion. The determination unit 2212 can determine that the longer the estimated inter-vehicle distance, the lower the degree of congestion.

次に、車線認識処理について説明する。画像認識部2211は、検出情報として収集された画像データに対する画像認識処理を実行する。例えば、画像認識部2211は、車線を認識するための線分検出処理および車線境界線の幅、色などの条件および車線の幅に関する条件、テンプレート画像(以下、車線テンプレート画像という)に基づいて画像認識処理を実行する。車線境界線の条件は、例えば記憶装置230に記憶されている。 Next, lane recognition processing will be described. The image recognition unit 2211 performs image recognition processing on image data collected as detection information. For example, the image recognition unit 2211 performs line segment detection processing for recognizing lanes, conditions such as the width and color of lane boundary lines, conditions related to the width of lanes, and a template image (hereinafter referred to as a lane template image). Execute the recognition process. The lane boundary conditions are stored in the storage device 230, for example.

ここで、道路には車線と車線の間の境界を規定する車線境界線が引かれている。したがって、カメラ121が撮影した画像における車線境界線の位置は、搭載車両が位置する車線に応じて異なる。例えば、搭載車両が左側車線に位置するとき、車線境界線は、車両の前方を撮影した画像において右側に位置する。例えば、搭載車両が右側車線に位置するとき、車線境界線は、車両の前方を撮影した画像において左側に位置する。例えば、搭載車両が中央車線に位置するとき、車線境界線は、車両の前方を撮影した画像において左右の両側に位置する。そこで、車線境界線の条件には、上述した画像それぞれに対して用意されている。 Here, lane boundary lines that define boundaries between lanes are drawn on the road. Therefore, the position of the lane boundary line in the image captured by the camera 121 differs according to the lane in which the mounted vehicle is located. For example, when the mounted vehicle is positioned in the left lane, the lane boundary line is positioned on the right side in the image taken in front of the vehicle. For example, when the mounted vehicle is positioned in the right lane, the lane boundary line is positioned on the left side in the image taken in front of the vehicle. For example, when the on-board vehicle is positioned in the center lane, the lane boundary lines are positioned on both the left and right sides in the image taken in front of the vehicle. Therefore, lane boundary line conditions are prepared for each of the images described above.

画像認識部2211は、搭載車両から収集した画像と、その画像に線分検出処理を施した結果と、車線境界線の条件とのマッチングにより、画像認識処理を実行する。これにより、判断部2212は、搭載車両から収集した画像における車線境界線の位置を把握する。そして、判断部2212は、車線境界線の位置に基づいて、複数の車線のうち、搭載車両が位置する車線を判断することができる。なお、車線を認識する方法は、既存の他の方法でもよい。 The image recognition unit 2211 performs image recognition processing by matching the image collected from the mounted vehicle, the result of performing the line segment detection processing on the image, and the condition of the lane boundary line. Thereby, the determination unit 2212 grasps the position of the lane boundary line in the image collected from the equipped vehicle. Then, the determination unit 2212 can determine the lane in which the mounted vehicle is located, among the plurality of lanes, based on the position of the lane boundary line. Note that other existing methods may be used to recognize lanes.

上述したように混雑度とともに車線を把握することで、車線ごとの混雑度を判定することができる。車線ごとの混雑度は、後述するように車載端末100から送信されるリクエスト情報に応じて、車載端末100に配信される。なお、混雑度判定処理では、走行速度を考慮してもよい。例えば、画像データとともに搭載車両の走行速度に関する情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、走行速度を考慮して混雑度を判断することができる。これにより、車間距離が短くても走行速度が速い場合や車間距離が長くても走行速度が遅い場合など、車間距離と走行速度の両方に基づいて混雑度を判定することができる。同様に、ブレーキペダルのON/OFFに関する情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、ブレーキペダルのON/OFFを考慮して混雑度を判断することができる。例えば、ブレーキペダルがONの時間が長いときや、ブレーキペダルがONになった回数が多いときは、混雑度が高いと判断することができる。 By grasping the lane along with the degree of congestion as described above, the degree of congestion for each lane can be determined. The degree of congestion for each lane is distributed to the vehicle-mounted terminal 100 according to request information transmitted from the vehicle-mounted terminal 100 as described later. In addition, in the congestion degree determination process, the traveling speed may be taken into consideration. For example, when information about the travel speed of the vehicle equipped with the image data is stored as the detection information in the storage device 230, the determination unit 2212 can determine the degree of congestion in consideration of the travel speed. As a result, the degree of congestion can be determined based on both the inter-vehicle distance and the traveling speed, such as when the inter-vehicle distance is short but the traveling speed is fast, or when the inter-vehicle distance is long but the traveling speed is slow. Similarly, when information about ON/OFF of the brake pedal is accumulated in the storage device 230 as detection information, the determination unit 2212 can determine the degree of congestion in consideration of ON/OFF of the brake pedal. For example, when the brake pedal is ON for a long time or when the brake pedal is ON many times, it can be determined that the degree of congestion is high.

路面状態判定処理について説明する。路面状態判定処理は、道路の路面の状態を判定するための処理である。路面の状態としては、積雪の状態や路面凍結の状態が挙げられる。路面状態判定処理は、積雪状態判定処理と、凍結状態判定処理とを含む。 Road surface condition determination processing will be described. The road surface condition determination process is a process for determining the condition of the road surface. Examples of road surface conditions include a snow-covered condition and a frozen road surface condition. The road surface state determination process includes a snow state determination process and a frozen state determination process.

まず、積雪状態判定処理について説明する。画像認識部2211は、検出情報として収集された画像データに対する画像認識処理を実行する。例えば、画像認識部2211は、路面状態を認識するためのテンプレート画像(以下、路面状態テンプレート画像という)に基づいて画像認識処理を実行する。路面状態テンプレート画像は、例えば記憶装置230に記憶されている。 First, the snow cover state determination processing will be described. The image recognition unit 2211 performs image recognition processing on image data collected as detection information. For example, the image recognition unit 2211 executes image recognition processing based on a template image for recognizing the road surface condition (hereinafter referred to as a road surface condition template image). The road surface condition template image is stored in the storage device 230, for example.

ここで、積雪時の道路は、無積雪時の(積雪していない)道路に比べて、白色の割合が雪によって増加する。したがって、積雪時の道路を撮影した画像と無積雪時の道路を撮影した画像とを比較すると、積雪時の道路を撮影した画像の方が、白色の画素(白色を示す領域)が多くなる。そこで、路面状態テンプレート画像には、無積雪時の道路を撮影した画像が用意されている。 Here, the snow-covered road has an increased percentage of white due to the snow compared to the non-snow-covered road (not covered with snow). Therefore, when comparing an image of a road with snow and an image of a road without snow, the image of the road with snow has more white pixels (white areas). Therefore, an image of a road without snow is prepared for the road surface condition template image.

画像認識部2211は、搭載車両から収集した画像を、路面テンプレート画像から探索し比較することにより、画像認識処理を実行する。これにより、判断部2212は、搭載車両から収集した画像と、路面テンプレート画像との差分から積雪によって白色に変化した領域を把握することができる。判断部2212は、白色に変化した領域に基づいて、積雪の有無を判断することができる。 The image recognition unit 2211 executes image recognition processing by searching and comparing images collected from the vehicle equipped with the road surface template image. Thereby, the determination unit 2212 can grasp the area that has changed to white due to snow accumulation from the difference between the image collected from the vehicle equipped with the road surface template image and the road surface template image. The determination unit 2212 can determine the presence or absence of snow cover based on the area that has changed to white.

ここで、雪は路面から上方(路面から離れる方向)に向かって積もるため、路面において積雪している領域の上方には、積雪していない空間がある。積雪していない空間は、雪による発色がないため、白色になっていない。したがって、判断部2212は、積雪時に撮影された画像において、下方から順に検出される白色の領域に基づいて、積雪の深さ(例えば積雪深)を推定することができる。ここで、積雪深は、cmなどの単位で積雪の深さを表すことができる。なお、上記説明では、雪が白色に発色するものとして説明したが、雪によって発色する色を予め設定することで、予め設定された色の領域を積雪している領域として検出し、積雪している深さを判定することができる。このようにして、判定部211は、積雪状態判定処理の結果として積雪情報を生成する。なお、積雪の深さを推定する方法は、既存の他の方法でもよい。 Here, since snow accumulates upward (in the direction away from the road surface) from the road surface, there is a space where snow is not covered above the snow-covered area on the road surface. A space without snow is not white because it is not colored by snow. Therefore, the determination unit 2212 can estimate the depth of snow cover (for example, the depth of snow cover) based on the white areas sequentially detected from below in the image captured during snow cover. Here, the snow depth can represent the depth of snow in units such as cm. In the above description, it is assumed that the snow is colored white. By presetting the color that is colored by the snow, an area of the preset color is detected as an area covered with snow, and the area is covered with snow. Depth can be determined. In this manner, the determination unit 211 generates snow cover information as a result of the snow cover state determination process. Note that other existing methods may be used to estimate the depth of snow cover.

次に、凍結状態判定処理について説明する。凍結した路面は、凍結していない路面に比べると、より暗い色に発色する。そこで、路面テンプレート画像には、凍結していない路面を撮影した画像が用意されている。 Next, the frozen state determination processing will be described. Frozen road surfaces develop a darker color than non-frozen road surfaces. Therefore, an image of a non-frozen road surface is prepared as the road surface template image.

画像認識部2211は、搭載車両から収集した画像と、路面テンプレート画像とのマッチングにより、画像認識処理を実行する。これにより、判断部2212は、搭載車両から収集した画像と、路面テンプレート画像との差分から凍結によって色が暗く変化した領域を把握することができる。このとき、判断部2212は、色が暗く変化した領域において、画素値が所定値以上変化したときに、路面が凍結したと判断(推定)する。これにより、画像認識部2211は、路面の凍結の有無を判定することができる。このようにして、判定部211は、凍結状態判定処理の結果として凍結情報を生成する。なお、凍結の有無を判定する方法は、既存の他の方法でもよい。 The image recognition unit 2211 performs image recognition processing by matching the image collected from the equipped vehicle and the road surface template image. Accordingly, the determination unit 2212 can grasp the area where the color has changed to dark due to freezing from the difference between the image collected from the vehicle equipped with the road surface template image. At this time, the determination unit 2212 determines (estimates) that the road surface is frozen when the pixel value changes by a predetermined value or more in the area where the color has changed to dark. Accordingly, the image recognition unit 2211 can determine whether or not the road surface is frozen. Thus, the determination unit 211 generates frozen information as a result of the frozen state determination process. Note that other existing methods may be used to determine whether or not there is freezing.

なお、路面テンプレート画像は、路面に積雪や凍結の影響がない晴天時などに予め所定の位置情報で示される地点で撮影された画像を用意している。路面テンプレート画像には、撮影場所を示す位置情報が紐付けられている。例えば、画像認識部2211は、路面テンプレート画像に紐づく位置情報と、搭載車両から得られた画像データに紐づく位置情報とが一致するとき、路面状態判定処理を実行することができる。例えば、路面テンプレート画像と、路面テンプレート画像に紐づく位置情報は、予め搭載車両から収集したものでもよい。路面テンプレート画像と、路面テンプレート画像に紐づく位置情報は、例えば記憶装置230に記憶されている。 The road surface template image is an image taken at a point indicated by predetermined position information in advance, such as when the weather is clear and the road surface is not affected by snow or ice. The road surface template image is associated with position information indicating the shooting location. For example, the image recognition unit 2211 can execute the road surface condition determination process when the position information associated with the road surface template image matches the position information associated with the image data obtained from the vehicle equipped with the road surface template image. For example, the road surface template image and the position information linked to the road surface template image may be collected in advance from the vehicle equipped with the road surface template image. The road surface template image and the position information associated with the road surface template image are stored in the storage device 230, for example.

なお、路面状態判定処理では、外気温センサで検出した気温に関する情報(気温情報)やワイパーのON/OFFに関する情報を考慮してもよい。画像データとともに気温情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、画像認識の結果に加えて気温を考慮した判断を行うことができる。例えば、気温が所定値以下のとき、判断部2212は、画像認識の結果を踏まえて路面が凍結していることを追加的に判断する。同様にして、判断部2212は、積雪があることを追加的に判断することもできる。また、画像データとともにワイパーのON/OFFに関する情報が検出情報として記憶装置230に蓄積されている場合、判断部2212は、画像認識の結果に加えてワイパーのON/OFFを考慮した判断を行うことができる。例えば、ワイパーがONであるとき、判断部2212は、雪が降っていると判断し、画像認識の結果を踏まえて積雪があることを追加的に判断することができる。 In addition, in the road surface state determination processing, information regarding the temperature detected by the outside air temperature sensor (temperature information) and information regarding ON/OFF of the wiper may be taken into consideration. When temperature information is accumulated in the storage device 230 as detection information together with image data, the judgment unit 2212 can make a judgment considering the temperature in addition to the result of image recognition. For example, when the air temperature is equal to or lower than a predetermined value, the determination unit 2212 additionally determines that the road surface is frozen based on the result of image recognition. Similarly, the determination unit 2212 can additionally determine that there is snow cover. In addition, when information about ON/OFF of the wiper is accumulated in the storage device 230 as detection information together with the image data, the determination unit 2212 makes a determination considering the ON/OFF of the wiper in addition to the result of the image recognition. can be done. For example, when the wiper is ON, the determination unit 2212 may determine that it is snowing, and additionally determine that there is snow based on the image recognition result.

歩行者判定処理について説明する。画像認識部2211は、検出情報として収集された画像データに基づいて、搭載車両の周囲に存在する人物(以下、歩行者という)を認識するための処理を実行する。例えば、画像認識部2211は、予め学習された特徴点やパターンを含む人物検出辞書(人物検出辞書という)を用いて、撮影画像に含まれる歩行者の領域を認識する。これにより、判断部2212は、歩行者の位置と人数を推定(判断)する。同様にして、画像認識部2211は、認識された歩行者の顔に関して顔検出辞書(顔検出辞書という)を用いて顔認識処理を行うことができる。これにより、判断部2212は、撮影された歩行者の性別、年齢層、表情などの歩行者の特性を推定(判断)する。上述した画像に撮影された歩行者の人数を把握するための処理や、顔認識処理には、既存の方法を適用することができる。 Pedestrian determination processing will be described. The image recognition unit 2211 executes processing for recognizing a person (hereinafter referred to as a pedestrian) present around the vehicle based on image data collected as detection information. For example, the image recognition unit 2211 uses a person detection dictionary (referred to as a person detection dictionary) that includes pre-learned feature points and patterns to recognize a pedestrian area included in the captured image. Thereby, the determination unit 2212 estimates (determines) the positions and the number of pedestrians. Similarly, the image recognition unit 2211 can perform face recognition processing on the recognized pedestrian's face using a face detection dictionary (referred to as a face detection dictionary). Thereby, the determination unit 2212 estimates (determines) characteristics of the photographed pedestrian, such as sex, age group, facial expression, and the like. An existing method can be applied to the processing for grasping the number of pedestrians photographed in the image described above and the face recognition processing.

判断部2212は、搭載車両の周囲に存在する歩行者の人数(歩行者の位置を含めてもよい)を把握することで、搭載車両の周囲に存在する歩行者の混雑度を判断することができる。例えば、搭載車両の周囲に存在する人物の人数が所定値を超えているときには、歩行者の混雑度が高いと判断する。歩行者の人数が多ければ多いほど、判断部2212は、歩行者の混雑度が高いと判定する。歩行者の人数が少なければ少ないほど、判断部2212は、歩行者の混雑度が低いと判断する。 The determination unit 2212 can determine the degree of congestion of pedestrians present around the vehicle by grasping the number of pedestrians present around the vehicle (which may include the positions of the pedestrians). can. For example, when the number of persons present around the mounted vehicle exceeds a predetermined value, it is determined that the degree of pedestrian congestion is high. As the number of pedestrians increases, the determination unit 2212 determines that the congestion degree of pedestrians is high. The smaller the number of pedestrians, the lower the determination unit 2212 determines that the degree of pedestrian congestion is low.

また、歩行者の混雑度に加えて顔認識処理の結果を用いた判定を行うこともできる。例えば、顔認識処理の結果、歩行者における女性の割合が高いと判定され、歩行者の混雑度が高いと判定されるときは、搭載車両の周辺で女性向けのイベントが行われていることや、女性向けの観光地があることを予測できる。同様に、顔認識処理の結果、歩行者における男性の割合が高いと判定され、歩行者の混雑度が高いと判定されるときは、搭載車両の周辺で男性向けのイベントが行われていることや、男性向けの観光地があることを予測できる。搭載車両の周囲に存在する歩行者に関して判定された情報は、後述するように車載端末100から送信されるリクエスト情報に応じて、車載端末100に配信される。 Moreover, in addition to the degree of crowding of pedestrians, determination can also be made using the results of face recognition processing. For example, when it is determined that the ratio of women among pedestrians is high as a result of face recognition processing, and that the degree of pedestrian congestion is high, it is possible that an event for women is being held near the equipped vehicle. , you can predict that there are tourist destinations for women. Similarly, when it is determined that the ratio of male pedestrians is high as a result of face recognition processing, and the degree of crowding of pedestrians is high, it means that an event geared towards men is being held in the vicinity of the equipped vehicle. Or you can predict that there will be tourist destinations for men. Information determined about pedestrians existing around the vehicle is distributed to the vehicle-mounted terminal 100 in response to request information transmitted from the vehicle-mounted terminal 100 as described later.

画像認識部2211は、複数の車載端末100から得られる各画像データに対し、上述の各種判定処理(車線混雑度判定処理、路面状態判定処理、歩行者判定処理)を実行することができる。管理装置200は、各種判定処理の結果を道路情報として配信する。管理装置200は、リクエスト情報が入力されると、各種判定処理を実行する。リクエスト情報に応じて実行される判定処理は、予め設定されている。 The image recognition unit 2211 can execute the above-described various determination processes (lane congestion degree determination process, road surface state determination process, pedestrian determination process) for each image data obtained from a plurality of in-vehicle terminals 100 . The management device 200 distributes the results of various determination processes as road information. When the request information is input, the management device 200 executes various determination processes. A determination process to be executed according to the request information is set in advance.

ここで、リクエスト情報は、道路情報を要求するための情報であり、車載端末100から送信される。このとき、車載端末100は、リクエスト情報とともに位置情報(第2位置情報に相当する)を管理装置200に送信する。例えば、位置情報は、搭載車両が所定の位置に到達したときにGPSセンサ122から出力され、管理装置200に送信される。管理装置200は、リクエスト情報とともに取得した(入力された)位置情報に基づいて各種判定処理を実行する。 Here, the request information is information for requesting road information, and is transmitted from the vehicle-mounted terminal 100 . At this time, the vehicle-mounted terminal 100 transmits position information (corresponding to second position information) to the management device 200 together with the request information. For example, the position information is output from the GPS sensor 122 and transmitted to the management device 200 when the vehicle equipped with the vehicle reaches a predetermined position. The management device 200 executes various determination processes based on the position information acquired (inputted) together with the request information.

例えば、判定部221は、リクエスト情報とともに取得した位置情報に基づいて車線混雑度判定処理を実行する。判定部221は、リクエスト情報とともに取得された位置情報を基準とする所定の道路範囲内で予め撮影された画像データに基づいて、車線混雑度判定処理を実行する。具体的には、判定部221は、取得された位置情報を基準とする所定の道路範囲内の位置情報が紐付いた画像データを記憶装置230から読み出し、車線混雑度判定処理を実行する。道路情報配信部222は、車線混雑度判定処理の結果(車線混雑度情報)を道路情報として車載端末100に配信する。 For example, the determination unit 221 executes lane congestion degree determination processing based on the position information acquired together with the request information. The determination unit 221 executes lane congestion degree determination processing based on image data captured in advance within a predetermined road range based on the position information acquired together with the request information. Specifically, the determination unit 221 reads out from the storage device 230 image data linked with position information within a predetermined road range based on the acquired position information, and executes lane congestion degree determination processing. The road information distribution unit 222 distributes the result of the lane congestion degree determination process (lane congestion degree information) to the vehicle-mounted terminal 100 as road information.

配信された車線混雑度情報が車載端末100の出力部150によって搭載車両の乗員(ユーザ)に伝達される。例えば、車載端末100が地図を表示するディスプレイを有するとき、所定の道路範囲の車線混雑度情報を混雑度に応じた色分け等によって地図に反映して表示することができる。また、車載端末100がスピーカを有するとき、車線混雑度情報を音声で出力することができる。これにより、ユーザは所定範囲における車線ごとの混雑度を把握し、混雑度が低い車線を選択することができる。 The distributed lane congestion degree information is transmitted by the output unit 150 of the in-vehicle terminal 100 to the occupants (users) of the equipped vehicle. For example, when the in-vehicle terminal 100 has a display for displaying a map, lane congestion degree information for a predetermined road range can be reflected and displayed on the map by color coding according to the degree of congestion. Also, when the in-vehicle terminal 100 has a speaker, the lane congestion degree information can be output by voice. Thereby, the user can grasp the degree of congestion for each lane in a predetermined range and select a lane with a low degree of congestion.

例えば、判定部221は、リクエスト情報とともに取得した位置情報に基づいて路面状態判定処理を実行する。判定部221は、リクエスト情報とともに取得された位置情報を基準とする所定の道路範囲内で予め撮影された画像データに基づいて、路面状態判定処理を実行する。具体的には、判定部221は、取得された位置情報を基準とする所定の道路範囲内の位置情報が紐付いた画像データを記憶装置230から読み出し、路面状態判定処理を実行する。道路情報配信部222は、路面状態判定処理の結果(路面状態情報)を道路情報として車載端末100に配信する。なお、積雪状態判定処理のみを実行したり、凍結状態判定処理のみを実行したりすることもできる。 For example, the determination unit 221 executes road surface state determination processing based on the position information acquired together with the request information. The determination unit 221 executes road surface state determination processing based on image data captured in advance within a predetermined road range based on the position information acquired together with the request information. Specifically, the determination unit 221 reads out from the storage device 230 image data associated with position information within a predetermined road range based on the acquired position information, and executes road surface state determination processing. The road information distribution unit 222 distributes the road surface condition determination result (road surface condition information) to the in-vehicle terminal 100 as road information. It should be noted that it is also possible to execute only the snow-covered state determination process, or to execute only the frozen state determination process.

配信された路面状態情報が車載端末100の出力部150によって搭載車両の乗員(ユーザ)に伝達される。例えば、車載端末100が地図を表示するディスプレイを有するとき、所定の道路範囲の路面状態情報を地図に反映して表示することができる。また、車載端末100がスピーカを有するとき、路面状態情報を音声で出力してもよい。これにより、ユーザは所定の道路範囲における路面の積雪深や路面凍結の有無を把握し、走行に悪影響を与える路面状態の道路を避けることができる。 The distributed road surface condition information is transmitted by the output unit 150 of the in-vehicle terminal 100 to the occupants (users) of the equipped vehicle. For example, when the in-vehicle terminal 100 has a display for displaying a map, road surface condition information for a predetermined road range can be reflected and displayed on the map. Further, when the in-vehicle terminal 100 has a speaker, the road surface condition information may be output by voice. As a result, the user can grasp the depth of snow on the road surface and the presence or absence of frozen road surface in a predetermined road range, and can avoid roads with road surface conditions that adversely affect driving.

例えば、判定部221は、リクエスト情報とともに取得した位置情報に基づいて歩行者判定処理を実行する。判定部221は、リクエスト情報とともに取得された位置情報を基準とする所定の道路範囲内で予め撮影された画像データに基づいて、歩行者判定処理を実行する。具体的には、判定部221は、取得された位置情報を基準とする所定の道路範囲内の位置情報が紐付いた画像データを記憶装置230から読み出し、歩行者判定処理を実行する。道路情報配信部222は、歩行者判定処理の結果(歩行者情報)を道路情報として車載端末100に配信する。 For example, the determination unit 221 executes pedestrian determination processing based on the position information acquired together with the request information. The determination unit 221 executes pedestrian determination processing based on image data captured in advance within a predetermined road range based on the position information acquired together with the request information. Specifically, the determining unit 221 reads out from the storage device 230 image data linked with position information within a predetermined road range based on the acquired position information, and executes pedestrian determination processing. The road information distribution unit 222 distributes the result of pedestrian determination processing (pedestrian information) to the in-vehicle terminal 100 as road information.

配信された歩行者情報が車載端末100の出力部150によって搭載車両の乗員(ユーザ)に伝達される。例えば、車載端末100が地図を表示するディスプレイを有するとき、所定の道路範囲の歩行者情報を地図に反映して表示することができる。また、車載端末100がスピーカを有するとき、歩行者情報を音声で出力してもよい。ユーザは、所定の道路範囲内における歩行者に関する情報を参照することで、歩行者の混雑度や歩行者の特性を把握することができる。これにより、ユーザは歩行者の混雑度が高い地点での歩行者の特性から、所定の道路範囲の近辺に位置する観光地や所定の道路範囲の近辺で開催されているイベントなどを予想したりすることができる。また、ユーザは歩行者の混雑度が高い地点を避けて移動することにより、人身事故のリスクを抑えることができる。 The distributed pedestrian information is transmitted by the output unit 150 of the in-vehicle terminal 100 to the occupants (users) of the equipped vehicle. For example, when the in-vehicle terminal 100 has a display for displaying a map, it is possible to reflect the pedestrian information of a predetermined road range on the map and display it. Moreover, when the in-vehicle terminal 100 has a speaker, the pedestrian information may be output by voice. By referring to information about pedestrians within a predetermined road range, the user can grasp the degree of congestion of pedestrians and the characteristics of pedestrians. As a result, the user can predict sightseeing spots located near a predetermined road range, events held near a predetermined road range, etc., based on the characteristics of pedestrians at points where the degree of pedestrian congestion is high. can do. In addition, the user can reduce the risk of an accident resulting in injury or death by avoiding places where the degree of congestion of pedestrians is high.

なお、取得された位置情報を基準とする所定の道路範囲は、予め設定しておくことができる。取得された位置情報を基準とする所定の道路範囲は、例えばリクエスト情報を送信した搭載車両が走行しうる範囲に設定することができる。また、車載端末100からリクエスト情報を送信するとき、搭載車両の出発地を示す位置情報と、目的地を示す位置情報を送信することもできる。この場合、出発地を示す位置情報と目的地を示す位置情報に基づいて予想される経路上で撮影された画像データに基づいて、各種判定処理を実行することができる。 A predetermined road range based on the acquired position information can be set in advance. The predetermined road range based on the acquired position information can be set, for example, to a range in which the mounted vehicle that has transmitted the request information can travel. Further, when transmitting the request information from the in-vehicle terminal 100, it is also possible to transmit the position information indicating the starting point of the mounted vehicle and the position information indicating the destination. In this case, various determination processes can be executed based on image data captured on a route predicted based on the position information indicating the departure point and the position information indicating the destination.

なお、判定部221は、車載端末100から収集される検出情報に基づいて、リアルタイムで各種判定処理を実行することもできる。この場合、リクエスト情報とともに位置情報が入力されたときに各種判定処理の結果を道路情報配信部222が配信する。 Note that the determination unit 221 can also perform various determination processes in real time based on detection information collected from the vehicle-mounted terminal 100 . In this case, the road information distribution unit 222 distributes the results of various determination processes when the position information is input together with the request information.

本実施形態の道路情報配信システムによれば、処理負荷の大きい画像認識処理を管理装置200が実行するため、車両ごとに画像認識処理を行うための高度な装置を設置する必要がない。したがって、車両側で画像認識処理を行う場合に比べてコストを抑えることができる。 According to the road information distribution system of this embodiment, since the management device 200 executes image recognition processing with a large processing load, it is not necessary to install an advanced device for performing image recognition processing for each vehicle. Therefore, the cost can be reduced compared to the case where image recognition processing is performed on the vehicle side.

さらに、本実施形態の道路情報配信システムによれば、画像データという1種のデータに基づいて各種判定処理を実行することで、車線ごとの混雑度、路面の状態(積雪、凍結)、歩行者の混雑度や特性といった複数の異なる情報を一括に抽出することができる。 Furthermore, according to the road information distribution system of the present embodiment, by executing various determination processes based on one type of data called image data, the degree of congestion for each lane, road surface conditions (snow cover, ice), pedestrian It is possible to extract a plurality of different information such as the degree of congestion and characteristics of

以上、実施形態の道路情報配信システムについて説明したが、車載端末100及び管理装置200は、ハードウェア構成として上述以外にも、メモリ(主記憶装置)、マウス、キーボード、タッチパネル、スキャナー等の操作入力手段、プリンタなどの出力手段、補助記憶装置(ハードディスク等)等を備えることができる。 The road information distribution system of the embodiment has been described above. means, an output means such as a printer, an auxiliary storage device (such as a hard disk), and the like.

また、本発明の各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行して、車載端末100や管理装置200に本発明の各部の機能を動作させることができる。他方、本発明の各機能は、各々個別の制御装置で構成することができ、複数の制御装置を直接に又はネットワークを介して接続してIVR装置を構成することもできる。 Further, each function of the present invention can be realized by a program, a computer program prepared in advance for realizing each function is stored in an auxiliary storage device, and a control unit such as a CPU is stored in the auxiliary storage device. The program can be read out to the main storage device, and the control unit can execute the program read out to the main storage device to cause the in-vehicle terminal 100 and the management device 200 to operate the functions of the respective units of the present invention. On the other hand, each function of the present invention can be configured by an individual control device, or a plurality of control devices can be connected directly or via a network to configure an IVR device.

また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。 The program can also be provided to the computer in a state recorded on a computer-readable recording medium. Examples of computer-readable recording media include optical discs such as CD-ROMs, phase-change optical discs such as DVD-ROMs, magneto-optical discs such as MO (Magnet Optical) and MD (Mini Disk), floppy (registered trademark) discs, and the like. Examples include magnetic disks such as removable hard disks, compact flash (registered trademark), smart media, SD memory cards, memory cards such as memory sticks. Further, a hardware device such as an integrated circuit (IC chip, etc.) specially designed and configured for the purpose of the present invention is also included as a recording medium.

なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although embodiments of the present invention have been described, the embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

100 車載端末
110 制御部
111 検出情報取得部
120 センサユニット
121 カメラ
122 GPSセンサ
130 記憶部
140 通信部
150 出力部
200 管理装置
210 通信装置
220 制御装置
221 判定部
2211 画像認識部
2212 判断部
222 道路情報配信部
230 記憶装置
100 In-vehicle terminal 110 Control unit 111 Detection information acquisition unit 120 Sensor unit 121 Camera 122 GPS sensor 130 Storage unit 140 Communication unit 150 Output unit 200 Management device 210 Communication device 220 Control device 221 Determination unit 2211 Image recognition unit 2212 Determination unit 222 Road information Distribution unit 230 Storage device

Claims (8)

検出情報を取得する車載端末と、前記車載端末と通信可能であり、前記検出情報に基づく道路情報を配信する管理装置と、を含む道路情報配信システムであって、
前記車載端末は、
前記車載端末が搭載された搭載車両の前方及び/又は後方を撮影して画像を取得する第1センサ機器と、
前記搭載車両の位置を示す第1位置情報を取得する第2センサ機器と、
所定時刻に取得される前記画像と、前記所定時刻に取得される前記第1位置情報とを紐付けた前記検出情報を取得する検出情報取得部と、を備え、
前記管理装置は、
前記検出情報を予め蓄積する記憶部と、
前記道路情報の配信先の車両の位置を示す第2位置情報に基づいて、前記道路情報の配信先の車両の位置に関する所定範囲内の位置を示す前記第1位置情報が紐付けられた前記画像に対する画像認識処理を実行する画像認識部と、
前記画像認識処理の結果に基づく判断により、前記所定範囲に関する前記道路情報を生成する判断部と、を備え、
前記画像認識部は、前記画像に含まれる歩行者を認識するとともに、前記歩行者の顔を認識し、
前記判断部は、前記歩行者の位置および人数を推定するとともに、前記歩行者の顔に基づいて前記歩行者の特性を推定し、前記歩行者の位置および人数と前記歩行者の特性を示す前記道路情報を生成することを特徴とする道路情報配信システム。
A road information distribution system including an in-vehicle terminal that acquires detection information and a management device that can communicate with the in-vehicle terminal and distributes road information based on the detection information,
The in-vehicle terminal is
a first sensor device that acquires an image by photographing the front and/or rear of the vehicle on which the in-vehicle terminal is mounted;
a second sensor device that acquires first position information indicating the position of the mounted vehicle;
a detection information acquisition unit that acquires the detection information that associates the image acquired at a predetermined time with the first position information acquired at the predetermined time,
The management device
a storage unit that stores the detection information in advance;
The image associated with the first position information indicating a position within a predetermined range regarding the position of the vehicle to which the road information is to be distributed, based on the second position information indicating the position of the vehicle to which the road information is to be distributed. an image recognition unit that executes image recognition processing for
a determination unit that generates the road information related to the predetermined range based on determination based on the result of the image recognition process;
The image recognition unit recognizes a pedestrian included in the image and recognizes the face of the pedestrian,
The determination unit estimates the positions and the number of pedestrians, estimates the characteristics of the pedestrians based on the faces of the pedestrians, and indicates the positions and the number of pedestrians and the characteristics of the pedestrians. A road information distribution system characterized by generating road information.
記判断部は、前記画像に含まれる車両に基づいて車間距離を推定するとともに、車両の混雑度を示す前記道路情報を生成することを特徴とする請求項1に記載の道路情報配信システム。 2. The road information distribution system according to claim 1 , wherein the determining unit estimates the inter-vehicle distance based on the vehicles included in the image, and generates the road information indicating the degree of congestion of the vehicles. 前記画像認識部は、前記画像に含まれる車両と、車線と車線の境界線である車線境界線とを認識し、
前記判断部は、前記画像に含まれる車両に基づいて車間距離を推定するとともに、前記画像に含まれる前記車線境界線の位置に基づいて、複数の車線のうち前記搭載車両が位置する車線を判断し、前記車間距離と前記搭載車両が位置する車線に基づいて車線毎の車両の混雑度を示す前記道路情報を生成することを特徴とする請求項1又は2に記載の道路情報配信システム。
The image recognition unit recognizes a vehicle included in the image and a lane boundary line that is a boundary line between lanes,
The determination unit estimates a vehicle-to-vehicle distance based on the vehicles included in the image, and determines a lane in which the mounted vehicle is located, among a plurality of lanes, based on the position of the lane boundary line included in the image. 3. The road information distribution system according to claim 1, wherein the road information indicating the congestion degree of each lane is generated based on the inter-vehicle distance and the lane in which the mounted vehicle is located.
前記検出情報は、さらに車両の走行速度もしくはブレーキペダルのON/OFFのいずれかの情報を含み、
前記判断部は、前記車間距離と前記走行速度もしくは前記ブレーキペダルのON/OFFのいずれかの情報に基づいて、車両の混雑度を示す前記道路情報を生成することを特徴とする請求項2又は3に記載の道路情報配信システム。
The detection information further includes information on either the running speed of the vehicle or ON/OFF of the brake pedal,
3. The determining unit generates the road information indicating the degree of congestion of the vehicles based on the inter-vehicle distance and the traveling speed or the ON/OFF state of the brake pedal. 3. The road information distribution system according to 3.
前記画像認識部は、前記画像に含まれる積雪を認識し、
前記判断部は、前記積雪の積雪深を推定することにより、前記積雪深を示す前記道路情報を生成することを特徴とする請求項1乃至のいずれかに記載の道路情報配信システム。
The image recognition unit recognizes snow cover included in the image,
5. The road information distribution system according to claim 1 , wherein the determining unit generates the road information indicating the snow depth by estimating the snow depth of the snow.
前記画像認識部は、前記画像に含まれる路面を認識し、
前記判断部は、前記路面における凍結の有無を判定することにより、凍結の有無を示す前記道路情報を生成することを特徴とする請求項1乃至のいずれかに記載の道路情報配信システム。
The image recognition unit recognizes a road surface included in the image,
6. The road information distribution system according to any one of claims 1 to 5 , wherein the judgment unit generates the road information indicating the presence or absence of freezing by judging the presence or absence of freezing on the road surface.
車載端末と通信可能であり、前記車載端末から検出情報を収集することにより、前記検出情報に基づく道路情報を配信する道路情報配信装置であって、
前記車載端末が搭載された搭載車両の前方及び/又は後方を所定時刻に撮影した画像と、前記所定時刻における前記搭載車両の位置を示す第1位置情報とを紐付けた前記検出情報を予め蓄積する記憶部と、
前記道路情報の配信先の車両の位置を示す第2位置情報に基づいて、前記道路情報の配信先の車両の位置に関する所定範囲内の位置を示す前記第1位置情報が紐付けられた前記画像に対する画像認識処理を実行する画像認識部と、
前記画像認識処理の結果に基づく判断により、前記所定範囲に関する前記道路情報を生成する判断部と、を備え、
前記画像認識部は、前記画像に含まれる歩行者を認識するとともに、前記歩行者の顔を認識し、
前記判断部は、前記歩行者の位置および人数を推定するとともに、前記歩行者の顔に基づいて前記歩行者の特性を推定し、前記歩行者の位置および人数と前記歩行者の特性を示す前記道路情報を生成することを特徴とする道路情報配信装置。
A road information distribution device capable of communicating with an in-vehicle terminal, collecting detection information from the in-vehicle terminal, and distributing road information based on the detection information,
Preliminary storage of the detection information linking an image of the front and/or rear of the vehicle on which the in-vehicle terminal is mounted, taken at a predetermined time, with first position information indicating the position of the vehicle at the predetermined time a storage unit for
The image associated with the first position information indicating a position within a predetermined range regarding the position of the vehicle to which the road information is to be distributed, based on the second position information indicating the position of the vehicle to which the road information is to be distributed. an image recognition unit that executes image recognition processing for
a determination unit that generates the road information related to the predetermined range based on determination based on the result of the image recognition process;
The image recognition unit recognizes a pedestrian included in the image and recognizes the face of the pedestrian ,
The determination unit estimates the position and number of pedestrians, estimates the characteristics of the pedestrian based on the face of the pedestrian, and indicates the position and number of pedestrians and the characteristics of the pedestrian. A road information distribution device characterized by generating road information.
車載端末が搭載された搭載車両の前方及び/又は後方を所定時刻に撮影した画像と、前記所定時刻における前記搭載車両の位置を示す第1位置情報とを紐付けた検出情報に基づく道路情報の配信を支援するコンピュータで実行されるプログラムであって、
前記車載端末で取得される前記検出情報を予め蓄積する第1機能と、
前記道路情報の配信先の車両の位置を示す第2位置情報に基づいて、前記道路情報の配信先の車両の位置に関する所定範囲内の位置を示す前記第1位置情報が紐付けられた前記画像に対する画像認識処理を実行する第2機能と、
前記画像認識処理の結果に基づく判断により、前記所定範囲に関する前記道路情報を生成する第3機能と、をコンピュータに実現させ、
前記第2機能は、前記画像に含まれる歩行者を認識するとともに、前記歩行者の顔を認識する第1処理を実行し、
前記第3機能は、前記歩行者の位置および人数を推定するとともに、前記歩行者の顔に基づいて前記歩行者の特性を推定し、前記歩行者の位置および人数と前記歩行者の特性を示す前記道路情報を生成する第2処理を実行することを特徴とするプログラム。
Road information based on detection information linking an image of the front and/or rear of a vehicle equipped with an in-vehicle terminal at a predetermined time and first position information indicating the position of the vehicle at the predetermined time A program running on a computer that supports distribution,
a first function of pre-accumulating the detection information acquired by the in-vehicle terminal;
The image associated with the first position information indicating a position within a predetermined range regarding the position of the vehicle to which the road information is to be distributed, based on the second position information indicating the position of the vehicle to which the road information is to be distributed. a second function for executing image recognition processing for
causing a computer to implement a third function of generating the road information related to the predetermined range based on determination based on the result of the image recognition process;
The second function recognizes a pedestrian included in the image and performs a first process of recognizing the face of the pedestrian ,
The third function estimates the position and number of pedestrians, estimates the characteristics of the pedestrian based on the face of the pedestrian, and indicates the position and number of pedestrians and the characteristics of the pedestrian. A program for executing a second process for generating the road information.
JP2019172600A 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program Active JP7165110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019172600A JP7165110B2 (en) 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172600A JP7165110B2 (en) 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program

Publications (2)

Publication Number Publication Date
JP2021051423A JP2021051423A (en) 2021-04-01
JP7165110B2 true JP7165110B2 (en) 2022-11-02

Family

ID=75157943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172600A Active JP7165110B2 (en) 2019-09-24 2019-09-24 road information distribution system, road information distribution device, road information distribution program

Country Status (1)

Country Link
JP (1) JP7165110B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117885745B (en) * 2023-12-22 2024-06-25 西藏北斗森荣科技(集团)股份有限公司 Driving behavior monitoring system based on Internet of vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012117829A (en) 2010-11-29 2012-06-21 Denso Corp Prediction device
JP2015076078A (en) 2013-10-11 2015-04-20 パイオニア株式会社 Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program
JP2018018424A (en) 2016-07-29 2018-02-01 パイオニア株式会社 Information processing device, control method, program and storage medium
JP2018190232A (en) 2017-05-09 2018-11-29 矢崎エナジーシステム株式会社 On-vehicle unit
JP2019067018A (en) 2017-09-29 2019-04-25 日本精機株式会社 Display device for vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3240505B2 (en) * 1996-07-05 2001-12-17 株式会社日立製作所 Congestion section estimation method and congestion section estimation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012117829A (en) 2010-11-29 2012-06-21 Denso Corp Prediction device
JP2015076078A (en) 2013-10-11 2015-04-20 パイオニア株式会社 Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program
JP2018018424A (en) 2016-07-29 2018-02-01 パイオニア株式会社 Information processing device, control method, program and storage medium
JP2018190232A (en) 2017-05-09 2018-11-29 矢崎エナジーシステム株式会社 On-vehicle unit
JP2019067018A (en) 2017-09-29 2019-04-25 日本精機株式会社 Display device for vehicle

Also Published As

Publication number Publication date
JP2021051423A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
US20080275635A1 (en) Method for recognizing traveling lane and making lane change
JP4845876B2 (en) Road landscape map creation device, method and program
JP5459137B2 (en) Intersection guidance system
CN108986467A (en) A kind of wisdom traffic management system based on Internet of Things
CN108460968A (en) A kind of method and device obtaining traffic information based on car networking
EP3530521B1 (en) Driver assistance method and apparatus
EP3037313A1 (en) Risk information processing method and server device
US20170151945A1 (en) Information processing device, information processing method, control device for vehicle, and control method for vehicle
JP4093026B2 (en) Road environment information notification device, in-vehicle notification device, information center device, and road environment information notification program
KR102067006B1 (en) System and Method for Managing Vehicle Running Information
US11189162B2 (en) Information processing system, program, and information processing method
KR101751112B1 (en) Apparatus for generating traffic information base on image and Method thereof
KR101542916B1 (en) Cloud-based Navigation System
JP5522475B2 (en) Navigation device
KR20080098784A (en) System and method for limit speed change to variation of weather
JP7464454B2 (en) Vehicle control device and vehicle control method
JP2009301495A (en) Image processor and image processing method
CN113183758A (en) Auxiliary driving method and system based on augmented reality
JP7165110B2 (en) road information distribution system, road information distribution device, road information distribution program
JP7419667B2 (en) Route prediction device, in-vehicle device equipped with the same, route prediction system, route prediction method, and computer program
KR102257078B1 (en) Fog detection device using coordinate system and method thereof
JP2014074627A (en) Navigation system for vehicle
JP2021169961A (en) Weather information acquisition system and weather information acquisition device included in the same
WO2020202356A1 (en) Information providing device, information sharing system, program, and information providing method
CN111354192A (en) Information processing system, program, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211125

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7165110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150