JP2022179490A - Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium - Google Patents

Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium Download PDF

Info

Publication number
JP2022179490A
JP2022179490A JP2022141983A JP2022141983A JP2022179490A JP 2022179490 A JP2022179490 A JP 2022179490A JP 2022141983 A JP2022141983 A JP 2022141983A JP 2022141983 A JP2022141983 A JP 2022141983A JP 2022179490 A JP2022179490 A JP 2022179490A
Authority
JP
Japan
Prior art keywords
driving
evaluation model
driving evaluation
information
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2022141983A
Other languages
Japanese (ja)
Inventor
喬浩 鎌田
Takahiro Kamata
博之 関谷
Hiroyuki Sekiya
裕史 谷川
Yasushi Tanigawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022141983A priority Critical patent/JP2022179490A/en
Publication of JP2022179490A publication Critical patent/JP2022179490A/en
Priority to JP2023199140A priority patent/JP2024019213A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving evaluation model adaptation device capable of distributing a driving evaluation model as a learning result adapted to a use situation.
SOLUTION: A server device 1 stores a driving evaluation model learnt on the basis of a photographic image of the vicinity of a mobile body and an evaluation value related to driving determined on the basis of the photographic image by a determining person. In this case, the driving evaluation model is generated for each group of determining persons classified in accordance with commonality of profiles. The server device 1 acquires profile information Ip related to a driver who drives a mobile body, and extracts the driving evaluation model in the adapted group adapted to the acquired profile information Ip from a driving evaluation model DB 10.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、学習により得られたモデルを活用する技術に関する。 TECHNICAL FIELD The present invention relates to technology that utilizes a model obtained by learning.

従来から、複数の車両からデータをサーバ装置に集約し、サーバ装置が機械学習により得た学習結果に関する情報を配信するシステムが知られている。例えば、特許文献1には、各車両の走行時の天候、時間帯などの状況を環境データとして収集し、環境データが示す状況ごとに学習するシステムが開示されている。 2. Description of the Related Art Conventionally, there has been known a system in which data from a plurality of vehicles are collected in a server device, and information on learning results obtained by machine learning by the server device is distributed. For example, Patent Literature 1 discloses a system that collects conditions such as weather and time of day when each vehicle is traveling as environmental data, and learns for each condition indicated by the environmental data.

特開2015-135552号公報JP 2015-135552 A

運転時の状況認識及び状況判断については、運転者の経験等に基づく個人差があり、運転者によって認識や判断が異なる場合がある。一方、特許文献1には、このような個人差については、何ら勘案していない。 Regarding situation recognition and situation judgment during driving, there are individual differences based on driver's experience, etc., and recognition and judgment may differ depending on the driver. On the other hand, Patent Document 1 does not consider such individual differences at all.

本発明は、上記のような課題を解決するためになされたものであり、利用状況に適合した学習結果である運転評価モデルを配信することが可能な運転評価モデル適合装置及び運転評価モデルを受信する端末装置を提供することを主な目的とする。 The present invention has been made to solve the above-described problems, and includes a driving evaluation model matching device capable of distributing a driving evaluation model, which is a learning result adapted to usage conditions, and a driving evaluation model receiving device. The main purpose is to provide a terminal device that

請求項1に記載の発明は、運転評価モデル適合装置であって、移動体を運転する運転手に関する運転手情報を取得する情報取得部と、移動体周囲の撮影画像と、プロフィールを備える判定者が前記撮影画像に基づき評価した運転に関する評価情報とに基づき、前記プロフィールの共通性により分類された前記判定者のグループごとに学習された運転評価モデルから前記運転手情報に適合する適合グループにおける運転評価モデルを抽出する抽出部と、を備える。 The invention according to claim 1 is a driving evaluation model matching device, which includes an information acquisition unit for acquiring driver information about a driver who drives a mobile object, a captured image around the mobile object, and a judge having a profile. Driving in a matching group that matches the driver information from a driving evaluation model learned for each group of the judges classified by the commonality of the profiles based on the evaluation information on driving evaluated based on the photographed image an extraction unit for extracting the evaluation model.

請求項8に記載の発明は、移動体周囲の撮影画像と、プロフィールを備える判定者が前記撮影画像に基づき評価した運転に関する評価情報とに基づき、前記プロフィールの共通性により分類された前記判定者のグループごとに学習された運転評価モデルを記憶する記憶部を備える運転評価モデル適合装置が実行する制御方法であって、移動体を運転する運転手に関する運転手情報を取得する情報取得工程と、前記運転手情報に適合する適合グループにおける運転評価モデルを抽出する抽出工程と、を有する。 According to the eighth aspect of the present invention, the judges are classified according to the commonality of the profile based on the photographed image around the moving body and the evaluation information about the driving evaluated by the judge having the profile based on the photographed image. A control method executed by a driving evaluation model matching device having a storage unit for storing driving evaluation models learned for each group, the information obtaining step of obtaining driver information about a driver who drives a moving object; an extracting step of extracting a driving evaluation model in a matching group that matches the driver information.

請求項9に記載の発明は、移動体周囲の撮影画像と、プロフィールを備える判定者が前記撮影画像に基づき評価した運転に関する評価情報とに基づき、前記プロフィールの共通性により分類された前記判定者のグループごとに学習された運転評価モデルを記憶する記憶部を参照するコンピュータが実行するプログラムであって、移動体を運転する運転手に関する運転手情報を取得する情報取得部と、前記運転手情報に適合する適合グループにおける運転評価モデルを抽出する抽出部として前記コンピュータを機能させる。 According to a ninth aspect of the invention, the judges are classified according to the commonality of the profiles based on the photographed images around the moving body and the evaluation information regarding driving evaluated by the judges having the profiles based on the photographed images. A program executed by a computer that refers to a storage unit that stores a driving evaluation model learned for each group of the information acquisition unit that acquires driver information about a driver who drives a moving object, and the driver information The computer functions as an extraction unit that extracts the driving evaluation model in the matching group that matches the .

運転評価システムの概略構成である。It is a schematic structure of a driving evaluation system. サーバ装置及び端末装置のブロック構成を示す。2 shows a block configuration of a server device and a terminal device; 運転評価モデルの識別番号と当該運転評価モデルに対応する判定者のプロフィールを表す各項目との対応テーブルである。It is a correspondence table between the identification number of the driving evaluation model and each item representing the profile of the judge corresponding to the driving evaluation model. 運転評価モデルの配信処理の手順を示すフローチャートの一例である。FIG. 10 is an example of a flowchart showing a procedure of delivery processing of a driving evaluation model; FIG. 運転評価モデルの受信及び活用に関する処理手順を示すフローチャートの一例である。It is an example of a flowchart showing a processing procedure for receiving and utilizing a driving evaluation model. 端末装置が出力する表示例を示す。3 shows an example of display output by a terminal device.

本発明の好適な実施形態によれば、運転評価モデル適合装置は、移動体を運転する運転手に関する運転手情報を取得する情報取得部と、移動体周囲の撮影画像と、プロフィールを備える判定者が前記撮影画像に基づき評価した運転に関する評価情報とに基づき、前記プロフィールの共通性により分類された前記判定者のグループごとに学習された運転評価モデルから前記運転手情報に適合する適合グループにおける運転評価モデルを抽出する抽出部と、を備える。 According to a preferred embodiment of the present invention, the driving evaluation model matching device includes: an information acquisition unit that acquires driver information about a driver who drives a mobile object; Driving in a matching group that matches the driver information from a driving evaluation model learned for each group of the judges classified by the commonality of the profiles based on the evaluation information on driving evaluated based on the photographed image an extraction unit for extracting the evaluation model.

上記運転評価モデル適合装置は、情報取得部と、記憶部と、抽出部とを備える。記憶部は、移動体周囲の撮影画像と、判定者が撮影画像に基づき評価した運転に関する評価情報とに基づき学習された運転評価モデルを記憶する。ここで、記憶部が記憶する運転評価モデルは、プロフィールの共通性により分類された判定者のグループごとに生成されている。情報取得部は、移動体を運転する運転手に関する運転手情報を取得する。抽出部は、取得した運転手情報に適合する適合グループにおける運転評価モデルを抽出する。ここで、「適合グループ」は、プロフィールの共通性により分類された判定者のグループのうち、取得した運転手情報に適合するグループを指す。この態様によれば、運転評価モデル適合装置は、取得した運転手情報が示す運転手の特徴に合致した運転評価モデルを好適に抽出することができる。 The driving evaluation model matching device includes an information acquisition unit, a storage unit, and an extraction unit. The storage unit stores a driving evaluation model learned based on a photographed image of the surroundings of the moving body and evaluation information regarding driving evaluated by a judge based on the photographed image. Here, the driving evaluation model stored in the storage unit is generated for each group of judges classified according to commonality of profiles. The information acquisition unit acquires driver information about a driver who drives the mobile object. The extraction unit extracts a driving evaluation model in the matching group that matches the acquired driver information. Here, the “matching group” refers to a group matching the acquired driver information among the groups of judges classified by the commonality of profiles. According to this aspect, the driving evaluation model matching device can suitably extract a driving evaluation model that matches the characteristics of the driver indicated by the acquired driver information.

上記運転評価モデル適合装置の一態様では、運転評価モデル適合装置は、前記適合グループにおける運転評価モデルに関する情報を、前記移動体に備わる通信端末に送信する送信部をさらに備える。運転評価モデル適合装置は、この態様により、移動体の運転手の運転手情報に基づき、運転手の特徴に合致した運転評価モデルを好適に供給することができる。 In one aspect of the driving evaluation model matching device, the driving evaluation model matching device further includes a transmission unit that transmits information about the driving evaluation model in the matching group to a communication terminal provided in the moving body. According to this aspect, the driving evaluation model matching device can suitably supply a driving evaluation model that matches the characteristics of the driver based on the driver information of the driver of the mobile object.

上記運転評価モデル適合装置の他の一態様では、前記運転手情報及び前記プロフィールには、前記運転手及び前記判定者の居住地域に関する居住地域情報が少なくとも含まれ、前記抽出部が抽出する運転評価モデルは、前記居住地域情報の共通性により分類された前記判定者のグループのうち、前記運転手情報に含まれる居住地域情報に適合するグループにおける運転評価モデルである。この態様により、運転評価モデル適合装置は、移動体の運転手の居住地域に特化した運転評価モデルを好適に抽出することができる。 In another aspect of the driving evaluation model matching device, the driver information and the profile include at least residential area information regarding the residential area of the driver and the determiner, and the driving evaluation extracted by the extracting unit. The model is a driving evaluation model for a group that matches the residence area information included in the driver information, among the groups of the judges classified according to the commonality of the residence area information. According to this aspect, the driving evaluation model matching device can suitably extract the driving evaluation model specialized for the residential area of the driver of the mobile object.

上記運転評価モデル適合装置の他の一態様では、前記運転手情報及び前記プロフィールには、前記運転手及び前記判定者の運転履歴情報がさらに含まれ、前記抽出部が抽出する運転評価モデルは、前記居住地域情報及び前記運転履歴情報の共通性により分類された前記判定者のグループのうち、前記運転手情報に含まれる居住地域情報及び運転履歴情報に適合するグループにおける運転評価モデルである。この態様により、運転評価モデル適合装置は、移動体の運転手の居住地域及び運転経験に適合した運転評価モデルを好適に抽出することができる。 In another aspect of the driving evaluation model matching device, the driver information and the profile further include driving history information of the driver and the determiner, and the driving evaluation model extracted by the extraction unit includes: A driving evaluation model for a group that matches the residential area information and the driving history information included in the driver information, among the groups of the judges classified according to the commonality of the residential area information and the driving history information. According to this aspect, the driving evaluation model matching device can suitably extract a driving evaluation model that matches the residential area and driving experience of the driver of the mobile object.

本発明の他の好適な実施形態によれば、端末装置は、移動体を運転する運転手に関する運転手情報を上記記載の運転評価モデル適合装置に送信する送信部と、前記運転評価モデル適合装置から、前記運転手情報に適合する適合グループにおける運転評価モデルに関する情報を受信する受信部と、撮影画像を生成する撮影部と、前記撮影画像に対して前記運転評価モデルを適用することで、運転に関する評価情報を生成する評価情報生成部と、を備える。端末装置は、この態様により、運転手情報に適合する判定者の適合グループを教師として生成した運転評価モデルを好適に受信し、運転手の感覚に即した評価情報を生成することができる。 According to another preferred embodiment of the present invention, a terminal device includes: a transmitter for transmitting driver information about a driver who drives a mobile object to the above-described driving evaluation model matching device; a receiving unit that receives information about a driving evaluation model in a matching group that matches the driver information; an imaging unit that generates a captured image; and applying the driving evaluation model to the captured image. and an evaluation information generation unit that generates evaluation information about. According to this aspect, the terminal device can suitably receive the driving evaluation model generated by using as a teacher a matching group of judges who match the driver information, and can generate evaluation information that matches the senses of the driver.

上記端末装置の一態様では、端末装置は、前記評価情報生成手段が生成した前記評価情報に基づく表示又は音声出力を行う出力部をさらに備える。この態様により、運転評価モデル適合装置は、取得した運転評価モデルにより生成した評価情報を好適に運転手等に報知することができる。好適には、前記評価情報は、運転難易度を示す情報、又は、見晴らしの良さを示す情報である。 In one aspect of the terminal device, the terminal device further includes an output unit that performs display or audio output based on the evaluation information generated by the evaluation information generating means. According to this aspect, the driving evaluation model matching device can suitably notify the driver or the like of the evaluation information generated by the acquired driving evaluation model. Preferably, the evaluation information is information indicating driving difficulty or information indicating visibility.

本発明の他の好適な実施形態によれば、移動体周囲の撮影画像と、プロフィールを備える判定者が前記撮影画像に基づき評価した運転に関する評価情報とに基づき、前記プロフィールの共通性により分類された前記判定者のグループごとに学習された運転評価モデルを記憶する記憶部を備える運転評価モデル適合装置が実行する制御方法であって、移動体を運転する運転手に関する運転手情報を取得する情報取得工程と、前記運転手情報に適合する適合グループにおける運転評価モデルを抽出する抽出工程と、を有する。運転評価モデル適合装置は、この制御方法を実行することで、取得した運転手情報が示す運転手の特徴に合致した運転評価モデルを好適に抽出することができる。 According to another preferred embodiment of the present invention, based on the photographed image of the surroundings of the moving body and the evaluation information regarding driving evaluated based on the photographed image by the judge having the profile, the driving is classified according to the commonality of the profiles. A control method executed by a driving evaluation model matching device having a storage unit that stores a driving evaluation model learned for each group of judges, wherein information for acquiring driver information about a driver who drives a moving object an obtaining step; and an extracting step of extracting a driving evaluation model in a matching group that matches the driver information. By executing this control method, the driving evaluation model matching device can suitably extract a driving evaluation model that matches the characteristics of the driver indicated by the acquired driver information.

本発明の他の好適な実施形態によれば、移動体周囲の撮影画像と、プロフィールを備える判定者が前記撮影画像に基づき評価した運転に関する評価情報とに基づき、前記プロフィールの共通性により分類された前記判定者のグループごとに学習された運転評価モデルを記憶する記憶部を参照するコンピュータが実行するプログラムであって、移動体を運転する運転手に関する運転手情報を取得する情報取得部と、前記運転手情報に適合する適合グループにおける運転評価モデルを抽出する抽出部として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、取得した運転手情報が示す運転手の特徴に合致した運転評価モデルを好適に抽出することができる。好適には、上記プログラムは、記憶媒体に記憶される。 According to another preferred embodiment of the present invention, based on the photographed image of the surroundings of the moving body and the evaluation information regarding driving evaluated based on the photographed image by the judge having the profile, the driving is classified according to the commonality of the profile. a program executed by a computer that refers to a storage unit that stores a driving evaluation model learned for each group of judges, the information acquiring unit acquiring driver information about a driver who drives a moving object; The computer is caused to function as an extraction unit that extracts a driving evaluation model in the matching group that matches the driver information. By executing this program, the computer can suitably extract a driving evaluation model that matches the characteristics of the driver indicated by the acquired driver information. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.

[運転評価システムの概要]
図1は、本実施例に係る運転評価システムの概略構成である。運転評価システムは、車両が走行する道路の運転に関する評価を行うシステムであって、サーバ装置1と、端末装置2とを備える。
[Outline of driving evaluation system]
FIG. 1 is a schematic configuration of a driving evaluation system according to this embodiment. The driving evaluation system is a system for evaluating driving on a road on which a vehicle travels, and includes a server device 1 and a terminal device 2 .

サーバ装置1は、道路上で撮影した撮影画像から当該撮影画像に表示された道路の運転に関する評価を決定するためのモデル(「運転評価モデル」とも呼ぶ。)のデータベースである運転評価モデルDB10を記憶している。運転評価モデルは、教師あり機械学習により得られたパターン識別器であって、例えば、ニューラルネットワーク(ディープラーニング)を適用して学習された学習データである。本実施例では、予め、道路上で撮影された撮影画像と、当該撮影画像を参照した者(「判定者」とも呼ぶ。)が判定した運転難易度の評価値との組み合わせを教師データとして学習することで、運転評価モデルを生成している。運転難易度の評価値は、例えば、運転しやすいことを表す「0」又は運転しにくいことを示す「1」の2段階評価値であってもよく、3段階以上の評価値であってもよい。運転難易度の評価値は、本発明における「評価情報」の一例である。 The server device 1 stores a driving evaluation model DB 10, which is a database of models (also referred to as "driving evaluation models") for determining an evaluation of driving on the road displayed in the photographed image taken on the road. I remember. The driving evaluation model is a pattern classifier obtained by supervised machine learning, and is learning data learned by applying a neural network (deep learning), for example. In this embodiment, a combination of a photographed image taken on the road and an evaluation value of driving difficulty determined by a person who refers to the photographed image (also referred to as a "determiner") is learned as teacher data. By doing so, a driving evaluation model is generated. The evaluation value of the driving difficulty may be, for example, a two-step evaluation value of “0” indicating that it is easy to drive or “1” indicating that it is difficult to drive, or an evaluation value of three or more steps. good. The evaluation value of the driving difficulty is an example of "evaluation information" in the present invention.

ここで、運転評価モデルDB10に登録されている各運転評価モデルは、後述するように、性別や運転歴などのプロフィールの共通性を備えた判定者のグループごとに生成されている。そして、サーバ装置1は、端末装置2から端末装置2のユーザのプロフィールを示す情報(「プロフィール情報Ip」とも呼ぶ。)を受信した場合に、プロフィール情報Ipが示すプロフィールに適合する運転評価モデルを運転評価モデルDB10から抽出する。そして、サーバ装置1は、抽出した運転評価モデルを示す情報(「抽出モデル情報Im」とも呼ぶ。)を端末装置2へ送信する。サーバ装置1は、本発明における「運転評価モデル適合装置」の一例である。 Here, each driving evaluation model registered in the driving evaluation model DB 10 is generated for each group of judges having common profiles such as gender and driving history, as will be described later. When the server device 1 receives information indicating the profile of the user of the terminal device 2 (also referred to as "profile information Ip") from the terminal device 2, the server device 1 generates a driving evaluation model that matches the profile indicated by the profile information Ip. It extracts from driving evaluation model DB10. Then, the server device 1 transmits information indicating the extracted driving evaluation model (also referred to as “extracted model information Im”) to the terminal device 2 . The server device 1 is an example of a "driving evaluation model matching device" in the present invention.

端末装置2は、例えば据置型のナビゲーション装置又はスマートフォンなどの携帯端末であって、目的地への経路案内や現在位置周辺の地図の表示などを行う。また、端末装置2は、端末装置2のユーザのプロフィールを示すプロフィール情報Ipをサーバ装置1へ送信することで、ユーザのプロフィールに適合した運転評価モデルに関する抽出モデル情報Imをサーバ装置1から受信する。そして、端末装置2は、カメラが撮影した画像を上述の抽出モデル情報Imが示す運転評価モデルに入力することで、画像に表示された道路の運転難易度の評価値を取得し、当該運転難易度の評価値に基づく出力を行う。端末装置2は、本発明における「通信端末」及び「端末装置」の一例である。 The terminal device 2 is, for example, a stationary navigation device or a mobile terminal such as a smartphone, and performs route guidance to a destination, display of a map around the current position, and the like. In addition, the terminal device 2 receives from the server device 1 the extracted model information Im regarding the driving evaluation model that matches the profile of the user by transmitting the profile information Ip indicating the profile of the user of the terminal device 2 to the server device 1 . . Then, the terminal device 2 inputs the image captured by the camera to the driving evaluation model indicated by the extracted model information Im, thereby acquiring the evaluation value of the driving difficulty of the road displayed in the image, and obtaining the driving difficulty level of the road displayed in the image. Output based on degree evaluation value. The terminal device 2 is an example of a "communication terminal" and a "terminal device" in the present invention.

[装置構成]
図2(A)は、サーバ装置1の概略構成を示す。図2(A)に示すように、サーバ装置1は、通信部11と、記憶部12と、制御部15とを有する。通信部11、記憶部12、及び制御部15は、バスラインを介して相互に接続されている。
[Device configuration]
FIG. 2A shows a schematic configuration of the server device 1. As shown in FIG. As shown in FIG. 2A, the server device 1 has a communication unit 11, a storage unit 12, and a control unit 15. The communication unit 11, storage unit 12, and control unit 15 are interconnected via a bus line.

通信部11は、制御部15の制御に基づき、端末装置2から送信されるプロフィール情報Ipの受信、及び、抽出モデル情報Imの端末装置2への送信などを行う。通信部11は、本発明における「送信部」の一例である。記憶部12は、サーバ装置1の動作を制御するためのプログラムを保存したり、サーバ装置1の動作に必要な情報を保持したりする。また、記憶部12は、運転評価モデルDB10を記憶する。運転評価モデルDB10のデータ構造については後述する。 Under the control of the control unit 15, the communication unit 11 receives the profile information Ip transmitted from the terminal device 2, transmits the extracted model information Im to the terminal device 2, and the like. The communication unit 11 is an example of the "transmitting unit" in the present invention. The storage unit 12 stores a program for controlling the operation of the server device 1 and holds information required for the operation of the server device 1 . The storage unit 12 also stores a driving evaluation model DB 10 . The data structure of the driving evaluation model DB 10 will be described later.

制御部15は、図示しないCPU、ROM及びRAMなどを備え、サーバ装置1内の各構成要素に対して種々の制御を行う。制御部15は、通信部11がプロフィール情報Ipを受信した場合に、プロフィール情報Ipが示すプロフィールに基づき運転評価モデルDB10から運転評価モデルを抽出し、抽出した運転評価モデルに関する抽出モデル情報Imを通信部11により端末装置2へ送信する。制御部15は、本発明における「情報取得部」、「抽出部」及びプログラムを実行するコンピュータの一例である。 The control unit 15 includes a CPU, a ROM, a RAM, and the like (not shown), and performs various controls on each component in the server device 1 . When the communication unit 11 receives the profile information Ip, the control unit 15 extracts a driving evaluation model from the driving evaluation model DB 10 based on the profile indicated by the profile information Ip, and communicates extracted model information Im regarding the extracted driving evaluation model. It is transmitted to the terminal device 2 by the unit 11 . The control unit 15 is an example of an “information acquisition unit”, an “extraction unit”, and a computer that executes a program in the present invention.

図2(B)は、端末装置2の概略構成を示す。図2(B)に示すように、端末装置2は、主に、通信部21と、記憶部22と、センサ部23と、入力部24と、制御部25と、出力部26とを有する。通信部21、記憶部22、センサ部23、入力部24、制御部25及び出力部26は、バスラインを介して相互に接続されている。 FIG. 2B shows a schematic configuration of the terminal device 2. As shown in FIG. As shown in FIG. 2B, the terminal device 2 mainly includes a communication section 21, a storage section 22, a sensor section 23, an input section 24, a control section 25, and an output section . The communication section 21, storage section 22, sensor section 23, input section 24, control section 25 and output section 26 are connected to each other via a bus line.

通信部21は、制御部25の制御に基づき、サーバ装置1へのプロフィール情報Ipの送信、及び、サーバ装置1から送信される抽出モデル情報Imの受信などを行う。通信部21は、本発明における「送信部」及び「受信部」の一例である。 Under the control of the control unit 25, the communication unit 21 transmits profile information Ip to the server device 1, receives extracted model information Im transmitted from the server device 1, and the like. The communication section 21 is an example of the "transmitting section" and the "receiving section" in the present invention.

記憶部22は、制御部25が実行するプログラムや、制御部25が所定の処理を実行するのに必要な情報を記憶する。本実施例では、記憶部22は、道路データや施設情報などを含む地図DB20を記憶する。また、記憶部22は、入力部24への入力等に基づき制御部25が生成したプロフィール情報Ipを記憶する。プロフィール情報Ipは、本発明における「運転手情報」の一例である。さらに、記憶部22は、通信部21がサーバ装置1から受信した抽出モデル情報Imを記憶する。 The storage unit 22 stores programs executed by the control unit 25 and information necessary for the control unit 25 to execute predetermined processing. In this embodiment, the storage unit 22 stores a map DB 20 including road data, facility information, and the like. The storage unit 22 also stores profile information Ip generated by the control unit 25 based on the input to the input unit 24 and the like. Profile information Ip is an example of "driver information" in the present invention. Furthermore, the storage unit 22 stores the extraction model information Im that the communication unit 21 receives from the server device 1 .

センサ部23は、車両の進行方向における風景を撮影するカメラ31と、車両の絶対的な位置情報などを生成するGPS受信機32と、ジャイロセンサ及び速度センサなどの自律測位装置33とを含む。センサ部23は、生成した出力信号を、制御部25へ供給する。カメラ31は、本発明における「撮影部」の一例である。 The sensor unit 23 includes a camera 31 that captures scenery in the direction in which the vehicle is traveling, a GPS receiver 32 that generates absolute position information of the vehicle, and an autonomous positioning device 33 such as a gyro sensor and a speed sensor. The sensor section 23 supplies the generated output signal to the control section 25 . The camera 31 is an example of the "shooting unit" in the present invention.

入力部24は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、運転手のプロフィールの入力などを受け付け、生成した入力信号を制御部25へ供給する。出力部26は、例えば、制御部25の制御に基づき出力を行うディスプレイやスピーカ等である。 The input unit 24 is a button, a touch panel, a remote controller, a voice input device, or the like for the user to operate. A signal is supplied to the control unit 25 . The output unit 26 is, for example, a display, a speaker, or the like that outputs based on the control of the control unit 25 .

制御部25は、プログラムを実行するCPUなどを含み、端末装置2の全体を制御する。例えば、制御部25は、入力部24によるユーザ入力等に基づきプロフィール情報Ipを生成し、記憶部22に記憶させる。また、制御部25は、通信部21によりプロフィール情報Ipをサーバ装置1へ送信することで、抽出モデル情報Imを通信部21により受信して記憶部22に記憶させる。また、制御部25は、受信した抽出モデル情報Imが示す運転評価モデルに対し、カメラ31が生成した画像(単に「カメラ画像」とも呼ぶ。)を入力することで、カメラ31が撮影する前方の道路の運転難易度を示す評価値を取得する。制御部25は、本発明における「評価情報生成部」の一例である。 The control unit 25 includes a CPU that executes programs, and controls the entire terminal device 2 . For example, the control unit 25 generates the profile information Ip based on the user's input through the input unit 24 and stores it in the storage unit 22 . Further, the control unit 25 transmits the profile information Ip to the server device 1 through the communication unit 21 , thereby receiving the extraction model information Im through the communication unit 21 and storing it in the storage unit 22 . In addition, the control unit 25 inputs an image generated by the camera 31 (also referred to simply as a “camera image”) to the driving evaluation model indicated by the received extracted model information Im, thereby obtaining an image of the front captured by the camera 31. Acquire an evaluation value indicating the driving difficulty of the road. The control unit 25 is an example of the "evaluation information generation unit" in the present invention.

[運転評価モデルDB]
運転評価モデルDB10に登録される各運転評価モデルは、性別や運転歴などのプロフィールの共通性を有する判定者のグループごとに生成され、共通するプロフィールの分類情報と関連付けられている。これについて、図3を参照して説明する。
[Driving evaluation model DB]
Each driving evaluation model registered in the driving evaluation model DB 10 is generated for each group of judges having common profiles such as gender and driving history, and is associated with common profile classification information. This will be described with reference to FIG.

図3は、運転評価モデルDB10に含まれる各運転評価モデルの識別番号(「モデルID」とも呼ぶ。)と当該運転評価モデルに対応する判定者のプロフィールの分類情報との対応テーブルである。図3の対応テーブルは、「性別」、「運転歴」、「居住地」、「年齢」、及び「モデルID」の各項目を有する。 FIG. 3 is a correspondence table between the identification number (also referred to as “model ID”) of each driving evaluation model included in the driving evaluation model DB 10 and the classification information of the judge's profile corresponding to the driving evaluation model. The correspondence table in FIG. 3 has items of “sex”, “driving history”, “place of residence”, “age”, and “model ID”.

ここで、モデルID「M001」の運転評価モデルは、性別が男、運転歴が5年未満、居住地が東京都、年齢が25歳~39歳である判定者が参照した撮影画像と、当該判定者が撮影画像を参照して判定した運転難易度の評価値との組み合わせを教師データとして学習して得られた運転評価モデルを示す。同様に、モデルID「M002」の運転評価モデルは、性別が男、運転歴が5年未満、居住地が東京都、年齢が40歳~59歳である判定者が参照した撮影画像と、当該判定者が撮影画像を参照して判定した運転難易度の評価値との組み合わせを教師データとして学習して得られた運転評価モデルを示す。また、モデルID「M251」の運転評価モデルは、性別が女、運転歴が5年未満、居住地が埼玉県、年齢が60歳~69歳である判定者が参照した撮影画像と、当該判定者が撮影画像を参照して判定した運転難易度の評価値との組み合わせを教師データとして学習して得られた運転評価モデルを示す。また、モデルID「M342」の運転評価モデルは、性別が女、運転歴が5年以上、居住地が神奈川県、年齢が24歳以下である判定者が参照した撮影画像と、当該判定者が撮影画像を参照して判定した運転難易度の評価値との組み合わせを教師データとして学習して得られた運転評価モデルを示す。また、モデルID「M445」の運転評価モデルは、性別が女、運転歴が5年以上、居住地が北海道、年齢が70歳以上である判定者が参照した撮影画像と、当該判定者が撮影画像を参照して判定した運転難易度の評価値との組み合わせを教師データとして学習して得られた運転評価モデルを示す。 Here, the driving evaluation model with the model ID “M001” is a photographed image referred to by a judge who is male, has less than 5 years of driving history, resides in Tokyo, and is between 25 and 39 years old. A driving evaluation model obtained by learning a combination of driving difficulty evaluation values determined by an determiner with reference to a photographed image as teacher data is shown. Similarly, the driving evaluation model with the model ID “M002” includes a photographed image referred to by a judge who is male, has less than five years of driving experience, resides in Tokyo, and is aged between 40 and 59. A driving evaluation model obtained by learning a combination of driving difficulty evaluation values determined by an determiner with reference to a photographed image as teacher data is shown. In addition, the driving evaluation model with the model ID “M251” is a photographed image referenced by a judge who is female, has less than 5 years of driving history, resides in Saitama Prefecture, and is 60 to 69 years old. A driving evaluation model obtained by learning a combination of driving difficulty evaluation values determined by a person with reference to photographed images as teacher data is shown. In addition, the driving evaluation model with the model ID “M342” is a photographed image referenced by a judge who is female, has a driving history of 5 years or more, resides in Kanagawa prefecture, and is 24 years old or younger, and The driving evaluation model obtained by learning the combination with the evaluation value of the driving difficulty determined by referring to the photographed image as teacher data is shown. In addition, the driving evaluation model with the model ID “M445” is a photographed image referenced by a judge who is female, has a driving history of 5 years or more, resides in Hokkaido, and is 70 years or older, and a photographed image taken by the judge. A driving evaluation model obtained by learning a combination of driving difficulty evaluation values determined by referring to images as teacher data is shown.

このように、運転評価モデルは、性別、運転歴、居住地、年齢に基づき判定者をグループ分けした場合のグループごとに生成されている。一般に、運転手が知覚する運転難易度は、運転手の性別、運転歴、居住地(即ちよく走行するエリア)、年齢等によって異なる。以上を勘案し、本実施例では、運転手が感じる運転難易度に影響があるプロフィールの項目に基づき判定者をグループ分けし、サーバ装置1は、分けられたグループごとに予め生成された運転評価モデルを運転評価モデルDB10として記憶しておく。 In this way, the driving evaluation model is generated for each group when the judges are grouped based on sex, driving history, place of residence, and age. In general, the degree of driving difficulty perceived by a driver varies depending on the driver's gender, driving history, place of residence (that is, the area where the vehicle is frequently driven), age, and the like. In consideration of the above, in the present embodiment, judges are divided into groups based on profile items that affect the degree of difficulty of driving felt by the driver, and the server device 1 generates a pre-generated driving evaluation for each divided group. The model is stored as the driving evaluation model DB10.

なお、図3の例では、運転歴は5年未満と5年以上との2つに分類され、居住地は都道府県により分類され、年齢は5段階により分類されていたが、各項目の分類方法はこれに限定されない。例えば、運転歴は3段階以上に分けられてもよく、居住地はより広域なエリア(例えば7地方)又はより詳細なエリアにより分類されてもよい。同様に、年齢は5段階以外の段階により分類されてもよい。なお、運転歴に代えて、又はこれに加えて、図3の対応テーブルには、運転歴以外の運転履歴(例えば事故の回数又は頻度、急ブレーキの回数又は頻度等)に関する項目が設けられてもよい。 In the example of FIG. 3, the driving history is classified into two categories, less than 5 years and 5 years or more, the place of residence is classified by prefecture, and the age is classified into 5 stages. The method is not limited to this. For example, driving history may be divided into three or more tiers, and residence may be categorized by broader areas (eg, seven regions) or more detailed areas. Similarly, age may be classified by stages other than five stages. In place of or in addition to the driving history, the correspondence table of FIG. 3 includes items related to the driving history other than the driving history (for example, the number or frequency of accidents, the number or frequency of sudden braking, etc.). good too.

[運転評価モデルの配信]
図4は、サーバ装置1が実行する運転評価モデルの配信処理の手順を示すフローチャートの一例である。サーバ装置1は、図4のフローチャートの処理を繰り返し実行する。
[Distribution of driving evaluation model]
FIG. 4 is an example of a flowchart showing the procedure of the driving evaluation model delivery process executed by the server device 1 . The server device 1 repeatedly executes the processing of the flowchart of FIG.

まず、サーバ装置1は、端末装置2から送信されるプロフィール情報Ipを受信したか否か判定する(ステップS101)。ここで、プロフィール情報Ipには、例えば、端末装置2のユーザの性別、運転歴、居住地、年齢などのプロフィールの情報が含まれている。そして、サーバ装置1は、プロフィール情報Ipを受信した場合(ステップS101;Yes)、ステップS102へ処理を進める。一方、サーバ装置1は、プロフィール情報Ipを受信しない場合(ステップS101;No)、フローチャートの処理を終了する。 First, the server device 1 determines whether or not the profile information Ip transmitted from the terminal device 2 has been received (step S101). Here, the profile information Ip includes profile information such as gender, driving history, place of residence, and age of the user of the terminal device 2, for example. Then, when the server apparatus 1 receives the profile information Ip (step S101; Yes), the process proceeds to step S102. On the other hand, if the server device 1 does not receive the profile information Ip (step S101; No), the processing of the flowchart ends.

サーバ装置1は、ステップS101でプロフィール情報Ipの受信後、プロフィール情報Ipが示すプロフィールを参照し、当該プロフィールに適合する判定者のグループ(適合グループ)に対応する運転評価モデルを運転評価モデルDB10から抽出する(ステップS102)。具体的には、サーバ装置1は、図3に示す対応テーブルを参照し、プロフィール情報Ipに含まれる性別、運転歴、居住地、年齢に該当するレコードに記録されたモデルIDに対応する運転評価モデルを運転評価モデルDB10から抽出する。例えば、プロフィール情報Ipが示す性別が「男」、運転歴が「3年」、居住地が「東京都」、年齢が「45歳」である場合、図3の2番目のレコードに記録されたモデルID「M002」の運転評価モデルを運転評価モデルDB10から抽出する。 After receiving the profile information Ip in step S101, the server device 1 refers to the profile indicated by the profile information Ip, and selects a driving evaluation model corresponding to the group of judges (matching group) that matches the profile from the driving evaluation model DB 10. Extract (step S102). Specifically, the server device 1 refers to the correspondence table shown in FIG. A model is extracted from the driving evaluation model DB10. For example, if the gender indicated by the profile information Ip is “male”, the driving history is “3 years”, the place of residence is “Tokyo”, and the age is “45 years old”, the second record in FIG. The driving evaluation model with the model ID "M002" is extracted from the driving evaluation model DB10.

そして、サーバ装置1は、運転評価モデルDB10から抽出した運転評価モデルに関する抽出モデル情報Imを、プロフィール情報Ipの送信元の端末装置2に対して送信する(ステップS103)。これにより、サーバ装置1は、プロフィール情報Ipの送信元である端末装置2に対し、ユーザのプロフィールに適合した運転評価モデルを好適に供給することができる。 Then, the server device 1 transmits the extracted model information Im regarding the driving evaluation model extracted from the driving evaluation model DB 10 to the terminal device 2 that transmitted the profile information Ip (step S103). As a result, the server device 1 can suitably supply the driving evaluation model adapted to the user's profile to the terminal device 2 that is the transmission source of the profile information Ip.

[運転評価モデルの受信及び活用]
図5は、端末装置2が実行する運転評価モデルの受信及び活用に関する処理手順を示すフローチャートの一例である。端末装置2は、図5のフローチャートの処理を繰り返し実行する。
[Reception and utilization of driving evaluation model]
FIG. 5 is an example of a flow chart showing a processing procedure for receiving and utilizing a driving evaluation model executed by the terminal device 2 . The terminal device 2 repeatedly executes the processing of the flowchart of FIG.

まず、端末装置2は、運転評価モデルを未取得であるか、又は、運転評価モデルの取得時からプロフィールの変更があるか否か判定する(ステップS201)。この場合、端末装置2は、サーバ装置1から受信した抽出モデル情報Imが記憶部22に記憶されているか、及び、記憶部22に抽出モデル情報Imを記憶した時からプロフィール情報Ipの変更があるか判定する。 First, the terminal device 2 determines whether the driving evaluation model has not been acquired or whether the profile has been changed since the driving evaluation model was acquired (step S201). In this case, the terminal device 2 determines whether the extracted model information Im received from the server device 1 is stored in the storage unit 22 and whether the profile information Ip has been changed since the storage unit 22 stored the extracted model information Im. determine whether

そして、端末装置2は、運転評価モデルを未取得であるか、又は、運転評価モデルの取得時からプロフィールの変更がある場合(ステップS201;Yes)、プロフィール情報Ipをサーバ装置1に対して送信する(ステップS202)。その後、プロフィール情報Ipを受信したサーバ装置1は、図4のフローチャートを実行し、プロフィール情報Ipが示すプロフィールに適合した運転評価モデルを示す抽出モデル情報Imを、端末装置2へ送信する。そして、端末装置2は、サーバ装置1から抽出モデル情報Imを受信する(ステップS203)。 Then, if the terminal device 2 has not yet acquired the driving evaluation model, or if the profile has been changed since the acquisition of the driving evaluation model (step S201; Yes), the terminal device 2 transmits the profile information Ip to the server device 1. (step S202). After that, the server device 1 that has received the profile information Ip executes the flowchart of FIG. Then, the terminal device 2 receives the extracted model information Im from the server device 1 (step S203).

一方、端末装置2は、運転評価モデルを取得済であり、かつ、運転評価モデルの取得時からプロフィールの変更がないと判断した場合(ステップS201;No)、ステップS204へ処理を進める。 On the other hand, when the terminal device 2 has acquired the driving evaluation model and determines that the profile has not been changed since the acquisition of the driving evaluation model (step S201; No), the process proceeds to step S204.

次に、端末装置2は、車両が走行中であるか否か判定する(ステップS204)。そして、端末装置2は、車両が走行中であると判断した場合(ステップS204;Yes)、カメラ31が生成するカメラ画像を、抽出モデル情報Imが示す運転評価モデルに入力することで、運転難易度の評価値を算出する(ステップS205)。そして、端末装置2は、ステップS205で決定した運転難易度の評価値に基づく出力を行う(ステップS206)。この場合、端末装置2は、ステップS205で算出した運転難易度の評価値に応じた表示又は/及び音声出力を、出力部26により行う。一方、端末装置2は、車両が停止中である場合(ステップS204;No)、フローチャートの処理を終了する。これにより、同一地点で撮影されたカメラ画像に基づく運転難易度の評価値を繰り返し算出するのを防ぐ。 Next, the terminal device 2 determines whether or not the vehicle is running (step S204). When the terminal device 2 determines that the vehicle is running (step S204; Yes), the terminal device 2 inputs the camera image generated by the camera 31 to the driving evaluation model indicated by the extraction model information Im, thereby determining the driving difficulty level. A degree evaluation value is calculated (step S205). Then, the terminal device 2 performs an output based on the evaluation value of the driving difficulty determined in step S205 (step S206). In this case, the terminal device 2 uses the output unit 26 to perform display and/or audio output according to the evaluation value of the driving difficulty level calculated in step S205. On the other hand, when the vehicle is stopped (step S204; No), the terminal device 2 ends the processing of the flowchart. This prevents repeated calculation of the evaluation value of the driving difficulty level based on camera images taken at the same point.

図6は、ステップS206での端末装置2の表示例である。図6の例では、端末装置2は、カメラ画像をディスプレイに表示すると共に、当該カメラ画像に重ねて案内画像81、82を表示させている。 FIG. 6 is a display example of the terminal device 2 in step S206. In the example of FIG. 6, the terminal device 2 displays the camera image on the display, and also displays guide images 81 and 82 superimposed on the camera image.

図6の例では、端末装置2は、設定された案内経路の情報に基づき、300m先を右折すべき旨を示す案内画像81を表示すると共に、ステップS205で決定した運転難易度の評価値に基づく案内画像82を表示している。図6の例では、端末装置2は、ステップS205で決定した運転難易度の評価値が運転しにくいことを表す値であったことから、運転に注意すべき旨の警告を表す案内画像82を表示している。なお、端末装置2は、案内画像82に加えて、運転に注意すべき旨を警告する音声を出力してもよい。 In the example of FIG. 6, the terminal device 2 displays a guidance image 81 indicating that a right turn should be made after 300 m based on the set guidance route information, and at the same time, according to the evaluation value of the driving difficulty determined in step S205. A guide image 82 based on this is displayed. In the example of FIG. 6, since the evaluation value of the driving difficulty level determined in step S205 is a value indicating that driving is difficult, the terminal device 2 displays the guidance image 82 indicating a warning to be careful when driving. it's shown. In addition to the guidance image 82, the terminal device 2 may output a voice warning that the driver should be careful while driving.

以上説明したように、本実施例に係るサーバ装置1は、移動体周囲の撮影画像と、判定者が撮影画像に基づき判定した運転に関する評価値とに基づき学習された運転評価モデルを記憶する。ここで、運転評価モデルは、プロフィールの共通性により分類された判定者のグループごとに生成されている。サーバ装置1は、車両を運転する運転手に関するプロフィール情報Ipを取得し、取得したプロフィール情報Ipに適合する適合グループにおける運転評価モデルを運転評価モデルDB10から抽出する。これにより、サーバ装置1は、取得したプロフィール情報Ipが示す運転手の特徴に合致した運転評価モデルを好適に抽出することができる。 As described above, the server device 1 according to the present embodiment stores the driving evaluation model learned based on the captured image around the moving body and the driving evaluation value determined by the determiner based on the captured image. Here, the driving evaluation model is generated for each group of judges classified according to commonality of profile. The server device 1 acquires the profile information Ip about the driver who drives the vehicle, and extracts from the driving evaluation model DB 10 the driving evaluation models in the matching groups that match the acquired profile information Ip. As a result, the server device 1 can suitably extract a driving evaluation model that matches the characteristics of the driver indicated by the acquired profile information Ip.

[変形例]
次に、実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
[Modification]
Next, a modification suitable for the embodiment will be described. The following modifications may be applied to the above embodiments in any combination.

(変形例1)
運転評価モデルは、車両の走行環境に基づきさらに分類して生成されてもよい。
(Modification 1)
The driving evaluation model may be generated by further classifying based on the driving environment of the vehicle.

この場合、図3の対応テーブルでは、性別、運転歴、居住地、年齢等のプロフィールに関する項目に加えて、天候、道路種別、時間帯などの走行環境に関する項目がさらに設けられる。そして、運転評価モデルは、走行環境に関する項目に基づく分類ごとに予め生成され、運転評価モデルDB10に記憶される。この場合、各走行環境に対応する運転評価モデルは、各走行環境において道路上で撮影された撮影画像ごとに、撮影画像と、当該撮影画像を参照して判定者が判定した運転難易度の評価値との組み合わせを教師データとして学習することで生成される。 In this case, in the correspondence table of FIG. 3, in addition to profile items such as sex, driving history, place of residence, and age, there are further items related to driving environment such as weather, road type, and time zone. A driving evaluation model is generated in advance for each classification based on items related to the driving environment, and stored in the driving evaluation model DB 10 . In this case, the driving evaluation model corresponding to each driving environment consists of a photographed image and an evaluation of the driving difficulty determined by the judge by referring to the photographed image for each photographed image taken on the road in each driving environment. It is generated by learning combinations with values as teacher data.

そして、例えば、端末装置2は、図5のステップS203において、プロフィール情報Ipが示すプロフィールに適合した各走行環境に対応する運転評価モデルをサーバ装置1から受信する。その後、端末装置2は、車両の走行時では、図示しない雨滴センサ等のセンサ部23の出力や地図DB20等を参照し、現在の車両の走行環境を認識する。そして、端末装置2は、認識した走行環境に対応する運転評価モデルを選択し、運転難易度の評価値を、ステップS205において算出する。なお、上記の例に代えて、端末装置2は、運転評価モデルの取得前に現在の車両の走行環境を認識し、プロフィール情報Ipと共に走行環境を示す情報をサーバ装置1へ送信することで、現在の車両の走行環境に対応する運転評価モデルをサーバ装置1から受信してもよい。 Then, for example, in step S203 of FIG. 5, the terminal device 2 receives, from the server device 1, a driving evaluation model corresponding to each driving environment that matches the profile indicated by the profile information Ip. Thereafter, while the vehicle is running, the terminal device 2 refers to the output of the sensor unit 23 such as a raindrop sensor (not shown), the map DB 20, and the like, and recognizes the current running environment of the vehicle. Then, the terminal device 2 selects a driving evaluation model corresponding to the recognized driving environment, and calculates an evaluation value of the driving difficulty level in step S205. Instead of the above example, the terminal device 2 recognizes the current running environment of the vehicle before acquiring the driving evaluation model, and transmits information indicating the running environment together with the profile information Ip to the server device 1. A driving evaluation model corresponding to the current driving environment of the vehicle may be received from the server device 1 .

(変形例2)
運転評価モデルにより判定する対象は、運転難易度に限定されない。例えば、運転評価モデルにより判定する対象は、見晴らしの良さであってもよい。この場合、各運転評価モデルは、道路上で撮影された撮影画像と、当該撮影画像を参照した判定者が判定した見晴らしの良さの評価値との組み合わせを教師データとして学習することで生成される。そして、これらの各運転評価モデルは、実施例と同様に、性別や年齢などのプロフィールの共通性を有する判定者のグループごとに生成され、共通するプロフィールの分類情報と関連付けられて運転評価モデルDB10に記憶される。そして、端末装置2は、実施例と同様に、図5のフローチャートに基づき、プロフィール情報Ipをサーバ装置1に送信することで、抽出モデル情報Imをサーバ装置1から受信する。この場合、サーバ装置1は、図4のフローチャートに基づき、端末装置2から受信したプロフィール情報Ipが示すプロフィールに適合する運転評価モデルを運転評価モデルDB10から抽出し、抽出モデル情報Imとして端末装置2へ送信する。そして、端末装置2は、抽出モデル情報Imの受信後では、抽出モデル情報Imが示す運転評価モデルにカメラ画像を入力することで、見晴らしの良さに関する評価値を取得し、当該評価値に基づく表示又は/及び音声出力を行う。
(Modification 2)
The object to be judged by the driving evaluation model is not limited to the driving difficulty level. For example, the object to be judged by the driving evaluation model may be the visibility. In this case, each driving evaluation model is generated by learning, as teacher data, a combination of a photographed image taken on the road and an evaluation value of the visibility determined by an evaluator who refers to the photographed image. . Each of these driving evaluation models is generated for each group of judges having common profiles such as gender and age, and is associated with the classification information of the common profiles in the driving evaluation model DB 10 as in the embodiment. stored in Then, the terminal device 2 receives the extracted model information Im from the server device 1 by transmitting the profile information Ip to the server device 1 based on the flowchart of FIG. 5, as in the embodiment. In this case, the server device 1 extracts from the driving evaluation model DB 10 a driving evaluation model that matches the profile indicated by the profile information Ip received from the terminal device 2 based on the flowchart of FIG. Send to After receiving the extracted model information Im, the terminal device 2 inputs the camera image to the driving evaluation model indicated by the extracted model information Im, acquires an evaluation value regarding the visibility, and displays based on the evaluation value. Or/and audio output.

本変形例によれば、端末装置2は、車両の走行中において、見晴らしの良さに関する評価値に基づく表示又は/及び音声出力を行うため、観光の観点又は安全の観点において好ましい道路を走行しているかを運転手に好適に報知することができる。ここで、観光の観点において好ましい道路は、例えば、観光地において景観の優れる道路が該当し、安全の観点において好ましい道路は、例えば、遠方からでも比較的歩行者を発見しやすい安全な道路が該当する。また、運転手は、例えば、見晴らしの良さに関する評価値が低い旨の表示又は/及び音声出力があった場合には、観光の観点又は安全の観点から好ましくない道路を走行していると判断し、走行経路を変更したり、運転への集中力をより高めたりする対応を行うことができる。 According to this modification, since the terminal device 2 performs display and/or audio output based on the evaluation value regarding the good view while the vehicle is running, it is possible to drive on a road that is preferable from the viewpoint of sightseeing or safety. It is possible to appropriately notify the driver of whether or not there is a vehicle. Here, roads that are preferable from the viewpoint of tourism correspond to, for example, roads with excellent scenery in sightseeing spots, and roads that are preferable from the viewpoint of safety correspond to, for example, safe roads where pedestrians are relatively easy to spot even from a distance. do. In addition, for example, when there is a display and/or voice output indicating that the evaluation value regarding the goodness of the view is low, the driver judges that the driver is driving on an unfavorable road from the viewpoint of sightseeing or safety. , it is possible to take measures such as changing the driving route or increasing concentration on driving.

1 サーバ装置
2 端末装置
10 運転評価モデルDB
11、21 通信部
12、22 記憶部
15、25 制御部
23 センサ部
24 入力部
26 出力部
1 Server Device 2 Terminal Device 10 Driving Evaluation Model DB
11, 21 communication section 12, 22 storage section 15, 25 control section 23 sensor section 24 input section 26 output section

Claims (1)

移動体を運転する運転手に関する運転手情報を取得する情報取得部と、
移動体周囲の撮影画像と、判定者が前記撮影画像に基づき評価した運転に関する評価情報とに基づき、学習された運転評価モデルから前記運転手情報に適合する適合グループにおける運転評価モデルを抽出する抽出部と、
を備える運転評価モデル適合装置。
an information acquisition unit that acquires driver information about a driver who drives a mobile object;
Extracting a driving evaluation model in a suitable group that matches the driver information from the learned driving evaluation model based on the photographed image around the moving body and the evaluation information about driving evaluated by the judge based on the photographed image. Department and
A driving evaluation model matching device comprising:
JP2022141983A 2016-11-02 2022-09-07 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium Ceased JP2022179490A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022141983A JP2022179490A (en) 2016-11-02 2022-09-07 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
JP2023199140A JP2024019213A (en) 2016-11-02 2023-11-24 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016215294A JP2018073284A (en) 2016-11-02 2016-11-02 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
JP2021140256A JP2021193583A (en) 2016-11-02 2021-08-30 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
JP2022141983A JP2022179490A (en) 2016-11-02 2022-09-07 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021140256A Division JP2021193583A (en) 2016-11-02 2021-08-30 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023199140A Division JP2024019213A (en) 2016-11-02 2023-11-24 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2022179490A true JP2022179490A (en) 2022-12-02

Family

ID=62115652

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2016215294A Pending JP2018073284A (en) 2016-11-02 2016-11-02 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
JP2021140256A Ceased JP2021193583A (en) 2016-11-02 2021-08-30 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
JP2022141983A Ceased JP2022179490A (en) 2016-11-02 2022-09-07 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
JP2023199140A Pending JP2024019213A (en) 2016-11-02 2023-11-24 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016215294A Pending JP2018073284A (en) 2016-11-02 2016-11-02 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
JP2021140256A Ceased JP2021193583A (en) 2016-11-02 2021-08-30 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023199140A Pending JP2024019213A (en) 2016-11-02 2023-11-24 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Country Status (1)

Country Link
JP (4) JP2018073284A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018073284A (en) * 2016-11-02 2018-05-10 パイオニア株式会社 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206031A (en) * 2012-03-28 2013-10-07 Nec Corp Driving evaluation system, driving evaluation method, and driving evaluation program
JP2021193583A (en) * 2016-11-02 2021-12-23 パイオニア株式会社 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206031A (en) * 2012-03-28 2013-10-07 Nec Corp Driving evaluation system, driving evaluation method, and driving evaluation program
JP2021193583A (en) * 2016-11-02 2021-12-23 パイオニア株式会社 Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium

Also Published As

Publication number Publication date
JP2018073284A (en) 2018-05-10
JP2021193583A (en) 2021-12-23
JP2024019213A (en) 2024-02-08

Similar Documents

Publication Publication Date Title
CN111386701B (en) Image processing apparatus, image processing method, and program
US9062977B2 (en) Navigation of on-road vehicle based on object reference data that is updated
CN108803604A (en) Vehicular automatic driving method, apparatus and computer readable storage medium
US10553113B2 (en) Method and system for vehicle location
JP6939283B2 (en) Image processing device, image processing method, and program
JPWO2019035300A1 (en) Vehicle driving control device, vehicle driving control method, and program
KR20180072543A (en) In-vehicle device and route information presentation system
JPWO2019069581A1 (en) Image processing device and image processing method
WO2019188391A1 (en) Control device, control method, and program
CN110100153B (en) Information providing system
JPWO2019082670A1 (en) Information processing equipment, information processing methods, programs, and mobiles
JP2023099864A (en) Route search device, control method, program, and storage medium
KR101969842B1 (en) System for classifying dangerous road surface information based on deep running and method thereof
US11250279B2 (en) Generative adversarial network models for small roadway object detection
US20230048304A1 (en) Environmentally aware prediction of human behaviors
US11783574B2 (en) Artificial intelligence based real time vehicle parking verification
JP2024019213A (en) Driving evaluation model adaptation device, terminal equipment, control method, program, and storage medium
CN115223115A (en) Information processing apparatus, control method thereof, control apparatus and control method of moving object, and recording medium
WO2018123057A1 (en) Information providing system
KR102220912B1 (en) Display apparatus for vhhicleand vehicle including the same
CN108074395B (en) Identity recognition method and device
US20230298340A1 (en) Information processing apparatus, mobile object, control method thereof, and storage medium
CN117197834A (en) Image-based pedestrian speed estimation
JP2020077262A (en) Information processing system, server, program, and information processing method
US20220315063A1 (en) Information processing apparatus, mobile object, control method thereof, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20240227