JP2022144269A - Information provision device, information provision method, and information provision program - Google Patents

Information provision device, information provision method, and information provision program Download PDF

Info

Publication number
JP2022144269A
JP2022144269A JP2021045190A JP2021045190A JP2022144269A JP 2022144269 A JP2022144269 A JP 2022144269A JP 2021045190 A JP2021045190 A JP 2021045190A JP 2021045190 A JP2021045190 A JP 2021045190A JP 2022144269 A JP2022144269 A JP 2022144269A
Authority
JP
Japan
Prior art keywords
road
traveled
unit
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021045190A
Other languages
Japanese (ja)
Other versions
JP7393375B2 (en
Inventor
孝太 坪内
Kota Tsubouchi
秀仁 五味
Hidehito Gomi
照彦 寺岡
Teruhiko Teraoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021045190A priority Critical patent/JP7393375B2/en
Publication of JP2022144269A publication Critical patent/JP2022144269A/en
Application granted granted Critical
Publication of JP7393375B2 publication Critical patent/JP7393375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information provision device, information provision method, and information provision program, which allow a user to drive comfortably.SOLUTION: An information provision device disclosed herein comprises an acquisition unit, selection unit, and provision unit. The acquisition unit acquires road feature information on features of a current road on which a vehicle driven by a user is traveling. The selection unit selects a traveled road having features similar to the current road from among traveled roads traveled by the user in the past at a frequency that is equal to or greater than a given threshold. The provision unit provides content based on the traveled road selected by the selection unit.SELECTED DRAWING: Figure 6

Description

本発明は、情報提供装置、情報提供方法および情報提供プログラムに関する。 The present invention relates to an information providing device, an information providing method, and an information providing program.

従来、車両のフロントガラスに所定の情報を表示して運転者の運転を支援する技術が提案されている。 2. Description of the Related Art Conventionally, there has been proposed a technology for supporting a driver's driving by displaying predetermined information on the windshield of a vehicle.

特許第6711295号公報Japanese Patent No. 6711295

しかしながら、従来技術では、利用者が安心して運転する点で更なる改善の余地があった。 However, in the prior art, there is room for further improvement in terms of allowing users to drive with peace of mind.

本願は、上記に鑑みてなされたものであって、利用者が安心して運転することができる情報提供装置、情報提供方法および情報提供プログラムを提供することを目的とする。 The present application has been made in view of the above, and aims to provide an information providing device, an information providing method, and an information providing program that enable a user to drive with peace of mind.

本願に係る情報提供装置は、取得部と、選択部と、提供部とを備える。前記取得部は、利用者が運転中の車両が走行している走行中道路の特徴に関する道路特徴情報を取得する。前記選択部は、前記利用者が過去に走行した頻度が所定の閾値以上である走行済道路のうち、前記走行中道路の前記特徴と類似する前記走行済道路を選択する。前記提供部は、前記選択部によって選択された前記走行済道路に基づくコンテンツを提供する。 An information provision device according to the present application includes an acquisition unit, a selection unit, and a provision unit. The acquisition unit acquires road characteristic information relating to characteristics of a road on which a vehicle being driven by a user is traveling. The selection unit selects the road that is similar to the feature of the road that is being traveled, from among the roads that the user has traveled in the past with a frequency equal to or greater than a predetermined threshold. The provision unit provides content based on the traveled road selected by the selection unit.

実施形態の一態様によれば、利用者が安心して運転することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that the user can drive with peace of mind.

図1は、実施形態に係る情報提供処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of information providing processing according to the embodiment. 図2は、実施形態に係る情報提供処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of information provision processing according to the embodiment. 図3は、実施形態に係る情報提供システムの一例を示す図である。FIG. 3 is a diagram illustrating an example of an information providing system according to the embodiment; 図4は、実施形態に係る走行済道路データベースの一例を示す図である。FIG. 4 is a diagram showing an example of a traveled road database according to the embodiment. 図5は、実施形態に係る代替物データベースの一例を示す図である。FIG. 5 is a diagram illustrating an example of a substitute database according to the embodiment; 図6は、実施形態に係る第1処理部の構成の一例を示す図である。6 is a diagram illustrating an example of a configuration of a first processing unit according to the embodiment; FIG. 図7は、実施形態に係る第2処理部の構成の一例を示す図である。7 is a diagram illustrating an example of a configuration of a second processing unit according to the embodiment; FIG. 図8は、実施形態に係る第1処理部によって実行される処理の一例を示すフローチャートである。8 is a flowchart illustrating an example of processing executed by a first processing unit according to the embodiment; FIG. 図9は、実施形態に係る第2処理部によって実行される処理の一例を示すフローチャートである。9 is a flowchart illustrating an example of processing executed by a second processing unit according to the embodiment; FIG. 図10は、ハードウェア構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a hardware configuration;

以下に、本願に係る情報提供装置、情報提供方法および情報提供プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報提供装置、情報提供方法および情報提供プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 EMBODIMENT OF THE INVENTION Below, the form (it describes as "embodiment" hereafter) for implementing the information provision apparatus which concerns on this application, the information provision method, and the information provision program is demonstrated in detail, referring drawings. Note that the information providing apparatus, information providing method, and information providing program according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

(実施形態)
〔情報提供処理の概要〕
まず、図1および図2を参照して、本開示の例示的な実施形態について詳細に説明する。図1および図2は、実施形態に係る情報提供処理の一例を示す図である。情報提供処理は、情報提供装置が情報提供方法を実行することで行われる処理である。
(embodiment)
[Outline of information provision processing]
First, exemplary embodiments of the present disclosure will be described in detail with reference to FIGS. 1 and 2. FIG. 1 and 2 are diagrams illustrating an example of information provision processing according to the embodiment. The information providing process is a process performed by the information providing device executing the information providing method.

〔図1に示す情報提供処理〕
まず、図1に示す情報提供処理について説明する。図1に示す情報提供処理は、車両Cを運転中の利用者が初めての道路を走行する場合に、いつも走行している他の道路の画像を表示することで、利用者が初めての道路でも安心していつも通りの運転を行えるようにできるものである。
[Information provision processing shown in FIG. 1]
First, the information provision processing shown in FIG. 1 will be described. In the information providing process shown in FIG. 1, when a user driving a vehicle C travels on a road for the first time, an image of another road that the user always travels on is displayed. It allows you to drive as usual without worry.

また、図1に示すように、利用者は、利用者端末500を装着しており、利用者端末500が有する不図示の表示部を介して各種画像を見ることができる。 Also, as shown in FIG. 1, the user wears a user terminal 500 and can view various images through a display unit (not shown) of the user terminal 500 .

まず、情報提供装置100は、利用者が運転中の車両Cが走行している道路(以下、走行中道路)の特徴に関する道路特徴情報を取得する(ステップS1)。道路特徴情報は、例えば、道路の形状や、大きさ(道路幅)、路面状態(凹凸や濡れ、凍結等)、混雑状況(歩行者や駐停車を含む)等を含んだ情報である。また、道路特徴情報は、道路の形状や、大きさ(道路幅)、路面状態(凹凸や濡れ、凍結等)、混雑状況等に基づいた運転の難易度に関する難易度情報を含んでもよい。 First, the information providing device 100 acquires road characteristic information relating to the characteristics of the road on which the vehicle C being driven by the user is traveling (hereinafter referred to as the "current road") (step S1). The road characteristic information includes, for example, the shape and size of the road (road width), road surface conditions (unevenness, wetness, freezing, etc.), congestion conditions (including pedestrians and parked vehicles), and the like. The road characteristic information may also include difficulty level information regarding the difficulty level of driving based on the shape and size (road width) of the road, road surface conditions (unevenness, wetness, freezing, etc.), congestion status, and the like.

なお、道路特徴情報は、利用者端末500や車両Cに搭載された車載装置(ナビゲーション装置等)に予め記憶された情報であってもよく、利用者端末500や車載装置によって推定された情報であってもよい。あるいは、道路特徴情報は、不図示のサーバ装置から取得されてもよい。 The road characteristic information may be information stored in advance in the user terminal 500 or an in-vehicle device (such as a navigation device) mounted on the vehicle C, or may be information estimated by the user terminal 500 or the in-vehicle device. There may be. Alternatively, the road characteristic information may be acquired from a server device (not shown).

つづいて、情報提供装置100は、利用者の視野を示す視野画像を取得する(ステップS2)。例えば、情報提供装置100は、利用者端末500が有する不図示のカメラや、車両Cに取り付けられたカメラによって撮像された画像を視野画像として取得する。 Subsequently, the information providing device 100 acquires a field-of-view image representing the field of view of the user (step S2). For example, the information providing apparatus 100 acquires an image captured by a camera (not shown) of the user terminal 500 or a camera attached to the vehicle C as the field-of-view image.

つづいて、情報提供装置100は、利用者が既に走行した道路(以下、走行済道路)に関する走行済道路データベースの中から、利用者が過去に走行した頻度が所定の閾値以上である走行済道路で、走行中道路の特徴(道路特徴情報)と類似する走行済道路を選択する(ステップS3)。 Subsequently, the information providing apparatus 100 selects from the roads traveled database related to roads the user has already traveled (hereinafter referred to as traveled roads), the roads traveled by the user at a frequency equal to or higher than a predetermined threshold. , a road that has already been traveled and that is similar to the feature (road feature information) of the road being traveled is selected (step S3).

つづいて、情報提供装置100は、ステップS3で選択した走行済道路のうち、走行中道路よりも難易度が高い走行済道路を選択する(ステップS4)。これにより、後段において走行済道路の画像を走行中道路に重ねて表示することで、走行済道路の難易度が高いことにより走行中道路の難易度が相対的に低く感じさせることができるため、利用者が焦ることなく落ち着いて走行することができる。つづいて、情報提供装置100は、ステップS4で選択した走行済道路のうち、走行中道路の道路特徴情報を包含する走行済道路を選択する(ステップS5)。例えば、情報提供装置100は、走行中道路の道路幅よりも広い道路幅の走行済道路や、走行中道路のカーブにおけるR値よりも低いR値のカーブである走行済道路を選択する。また、例えば、情報提供装置100は、走行中道路の制限速度よりも速い制限速度の走行済道路を選択する。 Subsequently, the information providing device 100 selects a traveled road having a higher degree of difficulty than the currently traveled road from among the traveled roads selected in step S3 (step S4). As a result, by displaying the image of the already traveled road superimposed on the currently traveling road in the latter stage, it is possible to make the user feel that the difficulty of the currently traveling road is relatively low due to the high degree of difficulty of the already traveled road. The user can travel calmly without being impatient. Subsequently, the information providing device 100 selects a traveled road that includes the road characteristic information of the road being traveled from among the traveled roads selected in step S4 (step S5). For example, the information providing device 100 selects a traveled road with a width wider than the road on which the vehicle is currently traveling, or a traveled road having an R value lower than the curve of the road on which the vehicle is traveling. Also, for example, the information providing apparatus 100 selects a traveled road with a faster speed limit than the speed limit of the road on which the vehicle is currently traveling.

つづいて、情報提供装置100は、選択した走行済道路の画像を、視野画像の走行中道路の領域に重畳したAR(Augmented Reality)画像を生成する(ステップS6)。なお、AR画像は、走行中道路または走行済道路のいずれか一方を透過させた画像である。あるいは、AR画像は、走行中道路をDR(Diminished Reality)技術により消去して、走行済道路の画像のみとしてもよい。 Subsequently, the information providing device 100 generates an AR (Augmented Reality) image in which the selected image of the road that has been traveled is superimposed on the region of the currently traveling road in the view image (step S6). Note that the AR image is an image in which either the road being traveled or the road that has been traveled is made transparent. Alternatively, the AR image may be an image of the road that has already been traveled, with the road being traveled removed by DR (Diminished Reality) technology.

そして、情報提供装置100は、生成したAR画像を利用者端末500へ提供する(ステップS7)。そして、利用者端末500は、不図示の表示部を介して車両Cのウインドウ領域C100であるフロントガラスの領域にAR画像を表示する(ステップS8)。図1に示す例では、側方に建物が存在する走行中道路の画像(視野画像)を、側方に木が存在する走行済道路に置き換えたAR画像を表示した例を示している。なお、利用者端末500の表示部によりAR画像を表示する場合に限らず、ウインドウ領域C100にAR画像を直接投影可能な装置によりAR画像を表示してもよい。 The information providing device 100 then provides the generated AR image to the user terminal 500 (step S7). Then, the user terminal 500 displays the AR image on the windshield area, which is the window area C100 of the vehicle C, via a display unit (not shown) (step S8). The example shown in FIG. 1 shows an example in which an AR image is displayed in which an image of a currently traveling road with buildings on the side (view image) is replaced with a road on which trees have been traveled on the side. It should be noted that the AR image may be displayed by a device capable of directly projecting the AR image onto the window area C100 instead of displaying the AR image on the display unit of the user terminal 500 .

このように、実施形態に係る情報提供装置100によれば、利用者が初めて走行する走行中道路を、いつも走行している走行済道路の画像に置き換える(重畳する)ことで、利用者は初めて走行する道路を、いつも走行している道路を走行する気分で安心して走行することができる。 As described above, according to the information providing apparatus 100 according to the embodiment, by replacing (superimposing) the image of the road on which the user travels for the first time with the image of the road on which the user always travels, the user can You can drive on the road you are driving on with peace of mind as if you were driving on the road you always drive on.

なお、同じ走行済道路であっても、道路の状況毎に異なる難易度が存在してもよい。例えば、同じ走行済道路を、「晴れ・空いている」、「晴れ・混雑」、「雨・空いている」、「雨・混雑」のように、異なる難易度の走行済道路が存在してもよい。かかる走行済道路は、例えば、コンピュータグラフィック(CG)等により難易度を調整する画像が重畳されてもよい。また、難易度の調整方法として、例えば、道路に存在する建物等をCG等で増やすことで難易度を調整してもよい。 It should be noted that, even on the same road that has been traveled, different difficulty levels may exist for each road condition. For example, the same road that has been traveled may have different degrees of difficulty, such as "sunny/vacant", "sunny/congested", "rainy/vacant", and "rainy/congested". good too. An image for adjusting the degree of difficulty may be superimposed on the traveled road, for example, using computer graphics (CG) or the like. Further, as a method of adjusting the difficulty level, for example, the difficulty level may be adjusted by increasing the number of buildings and the like existing on the road using CG or the like.

なお、走行済道路は、実際の道路に限定されるものではなく、例えば、レーシングゲームのサーキット場のようなコンピュータグラフィックで作成したゲーム道路であってもよい。このようなゲーム道路を走行済道路としたAR画像を生成して表示することで、利用者はゲームをクリアするような感覚で安心して走行することができる。 Note that the road that has been traveled is not limited to an actual road, and may be a game road created by computer graphics, such as a racing game circuit. By generating and displaying an AR image using such game roads as roads that have already been traveled, the user can drive with peace of mind as if he had cleared the game.

また、情報提供装置100は、視野画像以外にも、楽曲等の環境音や、視野画像における輝度を取得してもよい。かかる場合、情報提供装置100は、AR画像とともに、実際の音量よりも小さい音量の環境音を出力する。これにより、利用者の運転に対する集中力高めることができる。また、情報提供装置100は、AR画像の輝度を、視野画像の実際の輝度よりも低下させる。これにより、例えば、対向車線のヘッドライトが眩しい場合に光を低減する(輝度を低下させる)ことで、光による運転の妨げを抑制することができる。 Further, the information providing apparatus 100 may acquire environmental sounds such as music, and luminance in the visual field image, in addition to the visual field image. In such a case, the information providing apparatus 100 outputs environmental sound with a volume lower than the actual volume together with the AR image. As a result, the user's concentration on driving can be enhanced. Also, the information providing apparatus 100 lowers the brightness of the AR image below the actual brightness of the field-of-view image. As a result, for example, by reducing the light (reducing the brightness) when the headlights of the oncoming lane are dazzling, it is possible to suppress the hindrance of driving due to the light.

〔図2に示す情報提供処理〕
次に、図2に示す情報提供処理について説明する。図2に示す情報提供処理は、車両Cを運転中の利用者が、例えば、スポーツカー等のような心理的障害の度合いが大きい(緊張感が高い)対象物の近くを走行する場合に、例えば、軽自動車等の心理的障害の度合いが小さい代替物に置き換えて表示することで、利用者の運転時における緊張感を和らげるものである。
[Information provision processing shown in FIG. 2]
Next, the information provision processing shown in FIG. 2 will be described. The information provision processing shown in FIG. For example, by substituting a substitute with a lesser degree of psychological disturbance, such as a light car, and displaying it, the user's sense of tension while driving is relieved.

具体的には、まず、情報提供装置100は、利用者の視野を示す視野画像を取得する(ステップS11)。例えば、情報提供装置100は、利用者端末500が有する不図示のカメラや、車両Cに取り付けられたカメラによって撮像された画像を視野画像として取得する。 Specifically, first, the information providing device 100 acquires a field-of-view image representing the field of view of the user (step S11). For example, the information providing apparatus 100 acquires an image captured by a camera (not shown) of the user terminal 500 or a camera attached to the vehicle C as the field-of-view image.

つづいて、情報提供装置100は、取得した視野画像から所定の対象物を抽出する(ステップS12)。例えば、情報提供装置100は、画像解析により、例えば、人や車両等の予め指定されたカテゴリの対象物を抽出する。また、情報提供装置100は、車両Cが走行する道路の近くに存在する対象物、すなわち、車両Cが対象物に接近する可能性がある対象物を抽出する。図2に示す例では、左側方に停車している対象車両を対象物として抽出したとする。なお、抽出する対象物の数は、2つ以上であってもよい。そして、情報提供装置100は、画像解析により、抽出した対象物の種別を特定する。図2に示す例では、対象車両の種別がスポーツカーであることとする。 Subsequently, the information providing apparatus 100 extracts a predetermined target object from the acquired field-of-view image (step S12). For example, the information providing apparatus 100 extracts an object of a predetermined category, such as a person or a vehicle, by image analysis. In addition, the information providing apparatus 100 extracts objects existing near the road on which the vehicle C travels, that is, objects to which the vehicle C may approach. In the example shown in FIG. 2, it is assumed that the target vehicle stopped on the left side is extracted as the target object. Note that the number of objects to be extracted may be two or more. Then, the information providing apparatus 100 identifies the type of the extracted object by image analysis. In the example shown in FIG. 2, it is assumed that the type of target vehicle is a sports car.

つづいて、情報提供装置100は、抽出した対象物毎に、利用者の対象物に対する運転時の心理的障害の強さを示す心理スコアを算出する(ステップS13)。心理スコアは、例えば、過去に対象物を通過した際の生体情報(心拍数や体温、視線等)に基づいて算出される。あるいは、心理スコアは、利用者の属性(年収や性格等)と、対象物の価値(図2ではスポールカーの車両価格)とに基づいて算出されてもよい。 Subsequently, the information providing apparatus 100 calculates a psychological score indicating the strength of the user's psychological disturbance to the object during driving for each extracted object (step S13). The psychological score is calculated, for example, based on biological information (heart rate, body temperature, line of sight, etc.) when passing through an object in the past. Alternatively, the psychological score may be calculated based on the attributes of the user (annual income, personality, etc.) and the value of the object (in FIG. 2, the price of the sports car).

つづいて、情報提供装置100は、対象物の心理スコアが所定の閾値以上である場合、予め記憶している代替物データベースの中から、対象物よりも心理スコアが低い代替物を選択する(ステップS14)。図2に示す例では、代替物データベースの物体ID「OB1」である軽自動車がスポーツカーよりも心理スコアが低いこととし、情報提供装置100は、代替物として軽自動車を選択したとする。 Subsequently, when the psychological score of the object is equal to or higher than a predetermined threshold, the information providing apparatus 100 selects a substitute with a lower psychological score than the object from the substitute database stored in advance (step S14). In the example shown in FIG. 2, it is assumed that the light car with the object ID "OB1" in the substitute database has a lower psychological score than the sports car, and the information providing device 100 selects the light car as the substitute.

つづいて、情報提供装置100は、選択した代替物の画像を視野画像の対象物に重畳した重畳画像を生成する(ステップS15)。具体的には、情報提供装置100は、視野画像における対象物をDR(Diminished Reality)技術により消去するとともに、消去した対象物の位置に代替物の画像を重畳した重畳画像を生成する。 Subsequently, the information providing apparatus 100 generates a superimposed image in which the image of the selected substitute is superimposed on the object of the visual field image (step S15). Specifically, the information providing apparatus 100 deletes the target in the field-of-view image by DR (Diminished Reality) technology, and generates a superimposed image in which the image of the substitute is superimposed on the position of the deleted target.

つづいて、情報提供装置100は、生成した重畳画像を利用者端末500へ提供する(ステップS16)。そして、利用者端末500は、不図示の表示部を介して車両Cのウインドウ領域C100であるフロントガラスの領域に重畳画像を表示する(ステップS17)。図2に示す例では、左側方に停車しているスポーツカーを軽自動車に置換した重畳画像を表示した例を示している。 Subsequently, the information providing device 100 provides the generated superimposed image to the user terminal 500 (step S16). Then, the user terminal 500 displays the superimposed image on the windshield area, which is the window area C100 of the vehicle C, via the display unit (not shown) (step S17). The example shown in FIG. 2 shows an example of displaying a superimposed image in which a sports car parked on the left side is replaced with a light car.

これにより、利用者は、実際にはスポーツカーを横切る場面であっても、重畳画像により軽自動車を横切るよう錯覚する、換言すれば、実際の対象物よりも心理的障害の強さが低い代替物を横切るよう錯覚するため、緊張することなくいつも通りの運転を行うことができる。すなわち、実施形態に係る情報提供装置100によれば、運転中の利用者の緊張を和らげることができる。 As a result, even when the user is actually crossing a sports car, the superimposed image gives the user the illusion of crossing a light car. It creates the illusion of crossing an object, so you can drive normally without getting nervous. That is, according to the information providing device 100 according to the embodiment, it is possible to relieve the user's tension while driving.

なお、図2では、対象物よりも心理スコアが低い代替物を重畳する場合を示したが、対象物よりも心理スコアが高い代替物を重畳してもよい。例えば、利用者が長時間運転や眠そうな場合に、警察車両等の心理スコアが高い代替物を重畳してもよい。つまり、情報提供装置100は、心理スコアに基づいて代替物を重畳した重畳画像を提供する。また、情報提供装置100は、重畳画像とともに、代替物に応じた音を出力するようにしてもよい。例えば、代替物として警察車両を重畳する場合に、警察車両のサイレン音を出力するようにしてもよい。 In addition, although FIG. 2 shows a case where a substitute with a lower psychological score than the target is superimposed, a substitute with a higher psychological score than the target may be superimposed. For example, when the user drives for a long time or seems sleepy, a substitute with a high psychological score, such as a police car, may be superimposed. That is, the information providing apparatus 100 provides a superimposed image in which substitutes are superimposed based on the psychological score. Also, the information providing apparatus 100 may output a sound corresponding to the substitute along with the superimposed image. For example, when superimposing a police vehicle as an alternative, the siren sound of the police vehicle may be output.

なお、図2では、対象物であるスポーツカーを、軽自動車の代替物で代替(画像を重畳)する場合、すなわち、車両の種別を変えた代替物で代替する場合を示したが、例えば、対象物である鮮やかな色(ビビッドカラー)のスポーツカーから、落ち着いた色(ダーク系の色)のスポーツカーの代替物で代替してもよい。 Note that FIG. 2 shows a case of substituting a sports car, which is the target object, with a substitute for a light vehicle (overlaying an image), that is, a case of substituting a substitute with a different type of vehicle. A sports car of a bright color (vivid color), which is the object, may be replaced with a sports car of a calm color (dark color).

以下、このような情報提供処理を行う情報提供装置100について詳細に説明する。 The information providing apparatus 100 that performs such information providing processing will be described in detail below.

〔情報提供システム〕
次に、図3を参照して、情報提供装置100を含むシステムの構成例について説明する。
[Information provision system]
Next, a configuration example of a system including the information providing apparatus 100 will be described with reference to FIG.

〔情報提供システムの構成要素〕
図3は、実施形態に係る情報提供システム1の一例を示す図である。図3に示されるように、情報提供システム1は、情報提供装置100および利用者端末500等の構成要素を含む。なお、図1や図2中では図示していないが、情報提供システム1は、複数台の情報提供装置100や、複数台の利用者端末500を含んでもよい。また、情報提供システム1は、情報提供装置100に関係するエンティティ(例えば、業者、エンドユーザ)の装置や、各種情報(道路特徴情報データベースや、走行済道路データベース、代替物データベース)を提供するサーバ、車載装置等の、他の構成要素を含んでもよい。
[Components of information provision system]
FIG. 3 is a diagram showing an example of the information providing system 1 according to the embodiment. As shown in FIG. 3, the information providing system 1 includes components such as an information providing device 100 and a user terminal 500. FIG. Although not shown in FIGS. 1 and 2, the information providing system 1 may include a plurality of information providing apparatuses 100 and a plurality of user terminals 500. FIG. In addition, the information providing system 1 is a server that provides devices of entities (for example, traders, end users) related to the information providing device 100 and various types of information (road characteristic information database, traveled road database, substitute database). , in-vehicle equipment, and other components.

情報提供システム1において、情報提供装置100および利用者端末500は、それぞれネットワークNと有線又は無線により接続される。ネットワークNは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)等のネットワークである。情報提供システム1の構成要素は、ネットワークNを介して互いに通信を行うことができる。 In the information providing system 1, the information providing apparatus 100 and the user terminal 500 are connected to the network N by wire or wirelessly. The network N is, for example, the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), or the like. Components of the information providing system 1 can communicate with each other via the network N. FIG.

情報提供装置100は、車両Cを運転中の利用者に対して上記したAR画像や重畳画像を提供するための処理を実行するサーバである。情報提供装置100は、サーバを含む、任意のタイプの情報提供装置であってもよい。複数台の情報提供装置100が、ウェブサーバ、アプリケーションサーバ、データベースサーバ等の各種サーバの機能をそれぞれ提供してもよい。情報提供装置100の構成例の詳細については、後述する。 The information providing apparatus 100 is a server that executes processing for providing the above-described AR image and superimposed image to the user driving the vehicle C. FIG. Information provider 100 may be any type of information provider, including a server. A plurality of information providing apparatuses 100 may provide functions of various servers such as a web server, an application server, and a database server. A detailed configuration example of the information providing apparatus 100 will be described later.

利用者端末500は、利用者によって利用される情報処理装置である。利用者端末500は、インターネット上の各種サービス(例えば、ポータルサイト、ポータルアプリ)を介して、情報提供装置100へ各種情報を送信することができる。また、利用者端末500は、この各種サービスを介して、情報提供装置100から上記したAR画像や重畳画像を受信して不図示の表示部に表示することができる。利用者端末500は、例えば、メガネ型やゴーグル型の端末装置、スマートフォン、デスクトップ型PC、ノート型PC、タブレット型PC等の装置を含む、任意のタイプの情報処理装置であってもよい。 A user terminal 500 is an information processing device used by a user. The user terminal 500 can transmit various types of information to the information providing apparatus 100 via various services on the Internet (for example, portal site, portal application). Also, the user terminal 500 can receive the AR image and superimposed image described above from the information providing apparatus 100 via these various services and display them on a display unit (not shown). The user terminal 500 may be any type of information processing device including, for example, glasses-type or goggles-type terminal devices, smartphones, desktop PCs, notebook PCs, tablet PCs, and other devices.

〔情報提供装置の構成〕
図3に示されるように、情報提供装置100は、通信部200と、記憶部300と、制御部400とを有する。なお、情報提供装置100は、情報提供装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(液晶ディスプレイ等)を有してもよい。
[Configuration of information providing device]
As shown in FIG. 3 , the information providing device 100 has a communication section 200 , a storage section 300 and a control section 400 . The information providing apparatus 100 includes an input unit (for example, a keyboard, a mouse, etc.) for receiving various operations from an administrator or the like who uses the information providing apparatus 100, and a display unit (for example, a liquid crystal display) for displaying various information. may have.

(通信部200)
通信部200は、例えば、NIC(Network Interface Card)等によって実現される。通信部200は、有線または無線によりネットワーク網と接続される。通信部200は、利用者端末500に、ネットワークNを介して、通信可能に接続されてもよい。通信部200は、利用者端末500との間で、ネットワーク網を介して、情報の送受信を行うことができる。
(Communication unit 200)
The communication unit 200 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 200 is connected to a network by wire or wirelessly. The communication unit 200 may be communicably connected to the user terminal 500 via the network N. FIG. The communication unit 200 can transmit and receive information to and from the user terminal 500 via the network.

(記憶部300)
記憶部300は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示されるように、記憶部300は、走行済道路データベース310と、代替物データベース320とを有する。
(storage unit 300)
The storage unit 300 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 3 , the storage unit 300 has a traveled road database 310 and a substitute object database 320 .

(走行済道路データベース310)
図4は、実施形態に係る走行済道路データベース310の一例を示す図である。走行済道路データベース310は、利用者が過去に走行した走行済道路に関する情報を記憶する。
(Traveled road database 310)
FIG. 4 is a diagram showing an example of the traveled road database 310 according to the embodiment. The traveled road database 310 stores information on traveled roads that the user has traveled in the past.

図4の例では、走行済道路データベース310は、「道路ID」、「頻度」、「道路特徴情報」等の項目を有する。走行済道路データベース310は、利用者毎のデータセットとして記憶される。 In the example of FIG. 4, the traveled road database 310 has items such as "road ID", "frequency", and "road characteristic information". The traveled road database 310 is stored as a data set for each user.

「道路ID」は、道路を識別するための識別子を示す。「頻度」は、利用者が過去に道路を走行した頻度を示す。「道路特徴情報」は、道路の特徴に関する情報を示す。 "Road ID" indicates an identifier for identifying a road. "Frequency" indicates how often the user traveled on the road in the past. "Road feature information" indicates information about road features.

例えば、図4は、道路ID「R01」で識別される道路を、利用者が頻度「頻度#1」で走行していることを示している。また、道路ID「R01」で識別される道路は、道路特徴情報「道路特徴情報#1」を有していることを示している。道路ID「R01」は、例えば、所定の文字列である。頻度「頻度#1」は、例えば、所定期間単位(日単位、月単位、年単位等)での走行頻度であってもよく、過去に走行した総回数であってもよい。また、道路特徴情報「道路特徴情報#1」は、道路の特徴に関する文字列や数値等である。 For example, FIG. 4 shows that the user is traveling on the road identified by the road ID "R01" with the frequency "frequency #1". It also indicates that the road identified by the road ID "R01" has the road characteristic information "road characteristic information #1". Road ID "R01" is, for example, a predetermined character string. The frequency "frequency #1" may be, for example, the running frequency in units of a predetermined period (daily, monthly, yearly, etc.), or may be the total number of times the vehicle has traveled in the past. Further, the road characteristic information "road characteristic information #1" is a character string, numerical value, or the like related to road characteristics.

(代替物データベース320)
図5は、実施形態に係る代替物データベース320の一例を示す図である。代替物データベース320は、代替物に関する情報を記憶する。図5の例では、代替物データベース320は、「物体ID」、「種別」、「心理スコア」等の項目を有する。
(Alternative database 320)
FIG. 5 is a diagram illustrating an example of a substitute database 320 according to an embodiment. Substitute database 320 stores information about substitutes. In the example of FIG. 5, the substitute database 320 has items such as "object ID", "type", and "psychological score".

「物体ID」は、代替物である物体を識別するための識別子を示す。「種別」は、代替物である物体の種別を示す。「心理スコア」は、代替物が実際に道路に存在した場合に利用者が受ける心理的障害の強さを示す。 "Object ID" indicates an identifier for identifying an object that is a substitute. "Type" indicates the type of the object that is the substitute. "Psychological score" indicates the strength of the psychological disturbance that the user receives when the substitute is actually present on the road.

例えば、図5は、物体ID「OB1」で識別される代替物が、種別「軽自動車」であり、心理スコア「心理スコア#1」であることを示している。物体ID「OB1」は、例えば、所定の文字列である。心理スコア「心理スコア#1」は、例えば、数値等のスコアであってもよく、「強」または「弱」等の文字列であってもよい。 For example, FIG. 5 shows that the substitute identified by the object ID "OB1" is of type "minicar" and has psychological score "psychological score #1". The object ID "OB1" is, for example, a predetermined character string. The psychological score “psychological score #1” may be, for example, a score such as a numerical value, or a character string such as “strong” or “weak”.

(制御部400)
制御部400は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置100内部の記憶装置に記憶されている各種プログラム(判定プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部400は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPGPU(General Purpose Graphic Processing Unit)等の集積回路により実現されてもよい。
(control unit 400)
The control unit 400 is a controller. For example, a CPU (Central Processing Unit), MPU (Micro Processing Unit) or other processor executes various programs (determination program (corresponding to an example of ) is implemented by using a RAM or the like as a work area. In addition, the control unit 400 is a controller, and may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a GPGPU (General Purpose Graphic Processing Unit). .

制御部400は、図3に示されるように、第1処理部410と、第2処理部420とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。また、制御部400は、図1および図2を参照して上述した情報提供処理を実現することができる。情報提供装置100の1つまたは複数のプロセッサは、情報提供装置100の1つまたは複数のメモリに記憶された命令を実行することによって、制御部400内の各制御部の機能を実現することができる。なお、制御部400の内部構成は、図3に示した構成に限られず、後述する情報提供処理を行う構成であれば他の構成であってもよい。例えば、第1処理部410は、第1処理部410以外の部に関して後述する情報提供処理の全部または一部を行ってもよい。 As shown in FIG. 3, the control unit 400 has a first processing unit 410 and a second processing unit 420, and implements or executes information processing functions and actions described below. Also, the control unit 400 can implement the information providing process described above with reference to FIGS. 1 and 2 . One or more processors of the information providing device 100 can realize the function of each control unit in the control unit 400 by executing instructions stored in one or more memories of the information providing device 100. can. Note that the internal configuration of the control unit 400 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it performs the information providing process described later. For example, the first processing unit 410 may perform all or part of the information provision processing described later with respect to units other than the first processing unit 410 .

(第1処理部410)
図6は、実施形態に係る第1処理部410の構成の一例を示す図である。第1処理部410は、図1に示した情報提供処理を行う処理部であり、例えば、走行中道路よりも難易度が高い等の所定の条件を満たした走行済道路に基づくコンテンツを提供することができる。
(First processing unit 410)
FIG. 6 is a diagram showing an example of the configuration of the first processing unit 410 according to the embodiment. The first processing unit 410 is a processing unit that performs the information provision processing shown in FIG. 1, and provides content based on roads that have been traveled that satisfy a predetermined condition, such as being more difficult than roads that are currently being traveled. be able to.

第1処理部410は、図6に示されるように、取得部411と、選択部412と、生成部413と、提供部414とを有する。なお、第1処理部410の内部構成は、図6に示した構成に限られず、後述する情報提供処理を行う構成であれば他の構成であってもよい。例えば、生成部413は、生成部413以外の部に関して後述する情報提供処理の全部または一部を行ってもよい。 The first processing unit 410 has an acquisition unit 411, a selection unit 412, a generation unit 413, and a provision unit 414, as shown in FIG. Note that the internal configuration of the first processing unit 410 is not limited to the configuration shown in FIG. 6, and may be another configuration as long as it performs the information providing process described later. For example, the generation unit 413 may perform all or part of the information providing process described later with respect to units other than the generation unit 413 .

取得部411は、各種情報を取得する。例えば、取得部411は、利用者が運転中の車両Cが走行している走行中道路の特徴に関する道路特徴情報を取得する。走行中道路とは、車両Cが現在位置している道路であってもよく、例えば、ナビゲーション装置によって設定された案内経路である走行予定の道路であってもよい。道路特徴情報は、例えば、道路の形状や、大きさ(道路幅)、路面状態(凹凸や濡れ、凍結等)、混雑状況等を含んだ情報である。また、道路特徴情報は、道路の形状や、大きさ(道路幅)、路面状態(凹凸や濡れ、凍結等)、混雑状況等に基づいた運転の難易度に関する難易度情報を含んでもよい。 Acquisition unit 411 acquires various types of information. For example, the acquisition unit 411 acquires road characteristic information related to the characteristics of the road on which the vehicle C being driven by the user is traveling. The road on which the vehicle C is currently traveling may be the road on which the vehicle C is currently located, or may be, for example, the road on which the vehicle is scheduled to travel, which is the guidance route set by the navigation device. The road characteristic information is information including, for example, the shape and size of the road (road width), road surface conditions (unevenness, wetness, freezing, etc.), congestion status, and the like. The road characteristic information may also include difficulty level information regarding the difficulty level of driving based on the shape and size (road width) of the road, road surface conditions (unevenness, wetness, freezing, etc.), congestion status, and the like.

道路特徴情報は、利用者端末500や車両Cに搭載された車載装置(ナビゲーション装置等)に予め記憶された情報であってもよく、利用者端末500や車載装置によって推定された情報であってもよい。あるいは、道路特徴情報は、不図示のサーバ装置から取得されてもよい。 The road characteristic information may be information stored in advance in the user terminal 500 or an in-vehicle device (such as a navigation device) mounted on the vehicle C, or may be information estimated by the user terminal 500 or the in-vehicle device. good too. Alternatively, the road characteristic information may be acquired from a server device (not shown).

取得部411は、取得した走行中道路の道路特徴情報を走行済道路の道路特徴情報として走行済道路データベース310に登録する。なお、取得部411は、走行中道路の道路特徴情報が走行済道路として既に走行済道路データベース310に登録されていた場合、かかる走行済道路の頻度を更新する。 The acquisition unit 411 registers the acquired road characteristic information of the currently traveled road in the traveled road database 310 as road characteristic information of the traveled road. If the road characteristic information of the currently traveled road is already registered in the traveled road database 310 as a traveled road, the acquiring unit 411 updates the frequency of such traveled road.

また、取得部411は、利用者の視野を示す視野画像を取得する。例えば、取得部411は、利用者端末500が有するカメラの画像を視野画像として取得する。なお、視野画像は、利用者が現在見ている方向の画像に限らず、見ることができるすべての範囲(例えば、360度)の画像であってもよい。 In addition, the acquisition unit 411 acquires a field-of-view image representing the user's field of view. For example, the acquisition unit 411 acquires the image of the camera of the user terminal 500 as the field-of-view image. Note that the field of view image is not limited to the image in the direction the user is currently looking, and may be an image in the entire viewable range (for example, 360 degrees).

選択部412は、取得部411によって取得された走行中道路の道路特徴情報に基づいて、所定の条件を満たす走行済道路を走行済道路データベース310の中から選択する。具体的には、選択部412は、利用者が過去に走行した頻度が所定の閾値以上である走行済道路のうち、走行中道路の特徴と類似する走行済道路を選択する。また、選択部412は、走行中道路よりも難易度が高い走行済道路を選択する。また、選択部412は、走行中道路の道路特徴情報を包含する走行済道路を選択する。例えば、選択部412は、走行中道路の道路幅よりも広い道路幅の走行済道路や、走行中道路のカーブにおけるR値よりも低いR値のカーブである走行済道路を選択する。また、例えば、情報提供装置100は、走行中道路の制限速度よりも速い制限速度の走行済道路を選択する。 The selection unit 412 selects a traveled road that satisfies a predetermined condition from the traveled road database 310 based on the road characteristic information of the currently traveled road acquired by the acquisition unit 411 . Specifically, the selection unit 412 selects a traveled road similar in characteristics to the current road, from among traveled roads on which the user has traveled in the past at a frequency equal to or greater than a predetermined threshold. In addition, the selection unit 412 selects a road that has been traveled and has a higher degree of difficulty than the currently traveled road. The selection unit 412 also selects a traveled road that includes the road characteristic information of the road being traveled. For example, the selection unit 412 selects a traveled road having a width wider than that of the road being traveled, or a traveled road having an R value lower than the R value of the curve of the road being traveled. Also, for example, the information providing apparatus 100 selects a traveled road with a faster speed limit than the speed limit of the road on which the vehicle is currently traveling.

生成部413は、選択部412によって選択された走行済道路の画像を、取得部411が取得した視野画像に重畳した画像を生成する。重畳した画像は、例えば、仮想空間であるAR空間に表示可能なAR画像である。走行済道路の画像は、例えば、利用者端末500が有するカメラで撮像された画像であってもよく、実画像を用いたマップ情報から取得してもよい。生成部413は、視野画像に走行済道路の画像を重畳する場合、視野画像における走行中道路に重なるように走行済道路の画像を重畳する。また、生成部413は、視野画像に走行済道路の画像を重畳した場合、走行中道路を消去してもよい。あるいは、生成部413は、走行中道路または走行済道路のいずれか一方を透過させてもよい。 The generation unit 413 generates an image in which the image of the traveled road selected by the selection unit 412 is superimposed on the field-of-view image acquired by the acquisition unit 411 . The superimposed image is, for example, an AR image that can be displayed in an AR space that is a virtual space. The image of the traveled road may be, for example, an image captured by a camera of the user terminal 500, or may be obtained from map information using an actual image. When superimposing the image of the traveled road on the view image, the generation unit 413 superimposes the image of the traveled road so as to be superimposed on the currently traveled road in the view image. In addition, when the image of the traveled road is superimposed on the visual field image, the generating unit 413 may delete the currently traveled road. Alternatively, the generation unit 413 may transmit either the currently traveling road or the already traveled road.

提供部414は、選択部412によって選択された走行済道路に基づくコンテンツを提供する。例えば、提供部414は、生成部413によって生成されたAR画像を利用者端末500へ提供する。例えば、提供部414は、視野画像の走行中道路に走行済道路を重畳した画像を提供する。具体的には、提供部414は、視野画像における走行中道路に重なるように走行済道路が重畳された画像を提供する。また、提供部414は、視野画像に走行済道路の画像を重畳した画像において、走行中道路または走行済道路のいずれか一方を透過させる。 The providing unit 414 provides content based on the traveled road selected by the selecting unit 412 . For example, the providing unit 414 provides the user terminal 500 with the AR image generated by the generating unit 413 . For example, the providing unit 414 provides an image in which the traveled road is superimposed on the traveling road of the view image. Specifically, the providing unit 414 provides an image in which the traveled road is superimposed so as to overlap the traveling road in the view image. In addition, the providing unit 414 allows either the currently traveling road or the already traveled road to be transparent in the image obtained by superimposing the image of the traveled road on the view image.

なお、提供部414によって提供されるAR画像は、車両Cのウインドウ領域C100に表示される画像である。つまり、提供部414は、車両Cのウインドウ領域C100に表示される画像を提供する。具体的には、提供部414は、視野画像からウインドウ領域C100を抽出し、抽出したウインドウ領域C100に含まれる走行中道路に走行済道路の画像を重畳した画像を提供する。なお、ウインドウ領域C100は、フロントウインドウに限らず、サイドウインドウや、バックウインドウ等であってもよい。また、提供部414によって提供される画像は、例えば、車両Cのバックミラーに表示されてもよい。 Note that the AR image provided by the providing unit 414 is an image displayed in the window area C100 of the vehicle C. FIG. That is, the providing unit 414 provides the image displayed in the window area C100 of the vehicle C. FIG. Specifically, the providing unit 414 extracts the window region C100 from the visual field image, and provides an image in which the image of the traveled road is superimposed on the currently traveled road included in the extracted window region C100. Note that the window region C100 is not limited to the front window, and may be a side window, a back window, or the like. Also, the image provided by the providing unit 414 may be displayed on the rearview mirror of the vehicle C, for example.

また、提供部414は、AR画像を提供する場合に限らず、例えば、ナビゲーション装置やウインドウ領域C100に「いつも通るA道路と似てますね」のようなテキスト通知(あるいは音声通知)が提供されてもよい。 Further, the provision unit 414 is not limited to the case of providing an AR image. may

(第2処理部420)
図7は、実施形態に係る第2処理部420の構成の一例を示す図である。第2処理部420は、図2に示した情報提供処理を行う処理部であり、視野画像から抽出される対象物の心理スコアよりも低い心理スコアの代替物を対象物に重畳した重畳画像を提供することで、運転中の利用者の緊張を和らげることができる。
(Second processing unit 420)
FIG. 7 is a diagram showing an example of the configuration of the second processing section 420 according to the embodiment. The second processing unit 420 is a processing unit that performs the information provision processing shown in FIG. By providing it, it is possible to relieve the user's tension while driving.

第2処理部420は、図7に示されるように、取得部421と、算出部422と、生成部423と、提供部424とを有する。なお、第2処理部420の内部構成は、図7に示した構成に限られず、後述する情報提供処理を行う構成であれば他の構成であってもよい。例えば、算出部422は、算出部422以外の部に関して後述する情報提供処理の全部または一部を行ってもよい。 The second processing unit 420 has an acquisition unit 421, a calculation unit 422, a generation unit 423, and a provision unit 424, as shown in FIG. Note that the internal configuration of the second processing unit 420 is not limited to the configuration shown in FIG. 7, and may be another configuration as long as it performs the information providing process described later. For example, the calculation unit 422 may perform all or part of the information provision processing described later with respect to units other than the calculation unit 422 .

取得部421は、各種情報を取得する。取得部421は、利用者の視野を示す視野画像を取得する。例えば、取得部421は、利用者端末500が有するカメラの画像を視野画像として取得する。なお、視野画像は、利用者が現在見ている方向の画像に限らず、見ることができるすべての範囲(例えば、360度)の画像であってもよい。 Acquisition unit 421 acquires various types of information. The acquisition unit 421 acquires a field-of-view image representing the user's field of view. For example, the acquisition unit 421 acquires the image of the camera of the user terminal 500 as the field-of-view image. Note that the field of view image is not limited to the image in the direction the user is currently looking, and may be an image in the entire viewable range (for example, 360 degrees).

また、取得部421は、利用者に関する利用者情報を取得する。利用者情報は、例えば、利用者の属性に関する属性情報を含む。属性情報は、例えば、性別、年齢、職業、年収等といったユーザの人口統計学的な属性であるデモグラフィック属性、価値観や、ライフスタイル、性格、好み等といったユーザの心理学的な情報であるサイコグラフィック属性を含む。また、利用者情報は、利用者の生体に関する生体情報を含む。生体情報は、例えば、利用者の心拍や、体温、発汗、視線方向、顔の表情の情報等を含む。なお、生体情報は、例えば、利用者端末500に備えられた各種センサによって検出可能である。 Also, the acquisition unit 421 acquires user information about the user. The user information includes, for example, attribute information regarding user attributes. Attribute information is, for example, demographic attributes, which are user demographic attributes such as gender, age, occupation, annual income, etc., values, and user psychological information such as lifestyle, personality, preferences, etc. Contains psychographic attributes. Also, the user information includes biometric information related to the user's biometrics. The biological information includes, for example, the user's heartbeat, body temperature, perspiration, gaze direction, facial expression information, and the like. The biometric information can be detected by various sensors provided in the user terminal 500, for example.

算出部422は、取得部421によって取得された視野画像から抽出される所定の対象物に対する運転時の心理的障害の強さを示す心理スコアを算出する。具体的には、算出部422は、まず、視野画像から対象物を抽出する。例えば、算出部422は、利用者によって指定されたカテゴリや予め設定されたカテゴリの対象物を抽出する。カテゴリは、例えば、人、車、動物、建物等のような対象物を抽象化したものである。例えば、算出部422は、パターン認識等の画像解析により所定のカテゴリの対象物を抽出する。つづいて、算出部422は、抽出した対象物の種別を特定する。対象物の種別は、例えば、人の場合、容姿の違い(性別、体格、服装等)であり、車の場合、車種(スポーツカー、軽自動車、普通車、トラック等)である。また、算出部422は、対象物の詳細情報を特定してもよい。詳細情報は、車の場合、トヨタ社のカローラ等といったメーカおよび車名の情報を含む。 The calculation unit 422 calculates a psychological score indicating the strength of the psychological disorder during driving for a predetermined object extracted from the visual field image acquired by the acquisition unit 421 . Specifically, the calculator 422 first extracts the object from the field-of-view image. For example, the calculation unit 422 extracts objects in a category specified by the user or in a preset category. Categories are abstractions of objects such as people, cars, animals, buildings, and the like. For example, the calculation unit 422 extracts objects of a predetermined category by image analysis such as pattern recognition. Next, the calculator 422 identifies the type of the extracted target object. For example, the type of object is the difference in appearance (sex, physique, clothes, etc.) in the case of a person, and the type of vehicle (sports car, light car, ordinary car, truck, etc.) in the case of a car. Further, the calculation unit 422 may specify detailed information of the target object. In the case of a car, the detailed information includes information on the manufacturer and car name such as Toyota Corolla.

そして、算出部422は、抽出した対象物の心理スコアを算出する。例えば、算出部422は、利用者が過去に同じ対象物の近くを走行した際の生体情報に基づいて心理スコアを算出してもよい。例えば、算出部422は、対象物の近くを走行した際の心拍が多いほど心理スコアが高くなるように算出する。また、算出部422は、心理スコアを出力するモデルを用いることができる。 Then, the calculation unit 422 calculates the psychological score of the extracted object. For example, the calculation unit 422 may calculate the psychological score based on the biometric information when the user has traveled near the same object in the past. For example, the calculation unit 422 calculates such that the psychological score increases as the heart rate increases when running near the object. Also, the calculation unit 422 can use a model that outputs a psychological score.

かかるモデルは、例えば、利用者情報や対象物の情報を説明変数とし、心理スコア(管理者によって指定されたスコア、または、種別が同じ他の対象物の心理スコア)を目的変数として生成される。対象物の情報は、例えば、対象物のカテゴリや、種別、対象物の価値(車の場合は価格)等を含む。また、かかるモデルの説明変数として、上記した道路特徴情報が含まれてもよい。 Such a model is generated, for example, using user information and object information as explanatory variables and psychological scores (scores specified by the administrator, or psychological scores of other objects of the same type) as objective variables. . The object information includes, for example, the category and type of the object, the value of the object (price in the case of a car), and the like. Moreover, the road characteristic information described above may be included as an explanatory variable of such a model.

あるいは、算出部422は、統計的手法により心理スコアを算出してもよい。例えば、算出部422は、対象物毎に所定の得点(プラス点および/またはマイナス点)を設定しておき、視野画像に含まれる全ての対象物の得点の合計を心理スコアとして算出してもよい。 Alternatively, the calculator 422 may calculate the psychological score using a statistical method. For example, the calculation unit 422 may set a predetermined score (plus points and/or minus points) for each object, and calculate the total score of all objects included in the visual field image as the psychological score. good.

また、かかる得点は、予め定められた値が設定されてもよく、利用者に応じて異なる値が設定されてもよい。 In addition, a predetermined value may be set as the score, or a different value may be set depending on the user.

算出部422は、複数の対象物が抽出された場合には、対象物毎に心理スコアを算出する。そして、算出部422は、算出した対象物の心理スコアを代替物の心理スコアとして、代替物データベース320へ登録する。 The calculation unit 422 calculates a psychological score for each object when a plurality of objects are extracted. Then, the calculation unit 422 registers the calculated psychological score of the object in the substitute database 320 as the psychological score of the substitute.

生成部423は、視野画像における対象物に対して所定の代替物を重畳した重畳画像を生成する。具体的には、生成部423は、まず、算出部422によって算出された心理スコアが所定の閾値以上である対象物を抽出する。つづいて、生成部423は、抽出した対象物よりも心理スコアが低い代替物を代替物データベース320から選択する。なお、生成部423は、対象物が車両(以下、対象車両)である場合、対象車両と同じカテゴリで種別が異なる代替車両を選択する。また、生成部423は、対象物が人である場合、対象物の人とは容姿が異なる人の代替物を選択する。そして、生成部423は、選択した代替物を視野画像における対象物に重畳した重畳画像を生成する。具体的には、生成部423は、視野画像における対象物を消去するとともに、かかる対象物の位置に代替物の画像を重畳する。 The generation unit 423 generates a superimposed image in which a predetermined substitute is superimposed on the target object in the field-of-view image. Specifically, the generation unit 423 first extracts objects whose psychological scores calculated by the calculation unit 422 are equal to or greater than a predetermined threshold. Next, the generation unit 423 selects a substitute having a lower psychological score than the extracted object from the substitute database 320 . Note that when the target object is a vehicle (hereinafter referred to as a target vehicle), the generation unit 423 selects an alternative vehicle of the same category as the target vehicle but of a different type. In addition, when the target is a person, the generating unit 423 selects a substitute for a person whose appearance is different from that of the target. Then, the generation unit 423 generates a superimposed image in which the selected substitute is superimposed on the object in the field-of-view image. Specifically, the generation unit 423 erases the target in the field-of-view image and superimposes the image of the substitute on the position of the target.

また、生成部423は、対象車両に代替車両を重畳する場合において、対象車両と代替車両との大きさ(車幅や車長等)が異なる場合、利用者が運転する車両Cに近い側の端部が揃うように代替車両の画像を対象車両に重畳する。あるいは、生成部423は、車両Cとの距離が、対象車両よりも短くなるように代替車両の画像を重畳してもよい。 In addition, when superimposing the substitute vehicle on the target vehicle, if the target vehicle and the substitute vehicle are different in size (vehicle width, vehicle length, etc.), the generation unit 423 generates The image of the substitute vehicle is superimposed on the target vehicle so that the edges are aligned. Alternatively, the generation unit 423 may superimpose the image of the substitute vehicle so that the distance to the vehicle C is shorter than that of the target vehicle.

また、生成部423は、利用者の生体情報に応じた代替物を視野画像に重畳してもよい。具体的には、生成部423は、生体情報が所定の条件を満たす場合には、対象物よりも心理スコアが高い代替物を対象物に重畳した重畳画像を生成する。具体的には、生成部423は、生体情報から利用者が居眠り運転を行うと予測された場合には、例えば、普通車である対象物に対して、警察車両等の心理スコアが高い代替物を重畳する。これにより、利用者の緊張感が増すことで眠気を解消することができる。 In addition, the generation unit 423 may superimpose a substitute according to the user's biometric information on the field-of-view image. Specifically, when the biometric information satisfies a predetermined condition, the generation unit 423 generates a superimposed image in which a substitute having a higher psychological score than the target is superimposed on the target. Specifically, when it is predicted from the biological information that the user will doze off while driving, the generating unit 423 generates a substitute such as a police car with a high psychological score for the target object, which is a standard-sized car. is superimposed. As a result, drowsiness can be eliminated by increasing the tension of the user.

提供部424は、生成部423によって生成された重畳画像を提供する。例えば、提供部424は、利用者端末500へ重畳画像を提供し、利用者端末500の表示部に表示させる。提供部424によって提供される重畳画像は、車両Cのウインドウ領域C100に表示される画像である。つまり、提供部424は、車両Cのウインドウ領域C100に表示される重畳画像を提供する。具体的には、提供部424は、視野画像からウインドウ領域C100を抽出し、抽出したウインドウ領域C100に含まれる対象物に代替物を重畳した重畳画像を提供する。なお、ウインドウ領域C100は、フロントウインドウに限らず、サイドウインドウや、バックウインドウ等であってもよい。また、提供部424によって提供される重畳画像は、例えば、車両Cのバックミラーに表示されてもよい。 The providing unit 424 provides the superimposed image generated by the generating unit 423 . For example, the providing unit 424 provides the superimposed image to the user terminal 500 and causes the display unit of the user terminal 500 to display it. The superimposed image provided by the providing unit 424 is an image displayed in the window area C100 of the vehicle C. FIG. That is, the providing unit 424 provides the superimposed image displayed in the window area C100 of the vehicle C. FIG. Specifically, the providing unit 424 extracts the window region C100 from the visual field image, and provides a superimposed image in which the substitute is superimposed on the object included in the extracted window region C100. Note that the window region C100 is not limited to the front window, and may be a side window, a back window, or the like. Also, the superimposed image provided by the providing unit 424 may be displayed on the rearview mirror of the vehicle C, for example.

〔第1処理部の処理フロー〕
次に、図8を参照して、実施形態に係る情報提供装置100の第1処理部410による処理の手順について説明する。図8は、実施形態に係る第1処理部410によって実行される処理の一例を示すフローチャートである。
[Processing flow of the first processing unit]
Next, with reference to FIG. 8, a procedure of processing by the first processing unit 410 of the information providing device 100 according to the embodiment will be described. FIG. 8 is a flowchart showing an example of processing executed by the first processing unit 410 according to the embodiment.

図8に示すように、第1処理部410は、利用者が運転中の車両Cが走行する走行中道路の道路特徴情報を取得する(ステップS101)。 As shown in FIG. 8, the first processing unit 410 acquires the road characteristic information of the road on which the vehicle C being driven by the user is traveling (step S101).

つづいて、第1処理部410は、利用者の視野を示す視野画像を取得する(ステップS102)。 Subsequently, the first processing unit 410 acquires a field-of-view image representing the user's field of view (step S102).

つづいて、第1処理部410は、利用者が過去に走行した頻度が所定の閾値以上で、走行中道路と道路特徴情報が類似する走行済道路を選択する(ステップS103)。 Subsequently, the first processing unit 410 selects a road that the user has traveled in the past with a frequency equal to or higher than a predetermined threshold and that has similar road feature information to the road being traveled (step S103).

つづいて、第1処理部410は、選択した走行済道路の中から、走行中道路よりも難易度が高い走行済道路を選択する(ステップS104)。 Subsequently, the first processing unit 410 selects a traveled road having a higher degree of difficulty than the currently traveled road from the selected traveled roads (step S104).

つづいて、第1処理部410は、選択した走行済道路の中から、走行中道路の道路特徴情報を包含する走行済道路を選択する(ステップS105)。 Subsequently, the first processing unit 410 selects a traveled road that includes the road characteristic information of the currently traveled road from the selected traveled roads (step S105).

つづいて、第1処理部410は、選択した走行済道路の画像を視野画像の走行中道路に重畳した画像を生成する(ステップS106)。 Subsequently, the first processing unit 410 generates an image in which the selected image of the road that has already been traveled is superimposed on the currently traveling road in the visual field image (step S106).

つづいて、第1処理部410は、生成した画像を利用者端末500へ提供する(ステップS107)。 Subsequently, the first processing unit 410 provides the generated image to the user terminal 500 (step S107).

〔第2処理部の処理フロー〕
次に、図9を参照して、実施形態に係る情報提供装置100の第2処理部420による処理の手順について説明する。図9は、実施形態に係る第2処理部420によって実行される処理の一例を示すフローチャートである。
[Processing flow of the second processing unit]
Next, with reference to FIG. 9, a procedure of processing by the second processing unit 420 of the information providing device 100 according to the embodiment will be described. FIG. 9 is a flow chart showing an example of processing executed by the second processing unit 420 according to the embodiment.

図9に示すように、第2処理部420は、まず、利用者の視野を示す視野画像を取得する(ステップS201)。 As shown in FIG. 9, the second processing unit 420 first acquires a field-of-view image representing the user's field of view (step S201).

つづいて、第2処理部420は、視野画像から所定の対象物を抽出する(ステップS202)。 Subsequently, the second processing unit 420 extracts a predetermined object from the field-of-view image (step S202).

つづいて、第2処理部420は、抽出した対象物毎に心理スコアを算出する(ステップS203)。 Subsequently, the second processing unit 420 calculates a psychological score for each extracted object (step S203).

つづいて、第2処理部420は、算出した心理スコアが閾値以上の対象物を抽出する(ステップS204)。 Subsequently, the second processing unit 420 extracts objects whose calculated psychological scores are equal to or greater than the threshold (step S204).

つづいて、第2処理部420は、抽出した対象物よりも心理スコアが低い代替物を選択する(ステップS205)。 Subsequently, the second processing unit 420 selects a substitute with a lower psychological score than the extracted object (step S205).

つづいて、第2処理部420は、選択した代替物を対象物に重畳した重畳画像を生成する(ステップS206)。 Subsequently, the second processing unit 420 generates a superimposed image in which the selected substitute is superimposed on the target (step S206).

つづいて、第2処理部420は、生成した重畳画像を利用者端末500へ提供する(ステップS207)。 Subsequently, the second processing unit 420 provides the generated superimposed image to the user terminal 500 (step S207).

〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
〔others〕
Also, among the processes described in the above embodiments, some of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the processes described as being performed manually can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、図3に示した記憶部300の一部又は全部は、情報提供装置100によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、情報提供装置100は、ストレージサーバにアクセスすることで、各種情報を取得する。 For example, part or all of the storage unit 300 shown in FIG. 3 may be held in a storage server or the like instead of being held by the information providing apparatus 100 . In this case, the information providing apparatus 100 acquires various information by accessing the storage server.

〔ハードウェア構成〕
また、上述してきた実施形態に係る情報提供装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[Hardware configuration]
Also, the information providing apparatus 100 according to the above-described embodiments is implemented by a computer 1000 configured as shown in FIG. 10, for example. FIG. 10 is a diagram illustrating an example of a hardware configuration; A computer 1000 is connected to an output device 1010 and an input device 1020, and an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected via a bus 1090. have

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。 The arithmetic device 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and the like, and executes various processes. The primary storage device 1040 is a memory device such as a RAM that temporarily stores data used by the arithmetic device 1030 for various calculations. The secondary storage device 1050 is a storage device in which data used for various calculations by the arithmetic device 1030 and various databases are registered. It is realized by

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various types of information such as a monitor and a printer. It is realized by a connector conforming to a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Also, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, scanner, etc., and is realized by, for example, USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 Note that the input device 1020 includes, for example, optical recording media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), PDs (Phase change rewritable discs), magneto-optical recording media such as MOs (Magneto-Optical discs), and tapes. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. Also, the input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network IF 1080 receives data from other devices via network N and sends the data to arithmetic device 1030, and also transmits data generated by arithmetic device 1030 via network N to other devices.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070 . For example, arithmetic device 1030 loads a program from input device 1020 or secondary storage device 1050 onto primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が情報提供装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部400の機能を実現する。 For example, when the computer 1000 functions as the information providing device 100 , the arithmetic device 1030 of the computer 1000 implements the functions of the control unit 400 by executing a program loaded on the primary storage device 1040 .

〔効果〕
上述してきたように、実施形態に係る情報提供装置100は、取得部411と、選択部412と、提供部414とを備える。取得部411は、利用者が運転中の車両Cが走行している走行中道路の特徴に関する道路特徴情報を取得する。選択部412は、利用者が過去に走行した頻度が所定の閾値以上である走行済道路のうち、走行中道路の特徴と類似する走行済道路を選択する。提供部414は、選択部412によって選択された走行済道路に基づくコンテンツを提供する。また、道路特徴情報は、道路の状態に基づく運転の難易度に関する情報を含む。選択部412は、走行中道路よりも難易度が高い走行済道路を選択する。選択部412は、走行中道路の道路特徴情報を包含する道路特徴情報の走行済道路を選択する。車両Cは、利用者の視野にコンテンツを表示する表示部C100を有する。提供部414は、走行中道路と重なるように表示部C100に表示される走行済道路の画像を提供する。取得部411は、利用者の視野を示す視野画像をさらに取得する。提供部414は、視野画像における走行中道路に走行済道路を重畳させた画像を提供する。提供部414は、走行中道路または走行済道路のいずれか一方を透過させた画像を提供する。表示部C100は、AR(Augmented Reality)画像が表示可能である。提供部414は、画像として、AR画像を表示する。提供部414は、車両Cのウインドウ領域C100に表示される画像を提供する。このような構成により、利用者が安心して運転することができる。
〔effect〕
As described above, the information providing device 100 according to the embodiment includes the acquiring unit 411, the selecting unit 412, and the providing unit 414. The acquisition unit 411 acquires road characteristic information relating to the characteristics of the road on which the vehicle C being driven by the user is traveling. The selection unit 412 selects a traveled road similar to the characteristics of the currently traveled road from among the traveled roads on which the user has traveled in the past at a frequency equal to or greater than a predetermined threshold. The providing unit 414 provides content based on the traveled road selected by the selecting unit 412 . In addition, the road characteristic information includes information regarding the degree of difficulty of driving based on road conditions. The selection unit 412 selects a road that has been traveled and has a higher degree of difficulty than the road that is being traveled. The selection unit 412 selects a traveled road of the road feature information including the road feature information of the road being traveled. The vehicle C has a display section C100 that displays content in the field of view of the user. The providing unit 414 provides an image of the traveled road displayed on the display unit C100 so as to overlap the currently traveled road. The acquisition unit 411 further acquires a field-of-view image representing the user's field of view. The providing unit 414 provides an image in which the traveled road is superimposed on the currently traveled road in the view image. The providing unit 414 provides an image in which either the road being traveled or the road that has been traveled is made transparent. The display unit C100 can display an AR (Augmented Reality) image. The providing unit 414 displays an AR image as the image. The providing unit 414 provides an image displayed in the window area C100 of the vehicle C. FIG. With such a configuration, the user can drive with peace of mind.

また、上述してきたように、実施形態に係る情報提供装置100は、取得部421と、算出部422と、提供部424とを備える。取得部421は、車両Cを運転中の利用者の視野を示す視野画像を取得する。算出部422は、視野画像から抽出される対象物に対する運転時の心理的障害の強さを示す心理スコアを算出する。提供部424は、算出部422によって算出された心理スコアに基づいて、対象物の代替となる代替物を、視野画像における対象物に重畳した重畳画像を提供する。また、対象物は、所定の種別の対象車両である。提供部424は、代替物として、対象車両とは種別が異なる代替車両を対象車両に重畳した重畳画像を提供する。また、提供部424は、対象車両および代替車両の大きさが異なる場合、車両Cに近い側の端部が揃うように、代替車両を対象車両に重畳した重畳画像を提供する。また、提供部424は、車両Cとの距離が、対象車両よりも短くなるように代替車両を対象車両に重畳した重畳画像を提供する。また、対象物は、人である。提供部424は、対象物の人とは容姿が異なる人の代替物を対象物に重畳した重畳画像を提供する。また、取得部421は、利用者の運転中における生体情報をさらに取得する。また、提供部424は、生体情報に応じた代替物を視野画像における対象物に重畳した重畳画像を提供する。表示部C100は、AR(Augmented Reality)画像が表示可能である。提供部424は、重畳画像として、AR画像を提供する。また、表示部C100は、車両Cのウインドウ領域C100またはバックミラー領域である。このような構成により、運転中の利用者の緊張を和らげることができる。 Further, as described above, the information providing device 100 according to the embodiment includes the acquiring unit 421, the calculating unit 422, and the providing unit 424. The acquisition unit 421 acquires a field-of-view image representing the field of view of the user driving the vehicle C. FIG. The calculation unit 422 calculates a psychological score indicating the strength of the psychological disturbance during driving for the target object extracted from the visual field image. The providing unit 424 provides a superimposed image in which a substitute for the target object is superimposed on the target object in the visual field image based on the psychological score calculated by the calculating unit 422 . Also, the target object is a target vehicle of a predetermined type. The providing unit 424 provides, as a substitute, a superimposed image in which a substitute vehicle different in type from the target vehicle is superimposed on the target vehicle. Further, when the target vehicle and the substitute vehicle are different in size, the providing unit 424 provides a superimposed image in which the substitute vehicle is superimposed on the target vehicle so that the ends closer to the vehicle C are aligned. Further, the providing unit 424 provides a superimposed image in which the substitute vehicle is superimposed on the target vehicle such that the distance from the vehicle C is shorter than that of the target vehicle. Also, the object is a person. The providing unit 424 provides a superimposed image in which a substitute of a person whose appearance differs from that of the target person is superimposed on the target object. In addition, the acquisition unit 421 further acquires biometric information of the user during driving. Also, the providing unit 424 provides a superimposed image in which a substitute corresponding to the biometric information is superimposed on the object in the visual field image. The display unit C100 can display an AR (Augmented Reality) image. The providing unit 424 provides an AR image as the superimposed image. Moreover, the display portion C100 is the window area C100 of the vehicle C or the rearview mirror area. With such a configuration, it is possible to relieve the user's tension during driving.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
〔others〕
Further, among the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態に記載した各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, each processing described in the above-described embodiments can be appropriately combined within a range that does not contradict the content of the processing.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、第1処理部410は、第1処理手段や第1処理回路に読み替えることができる。 Also, the "section, module, unit" described above can be read as "means" or "circuit". For example, the first processing unit 410 can be read as first processing means or a first processing circuit.

1 情報提供システム
100 情報提供装置
200 通信部
300 記憶部
310 走行済道路データベース
320 代替物データベース
400 制御部
410 第1処理部
411、421 取得部
412 選択部
413、423 生成部
414、424 提供部
420 第2処理部
422 算出部
500 利用者端末
C 車両
N ネットワーク
1 Information providing system 100 Information providing device 200 Communication unit 300 Storage unit 310 Traveled road database 320 Substitute database 400 Control unit 410 First processing units 411 and 421 Acquisition unit 412 Selection units 413 and 423 Generation units 414 and 424 Providing unit 420 Second processing unit 422 Calculation unit 500 User terminal C Vehicle N Network

Claims (10)

利用者が運転中の車両が走行している走行中道路の特徴に関する道路特徴情報を取得する取得部と、
前記利用者が過去に走行した頻度が所定の閾値以上である走行済道路のうち、前記走行中道路の前記特徴と類似する前記走行済道路を選択する選択部と、
前記選択部によって選択された前記走行済道路に基づくコンテンツを提供する提供部と
を備えることを特徴とする情報提供装置。
an acquisition unit that acquires road feature information related to the features of the road on which the vehicle that the user is driving is traveling;
a selection unit that selects, from among the roads that the user has traveled in the past, a frequency that is equal to or greater than a predetermined threshold, the road that has been traveled and that is similar to the characteristics of the road that is being traveled;
and a providing unit that provides content based on the traveled road selected by the selecting unit.
前記道路特徴情報は、
道路の状態に基づく運転の難易度に関する情報を含み、
前記選択部は、
前記走行中道路よりも前記難易度が高い前記走行済道路を選択すること
を特徴とする請求項1に記載の情報提供装置。
The road characteristic information is
contains information about the difficulty of driving based on road conditions;
The selection unit
2. The information providing device according to claim 1, wherein the traveled road having the higher degree of difficulty than the road being traveled is selected.
前記選択部は、
前記走行中道路の前記道路特徴情報を包含する前記道路特徴情報の前記走行済道路を選択すること
を特徴とする請求項1または2に記載の情報提供装置。
The selection unit
3. The information providing apparatus according to claim 1, wherein the traveled road of the road characteristic information including the road characteristic information of the road being traveled is selected.
前記車両は、
前記利用者の視野に前記コンテンツを表示する表示部を有し、
前記提供部は、
前記走行中道路と重なるように前記表示部に表示される前記走行済道路の画像を提供すること
を特徴とする請求項1~3のいずれか1つに記載の情報提供装置。
The vehicle is
a display unit that displays the content in the field of view of the user;
The providing unit
The information providing device according to any one of claims 1 to 3, wherein an image of the road that has been traveled is displayed on the display unit so as to overlap with the road that is being traveled.
前記取得部は、
前記利用者の視野を示す視野画像をさらに取得し、
前記提供部は、
前記視野画像における前記走行中道路に前記走行済道路を重畳させた前記画像を提供すること
を特徴とする請求項4に記載の情報提供装置。
The acquisition unit
further acquiring a field-of-view image showing the user's field of view;
The providing unit
5. The information providing apparatus according to claim 4, wherein the image obtained by superimposing the traveled road on the road being traveled in the visual field image is provided.
前記提供部は、
前記走行中道路または前記走行済道路のいずれか一方を透過させた前記画像を提供すること
を特徴とする請求項5に記載の情報提供装置。
The providing unit
6. The information providing apparatus according to claim 5, wherein the image is provided in which either one of the currently traveling road and the already traveled road is transparent.
前記表示部は、
AR(Augmented Reality)画像が表示可能であり、
前記提供部は、
前記画像として、前記AR画像を表示すること
を特徴とする請求項4~6のいずれか1つに記載の情報提供装置。
The display unit
AR (Augmented Reality) images can be displayed,
The providing unit
The information providing device according to any one of claims 4 to 6, wherein the AR image is displayed as the image.
前記提供部は、
前記車両のウインドウ領域に表示される前記画像を提供すること
を特徴とする請求項7に記載の情報提供装置。
The providing unit
8. The information providing device according to claim 7, which provides the image displayed in the window area of the vehicle.
コンピュータが実行する情報提供方法であって、
利用者が運転中の車両が走行している走行中道路の特徴に関する道路特徴情報を取得する取得工程と、
前記利用者が過去に走行した頻度が所定の閾値以上である走行済道路のうち、前記走行中道路の前記特徴と類似する前記走行済道路を選択する選択工程と、
前記選択工程によって選択された前記走行済道路に基づくコンテンツを提供する提供工程と
を含むことを特徴とする情報提供方法。
A computer-executed information provision method comprising:
an acquisition step of acquiring road feature information relating to features of a road on which a vehicle being driven by a user is traveling;
a selection step of selecting the road that is similar to the characteristics of the road that is being traveled from among the roads that the user has traveled in the past on which the user has traveled at a frequency equal to or greater than a predetermined threshold;
and a provision step of providing content based on the traveled road selected in the selection step.
利用者が運転中の車両が走行している走行中道路の特徴に関する道路特徴情報を取得する取得手順と、
前記利用者が過去に走行した頻度が所定の閾値以上である走行済道路のうち、前記走行中道路の前記特徴と類似する前記走行済道路を選択する選択手順と、
前記選択手順によって選択された前記走行済道路に基づくコンテンツを提供する提供手順と
をコンピュータに実行させることを特徴とする情報提供プログラム。
an acquisition procedure for acquiring road feature information relating to the features of the road on which the vehicle being driven by the user is traveling;
a selection step of selecting the road that is similar to the characteristic of the road being traveled, from among the roads that the user has traveled in the past, on which the frequency of travel is equal to or greater than a predetermined threshold;
and a provision procedure for providing content based on the traveled road selected by the selection procedure.
JP2021045190A 2021-03-18 2021-03-18 Information provision device, information provision method, and information provision program Active JP7393375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021045190A JP7393375B2 (en) 2021-03-18 2021-03-18 Information provision device, information provision method, and information provision program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021045190A JP7393375B2 (en) 2021-03-18 2021-03-18 Information provision device, information provision method, and information provision program

Publications (2)

Publication Number Publication Date
JP2022144269A true JP2022144269A (en) 2022-10-03
JP7393375B2 JP7393375B2 (en) 2023-12-06

Family

ID=83454533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021045190A Active JP7393375B2 (en) 2021-03-18 2021-03-18 Information provision device, information provision method, and information provision program

Country Status (1)

Country Link
JP (1) JP7393375B2 (en)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002151126A (en) * 2000-11-14 2002-05-24 Nissan Motor Co Ltd Fuel cell system for vehicle
JP2004317275A (en) * 2003-04-16 2004-11-11 Alpine Electronics Inc Navigation system
JP2005345275A (en) * 2004-06-03 2005-12-15 Nissan Motor Co Ltd Navigation device
JP2006031618A (en) * 2004-07-21 2006-02-02 Denso Corp Display device for vehicle and display method thereof
JP2012107879A (en) * 2010-11-15 2012-06-07 Denso Corp Route search device, route search method, route guidance device and route guidance method
WO2013005293A1 (en) * 2011-07-04 2013-01-10 トヨタ自動車株式会社 Driving assist device for vehicle
JP2013104699A (en) * 2011-11-11 2013-05-30 Aisin Aw Co Ltd Evaluation display system, method, and program
JP2014010461A (en) * 2012-06-27 2014-01-20 Aisin Aw Co Ltd Road surface state identification system, road surface state identification device, road surface state identification method and computer program
JP2014071631A (en) * 2012-09-28 2014-04-21 Aisin Aw Co Ltd Travel information display system
US20160009294A1 (en) * 2014-07-14 2016-01-14 Toyota Motor Engineering & Manufacturing North America, Inc. Environment-based function lock system for a vehicle
JP2019096186A (en) * 2017-11-27 2019-06-20 パイオニア株式会社 Travel difficulty determination device, map data, travel difficulty determination method and program
JP2019159411A (en) * 2018-03-07 2019-09-19 トヨタ自動車株式会社 Information provision device
US20190359223A1 (en) * 2018-05-22 2019-11-28 International Business Machines Corporation Providing a notification based on a deviation from a determined driving behavior
JP2020085688A (en) * 2018-11-27 2020-06-04 本田技研工業株式会社 Display system, display control method, and program
JP2020160318A (en) * 2019-03-27 2020-10-01 メルク、パテント、ゲゼルシャフト、ミット、ベシュレンクテル、ハフツングMerck Patent GmbH Thick film resist composition and method for producing resist film using the same

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002151126A (en) * 2000-11-14 2002-05-24 Nissan Motor Co Ltd Fuel cell system for vehicle
JP2004317275A (en) * 2003-04-16 2004-11-11 Alpine Electronics Inc Navigation system
JP2005345275A (en) * 2004-06-03 2005-12-15 Nissan Motor Co Ltd Navigation device
JP2006031618A (en) * 2004-07-21 2006-02-02 Denso Corp Display device for vehicle and display method thereof
JP2012107879A (en) * 2010-11-15 2012-06-07 Denso Corp Route search device, route search method, route guidance device and route guidance method
WO2013005293A1 (en) * 2011-07-04 2013-01-10 トヨタ自動車株式会社 Driving assist device for vehicle
JP2013104699A (en) * 2011-11-11 2013-05-30 Aisin Aw Co Ltd Evaluation display system, method, and program
JP2014010461A (en) * 2012-06-27 2014-01-20 Aisin Aw Co Ltd Road surface state identification system, road surface state identification device, road surface state identification method and computer program
JP2014071631A (en) * 2012-09-28 2014-04-21 Aisin Aw Co Ltd Travel information display system
US20160009294A1 (en) * 2014-07-14 2016-01-14 Toyota Motor Engineering & Manufacturing North America, Inc. Environment-based function lock system for a vehicle
JP2019096186A (en) * 2017-11-27 2019-06-20 パイオニア株式会社 Travel difficulty determination device, map data, travel difficulty determination method and program
JP2019159411A (en) * 2018-03-07 2019-09-19 トヨタ自動車株式会社 Information provision device
US20190359223A1 (en) * 2018-05-22 2019-11-28 International Business Machines Corporation Providing a notification based on a deviation from a determined driving behavior
JP2020085688A (en) * 2018-11-27 2020-06-04 本田技研工業株式会社 Display system, display control method, and program
JP2020160318A (en) * 2019-03-27 2020-10-01 メルク、パテント、ゲゼルシャフト、ミット、ベシュレンクテル、ハフツングMerck Patent GmbH Thick film resist composition and method for producing resist film using the same

Also Published As

Publication number Publication date
JP7393375B2 (en) 2023-12-06

Similar Documents

Publication Publication Date Title
US11292477B2 (en) Vehicle manipulation using cognitive state engineering
US9976867B2 (en) Navigation method based on a see-through head-mounted device
US20220095975A1 (en) Detection of cognitive state of a driver
US20200057487A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US20210339759A1 (en) Cognitive state vehicle navigation based on image processing and modes
US20190162549A1 (en) Cognitive state vehicle navigation based on image processing
US20190073547A1 (en) Personal emotional profile generation for vehicle manipulation
Saffarian et al. Why do drivers maintain short headways in fog? A driving-simulator study evaluating feeling of risk and lateral control during automated and manual car following
US20210097408A1 (en) Systems and methods for using artificial intelligence to present geographically relevant user-specific recommendations based on user attentiveness
US20200286183A1 (en) Information processing apparatus, and information processing method, and program
DE102015108416A1 (en) User behavior patterns based adaptive navigation and location based services
US20210284175A1 (en) Non-Intrusive In-Vehicle Data Acquisition System By Sensing Actions Of Vehicle Occupants
Guo et al. Analyzing Drivers' Attitude towards HuD system using a stated Preference survey
WO2017021318A1 (en) Apparatus, vehicle, method and computer program for computing at least one video signal or control signal
US20150049953A1 (en) Emotion and appearance based spatiotemporal graphics systems and methods
JP6513913B2 (en) Information presentation apparatus, method and program
Mecheri et al. Steering control in a low-cost driving simulator: a case for the role of virtual vehicle cab
Lu et al. Seeing Is Believing: Using Eye-Tracking Devices in Environmental Research
JP7393375B2 (en) Information provision device, information provision method, and information provision program
JP7354172B2 (en) Information provision device, information provision method, and information provision program
Bennett et al. Immersive virtual reality simulation as a tool for aging and driving research
Abou-Senna et al. Effect of changing a traffic control device color on driver behavior and perception across different age groups
US12117308B2 (en) Navigation directions preview
Götze et al. Urban driving: Where to present what types of information–Comparison of Head-Down and Head-Up Displays
JP2022042646A (en) Recommended vehicle information presentation system and recommended vehicle information presentation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231124

R150 Certificate of patent or registration of utility model

Ref document number: 7393375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150