JP2021018073A - Information providing device, information providing method, and program - Google Patents

Information providing device, information providing method, and program Download PDF

Info

Publication number
JP2021018073A
JP2021018073A JP2019132047A JP2019132047A JP2021018073A JP 2021018073 A JP2021018073 A JP 2021018073A JP 2019132047 A JP2019132047 A JP 2019132047A JP 2019132047 A JP2019132047 A JP 2019132047A JP 2021018073 A JP2021018073 A JP 2021018073A
Authority
JP
Japan
Prior art keywords
event
vehicle
unit
information
notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019132047A
Other languages
Japanese (ja)
Inventor
アディティヤ マハジャン
Aditya Mahajan
アディティヤ マハジャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019132047A priority Critical patent/JP2021018073A/en
Priority to CN202010683587.6A priority patent/CN112241677B/en
Publication of JP2021018073A publication Critical patent/JP2021018073A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

To provide an information providing device, information providing method, and a program for enabling an occupant to notice a predetermined event that occurs around a vehicle.SOLUTION: An information providing device includes: an event recognition section for recognizing that a first event included in a range unusual in an area around a first vehicle occurs on the basis of information acquired around the first vehicle; and a notification section for notifying an occupant of the first vehicle of information on the first event when the event recognition section recognizes that the first event occurs.SELECTED DRAWING: Figure 5

Description

本発明は、情報提供装置、情報提供方法、およびプログラムに関する。 The present invention relates to an information providing device, an information providing method, and a program.

従来、自車両の位置、方位および日時に基づいて特定した天体に関する情報が付加された映像データを生成し、生成された映像データを車内に投影するものが知られている(例えば、特許文献1参照)。 Conventionally, it has been known to generate video data to which information about a celestial body specified based on the position, orientation and date and time of the own vehicle is added, and project the generated video data into the vehicle (for example, Patent Document 1). reference).

特開2008−064889号公報Japanese Unexamined Patent Publication No. 2008-064889

しかし従来の技術は、車室内からの天体観測に関するものであり、その他の事象を乗員が車両内から観測するための技術については、十分に検討されていなかった。 However, the conventional technology is related to astronomical observation from the inside of the vehicle, and the technology for occupants to observe other events from inside the vehicle has not been sufficiently studied.

本発明は、このような事情を考慮してなされたものであり、車両の周辺において発生している所定の事象を乗員に気づかせることができる情報提供装置、情報提供方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides an information providing device, an information providing method, and a program capable of making a occupant aware of a predetermined event occurring in the vicinity of a vehicle. That is one of the purposes.

この発明に係る情報提供装置、情報提供方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る情報提供装置は、第1車両の周辺において取得された情報に基づいて、前記第1車両の周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識する事象認識部と、前記事象認識部により前記第1事象が発生していることが認識された場合、前記第1車両の乗員に対して前記第1事象に関する情報を通知する通知部と、を備えるものである。
The information providing device, the information providing method, and the program according to the present invention have adopted the following configurations.
(1): In the information providing device according to one aspect of the present invention, a first event included in an unusual range occurs in the area around the first vehicle based on the information acquired in the vicinity of the first vehicle. When the event recognition unit that recognizes that the event is being performed and the event recognition unit recognizes that the first event has occurred, information about the first event is provided to the occupant of the first vehicle. It is provided with a notification unit for notifying.

(2):上記(1)の態様において、前記事象認識部は、前記認識した前記第1車両の周辺において発生している事象が、前記第1車両の周辺の地域において日常の事象として予め登録されている日常事象リストに該当する場合、前記発生している事象を前記第1事象として認識しない、ものである。 (2): In the aspect of the above (1), the event recognition unit previously recognizes that an event occurring in the vicinity of the first vehicle is a daily event in the area around the first vehicle. When it corresponds to the registered daily event list, the event occurring is not recognized as the first event.

(3):上記(1)または(2)の態様において、前記事象認識部は、前記第1車両の周辺の地域において日常の範囲に含まれるが、前記第1車両の乗員にとって日常の範囲に含まれない第2事象が発生していることを更に認識し、前記通知部は、前記事象認識部により前記第2事象が発生していることが認識された場合にも、前記第1車両の乗員に対して前記第2事象に関する情報を通知する、ものである。 (3): In the aspect of (1) or (2) above, the event recognition unit is included in the daily range in the area around the first vehicle, but is in the daily range for the occupant of the first vehicle. Further recognizing that a second event not included in the above has occurred, the notification unit also recognizes that the second event has occurred by the event recognition unit. This is to notify the occupants of the vehicle of information regarding the second event.

(4):上記(1)から(3)のいずれかの態様において、前記事象認識部は、前記認識した前記第1車両の周辺において発生している事象が、前記第1車両の周辺の地域において日常でない事象として予め登録されている非日常事象リストに該当する場合、前記発生している事象を前記第1事象として認識する、ものである。 (4): In any of the above aspects (1) to (3), the event recognition unit indicates that the event occurring in the vicinity of the recognized first vehicle is in the vicinity of the first vehicle. When it corresponds to the extraordinary event list registered in advance as an extraordinary event in the area, the occurring event is recognized as the first event.

(5):上記(4)の態様において、前記第1車両の乗員による指示に基づいて、前記非日常事象リストを編集するリスト編集部をさらに備える、ものである。 (5): In the aspect of (4) above, the list editing unit for editing the extraordinary event list is further provided based on the instruction by the occupant of the first vehicle.

(6):上記(1)から(5)のいずれかの態様において、前記事象認識部が認識した前記第1車両の周辺において発生している事象が、前記第1車両の周辺の地域において日常である事象として予め登録されている日常事象リストに該当せず、且つ、前記第1車両の周辺の地域において日常でない事象として予め登録されている非日常事象リストにも該当しない場合、前記第1車両の乗員に対して通知の有無を確認する確認部をさらに備え、前記通知部は、前記第1車両の乗員により通知することが指示された場合、前記第1車両の乗員に対して前記第1車両の周辺において発生している事象に関する情報を通知する、ものである。 (6): In any of the above aspects (1) to (5), the event occurring in the vicinity of the first vehicle recognized by the event recognition unit is in the area around the first vehicle. If it does not correspond to the daily event list pre-registered as a daily event and does not correspond to the extraordinary event list pre-registered as a non-daily event in the area around the first vehicle, the first A confirmation unit for confirming the presence or absence of notification to the occupants of one vehicle is further provided, and the notification unit may notify the occupants of the first vehicle when instructed to notify the occupants of the first vehicle. It notifies information about events occurring around the first vehicle.

(7):上記(6)の態様において、前記第1車両の乗員により通知することが指示された事象を、前記第1車両の乗員ごとに学習する学習部をさらに備える、ものである。 (7): In the aspect of (6) above, the learning unit further includes a learning unit that learns an event instructed to be notified by the occupant of the first vehicle for each occupant of the first vehicle.

(8):上記(1)から(7)のいずれかの態様において、前記通知部は、前記第1車両の乗員に対して通知した事象と同一の事象が、前回の通知から所定期間以内に再び発生した場合、通知対象から除外する、ものである。 (8): In any of the above aspects (1) to (7), the notification unit has the same event as the event notified to the occupant of the first vehicle within a predetermined period from the previous notification. If it occurs again, it will be excluded from the notification target.

(9):上記(1)から(8)のいずれかの態様において、前記事象認識部は、前記第1車両に搭載された車載検出装置を用いて、走行中に検出された検出結果に基づいて、前記第1車両の周辺において発生している事象を認識する、ものである。 (9): In any of the above aspects (1) to (8), the event recognition unit uses the in-vehicle detection device mounted on the first vehicle to obtain a detection result detected during traveling. Based on this, it recognizes an event occurring in the vicinity of the first vehicle.

(10):上記(1)から(9)のいずれかの態様において、前記事象認識部は、前記第1車両に搭載された車載検出装置により検出された周辺状況と、車両の外部に設置された車外検出装置により検出された周辺状況のうち少なくとも一つに基づいて、前記事象が発生していることを認識する、ものである。 (10): In any of the above aspects (1) to (9), the event recognition unit is installed outside the vehicle and the surrounding conditions detected by the in-vehicle detection device mounted on the first vehicle. It recognizes that the event has occurred based on at least one of the surrounding conditions detected by the vehicle exterior detection device.

(11):上記(1)から(10)のいずれかの態様において、前記事象認識部により前記事象が発生していることが認識された場合、前記第1車両に搭載されている撮像部を用いて前記事象を撮像したデータを取得するデータ取得部をさらに備える、ものである。 (11): In any of the above aspects (1) to (10), when the event recognition unit recognizes that the event has occurred, the imaging image mounted on the first vehicle It further includes a data acquisition unit that acquires data obtained by imaging the event using the unit.

(12):上記(1)から(11)のいずれかの態様において、前記通知部は、前記事象が発生している地域を走行する第2車両の乗員に対してその旨を通知する、ものである。 (12): In any of the above aspects (1) to (11), the notification unit notifies the occupants of the second vehicle traveling in the area where the event is occurring to that effect. It is a thing.

(13):上記(1)から(12)のいずれかの態様において、前記事象認識部により前記第1事象が発生していることが認識された場合、前記第1車両に対して徐行運転を指示する運転指示部をさらに備える、ものである。 (13): In any of the above aspects (1) to (12), when the event recognition unit recognizes that the first event has occurred, the vehicle is driven slowly with respect to the first vehicle. It is further provided with an operation instruction unit for instructing.

(14):本発明の他の態様に係る情報提供方法は、コンピュータが、第1車両の周辺において取得された情報に基づいて、前記第1車両の周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識し、前記第1事象が発生していることが認識された場合、前記第1車両の乗員に対して前記第1事象に関する情報を通知する、方法である。 (14): In the information providing method according to another aspect of the present invention, the computer is included in an area around the first vehicle in an unusual range based on the information acquired in the vicinity of the first vehicle. It is a method of recognizing that one event has occurred, and when it is recognized that the first event has occurred, notifying the occupants of the first vehicle of information about the first event. ..

(15):本発明の他の態様に係るプログラムは、コンピュータに、第1車両の周辺において取得された情報に基づいて、前記第1車両の周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識させ、前記第1事象が発生していることが認識された場合、前記第1車両の乗員に対して前記第1事象に関する情報を通知させる、プログラムである。 (15): The program according to another aspect of the present invention is a first event included in an area around the first vehicle in an unusual range based on information acquired in the vicinity of the first vehicle by a computer. Is a program that recognizes that the first event has occurred, and when it is recognized that the first event has occurred, notifies the occupants of the first vehicle of information about the first event.

(1)〜(15)の態様によれば、車両の周辺において発生している所定の事象を乗員に気づかせることができる。 According to the aspects (1) to (15), it is possible to make the occupant aware of a predetermined event occurring in the vicinity of the vehicle.

本発明の情報提供システム1の一例を示す図。The figure which shows an example of the information providing system 1 of this invention. 実施形態に係る第1車両10Aの構成図。The block diagram of the 1st vehicle 10A which concerns on embodiment. 第1制御部120および第2制御部160の機能構成図。The functional block diagram of the 1st control unit 120 and the 2nd control unit 160. 車内通知装置300の構成と、第1車両10Aに搭載された機器とを示す図。The figure which shows the structure of the in-vehicle notification device 300 and the device mounted on the 1st vehicle 10A. 車内通知装置300の構成と、情報提供装置500の構成の一部とを示す図。The figure which shows the configuration of the in-vehicle notification device 300 and a part of the configuration of the information providing device 500. 情報提供装置500により実行される処理(その1)の一例を示すフローチャート。The flowchart which shows an example of the process (the 1) executed by the information providing apparatus 500. 情報提供装置500により実行される処理(その2)の一例を示すフローチャート。The flowchart which shows an example of the process (the 2) executed by the information providing apparatus 500. 情報提供装置500により実行される処理(その3)の一例を示すフローチャート。The flowchart which shows an example of the process (the 3) executed by the information providing apparatus 500.

以下、図面を参照し、本発明の車情報提供装置、情報提供方法、およびプログラムの実施形態について説明する。 Hereinafter, the vehicle information providing device, the information providing method, and the embodiment of the program of the present invention will be described with reference to the drawings.

[全体構成]
図1は、本発明の情報提供システム1の一例を示す図である。図1に示すように、情報提供システム1は、例えば、第1車両10Aと、ユーザ端末70Aと、第2車両10Bと、ユーザ端末70Bと、情報提供装置500と、車外検出装置700Cと、車外検出装置700Dとを含む。第1車両10Aと、ユーザ端末70Aと、第2車両10Bと、ユーザ端末70Bと、情報提供装置500と、車外検出装置700Cと、車外検出装置700Dとは、ネットワークNWを介して接続されている。なお、ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local1 Area Network)、プロバイダ装置、無線基地局などを含む。
[overall structure]
FIG. 1 is a diagram showing an example of the information providing system 1 of the present invention. As shown in FIG. 1, the information providing system 1 includes, for example, a first vehicle 10A, a user terminal 70A, a second vehicle 10B, a user terminal 70B, an information providing device 500, an outside detection device 700C, and an outside vehicle. Includes a detector 700D. The first vehicle 10A, the user terminal 70A, the second vehicle 10B, the user terminal 70B, the information providing device 500, the vehicle outside detection device 700C, and the vehicle outside detection device 700D are connected via the network NW. .. The network NW includes, for example, the Internet, a WAN (Wide Area Network), a LAN (Local1 Area Network), a provider device, a wireless base station, and the like.

第1車両10A、第2車両10Bは、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。以下の説明において、第1車両10Aと第2車両10Bとを区別しない場合、車両10と記す。図1では二台の車両を示しているが、情報提供システムには三台以上の車両が含まれてもよい。 The first vehicle 10A and the second vehicle 10B are, for example, vehicles such as two wheels, three wheels, and four wheels, and the drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates by using the power generated by the generator connected to the internal combustion engine or the discharge power of the secondary battery or the fuel cell. In the following description, when the first vehicle 10A and the second vehicle 10B are not distinguished, they are referred to as vehicle 10. Although FIG. 1 shows two vehicles, the information providing system may include three or more vehicles.

各車両10は、周辺状況を認識し、周辺状況を示す情報(以下、周辺状況情報と記す)を情報提供装置500に通知する移動体の一例である。周辺状況情報は、例えば、車両10の周辺で虹が出ていることや、車両10の周辺において流れ星が出現したことなどを示す情報である。例えば、第1車両10Aは、周辺において取得された周辺状況情報を、ネットワークNWを介して情報提供装置500に送信する。第2車両10Bは、周辺において取得された周辺状況情報を、ネットワークNWを介して情報提供装置500に送信する。また、車両10は、自身の現在位置を示す情報(以下、現在位置情報と記す)を生成し、車両10を識別する識別情報(例えば、車両ID)を現在位置情報に対応づけて、定期的にネットワークNWを介して情報提供装置500に送信してもよい。 Each vehicle 10 is an example of a moving body that recognizes the surrounding situation and notifies the information providing device 500 of information indicating the surrounding situation (hereinafter referred to as peripheral situation information). The surrounding situation information is, for example, information indicating that a rainbow appears around the vehicle 10 or a shooting star appears around the vehicle 10. For example, the first vehicle 10A transmits the peripheral situation information acquired in the surrounding area to the information providing device 500 via the network NW. The second vehicle 10B transmits the peripheral situation information acquired in the surrounding area to the information providing device 500 via the network NW. In addition, the vehicle 10 periodically generates information indicating its own current position (hereinafter referred to as current position information) and associates identification information (for example, vehicle ID) for identifying the vehicle 10 with the current position information. May be transmitted to the information providing device 500 via the network NW.

ユーザ端末70Aは、第1車両10Aの乗員であるユーザAが所有する端末である。ユーザ端末70Bは、第2車両10Bの乗員であるユーザBが所有する端末である。ユーザ端末70A、70Bは、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ等を含む。 The user terminal 70A is a terminal owned by the user A who is an occupant of the first vehicle 10A. The user terminal 70B is a terminal owned by the user B who is an occupant of the second vehicle 10B. User terminals 70A and 70B include, for example, smartphones, tablet terminals, personal computers and the like.

情報提供装置500は、例えば、第1車両10Aから受信した周辺状況情報に基づいて通知情報を生成し、生成した通知情報をユーザAに提供する。情報提供装置500は、例えば、通知エージェント機能を用いて通知情報をユーザAに提供する。通知エージェント機能には、例えば、車両の周辺の状況を認識し、認識した内容を車両の乗員に通知する機能、車両の乗員と対話をしながら、乗員の発話の中に含まれる要求(コマンド)に基づく情報提供を行う機能などが含まれる。また、通知エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御等を行う機能を有するものがあってよい。 The information providing device 500 generates notification information based on the surrounding situation information received from the first vehicle 10A, for example, and provides the generated notification information to the user A. The information providing device 500 provides the notification information to the user A by using, for example, the notification agent function. The notification agent function includes, for example, a function of recognizing the situation around the vehicle and notifying the occupant of the vehicle of the recognized content, and a request (command) included in the utterance of the occupant while interacting with the occupant of the vehicle. It includes a function to provide information based on. In addition, some of the notification agent functions may have a function of controlling devices in the vehicle (for example, devices related to driving control and vehicle body control).

エージェント機能は、例えば、乗員の音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、ネットワークを介して他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能等を統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、情報提供装置500に搭載されてもよい。以下の説明では、構成の一部が情報提供装置500に搭載されており、車内通知装置300と情報提供装置500とが協働してエージェントシステムを実現することを前提とする。また、エージェントシステムとして、車内通知装置300と情報提供装置500とが協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。 Agent functions include, for example, a voice recognition function that recognizes the voice of an occupant (a function that converts voice into text), a natural language processing function (a function that understands the structure and meaning of text), a dialogue management function, and a network. It is realized by integratedly using a network search function or the like that searches for another device or a predetermined database owned by the own device. Some or all of these functions may be realized by AI (Artificial Intelligence) technology. Further, a part of the configuration for performing these functions (particularly, the voice recognition function and the natural language processing interpretation function) may be mounted on the information providing device 500. In the following description, it is premised that a part of the configuration is mounted on the information providing device 500, and the in-vehicle notification device 300 and the information providing device 500 cooperate to realize the agent system. Further, as the agent system, a service provider (service entity) in which the in-vehicle notification device 300 and the information providing device 500 cooperate to virtually appear is referred to as an agent.

エージェント機能を用いて、車室内の乗員に通知情報を通知する処理の一例について説明する。例えば、第1車両10Aの周辺で虹が出ている場合、情報提供装置500は、第1車両10Aの周辺で虹が出ていることを音声あるいは画像で通知する通知情報を生成する。情報提供装置500は、例えば、通知情報を第1車両10Aに送信し、虹が出ていることを第1車両10Aの車室内に出力することでユーザAに通知する。これに限られず、情報提供装置500は、通知情報をユーザ端末70Aに送信し、虹が出ていることをユーザ端末70Aから出力させることでユーザAに通知してもよい。以下、通知情報を第1車両10Aに送信してユーザAに通知する例について説明する。 An example of the process of notifying the occupants in the vehicle interior of the notification information by using the agent function will be described. For example, when a rainbow appears around the first vehicle 10A, the information providing device 500 generates notification information for notifying by voice or image that a rainbow appears around the first vehicle 10A. For example, the information providing device 500 notifies the user A by transmitting the notification information to the first vehicle 10A and outputting the appearance of the rainbow in the vehicle interior of the first vehicle 10A. Not limited to this, the information providing device 500 may notify the user A by transmitting the notification information to the user terminal 70A and outputting the rainbow from the user terminal 70A. Hereinafter, an example of transmitting the notification information to the first vehicle 10A and notifying the user A will be described.

また、第2車両10Bもこの虹が観測可能なエリアを走行している場合、情報提供装置500は、生成した通知情報をユーザBに提供してもよい。ユーザBへの通知情報の提供も、ユーザAへの通知情報の提供と同様に、第2車両10Bの車室内に出力する態様であってもよく、ユーザ端末70Bから出力させる態様であってもよい。 Further, when the second vehicle 10B is also traveling in the area where the rainbow can be observed, the information providing device 500 may provide the generated notification information to the user B. Similar to the provision of the notification information to the user A, the notification information may be provided to the user B in a mode of outputting to the passenger compartment of the second vehicle 10B, or may be output from the user terminal 70B. Good.

車外検出装置700Cは、車外設置物720Cに固定されており、車外検出装置700Dは、車外設置物720Dに固定されている。各車外検出装置700C,700Dは、車両10の外部に設置された検出装置の一例であり、車外設置物の周辺状況を認識し、周辺状況情報を情報提供装置500に通知する。例えば、車外検出装置700Cは、車外設置物720Cの周辺状況を示す周辺状況情報を、ネットワークNWを介して情報提供装置500に送信する。車外検出装置700Dは、車外設置物720Dの周辺状況を示す周辺状況情報を、ネットワークNWを介して情報提供装置500に送信する。情報提供装置500は、車外検出装置700C,700Dにより生成された周辺状況情報に基づいて通知情報を生成し、生成した通知情報をユーザに提供してもよい。以下の説明において、車外検出装置700C,700Dを区別しない場合、車外検出装置700と記す。 The outside detection device 700C is fixed to the outside installation object 720C, and the outside detection device 700D is fixed to the outside installation object 720D. Each of the external detection devices 700C and 700D is an example of a detection device installed outside the vehicle 10, recognizes the peripheral situation of the externally installed object, and notifies the information providing device 500 of the peripheral situation information. For example, the vehicle exterior detection device 700C transmits peripheral status information indicating the peripheral status of the vehicle exterior installation object 720C to the information providing device 500 via the network NW. The vehicle exterior detection device 700D transmits peripheral condition information indicating the peripheral condition of the vehicle exterior installation object 720D to the information providing device 500 via the network NW. The information providing device 500 may generate notification information based on the surrounding situation information generated by the vehicle outside detection devices 700C and 700D, and provide the generated notification information to the user. In the following description, when the vehicle exterior detection devices 700C and 700D are not distinguished, they are referred to as the vehicle exterior detection device 700.

[車両の構成]
図2は、実施形態に係る第1車両10Aの構成図である。なお、第2車両10Bも、以下に説明する第1車両10Aと同様の構成を有するものであるため、第2車両10Bの構成についての説明は省略する。
[Vehicle configuration]
FIG. 2 is a configuration diagram of the first vehicle 10A according to the embodiment. Since the second vehicle 10B also has the same configuration as the first vehicle 10A described below, the description of the configuration of the second vehicle 10B will be omitted.

第1車両10Aは、例えば、カメラ11と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220と、車内通知装置300と、を備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。カメラ11、レーダ装置12、およびファインダ14は、車両10の周辺の状況を検出する装置であって、車両10に搭載された車載検出装置の一例である。 The first vehicle 10A includes, for example, a camera 11, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, and a navigation device 50. , MPU (Map Positioning Unit) 60, a driving operator 80, an automatic driving control device 100, a traveling driving force output device 200, a braking device 210, a steering device 220, and an in-vehicle notification device 300. These devices and devices are connected to each other by multiplex communication lines such as CAN (Controller Area Network) communication lines, serial communication lines, wireless communication networks, and the like. The configuration shown in FIG. 2 is merely an example, and a part of the configuration may be omitted or another configuration may be added. The camera 11, the radar device 12, and the finder 14 are devices for detecting the situation around the vehicle 10, and are examples of the vehicle-mounted detection devices mounted on the vehicle 10.

カメラ11は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ11は、第1車両10Aの任意の箇所に取り付けられる。前方を撮像する場合、カメラ11は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ11は、例えば、周期的に繰り返し第1車両10Aの周辺を撮像する。カメラ11は、ステレオカメラであってもよい。カメラ11は、ドライブレコーダーであってもよい。 The camera 11 is, for example, a digital camera that uses a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 11 is attached to an arbitrary position on the first vehicle 10A. When photographing the front, the camera 11 is attached to the upper part of the front windshield, the back surface of the rearview mirror, and the like. The camera 11 periodically and repeatedly images the periphery of the first vehicle 10A, for example. The camera 11 may be a stereo camera. The camera 11 may be a drive recorder.

レーダ装置12は、第1車両10Aの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、第1車両10Aの任意の箇所に取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the first vehicle 10A, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and orientation) of the object. The radar device 12 is attached to an arbitrary position on the first vehicle 10A. The radar device 12 may detect the position and velocity of the object by the FM-CW (Frequency Modulated Continuous Wave) method.

ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、第1車両10Aの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、第1車両10Aの任意の箇所に取り付けられる。 The finder 14 is a LIDAR (Light Detection and Ranging). The finder 14 irradiates the periphery of the first vehicle 10A with light and measures the scattered light. The finder 14 detects the distance to the target based on the time from light emission to light reception. The light to be irradiated is, for example, a pulsed laser beam. The finder 14 is attached to an arbitrary position on the first vehicle 10A.

物体認識装置16は、カメラ11、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ11、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。物体認識装置16が省略されてもよい。 The object recognition device 16 performs sensor fusion processing on the detection results of a part or all of the camera 11, the radar device 12, and the finder 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs the recognition result to the automatic operation control device 100. The object recognition device 16 may output the detection results of the camera 11, the radar device 12, and the finder 14 to the automatic driving control device 100 as they are. The object recognition device 16 may be omitted.

通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、第1車両10Aの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with another vehicle existing in the vicinity of the first vehicle 10A by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like. Communicates with various server devices via a wireless base station.

HMI30は、第1車両10Aの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupants of the first vehicle 10A and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like.

車両センサ40は、第1車両10Aの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、第1車両10Aの向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the first vehicle 10A, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, an orientation sensor that detects the direction of the first vehicle 10A, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、第1車両10Aの位置を特定する。第1車両10Aの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された第1車両10Aの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53. The navigation device 50 holds the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. The GNSS receiver 51 identifies the position of the first vehicle 10A based on the signal received from the GNSS satellite. The position of the first vehicle 10A may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53 is, for example, a route from the position of the first vehicle 10A (or an arbitrary position input) specified by the GNSS receiver 51 to the destination input by the occupant using the navigation HMI 52 (hereinafter,). , The route on the map) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The route on the map is output to MPU60. The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、第1車両10Aが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into a plurality of blocks (for example, divides the route every 100 [m] with respect to the vehicle traveling direction), and refers to the second map information 62. Determine the recommended lane for each block. The recommended lane determination unit 61 determines which lane to drive from the left. When the route on the map has a branch point, the recommended lane determination unit 61 determines the recommended lane so that the first vehicle 10A can travel on a reasonable route to proceed to the branch destination.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is more accurate map information than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by the communication device 20 communicating with another device.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation operator 80, and the detection result is the automatic operation control device 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to a part or all of 220.

自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。 The automatic operation control device 100 includes, for example, a first control unit 120 and a second control unit 160. Each of the first control unit 120 and the second control unit 160 is realized by executing a program (software) by a hardware processor such as a CPU (Central Processing Unit). In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part (including circuitry), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the automatic operation control device 100, or is removable such as a DVD or a CD-ROM. It is stored in a storage medium, and may be installed in the HDD or flash memory of the automatic operation control device 100 by mounting the storage medium (non-transient storage medium) in the drive device.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for traveling the vehicle to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls them. The ECU controls the above configuration according to the information input from the second control unit 160 or the information input from the operation operator 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits flood pressure to the brake caliper, an electric motor that generates flood pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 160 or the information input from the operation operator 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism for transmitting the oil pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls an actuator according to information input from the second control unit 160 to transmit the oil pressure of the master cylinder to the cylinder. May be good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies a force to the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80, and changes the direction of the steering wheel.

図3は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 FIG. 3 is a functional configuration diagram of the first control unit 120 and the second control unit 160. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140. The first control unit 120, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with recognition of an intersection by deep learning or the like and recognition based on predetermined conditions (pattern matching signals, road markings, etc.), both of which are executed. It may be realized by scoring against and comprehensively evaluating. This ensures the reliability of autonomous driving.

認識部130は、カメラ11、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、第1車両10Aの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、第1車両10Aの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 130 is based on the information input from the camera 11, the radar device 12, and the finder 14 via the object recognition device 16, the position, speed, acceleration, and other states of the objects around the first vehicle 10A. Recognize. The position of the object is recognized as, for example, a position on absolute coordinates with a representative point (center of gravity, center of drive axis, etc.) of the first vehicle 10A as the origin, and is used for control. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include acceleration or jerk of the object, or "behavioral state" (eg, whether or not the vehicle is changing lanes or is about to change lanes).

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、第1車両10Aの周辺状況に対応できるように、第1車両10Aが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、第1車両10Aの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの第1車両10Aの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における第1車両10Aの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 In principle, the action plan generation unit 140 travels in the recommended lane determined by the recommended lane determination unit 61, and the first vehicle 10A automatically (1st vehicle 10A) so as to be able to respond to the surrounding conditions of the first vehicle 10A. Generate a target trajectory to drive in the future (without relying on the driver's operation). The target trajectory includes, for example, a velocity element. For example, the target track is expressed as a series of points (track points) to be reached by the first vehicle 10A. The track point is a point to be reached by the first vehicle 10A for each predetermined mileage (for example, about several [m]) along the road, and separately, a predetermined sampling time (for example, 0 comma number [sec]]. A target velocity and a target acceleration for each degree) are generated as part of the target trajectory. Further, the track point may be a position to be reached by the first vehicle 10A at the sampling time for each predetermined sampling time. In this case, the information of the target velocity and the target acceleration is expressed by the interval of the orbital points.

行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。 The action plan generation unit 140 may set an event for automatic driving when generating a target trajectory. Autonomous driving events include constant speed driving events, low speed following driving events, lane change events, branching events, merging events, takeover events, and the like. The action plan generation unit 140 generates a target trajectory according to the activated event.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに第1車両10Aが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 has a traveling driving force output device 200, a brake device 210, and a steering device 220 so that the first vehicle 10A passes the target trajectory generated by the action plan generation unit 140 at the scheduled time. To control.

第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、第1車両10Aの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 The second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The acquisition unit 162 acquires the information of the target trajectory (orbit point) generated by the action plan generation unit 140 and stores it in a memory (not shown). The speed control unit 164 controls the traveling driving force output device 200 or the braking device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 166 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 166 executes a combination of feedforward control according to the curvature of the road in front of the first vehicle 10A and feedback control based on the deviation from the target trajectory.

[車内通知装置]
まず、車内通知装置300側のエージェントシステムの一部について説明する。図4は、車内通知装置300の構成と、第1車両10Aに搭載された機器とを示す図である。第1車両10Aには、例えば、マイク410と、表示・操作装置420と、スピーカ430とがさらに搭載されている。車内通知装置300とユーザ端末70Aとは、例えば、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続されてよい。これにより、ユーザ端末70Aが車室内に持ち込まれた場合、ユーザ端末70Aが、車内通知装置300を介して情報提供装置500から受信した通知情報を出力することができる。
[In-vehicle notification device]
First, a part of the agent system on the in-vehicle notification device 300 side will be described. FIG. 4 is a diagram showing the configuration of the in-vehicle notification device 300 and the equipment mounted on the first vehicle 10A. For example, the microphone 410, the display / operation device 420, and the speaker 430 are further mounted on the first vehicle 10A. The in-vehicle notification device 300 and the user terminal 70A may be connected to each other by, for example, a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. As a result, when the user terminal 70A is brought into the vehicle interior, the user terminal 70A can output the notification information received from the information providing device 500 via the in-vehicle notification device 300.

マイク410は、車室内で発せられた音声を収集する収音部である。車両の複数の乗員の発話を取得するためにマイク410は複数あってもよい。表示・操作装置420は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置420は、例えば、タッチパネルとして構成されたディスプレイ装置を含む。表示・操作装置420は、更に、HUD(Head Up Display)や機械式の入力装置、出力装置を含んでもよい。スピーカ430は、例えば、車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。表示・操作装置420は、車内通知装置300とナビゲーション装置50とで共用されてもよい。また、車内通知装置300は、ナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラと車内通知装置300は、ハードウェア上は一体に構成される。 The microphone 410 is a sound collecting unit that collects the sound emitted in the vehicle interior. There may be multiple microphones 410 to capture the utterances of multiple occupants of the vehicle. The display / operation device 420 is a device (or device group) capable of displaying an image and accepting an input operation. The display / operation device 420 includes, for example, a display device configured as a touch panel. The display / operation device 420 may further include a HUD (Head Up Display), a mechanical input device, and an output device. The speaker 430 includes, for example, a plurality of speakers (sound output units) arranged at different positions in the vehicle interior. The display / operation device 420 may be shared by the in-vehicle notification device 300 and the navigation device 50. Further, the in-vehicle notification device 300 may be constructed based on the navigation controller, and in that case, the navigation controller and the in-vehicle notification device 300 are integrally configured on the hardware.

車内通知装置300は、管理部310と、通知エージェント機能部320と、車内記憶部330とを備える。管理部310は、例えば、音響処理部311と、指示受付部312と、表示制御部313と、音声制御部314とを備える。車内通知装置300の各構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The in-vehicle notification device 300 includes a management unit 310, a notification agent function unit 320, and an in-vehicle storage unit 330. The management unit 310 includes, for example, an acoustic processing unit 311, an instruction receiving unit 312, a display control unit 313, and a voice control unit 314. Each component of the in-vehicle notification device 300 is realized by, for example, a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (including circuit part; circuitry), or realized by collaboration between software and hardware. May be good. The program may be stored in advance in a storage device such as an HDD or a flash memory (a storage device including a non-transient storage medium), or a removable storage medium (non-transient) such as a DVD or a CD-ROM. It is stored in a sex storage medium) and may be installed by attaching the storage medium to a drive device.

管理部310は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。車内記憶部330は、上記の各種記憶装置により実現される。車内記憶部330には、例えば、物体認識装置16から入力した情報が一時的に記憶される。 The management unit 310 functions by executing a program such as an OS (Operating System) or middleware. The in-vehicle storage unit 330 is realized by the above-mentioned various storage devices. For example, the information input from the object recognition device 16 is temporarily stored in the vehicle interior storage unit 330.

通知エージェント機能部320は、情報提供装置500と協働してエージェントを出現させ、音声による情報提供を含む通知エージェント機能を提供する。なお、通知エージェント機能部320は、車両の乗員の発話に応じて、音声による応答を含む通知エージェント機能を提供してもよい。通知エージェント機能部320には、車両機器を制御する権限が付与されてもよい。 The notification agent function unit 320 causes an agent to appear in cooperation with the information providing device 500, and provides a notification agent function including information provision by voice. The notification agent function unit 320 may provide a notification agent function including a voice response in response to an utterance of a vehicle occupant. The notification agent function unit 320 may be given the authority to control the vehicle equipment.

通知エージェント機能部320は、カメラ11、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、周辺状況情報を生成する。また、通知エージェント機能部320は、物体認識装置16による認識結果に基づいて、周辺状況情報を生成してもよい。通知エージェント機能部320は、生成した周辺状況情報を、通信装置20を介して情報提供装置500に送信する。通知エージェント機能部320は、情報提供装置500から通知情報を受信した場合、受信した通知情報に基づいて、ユーザAに通知するための各種処理を実行する。 The notification agent function unit 320 generates peripheral situation information based on the information input from the camera 11, the radar device 12, and the finder 14 via the object recognition device 16. Further, the notification agent function unit 320 may generate peripheral situation information based on the recognition result by the object recognition device 16. The notification agent function unit 320 transmits the generated peripheral status information to the information providing device 500 via the communication device 20. When the notification agent function unit 320 receives the notification information from the information providing device 500, the notification agent function unit 320 executes various processes for notifying the user A based on the received notification information.

また、通知エージェント機能部320は、カメラ11から物体認識装置16を介して情報が入力した場合、入力した情報を車内記憶部330に一時的に記憶させ、一定時間が経過した場合、車内記憶部330に記憶させた情報を消去する。車内記憶部330に格納される情報には、カメラ11により撮像された画像データまたは動画データが含まれる。この画像データや動画データには、撮像された時刻が対応付けられている。 Further, the notification agent function unit 320 temporarily stores the input information in the in-vehicle storage unit 330 when information is input from the camera 11 via the object recognition device 16, and when a certain time elapses, the in-vehicle storage unit 320 stores the input information. The information stored in 330 is erased. The information stored in the in-vehicle storage unit 330 includes image data or moving image data captured by the camera 11. The time when the image was taken is associated with the image data and the moving image data.

通知エージェント機能部320は、音響処理が行われた音声(音声ストリーム)から音声の意味を認識する。まず、通知エージェント機能部320は、音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。通知エージェント機能部320は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づくフレーム単位の音声識別および非音声識別に基づく区間検出を行ってもよい。通知エージェント機能部320は、エージェントごとに予め定められているウエイクアップワードなどを認識する。 The notification agent function unit 320 recognizes the meaning of the voice from the voice (voice stream) on which the sound processing is performed. First, the notification agent function unit 320 detects a voice section based on the amplitude and zero intersection of the voice waveform in the voice stream. The notification agent function unit 320 may perform frame-by-frame speech recognition based on a mixture Gaussian mixture model (GMM) and section detection based on non-speech recognition. The notification agent function unit 320 recognizes a wakeup word or the like predetermined for each agent.

音響処理部311は、乗員の発話を認識するのに適した状態になるように、入力された音に対して音響処理を行う。通知エージェント機能部320は、音響処理部311により処理された音声ストリームに基づいて、例えば、ウエイクアップワードや、その他の乗員からの要求ワードを認識する。ウエイクアップワードには、例えば、「通知サービスを開始して」などが含まれる。要求ワードには、例えば、「もう一度教えて」、「もっと大きな声で言って」、「どこに見えるの?」、「通知内容の画像を携帯に送って」などが含まれる。 The sound processing unit 311 performs sound processing on the input sound so as to be in a state suitable for recognizing the utterance of the occupant. The notification agent function unit 320 recognizes, for example, a wakeup word or a request word from another occupant based on the voice stream processed by the sound processing unit 311. The wakeup word includes, for example, "start notification service". Request words include, for example, "tell me again", "speak louder", "where do you see it?", "Send an image of the notification to your cell phone" and so on.

指示受付部312は、表示・操作装置420を用いて乗員からの指示を受け付ける。これに限られず、指示受付部312は、音声認識機能を備え、車内音声に基づいて音声の意味を認識することにより、乗員からの指示を受け付けてもよい。車内音声には、マイク410から入力された音や、音響処理部311により音響処理が行われた音声(音声ストリーム)などが含まれる。 The instruction receiving unit 312 receives an instruction from the occupant using the display / operating device 420. Not limited to this, the instruction receiving unit 312 may receive an instruction from the occupant by having a voice recognition function and recognizing the meaning of the voice based on the voice in the vehicle. The voice in the vehicle includes a sound input from the microphone 410, a voice processed by the sound processing unit 311 (voice stream), and the like.

表示制御部313は、通知エージェント機能部320からの指示に応じて、表示・操作装置420のディスプレイに画像や動画を表示させる。音声制御部314は、通知エージェント機能部320からの指示に応じて、スピーカ430に含まれるスピーカのうち一部または全部に音声を出力させる。 The display control unit 313 causes the display of the display / operation device 420 to display an image or a moving image in response to an instruction from the notification agent function unit 320. The voice control unit 314 causes a part or all of the speakers included in the speaker 430 to output voice in response to an instruction from the notification agent function unit 320.

通知エージェント機能部320により通知情報が取得された場合の通知例について説明する。例えば、通知エージェント機能部320は、通知情報に基づくテキストや画像を表示・操作装置420に表示させるように表示制御部313に指示するとともに、通知情報に基づく音声をスピーカ430から出力させるように音声制御部314に指示する。なお、ユーザ端末70Aに通知することがユーザAにより事前に設定されている場合、通知エージェント機能部320は、通信装置20を介して、ユーザ端末70Aに通知情報を送信して、ユーザ端末70Aの表示部やスピーカから通知情報に基づく画像や音声を出力させてもよい。 An example of notification when notification information is acquired by the notification agent function unit 320 will be described. For example, the notification agent function unit 320 instructs the display control unit 313 to display a text or an image based on the notification information on the display / operation device 420, and also outputs a voice based on the notification information from the speaker 430. Instruct the control unit 314. When notification to the user terminal 70A is set in advance by the user A, the notification agent function unit 320 transmits the notification information to the user terminal 70A via the communication device 20 to notify the user terminal 70A. Images and sounds based on the notification information may be output from the display unit and the speaker.

通知エージェント機能部320は、通知情報に応じて、ユーザAに通知する態様を決定してもよい。例えば、通知エージェント機能部320は、通知レベルが高い通知情報の場合、通知レベルが低い通知情報の場合に比べて、出力態様を強調する。出力態様を強調することには、例えば、スピーカ430から音声を出力するだけでなく、表示・操作装置420に画像を出力させることが含まれる。こうすることで、通知レベルが高い通知情報(例えば、流れ星や隕石落下など出現確率が相当低い現象)を、通知レベルが低い通知情報(例えば、ゲリラ豪雨や珍しい形の雲の出現などの現象)よりも強調して、乗員に通知することができる。なお、この出力態様は、通知情報ごとに、情報提供装置500により指定されてもよい。 The notification agent function unit 320 may determine the mode of notifying the user A according to the notification information. For example, the notification agent function unit 320 emphasizes the output mode in the case of notification information having a high notification level as compared with the case of notification information having a low notification level. Emphasizing the output mode includes, for example, not only outputting sound from the speaker 430 but also causing the display / operation device 420 to output an image. By doing so, notification information with a high notification level (for example, a phenomenon with a considerably low probability of appearance such as a shooting star or a meteorite falling) and notification information with a low notification level (for example, a phenomenon such as a guerrilla rainstorm or the appearance of unusually shaped clouds) The occupants can be notified with more emphasis. Note that this output mode may be specified by the information providing device 500 for each notification information.

[情報提供装置の構成]
次に、情報提供装置500側のエージェントシステムの一部について説明する。図5は、車内通知装置300の構成と、情報提供装置500の構成の一部とを示す図である。以下、情報提供装置500の構成と共に車内通知装置300等の動作について説明する。ここでは、車内通知装置300からネットワークNWまでの物理的な通信についての説明を省略する。
[Configuration of information providing device]
Next, a part of the agent system on the information providing device 500 side will be described. FIG. 5 is a diagram showing a configuration of the in-vehicle notification device 300 and a part of the configuration of the information providing device 500. Hereinafter, the operation of the in-vehicle notification device 300 and the like will be described together with the configuration of the information providing device 500. Here, the description of the physical communication from the in-vehicle notification device 300 to the network NW will be omitted.

情報提供装置500は、例えば、通信部510と、第1処理部520と、第2処理部530と、第1記憶部550と、第2記憶部560とを備える。通信部510は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。第1処理部520と第2処理部530の構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The information providing device 500 includes, for example, a communication unit 510, a first processing unit 520, a second processing unit 530, a first storage unit 550, and a second storage unit 560. The communication unit 510 is a network interface such as a NIC (Network Interface Card). The components of the first processing unit 520 and the second processing unit 530 are realized by, for example, a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (including circuit part; circuitry), or realized by collaboration between software and hardware. May be good. The program may be stored in advance in a storage device such as an HDD or a flash memory (a storage device including a non-transient storage medium), or a removable storage medium (non-transient) such as a DVD or a CD-ROM. It is stored in a sex storage medium) and may be installed by attaching the storage medium to a drive device.

第1処理部520は、車内通知装置300と協働して、エージェントシステムを実現するための各処理を実行する。第1処理部520は、例えば、音声認識部521と、自然言語処理部522と、対話管理部523と、応答文生成部524とを備える。 The first processing unit 520 cooperates with the in-vehicle notification device 300 to execute each processing for realizing the agent system. The first processing unit 520 includes, for example, a voice recognition unit 521, a natural language processing unit 522, a dialogue management unit 523, and a response sentence generation unit 524.

第2処理部530は、通知情報を生成し、車内通知装置300に送信するための各処理を実行する。第2処理部530は、例えば、事象認識部531と、通知部532と、ユーザ確認部533と、リスト編集部534と、学習部535と、データ取得部536と、運転指示部537と、データ管理部538と、他車両検出部539とを備える。 The second processing unit 530 executes each process for generating notification information and transmitting it to the in-vehicle notification device 300. The second processing unit 530 includes, for example, an event recognition unit 531, a notification unit 532, a user confirmation unit 533, a list editing unit 534, a learning unit 535, a data acquisition unit 536, an operation instruction unit 537, and data. It includes a management unit 538 and another vehicle detection unit 539.

第1記憶部550と第2記憶部560は、上記の各種記憶装置により実現される。第1記憶部550には、例えば、辞書DB(データベース)551、応答規則DB552などのデータやプログラムが格納される。これらの情報が、第1処理部520により読み出される。第2記憶部560には、例えば、日常事象リスト561と、非日常事象リスト562と、ユーザごとリスト563と、ユーザ事象識別モデル564と、車両位置情報565と、周辺状況情報566などのデータやプログラムが格納される。これらの情報が、第2処理部530により書き込まれたり、第2処理部530により読み出されたりする。 The first storage unit 550 and the second storage unit 560 are realized by the above-mentioned various storage devices. Data and programs such as a dictionary DB (database) 551 and a response rule DB 552 are stored in the first storage unit 550. This information is read out by the first processing unit 520. In the second storage unit 560, for example, data such as a daily event list 561, an extraordinary event list 562, a user-specific list 563, a user event identification model 564, a vehicle position information 565, and surrounding situation information 566 can be stored. The program is stored. These pieces of information are written by the second processing unit 530 and read out by the second processing unit 530.

まず、第1処理部520による処理について説明する。例えば、車内通知装置300において、通知エージェント機能部320は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、情報提供装置500に送信する。 First, the processing by the first processing unit 520 will be described. For example, in the in-vehicle notification device 300, the notification agent function unit 320 transmits a voice stream or a voice stream that has undergone processing such as compression or coding to the information providing device 500.

音声ストリームを取得すると、音声認識部521が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部522が文字情報に対して辞書DB551を参照しながら意味解釈を行う。辞書DB551は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB551は、同義語や類義語の一覧情報を含んでもよい。音声認識部521の処理と、自然言語処理部522の処理は、段階が明確に分かれるものではなく、自然言語処理部522の処理結果を受けて音声認識部521が認識結果を修正するなど、相互に影響し合って行われてよい。 When the voice stream is acquired, the voice recognition unit 521 performs voice recognition and outputs textual character information, and the natural language processing unit 522 interprets the meaning of the character information while referring to the dictionary DB 551. The dictionary DB 551 is associated with abstract semantic information with respect to character information. The dictionary DB 551 may include list information of synonyms and synonyms. The processing of the voice recognition unit 521 and the processing of the natural language processing unit 522 are not clearly separated in stages, and the voice recognition unit 521 corrects the recognition result in response to the processing result of the natural language processing unit 522. It may be done by influencing each other.

自然言語処理部522は、例えば、認識結果として、「どこに見えるの?」、「どこどこ?」等の意味が認識された場合、標準文字情報「どこ」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部522は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成してもよい。 For example, when the meanings such as "where do you see?" And "where?" Are recognized as the recognition result, the natural language processing unit 522 generates a command replaced with the standard character information "where". As a result, even if there is a character fluctuation in the voice of the request, it is possible to facilitate the dialogue according to the request. Further, the natural language processing unit 522 may recognize the meaning of the character information by using artificial intelligence processing such as machine learning processing using probability, or may generate a command based on the recognition result.

対話管理部523は、自然言語処理部522の処理結果(コマンド)に基づいて、応答規則DB552を参照しながら車両の乗員に対する発話の内容を決定する。応答規則DB552は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。 The dialogue management unit 523 determines the content of the utterance to the occupant of the vehicle based on the processing result (command) of the natural language processing unit 522 with reference to the response rule DB 552. The response rule DB 552 is information that defines an operation (answer, device control content, etc.) that the agent should perform in response to the command.

応答文生成部524は、対話管理部523により決定された発話の内容が車両の乗員に伝わるように応答文を生成し、通信部510を介して車内通知装置300に送信する。応答文生成部524は、乗員がパーソナルプロファイルに登録された乗員であることが特定されている場合に、乗員の名前を呼んだり、乗員の話し方に似せた話し方にした応答文を生成してもよい。 The response sentence generation unit 524 generates a response sentence so that the content of the utterance determined by the dialogue management unit 523 is transmitted to the occupants of the vehicle, and transmits the response sentence to the in-vehicle notification device 300 via the communication unit 510. The response sentence generation unit 524 may call the occupant's name or generate a response sentence that resembles the occupant's speech when the occupant is identified as a registered occupant in the personal profile. Good.

通知エージェント機能部320は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部314に指示する。また、通知エージェント機能部320は、音声出力に合わせてAGアニメーションを表示するように表示制御部313に指示してもよく、応答文を文字にして表示するように表示制御部313に指示してもよい。このようにして、仮想的に出現したエージェントが車両の乗員に応答するエージェント機能が実現される。 When the notification agent function unit 320 acquires the response sentence, the notification agent function unit 320 instructs the voice control unit 314 to perform voice synthesis and output the voice. Further, the notification agent function unit 320 may instruct the display control unit 313 to display the AG animation in accordance with the voice output, or instruct the display control unit 313 to display the response sentence in characters. May be good. In this way, the agent function in which the virtually appearing agent responds to the occupants of the vehicle is realized.

次に、第2処理部530による処理について説明する。例えば、車内通知装置300において、通知エージェント機能部320は、生成した周辺状況情報を、情報提供装置500に送信する。 Next, the processing by the second processing unit 530 will be described. For example, in the in-vehicle notification device 300, the notification agent function unit 320 transmits the generated peripheral situation information to the information providing device 500.

事象認識部531は、通信部510を介して、第1車両10Aから周辺状況情報を受信する。例えば、事象認識部531は、第1車両10Aに搭載された外部検出部(例えば、カメラ11、レーダ装置12、およびファインダ14など)を用いて走行中に検出された検出結果を、周辺状況情報として受信する。事象認識部531は、車外検出装置700により検出された検出結果を、周辺状況情報として受信してもよい。 The event recognition unit 531 receives peripheral situation information from the first vehicle 10A via the communication unit 510. For example, the event recognition unit 531 uses the external detection unit (for example, the camera 11, the radar device 12, the finder 14, etc.) mounted on the first vehicle 10A to detect the detection result during traveling, and obtains peripheral situation information. Receive as. The event recognition unit 531 may receive the detection result detected by the vehicle outside detection device 700 as peripheral situation information.

例えば、事象認識部531は、受信した第1車両10Aの周辺状況情報に基づいて、第1車両10Aの周辺において発生している事象(以下、発生事象Eと記す)を認識する。第1車両10Aの周辺状況情報には、例えば、第1車両10Aのカメラ11、レーダ装置12、およびファインダ14から出力された情報が含まれる。事象認識部531は、車外検出装置700Cから周辺状況情報を受信し、受信した周辺状況情報に基づいて、車外検出装置700Cの周辺において発生している発生事象Eを認識してもよい。以下の説明では、主に、発生事象Eを認識する例について説明する。発生事象Eについては、「第1車両10」を「車外検出装置700C」と読み換えればよい。発生事象Eと異なる部分について、発生事象Eの説明をする。 For example, the event recognition unit 531, based on the surrounding situation information of the first vehicle 10A which receives, events occurring in the vicinity of the first vehicle 10A (hereinafter, referred to as occurred event E A) recognizes. The peripheral situation information of the first vehicle 10A includes, for example, information output from the camera 11, the radar device 12, and the finder 14 of the first vehicle 10A. Event recognition unit 531 receives the peripheral status information from the outside detector 700C, based on the surrounding conditions information received, may recognize the occurrence event E C occurring in the vicinity of the outside detector 700C. In the following description, mainly, an example will be described that recognizes the occurrence event E A. The development events E C, the "first vehicle 10" or In other read as "outside detector 700C". Occurrence event E C will be explained for the part different from the occurrence event E A.

事象認識部531は、例えば、カメラ11により撮像された画像を解析することにより、画像内に含まれる所定の画像を検出する。事象認識部531は、検出した所定の画像に基づいて発生事象Eを決定する。事象認識部531は、パターン認識により所定の画像を検出してもよく、画像から抽出される特徴量に基づいて画像に含まれる所定の画像を検出してもよい。所定の画像には、例えば、虹、流れ星、隕石落下、ゲリラ豪雨、珍しい形の雲、サル、タヌキなどが含まれる。 The event recognition unit 531 detects a predetermined image included in the image by, for example, analyzing the image captured by the camera 11. Event recognition unit 531 determines the occurrence event E A based on a predetermined image detected. The event recognition unit 531 may detect a predetermined image by pattern recognition, or may detect a predetermined image included in the image based on the feature amount extracted from the image. Certain images include, for example, rainbows, shooting stars, meteorite falls, guerrilla rainstorms, unusually shaped clouds, monkeys, raccoon dogs, and the like.

事象認識部531は、画像解析に加えて、レーダ装置12やファインダ14から出力された情報に基づいて、所定の画像の動きや速度などを導出して、発生事象Eを認識してもよい。 Event recognition unit 531, in addition to the image analysis, based on the information output from the radar device 12 and a finder 14, and derives the like movement and speed of the predetermined image may recognize the occurrence event E A ..

また、事象認識部531は、第1車両10Aの周辺の地域において日常でない範囲に含まれる事象(以下、第1事象と記す)が発生していることを認識する。例えば、認識した発生事象Eが非日常事象リスト562に含まれる事象に該当する場合、事象認識部531は、第1事象が発生していることを認識する。非日常事象リスト562は、日常でない範囲に含まれる事象の一覧である。非日常事象リスト562には、例えば、対応地域において日常でない事象が対応地域ごとに予め登録されている。非日常事象リスト562やその他の認識手法については、後述する。 In addition, the event recognition unit 531 recognizes that an event (hereinafter referred to as a first event) included in an unusual range has occurred in the area around the first vehicle 10A. For example, if the recognized developmental events E A corresponds to an event that is included in the extraordinary event list 562, event recognizer 531 recognizes that the first event has occurred. The extraordinary event list 562 is a list of events included in the non-daily range. In the extraordinary event list 562, for example, non-daily events in the corresponding area are registered in advance for each corresponding area. The extraordinary event list 562 and other recognition methods will be described later.

事象認識部531は、認識した発生事象Eが日常事象リスト561に含まれる事象に該当しない場合、事象認識部531は、発生事象Eを第1事象として認識しない。日常事象リスト561は、日常の範囲に含まれる事象の一覧である。日常事象リスト561やその他の認識手法については、後述する。 Event recognition unit 531, if recognized developmental events E A does not correspond to an event that is included in the daily events list 561, the event recognition unit 531 does not recognize the occurrence event E A as the first event. The daily event list 561 is a list of events included in the daily range. The daily event list 561 and other recognition methods will be described later.

通知部532は、事象認識部531により第1事象が発生していることが認識された場合、第1車両10Aの乗員であるユーザAに対して第1車両10Aの周辺において発生している事象に関する情報を通知する。通知部532は、例えば、第1事象と認識された発生事象Eが発生していることを音声や画像で表す通知情報を生成する。通知部532は、生成した通知情報を、通信部510を介して、第1車両10Aあるいはユーザ端末70Aに送信する。 When the event recognition unit 531 recognizes that the first event has occurred, the notification unit 532 indicates the event occurring in the vicinity of the first vehicle 10A to the user A who is a occupant of the first vehicle 10A. Notify information about. Notification unit 532 generates, for example, the notification information expressed by sound or image that recognized generated event E A first event is occurring. The notification unit 532 transmits the generated notification information to the first vehicle 10A or the user terminal 70A via the communication unit 510.

なお、事象認識部531により発生事象Eに基づいて第1事象が発生していることが認識された場合、通知部532は、発生事象Eが発生している位置を導出し、導出した発生事象Eが発生している位置に基づいて、発生事象Eを車室内から見ることができる車両10を抽出する。通知部532は、発生事象Eが発生している位置を示す情報として、緯度、経度、垂直方向の高さを導出する。通知部532は、例えば、車両10の周辺の建物の高さや、発生事象Eが発生している位置と車両10の位置とを結ぶ直線上に位置する障害物などの地理情報に基づいて、車室内から見ることができる車両10を抽出してもよい。地理情報は、外部サーバに保存されていてもよく、第2記憶部560に記憶されていてもよい。通知部532は、抽出した車両10の乗員に対して発生事象Eを通知する。以下、発生事象Eについては、通知する相手である「第1車両10の乗員」を「抽出した車両の乗員」と読み換えればよい。 Incidentally, if the first event based on the occurred event E C by event recognition unit 531 is recognized to have occurred, the notification unit 532 derives the position occurred event E C has occurred, derived based on the position where the occurred event E C has occurred, to extract the vehicle 10 you can see the occurred event E C from the passenger compartment. Notification unit 532, as information indicating the position where the occurred event E C has occurred, deriving a latitude, longitude, vertical height. Notification unit 532, for example, based on the geographic information of an obstacle located on a straight line connecting height and buildings around the vehicle 10 and the position of the vehicle 10 to generate event E C has occurred, The vehicle 10 that can be seen from the passenger compartment may be extracted. The geographic information may be stored in an external server or may be stored in the second storage unit 560. Notification unit 532 notifies the occurrence event E C with respect to the occupant of the extracted vehicle 10. Hereinafter, for the occurred event E C, a counterpart to notify the "occupant of the first vehicle 10" or In other read as "extracted vehicle occupant".

また、事象認識部531は、第1車両10Aの周辺の地域において日常の範囲に含まれるが、第1車両の乗員にとって日常の範囲に含まれない事象(以下、第2事象と記す)が発生していることを認識する。例えば、認識した発生事象Eが日常事象リスト561に含まれる事象に該当し、且つ、ユーザごとリスト563に含まれる事象に該当する場合、事象認識部531は、第2事象が発生していることを認識する。 In addition, the event recognition unit 531 has an event (hereinafter referred to as a second event) that is included in the daily range in the area around the first vehicle 10A but is not included in the daily range for the occupants of the first vehicle. Recognize that you are doing. For example, recognized the occurred event E A is corresponds to an event that is included in the daily events list 561, and, if applicable to events included in the user listwise 563, the event recognition unit 531, a second event occurs Recognize that.

通知部532は、事象認識部531により第2事象が発生していることが認識された場合、第1車両10Aの乗員であるユーザAに対して第1車両10Aの周辺において発生している事象に関する情報を通知する。通知部532は、例えば、第2事象と認識された発生事象Eが発生していることを音声や画像で表す通知情報を生成する。通知部532は、生成した通知情報を、通信部510を介して、第1車両10Aあるいはユーザ端末70Aに送信する。 When the event recognition unit 531 recognizes that the second event has occurred, the notification unit 532 indicates the event occurring in the vicinity of the first vehicle 10A to the user A who is a occupant of the first vehicle 10A. Notify information about. Notification unit 532 generates, for example, the notification information expressed by sound or image that recognized generated event E A and the second event occurs. The notification unit 532 transmits the generated notification information to the first vehicle 10A or the user terminal 70A via the communication unit 510.

また、事象認識部531は、認識した発生事象Eがユーザごとリスト563に含まれる事象に該当する場合、第1車両10Aの乗員にとって日常でない範囲に含まれる事象であると判定する。ユーザごとリスト563には、例えば、ユーザにより日常でない範囲として設定された事象や、ユーザにより通知対象として設置された事象が含まれる。ユーザごとリスト563には、例えば、非日常事象リスト562の一部と重複する事象が含まれていてもよい。 Also, the event recognition unit 531, if recognized developmental events E A corresponds to an event that is included in the user listwise 563 determines that for the passenger in the first vehicle 10A, an event that is included in the range that is not routine. The user-by-user list 563 includes, for example, an event set as an extraordinary range by the user and an event set as a notification target by the user. The per-user list 563 may include, for example, events that overlap part of the extraordinary event list 562.

また、事象認識部531は、認識した発生事象Eが非日常事象リスト562に該当するか否かを判定するとともに、認識した発生事象Eが日常事象リスト561に該当するか否かを判定してもよい。 Also, the event recognition unit 531, the determination together with the recognized event occurrence E A to determine whether true extraordinary event list 562, the recognized developmental events E A is whether corresponds to everyday events list 561 You may.

ユーザ確認部533は、認識した発生事象Eが非日常事象リスト562に該当せず、且つ、認識した発生事象Eが日常事象リスト561にも該当しない場合、第1車両10Aの乗員であるユーザAに対して通知の有無を確認する。例えば、ユーザ確認部533は、第1車両10Aのマイク410から「車両周辺で認識した事象について通知しますか?」という音声を出力させる。これに限られず、ユーザ確認部533は、ユーザAのユーザ端末70Aに同様の趣旨のメッセージを表示させたり、音声を出力させてもよい。ユーザ確認部533は、通信部510を介して受信した音声ストリームや、表示・操作装置420が受け付けたユーザからの指示情報に基づいて、ユーザへの確認に対するユーザからの回答を受け付ける。 User confirmation section 533 recognized the occurred event E A does not correspond to the extraordinary event list 562, and, if recognized developmental events E A does not correspond to a daily event list 561 is the occupant of the first vehicle 10A Confirm the presence or absence of notification to user A. For example, the user confirmation unit 533 outputs a voice "Do you want to be notified of an event recognized around the vehicle?" From the microphone 410 of the first vehicle 10A. Not limited to this, the user confirmation unit 533 may display a message to the same effect on the user terminal 70A of the user A or output a voice. The user confirmation unit 533 receives a response from the user to the confirmation to the user based on the voice stream received via the communication unit 510 and the instruction information from the user received by the display / operation device 420.

通知部532は、ユーザ確認部533による確認において、車両周辺で認識した事象を通知することがユーザAにより指示された場合、発生事象Eが非日常事象リスト562に該当せず、且つ、日常事象リスト561にも該当しない場合であっても、発生事象Eが発生していることをユーザAに対して通知する。 Notification unit 532, the confirmation by the user confirmation unit 533, if it notifies the event recognized around the vehicle is instructed by the user A, produced event E A does not correspond to the extraordinary event list 562, and, daily even if that does not correspond to the event list 561, notifying that the occurred event E a is occurring for the user a.

リスト編集部534は、車両周辺で認識した事象を通知することがユーザAにより指示された場合、認識された発生事象Eを、ユーザごとリスト563に追加する。また、リスト編集部534は、認識した事象以外であっても、ユーザAによって指示された事象をユーザごとリスト563に追加し、あるいは削除してもよい。 List editing unit 534, if it notifies the event recognized around the vehicle is instructed by the user A, the recognized generated event E A, is added to the user for each list 563. Further, the list editing unit 534 may add or delete the event instructed by the user A to the list 563 for each user, even if the event is not the recognized event.

リスト編集部534は、第1車両10Aの乗員による指示に基づいて、非日常事象リスト562を編集する。例えば、リスト編集部534は、一般的には日常の範囲に含まれる事象であっても、ユーザが通知を希望する事象を非日常事象リスト562に追加する。リスト編集部534は、一般的には日常でない範囲に含まれる事象であっても、ユーザが通知を希望しない事象を、非日常事象リスト562から削除してもよい。 The list editing unit 534 edits the extraordinary event list 562 based on the instructions given by the occupants of the first vehicle 10A. For example, the list editorial unit 534 adds an event that the user wants to be notified to the extraordinary event list 562, even if the event is generally included in the daily range. The list editorial unit 534 may delete an event that the user does not want to be notified from the extraordinary event list 562, even if the event is generally included in a non-daily range.

リスト編集部534は、第1車両10Aの乗員による指示に基づいて、日常事象リスト561を編集してもよい。例えば、リスト編集部534は、一般的には日常でない範囲に含まれる事象であっても、ユーザが通知を希望しない事象を日常事象リスト561に追加する。リスト編集部534は、一般的には日常の範囲に含まれる事象であっても、ユーザが通知を希望する事象を日常事象リスト561から削除する。 The list editing unit 534 may edit the daily event list 561 based on the instructions given by the occupants of the first vehicle 10A. For example, the list editorial unit 534 adds an event that the user does not want to be notified to the daily event list 561 even if the event is generally included in a range other than daily. The list editorial unit 534 deletes an event that the user wants to be notified from the daily event list 561 even if the event is generally included in the daily range.

学習部535は、車両周辺で認識した事象を通知することが第1車両10Aの乗員により指示された場合、周辺車両で認識した事象(つまり、発生事象E)に基づいて、ユーザ事象識別モデル564を、第1車両10Aの乗員ごとに学習する。例えば、学習部535は、発生事象Eに基づく情報を教師データとして、ユーザ事象識別モデル564を学習する。この学習する処理については、知られている種々の手法が用いられてよい。ユーザ事象識別モデル564は、入力した事象が、ユーザに通知する事象であるか否かをユーザごとに識別するモデルである。なお、ユーザ事象識別モデル564は、ユーザごとに用意されたモデルを複数含むものであってもよい。 Learning unit 535, if it notifies the event recognized around the vehicle is instructed by the occupant of the first vehicle 10A, event recognized around the vehicle (i.e., generating an event E A) based on the user event identification model 564 is learned for each occupant of the first vehicle 10A. For example, the learning unit 535, the information based on the generated event E A as teacher data, to learn the user event identification model 564. Various known methods may be used for this learning process. The user event identification model 564 is a model that identifies for each user whether or not the input event is an event to be notified to the user. The user event identification model 564 may include a plurality of models prepared for each user.

学習部535は、認識した発生事象Eが非日常事象リスト562に含まれる事象と合致せず、且つ、認識した発生事象Eが日常事象リスト561に含まれる事象と合致しない場合であって、発生事象Eを通知することがユーザによって指示された場合、発生事象Eに基づいて、ユーザ事象識別モデル564を、第1車両10Aの乗員ごとに学習してもよい。 Learning unit 535 does not match the event recognized developmental events E A is included in the extraordinary event list 562, and, recognized developmental events E A is a case that does not match the event included in the daily events list 561 , if it is notified of the occurrence event E a is instructed by the user, based on the occurred event E a, a user event identification model 564, it may be learned every passenger in the first vehicle 10A.

事象認識部531は、ユーザ事象識別モデル564を用いて、認識した発生事象EがユーザAに通知する事象であるか否かを識別してもよい。例えば、ユーザ事象識別モデル564に入力された発生事象EがユーザAに通知する事象であると識別された場合、通知部532は、発生事象Eが発生していることをユーザAに対して通知する。 Event recognition unit 531, using the user event identification model 564, recognized the occurred event E A may identify whether an event to notify the user A. For example, when the occurrence event E A input to the user event identification model 564 is identified as an event to be notified to the user A, the notification unit 532 informs the user A that the occurrence event E A has occurred. Notify.

データ取得部536は、通知部532により乗員に通知された発生事象Eについての発生事象データを生成する。発生事象データとは、発生事象Eを撮像した画像データあるいは動画データを含む。例えば、データ取得部536は、事象認識部531により通知事象(第1事象やユーザAに通知する事象を含む)であることが認識された場合、周辺状況情報に基づいて発生事象Eが発生した時刻(以下、発生時刻と記す)を特定する。データ取得部536は、特定した発生時刻を含む一定期間において撮像された画像データや動画データの送信を、通信部510を介して車内通知装置300に依頼する。依頼を受けた車内通知装置300は、車内記憶部330から発生時刻を含む所定時間の画像データあるいは動画データを、情報提供装置500に送信する。データ取得部536は、車内通知装置300から受信した画像データあるいは動画データに基づいて発生事象データを生成する。データ取得部536により生成された発生事象データは、通知部532により、通知情報が通知された乗員に対して送信されてよい。なお、通知部532は、通知情報に換えて、発生事象データを第1車両10Aあるいはユーザ端末70Aに送信することで、発生事象Eを乗員に通知してもよい。例えば、乗員が寝ている場合や、赤ちゃんが乗車している場合、通知情報を音声で通知せずに、画像データを表示させることで、車室内の快適性を向上させることができる。 Data acquisition unit 536 generates generation event data for generating an event E A that is notified to the occupant by the notification unit 532. The generated event data, including image data or moving image data obtained by capturing the occurrence event E A. For example, the data acquisition unit 536, if the event recognition unit 531 that is notified event (including the event to notify the first event and the user A) is recognized, it occurred event E A based on the surrounding situation information generation Specify the time (hereinafter referred to as the occurrence time). The data acquisition unit 536 requests the in-vehicle notification device 300 via the communication unit 510 to transmit the image data and the moving image data captured in a certain period including the specified occurrence time. Upon receiving the request, the in-vehicle notification device 300 transmits image data or moving image data for a predetermined time including the occurrence time from the in-vehicle storage unit 330 to the information providing device 500. The data acquisition unit 536 generates event data based on the image data or the moving image data received from the in-vehicle notification device 300. The occurrence event data generated by the data acquisition unit 536 may be transmitted by the notification unit 532 to the occupant to whom the notification information has been notified. The notification unit 532, instead of the notification information, the event occurrence data by transmitting the first vehicle 10A or the user terminal 70A, the occurred event E A may notify the occupant. For example, when the occupant is sleeping or the baby is on board, the comfort in the vehicle interior can be improved by displaying the image data without notifying the notification information by voice.

運転指示部537は、事象認識部531により通知事象(第1事象やユーザAに通知する事象を含む)であることが認識された場合、第1車両10Aに対して徐行運転するよう指示する。このとき、運転指示部537は、徐行運転するための走行速度や走行距離等を決定し、第1車両10Aに指示してもよい。指示を受けた第1車両10Aは、自動運転で徐行運転を実行する。こうすることにより、乗員が車両周辺の事象を確認しやすくなる。 When the event recognition unit 531 recognizes that the notification event (including the first event and the event notified to the user A), the driving instruction unit 537 instructs the first vehicle 10A to drive slowly. At this time, the driving instruction unit 537 may determine the traveling speed, the traveling distance, and the like for slow driving, and instruct the first vehicle 10A. Upon receiving the instruction, the first vehicle 10A executes slow driving by automatic driving. This makes it easier for the occupant to check the events around the vehicle.

データ管理部538は、通信部510を介して車両10や車外検出装置700から受信した情報を、第2記憶部560に格納する。例えば、データ管理部538は、車両10から受信した現在位置情報と車両IDとを対応付けた情報を、車両位置情報565の一部として第2記憶部560に格納する。データ管理部538は、車両10や車外検出装置700から受信した周辺状況情報を、周辺状況情報566の一部として第2記憶部560に格納する。データ管理部538は、車両10や車外検出装置700から受信した画像データや動画データ、生成した発生事象データを周辺状況情報566の一部として第2記憶部560に格納してもよい。 The data management unit 538 stores the information received from the vehicle 10 and the out-of-vehicle detection device 700 via the communication unit 510 in the second storage unit 560. For example, the data management unit 538 stores the information in which the current position information received from the vehicle 10 and the vehicle ID are associated with each other in the second storage unit 560 as a part of the vehicle position information 565. The data management unit 538 stores the peripheral situation information received from the vehicle 10 and the outside detection device 700 in the second storage unit 560 as a part of the peripheral situation information 566. The data management unit 538 may store the image data, the moving image data, and the generated occurrence event data received from the vehicle 10 or the vehicle outside detection device 700 in the second storage unit 560 as a part of the peripheral situation information 566.

他車両検出部539は、車両位置情報565を参照して、通知情報を送信する他車両を検出する。例えば、第1車両10Aの周辺において通知事象が発生していることが認識された場合、第1車両10Aを含む所定のエリアに存在する他車両を検出する。通知部532は、他車両検出部539により検出された他車両に対して、他車両の周辺において発生事象Eが発生していることを通知する。他車両検出部539は、上述した通知部532の処理と同様にして、発生事象Eが発生している位置を導出し、導出した発生事象Eが発生している位置を車室内から見ることができる他車両を抽出する。こうすることにより、第1車両10Aにより認識された発生事象Eを、周辺を走行している他車両に対しても通知することできる。 The other vehicle detection unit 539 refers to the vehicle position information 565 and detects another vehicle that transmits the notification information. For example, when it is recognized that a notification event has occurred around the first vehicle 10A, another vehicle existing in a predetermined area including the first vehicle 10A is detected. Notification unit 532 notifies the other vehicle detected by another vehicle detection unit 539, the occurred event E A in the vicinity of the other vehicles has occurred. Other vehicle detecting portion 539, similarly to the processing of the notification unit 532 described above, derives the position occurred event E A has occurred, the derived occurred event E A sees position occurring from the vehicle interior Extract other vehicles that can. By doing so, the recognized generated event E A by the first vehicle 10A, can be also notifies to the other vehicle traveling on the periphery.

[日常事象リストと非日常事象リスト]
以下、日常事象リスト561と非日常事象リスト562の一例について説明する。
[Daily event list and extraordinary event list]
Hereinafter, an example of the daily event list 561 and the extraordinary event list 562 will be described.

日常事象リスト561には、例えば、雪国で雪が降る事象、日光でサルが出現する事象、田舎にタヌキが出現する事象等が含まれる。 The daily event list 561 includes, for example, an event in which it snows in a snowy country, an event in which monkeys appear in sunlight, an event in which a raccoon dog appears in the countryside, and the like.

非日常事象リスト562には、例えば、地域に依らず出現確率が非常に低い第1現象(例えば、虹、流れ星、UFO、隕石落下など)が含まれる。この第1現象は、後述する第2現象や第3現象に比べて、通知レベルが高い通知情報の一例である。 The extraordinary event list 562 includes, for example, the first phenomenon (eg, rainbow, shooting star, UFO, meteorite fall, etc.) with a very low probability of occurrence regardless of region. This first phenomenon is an example of notification information having a higher notification level than the second and third phenomena described later.

非日常事象リスト562には、第1現象よりも出現確率が高いものの地域の依らず珍しい第2現象(例えば、ゲリラ豪雨など)が含まれてもよい。珍しい第2現象には、例えば、出現態様が通常の態様に該当しない現象(例えば、珍しい形の雲の出現、珍しい色の月の出現など)が含まれる。 The extraordinary event list 562 may include a second phenomenon (for example, guerrilla rainstorm) that has a higher probability of appearing than the first phenomenon but is rare regardless of the region. The unusual second phenomenon includes, for example, a phenomenon in which the appearance mode does not correspond to the normal mode (for example, the appearance of an unusually shaped cloud, the appearance of an unusually colored moon, etc.).

非日常事象リスト562には、例えば、発生事象Eが発生した地域において出現確率が低い第3現象(例えば、雪があまり降らない地域での雪、季節外れの雷など)が含まれてもよい。この第3現象には、発生事象Eが発生した地域において出現頻度が低い動物(例えば、都会でのタヌキなど)が出現する現象などが含まれてよい。 The extraordinary event list 562, for example, occurred event E A appearance probability is low third phenomenon in the region that have occurred (for example, snow in the snow is not too much rain the region, such as the thunder out of season) may be included. This third phenomenon occurred event E A frequency lower animals in areas occurs (e.g., raccoon like in the city) may include such phenomena appear.

この第3現象には、第1車両10Aの現在位置において前回出現した時刻からの経過時間が閾値を超えた現象(例えば、数か月ぶりの雨、数か月ぶりの雪、数か月ぶりの雷など)が含まれてもよい。通知部532は、乗員に通知した事象と同一の事象が、前回の通知から所定期間以内に再び発生した場合、通知対象から除外する。例えば、通知部532は、事象認識部531により第3現象が発生していると認識された場合、同一の現象が発生した前回の発生日時から所定時間が経過している場合、乗員に対して通知するようにしてもよい。つまり、前回の発生日時から所定時間が経過していない場合、通知部532は、乗員に対して通知しないようにしてもよい。また、通知部532は、同じ年の同じ季節において同一の現象が発生した場合、初回のみ乗員に通知し、二回目以降は通知しないようにしてもよい。 This third phenomenon includes a phenomenon in which the elapsed time from the time of the previous appearance at the current position of the first vehicle 10A exceeds the threshold value (for example, rain for the first time in several months, snow for the first time in several months, and snow for the first time in several months). Thunder, etc.) may be included. The notification unit 532 excludes the same event as the event notified to the occupant from the notification target when it occurs again within a predetermined period from the previous notification. For example, when the event recognition unit 531 recognizes that the third phenomenon has occurred, the notification unit 532 informs the occupant when a predetermined time has elapsed from the previous date and time when the same phenomenon occurred. You may want to be notified. That is, if the predetermined time has not passed since the previous occurrence date and time, the notification unit 532 may not notify the occupant. Further, when the same phenomenon occurs in the same season of the same year, the notification unit 532 may notify the occupant only for the first time and not for the second and subsequent times.

非日常事象リスト562には、例えば、有名人が出現しそうな状況(有名人が出演するイベントや撮影ロケが実施されている状況など)が出現する事象が含まれてよい。有名人は、例えば、地域によらず有名な人物(全国的に知名度があるタレントや国会議員など)や、その地域において有名な人物(市長、市議会議員、ご当地アイドルなど)が含まれる。 The extraordinary event list 562 may include, for example, an event in which a celebrity is likely to appear (such as an event in which a celebrity appears or a shooting location is being carried out). Celebrities include, for example, famous people regardless of region (nationally well-known talents, members of parliament, etc.) and people famous in the area (mayor, city council members, local idols, etc.).

非日常事象リスト562には、例えば、普段の町の様子と異なる景色(例えば、提灯、のぼり旗、お囃子、町内放送など)が出現する事象が含まれてよい。非日常事象リスト562には、話題のもの(最近オープンした話題の施設、人気のラーメン店、人気のパン屋など)が出現する事象が含まれてよい。非日常事象リスト562には、他の季節には珍しい季節もの(例えば、桜、紅葉など)が出現する現象などが含まれてよい。 The extraordinary event list 562 may include, for example, an event in which a landscape different from the usual appearance of the town (for example, a lantern, a banner, a musical accompaniment, a town broadcast, etc.) appears. The extraordinary event list 562 may include events in which topical items (recently opened topical facilities, popular ramen shops, popular bakeries, etc.) appear. The extraordinary event list 562 may include a phenomenon in which seasonal events (for example, cherry blossoms, autumn leaves, etc.) that are rare in other seasons appear.

[処理フロー]
次に、実施形態の情報提供装置500により実行される処理の流れの一例について説明する。ここでは、第1車両10Aが、第1車両10Aの周辺の周辺状況情報を情報提供装置500に送信する例について説明する。
[Processing flow]
Next, an example of the flow of processing executed by the information providing device 500 of the embodiment will be described. Here, an example in which the first vehicle 10A transmits the peripheral situation information around the first vehicle 10A to the information providing device 500 will be described.

[処理フロー(その1)]
図6は、情報提供装置500により実行される処理(その1)の一例を示すフローチャートである。まず、事象認識部531は、周辺状況情報を取得し(ステップS101)、取得した周辺状況情報に基づいて、発生事象Eを認識する(ステップS103)。事象認識部531は、発生事象Eと非日常事象リスト562とを照合する(ステップS105)。認識した発生事象Eが非日常事象リスト562に含まれる事象と合致する場合(ステップS107)、事象認識部531は、第1事象が発生していることを認識する(ステップS109)。そして、通知部532は、第1車両10Aの乗員であるユーザAに対して第1車両10Aの周辺において発生している事象を通知する(ステップS111)。そして、データ取得部536は、発生事象Eについての発生事象データを生成する(ステップS113)。通知部532は、生成された発生事象データを第1車両10Aの乗員であるユーザAに対して通知してもよい。
[Processing flow (1)]
FIG. 6 is a flowchart showing an example of the process (No. 1) executed by the information providing device 500. First, the event recognition unit 531 acquires the peripheral status information (step S101), based on the acquired peripheral status information, recognizes the occurred event E A (step S103). Event recognition unit 531 collates the generated event E A and extraordinary event list 562 (step S105). If recognized developmental events E A matches the events included in the extraordinary event list 562 (step S107), the event recognition unit 531 recognizes that the first event has occurred (step S109). Then, the notification unit 532 notifies the user A, who is an occupant of the first vehicle 10A, of an event occurring in the vicinity of the first vehicle 10A (step S111). Then, the data acquisition unit 536 generates generation event data for generating an event E A (step S113). The notification unit 532 may notify the generated event data to the user A who is an occupant of the first vehicle 10A.

ステップS107において、認識した発生事象Eが非日常事象リスト562に含まれる事象と合致しない場合、事象認識部531は、発生事象Eとユーザごとリスト563とを照合する(ステップS115)。認識した発生事象Eがユーザごとリスト563に含まれる事象と合致する場合(ステップS117)、ステップS111に移行する。 In step S107, recognized developmental events E A may not match the events included in the extraordinary event list 562, event recognizer 531 compares the generated event E A and user listwise 563 (step S115). If recognized developmental events E A matches the events included in the user listwise 563 (step S117), the process proceeds to step S111.

[処理フロー(その2)]
図7は、情報提供装置500により実行される処理(その2)の一例を示すフローチャートである。まず、事象認識部531は、周辺状況情報を取得し(ステップS201)、取得した周辺状況情報に基づいて、発生事象Eを認識する(ステップS203)。事象認識部531は、発生事象Eと日常事象リスト561とを照合する(ステップS205)。認識した発生事象Eが日常事象リスト561に含まれる事象と合致しない場合(ステップS207)、事象認識部531は、第1事象が発生していることを認識する(ステップS209)。そして、通知部532は、第1車両10Aの乗員であるユーザAに対して第1車両10Aの周辺において発生している事象を通知する(ステップS211)。そして、データ取得部536は、発生事象Eについての発生事象データを生成する(ステップS213)。通知部532は、生成された発生事象データを第1車両10Aの乗員であるユーザAに対して通知してもよい。
[Processing flow (2)]
FIG. 7 is a flowchart showing an example of the process (No. 2) executed by the information providing device 500. First, the event recognition unit 531 acquires the peripheral status information (step S201), based on the acquired peripheral status information, recognizes the occurred event E A (step S203). Event recognition unit 531 collates the generated event E A and everyday events list 561 (step S205). If recognized developmental events E A does not match the event included in the daily events list 561 (step S207), the event recognition unit 531 recognizes that the first event has occurred (step S209). Then, the notification unit 532 notifies the user A who is an occupant of the first vehicle 10A of an event occurring in the vicinity of the first vehicle 10A (step S211). Then, the data acquisition unit 536 generates generation event data for generating an event E A (step S213). The notification unit 532 may notify the generated event data to the user A who is an occupant of the first vehicle 10A.

ステップS207において、認識した発生事象Eが日常事象リスト561に含まれる事象と合致する場合、事象認識部531は、発生事象Eとユーザごとリスト563とを照合する(ステップS215)。認識した発生事象Eがユーザごとリスト563に含まれる事象と合致する場合(ステップS217)、ステップS211に移行する。 In step S207, if the recognized developmental events E A matches the events included in the daily events list 561, the event recognition unit 531 collates the event occurrence E A and user listwise 563 (step S215). If recognized developmental events E A matches the events included in the user listwise 563 (step S217), the process proceeds to step S211.

[処理フロー(その3)]
図8は、情報提供装置500により実行される処理(その3)の一例を示すフローチャートである。まず、事象認識部531は、周辺状況情報を取得し(ステップS301)、取得した周辺状況情報に基づいて、発生事象Eを認識する(ステップS303)。事象認識部531は、発生事象Eと非日常事象リスト562とを照合する(ステップS305)。認識した発生事象Eが非日常事象リスト562に含まれる事象と合致する場合(ステップS307)、事象認識部531は、第1事象が発生していることを認識する(ステップS309)。そして、通知部532は、第1車両10Aの乗員であるユーザAに対して第1車両10Aの周辺において発生している事象を通知する(ステップS311)。そして、データ取得部536は、発生事象Eについての発生事象データを生成する(ステップS313)。通知部532は、生成された発生事象データを第1車両10Aの乗員であるユーザAに対して通知してもよい。
[Processing flow (3)]
FIG. 8 is a flowchart showing an example of the process (No. 3) executed by the information providing device 500. First, the event recognition unit 531 acquires the peripheral status information (step S301), based on the acquired peripheral status information, recognizes the occurred event E A (step S303). Event recognition unit 531 collates the generated event E A and extraordinary event list 562 (step S305). If recognized developmental events E A matches the events included in the extraordinary event list 562 (step S307), the event recognition unit 531 recognizes that the first event has occurred (step S309). Then, the notification unit 532 notifies the user A, who is an occupant of the first vehicle 10A, of an event occurring in the vicinity of the first vehicle 10A (step S311). Then, the data acquisition unit 536 generates generation event data for generating an event E A (step S313). The notification unit 532 may notify the generated event data to the user A who is an occupant of the first vehicle 10A.

ステップS307において、認識した発生事象Eが非日常事象リスト562に含まれる事象と合致しない場合、事象認識部531は、発生事象Eと日常事象リスト561とを照合する(ステップS315)。認識した発生事象Eが日常事象リスト561に含まれる事象と合致しない場合(ステップS317)、ユーザ確認部533は、第1車両10Aの乗員であるユーザAに対して通知の有無を確認する(ステップS319)。そして、ユーザ確認部533は、ユーザAから確認された事象を通知することが指示されたか否かを判定し(ステップS321)、通知することが指示された場合、ステップS311に移行する。なお、ステップS321の判定結果は、学習部535による学習の教師データとして用いられてよい。 In step S307, recognized developmental events E A may not match the events included in the extraordinary event list 562, event recognizer 531 compares the generated event E A and everyday events list 561 (step S315). When the recognized event E A does not match the event included in the daily event list 561 (step S317), the user confirmation unit 533 confirms the presence / absence of notification to the user A who is the occupant of the first vehicle 10A (step S317). Step S319). Then, the user confirmation unit 533 determines whether or not the user A has instructed to notify the confirmed event (step S321), and if instructed to notify, the process proceeds to step S311. The determination result in step S321 may be used as teacher data for learning by the learning unit 535.

以上説明した実施形態の情報提供装置500によれば、第1車両10Aの周辺において取得された情報に基づいて、第1車両10Aの周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識する事象認識部531と、第1事象が発生していることが認識された場合、第1車両10Aの乗員に対して第1事象に関する情報を通知する通知部532とを備えることにより、車両の周辺において発生している所定の事象を乗員に気づかせることができる。 According to the information providing device 500 of the embodiment described above, a first event included in an unusual range occurs in the area around the first vehicle 10A based on the information acquired in the vicinity of the first vehicle 10A. It is provided with an event recognition unit 531 that recognizes that the event is occurring, and a notification unit 532 that notifies the occupants of the first vehicle 10A of information about the first event when it is recognized that the first event has occurred. As a result, it is possible to make the occupant aware of a predetermined event occurring in the vicinity of the vehicle.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
第1車両の周辺において取得された情報に基づいて、前記第1車両の周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識し、
前記第1事象が発生していることが認識された場合、前記第1車両の乗員に対して前記第1事象に関する情報を通知する、
ように構成されている、情報提供装置。
The embodiment described above can be expressed as follows.
A storage device that stores programs and
With a hardware processor,
When the hardware processor executes a program stored in the storage device,
Based on the information acquired around the first vehicle, it is recognized that the first event included in the non-daily range is occurring in the area around the first vehicle.
When it is recognized that the first event has occurred, the occupants of the first vehicle are notified of the information regarding the first event.
An information provider that is configured to.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

例えば、情報提供装置500に含まれる構成が車両10に搭載されていてもよい。例えば、車両10は、他車両への通知が必要ない場合(自車両のみへの通知を行う場合)、車両10の周辺において認識された事象を、車両10の乗員に通知してもよい。 For example, the configuration included in the information providing device 500 may be mounted on the vehicle 10. For example, when the vehicle 10 does not need to notify other vehicles (when notifying only its own vehicle), the vehicle 10 may notify the occupants of the vehicle 10 of the events recognized in the vicinity of the vehicle 10.

500 情報提供装置
531 事象認識部
532 通知部
533 ユーザ確認部
534 リスト編集部
535 学習部
536 データ取得部
537 運転指示部
538 データ管理部
539 他車両検出部
500 Information providing device 531 Event recognition unit 532 Notification unit 533 User confirmation unit 534 List editing unit 535 Learning unit 536 Data acquisition unit 537 Driving instruction unit 538 Data management unit 539 Other vehicle detection unit

Claims (15)

第1車両の周辺において取得された情報に基づいて、前記第1車両の周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識する事象認識部と、
前記事象認識部により前記第1事象が発生していることが認識された場合、前記第1車両の乗員に対して前記第1事象に関する情報を通知する通知部と、
を備える情報提供装置。
An event recognition unit that recognizes that a first event included in an unusual range has occurred in the area around the first vehicle based on the information acquired around the first vehicle.
When the event recognition unit recognizes that the first event has occurred, the notification unit that notifies the occupants of the first vehicle of information about the first event, and the notification unit.
An information providing device including.
前記事象認識部は、前記認識した前記第1車両の周辺において発生している事象が、前記第1車両の周辺の地域において日常の事象として予め登録されている日常事象リストに該当する場合、前記発生している事象を前記第1事象として認識しない、
請求項1に記載の情報提供装置。
When the recognized event occurring in the vicinity of the first vehicle corresponds to a daily event list registered in advance as a daily event in the area around the first vehicle, the event recognition unit may use the event recognition unit. The event that is occurring is not recognized as the first event,
The information providing device according to claim 1.
前記事象認識部は、前記第1車両の周辺の地域において日常の範囲に含まれるが、前記第1車両の乗員にとって日常の範囲に含まれない第2事象が発生していることを更に認識し、
前記通知部は、前記事象認識部により前記第2事象が発生していることが認識された場合にも、前記第1車両の乗員に対して前記第2事象に関する情報を通知する、
請求項1または2に記載の情報提供装置。
The event recognition unit further recognizes that a second event that is included in the daily range in the area around the first vehicle but is not included in the daily range for the occupants of the first vehicle is occurring. And
The notification unit notifies the occupants of the first vehicle of information regarding the second event even when the event recognition unit recognizes that the second event has occurred.
The information providing device according to claim 1 or 2.
前記事象認識部は、前記認識した前記第1車両の周辺において発生している事象が、前記第1車両の周辺の地域において日常でない事象として予め登録されている非日常事象リストに該当する場合、前記発生している事象を前記第1事象として認識する、
請求項1から3のうちいずれか一項に記載の情報提供装置。
When the recognized event occurring in the vicinity of the first vehicle corresponds to an extraordinary event list registered in advance as an extraordinary event in the area around the first vehicle. Recognizes the occurring event as the first event,
The information providing device according to any one of claims 1 to 3.
前記第1車両の乗員による指示に基づいて、前記非日常事象リストを編集するリスト編集部をさらに備える、
請求項4に記載の情報提供装置。
A list editing unit that edits the extraordinary event list based on the instructions given by the occupants of the first vehicle is further provided.
The information providing device according to claim 4.
前記事象認識部が認識した前記第1車両の周辺において発生している事象が、前記第1車両の周辺の地域において日常である事象として予め登録されている日常事象リストに該当せず、且つ、前記第1車両の周辺の地域において日常でない事象として予め登録されている非日常事象リストにも該当しない場合、前記第1車両の乗員に対して通知の有無を確認する確認部をさらに備え、
前記通知部は、前記第1車両の乗員により通知することが指示された場合、前記第1車両の乗員に対して前記第1車両の周辺において発生している事象に関する情報を通知する、
請求項1から5のうちいずれか一項に記載の情報提供装置。
The event occurring in the vicinity of the first vehicle recognized by the event recognition unit does not correspond to the daily event list registered in advance as a daily event in the area around the first vehicle, and If it does not correspond to the extraordinary event list registered in advance as an unusual event in the area around the first vehicle, a confirmation unit for confirming the presence or absence of notification to the occupants of the first vehicle is further provided.
When instructed by the occupant of the first vehicle to notify, the notification unit notifies the occupant of the first vehicle of information on an event occurring in the vicinity of the first vehicle.
The information providing device according to any one of claims 1 to 5.
前記第1車両の乗員により通知することが指示された事象を、前記第1車両の乗員ごとに学習する学習部をさらに備える、
請求項6に記載の情報提供装置。
A learning unit for learning an event instructed to be notified by the occupant of the first vehicle for each occupant of the first vehicle is further provided.
The information providing device according to claim 6.
前記通知部は、前記第1車両の乗員に対して通知した事象と同一の事象が、前回の通知から所定期間以内に再び発生した場合、通知対象から除外する、
請求項1から7のうちいずれか一項に記載の情報提供装置。
If the same event as the event notified to the occupant of the first vehicle occurs again within a predetermined period from the previous notification, the notification unit excludes it from the notification target.
The information providing device according to any one of claims 1 to 7.
前記事象認識部は、前記第1車両に搭載された車載検出装置を用いて、走行中に検出された検出結果に基づいて、前記第1車両の周辺において発生している事象を認識する、
請求項1から8のうちいずれか一項に記載の情報提供装置。
The event recognition unit recognizes an event occurring in the vicinity of the first vehicle based on the detection result detected during traveling by using the in-vehicle detection device mounted on the first vehicle.
The information providing device according to any one of claims 1 to 8.
前記事象認識部は、前記第1車両に搭載された車載検出装置により検出された周辺状況と、車両の外部に設置された車外検出装置により検出された周辺状況のうち少なくとも一つに基づいて、前記事象が発生していることを認識する、
請求項1から9のうちいずれか一項に記載の情報提供装置。
The event recognition unit is based on at least one of the peripheral situation detected by the in-vehicle detection device mounted on the first vehicle and the peripheral situation detected by the external detection device installed outside the vehicle. Recognizes that the event is occurring,
The information providing device according to any one of claims 1 to 9.
前記事象認識部により前記事象が発生していることが認識された場合、前記第1車両に搭載されている撮像部を用いて前記事象を撮像したデータを取得するデータ取得部をさらに備える、
請求項1から10のうちいずれか一項に記載の情報提供装置。
When the event recognition unit recognizes that the event has occurred, a data acquisition unit that acquires data obtained by imaging the event using the image pickup unit mounted on the first vehicle is further added. Prepare, prepare
The information providing device according to any one of claims 1 to 10.
前記通知部は、前記事象が発生している地域を走行する第2車両の乗員に対してその旨を通知する、
請求項1から11のいうちいずれか一項に記載の情報提供装置。
The notification unit notifies the occupants of the second vehicle traveling in the area where the event is occurring to that effect.
The information providing device according to any one of claims 1 to 11.
前記事象認識部により前記第1事象が発生していることが認識された場合、前記第1車両に対して徐行運転を指示する運転指示部をさらに備える、
請求項1から12のうちいずれか一項に記載の情報提供装置。
When the event recognition unit recognizes that the first event has occurred, it further includes a driving instruction unit that instructs the first vehicle to drive slowly.
The information providing device according to any one of claims 1 to 12.
コンピュータが、
第1車両の周辺において取得された情報に基づいて、前記第1車両の周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識し、
前記第1事象が発生していることが認識された場合、前記第1車両の乗員に対して前記第1事象に関する情報を通知する、
情報提供方法。
The computer
Based on the information acquired around the first vehicle, it is recognized that the first event included in the non-daily range is occurring in the area around the first vehicle.
When it is recognized that the first event has occurred, the occupants of the first vehicle are notified of the information regarding the first event.
Information provision method.
コンピュータに、
第1車両の周辺において取得された情報に基づいて、前記第1車両の周辺の地域において日常でない範囲に含まれる第1事象が発生していることを認識させ、
前記第1事象が発生していることが認識された場合、前記第1車両の乗員に対して前記第1事象に関する情報を通知させる、
プログラム。
On the computer
Based on the information acquired in the vicinity of the first vehicle, it is made to recognize that the first event included in an unusual range occurs in the area around the first vehicle.
When it is recognized that the first event has occurred, the occupants of the first vehicle are notified of the information regarding the first event.
program.
JP2019132047A 2019-07-17 2019-07-17 Information providing device, information providing method, and program Pending JP2021018073A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019132047A JP2021018073A (en) 2019-07-17 2019-07-17 Information providing device, information providing method, and program
CN202010683587.6A CN112241677B (en) 2019-07-17 2020-07-15 Information providing apparatus, information providing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019132047A JP2021018073A (en) 2019-07-17 2019-07-17 Information providing device, information providing method, and program

Publications (1)

Publication Number Publication Date
JP2021018073A true JP2021018073A (en) 2021-02-15

Family

ID=74171200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132047A Pending JP2021018073A (en) 2019-07-17 2019-07-17 Information providing device, information providing method, and program

Country Status (2)

Country Link
JP (1) JP2021018073A (en)
CN (1) CN112241677B (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975951B (en) * 2010-06-09 2013-03-20 北京理工大学 Field environment barrier detection method fusing distance and image information
WO2017056570A1 (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Driving support device
JP6683803B2 (en) * 2016-04-18 2020-04-22 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
DE112016007376T5 (en) * 2016-10-25 2019-07-25 Mitsubishi Electric Corporation Device for determining peripheral information and method for determining peripheral information
JP6661796B2 (en) * 2017-01-06 2020-03-11 三菱電機株式会社 Notification control device and notification control method
CN109615894A (en) * 2018-12-29 2019-04-12 南京奥杰智能科技有限公司 Road section traffic volume road condition detection system for traffic information intelligent management

Also Published As

Publication number Publication date
CN112241677A (en) 2021-01-19
CN112241677B (en) 2024-07-19

Similar Documents

Publication Publication Date Title
US10875525B2 (en) Ability enhancement
JP7195161B2 (en) Guidance system, guidance method and program
US9875583B2 (en) Vehicle operational data acquisition responsive to vehicle occupant voice inputs
JP7275058B2 (en) Experience Delivery System, Experience Delivery Method and Experience Delivery Program
US20160167648A1 (en) Autonomous vehicle interaction with external environment
US20200309548A1 (en) Control apparatus, control method, and non-transitory computer-readable storage medium storing program
CN113176537A (en) Detection and classification of siren signals and location of siren signal source
JP2017068589A (en) Information processing apparatus, information terminal, and information processing method
JP6800340B2 (en) Vehicle control systems, vehicle control methods, and programs
CN111599356A (en) Intelligent system, information processing device, information processing method, and storage medium
CN114756700B (en) Scene library establishing method and device, vehicle, storage medium and chip
KR20230051412A (en) Techniques for finding and accessing vehicles
US11705141B2 (en) Systems and methods to reduce audio distraction for a vehicle driver
CN115035494A (en) Image processing method, image processing device, vehicle, storage medium and chip
JP7210394B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP2021018073A (en) Information providing device, information providing method, and program
US20220208187A1 (en) Information processing device, information processing method, and storage medium
JP7489314B2 (en) VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD, AND PROGRAM
WO2021075112A1 (en) Information processing device, information processing method, and program
JP7208114B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP7311331B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
WO2023204076A1 (en) Acoustic control method and acoustic control device
JP2022103472A (en) Information processor, information processing method, and program
JP2020166075A (en) Voice interface system
JP2020166074A (en) Voice interface system